Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Tesla: Autopilot stond aan bij fatale crash Model X

Volgens Tesla blijkt uit onderzoek dat bij het ongeluk van een Model X, waarbij de chauffeur verongelukte, Autopilot aan stond. Ook zou de chauffeur enkele waarschuwingen van de auto hebben gekregen, maar deze hebben genegeerd.

De populaire maker van elektrische auto's stelde dat er bij het ongeluk in de Amerikaanse staat Californië verscheidene 'visuele en hoorbare' waarschuwingen zijn gegeven aan de chauffeur, die genegeerd zouden zijn. Tesla gaat hier echter verder niet op in, waardoor onduidelijk is of de waarschuwingen daadwerkelijk betrekking hadden op het naderende ongeluk, of dat deze ongerelateerd zijn.

De software detecteerde verder dat de chauffeur zijn handen in de zes seconden voor de crash niet aan het stuur had. Het bedrijf gaat echter niet in op wat de slimme software van Tesla deed om het ongeluk al dan niet te voorkomen. Wel zou de chauffeur 150 meter goed zicht hebben gehad alvorens de Model X verongelukte.

Eerder deze week liet Tesla nog weten dat het moeilijk de oorzaak van het ongeluk kon achterhalen doordat het de logs nog niet had ingezien, en daardoor ook nog niet wist of Autopilot aan stond. Dat lijkt dus nu, gezien de vrijgegeven data, wel het geval te zijn. Desondanks zijn niet alle vragen opgehelderd, aangezien er geen informatie is over de handelingen van het Autopilot-systeem en waarom de chauffeur de gegeven waarschuwingen niet opvolgde.

Het ongeluk was volgens Tesla zo ernstig als gevolg van het niet-repareren van een rimpelbuisobstakelbeveiliger na een ander ongeluk. Deze zogenaamde rimob moet de kracht van een aanrijding met bijvoorbeeld een betonnen wegafscheiding verminderen. Volgens Amerikaanse media raakte de Model X een dergelijke afscheiding en werd hij vervolgens door twee andere voertuigen geraakt.

De Amerikaanse NHTSA, oftewel National Highway Traffic and Safety Administration, startte eerder al een onderzoek naar de rol van Autopilot, nadat een eigenaar van een Model S was verongelukt. Toen vonden de autoriteiten dat zowel de bestuurder als de software schuld had aan de crash. De NHTSA heeft aangegeven ook onderzoek te zullen doen naar de crash van de Model X in Californië.

Kortgeleden kreeg een zelfrijdende testauto van Uber te maken met een ongeluk, waarbij een 49-jarige vrouw om het leven kwam na te zijn aangereden. Daarop zijn de tests stopgezet. Ook Nvidia kondigde aan voorlopig te stoppen met het testen van zelfrijdende auto's.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

31-03-2018 • 12:03

428 Linkedin Google+

Reacties (428)

-14280414+1205+224+30Ongemodereerd152
Wijzig sortering
Volgens Reddit was dit de locatie van het ongeluk: https://www.google.com/ma...z2RR-A!2e0!7i16384!8i8192

Zoals je ziet reed hij op een '' niet bestaande baan'' maar die er wel precies uitziet als een normale rijstrook. Niks van markering oid. Het is wel begrijpelijk dat in dat geval de auto pilot het als een rijstrook herkent, misschien ook wel door had dat het niet helemaal pluis was en daarom signalen stuurde. Ik vraag me alleen af in hoeverre de auto's al kunnen / mogen corrigeren van Telsa? Dit is niet een kleine ingreep en vraagt echt dat de auto zich op de baan van een andere auto gooit. Is dan bijna direct het trolley dilemma. Het lijkt mij op het moment dan ook logischer dat Tesla de bestuurder aanspoort om een beslissing te nemen. Maar ja, als je niet zit op te letten en je moet ineens een besluit nemen ben je al gauw te laat met 100 km/h.

In het topic staat ook dat zijn familie zegt dat hij het probleem al eerder had geconstateerd en als bug had gemeld. Misschien wou hij wel testen wat de auto deed oid.
Funest is natuurlijk ook dat de middenbarrière tijdelijk aangepast was en dus de gele markeringen niet zichtbaar geweest zullen zijn.Het was waarschijnlijk gewoon een grijze betonmuur op een grijze weg.

()


Absurd ook dat er geen verdrijvingsvakken op de weg geverfd zijn. Echt gevaarlijk. Daar heeft de wegbeheerder echt zwaar gefaald

[Reactie gewijzigd door TWyk op 31 maart 2018 17:46]

Alleen ziet elke persoon dat je daar niet hoort te rijden. Er is ook geen enkele legale manier om rijdend tussen de twee lijnen te komen aangezien een paar honderd meter daarvoor het nog 1 enkele lijn was die net uit elkaar is gegaan.
Ik heb net nog even rondgekeken gekeken naar meer info en er had iemand een foto gemaakt van de impactbarrière de dag voor de crash.
De barriere voor het muurtje stond er nog (met geel zwarte stickers) maar was volledig in elkaar geschoven

Van ongeveer 5 meter uitgeschoven naar een halve meter dik ingeschoven en was daardoor veranderd in een soort massief stalen object dat totaal geen botsingsenergie meer kon opnemen
Maar toch nog wel zichtbaar genoeg voor een Tesla camera zou ik denken!!! Niet wat ik eerst dacht.

De wegbeheerder heeft wel een probleem want het ongeluk waardoor de impactbarriere was ingeschoven had al 11 dager eerder plaatsgevonden toen iemand met 100 km per in een Prius op de impactbarriere gebotst was en het had overleefd. Ze hadden het natuurlijk allang gerepareerd kunnen hebben.

Zie ook deze reportage:
http://abc7news.com/autom...river-died-there/3280399/

[Reactie gewijzigd door TWyk op 31 maart 2018 17:47]

Of hij nu wel of niet vol uit schuifbaar was de tesla had met al die sensoren aan boord nooit er op mogen klappen. Dit geeft maar al te goed aan dat de techniek nog veel te veel in de Kinder schoenen staat en dus niet rijp voor de openbare weg vol met onverwachte verrassingen waar de programmeurs geen rekening mee hebben gehouden. En ook in software van deze systemen zitten bugs. Ik ben er van overtuigt dat met de huidige systemen als we die op onze auto hadden gehad en ingeschakeld, bij ons ogevalletje van de zomer geen van de 4 inzittende het na hadden kunnen verteld. Nu door bliksem snel reageren de schade beperkt tot een paar schrammen voor de auto. We werden nu nog net geschampt door afvallende lading 800+x25x10van de te passeren vrachtwagen ipv dat het door de voorruit naar binnen kwam door dat de sensoren een noodstop zouden maken ipv het gas vol naar de bodem en uitwijken. Je wordt dan wel verast door een 8meter plus object dat door de lucht op je afkomt.

Uiteraard zitten er helaas ook veel bestuurders passief achter het stuur. En de kwalitijten van het onderstel en wielophanging tellen uiteraard ook mee. Ik heb dan ook liever een dynamisch sturende wagen dan duffe doorsnee boodschappen wagen :) :) waardoor je actief met het verkeer bezig bent.

[Reactie gewijzigd door vavoem op 31 maart 2018 21:27]

De bestuurder had om te beginnen gewoon zijn handen aan het stuur moeten houden en niet blind moeten vertrouwen op zijn auto.
Het is niet voor niets dat de software signalen begint te geven als je je handen van het stuur haalt.

Autopilot is leuk maar het is niet feilloos. Het is daarom dat ze die veiligheid hebben ingebouwd (akoestisch en visuele meldingen).
Het probleem met auto pilot is in deze dat men denkt dat ze autonoom kunnen rijden (auto pilot) en gaat de mens zich er ook naar gedragen. En dat zou niet moeten maar daar is het auto pilot voor noem het dan nadrukkelijk rij assistent. En als de bestuurder dus eindverantwoordelijke is zou een dergelijk systeem moeten waarschuwen als blik van de weg gaat en handen van het stuur (overigens zou dat ook bij een gewone auto mogen omdat de aandacht altijd 100% zou moeten zijn bij het auto reiden) en ingrijpen binnen 5 sec door snelheid te minderen en alarm lichten te activeren en de auto naar de vluchtstrook dirigeren in geval van rij assistent. Auto pilot is autonoom en zou dus in staat moeten zijn de taken van de bestuurder over te nemen voor de volle 100% en meer. De ongevallen die resent en eerder zijn gebeurd hadden nooit mogen gebeuren daar waren ze niet te gecompliceerd genoeg voor gevalletje onoplettendheid of niet allert reageren. De bestuurders hadden in moeten grijpen maar het laat zien dat ze nog lang niet zover zijn dat we dus op de systemen kunnen vertrouwen. Dit was een crash met een vast opject in de rij richting de Prius rijder 11 dagen er voor had drank op dat die met zijn stomme kop er op klapt is dikke eigen schuld dikke bult. Als je dan ook kijkt dat een uber zoveel correcties nodig heeft en de doelstelling van 1 per 21km vind ik er veel te veel een als je zoveel ingrepen nodig hebt met je examen na 30 lesjes zak je als een baksteen tenminste dat was dat ik afreed zo ze zijn een stuk colanter geworden nu kun je vaak niet eens zaken op speciale verrichtingen. Ik ben van mening als je niet kunt keren en parkeren kun je zeker niet rijden. Ben groot voorstander om in het les pakket slip training en 1 uur les in bus of vrachtwagen te verplichten tenzij je reeds een trekker rijbewijs hebt dan weet je al wat lang hoog en breed inhoud voor een beter begrip. Als je met motor op je plaat gaat tijdens de pilon oefening ben je klaar met examen doen en gezakt waarom mag je met een auto tegenwoordig wel de kluns uithangen. Het gaat om rij vaardigheid

[Reactie gewijzigd door vavoem op 1 april 2018 08:37]

Dat is niet wat een autopilot is...
"Autopilots do not replace human operators, but instead they assist them in controlling the aircraft."
https://en.wikipedia.org/wiki/Autopilot
De term is correct. Wat een ander punt is is dat veel mensen het verkeerd interpreteren en daarom zou het misschien dus toch wel handig zijn als Tesla het anders noemt, maar het is niet fout om het zo te noemen.
Dat is ook waar men heen wil autonoom ruiden met autopilot dus dat is niet zo gek. In een vliegtuig zijn er ook minimaal 2 die het vliegtuig besturen en de auto pilot in de gaten houden meeste vliegers gebruiken deze dan ook alleen voor de simpele stukken. Hoewel in een vliegtuig ze met ILS zelfstandig kunnen landen en opstijgen doen de piloten dat stuk liever zelf (blij toe). Daarnaast is het luchtruim ook nog gecontroleerd door lucht verkeersleiders. Dat bestaat niet in het gewone verkeer. Ook hebben vliegtuigen geen last van wild overstekende voetgangers of voetgangers. Wanneer ze doorgaans autopilot vliegen komen ze ook geen vogels meer tegen op 10KM van de grond :). Helaas is het rond de landings baan wel anders met vogels die wel op afstand worden gehouden maar ook mensen met drones die het niet erg serieus nemen en lollig om een landend toestel te filmen vormen een bedreiging.
Een paar correcties:

Een automatische piloot kan geen take-off uitvoeren, slechts een landing mits de condities dat toestaan: (technische staat v/h vliegtuig, gronduitrustig, weersomstandigheden etc). 99,9% van de landingen zijn handmatig.

Het klopt dat luchtverkeersleiders het verkeer uit elkaar houden, maar dat gebeurt niet overal of altijd even effectief. Soms naderen toestellen elkaar gevaarlijk dichtbij, en moet er een handmatige TCAS manouvre gevlogen worden door de vliegers.

Automatisering (autoflight) wordt over het algemeen ook als een nadeel gezien in de luchtvaart, aangezien ook vliegtuigen soms ‘ongewenst autopilot’ gedrag vertonen, en de vliegers door automatisering ‘out of the loop’ raken.
Het fijt dat het nog de moeite waard is om een artikel te schijven over een crash met een tesla waarin iemand dood is gegaan zegt genoeg over hoe zeldzaam het is.
Er zijn al heel erg veel teslas op de weg en er kunnen altijd dingen gebeuren.

Dat neemt niet weg dat in deze situatie het heel slecht is dat die telsa die markeringen niet heeft gezien.
De lakse bestuurder was dus een Apple engineer, dat maakte het verhaal ook ietwat ironisch, en daar houdt de media wel van.
Een engineer die volgens dat ABC-artikel al eerder klaagde dat AutoPilot die "lege" baan in stuurde... :X
Vreemd dat hij dan juist daar zonder handen aan het stuur reed
Volgens enkele redditers zou hij mogelijk niet de laatste software hebben gehad, even afgezien van alle issues met het baanvak wat gewoon absurd is gemarkeerd.
Tesla's worden toch geautoupdate 's nachts?
Niet allemaal dezelfde nacht. Het kan soms weken duren voor je een update krijgt die anderen al hebben.
Of hij nu wel of niet vol uit schuifbaar was de tesla had met al die sensoren aan boord nooit er op mogen klappen.
Dat valt natuurlijk voor elke normale bestuurder ook te zeggen. Iemand die gewoon normaal op het verkeer aan het letten is zou ook nooit een ongeluk moeten mogen creëren, en hij/zij heeft alle handvatten, zoals duidelijke verkeersregels en een uitgebreide oefenperiode met een vaardig instructeur naast zich zodat hij zelf in staat zou moeten zijn in elke situatie veilig te handelen. Toch zijn er dagelijks ongelukken, sommige met dodelijke afloop. Dan kan Tesla's autopiloot weliswaar in de kinderschoenen staan, ik ben ervan overtuigd (en er zijn statistieken die dat bevestigen) dat de autopiloot van Tesla vele malen veiliger is dan een gemiddelde autobestuurder.

Natuurlijk zijn er uitzonderingen waarin een autopiloot niet goed kan handelen. Ik ga nu niet met boter op mijn hoofd zeggen "Dan had je ook maar je ogen op de weg moeten hebben, want er wordt immers gezegd dat je de aandacht op de weg moet houden, ook met autopilot aan", want natuurlijk zou ik ook gewoon vertrouwen op het functioneren van de autopilot.

Iets wat men moet realiseren is dat de autopilot voor altijd een experiment zal blijven, want het ontwikkelen is nooit klaar. Elke Tesla op de weg maakt deel uit van een gigantisch wereldwijd experiment en in het dagelijkse leven zullen er altijd situaties zullen ontstaan welke nog niet eerder is voorgekomen en waar dan maar te hopen is dat de computer op de juiste manier reageert, en of dat dan werkt zal dan uiteindelijk nog maar in de praktijk moeten blijken. Nu wij typen zijn de programmeurs en ingenieurs van Tesla zeker al bezig om ook adequaat te kunnen reageren op een situatie zoals u die beschrijft. Maar omdat de grootte van de testpool zo klein is, zal het voorlopig nog maar gissen en hopen zijn dat de computer goed reageert in die situatie.
"Of hij nu wel of niet vol uit schuifbaar was de tesla had met al die sensoren aan boord nooit er op mogen klappen."

Wat ik van de beelden heb gezien zou je hier alleen tegen aan rijden als je dronken of zwaar vermoeid of afgeleid door iets bent. Of anderzijds met iets bezig bent anders dan auto rijden. Dus bestuurders moeten gewoon op letten. Als ze bij Uber nog niet eens de doelstelling halen van minder dan 1 ingreep per 21KM dan vraag ik me af hoe slecht zijn dan de ander systemen waar worden we als omstanders aan blood gesteld. En met dit geval dan zit er een mega bug in de software dit hadden alle systemen moeten voorkomen. Als het dit al niet eens kan voorkomen dan vraag ik me af wie durft te zegen dat de tesla auto pilot veiliger is dan een mens. En ja er zitten fouten bij mensen veel al door vermoeidheid of on oplettendheid. Maar wat ik er van gezien heb hoort dit thuis in een uitzending van de slechtste chauffeur van.. hij ramt gewoon zo frontaal een vast object wat daar al langer staat en zelfs iets korter is dan 11 dagen er voor dus meer ruimte voor een correctie van de fout. Ik maak de opmerking wel eens dat met een dergelijk systeem de kans bestaat dat het gehackt word en je randsom moet betalen anders is de volgend pilaar de jouwe. De software in deze doet dat dus al zonder een hack dat geeft geen vertrouwen.
Dan kunnen we wel helemaal ophouden met autorijden want menselijke bestuurders maken nog veel meer fouten.
Maken mensen meer fouten?? Dat valt te betwijfelen. Ik spreek voor mij zelf maar ik heb meer vertrouwen in mij zelf dan in de programeer kunsten van deze systemen. De hard en software zitten ook menselijke fouten en die sensoren zijn in bepaalde taken erg goed. Echter is er nog geen systeem dat gelijk staat aan het menselijk brein en alle bij ons standaard aanwezige sensoren. Software is beperkt tot de parameters die programmeurs in geven. Een persoon zou instaat moeten zijn om veel beter op de informatie die op ons afkomt om te gaan dan een computer. Punt is alleen dat veel mensen afgeleid worden en te laks zijn / raken en daardoor niet adequaat reageren. Ik maak en ik neem aan van 99,99999% van de mensen minder fout per 21 km waar een ingreep noodzakelijk is!
Maar wellicht ben ik veel actiever bezig met verkeer dan de rest van mijn medeweggebruikers. Ook al geeft men geen richting aan de stand van de wielen en de body role van de auto geven doorgaans al aan of een auto wel of niet de rotonde gaat verlaten.
Als ik de “score” bekijk die dagelijks langs komt in het gemengde nieuws van fouten die zorgen voor ongevallen zou dat best mee kunnen vallen veel van die ongevallen zouden voorkomen kunnen worden.
Dan heb ik het niet over idioten zoals vandaag die plankgas in hun bmw over de vluchtstrook rijden om via het benzinestation de file in te kunnen halen.
Helaas voor hem haar was bij de oprit een ongeval gebeurd en stond er politie zodat diegene toch met gepaste snelheid moest invoegen
Mafketels houd je altijd. En als alles wat mee doet aan het verkeer door AI word bestuurd is het in goede banen te leiden. Maar daar zijn we nog lang niet. en dan nog zit je met voetgangers en fietsers die zich doorgaans misdragen zeker in de grote steden. Gister kwam ik er weer een tegen die de Engelse rotonde nam en dat in een klein plaatse in Amsterdam weet je wat het motto is groen door rijden rood ook doorrijden maar op letten. En ook zie je steeds meer de mentaliteit veranderen dat ze helemaal overal scheid aan hebben en gewoon blind oversteken met een houding van o die auto stopt wel of op de weg blijven staan. Wellicht straks een nieuw spelletje stap voor een autopilot om hem een noodstop te laten maken.

Maarja deze tesla was al niet instaat om gewoon langs een betonnen afzetting te reiden.
Het televisieprogramma 'idioten op de weg' wel eens gezien?
Ja daar zijn er zat van doorgaans is dit programma gevuld met idioten die bij een dozijn aan flessen wodka ook een rijbewijs er bij kregen. Ik ga even uit van westerse landen waar we enig sinds een knappe rij opleiding krijgen. In India of een stad als Caïro kom je met een autopilot nooit van het parkeervak. Aangezien er nooit een veilig moment is om je reis te beginnen🤣
Dat de systemen er nog niet zijn lijkt mij evident. Ik reageerde alleen op de stelling dat de autonome auto meer fouten zou maken dan de mens gemiddeld. Dat betwijfel ik ten zeerste. Een systeem handelt alles altijd af volgens het boekje. Dus altijd de max snelheid, altijd netjes richting aangeven en altijd stoppen voor verkeer(zebrapad) dat voorrang heeft ook al zou een menselijke bestuurder denken die is er nog lang niet dus ik kan er gemakkelijk nog voor langs. Dit zou je als fouten kunnen aanmerken van de mens. Computers zijn perfectionisten, eenmaal iets hun systeem zal dit never nooit meer fout gaan. Wij mensen zijn de spreekwoordelijke ezels die zich meer dan eens stoten aan dezelfde steen. Ik weet van mezelf dat als ik een rot humeur heb ik gewoon heel asociaal kan rijden. Zo zijn wij mensen allemaal emotionele wezens. Toen het uit ging met m'n meisje en ik nog 80 km naar huis moest rijden had ik beter even op een parkeerplaats kunnen overnachten want ik kon mijn hoofd niet bij de weg houden, overmand door emoties die ik toen had. Of je het nu wilt of niet we blijven mensen van vlees en bloed en die zijn dikwijls onvoorspelbaar en we zijn erg slecht in objectieve zelfreflectie.
Uber zit op een ongeluk per 1500km en google op een ongeluk per 9000km. Een menselijke bestuurder die zo vaak brokken maakt mag zijn rijbewijs hoognodig inleveren.

Maar afgezien daarvan, mensen kunnen dingen die computer niet kunnen: Zoals je aanpassen aan veranderende omstandigheden (bij gladheid is het niet zo slim om 130km/u te rijden ook al mag dat van het bord) en iets wat wij als mensen als vanzelfsprekend beschouwen is dingen in context zien zoals in dit geval dus de 'rijbaan' die geen rijbaan was. Geen mens die er ook maar over nadenkt om daar te gaan rijden maar een computer ziet gewoon 2 witte lijnen op zoveel meter van elkaar af = rijbaan.

En daarnaast ver vooruit kijken, situaties zien aankomen. Bv een auto die twijfelt om te gaan invoegen of het kruispunt op te rijden, je ziet het koppie in de auto al driftig heen en weer kijken en jij houdt er al rekening mee dat die persoon wel eens de weg op kan draaien vlak voor je neus. Een computer berekent gewoon ijskoud: Daar staat een auto en die rijdt niet dus ik kan volgas doorknallen

Heb het zelf ook al een keer meegemaakt in een volvo die volgehangen was met veiligheidssystemen. Ik kom op een rotonde afrijden en er staat 1 auto voor de rotonde te wachten maar ik zie op de rotonde dat de laatste auto op de rotonde rijdt dus ik weet: Die auto voor me gaat elk moment rijden en ik hoef geen vaart te minderen. Helaas greep het systeem in de volvo keihard in want tja: er staat immers over 150 meter een auto stil. Ik zat bijna met mijn neus tegen de voorruit geplakt 8)7 Die auto kan immers niet de situatie op de rotonde zien en voorspellen wat er straks gaat gebeuren. ik als mens wel.

Autonoom rijden met de huidige stand van techniek is echt nog lang niet veilig genoeg en zeker niet beter dan menselijke bestuurders momenteel.

En je ziet wat er gebeurt als mensen er blindelings op gaan vertrouwen zoals die uberchauffeur die vrolijk op zijn telefoon bezig was of deze chauffeur die schijnbaar ook compleet wat anders aan het doen was ... ingrijpen is er dan in elk geval niet meer bij.

[Reactie gewijzigd door Metro2002 op 2 april 2018 22:32]

Uber zit op een ongeluk per 1500km en google op een ongeluk per 9000km. Een menselijke bestuurder die zo vaak brokken maakt mag zijn rijbewijs hoognodig inleveren.
Waar haal je deze cijfers?
Ik vermoed dat je de disengagement cijfers hebt en niet accident cijfers.

Ik weet dan ook vrij zeker dat Google veel minder vaak een ongeluk heeft dan dat.
De meeste ongelukken die Google heeft gehad zijn andere auto's die de auto van Google van achteren hebben aangereden.
Dit geeft maar al te goed aan dat de techniek nog veel te veel in de Kinder schoenen staat en dus niet rijp voor de openbare weg vol met onverwachte verrassingen waar de programmeurs geen rekening mee hebben gehouden.
Tesla waarschuwt hier gewoon duidelijk voor als je Autopilot wil activeren dat je gewoon ten aller tijde in staat van paraatheid moet zijn om in te grijpen omdat het nog altijd niet in alle scenario's foutloos werkt.
Lijkt me gewoon falen van bestuurder al met al. Als je serieus gewoon een andere dingen gaat lopen doen nadat je dat ding op autopilot hebt gezet dan is het ook wel een klein beetje natuurlijke selectie hoor.

Totdat Tesla expliciet garandeert dat je kan gaan slapen aan het stuur en die basis genoeg bewezen is dat dit ook wettelijk geen bezwaar is zou ik het sowieso niet vertrouwen.
Maar misschien wil ik dan ook te graag liever nog even aanwezig blijven op deze planeet.

Die opvang barriere was er niet, die had hier een leven kunnen redden. Dat is gewoon een ding van de wegbeheerder en vind ik feitelijk nog het grootste probleem in deze. Het maakt verder natuurlijk helemaal geen reet uit waarom die auto er daar af ging. Als er daar gewoon iemand de macht over het stuur verloor was het ook een probleem geweest. Die buffers zijn er niet voor niets, er vliegen vaker mensen tegenaan.

[Reactie gewijzigd door Koffiebarbaar op 4 april 2018 12:43]

"Autopilot wil activeren dat je gewoon ten aller tijde in staat van paraatheid moet zijn om in te grijpen omdat het nog altijd niet in alle scenario's foutloos werkt"

Dat klopt maar omdat het autopilot heet denken veel mensen dat ze rustig wat anders kunnen doen dat gebeurt al te veel met niet autopilot rijders maar de drempel met zo'n systeem word nog veel lager om wat anders te doen. Daarom kun je beter alles zelf doen met hulpmiddelen of zonder hulpmiddelen die in kunnen grijpen als dat nodig omdat je wat gemist hebt (dode hoeken worden immers steeds groter om de auto's veiliger te maken bij een crash heb je tegenwoordig een A, B en C stijl die 3x of nog meer keer zo dik is als 20jaar geleden) je blijft veel alerter en actiever als je zelf moet sturen dan wanneer een AI dat voor je doet. Die hulpmiddelen zijn mooi en handig maar worden soms ook wel iets te bemoei zuchtig.

Dit is een sterk filmpje https://www.youtube.com/watch?v=UIzwQbOOBkY ben het helemaal met Erik eens "I just want to drive"
Meneer had zijn Tesla ook al eerder flink laten crashen. Al dan niet zijn fout maar daarna zo gaan rijden zonder het te laten repareren?


Het was dus niet zijn eerste zwaardere ongeluk sinds de X's release..
In Nederland zou dit middenvak ingekleurd/gestreept zijn.
Maar inderdaad, wel goed gezien, de vraag is hoe die auto daar dan terecht is gekomen.

[Reactie gewijzigd door FuaZe op 31 maart 2018 14:46]

In Nederland zou dit middenvak ingekleurd/gestreept zijn.
In Nederland vallen er ook minder doden per miljard km (4,5) dan in de VS (7,1)
Ik vind 7.1 nog niet heel hoog. België is erger.

Voor zover ik weet is Zweden een van de weinige landen die het beter doet. Maar daar heb je een belachelijk lage snelheid op wegen waar je iedere 45m misschien iemand tegen komt.. En de wegen zijn vergelijkbaar met die we hier hebben.
https://en.m.wikipedia.or...raffic-related_death_rate
Er zijn veel landen die het"beter" doen, in die specifieke statistiek.
Langs de andere kant is het logisch dat een land als België er niet zo goed op scoort, omwille van heel korte ritgemiddelden en de dichtheid van het netwerk (met echt gigantisch veel knopen en op-en afritten per afstand)
Per inwoner per jaar doen we het al een stuk beter. Al is het duidelijk dat de Nederlandse investeringen in veilige wegen renderen. Als Belg die wel 'ns in Nederland komt, had ik daar geen wiki statistieken voor nodig. Maar m'n beeld van de Amerikaanse wegen heb ik toch moeten bijstellen.... en niet in positieve zin :/
Ik weet het, ik rijd bijna vaker in België dan Nederland.

Maar naast dat de wegen duidelijk minder veilig zijn (of minder veilig lijken) is er ook een redelijk groot verschil in het gemiddelde rijgedrag.

De meeste Nederlanders rijden als bejaarden, terwijl de rest denkt dat hij of zij net van het circuit af nog even wat moet laten zien.

In België merk ik vaak dat er toch een stuk nonchalanter wordt gereden.

Ik rijd meer in België en rijd eigenlijk ook liever in België dan Nederland. Maar tegelijkertijd let ik ook een stuk beter op het verkeer om me heen.

Vergelijk om Utrecht heen rijden maar met om Antwerpen heen komen....
De meeste Nederlanders rijden als bejaarden, terwijl de rest denkt dat hij of zij net van het circuit af nog even wat moet laten zien.
Tot ze de belgische grens gepasseerd zijn ...
Is dat zo? Ik let in België sowieso net wat meer op.

Het blijft voor ons levensgevaarlijk op de Antwerpse ring omdat bij ons invoegen van links én rechts eigenlijk niet voorkomt.

Dat komt geem Nederlander zomaar tegen. Zelf ben ik bij Antwerpen en Brussel op de ring beiden erg terughoudend.

Verder alleen zodra het wegdek gebreken begint te vertonen. Hoewel dat de laatste jaren minder is geworden lijkt het.
Ik heb altijd maar aangehouden dat Belgen 2x zoveel ongelukken veroorzaken/2x zoveel kans hebben in een ongeluk terecht te komen, als ik het politiek correct wil doen.

Dat klopt toch aardig? België 6.7, Nederland 3.4 maar Zweden weer 2.8...

Dodelijke ongevallen liggen ook een heel stuk hoger in België. 750 vs 600 ongeveer.

Maar Nederland heeft ook ruim 60% meer inwoners dus dat is dan eerder 1200 vs 600, weer het dubbele..
Als er noodmarkeringen zijn aangebracht vanwege werkzaamheden aan de weg, kan het zijn dat de autopilot het spoor bijster is geraakt.
Als de weg is aangepast, is het onverantwoord op met AP te rijden!!! Dat is dus geen fout van het systeem, maar van de bestuurder.
Er wordt voortdurend overal aan de weg gewerkt. Dat zou betekenen dat je nooit een volwaardige autopilot zou kunnen krijgen. Zover ik weet wordt er gebruik gemaakt van gps i.c.m. de wegindeling in een database en de gegevens van de camera’s om zo te verkeerssituatie in te schatten.
Nu nog niet, maar een simpele waarschuwing en updates wanneer precies de werkzaamheden plaatsvinden en daar autopilot automatisch uitschakelen nadat het stuur vastgehouden wordt. Zoniet, zet het ding je aan de kant en wordt de politie oid ingeschakeld?
Theoretisch een goede oplossing maar je krijgt wel rare toestanden. Wegwerkzaamheden vormen sowieso al een flessenhals en als er dan ook nog eens auto’s met een autopilot automatisch aan de kant gezet gaan worden. Verkeer moet doorstromen en niet belemmerd worden door autopilots die niet om kunnen gaan met onverwachte aanpassingen aan de weg.
Gaat het in dit geval niet op een eigenaar van het voertuig die niet eens een klein beetje op de weg let? Meestal zie je zoiets toch wel aankomen en slapen met autopilot aan lijkt me de komende jaren ook nog niet al te verstandig.

Het afremmen en rustig aan de kant zetten lijkt me enkel als de bestuurder er veel te lang over doet als er wat aan de weg gedaan wordt. Zoiets springt niet vanuit het niets uit het asfalt.
De huidige autopilot is een opmaat naar volledig automatisch rijden, zonder chauffeur. Ik denk niet dat het de bedoeling van de fabrikanten is om nu systemen te gaan ontwikkelen die de auto aan de kant zetten als de bestuurder niet oplet. Dat is de omgekeerde richting van de ontwikkeling.
Ik vind een dergelijke safemode toch niet verkeerd. Maar dat is dan ook wel het uiterste, iets wat het systeem bv kan doen tijdens een hartaanval of beroerte of andere situaties waarbij je alle controle kwijt bent. Als het je dan veilig aan de kant kan zetten en de hulpdiensten een seintje geeft....

Dat lijkt me toch beter dan van de weg raken?

En als iemand na bv 10 seconden toeters en bellen nog niet reageert terwijl hij of zij eigenlijk op zou moeten letten...

Maar nee, niet bij elk klein probleempje nee. Maar een "dit kan niet met AutoPilot. Neem over." lijkt me niet heel moeilijk in te bouwen. En implementatie kan eventueel door online door de overheid de locaties met wegwerkzaamheden aan te geven. Dan weet de auto het ook ver van te voren en is het niet afhankelijk last minute werk.
Het is hopelijk voorlopig sowieso nog niet de fout van het systeem.

Je moet zelf opletten. Est staat vast ok in de voorwaarden hetzelfde gold voor die uber auto.

In snap het opschorten niet zo goed. Er zijn gewoon situaties waar je niks aan kan doen. Met de informatie van de locatie hierboven zou je bijna zeggen dat het zelfmoord is. Tussen de lijnen gaan rijden en de tesla geen keuze geven.
Maar waarom ziet de autopilot die barrière niet aankomen dan? Als hij op andere auto's moet kunnen reageren, hoe mis je zo'n geen/zwart gearceerd bord met daar achter een betonblok dan? Ik vraag me af of dit ook was gebeurd met een systeem met lidar. In iedere discussie over zelfrijdende voertuigen zijn er mensen die dat maar een onnodig duur systeem vinden dat de massale acceptatie van zelfrijdende voertuigen in de weg staat en Tesla prijzen dat zij het zonder lidar kunnen. Maar als de (2D) camera door slecht contrast tussen een object en de weg dat hele object niet ziet, wordt het wel gevaarlijk. Een Tesla is formeel ook geen autonoom rijdende auto, niet voor niets geeft hij waarschuwingen als je het stuur te lang los laat.

[Reactie gewijzigd door Grrrrrene op 31 maart 2018 19:43]

Lastig te zeggen natuurlijk; de barrière is wel vrij dun dus het kan zijn dat het ook een vrij late waarschuwing zou zijn. Ik denk dat radar wellicht een iets betere kans had, met radar krijg je vrij zeker van zo'n platte metalen barrière duidelijke en sterke signalen terug die aangeven dat je er recht op af aan het rijden bent (als je er niet recht op af rijdt dan is de snelheid van het naderen lager dan die van de snelheid van het voertuig)... maar die installeren ze blijkbaar niet meer in nieuwe Tesla's? Denk dat dat in dit geval wel echt een redding had kunnen zijn hoe dan ook.
Omdat dit met koeieletters in de handleiding staat. Stilstaande objecten worden niet verwerkt door het systeem. Een auto voor je die een noodstop doet, zou wel redelijk goed moeten gaan.

AP is een systeem dat adaptive cruise control combineert met "lane keeping" en Emergency Automatic Braking wanneer een auto voor je op de rem trapt. Meer niet.

Het kan geen afslagen van snelwegen aan. Ook geen splitsingen zoals bij die ongeluk. Gebruik alleen geadviseerd voor snelwegen met een "middenberm". In alle andere situaties AP gebruiken zorgt voor verhoogd risico op noodzaak ingrijpen bestuurder.

Dit wordt natuurlijk verder ontwikkeld en een dergelijke splitsing zou door de Enhanced Autopilot (nog niet beschikbaar) wel afgehandeld moeten kunnen worden. Maar ook dan geldt....is ondersteunend systeem waarbij mensen moeten blijven opletten!!
Je zegt het goed: een mens zou meteen zien dat je daar niet mag rijden, maar een 'autonome' auto niet, want die begrijpt niets en volgt domweg lijntjes. Heel vreemd dat de radar niet zag dat er een obstakel aan zat te komen en of remde of uitweek.

[Reactie gewijzigd door ArtGod op 1 april 2018 14:21]

Nee, dat zou een mens dus niet. Aangezien 11 dagen er voor iemand met een prius vol op dezelfde barriere is geklapt (En die kreukelbarriere dus niet direct vervangen is, erg nalatig!). Volgens reddit is het afgelopen jaren regelmatig 'raak' op dat punt.

De mens trapt er dus net zo hard in als de computer. De schuldigen zijn simpelweg zij die de baanvlakken niet goed onderhouden - en natuurlijk die de kreukelbarriere niet vervangen hebben...de computer zou inderdaad beter met MENSELIJKE FOUTEN om moeten kunnen gaan dan dit. En ongetwijfeld zal er een update komen die dit soort situaties beter gaat inschatten. Maar dit is echt niet iets wat je Tesla kunt aanrekenen. Even los van het gedeelte waar de bestuurder gewoon instructies niet heeft opgevolgd én zonder handen reed. Kom :)
Gezien het feit dat er dagelijk tienduizenden mensen dat punt passeren denk ik wel dat je kan stellen dat mensen het wel herkennen. Eén Tesla gaat daar altijd in de fout als hij op Supercruise staat, dat vind ik wel een verschil met 1 persoon in 100.000 het ook niet door heeft.
Welk deel van "de bestuurder had zijn handen niet aan het stuur" en "de bestuurder volgde de instructies van de computer niet op" zijn dan niet relevant? Verder heeft men het over Reddit over oude software (juist de software die vervangen werd omdat die niet capabel was met het detecteren van objecten in 3D) en dat de bestuurder mogelijk "aan het experimenteren" was.

Genoeg informatie dat dit echt niet aan Tesla hoeft te liggen verder. What's next, bewust strepen op banen gaan vernaggelen zodat computers zich er in verslikken?
Tesla, calculate pi?
Er waren 85000 passages van Tesla's op autopilot geweest langs dat punt. Ook niet echt weinig
Wellicht bevonden die zich al veel eerder op een echt rijvak?

Ik heb het moeilijk met "zelfde input in zelfde machine met andere output"....
Oorzaak van het probleem is dat die streep door slijtage deels verdwenen is, denk ik. Een menselijk oog beschouwd het als slijtage maar een autopilot kan het gemakkelijk aanzien voor een onderbroken streep en dus een extra rijbaan.
Nou laat dan maar nooit autopilot hier in Belgie los...
Of op een zeiknat wegdek 's avonds. Dan vind ik het als mens soms al moeilijk om de wegmarkeringen te onderscheiden van een glimmend wegdek onder de straatverlichting.
ga een kilometer terug op die weg en kijk in google street vieuw dan is het totaal begrijpelijk , de kwaliteit van de belijning op sommige stukken is gewoon bijzonder slecht of gewoon weg. ik kan dus best in denken dat de slechte belijning gezien is als een stippel lijn . kan me voor stellen dat die tesla dus moeite heeft met het vinden van de juiste baan. en poef dan zit je in eens tussen 2 vaste lijnen. er is al eerder een ongeval gebeurd op de zelfde plek met een auto die niet automatisch reed en daar door was de kreukel barriere weg gehaald. dat verteld al genoeg toch? gevaarlijk stukje weg.
neemt gewoon niet weg dat die malloten in tesla's wel op de weg moeten letten ipv andere dingen doen. dit is al het tweede incident waar bij iemand zich zelf dood rijd door niet op te letten en de waarschuwingen van de auto doet negeren. tesla moet gewoon een giga toeter gebruiken in hun auto om die mensen wakker te maken IPV die onzinige lieve verzoekjes met lampjes en zachte toontjes .
Op de Nov '17 streetview is een flink stuk van één van die twee lijnen anders al enorm gaar. Is die verder gesleten, vooral t.o.v. z'n prachtig zichtbare buur, dan kan ik me best voorstellen dat iemand - mens of computer - nog 'n tijdje dezelfde afstand van de goed zichtbare linker lijn blijft rijden en zich dus op die 'niet bestaande baan' begeeft.

Roept wel de vraag op hoe een Tesla met stilstaande objecten (op z'n strook) om gaat. Remt hij alleen, of wijkt hij ook uit?
In Amerika zie je echt veel minder verdrijvingsvlakken. Sterker nog, ik kan me niet echt herinneren dat ik ze daar heb gezien in de keren dat ik daar reed. De belijningen werken sowieso daar al heel anders en ik moet zeggen dat ik ze daar ook vele malen minder duidelijk vindt dan hier
Idd, Wikipedia heeft daar ook wel een goede illustratie van. In Nederland zou dat vlak gestreept of wit gekleurd zijn. Hier in België heb je van die grote chevrons die ook best duidelijk zijn.

Maar in Duitsland is het net zoals in (delen van) Amerika. Ik had in Wisconsin net het gevoel in Duitsland te rijden en m'n snelheid ging instinctief ook flink omhoog naar Duitse standaarden als ik dat niet goed in de gaten hield. (Ze rijden echt traag daar. :P)

Ik neem overigens aan dat er tussen de Amerikaanse staten wel bijna evenveel verschillen zullen zijn als tussen de EU-staten. ;) Het is in Michigan iig toch weer best anders dan in Illinois en Wisconsin. Tuurlijk, 't is duidelijk geen Europa, maar wij hebben ook genoeg variatie op grofweg hetzelfde thema.
Ik heb er nooit veel moeite mee gehad en de meeste Amerikanen ook niet, gezien het geringe aantal ongelukken die dit als oorzaak hebben.
Ik zie twee doorgetrokken lijnen met daartussen een schijnbaar normale rijbaan die ineens eindigt in een betonnen muurtje. Lijkt mij dus ook dat hier vooral de weberheerser gefaald heeft.
Als je iets verder teruggaat op Google Maps, dan zie je dat het niet echt een normale rijbaan is. Het zijn 2 doorgetrokken strepen die alleen op het eind even op een normale rijbaan lijken, maar de lijnen volgend zou je daar nooit terecht kunnen komen.

https://www.google.com/ma...UrQECg!2e0!7i16384!8i8192

Om lekker mee te speculeren: Tesla's kunnen toch van baan wisselen indien ze een ongeluk zien aankomen? Zou het niet zo kunnen zijn dat de Tesla een probleem detecteerde, daardoor van "rijstrook" is gewisseld en zo op het muurtje geklapt is?
Dat begin had ik gezien. Zonder sergeantstrepen, zonder wit vlak.

[Reactie gewijzigd door PizzaMan79 op 31 maart 2018 21:55]

Dat doen ze in de VS nergens. Dat is echt iets voor EU/NL.
Totaal onbegrijpelijk. Ik heb ondertussen al 10K+ km rondgereden in de VS en het is echt opletten geblazen bij op- en afritten. Je hebt geen verdrijvingsvakken, geen duidelijk wegmarkering, etc. Plotseling splitst de baan af en moet je erg kort en hard remmen. Het wegennet in de VS mag dan wel uitgebreid zijn, het is er naar mijn inziens veel gevaarlijker dan in de EU, ondanks dat de meeste straten in de EU smaller zijn.
Helemaal mee eens. Korte invoegstroken zijn ook geen uitzondering daar. Ook regelmatig stukken zonder markering. Hier in de EU is het gewoon erg goed geregeld en heel eeg duidelijk als je dat vergelijkt met andere regios in de wereld.
Ik denk dat Nederland het allerbeste wegennet heeft. Elders in Europa kun je voor verrassingen komen te staan qua invoegstroken, wegwijzers etc.
Hier een Belg die tegen de grens met Nederland woont en zich vaak met de auto in Nederland begeeft. Ik denk dat je wel eens gelijk kunt hebben.
Daar betalen wij Nederlanders dan ook weer "ruimhartig" voor... ;)
Dat heb ik eens uitgezocht, het totale budget voor wegaanleg/beheer is maar ongeveer een derde van wat er jaarlijks binnenkomt aan wegenbelasting. De rest gaat naar de pot algemene middelen.
De automobilist is de redder van de verzorgingsstaat.
En nu weten we weer waarom we dat in Europa wel doen ;-)
''Absurd ook dat er geen verdrijvingsvakken op de weg geverfd zijn. Echt gevaarlijk. Daar heeft de wegbeheerder echt zwaar gefaald''

Dit zie ik niet altijd terug in Amerika...., ofja ik kom alleen maar in Florida dus ik spreek wel snel van heel Amerika maar in de staat Florida is zie je vaak dat het is zoals daar te zien is op de google maps link.

Als de auto waarschuwingen gegenereerd heeft en de bestuurder ze genegeerd heeft dan had de bestuurder waarschijnlijk ook niet een verdrijvingsvlak gezien.
Autopilot gaat in komende jaren juist ongelukken veroorzaken omdat mensen er te makkelijk mee omgaan, op dit moment is al het menselijk falen meestal juist de doorslaggevende factor in het gebeuren van een ongeluk.
( Wat als de vrouw die op de telefoon zat te kijken met de Uber auto niet op haar telefoon keek?, wat als deze man van dit ongeluk juist voor zich keek dan had hij duidelijk gezien dat hij tussen doorgetrokken lijnen reed enzovoorts )

Edit: Florida is niet heel Amerika dur oordeelde over een heel land terwijl het over Florida ging.

[Reactie gewijzigd door Erka56 op 1 april 2018 04:40]

Absurd ook dat er geen verdrijvingsvakken op de weg geverfd zijn. Echt gevaarlijk. Daar heeft de wegbeheerder echt zwaar gefaald
Ander land he. Wat wegenbouw betreft gaan de Amerikanen meer voor kwantiteit dan kwaliteit. Onderhoud zijn ze ook niet dol op. Lijnen op de weg zijn daar vaak bijna volledig weggesleten, je mag al blij zijn dat ze er nog staan. Je komt er minder wegwerkzaamheden tegen dan op een rit door Duitsland bijvoorbeeld, en dat is wel te merken aan de staat van de wegen.
Ze hebben daar ook geen witte blokken op invoegstroken bijvoorbeeld, de gewone stippellijn tussen de stroken verdwijnt en dan wordt 't smaller.
Het is gewoon een waardeloos systeem. Markering of niet.
Autopilot reageert niet of nauwelijks op verdrijvingsvlakken. Bij middenbermen met verdrijvingsvlak heb je aanzienlijke kans dat ie recht op de berm afrijdt omdat hij de linker uitlijning van het verdrijvingsvlak begint te volgen. Zo ook: Als je bij het invoegen niet oplet zal de auto gewoon op de vluchtstrook aan volle snelheid doorrijden. Vaak ziet de auto geen enkel probleem en waarschuwt hij niet. Deze situaties worden simpelweg niet ondersteund.
Dan is toch de keuze voor een camera inplaats van lidar blijkbaar toch verkeerd. Eerst een witte vrachtwagen tegen een heldere lucht, nu een grijs beton blok tegen een grijze weg.

Een lidar/radar systeem had beide wel moeten zien en gewoon kunnen reageren door hard op de rem te gaan.

Witte strepen zijn in nederland meestal wel goed geregeld maar hier heb je ook gele strepen en soms blijven oude strepen staan. In omliggende landen zijn de strepen een stuk verwaarloosder en is het zelfs voor een mens een kunst om te bepalen wat er ooit bedoeld werd.

Maar in beide gevallen van uber tot zover is er een fundamental probleem dat niets met de weg te maken hebben. Het ziet objecten op de weg niet. Dat lijkt me toch eigenlijk test nummer 1 voor je op de weg kan. Zie je een object op tijd om te remmen. Ik mag ook de weg niet op als chauffeur als ik niet kan zien, en met mijn slechte ogen zie ik een betonblok nog steeds ook als ik mijn lensen uit doe. Maar toch mag ik zonder lensen niet rijden.

Waarom mag een auto die nu al twee keer heeft bewezen niets te zien wel de weg op?
Kan mijn originele post niet updaten, weet niet of je het gezien had maar iemand heeft filmpje van soort gelijke situatie gemaakt:

https://www.youtube.com/watch?v=fH7QSakSZkQ
Maar ja, als je niet zit op te letten en je moet ineens een besluit nemen ben je al gauw te laat met 100 km/h.
Waardoor de term 'Autopilot' misleidend is. De bestuurder moet namelijk nog steeds opletten. De bevolking in het algemeen verstaat iets anders verstaan onder die term dan bijvoorbeeld de professionele luchtvaart.

Het blijft rij-assistentie en geen autonoom rijden. Overigens ben ik niet tegen rij-assistentie (cruise control is heerlijk!), maar wel tegen alle zaken die een bestuurder impliciet aanmoedigt om minder op te letten. Een oplossing zou al kunnen zijn om Autopilot geen Autopilot te noemen.

Het wordt pas autonoom rijden als de menselijke bestuurder volledig optioneel of overbodig is.

[Reactie gewijzigd door The Zep Man op 31 maart 2018 14:09]

Een oplossing zou al kunnen zijn om Autopilot geen Autopilot te noemen.
Wat los je hiermee op dan?

Let een bestuurder dan wel altijd op?
Houdt een bestuurder dan wel beide handen aan het stuur?
De bestuurder negeert dan geen waarschuwingen?
Dan schakelt de bestuurder autopilot (of andere naam dus) uit wanneer hij een stuk nadert waarvan hij weet dat de Autopilot functie daar problemen mee heeft (of let extra op)?

Daar geloof ik werkelijk niets van.

Tevens mogen we denk ik wel van een Tesla-koper verwachten dat ze iets weten van de auto en mogelijkheden en dat een "full-self driving" functie nog niet operationeel/uitgerold is...(dan kun je alleen daar dus al uit concluderen dat dit (huidige functie) sowieso niet volledig autonoom is).
Dat het een marketingterm is, kunnen wij het denk ik wel mee eens. De functies die Tesla aanbiedt met Autopilot, doen andere fabrikanten ook al lang. Maar dan heet het Adaptive Cruise Control met Stop- and-functie, Lane-Keepingassistent en verkeersboordassistent. Volgens mij circuleerde 10 jaar geleden al een filmpje op het internet waarbij iemand met een sinaasappel aan het stuur gebonden, achterin zittend, met een S-Klasse over de Autobahn reed.

Tesla impliceert met zijn marketing en naam wel heel erg dat Tesla's autopilot meer kan. Dat is simpelweg niet zo. Juridisch zal Tesla niks te verwijten zijn. Maar de terughoudenheid waarmee andere fabrikanten met de zelfrijdende functies omgaan vind ik verstandiger.
Let een bestuurder dan wel altijd op?
Als je cruise control op hebt bij een klassieke wagen, merk je toch al dat je als bestuurder iets trager reageert dan dat je zelf gas zou geven. Bij zo'n autopilot lijkt me dit nog veel meer het geval te zijn. Iets trager, zelfs een fractie van een seconde, kan het verschil zijn tussen leven en dood.
Cruise control zorgt er echter wel voor dat de doorstroming van het verkeer beter is en er minder gevaarlijke situaties ontstaan op de weg doordat een auto behoorlijk afremt als je geen gas bijgeeft bij een helling.

Ik rijd elke dag op een profinciale weg tussen de A50 en Apeldoorn (via Beekbergen) en irriteer me dagelijks aan de treintjes die er ontstaan doordat chauffeurs van luxe wagens niet op hun snelheid letten en van 80 op de teller (75 gps) onderaan het heuveltje ineens 65 rijden bovenaan het heuveltje (60 op GPS). Levensgevaarlijk als ik dan wel met een echte 80 aan kom kachelen en ik rijd achter zo iemand net het heuveltje over. Onderaan het heuveltje zie je niet dat de auto bovenaan het heuveltje behoorlijk van snelheid is veranderd.

Kijk dat een vrachtwagen of bus die snelheid niet kan behouden kan ik inkomen (want gewicht), maar een renault clio estate of volvo V60 kan dat prima. Daar zit ook gewoon CC in dus gebruik het dan ook.

Na een paar dagen heb ik maar besloten om dan maar gewoon het hele stuk 70 Km/h op GPS te gaan rijden. Uiteindelijk kom je op exact hetzelfde moment aan bij het verkeerslicht maar rijd je veel constanter en dat bervordert de doorstroming juist op een manier dat er minder “bijna” ongelukken ontstaan.

De weg waar ik het over heb staat bekend om de dodelijke ongelukken die er gebeuren doordat er heel veel mensen zijn die geen idee hebben wat hun auto doet en vinden dat ze zelf hun voet goed kunnen gebruiken.

Zodra het kan zet ik cruise control aan (ook al is het 50kph), want het constantere rijgedrag is en beter voor het overige verkeer en beter voor de portemonnee.
Echt superirritant ja hetzelfde zie je bij tunnels, mensen die met 120 de tunnel in rijden en er met 80 uitkomen en een hele file erachter.
En het dan raar vinden dat mensen bumperkleven. Ik snap dat soort dingen niet zo goed. Net als mensen die dan buiten de bebouwde kom net aan 70 rijden, vervolgens de bebouwde kom in rijden (waar dan duidelijk een bord staat 50Kpu) en doodleuk 70 door blijven karren. Rijd dan ook gewoon 110 op die provinciale weg alsjeblieft.
Andersom is nog véél erger. Die bejaarden die zodra ze hun wijk uit zijn en 80 mogen 40-50 gaan rijden maar dan ineens wel 60+ kunnen zodra ze de bebouwde kom weer inrijden.

Alsof die paar bomen langs de weg nou zo eng zijn. Die blijven echt wel staan. Ook als je dr tegenaan rijdt oma.
Daar ging het niet om toch? "Een oplossing zou al kunnen zijn om Autopilot geen Autopilot te noemen.". Het hernoemen van deze functie gaat het door jou aangehaalde niet oplossen.

[Reactie gewijzigd door eric.1 op 31 maart 2018 17:05]

Het feit dat deze discussie in elk Tesla topic weer terugkomt lijkt me toch een teken dat de naam niet handig gekozen is, in elk geval niet voor de Nederlandse markt.

Of een andere naam ook iets zou oplossen is koffiedik kijken, maar ik vermoed dat het inmiddels niet meer uitmaakt. Mensen verwachten bij Tesla nu eenmaal een auto die stiekem helemaal zelf kan rijden.
Zelf heb ik nooit in een Tesla gezeten dus ik kan dit niet met zekerheid zeggen, maar zover ik weet krijg je voor je de functie aan kan zetten standaard een bericht dat dit geen zelf rijdende functie is en je alleen wat gereedschappen geeft om het rijden te vergemakkelijken en dat je ten alletijden je handen aan het stuur moet houden.
Een normale bestuurder weet dat hij zelf verantwoordelijk is voor de besturing van de auto.

Iemand die de auto op autopilot zet, denkt dat de auto het zelf wel redt en wordt minder oplettend. En daar schuilt het gevaar in.

Daarom moet de autopilot functie verboden worden. Pas als auto's echt zelfrijdend zijn, moet zo'n functie beschikbaar komen.
Hoezo verwacht je dat? Iedere megalomane idioot met 100k cash kan zo'n ding kopen en tot voor kort 60k aan subsidie terugkrijgen. Ken er zo al 2 die alleen om die reden een model S kochten en een historie van boetes voor te hard rijden en ongelukken rijden hebben. Voor mij staat model S voor "model voor sukkels met teveel cash".
Wel interessant om dan voor b.v. 60k weer te verkopen, 20k winst?
Zo werkt het helaas niet helemaal. Zou zeker mooi geweest zijn met de 2 outlanders en model S toen. Dan had ik er misschien nog wel een paar gewild.
Pardon? Alsof ze dat met een Audi, BMW of Mercedes niet net zo goed doen.

Ik heb het daar niet zo moeilijk mee, afhankelijk van waar ze het doen. Ik doe het net zo goed, maar over het algemeen alleen daar waar het nog mag.

Als je s nachts op een 4 baans snelweg lekker geflitst wil worden, waarom niet? En wel fijn dat dan geen seconden hoeft te duren voor je ook daadwerkelijk te hard rijdt natuurlijk.

En hey, dure boete, maar daarna wel gratis opladen op kosten van de overheid!
Precies, die functie zou geen autopilot moeten mogen heten en zou alleen ingeschakeld mogen zijn zolang de bestuurder de handen aan het stuur heeft.

Iets in de gebruiksaanwijzing zetten of de auto waarschuwingen laten geven is m.i. allemaal onvoldoende, iedereen weet dat mensen advies niet opvolgen, je moet als fabrikant van potentieel levensgevaarlijke machines dus je verantwoordelijkheid nemen en alles doen om risico's zowel hardwarematig als communicatief uit te sluiten, illusies zoals een 'autoilot' functie werken dat tegen.

Deze persoon is m.i. gestorven voor marketing doeleinden.

Edit: geen edit, sta hier nog steeds achter.

[Reactie gewijzigd door droner op 31 maart 2018 16:36]

Deze persoon is m.i. gestorven voor marketing doeleinden.
Lekker dramatisch opgeschreven. Het is ook zo jammer dat zoveel artikelen en nieuwsberichten verschijnen online, van mensen die er zelf nooit mee gereden hebben.

Ik gebruik de autopilot elke dag. Hij doet het aardig, niet perfect. Het is een middel om relaxed door het verkeer te gaan. Elke x seconden checked hij sowieso of je je handen aan het stuur hebt en zo niet, gaat hij piepen.

De autopilot redt levens. Het ziet meer dan jij ooit kan zien. En heel heel af en toe, gaat het fout. Minder dan met een menselijke besturing, dus de "marketing doeleinden" die jij benoemt, redden gewoon levens. Maar, het systeem maakt de fout niet. Het is de bestuurder. De Tesla die doorheeft dat er iets niet goed gaat, gaat piepen, alarmbellen, lichten, alles. Alleen als je die negeert (en dan moet je echt je best doen) gaat het fout. En dat is hier dus gebeurd. 5 seconden lang (!). Tel eens tot 5 als je rijdt, dat is echt echt heel erg lang.

De autopilot icm met een normale bestuurder = veiliger dan een normale bestuurder zonder autopilot

De autopilot in handen van een idioot = veiliger dan een idioot zonder autopilot

Maar dan nog kunnen idioten ongelukken veroorzaken. Door te bellen, appen, niet op te letten of andere dingen te doen.

Doen alsof de Autopilot het gevaar is, is hetzelfde als de mensen die melden dat ze geen gordel dragen omdat ze iemand kennen die juist door de gordel in de problemen kwam. Leuk op een verjaardag, maar statistisch niet correct.
De autopilot redt levens. Het ziet meer dan jij ooit kan zien
Lekker dramatisch opgeschreven.

Ik zie daar graag voorbeelden of bewijs van, want wat weet jij over wat ik allemaal zie in de auto. Elke dag voorkom ik bijna een aanrijding, dus zelf, omdat een of andere jan doedel niet zit op te letten, d.w.z. zijn/haar spiegels niet gebruikt, aannames doet of weer eens prioriteit geeft aan een onbelangrijk bericht op een smartdrone.
Minder dan met een menselijke besturing
daar is tot nu toe geen engel bewijs voor, het tegendeel zelfs.
De belangrijkste reden is dat de wet de bestuurder (menselijk) verantwoordelijk blijft houden. Dat geeft alleen al aan dat tot nu toe niet duidelijk is (lees geen vertrouwen) dat de techniek een beslissing kan nemen die veiliger is dan een menselijke bestuurder doet in het geval van nood.

lijntjes inkleuren, en niet op een goede manier (waarschijnlijk ook de oorzaak van bovenstaand ongeluk)
https://www.youtube.com/watch?v=uYav3_7miIc
http://www.youtube.com/watch?v=-AtZJm7S2bE&t=4m45s
https://www.youtube.com/watch?v=9mcT_j0hX3U
https://www.youtube.com/watch?v=f8Mrkn0QW-c

Wat heb ik aan een 'autopilot' als ik continue zelf moet opletten en de handen aan het stuur moet houden? Bij cruisecontrol kan ik in ieder geval mijn voet van het gaspedaal halen. Sorry, maar tot nu toe zie ik geen enkel voordeel in die 'auto'-functies. Wel zie ik de nadelen elke dag, zoals auto's/automobilisten die 50 meter afstand laten op hun voorganger in de file omdat ze adaptive cruisecontrol aan hebben staan. Blijkbaar doe ik het zelf beter dan dan die computer, want ik ben wel in staat om veilig een kleinere afstand te houden. Adaptive cruisecontrol maakt files alleen maar langer en langduriger.

[Reactie gewijzigd door Conzales op 31 maart 2018 18:17]

Voorbeeld.

Hier in het dorp

Op ca 10 meter
Weg van rechts met voorrang
Zebrapaden
Bushalte
Afslaande mensen naar een parkerrplaats.

Niemand kan dat allemaal zien. Dat gaat niet goed omdat ik het allemaal in de gate heb. Maar omdat meestal wanneer je niet oplet er niemand anders is. Of de ander oplet.

Een computer kan wel in een mum van tijd al die dingen registreren.

Voorbeelden waar het goed gaat met de tesla krijg je niet want die komen niet in het nieuws.

Een mens is gewoon beperkt in veel dingen. Juist de dingen waar en computer erg goed in is.

Misschien juist omdat het al zo goed is is dit ongeluk gebeurd. Hey is al tijden wel goed gegaan.
Maar de kracht van een hoop mensen(niet allemaal,). Is antisiperen. Ga 10km rijden IPV 30. En je kan alles prima zien. Wil je perse 30-35 rijden dan zijn er plekken waar je ogen oren en handen te weinig hebt.
Mee eens. Juist daarom is de autopilot in combinatie met een mens prima.
Beide apart zijn gewoon minder goed.

Overigns is anticiperen gewoon een gok nemen. Ow die bus die staat daar niet zo lang.
Ow die mensen die gaan vast niet oversteken bij het zebrapad.
Ow de auto voor mij hoeft nog niet te stoppen voor die mensen bij het zebrapad(doet hij dat wel sta ik op de kruising).

Al deze dingen kan een autopilot niet voorkomen. Alleen de botsing met de mensen op het zebrapad en de auto voor je. Alleen de eventuele fouten die dan al gemaakt zijn zijn menselijke fouten.
Nee, de Autopilot icm menselijke verantwoordelijkheid is juist een rampzalige combinatie.

De Autopilot vereist de skills van een rij-instructeur: je rijdt zelf niet, maar je moet toch de discipline hebben om continu alert te zijn.

Dat is een onmogelijke combinatie voor de doorsnee mens, die al gauw achterover leunt, of, zoals de Uber testrijder, met de telefoon bezig is en een fietser doodrijdt.

Een automatisch rijdende auto moet óf 100% veilig rijden óf het moet er niet op zitten.

Daarom moet de Autopilot verboden worden.
De Autopilot vereist de skills van een rij-instructeur: je rijdt zelf niet, maar je moet toch de discipline hebben om continu alert te zijn.


Dus omdat de mens zwak is moet je iets moois verbieden? Misschien afzwakken van ingrijpen bij kleine situaties tot meer waarschuwingen.

Maar als het kan ingrijpen, en je dat niet doet omdat er een paar mensen geen discipline hebben lijkt mij ook vreemd.
Dus omdat de mens zwak is moet je iets moois verbieden?
Inderdaad, dat is de enige juiste conclusie. De techniek moet aangepast zijn aan de eigenschappen van de mens.
Niemand kan dat allemaal zien. Dat gaat niet goed omdat ik het allemaal in de gate heb. Maar omdat meestal wanneer je niet oplet er niemand anders is. Of de ander oplet. .
Eh, en nu in het Nederlands? En met onderbouwing? Wij zien dit allemaal gebeuren l, registreren vrijwel alles wat er om ons heen gebeurt. Dat we dit niet zouden kunnen is onzin.

We zijn er alleen niet bewust mee bezig. En dat is ook niet nodig.

Leuk dat een computer dat ook kan nu, en dat die bepaalde dingen accurater kan waarnemen is zeker waar. Maar om het nou zo'n vooruitgang te noemen...

Mensen konden zonder cruise control half slapend rustig een hele weg van werk of zelfs vakantie naar huis doen en ineens thuis er achter komen dat ze er al zijn.


Dat is old-school auto-pilot. Hoewel dat levensgevaarlijk is..
Als jij denkt dat jij meer ziet dan een computer dan ben je erg naief. Een auto zit vol dode hoeken. Je ogen zitten vol dode hoeken. Kunnen niet in 2 of drie spiegels tegelijk kijken en vooruit kijken.

Iedere keer zit er tijd tussen.
Als jij recht voor je uitstaart zie je onbewust nog steeds alles in je gezichtsveld en dat blijft daadwerkelijk hangen. Daarna spelen je hersenen wat rond en kun jij zonder dat je het weet doorlopend als er een auto aankomt. Ook al is die niet op dat moment zichtbaar voor je.

Van veraf kinderen horen of zien, onbewust pas je je daar wel gedeeltelijk op aan hoor. Zij het je snelheid wat minderen of goed letten op waar je dacht dat je ze gezien had.

Maar terwijl dat semi bewust gebeurt? Jij hebt ook de fietsers gezien die je voorbij ging. Niet eens bewust.. Maar daardoor kijk je ineens tóch wat beter uit vergeleken met als je ze niet had gepasseerd.

Zo is ons brein 24/7 bezig met ons sturen.

En net zoals dat een boordcomputer aan de hand van bepaalde input reageert doe jii dat ook. Alleen de boordcomputer slaat daadwerkelijk alles op en kan dat 1 op 1 terughalen.

Ons brein en lichaam is een stuk geavanceerder dan zo'n boordcomputer maar ik zal toegeven dat driving assistance best aardig is op zijn tijd. En zo'n computer heeft uiteraard een feilloos geheugen. Wij slaan het wel op maar terughalen is vaak het probleem.

Wij zien dingen veel eerder. En als we twijfelen of als we onzeker zijn, en dáár zit bij veel de fout, gaan we alles snel opnieuw nakijken en beslissen we opnieuw tot we zeker (genoeg) zijn.

Zo'n boordcomputer idem ditto. Die is nooit 100% zeker. Wij ook niet. Maar een boordcomputer heeft geen ego en zal eigenlijk altijd het zekere voor het onzekere nemen.

Mensen slaan nogal eens de stap herbeoordelen over omdat ze denken dat het wel goed zit. Daar zit imo de toegevoegde waarde van dit soort systemen nu.

Dat extra signaaltje van "pas op" of "onduidelijke situatie" of iets dergelijks in plaats van "het zal wel, gas erop."

Wij zien vrijwel alles al, maar met zo'n computer zien we het ineens allemaal nog duidelijker. Nog makkelijker en kunnen we het op een bepaalde manier zelfs terughalen bij twijfel.

Graag een HUD op mijn raam met highlights a la iron man icm met semi AI. Een "Wtf was dat?" en je auto geeft met highlights aan waar het van heeft berekend aan je reactie waar je op dat moment naar keek terwijl het ook kort het stuur overnam en op de weg hield terwijl je schrok.

Zelfrijdende auto's op de weg tussen reguliere bestuurders? Niet de komende 10 jaar volledig autonoom.

Een systeem als dit? Met 10 jaar mag ik hopen dat het er wel is.
Die automobilisten die 50 meter afstand houden in de file (waar ik er ook 1 van ben) hebben niet per se ACC hoor. Die snappen alleen dat je niet continu met zijn allen 5 m op moet schuiven maar gewoon moet zorgen dat je te allen tijde aan het rollen blijft. Het maakt geen zak uit of je 20 of 50 meter achter je voorganger zit. Als puntje bij paaltje komt scheelt dat je hoogstens 2 seconden als je weer normaal 100-130 kpu kunt rijden. Die “veilige” afstand is leuk, maar voor de doorstroming wil je juist meer afstand hebben en dan gewoon een beetje in z’n 1 door blijven rollen.
Ik denk dat 50 meter erg ver is.
Het is toch eigenlijk net als met de wet van Ohm; P = V * I.

Maximale stroom = drukte * aantal rijstroken (en maximum snelheid).
Theoretisch he, als iedereen zou anticiperen, daarom denk ik dan b.v. 10-20 meter nog meer wint zou opleveren mits iedereen goed oplet (wat eigenlijk altijd het geval zou moeten zijn)

20 km/h en 100 auto's voorbij of 10 km/h en 200 auto's maakt netto niets uit. (per persoon wel)

[Reactie gewijzigd door twicejr op 1 april 2018 10:18]

En dat is dus precies de reden waarom dat niet gaat lukken. Er zijn teveel mensen die gewoon niet anticiperen en ook van die gabbers die in een file van strook wisselen.
Tja "maar ik ben 15s sneller weg." mentaliteit.
Tsja. Meestal cross ik dat type chauffeur 100 meter verderop weer voorbij. Die 15S ga je never niet halen met dat verschil in afstand vs de geringe snelheid.

Het probleem van de nederlandse snelwegen is nit dat er teveel auto’s op rijden, maar dat er te veel auto’s per strekkende meter zijn en waarbij er ook nog eens te grote snelheidsverschillen zijn tussen de verschillende banen. Kijk naar de A2. Over het algemeen is de dichtheid daar heel hoog. Iedereen rijd daar exact 100 (of poogt dat in ieder geval op het gemiddelde te doen) en daar is het meestal goed te doen qua verkeer. Zelfs al kan er soms nog maar net een auto tussen.
15 seconden winst bedoelde ik, op een paar kilometer file door je als een uh.. Volkswagenpolo met petje en knaluitlaat te gedragen. Zo zal ik het maar omschrijven.

Je ziet vaak genoeg de grotere luxere wagens behoorlijk gevaarlijke en asociale stunts uithalen maar in een file lijkt het alsof dat type bestuurder wél doorheeft dat dat soort gedrag dan geen nut heeft.

De Audis, BMWs en mercedessen onder ons rijden denk ik gedeeltelijk wat roekelozer omdat dat ook daadwerkelijk leuker autorijden is. In een file is dat gedrag niet leuker maar alleen maar levensgevaarlijk.

En zo'n wagen koop je niet enkel voor A naar B. Mijn omgeving niet tenminste. Daar zie je de plezierrijders veel in Duitsers en de van A naar B types veelal in een Citroen C5 of Peugeot 508. Met ook veel uitstapjes richting kia tegenwoordig.

Op zich niet heel vreemd, de Duitse auto's hebben veel grotere verschillen tussen de motortypes. En vaak zie je dat bedrijfsrijders niet te opvallend willen zijn aan de straat.

De hoeveelheid Audi a5 en a7s die je ziet hier.... En klanten die ik spreek? Steevast de 3 liter benzine of diesel "want je ziet het verschil toch niet. Maar het rijd wel leuker."
Ik heb dan toch een ander beeld. Ik zie met name de wat goedkopere oudere auto’s het rustiger aan doen. Vaak juist omdat dit eigen autos zijn.

Ik zie juist vaak de luxere stationwagens of dikke volvo’s/audi’s/bmw’s wel dje risico’s pakken en kort achter voorliggers zitten. Juist de mensen die bepaalde stukken vaak rijden.

Edit: ik rijd nu een Polo ;)

[Reactie gewijzigd door supersnathan94 op 3 april 2018 14:57]

In de afgelopen 10 jaar zijn het vaak de half verroeste Subaru's met spoilers, golfjes, polos etc.

Dat de duurdere wagens wat te dicht op elkaar zitten valt wel op maar ik zie ze maar zeer zelden schuiven om uiteindelijk 100 meter winst te behalen.
Aan de ene kant kunnen de meeste ACC’s wel korter houden dan 50 meter. Mijn Golfje met file-assist blijft er in de file ook op maar een paar meter afstand.

Aan de andere kant is het alleen maar beter voor de file als iedereen wat meer afstand zou houden. Daarmee haal je het harmonica-effect eruit. Daarom is de file op rechterbaan vaak sneller omdat de meeste vrachtauto’s aan het rollen willen blijven en dus veel afstand houden.
Ik zeg niet dat het systeem een probleem is, maar wel de naam 'autopilot': het marketingaspect dus waardoor sommigen het systeem gebruiken alsof het om een zelfrijdende auto gaat, wat volledig begrijpelijk is gezien de naam, maar dus niet terecht gezien de capaciteit van de techniek.

[Reactie gewijzigd door droner op 31 maart 2018 15:55]

https://en.wikipedia.org/wiki/Tesla_Autopilot
https://en.wikipedia.org/...els_of_driving_automation
http://www.thedrive.com/s...levels-of-autonomy-anyway

yeps ban op die autopilot shit, gebruik gewoon het 'SAE Level'.

fun fact: KITT from Knight Rider, only achieved Level 4 autonomy. :)

[Reactie gewijzigd door P.A.T.R.I.C.K op 31 maart 2018 16:38]

Er is niets mis met het woord autopilot. De Autopilot zoals wij die allen kennen uit een vliegtuig werkt hetzelfde. Hij neemt het werk uit handen van de piloot, totdat het systeem een fout tegenkomt, iets niet snapt of andere problemen ontdekt. Op dat moment moeten de piloten het weer overnemen.

Tesla biedt de optie Autopilot en Full Self Driving. Deze kan je aanvinken op de optielijst met duidelijk daarbij de verschillen. De laatste kan je al wel aanschaffen, maar niet activeren.

Er is echt niemand die een Tesla koopt die het idee heeft dat de auto alles zelf gaat doen. Alleen mensen die geen Tesla hebben of rijden hebben dat idee.
Er is volgens mij geen enkele reden om aan te nemen dat een consument aan een term eenzelfde lading zal geven als een professional, die vergelijking is m.i. dus niet relevant.

Tesla ligt al langer onder vuur vanwege het gebruik van de term 'Autopilot'. Tesla houdt echter vast aan een eigen survey waaruit zou blijken dat ten minste 93% van de consumenten begrijpt wat 'autopilot' inhoudt.

Waarom Tesla zo moeilijk doet om kritiek van o.a. internationale overheidsdiensten te pareren? Ik kan alleen 'marketing' bedenken.

Als we werkelijk willen weten of die term een rol heeft gespeeld bij de dodelijke ongelukken zouden we het aan die bestuurders moeten vragen. Maar Tesla zou er ten minste verstandig aan doen om elke twijfel weg te nemen; doordat ze dat niet doen roepen ze minstens dit soort reacties over zichzelf af.
Er is echt niemand die een Tesla koopt die het idee heeft dat de auto alles zelf gaat doen. Alleen mensen die geen Tesla hebben of rijden hebben dat idee.
Dat is aantoonbare nonsens. Er zijn al diverse voorbeelden van Tesla rijders die meenden dat de Autopilot het wel af kon zonder hen.
Jij hebt het niet helemaal begrepen, ze hadden het Advanced ADAS kunnen noemen, maar nee de marketing van Tesla denkt dat Advanced Autopilot beter verkoopt. Puur door het gebruik van het woord autopilot lok je moedwillig gevaarlijk gedrag uit op de weg en dat is fucking crazy, toch ? Zie de duizenden youtube videos waarin TESLA BESTUURDERS het leuk vinden om de Advanced ADAS waarschuwingen te negeren.

p.s. ik vind een verplicht rijbewijs verstandig voor SAE level 2 / SAE level 3 / SAE level 4 zodra dat er is mag je weer met vliegeniers vergelijken :)
[...]

De autopilot redt levens. Het ziet meer dan jij ooit kan zien. En heel heel af en toe, gaat het fout. Minder dan met een menselijke besturing, dus de "marketing doeleinden" die jij benoemt, redden gewoon levens. Maar, het systeem maakt de fout niet. Het is de bestuurder. De Tesla die doorheeft dat er iets niet goed gaat, gaat piepen, alarmbellen, lichten, alles. Alleen als je die negeert (en dan moet je echt je best doen) gaat het fout. En dat is hier dus gebeurd. 5 seconden lang (!). Tel eens tot 5 als je rijdt, dat is echt echt heel erg lang.
Uit de update van Tesla kan ik dat niet opmaken: de bestuurder had gedurende 5 seconden zicht op het obstakel, maar had zijn handen van het stuur en ondernam geen actie. De Tesla heeft op eerdere momenten tijdens de rit een aantal waarschuwingen gegeven. Hoelang de rit duurde, en wanneer tijdens de rit die waarschuwingen gegeven werden, staat er niet. Of de Tesla ook voor het naderende ongeluk gewaarschuwd heeft, ook daarover lees ik niets. Of de bestuurder waarschuwingen genegeerd heeft, is dus volgens mij nog helemaal niet duidelijk. Niet geheel verwonderlijk; de onderzoeken lopen nog.

Ik kan me voorstellen dat mensen moeite hebben met de term Auto Pilot; het suggereert een functie die er nog niet is.
De autopilot in handen van een idioot = veiliger dan een idioot zonder autopilot
Dat is niet per se waar als dit betekent dat een idioot nog dommere dingen gaat doen met AP aan op hoge snelheid, terwijl er zonder AP nog wel een heel duidelijk gevoel van gevaar is.

Voor de rest ben ik het wel helemaal eens met wat je schrijft en denk ik dat AP meer veiligheid toevoegt dan het wegneemt. Maar misschien kunnen ze het Auto Co-Pilot noemen ofzo, is het wel gelijk helemaal duidelijk voor de wat minder slimme mensen.
Voor mij mag de discussie omtrent Autopilot direct stoppen bij "Ook zou de chauffeur enkele waarschuwingen van de auto hebben gekregen, maar deze hebben genegeerd.".

https://youtu.be/fEZd2V1z3uw?t=1m5s

Hierbij een filmpje waarin je de waarschuwingen kan zien. Als je zo nonchalant bent om bewust de visuele en auditieve waarschuwingen te negeren, moet je nadien niet naar het systeem wijzen om daar de schuld op te leggen. Je zit nog steeds in de auto waar jij als bestuurder verantwoordelijk bent. Jij rijdt met de auto, niet omgekeerd. Autopilot is een rijhulp die jij als chauffeur kan overrulen. Autopilot zegt niet: "je moet niet meer opletten want de auto rijdt vanzelf."

Stel dat je achteraan in een file rijdt omdat je tijdens cruise control afgeleid was. Dan moet je het ook niet steken op cruise control, maar op de chauffeur.

Overigens gaat Autopilot niet puur af op wat de camera's zeggen, maar ook op GPS-data waardoor die wel weet hoeveel rijstroken er zijn op die positie. Camera's helpen dan weer om mee te geven welke zones afgebakend zijn door volle lijnen.

Autopilot testen? Ruimte genoeg gehad om te zien dat die verkeer zou gaan en om zelf in te grijpen denk ik dan...
Wat is de zin van AP als het toch de automobilist is die in moet grijpen? Als de AP signalen afgeeft waar niet op gereageerd wordt door de bestuurder zou het niet zo moeten zijn dat de auto dan maar gewoon door blijft rijden.
Heel simpel, AP is een rijhulp. Net zoals adaptive cruise control, maar iets uitgebreider. Als de adaptive cruise niet zelf beslist om te remmen terwijl die dat toch zou moeten doen, moet je als bestuurder ook zelf ingrijpen. Uiteindelijk kies je als chauffeur voor het beste van beide werelden, je blijft opletten, maar geniet toch een beetje van het comfort om rondgereden te worden. Lijkt me prima.

Ik begrijp de hele heisa niet. Tesla heeft ooit gekozen op de term AutoPilot toe te kennen aan deze rijhulp, maar ze hebben nooit beloofd dat die nu als volledig zelfrijdend zonder oplettendheid van de chauffeur 100% betrouwbaar bruikbaar is, net zoals alle andere rijhulpen bij andere merken...

Uiteindelijk is het toch ook ‘maar’ een uitgebreide vorm van adaptive cruise control, lane assist etc...?
Ik ben niet echt een auto freak of Tesla fan dus voel me rond zo'n topic een beetje als de gemiddelde consument die een computer of smartphone zoekt. Ik zeg het wel vaker, je mag niet van mensen verwachten dat ze alles weten en dus ook alles over het topic waar jij goed van op de hoogte bent.

Ik snap niet hoe je een auto kan marketen als zogezegd een Auto Pilot te hebben als je constant moet opletten. Het lijkt me net het tegenovergestelde van relax rijden. Ofwel kan je een auto betrouwen en hem in auto pilot zetten ofwel zet je hem niet in auto pilot want dat is gewoon heel gevaarlijk. Ik ken een Tesla als een auto die op sommige plekken zelfstandig kan rijden nou dan moet die dat gewoon kunnen zonder dat er iets fout gaat anders kan je evengoed een vierjarige op je schoot zetten en die als auto-pilot gebruiken. Of een aapje trainen om te rijden. We zouden het toch nooit toelaten dat mensen een aap als auto pilot gebruiken terwijl een aap een pak slimmer is dan zo'n Tesla computer?!
Nogmaals: in elke wagen met eender welke rijhulp ben jij nog steeds de chauffeur en heb jij de eindverantwoordelijkheid hoe er gereden wordt. Je kan je Tesla perfect in autopilot zetten, maar dat wil dus niet zeggen dat je niet meer moet opletten. Als je adaptive cruise control rijdt met je auto, moet je ook nog steeds opletten en anticiperen op een eventuele noodstop die 5 auto's voor je gaat gebeuren. Adaptive cruise control baseert zich bijvoorbeeld ook enkel maar op de auto voor je. Als die te laat in de remmen gaat, knal je er ook keihard op.

Het zijn stuk voor stuk rijhulpen. Ze maken het makkelijker, maar garanderen nooit dat je zelf niks moet doen. Dus ofwel gebruik je Autopilot of adaptive cruise control en blijf je mee alert, ofwel rij je zelf.

Belangrijk detail dat in heel deze discussie nog niet naar boven is gekomen: het is nog niet geweten welke versie van Autopilot de bestuurder gebruikte. De eerste versie bij de eerste Tesla Model X-modellen is bij lange niet zo uitgebreid en geschikt voor autonoom rijden als de tweede versie waarmee Tesla momenteel kan uitpakken.
Autopilot is een gevaarlijk ding wat per direct afgeschaft moet worden.

Alleen zeer getrainde mensen zijn in staat om altijd alert te zijn en in te grijpen wanneer nodig als je zelf niet rijdt.

Die mensen heten rij-instructeurs.

Je kunt van doorsnee automobilisten niet dezelfde skills verwachten.

Dus: of de auto is echt zelfrijdend, of de automobilist rijdt. Iets er tussenin gaat niet werken. Zelfs niet voor de Uber testrijder, die laatst een fietser doodreed.
Die mensen heten rij-instructeurs.
1 april was (eer) gisteren al hoor.
Geen idee waarom ze mij tot "Karmakeizer Tesla" hebben benoemd. Daar ga ik niet over.

Waar het mij om gaat is dat de mens een controleur van een robot kan zijn. Dat werkt niet.

Of de machine is in control, of de mens. Beide werkt niet, zoals we al diverse malen hebben geconstateerd.

Ik heb inderdaad nog helemaal nooit in een Tesla gezeten. Maar ik heb geen ervaring met Tesla nodig om te beseffen dat de mens ongeschikt is voor Autopilot. Daar komen immers ongelukken van.

Daarom ben ik voorstander van het verbieden van de nèt-niet-helemaal rijhulpjes, tot de auto écht zelf beter rijdt dan de mens.
Dat gaat immers nooit lukken. Geen enkele technologie kan volmaakt en zonder fout worden uitgerold zonder testen op grote schaal. Da’s wat Tesla momenteel doet met Autopilot, want iedereen die rijdt, zorgt rechtstreeks voor data voor Tesla zodat ze hun technologie nog meer kunnen verbeteren. Dat zou nooit gelukt hebben zonder rond te rijden.

Overigens rijden er ondertussen al vele Tesla’s rond, zonder noemenswaardige producten of glitches die publiek bekend zijn. Al bij al zal het wel meevallen...
Er zijn al diverse ongevallen van Tesla bij het publiek bekend. Dat waren ongevallen waarin de mens ten onrechte vertrouwt op de Autopilot functie.

Als Samsung een nieuwe functie op de smartphone uitrolt die niet 100% betrouwbaar werkt, dan is de wereld te klein.

Maar jij vindt het wel acceptabel als Tesla hetzelfde doet met een auto, en Tesla de openbare weg onveilig maakt door de klant als beta-tester te gebruiken om hun product te verbeteren.

Als Tesla niet in staat is om een volwaardig product voor in het verkeer op de markt te brengen, dan moet Tesla dat product helemaal niet uitbrengen.

Betatesten doe je in je fabriek.
Simpel zat.
Het toekennen van een term impliceert zaken. Iets Autopilot noemen wat het niet is kun je niet afdoen met een disclaimer: het is misleiding en dat is verboden. Valse marketing enzo.
Autopilot klopt toch? De wagen rijdt vanzelf naar een bestemming? Het impliceert nergens dat je nooit zelf moet opletten?
Een baksteen op je gaspedaal kun je met die definitie ook Autopilot noemen 😀
En een touw aan je stuur, anders is het alleen maar cruise-control.

Op een zoutvlakte is dat een prima autopilot.

De autopilot van een vliegtuig ontwijkt ook geen huizen, bomen, voetgangers, of andere vliegtuigen. Dus wat dat aangaat is de term autopilot prima. Hij volgt gewoon een geprogrammeerde koers.
Inderdaad. In de handleiding van mijn ACC staat expliciet dat het systeem geen stilstaande objecten zoals rotonde‘s herkent en dus ook geen actie onderneemt. Als je achter een auto rijdt die een rotonde neemt hoef je dus minder (sturen) te doen dan dat je alleen de rotonde neemt (remmen plus sturen). Een barriere zoals op splitsing van snelwegen staat ziet de ACC dus ook niet.

In Californië bestonden deze barrières vroeger uit simpele plastic vaten gevuld met zand en zijn het geen harmonica constructies zoals in Nederland. In dit geval was het echter een "reusable retractor barrier" die m.i. makkelijk binnen een dag gerepareerd had kunnen worden.

[Reactie gewijzigd door Paridaen op 1 april 2018 09:07]

Dat gebeurt dan ook niet, als je alle audiovisuele waarschuwingen negeert zal de Tesla voorzichtig remmen tot stilstand met inschakeling van alarmlichten, en Tesla support krijgt bericht. Het systeem gaat er dan vanuit dat er iets met de bestuurder aan de hand is. Hiervan zijn genoeg vlog voorbeelden op YouTube te vinden. Echter als je in de tijd tussen het negeren van de eerste waarschuwing en stilstand (ongeveer een minuut) plots een betonnen barrière tegenkomt op een super slecht vormgeven wegvak, dan ben je de pineut.

Hierin is Tesla niet de enige overigens, ook Mercedes ed hebben dergelijke signalering systemen.
Omdat het simpelweg niet mogelijk is om een volledig mens loos machine de weg op te sturen.
Maar het is net Tesla dat dit systeem als automatische piloot op de markt zet. In het begin noemde ze het zelfs een volledig autonome functie voor op de snelweg en was het ook effectief toegestaan om gedurende langere tijd je handen van het stuur te halen. Het is pas na enkele ongelukken dat ze besloten hebben om je te verplichten je handen aan het stuur te houden. Is het dan zo abnormaal dat mensen denken dat, zeker op een snelweg waar het systeem net voor ontworpen is, je toch perfect zou moeten kunnen vertrouwen op die AP?
Het is in zoverre abnormaal dat in de media voldoende aandacht is geweest voor zelfrijdende auto's en alleen een echte Musk aanbidder gelooft dat Tesla wat dat betreft perfect is.
Tesla heeft te weinig sensoren (en rekenkracht) om ooit zelfstandig te kunnen rijden (mijn mening...).
De huidige wagens zullen zeker geen level 5 autonomie kunnen halen met de huidige sensoren. Al zullen ze wel niveau 2 kunnen overdrijven waar ze vandaag op zitten.
Even erop inspelen dat Tesla AutoPilot niet in de markt zet als “je moet niets meer doen”, maar wel dat het in de toekomst mogelijk zal zijn maar momenteel een rijhulp is. Als ik me goed herinner word je er al mee geconfronteerd bij de aankoop van je wagen wanneer je kan kiezen om een uitgebreidere AutoPilot mee aan te schaffen die pas later geactiveerd kan worden, wanneer beschikbaar?
Een vraag die we hier wel zouden mogen stellen: Tesla geeft aan dat de waarschuwingen zijn gegeven, maar er zit mogelijk nog een verschil tussen het log dat zegt dat de waarschuwing is gegeven en dat het scherm/audio de waarschuwing daadwerkelijk laat zie of horen. Hier zou nog steeds een bug in de communicatie kunnen hebben gezeten waardoor de waarschuwing niet op (direct) het scherm kwam of bijvoorbeeld de waarschuwing niet hoorbaar was. Wat ik me afvraag: is met de melding in het log meteen ook bewezen dat de waarschuwing zichtbaar en hoorbaar was in de auto? Is daar 100% zekerheid over? Heeft het scherm en de audio unit zijn eigen logging (object oriented) of moet alles uit een centraal log komen (fire and forget)?

Kern blijft dat de bestuurder verantwoordelijk is voor de rit van a tot z en moet ingrijpen als hij waarschuwingen vanuit het systeem krijgt of als hij zijn voertuig niet vertrouwt. Uit deze rapportage blijkt dat deze bestuurder eerder al had geklaagd over het gebruik van de autopilot specifiek op dit stukje weg klik. Om het kort samen te vatten: de autopilot gedroeg zich vreemd op dit specifieke stuk en trok de auto naar de middenpilaar. Een stuk waarvan tesla claimt dat er dagelijks 200 tesla bestuurders zonder problemen voorbij rijden. Was het dan een probleem met deze specifieke tesla? Wellicht was er een sensor defect die dit vreemde gedrag veroorzaakt? Ik zou in elk geval niet op de autopilot rijden op dat stuk als ik daar eerder al problemen mee heb geconstateerd. Was dit dan naïef van de bestuurder? Had de tesla dealer serieuzer naar de klachten moeten kijken die eerder gemeld waren (die zei niet reproduceerbaar)?. Was de bestuurder afgeleid en met andere zaken bezig dan met het verkeer? Nog veel vragen en waarschijnlijk zullen die ook wel open blijven.

In elk geval valt een groot verwijt te maken naar de wegbeheerder hier. Er is een massief object onbeschermd gelaten na een eerder ongeval (11 dagen daarvoor). Verantwoordelijke instantie geeft aan dat na het eerdere ongeval door weersomstandigheden de "safty barrier" niet eerder heeft kunnen herstellen. Deze safety barrier bied een aanvullende kreukelzone omdat het massieve object dit niet heeft. Het eigen beleid van de instantie is om dit binnen 5 werkdagen te repareren. ""Some states have as short as a 3 day repair time for high traffic locations," Je zou je zelfs kunnen afvragen of je de weg op die manier wel open zou mogen gooien op de normale maximale snelheid?
samenvattend:
1. Met een lagere (afgedwongen) snelheid had de schade minder ernstig geweest bij een crash
2. Met een goed werkende safety barrier en normale maximale snelheid had de schade minder erg geweest.
3. Als de bestuurder in de laatste 6 seconden van de crash zijn handen aan het stuur had gehad en betrokken was bij het verkeer had hij mogelijk in kunnen grijpen en kon het hele ongeval kunnen worden voorkomen.
Deze streetview is ook wel interessant waarbij je ziet dat er geen RIMOB aanwezig is maar dan in februari vorig jaar:
https://www.google.com/ma...A1yKvA!2e0!7i13312!8i6656

[Reactie gewijzigd door Yooo Kerol op 31 maart 2018 15:13]

stukje uitzoomen :) https://www.google.com/ma...bmxBrA!2e0!7i13312!8i6656


de staat van de witte streep is zo slecht, dat het geen doorgetrokken streep meer is :)
https://www.google.com/ma...GB1cYw!2e0!7i16384!8i8192

en een klein stukje terug op dezelfde weg :)
https://www.google.com/ma...7QOR7A!2e0!7i16384!8i8192

[Reactie gewijzigd door P.A.T.R.I.C.K op 31 maart 2018 17:00]

Leuk dat het eruit ziet als een normale rijstrook, dat is inderdaad op een klein stukje het geval omdat de banen uitelkaar lopen. Maar als je de camera even omdraait op die locatie zie je dat dit vanuit een punt uitloopt waarbij de rijstroken langzaam uit elkaar gaan. Duidelijk aangegeven met witte belijningen.
Dat betekend dus dat de auto uit zichzelf van rijstrook is veranderd of gewoon compleet de belijning negeert en gewoon rechtdoor gedenderd is waardoor hij op een 'niet bestaande baan' rijd. Anders kan hij namelijk nooit op dat stuk asfalt komen...
Maar als je naar de kwaliteit van de belijning kijkt, zie je dat die oorspronkelijk doorgesproken streep op sommige punten gewoon verdwenen is. Ik kan me voorstellen dat het systeem dan toch als een rijbaan gaat zien.
Maar of dat wel of niet zo is maakt toch niks uit. De auto is mogelijk zelf naar een baan gegaan waar hij nooit had moeten komen. Hij kijkt toch ook ver vooruit en kan dan toch allang gezien hebben dat zijn keuze niet goed geweest is en had toch gewoon kunnen corrigeren?

We kunnen moeilijk gaan verlangen dat alle belijningen perfect zijn omdat een auto met autopilot anders de mist in gaat
Ik denk dat één van de algoritmes er oor zorgt dat de auto nooit over een doorgetrokken streep rijdt. Zodra de streep dan toch wordt onderbroken wordt het op een autobaan als een extra rijstrook gezien. Dat is normaal gesproken ook zo. Het systeem had uiteraard wel die railing moeten zien.
Nou dat “duidelijk” valt nog vies tegen hoor. Als je even iets terug gaat kijken zie je dat deze lijn op sommige plekken bijna verdwenen is. De staat van de weg daar is nog erger dan de A1 amsterdam-apeldoorn vlak voor amersfoort.
Zoals je ziet reed hij op een '' niet bestaande baan'' maar die er wel precies uitziet als een normale rijstrook.
Geef eens een zwieper aan die camera? Dan zie je dat dat alleen vlak voor het obstakel zo is, als je de andere kant op kijkt zie je dat die 'baan' snel smaller wordt en verdwijnt. Ik vind het dus alles behalve logisch dat de software dit als een baan gezien zou hebben, dan moet hij een lane change gedaan hebben (of meer waarschijnlijk die half vervaagde lijnen niet goed gezien hebben).
de tesla had toch ook kunnen remmen? dat doet die in andere situaties ook om een aanrijding te voorkomen. maar dan nog moet de bestuurder ook gewoon opletten
De auto had ook gewoon rustig kunnen afremmen...

Voor zover ik weet is google nog de enige die nagenoeg foutloos rond rijdt. Alle ongelukken die ik lees met google autos zijn niet de fout van de auto maar van overige weggebruikers. Tot hoe ver dit de waarheid is laten we maar in het midden.

Tesla kan echter beter de auto pilot eruit slopen als deze dus zeer duidelijk niet zo auto is als het zou moeten... Als de auto niet eens een gigantisch betonblok kan herkennen dan lijkt het me niet raadzaam deze nog langer in auto's te bouwen.

Er zou in mijn ogen maar 1 functie in mogen blijven en dat is de functie waarbij de auto rustig afremt en naar de kant gaat als een bestuurder onwel wordt. Voor alle overige functies is duidelijk dat auto fabrikanten er nog niet klaar voor zijn.

Hier een video van de auto:

https://www.youtube.com/watch?v=RlQTeF45aIE

Hij is inderdaad recht op op dat blok geknald

[Reactie gewijzigd door sygys op 3 april 2018 09:01]

Er is ondertussen ook iemand die heeft nagedaan wat er waarschijnlijk is gebeurt:

https://www.youtube.com/watch?v=fH7QSakSZkQ

probeerde het ook in me originele bericht te zetten, maar die kan ik volgens mij niet meer bewerken.
Een collega van me heeft een Model S. Hij heeft Autopilot uit laten schakelen omdat hij het te verleidelijk vond om andere dingen te gaan doen tijdens het rijden. De mens is de zwakste schakel in een Tesla met Autopilot. Die moet uiteindelijk nog steeds focussen op autorijden maar kan dat niet goed als veel van het werk uit handen genomen wordt.
Men had het beter copilot kunnen noemen, maar ja, die naam is al gegeven aan een app op mijn telefoon.

Zie ook uitleg Autopilot https://teslamotorsclub.c...es-tesla-autopilot.56325/
Natuurlijk moet je altijd blijven opletten, zeker bij dit soort lastige passages. En dus elke paar seconden voor je kijken. Als je dat niet kunt of jezelf daarmee niet vertrouwd, dan is de keuze van jouw collega een heel goede.
Als een bestuurder meerdere meldingen negeerd vindt ik dat de bestuurder nalatig is geweest. De auto’s van Tesla remmen geleidelijk af als de AutoPilot merkt dat de handen te langs van het stuur is geweest en meldingen continue genegeerd worden. Persoonlijk vind ik het vrij knap dat Tesla met minimale sensors een redelijk goede AutoPilot werkend heb gekregen. Je ziet niks aan de auto’s dat ze allerlei sensors hebben.
Minimale sensoren?

Het zijn niet de sensoren die autopilot vooral mogelijk maakt. Het zijn vooral de camera's.

De auto heeft in geval van Auto Pilot 2.0(2.5) 8 camera's die sinds vorige maand allemaal werkzaam lijken te zijn. Verder heeft de auto 12 sensoren om de hele auto heen, deze kunnen zo'n fatale crash frontaal niet stoppen gezien deze maar een bereik van max 2 tot 5 meter hebben. Deze zijn bedoeld voor andere manouvres zoals inparkeren of het ontwijken van een auto die jou rijstrook in rijd.

Verder heeft de auto ook een radar die beweging detecteerd en dus ook door een auto heen kan kijken waarbij een ongeluk 2 auto's voor jou al kan worden gedetecteerd voor daar zicht op is en voor de bestuurders voor jou zelfs daarop kunnen reageren.

Autopilot werkt dus vooral op de camera's en er zijn 3 camera's die voorwaarts kijken in de AP 2 hardware. Het is en blijft echter hardware draaiende op beta software. Dat is ook het geval bij AP 1. Bestuurders moeten ten alle tijden kunnen reageren! Met mijn Tesla krijg ik ook gereageld te maken met situaties waarbij ik zelf moet ingrijpen. Bijvoorbeeld het op en afrijden van een spitsstrook die open staat. Gezien er op de A10 op verschillende momenten een schuine doorgetrokken streep tevoorschijnkomt en de auto nog niet snapt wat op dat moment moet gebeuren moet je zelf ingrijpen om een ongeluk te voorkomen. De auto piept van te voren al en dat is heel goed te verstaan.

Zonsopgang en ondergang kan ook de camera problemen kosten vooral met AP 1.0 waarbij er 1 camera voor kijkt.

Voorbeeld AP 1 vs 2
Auto Pilot 1.0
Auto Pilot 2.0/2.5

In ieder geval heeft dit ongeluk grotendeels ook te maken met software, maar als Tesla bestuurder weet je dit en mag je nooit volledig op AutoPilot vertrouwen. Zelfs op stukken waar je iedere dag doorheen gaat kunnen nieuwe situatie voorkomen.
dus ook door een auto heen kan kijken waarbij een ongeluk 2 auto's voor jou al kan worden gedetecteerd
Heb je daar een bron voor?(graag niet aankomen met dat ene dashcamfilmpje). Ik geloof niet dat je met radar door een metalen object van gemiddeld >1000kg kan ‘kijken’. Je kan afremming van de auto voor je heel goed inschatten, dat is wat die radar doet. De radar volgens mij gebruikt voor de adaptive cruise control.
Door een auto heen kijken kan inderdaad niet. Blijkbaar kunnen ze onder je voorligger door kijken dankzij reflecties.

Kan nog geen directe bron vinden, dan maar deze: klik
De radar kijkt niet letterlijk door de auto heen. Hij kijkt onder de voorliggende auto door, (radarsignalen die weerkaatsen via de weg).
Taking this one step further, a Tesla will also be able to bounce the radar signal under a vehicle in front - using the radar pulse signature and photon time of flight to distinguish the signal - and still brake even when trailing a car that is opaque to both vision and radar.
https://www.tesla.com/nl_...g-world-radar?redirect=no

In deze video kan je op het dashboard de twee auto's voor de tesla zien. (ook al ziet de bestuurder er zelf maar één). Zodra de voorste auto begint te remmen zie je 'm wit oplichten op 't dashboard.
https://youtu.be/cG3Jp5GyPoc?t=40s
Hierbij mijn bron: https://www.teslarati.com...8-0-radar-two-cars-ahead/

Niet alleen het artikel zelf maar de foto van de changelog van tesla in het artikel. Tesla geeft zelf aan in update 8.0 dat de auto tot 3 auto's vooruit kan zien wat er gebeurd. 4e kopje bij "Additional Improvements"

[Reactie gewijzigd door Nimac91 op 31 maart 2018 16:15]

Psst, een camera IS een sensor.
Het onderscheid is hetzelfde als "computers en laptops".
we onderscheiden die dingen ook voor een reden. In dit geval heeft een tesla zowel sensoren als camera's en kunnen we niet over sensoren spreken wanneer we het eigenlijk hebben over de camera's. Specifiek zijn en detail is belangrijk.
Klein detail: een camera is een sensor.

Dus als jij spreekt over "sensoren en camera's", dan zeg je iets als "fruit en appels".

Jij bent degene die de details mist. Als je onderscheid wilt maken, dan spreek je over beeldverwerkende sensoren en niet-beeldverwerkende sensoren.
Klopt waarbij appels specifiek iets aan duiden en fruit het heeft over de andere sensoren. Dat zeg ik.
Persoonlijk vind ik het vrij knap dat Tesla met minimale sensors een redelijk goede AutoPilot werkend heb gekregen.
Persoonlijk vind ik dat technieken die redelijk goed werken geen plaats hebben in het verkeer. Je rijd toch ook niet met redelijk goede remmen, of redelijk goede verlichting.
Ik snap best dat een feilloos systeem niet haalbaar is, maar ik verwacht toch meer dan "redelijk"
Hoe wil je in dat geval omgaan met menselijke chauffeurs, waarvan zelfs de besten slechts redelijke performance halen?
Juist als menselijke chauffeurs slechts redelijk uitvoeren, moeten de hulpmiddelen maximaal goed zijn.
Maximaal goed is niet te betalen. Redelijk is heel redelijk.
Maar definieer nu een op een meetbare, objectieve manier wat dan 'redelijk' is...
Dus... Dan ook maar "redelijke" remmen en "redelijke" verlichting toestaan?

Wanneer de zelfrijdende functie "redelijk" is, moet deze wettelijk verboden worden. Simpel zat.
re·de·lijk (bijvoeglijk naamwoord, bijwoord) (Vandale.nl)
1 met rede begaafd; = verstandelijk
2 rechtvaardig, billijk: dat zijn redelijke voorstellen
3 tamelijk: redelijk goed
4 tamelijk groot, tamelijk goed enz.: een redelijk inkomen

Redelijk verboden worden? Stop dan maar met ontwikkelen van de zelfrijdende auto.
Een auto die b.v. 5 mln euro per stuk gaat kosten is echt niet te doen.
Een mobieltje zou 30 jaar geleden ook 5 miljoen hebben gekost.

De zelfrijdende auto moet eerst verder ontwikkeld worden tot deze én veilig én betaalbaar is.
Hoe wil je in dat geval omgaan met menselijke chauffeurs, waarvan zelfs de besten slechts redelijke performance halen?
Wensdenken.

Ja, ooit zal dit waar zijn. Maar nu nog niet.

Menselijke bestuurders zijn op het moment nog steeds de betere chauffeurs, die met meer situaties om kunnen gaan. Volledig autonome voertuigen bestaan nog niet. Tesla Autopilot is het in ieder geval zeker niet.

We hebben ook nog helemaal niet genoeg data van autonome voertuigen in het verkeer om goede conclusies te trekken over hun prestaties. Tuurlijk, theoretisch zal een computer uiteindelijk een betere chauffeur zijn dan een mens. Maar we zijn daar nog niet. Totdat we daar wel zijn is dit gewoon ongefundeerd om te zeggen.
[...]
We hebben ook nog helemaal niet genoeg data van autonome voertuigen in het verkeer om goede conclusies te trekken over hun prestaties. Tuurlijk, theoretisch zal een computer uiteindelijk een betere chauffeur zijn dan een mens. Maar we zijn daar nog niet. Totdat we daar wel zijn is dit gewoon ongefundeerd om te zeggen.
We hebben echter wel genoeg data van menselijke bestuurders en tja, als je daar naar gaat kijken ligt de lat voor elke andere bestuurder wel heel laag, want de gemiddelde mens is daar simpelweg superslecht in.
En waar baseer je dat op?

De statistieken geven 4,5 fatalities per miljard gereden kilometer voor Nederland.

Ooit gaat de computer het beter doen maar dat is nu gewoon nog niet het geval. Het lijkt me geweldig om een volledig autonome auto te hebben maar dat moet qua veiligheid wel beter zijn dan dan het nu is.
Er is feitelijk helemaal geen alternatief voor de menselijke chauffeur, anders dan het wensdenken van sommigen.
Was 1 van de speer punten van autonome rijden dat er geen ongelukken meer zullen zijn?
En welke onderzoek zegt dat de beste chauffeur redelijk scoort?
Was 1 van de speer punten van autonome rijden dat er geen ongelukken meer zullen zijn?
Het is (in elk geval op afzienbare termijn) niet mogelijk om verkeersongelukken volledig te voorkomen; het punt is dat automatische besturing het aantal ongelukken flink moet verminderen.
En welke onderzoek zegt dat de beste chauffeur redelijk scoort?
Het aantal ongevallen per jaar dat menselijke bestuurders veroorzaken. Het feit dat we een aparte wet nodig hebben voor "nee gast, niet met je telefoon klooien als je aan het rijden bent!" omdat mensen dat zelf niet kunnen bedenken. Gewoon eens om je heen kijken als je op de weg zit (als bijrijder dan; als je als bestuurder al je aandacht besteedt aan het beoordelen van de rijvaardigheid van andere bestuurders dan ben je zelf onderdeel van het probleem!).
Het feit dat we een aparte wet nodig hebben voor "nee gast, niet met je telefoon klooien als je aan het rijden bent!" omdat mensen dat zelf niet kunnen bedenken.
Daar is geen aparte wet voor. Bij gevaarlijk rijgedrag kunnen bestuurders beboet worden via de daarvoor bedoelde wet.

Wel is er een aparte wet tegen het vasthouden van een telefoon, maar in een houder zou je hem gewoon mogen gebruiken mits je de rest van het verkeer niet in gevaar brengt.

Even los van de wetten, alsnog zou ik bediening van iets met een touch screen niet adviseren tijdens het rijden. ;)
Nou ja, als je het aantal ingrepen van een zelfrijdende auto van zelf Waymo neemt met 1 op 9000km. Betekent dat voor een normaal mens dan 4 aanrijdingen per jaar?
Huh, ingrepen zijn toch anders dan aanrijdingen? edit: ik moet constant ingrijpen en vol op de rem voor menselijke bestuurders die niet goed opletten, maar nog geen ongeluk gehad.

[Reactie gewijzigd door VanillaSky op 31 maart 2018 12:54]

Precies, het aantal keren dat ik bijna voor mijn sodemieter ben gereden door een of andere asociale loel is niet meer op 2 handen te tellen. Het is eigenlijk een wonder dat ik nog nooit aangereden ben met al die mafkezen op de weg.

Maar goed, ergens vind ik het vreemd dat wanneer er een Tesla verongelukt heel de wereld in rep en roer ligt, want ik weet zeker dat het aantal Audi’s dat vandaag crasht hoger zal liggen. (Of elk ander willekeurig merk). Naar mijn weten is de auto pilot functie van Tesla nog altijd niet honderd procent autonoom en is interactie van de chauffeur vereist (en in volgens mij ALLE landen verplicht). De logs geven aan dat de chauffeur de waarschuwingen genegeerd heeft (met misschien de gedachtengang van: ah ik heb een Tesla mij kan niets gebeuren). Dat zou hetzelfde zijn als dat je geen gordel om zou doen, want je airbag zal je wel beschermen (en laat die het dan tijdens de crash net afweten).

Persoonlijk vind ik het dus niemand anders zijn schuld als de bestuurder zelf.

Edit: tenzij de bestuurder natuurlijk onwel geworden is, maar dan nog is het niet de schuld van Tesla, want dan zou als ik onwel wordt in een Suzuki Swift en een ongeluk maak, Suzuki aansprakelijk zijn? Dat slaat natuurlijk nergens op.

[Reactie gewijzigd door jimzz op 31 maart 2018 13:24]

Maar goed, ergens vind ik het vreemd dat wanneer er een Tesla verongelukt heel de wereld in rep en roer ligt, want ik weet zeker dat het aantal Audi’s dat vandaag crasht hoger zal liggen.
Niet te vergelijken. Bij conventionele auto's ligt de schuld inherent bij de bestuurder. Bij Tesla's is dat niet zo, omdat de schuld ook inherent bij de software kan liggen.
Dat zou hetzelfde zijn als dat je geen gordel om zou doen, want je airbag zal je wel beschermen (en laat die het dan tijdens de crash net afweten).
Een airbag is om te voorkomen dat je met je hoofd ergens tegenaan slaat. Het vangt niet de energie van het ongeluk op, en is daarom geen vervanging van de gordel. Zonder gordel vlieg je met airbag alsnog door het voorruit bij een frontale botsing.
Edit: tenzij de bestuurder natuurlijk onwel geworden is, maar dan nog is het niet de schuld van Tesla, want dan zou als ik onwel wordt in een Suzuki Swift en een ongeluk maak, Suzuki aansprakelijk zijn? Dat slaat natuurlijk nergens op.
Dat ligt eraan of iemand onwel is geworden van het rijden in een Suzuki Swift. Stel dat er een probleem is met het ventilatiesysteem, of iets dergelijks.

De wereld is niet zo zwart/wit als wat jij schrijft in je post.

[Reactie gewijzigd door The Zep Man op 31 maart 2018 14:32]

Nee dat klopt helemaal, maar. De auto pilot vereist nog steeds bestuurder interactie, en geloof me nou maar dat heel veel Tesla rijders denken: och het werkt al zo goed, what could ever happen to me? Dus ja als je auto pilot inschakelt wil dat nog steeds zeggen dat je als bestuurder verantwoordelijk bent voor wat je doet op de weg. Anders had Tesla zijn auto’s wel verkocht als volledig autonome wagens.

Slechte ventilatie hoeft helemaal niet de schuld te zijn vd fabrikant, kan ook nalatig onderhoud zijn, of iemand die zichzelf kapot loopt te roken met de ramen gesloten.

Dat de wereld niet zo zwart op wit is begrijp ik. Maar een ding moet voorop staan, en dat is dat de bestuurder verantwoordelijk is voor wat hij/zij doet op de weg, het inschakelen van Auto Pilot gebeurt niet automatisch. Anders is het als er daadwerkelijke defecten in de auto zijn (zoals die bouten van Bosch die niet roestvrij waren).

Ik snap ook wel dat de airbag iets anders is, maar ik wilde er alleen maar mee aangeven dat mensen zich té veilig wanen met de auto pilot. En dat dat een beetje hetzelfde is als denken dat een airbag je wel gaat beschermen bij een ongeluk.

Maar goed, ga eens de weg op op ieder willekeurig tijdstip en kijk eens hoeveel mafkezen er rondrijden in een auto zonder auto pilot? Mede door wat ik dagelijks zie zou ik driver error helemaal zo gek nog niet vinden. Het gekke is alleen dat wanneer Teslas een ongeluk maken dat het groot mondiaal nieuws is, terwijl er veel meer audi’s, bmw’s etc verongelukken op een dag. Daar hebben ze geen auto pilot voor nodig.

Ik ben het wel met je eens hoor, maar we moeten niet altijd technologie de schuld geven, immers schakelen we het zelf in.
Ik ben het wel met je eens hoor, maar we moeten niet altijd technologie de schuld geven, immers schakelen we het zelf in.
De schuld ligt in dit geval ook niet bij de technologie zelf, maar mogelijk wel (deels) bij hoe de technologie verkocht/gepresenteerd wordt. Als een systeem de indruk wekt dat het iets kan dat het niet werkelijk niet kan, dan ligt het aan de gebruiker's perceptie van het systeem. Die perceptie van de gebruiker volgt uit (mogelijk verkeerd) gepresenteerde informatie.

En nog steeds kan de schuld bij de software liggen. Een Tesla kan 'moedwillig' iemand de dood inrijden bij kwaadwillige software omdat de faciliteiten daarvoor aanwezig zijn. Tussen moord door kwaadwillige software en ongelukken door legitieme software zit een groot spectrum, maar het is een feit dat het niet enkel de bestuurder is waarnaar gekeken moet worden als een Tesla een ongeluk krijgt.

[Reactie gewijzigd door The Zep Man op 31 maart 2018 14:43]

Klopt, en indien je niet ingrijpt, wat zou er dan gebeuren? Menselijk ingrijpen bij een zelfrijdende auto is vergelijkbaar met een ingrijp die jij niet of te laat maakt. Vergelijking met het aantal menselijk ingrijpen is leuk maar het zijn juist de gemiste ingrijpen die het probleem zijn.
Dat is geen ingreep zoals het hier bedoeld wordt. Ingreep zou betekenen dat jij gemiddeld iedere 9000km als passagier één maal het stuur van de bestuurder moet grijpen. Niet echt acceptabel lijkt me ;)
Hoe wil je in dat geval omgaan met menselijke chauffeurs, waarvan zelfs de besten slechts redelijke performance halen?
Allemaal thuis blijven dan heb ik nooit meer file ;) :)

[Reactie gewijzigd door Volkie op 31 maart 2018 13:36]

Dus, naargelang je reactie, vervang jij je remmen en banden dan elke 1000km?

Er rijden heel veel redelijke goede auto's op de weg. Meer dan goede en heel goede.

Volgens de technische keuring moet elke wagen aan een minimum voldoen om op de openbare weg toegelaten te worden.

Dus ik snap jouw reactie echt niet.

[Reactie gewijzigd door twiedekker op 31 maart 2018 12:54]

Dus, naargelang je reactie, vervang jij je remmen en banden dan elke 1000km?
Als dat nodig is wel, en met de achterband gebeurt dat wel eens bij 3000 km.
Volgens de technische keuring lekker elke wagen aan een minimum voldoen om op de openbare weg toegelaten te worden.
En volgens die keuring moeten bijvoorbeeld de remmen goed werken , waarbij goed een gedefinieerd punt is.
Zou er dan niks mis zijn met jouw rijstijl?

Met mijn wagens doe ik toch meer dan 3000km met banden en remmen hoor.
Het was een voorbeeld...dat hij er 3000 maakt is omdat voorbanden sneller slijten dan achter.
Hij vervangt juist de achterband bij 3000 km... :?
Achterband, enkelvoud, en ik hou van vlot optrekken :P
Volgens de technische keuring moet elke wagen aan een minimum voldoen om op de openbare weg toegelaten te worden.
Die niet zaken als 'Autopilot' controleren. Je bent appels met peren aan het vergelijken.
Het gaat mij hier niet om de autopilot, het ging over de opmerking over de wagens die op de openbare weg rijden.

Meerderheid van die wagens heeft nog geen autopilot.
het ging over de opmerking over de wagens die op de openbare weg rijden.
Wat je met het argument steunt dat deze wagens technisch gekeurd worden (APK).
Dus dan moeten we mensen ook maar weren uit het verkeer? De rijkwaliteiten van mensen zijn ook niets meer dan 'redelijk'.
Vergeleken met? Honden? Katten?

Autonome auto's zijn er nog niet maar als ik jullie moet geloven zijn ze al veel beter dan menselijke bestuurders... Waarom zijn ze dan nog niet op de weg?

Omdat ze nog niet goed genoeg zijn. Er gaat nog te veel mis. Er moet nog te vaak worden ingegrepen. Op het moment moet de autopilot supervised worden door een mens. Waarom eigenlijk? Wat heeft het voor een zin een verreweg superieure chauffeur te laten supervisen door een veel minder goede chauffeur? Slaat nergens op.... Tenzij de mens wel degelijk de betere chauffeur is. Dan is het ineens logisch.
Net zoals cruise-control een handige drive-assistent is en je gewoon op moet blijven letten is de drive-assist van Tesla dit ook.
Het nut is dat je ontspannen kunt rijden en weinig zelf hoeft te doen behalve oplettten op het verkeer
En daar gaat de mens de fout in die het als auto-pilot ziet en denkt te kunnen gaan slapen.
Dit soort ongelukken schudt ze weer even wakker......oh ja, ik moet zelf wel op blijven letten zei Tesla.
Maar wanneer wordt Tesla wakker? Want dit werkt niet. Mensen raken afgeleid als ze een robot moeten controleren. Gaat niet werken.
Mensen raken afgeleid als Whatsapp een pingeltje geeft of er een slanke blondine in yoga broek bezig is met hardlopen. En ziedaar, nagenoeg iedereen probeert autorijden met die dingen te combineren. Wat dat betreft zou het juist veiliger zijn met autopilot omdat de Tesla zelf nog kan ingrijpen op dat soort momenten.
Nee, dat is niet veiliger. Je kunt niet van een mens verwachten dat die passief een zelfrijdende auto in de gaten houdt. De passiviteit nekt ons.
...dat doet het al zonder autopilot. Anders zouden mensen niet de tijd nemen voor Whatsapp, Facebook, Instagram of zelfs Game of Thrones onder het rijden (ja, echt, vorige week op de N99 was mijn voorligger dat aan het kijken op zijn telefoon die in landscape modus in de houder zat).
Nee, dat klopt niet. Een bestuurder zonder autopilot die GoT kijkt zal veel sneller een ongeval veroorzaken dan eentje mét.
In theorie wel. In de praktijk zakt de aandacht van de chauffeur weg als hij de huidige onvolmaakte Autopilot ingeschakeld heeft staan. Daar zijn al diverse voorbeelden van in het nieuws geweest.
Wauw, ik geloof niet wat ik hoor. :/ Jij bent de mening toegedaan dat een bestuurder die onder het rijden een serie aan het kijken is beter geen hulpmiddelen kan hebben, want dan zou hij nog wel eens afgeleid kunnen worden. :/
Imho schrijf jij onzin.

Een automobilist hoort never nooit een serie te kijken in de auto.

Ook niet als zijn nog-net-niet-100%-betrouwbare Autopilot functie aan staat.

Als immers een fietser oversteekt, en de nog niet 100% uitontwikkelde Autopilot ziet het niet, en de automobilist reageert niet want Game of Thrones staat aan, dan is dat einde oefening voor de fietser. Zoals we laatst hebben gezien bij Uber.

Juist vanwege gedachtenkronkels als de jouwe moet de Autopilot functie verboden worden.
Imho schrijf jij onzin.

Een automobilist hoort never nooit een serie te kijken in de auto.

Ook niet als zijn nog-net-niet-100%-betrouwbare Autopilot functie aan staat.
Goed, en nu met beide benen weer in de echte wereld: menselijke bestuurders blijven dit doen. Ik rij ongeveer 30k per jaar in de noordkop (Den Helder t/m Den Haag, minimaal 1x per jaar uitschieters naar Drenthe en Eindhoven), en voor ieder kwartier dat ik op de weg zit zie ik minimaal 5 mensen interactie aangaan met hun smartphone op hun schoot en 1 of 2 mensen niet handsfree bellen. Nu zal je ongetwijfeld een magische oplossing hiervoor hebben maar ik zelf voel me een stuk veiliger als ik weet dat een auto zelf kan ingrijpen aangezien mensen daar zelf bijzonder slecht in blijken te zijn. Beter nog, sinds het gemeengoed van smartphones de afgelopen jaren is er weer een stijgende trend in verkeersdoden en gewonden.
Er gaan mensen dood door de Autopilot omdat deze niet volledig veilig werkt. De Autopilot moedigt daarnaast het foute gedrag aan van klooien met de smartphone.
Daarom moet de Autopilot verboden worden. En moet het gebruik van de smartphone gestraft worden.

De Autopilot is een schijnoplossing.
Er gaan mensen dood door de Autopilot omdat deze niet volledig veilig werkt. De Autopilot moedigt daarnaast het foute gedrag aan van klooien met de smartphone.
Wat een flauwe kul. Er zijn nu 2 dodelijke ongevallen met Autopilot bekend, op miljoenen kilometers met AP. Er gebeuren dagelijks dodelijke ongelukken, waarom wordt daar niet massaal geroepen "autorijden moet verboden worden"? Ik heb zelf een paar duizend kilometer met AP gereden en kan je vertellen dat het véél veiliger en véél ontspannender rijdt. Maar je moet wel op blijven letten (en dat doe ik dan ook).

[Reactie gewijzigd door jeroenr op 3 april 2018 11:58]

Het mensenbrein blijft bij de les als het wat te doen heeft. Neem dat van de automobilist af, en het gevolg laat zich raden.

Het is ontspannen rijden, tot de Autopilot een fout maakt en je niet bij de les bent. En de Autopilot is gewoon nog niet betrouwbaar. Daarom moet deze verboden worden.

https://www.zelfrijdendve...-vanwege-autopilot-tesla/

"FEMA, KNMV en de MAG NL maken zich zorgen om de veiligheid van motorrijders, nadat er op 27 juli jongstleden in Noorwegen een zwaar ongeluk plaatsvond. Een motorrijdster werd aangereden door een Tesla waarin de autopilot was ingeschakeld. Verder berichtte de Duitse krant Der Spiegel onlangs dat uit testen van de Duitse organisatie BASt bleek dat het toelaten van de Tesla op de openbare weg nog onverantwoord is.

De instanties zijn bovendien extra bezorgd omdat deze maand een Amerikaans onderzoek werd gepresenteerd dat concludeerde dat in 41 procent van de geteste gevallen de motorfietsen niet goed werden opgemerkt door zogenaamde Forward Collision Systems. Dit zijn systemen die de omgeving voor het voertuig scannen en de chauffeur een seintje geven als er zich iets op de weg voor het voertuig begeeft. De systemen kunnen ook zelf remmen. Personenauto’s werden slechts in 3,6 procent van de gevallen niet opgemerkt."
Het is ontspannen rijden, tot de Autopilot een fout maakt en je niet bij de les bent.
Dat geldt ook voor "gewoon" autorijden: er gebeurt iets terwijl je niet op zit te letten en dan gaat het fout. Met autopilot zijn er twee die opletten: pas als ze beiden een fout maken gaat het fout.
En de Autopilot is gewoon nog niet betrouwbaar.
Heb je zélf wel eens in een auto met auto-pilot gereden of zit je maar gewoon Internet na te blaten? Autopilot is niet onfeilbaar, maar dat zijn mensen ook niet. De "rimpelbuisobstakelbeveiliger" waar deze auto tegenaan reed was al eens aangereden, waarom was dat geen wereldwijd nieuws?
Daarom moet deze verboden worden.
Zullen we alles maar verbieden waar mensen onverantwoordelijk mee omgaan?
Je moet verbieden als het de verkeersveiligheid in gevaar brengt omdat mensen er niet mee om kunnen gaan. En dat is imho hier het geval.
Dan moet je alle auto's verbieden.
Dat wordt een beetje moeilijk en ook overbodig als de Autopilot het probleem vormt.
Als je "het moet verbieden als het de verkeersveiligheid in gevaar brengt omdat mensen er niet mee om kunnen gaan" moet je auto's in het geheel verbieden, want dat is voor alle auto's geval.

Zolang een ongeluk met Autopilot nog wereldwijd nieuws is, is "Autopilot" niet "het probleem". Er worden dagelijks tienduizenden kilometers met Autopilot gereden en tóch komt nog steeds elk ongeluk wereldwijd in het nieuws. Dat is niet omdat het zo vaak voorkomt.
Probleem ligt niet aan Tesla.
Tesla maakt ook duidelijk dat hun auto niet autonoom kan/mag rijden.

Als je het niet op kunt brengen om op te blijven letten hoor je niet achter het stuur als bestuurder.
Je controleert dan ook geen robot, zonder assist moet je continu ingrijpen, met assist alleen als je denkt dat het fout kan gaan. Je wordt ook gewaarschuwd.

Als je ziet dat het fout gaat en wacht om te kijken wat de assist doet, om daarna te laat in te grijpen, hoor je ook niet achter het stuur.

Pak de bus of trein, of neem een chauffeur, als je onderweg moet werken, appen, netflixen of slapen.

[Reactie gewijzigd door Teijgetje op 1 april 2018 16:07]

Ik heb me wel vaker verwonderd over de naam auto-pilot. Dit insinueert dat je niet meer op hoeft te letten. Dit in tegenstelling tot de assistentie pakketen zoals bijvoorbeeld Mercedes deze levert. Ik heb distronic + stuurassistentie in mijn auto en het werkt perfect. Ik kom merkbaar uitgeruster thuis. Maar ik moet zelf wel op blijven letten, ook al laat het systeem me nooit in de steek.
Ik heb me wel vaker verwonderd over de naam auto-pilot. Dit insinueert dat je niet meer op hoeft te letten.
Dat is gewoonweg niet waar. In vliegtuigen is een "auto-pilot" ook geen "autonoom vliegen". Ten eerste zijn er heel veel gradaties van "auto-pilot" in vliegtuigen. Een Cessna sportvliegtuigje met autopilot is niet meer dan een apparaat die het vliegtuig op koers en hoogte kan houden, terwijl een Boeing of Airbus een compleet vliegplan inclusief starten en landen kan uitvoeren. Maar ook in het laatste geval kan en mag een piloot niet gaan zitten pitten. In geval van onregelmatigheden wordt de Autopilot uitgeschakeld en moet de piloot de controle overnemen... niet heel anders dan in een Tesla...
computers kunnen niet improviseren en mensen wel
Computers zijn heel goed in kansberekenen.
Noem het een soort van improviseren, maar wel meedogenloos.
Een dode of twee, dan toch maar een.
De auto de berm insturen of een fietser scheppen, dan maar de berm in.
etc.

Niet ideaal, maar misschien wel gewenst.
De meeste mensen denken in eerste instantie toch eerst aan zichzelf en dan pas aan een ander.
blijft een berekening die voor geschreven is, mensen kunnen totaal tegenover gesteld reageren dan wat logisch zal zijn met nieuw gevolgen cq kansen
Maar uiteindelijk tellen de kille statistieken en daaruit zal moeten blijken wat veiliger is.
Er zullen altijd situaties zijn dat een computer een foute beslissing neemt waar een mens een goede zou nemen. Maar als de computer 1 fout maakt en de mens 10, dan zeggen de statistieken dat een computer veiliger is. En persoonlijk zou ik het dan wel weten, 1 ongeluk of 10 ongelukken.

Daarbuiten is het niet per definitie voorgeschreven.
Met AI zal de computer zelf leren en zelf inschattingen kunnen gaan maken.

De tijd zal het leren

[Reactie gewijzigd door misterbennie op 31 maart 2018 19:35]

ik zeg ook niet dat mensen beter zijn dan computer.
Maar als de computer 1 fout maakt en de mens 10, dan zeggen de statistieken dat een computer veiliger is.
En als het andersom is?

Laten we eerst eens proberen die statistieken te verzamelen voordat we gaan concluderen welke veiliger is.
Wat denk je dat de overheden aan het doen zijn?
Volgens deze logica zijn rijscholen overbodig, waarom ook iemand superieur laten supervisen...
Ehm.... nee?? De rijleraar is de superieure chauffeur toch? Hoop ik??

Als je goed kijkt zie je dat ik juist zeg dat het heel onlogisch is om de slechtere chauffeur (de mens volgens de Tesla fans) de betere chauffeur (de AI volgens de Tesla fans) te laten controleren. Maar toch is dat precies wat er nu gebeurt. Waarom? Omdat, net als in jouw voorbeeld van de rijschool, de controleur wel degelijk de betere chauffeur is. De mens is dus de betere chauffeur (op dit moment nog).
Helaas is dit een hele simpele kijk. Elke chauffeur heeft het ooit ergens moeten leren, dagelijks gebeuren er nog massa’s ongelukken door de superieure chauffeurs met jaren ervaring. Om 1 of andere reden verwacht iedereen dat gloednieuwe technologie geen leerproces omvat en magisch alles perfect zal uitvoeren.

Uiteindelijk werken systemen waarin de mens moet ingrijpen niet maar dit is een noodzakelijke fase (hopelijk alleen op kleine schaal). Technologie wordt gebruikt en uitgediept vanwege het toekomstig potentieel anders waren er nu geen zonnepanelen o.d. geweest.

Momenteel kunnen we nog niet oordelen maar heb een vaag vermoeden dat het ongeluk voorkomen had kunnen worden door de “superieure” chauffeur. Helaas was deze dan zo superieur dat hij er niet om gaf en met andere activiteiten bezig was.

De mens acht zichzelf zo superieur maar wordt steeds meer door machines vervangen...
Om 1 of andere reden verwacht iedereen dat gloednieuwe technologie geen leerproces omvat en magisch alles perfect zal uitvoeren.
Verwacht ik helemaal niet.
Wat ik wel verwacht is behoudend te zijn met uitspraken over hoe veel beter de AI wel niet is dan een mens als dat nog lang niet zover is.
Helaas was deze dan zo superieur dat hij er niet om gaf en met andere activiteiten bezig was.
Wellicht omdat hij dacht te kunnen vertrouwen op Autopilot? Zou dit ongeluk ook gebeurd zijn als de functie Autopilot niet op zijn auto gezeten had?

Als je mensen in een rol duwt waarin ze een computer moeten supervisen dan vergroot je juist hun slechte eigenschappen uit; dan laten ze zich nog makkelijker afleiden.

[Reactie gewijzigd door OddesE op 31 maart 2018 21:17]

Je haalt 2 dingen door elkaar. Een autonome auto is simpelweg een betere bestuurder dan de gemiddelde mens (zoek de statistieken maar eens op)

En de reden dat een autonome auto gesupervised moet worden door een mens is eigenlijk enkel vanwege de verzekering.
Welke statistieken? Van rijden dwars door het centrum van Amsterdam (of welk eender grote stad)? Of wellicht het op- en afrijden van een pont of trailer? Filerijden en jezelf in de juiste baan ‘forceren’ voor die afslag die je nodig hebt? Wegwerkzaamheden?

Of wil je het alleen maar hebben over snelweg en provinciale wegen?

Ik zou zeggen: kom maar op met een link naar die statistieken.
Bij menselijke bestuurders gaat ook veel mis.

Feit is dat een autonome auto nooit moe wordt, nooit bezopen is, nooit drugs gebruikt, geen zon in de ogen krijgt, en geen slecht zicht heeft bij mist.

Bij één ongeluk met een autonome auto is het nog steeds niet een kutsysteem. Je moet nml ook kijken naar hoeveel ritten er goed gaan.
Correct me if I'm wrong, maar volgens mij is de Tesla maar een level 2 autonome wagen, waarbij je meteen moet kunnen ingrijpen en maar kortstondig het stuur mag loslaten (vandaar dat ze dit gedrag meten). In die zin is het niet "redelijk", maar functioneert het volledig volgens de specificaties, in tegenstelling tot het uber ongeval (level 3/4ísh).

Ik ga niet zover om te stellen dat het de schuld is van de bestuurder of Tesla, maar enerzijds vraag ik mij af waarom je dan als persoon 6 seconden de handen van het stuur haalt als de autopilot voortdurend signalen geeft. Anderzijds vraag ik mij af waarom je de autopilot kan inschakelen als het voortdurend signalen geeft. Je zou verwachten dat het systeem automatisch blokkeert zolang het niet veilig is voor een zekere periode.

[Reactie gewijzigd door IStealYourGun op 31 maart 2018 13:53]

Je kan inderdaad autopilot niet activeren als het niet veilig is, maar je kan wel autopilot aanhebben op een goed gemarkeerde snelweg en vervolgens een slecht / niet gemarkeerd stuk tegengekomen. In dat geval heb je zowel geluid als optische signalen om je aandacht te vragen.
Als je dan stug naar je telefoon/whatever blijft kijken is dit wat er kan gebeuren...
Meer dan redelijk? Ferrari remmen op een Panda?
Je probeert hier een semantische duscussie te voeren over het begrip ‘redelijk’. Die systemen werken en ze helpen u te sturen en chauffeurs weten maar al te goed dat ze in level2 aurtonomie louter geassisteerd worden. Jij bent nog altijd de bestuurder, punt uit. En dat wordt u heeeel duidelijk gemaakt.

Zo bestaan er op vele automerken lane-assist om tussen de lijnen te blijven danzij autonomie stuurcorrecties. Dat is vergelijkbaar maar heeft ook zijn limieten. Scherpe bochten haal je niet. Tesla is werk veel beter en is intelligenter. Dus de schaal van goedheid schuift continu op. Waymo is nog beter maar die rijden met een uitgebreider arsenaal aan sensoren en daar nemet de auto ook zelf beslissingen op drukke kruispunten enz. Tesla blijft meer een high-way assist.

Beginnende bestuurders rijden ook redelijk goed. Maar goed genoeg om hun rijbewijs te halen. En mijn banden en remmen op mijn huidige wagen zijn niets vergeleken met de gehuurde circuit-raceauto.

Tegenstanders van de autonome evolutie hoor je altijd roepen “zie je wel dat het niet werk!!, ik had het nog zo gezegd, weg ermee, het werkt toch niet” terwijl de werking heel duidelijk gecommuniceerd wordt maar tegelijk ook zijn nut wel degelijk bewijst. Er zijn ook vele filmpjes tezien op youtube waar automatische piloten een zwaar ongeval vermijden. Maar zonder schade of doden is dat natuurlijk niet zo spectaculair.

[Reactie gewijzigd door Coolstart op 31 maart 2018 14:49]

Dubbele post, met dank aan de trein

[Reactie gewijzigd door twiedekker op 31 maart 2018 12:55]

Als een voertuig aan de technische controle voldoet is hij goed volgens de geldende normen.
Niet fantastisch of heel goed, maar goed.
Redelijk is 'goed genoeg'. Dus voldoet aan de normen.

Niemand zegt over afgekeurde remmen dat ze nog redelijk zijn.
De autopilot van Tesla is een hulpmiddel, Deze mag maximaal 6 seconden als zelfstandig systeem werken. Daarna moet de bestuurder het stuur weer met twee handen beetpakken om aan te tonen dat hij of zij nog oplet. De term autopilot is wel misleidend, eigenlijk zou het "driverassistent" of zoiets moeten heten. De zelfstandigheid is maar beperkt. Eigenlijk is het gewoon een cruisecontrol die de snelheid aan kan passen aan de voorganger en eventueel (en dat hebben niet veel auto's) ook zelfstandig van rijbaan kan wisselen. Het oplossen van complexe situaties (nood belijning, afslagen, uitzonderlijke weggebruikers ed.) worden in veel gevallen wel herkend. maar in dat soort gevallen wordt de bestuurder gewaarschuwd zodat die het weer over kan nemen.

Dat zo'n systeem op de weg mag is prima. De bestuurder is nog steeds volledig de baas en ook aan te spreken op het gedrag van de auto.
Hier heeft het systeem duidelijk gewaarschuwd dat er extra aandacht nodig was. Daaruit blijkt dat de autopilot als assistent goed heeft gewerkt. De assistent heeft niet ingegrepen, maar uit de berichten is niet duidelijk of de autopilot dat überhaupt wel kan. Waarom de bestuurder niet op de waarschuwingen heeft gereageerd zullen we nooit zeker weten. Die kan de vraag immers niet meer beantwoorden.
Dus je vindt dat de meeste bestuurders geen plaats hebben in het verkeer, want de meeste bestuurders kunnen niet fatsoenlijk rijden.
Helaas werken veel mensen om die beperking van handen aan het stuur moeten houden heen door waterflesjes of andere gewichtjes aan het stuur te hangen zodat de auto denkt dat iemand het stuur vast heeft. Ik weet niet of Tesla's daar ook gevoelig voor zijn, maar het grootste deel van de wagens met dit soort functionaliteit wel helaas.
Dan werkt het systeem dus niet. Camera aan de binnenkant op het stuur die persoon en handen herkend die aan het stuur zijn, probleem opgelost. Als die systemen op de weg objecten, mensen voertuigen, borden kunnen herkennen lijkt me handen aan het stuur vrij eenvoudig.
De model S en X hebben dat niet. Alleen de model 3 heeft een camera die naar binnen kijkt. En met een sinaasappel aan jou stuur kun je zo'n melding weg krijgen. Maar blijft eigen risico, net als te hard rijden, inhalen op verkeerde momenten etc... Het zou toch gek zijn als je als merk verantwoordelijk wordt gesteld voor alle stomme acties van bestuurders. Genoeg gevaar hazen op de wereld die met een idee komen wat ze hun leven kan kosten. Eigen verantwoordelijkheid is groter in het verkeer dan de verantwoordelijkheid van het auto merk.
Als er geen autopiloot functie zou zijn moet je je auto besturen zoals je dat ook normaal doet.
Probleem met autopiloot is dat je hem autonoom kan laten rijden maar dat dat dus niet 100% werkt.
Als je mensen iets geeft dat je anders kan gebruiken en het is eenvoudiger zullen ze het zo ook gaan gebruiken.
Er zijn veel meer auto's met lane keeping. Die komen niet eens in de buurt van wat Tesla kan op Auto Pilot. Mensen die niet opletten tijdens het rijden, dat kun je niet goed praten.

Ik rij mijn Model S altijd in autopilot, ik weet ook heel goed alle sterke en zwakke punten van het systeem. Ik let altijd op en dat wordt duidelijk gevraagd.

Als we alle vergelijkingen gaan maken met producten die beschikbaar zijn voor mensen waar het fout kan gaan dan vieren we oud en nieuw niet meer zoals we dat gewend zijn, en zullen er geen scherpe voorwerpen meer in je keuken zitten. Een beetje brein moet ook een eis zijn vind ik, zulke fouten hoef je niet goed te praten.
De amerikaanse autoriteiten onderzoeken ook dit ongeluk. Daar zal dus ook een reden voor zijn.
Tesla heeft mede op basis hiervan en het nog steeds mislukken van de massa productie van model 3 al weer klappen op de beurs gehad.

Nog een paar van dit soort ongelukken en de koers gaat nog harder onderuit.
https://youtu.be/tvH7Z5bxBM0

Dat onderzoek is niet nodig, bij dit filmpje kun je zien wat er is mis gegaan. En als Tesla eigenaar snap ik precies hoe dit gebeurt kan zijn op Autopilot. Met slecht weer kunnen die gaten in de weg herkend worden als rijstrook en als die gevolgd worden kom je in een vluchtstrook waar de auto bevestiging krijgt en in de vluchtstrook blijft rijden. Deze situatie kan alleen voorkomen op zulk slechte wegdek in Amerika.

Dit is geen fout van Autopilot maar het wegdek is gewoon heel slecht in combinatie met zonlicht en weersomstandigheden.
Wat je omschrijf is wel degelijk een fout. Een fout in de herkenning die dus laat zien dat het systeem nog helemaal niet klaar is om als autopiloot gebruikt te worden.
Slecht weer hebben we vele dagen van het jaar dan werkt het systeem dus gewoon niet goed als ik jou commentaar lees.

Als een systeem een scheur in de weg herkend als markering is er dus structureel iets fout in de herkenning. Simpel gezegd waarom kijkt het systeem niet naar alle 3 de sporen, naar de auto's die rijden en daaruit kan het dus zien hoe markering werkelijk is.
Een systeem met thermisch infrarood zou ook de zijkant van de weg kunnen herkennen en thermisch infrarood zou misschien zelf nog de scheur kunnen herkennen omdat die waarschijnlijk net een iets ander temperatuur beeld geeft.

Wordt dus ook leuk bij werkzaamheden waar witte lijnen duidelijk niet de weg volgen, afbuigen.

Als ik dit soort dingen lees lijkt me volledig autonoom rijden nog een stuk verder dan dat sommigen doen voorkomen.

Het gaat juist om dit soort situaties, slecht weer, wegdek, werkzaamheden, lijnen die niet goed lopen c.w normaal witte lijnen en nu gele maar dat kan ook omgekeerd zijn. Als mens volg je sneller een spoor. Je ziet auto links rechts rijden en volgt zeker geen scheur.

Als ik dan nog lees dat mercedes de weg kan scannen en daardoor dempers kan afstellen, dan betekend dat dat een scheur ook gescand kan worden en als afwijking gezien kan worden.

Probleem is dat er veel meer sensoren nodig zijn om in alle omstandigheden een goed totaalbeeld te geven. Dat kost nu echter nog te veel dus hebben dit soort auto's gewoon te weinig sensoren.
Probleem is dat er veel meer sensoren nodig zijn om in alle omstandigheden een goed totaalbeeld te geven. Dat kost nu echter nog te veel dus hebben dit soort auto's gewoon te weinig sensoren.
Niet alle camera's zijn nog actief dat weet je toch wel?

Op dit moment worden alleen de camera's voorin gebruikt. 3 van de 8, misschien zelfs 1 dat durf ik niet te zeggen. Meer actieve sensoren zal zeker helpen maar die kan men pas activeren als alles goed getest is. Op dit moment is de autopilot in beta. En het werkt verdomd goed, en ik blijf het verdedigen gezien ik zelf weet hoe goed dat systeem werkt. Dat er ergens op de wereld iets mis gaat betekent niet dat het een slecht product is. Er zijn meer gevallen waarbij iemand is gered door autopilot vooral op youtube dan dat er doden zijn gevallen. De auto rijd veiliger dan de meeste mensen. Dit is zeker een leer moment voor Tesla wat puur software is niks met sensoren te maken als je een beetje kennis hebt van Tesla en ik geloof dat jij dat wel hebt weet je dat elke software update het niveau van autopilot een groot stuk omhoog brengt. Maar je kan niet zeggen dat autopilot niet ready is om als beta getest te worden. Het moet immers door consumenten goed getest worden voor alle kinder ziektes eruit zijn.

Dit is meer een morele discussie dan een discussie over de techniek. Waar zit de grens precies, wanneer zou zoiets acceptabel zijn. Wanneer mag je uitbreiden met de functies. Dat is een discussie waar een paar doden helaas het grote verschil niet bij gaan maken in deze race naar volledig autonomie.

Een computer volledig vertrouwen op je leven kan in 2018 nog niet.
Hee, als ik een baksteen op het gas leg en uitstap rijdt de auto ook door. Uiteindelijk ligt er een verantwoordelijkheid bij de bestuurder. Laten we wel wezen, het zijn volwassenen die moedwillig veiligheidsprocedures omzeilen om luier te kunnen zijn.
Wordt jou auto standaard met baksteen geleverd ?
Tesla heeft wat hun noemen autopiloot.
Tesla’s worden ook niet automatische met autopilot geleverd hoor ^^ is een peper dure optie.

Ik verkoop toevallig een auto, als je die koopt bied ik je gelijk een baksteen aan ter optie zodat je deze vergelijking kan maken.

Een auto komt ook standaard met airbags dus er wordt altijd vanuit gegaan dat rijders ongelukken kunnen maken. Of het nou gebeurt via een comfort functie of niet.

Maar dus als op cruize control een ongeluk gebeurt bij een normale auto is het wel ons schuld maar bij auto pilot niet? Hou toch op. Een mooi innoverend bedrijf met bijna geen ongelukken sinds de lancering van autopilot. En er gebeurt nu 1 keer iets bij Tesla toevallig een week na een incident van Uber en ineens heeft iedereen een grote mond.
Waar een wil is is een weg. Techniek kan niet werken tegen actief misbruik.
Jouw camera is zo om de tuin te leiden door gewoon van een paspop 2 armen te pakken en die aan het stuur te hangen, dan kan je weer verder rijden.
Als diezelfde camera dan nog 2 handen op de bestuurdersstoel ziet, 4 handen, apart mens ben je dan, systeem uit.
Daarnaast je kan in het stuurwiel ook sensoren hebben die voelen of er een menselijke hand het stuur vast heeft of een stuk plastic.
Dan mag je van mij regelrecht de gevangenis in en nooit meer een voertuig besturen, als je daarop betrapt wordt.
dat geldt dan dus ook voor iedere oet... die het nodig vindt om met zijn telefoon te spelen op de weg.
Dit is wel de conclusie van Tesla he, ik zou liever de resultaten van een onafhankelijk onderzoek zien. Waarom zou iemand zomaar meerdere waarschuwingen negeren? Dat is vaak de conclusie, ja waarschuwingen werden genegeerd.
Omdat men bij Autopilot ervan uit gaat dat de auto volledig autonoom rijdt en dat ze ondertussen de krant kunnen lezen. Die waarschuwingen geloven ze wel. Zelf ongelukken veroorzaken door te hard rijden of door rood is "menselijk" maar ho maar als een computer het overneemt.
Omdat men bij Autopilot ervan uit gaat dat de auto volledig autonoom rijdt en dat ze ondertussen de krant kunnen lezen.
Maar gebaseerd op wat? Tesla verkoopt het toch niet als 'volledig autonoom' en zegt dus dat je je handen aan het stuur moet houden.
Maar gebaseerd op wat? Tesla verkoopt het toch niet als 'volledig autonoom' en zegt dus dat je je handen aan het stuur moet houden.

Tesla verkoopt het als 'auto pilot' ofwel volledig autonoom, en zegt vervolgens in de disclaimer dat het eigenljk toch geen autopilot is. Ook heeft het sinds 2015 - na een aantal fatale ongelukken - de werking van het systeem gewijzigd. Daarvoor werd het zo dicht mogelijk als mogelijk vermarketeerd en aangeboden als een echte autopilot. Maar nog steeds suggereerd Tesla dat ze mijlen ver vooruit zijn tov de concurentie, terwijl ze in feite niet bijzonder zijn tov diverse andere merken.

Het is een beetje een combinatie van hoe zij het presenteren tov de concurentie. daar waar de concurentie bang is voor rechtzaken ivm onvermijdelijke gebruikers die de disclaimers negeren, doet Tesla het gedurfder/roekelozer.
Dan is het ook een menselijke fout als die crashed.... :z
Dus puur de schuld van de bestuurder dan. Maar negeren van meerdere waarschuwingen zorgt ervoor dat de tesla langzamer gaat rijden en uiteindelijk stopt.
Als je die waarschuwingen ook al 999x eerder hebt genegeerd zonder problemen, waarom dan de 1000ste keer niet? En waren dit waarschuwingen dat de autopilot echt hulp nodig heeft, of waren dat de waarschuwingen dat je officieel je handen weer even op het stuur moet doen, terwijl volgens mij een flink gedeelte van de Tesla gebruikers de autopilot iig op de snelweg als manier zien om een zelfrijdende auto te hebben.
Je bedoelt zoals de meeste mensen met (adaptive) cruise control en lane assist.... Dus echt niets specofieks voor tesla gebruikers.
Zoveel mensen zijn er nog niet met adaptive cruise control en lane assist. De gemiddelde levensduur van een personenauto is 15(?) jaar oid, dus voor dat er onwijs veel zijn... Stel dat het per 1 mei verplicht zou worden op elke nieuwe personenauto, dan zou het nog tot ongeveer 2033 duren voor elke auto het heeft.

Sinds 2015 is advanced emergency brake verplicht op elke nieuwe vrachtwagen, de gemiddelde levensduur daarvan is 7/8 jaar, maar toch klappen er nog vrachtwagens op elkaar. Dit komt mede doordat personenauto's op het laatste moment voor een vrachtwagen (blijven) duiken, daarvan de AEB in werking treedt en het AEB van de vrachtwagen daarachter niet meer kan reageren, danwel het niet heeft of de chauffeur niet op zat te letten.

Dus ondanks dat ik er niet aan moet denken om niet meer zelf te mogen rijden, denk ik dat het uitschakelen van de meest onbetrouwbare factor (the nut that connects the steeringwheel to the gaspedal) de grootste bijdrage levert aan verkeersveiligheid dan welke andere elektronische halfoplossing ook.
Tesla is een beursgenoteerde bedrijf. Liegen tegen hun aandeelhouders is streng verboden. De aandeelhouders zouden in theorie de huidige directeur/ceo kunnen afzetten als het blijft dat er leugen naar buiten gebracht zijn. Tevens wat heeft Tesla er aan om te liegen over dit ongeluk? Stel dat zou wel zo zijn, dan zouden ze publiek flink wat imago schade oplopen.
Zoals met Volkswagen zeg maar....
Ja, een puppet en een engineer die een vooropgestelde tactiek van het upper-management moesten volgen. Gerechtigheid...
Zoals met Uber zeg maar....
Wat heeft uber dan gelogen?
Het ging me eigenlijk meer om dat een beursgenoteerd bedrijf altijd bang is voor imago schade.

https://www.extremetech.c...nings-predatory-financing
Met een huidige status als het gezicht van het bedrijf is, en 20% van de aandelen zelf in handen heeft heeft Musk van zijn aandeelhouders weinig te vrezen. Belangrijk nieuws verzwijgen of liegen is echter bij een beursgenoteerd bedrijf ook gewoon fraude. Je kan er als bedrijf en in extreme gevallen als bestuurder dus boetes of zelfs celstraf voor krijgen. Al moet je het dan wel bont maken.
Liegen tegen hun aandeelhouders is streng verboden. De aandeelhouders zouden in theorie de huidige directeur/ceo kunnen afzetten als het blijft dat er leugen naar buiten gebracht zijn.
Tja, Elon Musk heeft al vaker gelogen over het behalen van bepaalde objectieven. Had de man een gewone verkoper geweest, hij was al een aantal keren ontslagen geweest.

Tesla zal vermoedelijk niet liegen maar zal, zoals elk bedrijf, de feiten wel wat positiever proberen voor te stellen en de reden is niet ver te zoeken. Een week voor dat dit naar buitenkwam is er een voorstel goedgekeurd waarbij Elon Musk in de komende 10 jaar een bonus van 55 miljard dollar zou krijgen (in aandelen). Om deze helemaal te krijgen moet de waarde van het bedrijf in diezelfde periode van 59 miljard naar 650 miljard stijgen. De laatste week is het vooral de ander kant opgegaan met drops van 10% - 12% op de beurs en een krediet verlaging van Mody's van b3 naar b2 (met negatieve vooruitzicht).

Het bonus voorstel was van bij het begin al vrij controversieel (en virtueel onmogelijk) en dit is het zoveelste negatieve nieuws dat dat ik het persoonlijk al een enorme prestatie zou vinden mocht Elon Musk nog het einde van het jaar halen als CEO.

[Reactie gewijzigd door IStealYourGun op 31 maart 2018 14:07]

Ik denk dat jij eens terug moet komen naar de realiteit, te rooskleurige voorspellingen is standaard in de zakenwereld, hij liegt niet, hij is gewoon te optimistisch, en genoeg mijlpalen worden wel gewoon gehaald, alleen onthouden mensen zoals jij alleen de negatieve dingen.
Haha, jij bent zeker naief geboren... Jij zou ook zeggen "een President van de USA liegt nooit...".
We hebben enige andere voorbeelden gezien... ;-)
En toch liegen bedrijven aan de lopende band ...
Welkom in de echte wereld !
Je vergeet alleen dat de waarheid toch bekend wordt zodra het onderzoek van de instantie klaar is, dus hierover liegen heeft geen zin. Alleen is mogelijk niet alles gezegd, maar dat kan natuurlijk ook ivm het onderzoek zijn. Dit is in iedergeval ook een ongeluk dat vaak genoeg voir komt zonder iets als autopilot, of met de ouwe cruise control.
Waarom zou iemand zomaar meerdere waarschuwingen negeren? Dat is vaak de conclusie, ja waarschuwingen werden genegeerd.
Dat is niet per se een conclusie. Dat is meer een constatering. Welke conclusie daaraan verbonden moet worden, is niet duidelijk.
Een functie die mensenlevens kan kosten als redelijk goed accepteren. :'(

Het systeem heeft gewoon gefaald, lijkt me overduidelijk. Als het niet uit zichzelf beslissingen kan nemen, dan zou je de functie misschien beter AssistPilot kunnen noemen.

[Reactie gewijzigd door NotSoSteady op 31 maart 2018 12:42]

Als het niet uit zichzelf beslissingen kan nemen, dan zou je de functie misschien beter AssistPilot kunnen noemen.
Even voor de duidelijkheid, zowel vanuit Tesla, als vanuit de luchtvaartindustrie (waar de naam "auto pilot" vandaan komt) is nooit de claim gemaakt dat auto pilot perfect is, geen menselijk toezicht nodig heeft of dat het de auto volledig zelfstandig van A naar B brengt. Er is altijd gezegd dat het (zeer geavanceerde) rijondersteuning is. De naam past daar juist perfect bij; in een vliegtuig op automatische piloot zit continu tenminste één persoon (en het grootste deel van de tijd twee personen) in de gaten te houden of alles wel goed gaat.
Het systeem heeft niet gefaald. Het systeem is nooit op de markt gezet als level 5 autonome Autopilot. Het systeem is puur ter ondersteuning en kan zelf geen complexe handelingen verrichten. In de basis handelingen is het systeem goed en dat is bewezen. Het systeem kan het voertuig netjes op de snelweg binnen goed gemarkeerde lijnen houden en de afstand tot de volgende auto prima constant houden.

We weten nu niet wat er gebeurd is. Wat we weten is dat de bestuurder de waarschuwingen van het systeem genegeerd heeft en of dat nou komt door opzet of niet, het systeem is niet meer verantwoordelijk omdat het deze verantwoordelijkheid nooit gehad heeft.

De term Autopilot is geen slechte term gezien de huidige implementatie van deze term. Bij Autopilot denkt men over het algemeen aan de Autopilot in een vliegtuig. Het opstijgen, landen en uitvoeren van speciale manoeuvres in de lucht wordt nog steeds gedaan door de piloot. Sterker nog, de piloot wordt altijd geacht op te letten zelfs wanneer Autopiloot ingeschakeld is. Dit is exact het zelfde als de Autopilot van Tesla en daarom vind ik het persoonlijk belachelijk dat men telkens dit systeem de schuld geven terwijl het nooit de verantwoordelijkheid heeft gehad.
Echter piloten hebben zware opleidingen. Het zijn specialisten. Tesla gooit dit op de consumentenmarkt.

Verder kun je je afvragen of de aanpak niet fundamenteel verkeerd is. Persoonlijk geloof ik niet in een 'half autonoom' voertuig. Ik denk dat het vragen is om problemen. Mensen zijn het product van miljoenen jaren evolutie. We zijn zoals we zijn. En je kunt eenvoudig voorspellen wat er gaat gebeuren als je een mens toezicht gaat laten houden op een computer.

Waarschijnlijk is de computer de saaiste chauffeur die je ooit hebt gezien. Doet niks onverwachts. Stuurs de auto tot op de centimer nauwkeurig tussen de lijnen. Remt heel rustig, trekt rustig op etc... Hoe lang voordat je het doodsaai gaat vinden om hem te supervisen? Hoe lang voordat je hersenen gaan doen waar ze voor gemaakt zijn: nadenken, in plaats van mr robot te controleren? Hoe lang voordat je weg gaat dromen?

Sorry maar verwachten dat dit wel goed gaat is gewoon naief toch? Hoeveel berichten over bestuurders die hun Autopilot aan hebben maar niet goed opletten moeten we gaan krijgen voordat we beseffen dat deze aanpak gewoon niet compatible is met de aard van de mens?

Ik zeg draai het om; zo lang je geen full autonomous voertuig kunt bouwen moet je de computer de mens laten bewaken in plaats van andersom. De mens kan dan niet wegdromen want hij moet blijven sturen. Maar als de mens in een ongeluk dreigt te raken grijpt de computer in.
" Ik begrijp dat je bij tesla niet je handen aan het stuur hoeft te hebben."
Dat mag ook niet, daarom krijg je bij tesla ook, net zoals andere merken, visuele en auditieve signalen.
Na hoeveel seconden?
Ik rij geen tesla, dus zou het niet weten, alleen dat er een signaal komt (eerst visueel, daarna auditief)
Wie zegt dat het systeem heeft gefaald? Omdat er een o geluk is gebeurd wil nog niets zeggen over dat het systeem gefaald heeft. En de autopilot van een boeing maakt ook amper zelf beslissingen en is ook niet autonoom. Dus het systeem doet wat de naam zegt, dat mensen daar iets anders van denken is een hele andere zaak.
Misschien is de bestuurder wel onwel geworden en kon hij/zij niet ingrijpen. Kan me voorstellen dat een doodsoorzaak bepalen na een vreselijk ongeval geen gemakkelijke klus is. Kon zo snel niet achterhalen of die al bekend was.

Als de persoon geen autopilot had gehad en onwel was geworden had het ook naar kunnen aflopen, of misschien ook niet door in een rechte lijn de berm in te rijden en in de bosjes tot stilstand te komen. Je hoeft maar een paar seconden je niet lekker te voelen om een ongeluk te krijgen. Dit is vrij nieuwe techniek en elke fout eruit halen is wenselijk, niets werkt direct 100% feilloos en het is nog steeds belangrijk dat je zelf blijft opletten. Maar goed dit is een nieuwsbericht dat meer de aandacht trek dan 'de zoveel miljoenste automobilist zit te slapen en rijdt iemand dood' of 'bestuurder drinkt te veel alcohol en rijdt tegenligger dood'.Toen er nog vrijwel geen auto's waren was een dodelijk ongeluk met een auto vast ook voorpaginanieuws.

[Reactie gewijzigd door 2Dutch op 31 maart 2018 12:18]

Misschien is de bestuurder wel onwel geworden en kon hij/zij niet ingrijpen. Kan me voorstellen dat een doodsoorzaak bepalen na een vreselijk ongeval geen gemakkelijke klus is. Kon zo snel niet achterhalen of die al bekend was.
Ik acht die kans klein gezien hij tot 6 seconden ervoor nog zijn handen op het stuur had. Maar het is iets waar je over kan nadenken. In een (Belgische) trein moeten bestuurders voortdurend een pedaal indrukken en bij het horen van een signaal die pedaal kortstondig dieper induwen, dit als veiligheid om te testen of de bestuurder nog bij bewustzijn is. Ik vraag me af of er zo een systeem ook aanwezig is bij levels 2 en 3 van autonome wagens, gezien bestuurders bij level 0 al de neiging hebben om meer bezig te zijn met andere taken dan het autorijden.
De software detecteerde verder dat de chauffeur zijn handen in de zes seconden voor de crash niet aan het stuur had.
Dit kan dus ook een minuut zijn, mogelijk logt het de laatste 6 seconde voor impact.
Even het artikel snel nagelezen van Tesla:
In the moments before the collision, which occurred at 9:27 a.m. on Friday, March 23rd, Autopilot was engaged with the adaptive cruise control follow-distance set to minimum. The driver had received several visual and one audible hands-on warning earlier in the drive and the driver’s hands were not detected on the wheel for six seconds prior to the collision.
Als ik dit lees ga ik er toch van uit dat de Tesla een stuk meer dan 6 seconden loggen (wat mij ook logisch lijkt) en blijkbaar is dit het een soort van bewustzijn systeem zoal bij treinen. Ik vraag mij alleen af of de wagen ook na een tijd vanzelf stopt als je dat te lang negeert.
kan, maar ik citeerde de tekst, daar het geen exacte tijd geeft.

Automatisch stoppen kan ook gevaarlijk zijn. Stel op snelweg, bestuurder reageert niet --> Auto stopt...
Ik denk dat het goed is om dit nu te gebruiken in de overgangsfase tussen semi autopilot en straks 100% op de automatische piloot. Als de zogenaamde dodemansknop niet wordt ingedrukt, de auto stopt, op bijvoorbeeld de vluchtstrook. Zo wordt een bestuurder gedwongen de handen aan het stuur te houden, totdat de techniek / wetgeving het toestaat.
Automatisch stoppen kan ook gevaarlijk zijn. Stel op snelweg, bestuurder reageert niet --> Auto stopt...
Dit is wel precies wat een Skoda Superb met automaat doet als je je handen niet aan het stuur hebt terwijl land assist en adaptieve cc aan staan:
Eerst piepen + visuele waarschuwing.
Dan een soort korte remtest, waardoor je hopelijk wakker schrikt.
Doe je dan nog niets dan gaan de alarmlichten aan en komt de auto langzaam tot stilstand, ook op de snelweg.
(Als een botsing dreigt gaat de auto sowieso in een noodstop dankzij de front-radar)
Doet mijn hyundai ioniq exact ook op dezelfde manier.
Ja, de tesla verminderd snelheid als de handen niet na enige tijd weer op het stuur zitten.
De software detecteerde verder dat de chauffeur zijn handen in de zes seconden voor de crash niet aan het stuur had.
Dus hij kan wel degelijk onwel geworden zijn.
[...]Ik acht die kans klein gezien hij tot 6 seconden ervoor nog zijn handen op het stuur had. Maar
Persoon kan onwel worden met de handen gewoon aan het stuur hoor...
Jouw conclusie lijkt me voorbarig!
Dat heet een dodemansknop. Zit ook op Nederlandse treinen, en heftrucks/stapelaars/elektrische palletwagens, en vast nog wel meer zwaar materieel.

Goed idee overigens om zo het wakker zijn van de chauffeur ook in elektrische auto’s te checken, al dan niet via de stuursensoren. Al zou ik het bij alarmlichten en voorzichtig remmen laten i.p.v. noodstop. Anders zit men al gauw in je kofferbak.

[Reactie gewijzigd door Engineer op 1 april 2018 21:48]

Als een bestuurder meerdere meldingen negeerd vindt ik dat de bestuurder nalatig is geweest.
Mwa. Ik vind dat nogal voorbarig omdat zo te stellen. Wellicht kreeg de bestuurder een beroerte in de seconden voorafgaand aan de crash. Of een paniek aanval. Of één van de talloze andere redenen (medisch en niet-medisch).
Dus kun je in iedergeval het sysyeem niet de schuld geven. Ben met je eens dat de bestuurder dan niet nalatig is geweest (tenzij je bewust bent gaan rijden met deze auto in de hoop dat die jouw medische tekortkomingen aanvult).
Volgens Tesla had de bestuurder 5 a 6 seconden om te reageren na de waarschuwing. Als men op dat moment bezig is met een mentale taak die niets met het rijden te maken heeft (e-mail, laptop, boek...), kan die tijd gewoon te kort zijn om vat te krijgen op de situatie en een correcte manuele interventie te doen.

Volgens wetenschappelijke studies met rijsimulatoren kan het tot 15 a 40 seconden duren alvorens men volledige controle kan terugwinnen over het voertuig wanneer het systeem onverwacht vraagt over te schakelen naar manuele controle...https://www.sciencedirect...cle/pii/S1369847814001284
Persoonlijk vind ik het vrij knap dat Tesla met minimale sensors een redelijk goede AutoPilot werkend heb gekregen. Je ziet niks aan de auto’s dat ze allerlei sensors hebben.
Je zegt het goed redelijk goed werkend maar redelijk goed is niet goed genoeg. Als je een systeem autopiloot noemt of je klanten het idee hebben dat het ook echt autonoom is en zo gebruikt kan worden is er structureel iets mis.

We zijn nog lang niet klaar voor volledig autonoom en half autonoom, hoe meer er komen die niet goed werken zal ook zorgen voor ongelukken. Het probleem is namelijk heel eenvoudig als mensen het idee hebben dat het volledig autonoom kan werken gebruiken ze het zo. Ze kijken dan niet meer op de weg, doen iets anders en vertrouwen op het systeem. Dat werkt dus gewoon niet.

alle systemen nu zijn puur ondersteunend en moeten ook zo gebruikt worden c.q fabrikanten moeten er voor zorgen dat ze ook niet anders gebruikt kunnen worden.
of je klanten het idee hebben dat het ook echt autonoom
Nou dan ligt het ech aan de klant hoor, want je wordt er (in iedergeval tegenwoordig) heel goed voor gewaarschuwd dat het geen autonoom rijdende is, als jij em dan toch zo gaat gebruiken dan ben jij gewoon voor 100% zelf schuldif. Idioten heb je heel veel.
Schijnbaar is die waarschuwing toch niet goed genoeg als je naar dit ongeluk kijkt.
Als de waarschuwing niet goed genoeg is lijkt het me dat je als fabrikant toch verder moet gaan.
Waarschuwing 3x genegeerd systeem permanent uit.
Persoonlijk vind ik het vrij knap dat Tesla met minimale sensors een redelijk goede AutoPilot werkend heb gekregen. Je ziet niks aan de auto’s dat ze allerlei sensors hebben.

Bedoel je met minimaal de grootte of het aantal (of de kwaliteit?)

Is "redelijk werkend" genoeg?
“De software detecteerde verder dat de chauffeur zijn handen in de zes seconden voor de crash niet aan het stuur had.”

ONMOGELIJK!

Een Tesla kan niet detecteren dat je handen aan het stuur zijn, ondat er gewoon geen sensors in het stuur zitten. Een Tesla kan enkel zien of je wat tegenstuur geeft op de motor die op de stuuras zit.

Ik heb bvb om de 1-2 minuten een signaal van de autopilot dat mijn handen niet op het stuur zijn, en dan moet ik met het stuur heen en weer wringen om autopilot aan te geven dat ik er wel ben. Je auto gaat dus ook miniem heen en weer.

Probleem is dat autopilot op bvb snelwegen zo goed werkt waardoor je handen op het stuur gewoon de computer volgt en je niet moet tegenwringen om te corrigeren, zodoende mag je dus om de 1-2 minuten een snokje aan het stuur geven. Ze hadden beter echte sensors in het stuur gebouwd.
Larie. Als ik rijd met autopilot (2) (er zijn er 3, AP1, AP2 en AP2.5) dan is een kleine tot minimale correctie of tegenstuur al een reden dat autopilot er mee stopt. Als ik mijn handen los haal (slecht plan, maar oké) dan krijg ik signalen dat ik mijn hand(en) op het stuur moet hebben. Simpelweg losjes mijn hand op het stuur laten liggen is voldoende. Niets doen en de auto laten rijden is het beste dan.

Mijn ervaring met autopilot (AP) zijn dat ik het weinig tot niet gebruik, ACC gebruik ik vaker, AP is nog niet volwassen genoeg naar mijn mening. Het is wel zo dat per firmware de AP functie beter aan het worden is. De AP heeft ook een neiging om meer op de middenlijn te gaan naar rechts waardoor het voelt/lijkt dat je dichter op een auto gaat rijden tijden inhalen.

Het komt er wel allemaal met AP maar dat heeft gewoon tijd nodig. AP1 was ingekochte techniek. AP2 is eigen bouwen van software etc en AP2.5 is de nieuwste ontwikkeling.

En ja alles kan stuk of anders. Mensen doen achterlijke dingen zoals proberen op de achterbank te gaan zitten met autopilot aan etc. Blijf er bij dat JIJ rijdt en niet de auto. AP is een beta hulpmiddel. Niets meer of minder.

Een sinaasappel is voldoende om de druk op het stuur dus na te doen. Maakt dat Tesla een slechte auto of autopilot een niet werkend iets? Nee het is in ontwikkeling en dat duurt nog wel enkele jaren.

https://drivetribe.com/p/...id=EKlmmLgHQY-xTQ4RbXJqTQ

En zojuist navraag gedaan, er zit wel degelijk detectie in het stuur!

nabrander: uitleg Autopilot https://teslamotorsclub.c...es-tesla-autopilot.56325/

[Reactie gewijzigd door peterpijpelink op 31 maart 2018 16:23]

Het zijn niet de sensoren die dat detecteren het is de trilling, weerstand en beweging waardoor de auto weet dat jij je handen op het stuur hebt. Elke 63 seconden en ook in moeilijke situaties vraagt autopilot het stuur aan te raken. Een klein knikje aan het stuur is al genoeg voor de auto om die melding weer weg te halen. Absoluut geen sensoren nodig dus.

Ook het feit dat de auto 150 meter en 6 seconden voor het ongeluk al ging piepen is meer dan genoeg tijd geweest voor een bestuurder om het stuur aan te raken. Als je het knikje niet geeft maar alleen het stuur vast houd zal na een aantal seconden ook vanzelf de melding weg gaan omdat weerstand van jou handen vs autopilot besturing al door heeft dat je jou handen op het stuur hebt.

Als de bestuurder werkelijk zijn handen op het stuur had was dit ongeluk hoe dan ook niet gebeurd.
Mijn ervaringen zijn hetzelfde als die van @nils83. De ervaringen van @peterpijpelink kan ik niet goed plaatsen (heb AP2 hier). Ik moet echt een klein beetje roterende druk op het stuur zetten om de melding te doen verdwijnen. De video met die sinaasappel is ofwel nep (je ziet tenslotte niet het hele stuur) ofwel is het regelmatig opnieuw plaatsen van de sinaasappel (zoals op 01:33) voldoende om diezelfde roterende druk op het stuur te veroorzaken.
Het feit is dat een autopilot een dom programma is dat reageert op de ontstane situatie, en geen intelligentie is, die reageert op situaties die mogelijk kunnen ontstaan (maar zelden voorkomen):

Bijvoorbeeld: een mens zou langzamer kunnen gaan rijden wanneer hij kinderen met een bal ziet spelen op de stoep...ook al bevindt er geen kind zich op straat, maar de mogelijkheid dat een kind plotseling de weg op rent, daarop zal een goede autobestuurder anticiperen.

Dit soort situaties zijn alleen maar door artificiële intelligentie te trainen en dan werkt het nog niet foutloos.

Wel kan een autopilot altijd veel sneller ingrijpen dan een mens wanneer de sensoren een gevaarlijke situatie geconstateerd hebben.

[Reactie gewijzigd door DeArmeStudent op 31 maart 2018 12:32]

Autopiloot werkt alleen op een snelweg, en daar zal je héél weinig met bal spelende kinderen tegenkomen ;)

Verder is autopiloot niet meer dan een "slimme" cruise control.

[Reactie gewijzigd door 90710 op 31 maart 2018 12:47]

Is dat nieuw? Ik heb heel wat filmpjes gezien van autopilot op provinciale wegen. En ook heb je 'summon' due gewoon in de woonwijk actief is toch? Of heeft men alles wat teruggeschroefd?
Het is de bedoeling het vooral op lange tamelijk rechte wegen te gebruiken, zoals een snelweg (highway). Je kunt ook de auto van rijbaan laten veranderen, maar dat is een gebruikeractie. Een bocht nemen zit er niet in tenzij het een gekromde rijbaan is. Er zijn mensen die het op bochtige buitenwegen gebruiken en op rechte doorgaande stadswegen. Daarmee zoeken ze wel het randje op, bijvoorbeeld automatisch stoppen voor een verkeerslicht.

Summon en parkeren is voor lage snelheid acties. Iemand gebruikte summon toen de auto achter een vrachtwagen stond, auto reed zich vooruit klem onder de vrachtwagen.
Dit is onjuist. Autopilot werkt niet alleen op een snelweg.

Verder is je cruisecontrol punt wel valide. Zo zie ik het ook altijd, zeker de versie die Tesla nu uit heeft.

Als “jij” nu met 50 vast op je cruisecontrol door een woonwijk rijd zonder je voet bij de rem te hebben is dat net zo gevaarlijk.

[Reactie gewijzigd door Donstil op 31 maart 2018 13:38]

Autopilot werkt inderdaad ook op andere wegen dan snelwegen maar de huidige AP is door Tesla alleen maar goedgekeurd om gebruikt te worden op snelwegen. Niet dat dat voor dit ongeval een verschil had gemaakt aangezien het gebeurd is op een snelweg
Autopiloot werkt alleen op een snelweg
Autopilot *is bedoeld voor op de snelweg*

Dit heeft een hele andere betekenis. Ik kan autopilot overal inschakelen waar rijstroken en lijnen zijn. Zelfs op wegen met alleen stoepranden zonder lijnen kan autopilot ingeschakeld worden. Maar het is bedoeld voor op de snelweg.

[Reactie gewijzigd door Nimac91 op 31 maart 2018 16:52]

Maar je kunt AI dan weer wel programmeren met deze voorkennis: object dat opeens op straat verschijnt == gevaar. Natuurlijk moet je nog wel wat processing doen, want een plastic zak die overwaait is iets anders dan een voetbal.

In zekere zin is AI daarin niet anders dan menselijke intelligentie: de reden dat een (volwassen) automobilist een overstekende voetbal als gevaar ziet, en de reden dat kinderen op een gegeven moment leren uit te kijken alvorens achter de bal aan te rennen, is precies een gevolg van leren van situaties die eerder zijn voorgekomen, of die je aangeleerd zijn.
Bij een situatie die mij onbekend is en waar wegwerkzaamheden plaatsvinden waarbij de rijbaan (snelweg) ineens afsplitst in twee verschillende rijstroken, snap ik er af en toe ook niks van waar ik nou terecht kom of hoe ik nou moet rijden om mijn bestemming te bereiken. Als ik al drie keer moet kijken en er soms niet uitkom, hoe moet een AI dit dan wel goed corrigeren? Die situaties zijn altijd anders, dat is hetzelfde bij een kind met een bal.
Als jij er niet uitkomt neem ik aan dat je niet met 120 km/uur door blijft rijden maar je snelheid flink mindert.
Natuurlijk, maar wat ik aan de auto-pilot zo 'vreemd' vind, is hoe deze maar telkens objecten blijft raken. In mijn ogen zou het het veiligste zijn om de auto stil te zetten in situaties waar de AI niet uitkomt. Tuurlijk, op de snelweg is dit niet de veiligste optie, vooral als je geen auto's direct achter je hebt rijden, maar wijk dan uit naar een rijstrook waar wel 'doorgereden' kan worden, in plaats van op een betonblok af te blijven rijden...
Daar heb je geen AI voor nodig, dat kan ook met machine learning (leren van eerdere situaties, kijken wat een actie van toen voor een gevolg had en op basis daarvan automatisch regels maken voor een volgende vergelijkbare situatie). En dat is exact waar de verschillende partijen nu mee bezig zijn: zorgen dat er zoveel mogelijk data (eerdere situaties) beschikbaar komen voor de software in de auto's zodat ze betere keuzes gaan maken.

Machine learning is naar mijn mening geen dom programma, omdat het steeds beter wordt (de machine leert zichzelf steeds wat bij). Intelligent is het echter ook niet (definitie van intelligentie is het kunnen oplossen van nieuwe problemen op basis van eerdere problemen, en dat kan AI wel maar machine learning net niet).
Wat ik me afvraag: Is het normaal dat Tesla de zwarte doos kan bekijken. Of de politie? Moet de eigenaar daar toestemming voor geven?
Als mijn auto een zwarte doos of zoiets zou hebben, dan wil ik zelf kunnen bepalen wie de gegevens ervan kan inzien. Of die zwarte doos uit kunnen zetten.
Ja, Tesla kan dat zodra de auto online is. In dit geval is dat systeem kapot, maar de data hebben ze wel terug kunnen vinden tussen de wrakstukken.

In Nederland is toestemming van de autoeigenaar nodig. Waarschijnlijk doe je dat al als je je handtekening onder de koopovereenkomst zet.
Sterker nog, ik belde eens met een storing, en tijdens het rijden kon men de auto uitlezen en melden wat er was. (autopilot werkte niet vanwege een defecte sensor in de voorbumper). Als ik ga rijden kan ik live op mijn telefoon ook zien hoe hard en waar ik rijd etc etc. Ja alles is uit te lezen.
Waarvoor denk je dat die Event Data Recorder gemaakt is? Die dient net om na een ongeval de oorzaak te helpen vaststellen. En ja, de politie heeft gewoon het recht, en zelfs de plicht om die EDR in beslag te nemen en te laten onderzoeken wanneer er een dodelijk slachtoffer is gevallen.
Het is alleen vrij jammer dat ieder ongeluk met een tesla al gelijk nieuwswaardig is. Juist door de openheid van het bedrijf verdienen ze hier meer respect voor. Bij alle crashes geven ze eerlijk alle data weer. Dit is niet om AutoPilot in een slechtere positie te zetten door fouten toe te geven, want de bestuurder zit ten alle tijden fout gezien dit beta software is en elke bestuurder hier zelf akkoord mee gaat. Dit is vooral om te analyseren om in de toekomst betere oplossingen te vinden. Geen enkel systeem is perfect vanaf dag 1. Juist deze crashes brengen systemen als AutoPilot of de uber auto's verder met ontwikkelingen. Bijvoorbeeld SpaceX waar tientallen rakketten zijn gesneuveld en nu inmiddels de gekste projecten mogelijk maken door de ervaring die daaruit is ontstaan.

Het is erg jammer dat dit een leven heeft gekost, maar op geen enkele manier kan Tesla hier aansprakelijk op worden gesteld gezien dit gaat om beta software. Ik zou het zelfs alpha software noemen op wat we over 4 of 5 jaar op de markt zullen krijgen.

Dagelijks gebeuren er dodelijke ongelukken vrijwel overal op de wereld. Dit zijn BMW's Mercedessen, Volkswagens van ieder merk heb je er enorm veel. Ik ben benieuwd wanneer er een artikel komt over de veiligheid van die merken en systeem functies. Tesla is in vergroot glas, vooral door hun innoverende technieken. Maar ook de veiligheid van Tesla zorgt er voor dat vaak wordt gezocht naar fatale crashes om het tegendeel te bewijzen. Dit blijft verkeer, en hoe veilig of geweldig een systeem kan zijn, alles kan fout gaan in het verkeer.

[Reactie gewijzigd door Nimac91 op 31 maart 2018 14:18]

Elk zwaar ongeval wordt in de VS onderzocht door de NTSB en komt meestal in het nieuws. Dat de fabrikant open kaart speelt over zijn bevindingen is ook normaal omdat deze toch met de resultaten van het onderzoek zullen gepubliceerd worden.

Tesla heeft dit ook niet als Beta software in de markt gezet. In tegendeel. En zeker op snelwegen, waar dit ongeluk gebeurd is, zou de software gewoon af moeten zijn op dit moment. Waarom de wagen hier van de rijstrook afweek is dan ook een belangrijke vraag.

Dat Tesla hier onder een vergrootglas licht komt omdat er enkel een Tesla bij dit ongeluk betrokken is geweest. Dat de AP weer onder vuur licht komt omdat de AP actief was op het moment van het ongeval. Wanneer een menselijke bestuurder een fout maakt en een ongeval veroorzaakt is de schuldige snel aan te duiden. Wanneer de AP een fout maakt is dat direct een heel stuk complexer.
Elk zwaar ongeval wordt in de VS onderzocht door de NTSB en komt meestal in het nieuws.
http://fortune.com/2017/02/15/traffic-deadliest-year/
Er gebeuren zo'n 40.000 dodelijke ongelukken per jaar in de VS. Dat zijn 110 dodelijke ongelukken per dag. Sorry maar ik zie toch echt alleen duidelijk nieuws over dit ongeluk met een Tesla in het nieuws. Die andere 109 zal ik dan ergens gemist hebben. Tesla is duidelijk in een vergrootglas al was het een Mercedes of BMW auto op hun eigen zelfrijdende functie kwam Tesla eerder in beeld.
Tesla heeft dit ook niet als Beta software in de markt gezet.
Er staat nog altijd beta in de instellingen en hier krijg je ook altijd duidelijk voorwaarden en afspraken voor waar je mee akkoord gaat. Zelfs na software updates wordt dit herhaald en bij elke inschakeling van Autopilot komt er in beeld dat je handen aan het stuur moeten blijven.

BETA SOFTWARE DUS
Tesla geeft nooit "eerlijk alle data". Zelfs met deze ongeluk probeert Tesla met waage verhaaltjes te komen over "er was al een ongeluk hier, niet onze fout", of met statistiek cijfers te gaan spelen (200 rits per dag, duh). Welke waarschuwingen waren aan de bestuurder gegeven? Tesla weet het zeker, maar zegt niks. Informatie wordt stuk-voor-stuk uit gegeven, met verplichte bijbehorende comentaar van het bedrijf zelf.
De logs zijn blijkbaar al lang bekend, en nu probeert Tesla een gungstige interpretatie te vinden, in plaats van gewoon een ruwe data beschikbaar te stellen voor iedereen.
Waarom stoppen met een project dat zoveel toekomst heeft?
Natuurlijk het is nieuw en eng maar zodra het geperfectioneerd is zullen er steeds minder ongelukken gebeuren lijkt mij, al helemaal als het breder gaat worden ingezet en er hierdoor minder onverwachtse beslissingen worden genomen door handmatig besturen van een auto. Of zie ik dit in zijn geheel verkeerd?
Wie stopt er met zijn project?
Ze stoppen alleen tijdelijk met testen.
Tesla moet eerder oppassen dat het bedrijf in z'n geheel net gestopt wordt... Maar als iets niet fatsoenlijk werkend te krijgen is zal men uiteindelijk stoppen met doorontwikkelen. Het is geen doel op zich (hoewel, als je sommigen hier hoort zou je dat wel haast gaan denken).
Dit is het grote probleem tegenwoordig. Slechte publiciteit zorgt voor lagere market value en aandeelhouders zullen dat tegenhouden. Vooruitgang zal alleen maar langzamer worden geboekt.
Is een dashcam verplichten/inbouwen bij dit soort zelfrijdende auto's (wat eigenlijk nog in de kinderschoenen staat) niet handig?
Want die 13e camera zal zo veel meer zien dan de 12 die al in deze Tesla zitten...
Waarom hebben ze het dan over logbestanden, lijkt me handiger als er dan een soort zwarte doos inzit met camerabeelden van alle 12 camera's. Lijkt me sterk dat ze dan niet kunnen zien waardoor het ongeluk is gebeurd.
Kinderschoenen kun je het niet langer noemen. Dit is doorontwikkelde software inmiddels, en de camera beelden zijn ten alle tijden beschikbaar voor tesla en verzamelen en verzenden data. Elon Musk heeft via Twitter al beweerd dat deze camera's in de toekomst ook voor de gebruikers beschikbaar zal zijn in vorm van dashcams bij diefstal of ongelukken. Uiteindelijk zal dit met een software update voor gebruikers komen.

Filmpje uit 2016 van volledig autonome Tesla en de camera beelden.
https://www.youtube.com/watch?v=C3DbrYx-SN4

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True