Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 455 reacties
Submitter: Rafe

De National Highway Traffic Safety Administration start een onderzoek naar Autopilot, het systeem voor semi-autonoom rijden van Tesla. De reden is een fataal ongeluk met een Tesla S waarbij de bestuurder overleed.

De autoriteiten stellen een voorlopige evaluatie in van Autopilot, wat een opmaat kan zijn naar een grondiger onderzoek als er onvolkomenheden worden aangetroffen. De Nhtsa wil met name weten wat de rol van het systeem voor semi-autonoom rijden was bij het ongeluk van 7 mei in Florida.

Daarbij stak een truck met oplegger voor een Tesla S de weg over, wat niet werd opgemerkt door Autopilot of de bestuurder. Bij het ongeluk dat ontstond overleed de automobilist. Tesla claimt direct de autoriteiten geïnformeerd te hebben na het incident.

"Het is het eerste fatale ongeluk na 130 miljoen gereden mijlen", stelt Tesla. Dat komt neer op 209 miljoen kilometer. Volgens de autofabrikant gebeurt er gezien over alle auto's in de VS een dodelijk ongeluk op 94 miljoen mijl en zou dat wereldwijd op 60 miljoen mijl liggen. Tesla claimt verder dat de witte truck niet opgemerkt werd tegen de witte lucht erachter.

Autopilot functioneert door een combinatie van instrumenten zoals een camera en radar die vooruit gericht zijn en twaalf ultrasonische sensoren die ongeveer vijf meter in iedere richting metingen kunnen uitvoeren. Het systeem biedt functionaliteit als Autosteer, Auto Lane Change, Autopark en Automatic Emergency Steering en Side Collision Warning. Hoewel de functionaliteit verscheidene verantwoordelijkheden van bestuurders kan overnemen, kan het niet alle taken overnemen.

Tesla S P85D

Moderatie-faq Wijzig weergave

Reacties (455)

-14550443+1210+217+31Ongemodereerd189
Ik heb overal al een hoop speculatie, aannamen en FUD gelezen dus laten we eerst de feiten duidelijk hebben.
1) schematisch overzicht accident scène zodat je goed ziet hoe de situatie is
2) bestuurder heeft niet geremd. Het is een veilige aanname om te zeggen dat hij de overstekende truck niet gezien heeft
3) truck driver had Tesla voorrang moeten geven (zie Google Streetview)
4) Autopilot was actief
5) Autopilot doet het statisch gezien beter dan average wat betreft dodelijke ongelukken.

Speculatie mijnerzijds:
1) bestuurder lette niet op (al dan niet door gewenning) of zag het niet (betreffende reed tegen laagstaande zon in volgens autoriteiten)
2) Tesla spotte overstekende truck ook niet, terwijl deze auto juist hoger zou moeten scoren dan de gemiddelde vanwege alle software en sensoren die de bestuurder ondersteunen tijdens het rijden. Mogelijke verklaring: trailers in de USA hebben geen 'bars' aan de zijkant zodat auto's en fietsers er niet onder kunnen komen (zoals elke trailer hier dat wel heeft in de EU). De S-type is een vrij lage auto dus dit scenario is niet ondenkbaar.

edit: typo's / grammar edit2: thanks MAX3400, claim over laagstaande zon klopt kennelijk niet

[Reactie gewijzigd door JanvdVeer op 1 juli 2016 21:34]

Speculatie mijnerzijds:
1) bestuurder lette niet op (al dan niet door gewenning) of zag het niet (betreffende reed tegen laagstaande zon in volgens autoriteiten)
2) Tesla spotte overstekende truck ook niet, terwijl deze auto juist hoger zou moeten scoren dan de gemiddelde vanwege alle software en sensoren die de bestuurder ondersteunen tijdens het rijden. Mogelijke verklaring: trailers in de USA hebben geen 'bars' aan de zijkant zodat auto's en fietsers er niet onder kunnen komen (zoals elke trailer hier dat wel heeft in de EU). De S-type is een vrij lage auto dus dit scenario is niet ondenkbaar.
Al zou jouw speculatie waarheid zijn, dan hebben we alsnog twee hele grote problemen.

1) Als bestuurder ben je verplicht om ten allen tijde ervoor te zorgen dat jij onbelemmerd zicht hebt of ervoor hebt gezorgd, binnen de mogelijkheden die je hebt, om het zicht te verbeteren. Als je tegen de zon inrijdt zou het handig zijn dat je een zonnebril opzet, je zonneklepje uitklapt in de auto, een schone voorruit hebt (binnen en buiten). Maar als je dan https://www.theguardian.c...elf-driving-car-elon-musk leest en het preliminary police report aanklikt, is het ongeluk gebeurd rond 13:00 lokale tijd (middag dus) en reed de persoon richting te oosten. Nou weet ik niet of in Amerika alles groter is maar de zon staat om 13:00 niet meer in het oosten en de persoon kan dus weinig/geen last hebben gehad van de zon. Sterker nog, de trailer reed, uit het oogpunt van de bestuurder, "noordelijker" dan de rijrichting van de Tesla.

2) De limieten om in de USA rond te rijden met een flatbed-trailer zonder aanvullende vergunning of escorte, ligt op 48ft. grofweg een meter of 16. Als je dus een autopilot hebt in je Tesla die niet ziet dat er een volledige "trekker" (the car’s sensors system failed to distinguish a large white 18-wheel truck and trailer crossing the highway) gaat oversteken en er een flatbed achter hangt, dan heb je wel een uitdaging hoor. Tesla kan hoog & laag springen en mogelijk moeten we de officiele/uiteindelijke resultaten afwachten maar het begint er bijna op te lijken dat de autopilot de kleur van de truck (wit) heeft laten wegvallen tegen de achtergrond (mogelijk een helder verlichte witte wolk).

Ik vind het discutabel allemaal en zeker hoe Tesla erop reageert. Ja, het is maar de eerste dode in zoveel miljoen kilometer maar het bewijst nu wel dat zelfrijdende auto's dus mogelijk veiliger/beter rijden dan personen maar dat er nog steeds personen kunnen/zullen omkomen in zelfrijdend verkeer.

Daarnaast, maar ook aanname: als de bestuurder niet heeft geremd, ook niet eens een poging heeft gedaan, mag ik aannemen/ventileren dat de bestuurder niet bezig is geweest met autorijden. Zelfs op het laatste moment zou je nog als mens uit zelfbehoud aan het stuur kunnen rukken of remmen/gasgeven in paniek. Niets van dat wat voor mij laat zien dat de bestuurder dus niet bewust met autorijden bezig was.

[Reactie gewijzigd door MAX3400 op 1 juli 2016 08:23]

[...]

Daarnaast, maar ook aanname: als de bestuurder niet heeft geremd, ook niet eens een poging heeft gedaan, mag ik aannemen/ventileren dat de bestuurder niet bezig is geweest met autorijden. Zelfs op het laatste moment zou je nog als mens uit zelfbehoud aan het stuur kunnen rukken of remmen/gasgeven in paniek. Niets van dat wat voor mij laat zien dat de bestuurder dus niet bewust met autorijden bezig was.
Ik weet niet of jij al in een gelijkaardig ongeval betrokken bent geweest maar men zegt niet voor niets dat een ongeluk snel (verdomd snel) is gebeurd.

jaren geleden heb ik mijn wagen total-loss gereden tegen de zijkant van een Mercedes Sprinter camionette die aan mij voorrang moest verlenen maar het niet gedaan heeft omdat ie dacht dat ie nog 'snel snel' kon oversteken. de situatie was zo dat het letterlijk gebeurd was voordat ik het besefte; ik heb m.a.w. niet de tijd gehad om te remmen, aan m'n stuur te rukken, me schrap te zetten. waarom? omdat je zoiets niet verwacht, je gaat ervan uit dat mensen je gezien hebben, en de regels respecteren.... maar soms zet het lot je met beide voetjes op de grond... b.t.w.: ik reed 70km/u op een voorrangsweg en ik was weldegelijk uitsluitend en alléén met autorijden bezig, was niet aan het prutsen met mobieltje, radio, werk, zat alleen in de wagen dus was ook niet afgeleid, het was 7u 's ochtends op weg naar het werk en was dus ook nuchter :*) ... en plots ontploft die airbag in je gezicht en besef je langzaam wat er juist gebeurd is... nu zegt dit niets over bovenstaand geval maar ik wil maar zeggen: het niet remmen of reageren op de laatste moment hoeft niet noodzakelijk het gevolg te zijn van onoplettendheid... soms gaat het gewoon zo snel...

en nu ben ik iemand die dus ook remt daar waar hij voorrang heeft, het is iets waarop ik vroeger tegen mijn pa zei "maar allez, je hebt voorrang, waarom rem je dan?!" |:( maar 'in je recht zijn' is je leven niet waard.

[Reactie gewijzigd door EagleEye1290 op 1 juli 2016 10:06]

en nu ben ik iemand die dus ook remt daar waar hij géén voorrang heeft
Ik probeer altijd te remmen als ik geen voorrang heb ;-)

Maar je hebt gelijk hoor!

Al is in dit geval een lange vrachtwagen wel iets anders dan een sprinter busje. Deze vrachtwagen heeft langzaam (90 graden hoek) moeten rijden en hij is naar achteren toe geraakt... Toch eerst het onderzoek maar afwachten, ik ga het wel volgen. Hoop dat Tesla het systeem niet uit hoeft te schakelen, dat zou het niet waard zijn, tenzij het systeem voorkwam dat de bestuurder nog in kon grijpen. Maar dat zal wel niet.
Het systeem voorkwam waarschijnlijk wel dat de bestuurder zelf de aandacht bij het rijden had...
Of de bestuurder dacht dat hij er nog wel even voorlangs kon, of dat de ander hem wel voor zou laten..
[...]

Ik probeer altijd te remmen als ik geen voorrang heb ;-)
haha, kheb het gezien ondertussen! 8)7

[Reactie gewijzigd door EagleEye1290 op 1 juli 2016 10:09]

Ik vind het rot voor je dat je dat hebt meegemaakt maar ben het deels niet met je eens. Ik rijd zelf al jaren motor en heb mezelf daar aangeleerd er juist niet van uit te gaan dat de ander me wel gezien heeft en de regels respecteert. Ofwel wees juist wel altijd voorbereid op domme akties van andere weggebruikers. Als ik mezelf die methode niet had aangeleerd schreef ik nu waarschijnlijk deze reaktie ook niet. Overigens beweer ik niet dat je altijd alles kunt voor zijn maar er vanuit gaan dat anderen doen wat juist is geeft je wel een behoorlijk slechtere kans op voorkomen van problemen.
Als motorrijder leer je sowieso al defensief rijden.. dat is eigenlijk appels met peren vergelijken. Wat EagleEye1290 bedoelt is dat je niet bij elke kruising op een voorrangsweg stil gaat staan terwijl je voorrang hebt omdat het wel eens zou kunnen dat iemand gaat rijden.. dan kom je nergens. Er is een zekere vorm van vertrouwen dat iedereen zich aan de regels houdt. Rijden is niks anders dan andermans fouten opvangen, als iedereen dit zo goed mogelijk doet dan gaat het voor een groot deel goed. Werken met mensen is inherent aan het maken van fouten. En blijkbaar kunnen we hier nu ook Tesla software aan toevoegen..
Ik zeg ook niet dat je overal moet gaan stilstaan, maar afstand houden, zijwegen in de gaten houden en gewoon klaar zijn om in te grijpen indien nodig vergroot je kansen. Niet opletten, bumperkleven, whatsappen etc is een recept voor onderdelen in het gips.
Ik beschouw alle voertuigen op de weg als vijand. Vooral als ik op de motor zit. Ik hou zoveel mogelijk afstand tot alle voertuigen om mij heen.

Er wordt niet voor niets gehamerd op KIJKEN kijken kijken en nog eens kijken bij rijles. Als je de situatie om je heen weet kun je er ook beter op inspelen/anticiperen.

[Reactie gewijzigd door Pmf1971 op 2 juli 2016 12:01]

Ook in de auto kan je defensief rijden. De aanname dat je gezien bent en dat ze de regels volgen is dan ook een verkeerde. Wachten op oogcontact maar vooral dat diegene remt en langzaam rijd zijn wel goede indicaties dat je gezien bent.

In nl gebeurt gemiddeld elke 500.000 km een ongeluk. Daarom denkt iedereen dat ze een bovengemiddeld goede bestuurder zijn maar dat kan je dus pas met recht zeggen als je flink boven de 500.000 km zit zonder ongeluk (geen reactie op iemand hier maar gewoon een stukje statistiek).
Je weerlegt jezelf alleen wel.. want heel deze discussie gaat erom dat je zelf nog zo goed kunt rijden maar altijd iemand anders fouten kan maken. Het feit dat je bijvoorbeeld ruim boven die 500.000km zit zonder brokken heeft dus meer met geluk te maken dan wijsheid zoals EagleEye1290 omschreef.
ik reed 70km/u op een voorrangsweg en ik was weldegelijk uitsluitend en alléén met autorijden bezig, was niet aan het prutsen met mobieltje, radio, werk, zat alleen in de wagen dus was ook niet afgeleid, het was 7u 's ochtends op weg naar het werk en was dus ook nuchter :*) ... en plots ontploft die airbag in je gezicht en besef je langzaam wat er juist gebeurd is... nu zegt dit niets over bovenstaand geval maar ik wil maar zeggen: het niet remmen of reageren op de laatste moment hoeft niet noodzakelijk het gevolg te zijn van onoplettendheid... soms gaat het gewoon zo snel...
Ik weet precies wat je bedoelt. Ik ging er vroeger ook van uit dat zolang ik gewoom oplet en ik netjes de regels volg. Ik mij veilig door het verkeer kon begeven. Nu heb ik 1 keer meegemaakt dat toen ik wou uitvoegen (in relatief druk verkeer) de 2e auto achter mij nog meer haast had dan iedereen in het verkeer en even een stuk vluchtstrook pakte. Dat scheelde maar een haartje of ik had hem vol in de achterzijde gehad.

Vanaf toen ben ik er min of meer vanuit gegaan dat er "niemand" is die zich volledig aan de regels kan houden. Gouden regel van vaders: voorrang moet je krijgen, niet nemen.
wel, daar ben ik het dan weer volkomen met je eens: het was zeker en vast een fout van mij om daar van uit te gaan. uit die fout heb ik ondertussen wel geleerd en ben veel defensiever gaan rijden... en ik besef nu ook dat je absoluut niet snel hoeft te rijden om een zwaar ongeval te hebben.
Ja jouw voorbeeld schetste ik hier laatst ook, nu krijg je +2. Weet je wat ik te horen kreeg van de tweakers? Je hebt nooit voorrang je moet altijd stoppen (daar was iedereen het mee eens) ook wanneer je op een voorrangsweg zit je hebt nooit voorrang.
Oftewel volgens de meeste hier zat jij fout :p
Ben ik het uiteraard niet mee eens, maar goed zo zie je maar hoe ze hier denken haha.

In dit geval van Tesla wel een steek in hun rug zo dunkt mij, voordoen als de beste en nu is iemand dood omdat een tesla geen witte vrachtwagen zou kunnen zien met een witte lucht (achtergrond).
Ik vraag me af wat de stats van oa Audi en Mercedes zijn die dit ook aanbieden.

[Reactie gewijzigd door LopendeVogel op 1 juli 2016 09:30]

Mijn een-ogige instructeur zei altijd: "Voorrang moet je niet nemen maar krijgen. En als je het krijgt, moet je het ook pakken."

Overigens heb ik vorig jaar de "E" toegevoegd na ruim twintig jaar rijbewijs, en dat leverde toch weer wat leermomentjes op aan "slordigheidjes". Op zich niet slecht, een keer opfrissen, ook met een paar miljoen op de teller.

[Reactie gewijzigd door cdwave op 1 juli 2016 12:03]

Even off topic: hoe is het om op een airbag terecht te komen? Doet het pijn? Waar raakt hij je gezicht: komt hij niet keihard tegen je neus aan?
doet niet echt pijn, en schrikken doe je er ook niet van want het gaat gewoon te snel, het is eigenlijk voorbij tegen dat je het door hebt. het ruikt naar talk en dat poeder zie je ook nog even ronddwarrelen nadien. ik had wel een licht wondje aan mijn lip door de airbag want die komt er met heel veel kracht uit maar pijn doet het niet. khad meer last van mijn schouder en ribben omwille van m'n gordel, dat heeft nog een paar dagen pijn gedaan.
O okee, dat valt nog wel enigszins mee dan, interessant om te weten en mooi dat het goed afgelopen is.
Tesla kan hoog & laag springen en mogelijk moeten we de officiele/uiteindelijke resultaten afwachten maar het begint er bijna op te lijken dat de autopilot de kleur van de truck (wit) heeft laten wegvallen tegen de achtergrond (mogelijk een helder verlichte witte wolk).
Heeft een Tesla alleen sensoren in het zichtbare lichtspectrum? Want dit lijkt me iets waar je met (nabij) infrarood geen twijfel over kan hebben.
[...]

Heeft een Tesla alleen sensoren in het zichtbare lichtspectrum? Want dit lijkt me iets waar je met (nabij) infrarood geen twijfel over kan hebben.
Als de laagstaande zon in je infrarood-camera schijnt dan zie je totaal NIETS meer. Alleen een spierwit beeld.
Hoe meer bandbreedtes je kan gebruiken van het spectrum hoe meer situaties je uitkan. Als je ir niet kan gebruiken zou lidar of radar waarschijnlijk meer informatie opleveren. Als zichtbaar licht geen nuttige data geeft is ir waarschijnlijk beter bruikbaar

Verder over het niet kunnen gebruiken van ir in laagstaande zon wil ik je graag naar dit filmpje verwijzen: https://www.youtube.com/watch?v=YQ1RI8QKVkE
Het was om 13:00, dan is er geen laaghangende zon. Radar werkt dan toch nog wel trouwens?
Dat, of echolocatie?
Dat hebben ze, maar daar kijk je niet ver mee. Zit om de auto heen.
Dit is een van de grootste problemen met de huidige Tesla S. Het hele safety concept voor de autopilot voorziet in het feit dat de bestuurder de baas is, en daardoor gebruiken ze voor de autopilot slechts de sensoren die je in de auto vindt, en die je in zo'n beetje elke auto in dit segment wel kan vinden, maar geen speciale sensoren die je voor autonoom rijden nodig zou hebben. Het geheel is dus puur op een "best effort" basis.

De vraag was dan ook niet óf het fout gaat, maar wanneer het fout gaat. De sensoren van elk voertuig dat momenteel getest wordt dat daadwerkelijk (semi-)autonoom de straat op zou moeten gaan zijn in een hele andere klasse om een véél beter en completer beeld van de omgeving te kunnen berekenen. Camera's, laser scanners, radar, etc. helpen hier allemaal mee.

Tesla doet de branche in ieder geval niets goeds met zijn autopiloot.
"Tesla doet de branche in ieder geval niets goeds met zijn autopiloot. "

Zolang niet ineens ALLE voertuigen autopilot zijn zullen er ALTIJD ongelukken gebeuren. En gezien men perse het autonoom rijden met mondjesmaat wil invoeren zal het nog HEEEEL lang duren voor dit perfect werkt.

Je vergeet dat in dit geval de vrachtwagen GEEN voorrang had!!! EN DIE is dus in fout! Een Robot/computer/whatever had de verkeersregels gevolgd en was gestopt. Maar een "mens" die doet maar! En ALS het dan fout gaat dan probeert ie zijn verantwoordelijkheid af te schuiven.

Natuurlijk kan de technologie beter. En zal het ook beter worden. Maar het blijft klote zolang robot-auto's naast mens-auto's rijden.
Hou er ook rekening mee dat de snelheidslimiet op de weg waar de Tesla reed 65 mph (104 km/u) is en dat de Tesla deze snelheid waarschijnlijk ook gewoon reed (het is geen drukke weg).

Het is dan erg lastig, zowel voor de menselijke als de automatisch bestuurder om überhaupt adequaat te reageren als een ander voertuig compleet onverwacht oversteekt. Zie ook het verhaal van EagleEye1290 en hoe zijn ervaring was met een plotseling overstekend voertuig terwijl hij 'maar' 70 km/u reed.
En hoe gaat een 18-wheeler van 16m "plotseling" oversteken op een highway? Neem aan dat een dergelijk gevaarte niet met 60mph ineens linksaf de bocht instuurt maar al enige tijd aan het afremmen is en op een uitvoegstrook staat.

Iets wat Autopilot had kunnen weten; de wegsituatie (inclusief de haakse wegen) lijken me niet van gister op vandaag veranderd en als er dus langzamer verkeer op de meest linkerbaan van de tegenliggers wordt gedetecteerd, zou enige behoedzaamheid van autopilot en bestuurder handig zijn.
Als bestuurder verwacht je dat hij zich aan de regels houd en dus stopt/blijft staan. Je rijd dus gewoon door. Als de truck dan besluit toch te gaan kan het binnen enkele seconden te laat zijn. Zeker bij een menselijke bestuurder duurt het al snel 2 seconden voor je deze situatie, die niet aan je verwachtingen voldoet, doorhebt en actie gaat nemen.
Jij bent dan al weer 60 meter verder op de weg en de truck is @ 10 km/u al weer 5 meter verder (en staat dus voor je neus).

Ook al rijd de truck wat langzamer, we hebben het hier over iets wat in maximaal 5 seconden (= over een afstand van 150 meter voor de auto) gebeurd is. De bestuurder raakte de truck ongeveer in het midden.
Een automatisch systeem zou dan in moeten kunnen grijpen (als die de truck dan ziet wat hier dus niet het geval was). Een menselijke bestuurder zal dit vaak meestal niet goed afhandelen en ook verongelukken (toch tegen de truck aan, of bijvoorbeeld in de berm belanden).
En een menselijke bestuurder die met het automatische systeem rijd zal nog langer nodig hebben om de truck te zien, te zien dat er 'iets niet klopt', te realiseren dat de automatische piloot niet ingrijpt zoals deze normaal wel doet* en dan zelf actie te nemen.

* de bestuurder in kwestie had al eerder ervaring gehad met een bijna ongeluk waarbij de Tesla hem redde uit een situatie waar hij zelf waarschijnlijk wel schade zou hebben gehad.
De vraag is is hij niet gezien of te laat gezien...
Indien je echt dacht dat autopilot cars het aantal dodelijke ongevallen zal terugdringen naar 0, dan ben je een dromer.
Dat kan perfect. Wanneer er geen mens nog zelf rijdt.
Dat is ...... correct. Het menselijk factor volledig uitschakelen is één van de enige manieren om te streven naar 0 ongevallen.
Ja, het is maar de eerste dode in zoveel miljoen kilometer maar het bewijst nu wel dat zelfrijdende auto's dus mogelijk veiliger/beter rijden dan personen.
Dat bewijst het geenszins. Tesla vergelijkt hun zoveel miljoen kilometer met het gemiddelde. Het gemiddelde zijn heel uiteenlopende soorten auto's kwa veiligheidssituatie, waaronder veel oudere auto's die slecht scoren op veiligheidsgebied. Een Tesla is een relatief moderne auto en je zult om appels met appels te vergelijken moeten vergelijken met moderne handgereden auto's (bijvoorbeeld handgereden Tesla's).

Het is zeker niet uit te sluiten, dan bij auto's van gelijke veiligheidsklasse, de menselijke bestuurder minder slachtoffers maakt.
Interessante opmerking. Zou wel eens kunnen kloppen.
Klopt. En daarnaast zijn kopers/bestuurders van Tesla auto's niet zomaar te vergelijken met willekeurige andere autobestuurders. Ik weet niet welke categorie mensen de meeste ongelukken veroorzaakt, maar ik kan mij voorstellen dat dat een andere groep is dan degenen die dure hi-tech auto's kopen.
De mannelijke net beginnende bestuurder maakt de meeste fouten.
Die kunnen normaal gesproken geen tesla S betalen, zelfs niet in Amerika.
Als een autopilot dit soort eenvoudige situaties al niet aan kan dan heb ik er geen vertrouwen in. Ik heb hoe sowieso geen vertrouwen in zelf rijdende auto's moet ik eerlijk zeggen, misschien omdat ik zelf computer software maak. De wereld is op dit moment nog te complex voor computers om daar onder alle omstandigheden goed te navigeren en te rijden.

Maar wat je krijgt is dat mensen denken dat het ding het wel aan kan en gaan dan gewoon andere dingen lopen doen zoals een film kijken of zelfs seks bedrijven (las ik ergens). Is wist al dat hier ongelukken van zouden komen en ik ben hierbij in het gelijk gesteld.
Vergeet niet dat zelfrijdende auto's niet perfect hoeven te zijn, ze hoeven enkel beter te zijn dan mensen.

Wat ze al zijn, gezien auto's niet slaperig worden, niet achter hun telefoon zitten, niet afgeleid worden door bijv. kids achterin etc etc.

Daarbij komt dat de statistische kans om in een auto ongeluk te komen met een zelfrijdende auto (op het moment) kleiner is dan wanneer je zelf rijd. Tja... Ik weet niet of ik het zo vreemd vindt. Maar wees vrij om je eigen mening te hebben, daar niet van :)
Feilbaarheid van mensen wordt in het algemeen een stuk beter geaccepteerd dan feilbaarheid van machines. Dat valt bijvoorbeeld ook te zien aan de serie air-crash investigations. Een fout van de piloot kan hooguit leiden tot nieuwe procedures. Een fout van een mechanisch of ander systeem leidt tot aanpassing om dat in de toekomst te voorkomen, al waren de omstandigheden nog zo zeldzaam en is de aanpassing nog zo kostbaar.
Feilbaarheid van mensen wordt in het algemeen een stuk beter geaccepteerd dan feilbaarheid van machines. Dat valt bijvoorbeeld ook te zien aan de serie air-crash investigations. Een fout van de piloot kan hooguit leiden tot nieuwe procedures. Een fout van een mechanisch of ander systeem leidt tot aanpassing om dat in de toekomst te voorkomen, al waren de omstandigheden nog zo zeldzaam en is de aanpassing nog zo kostbaar.
Dat komt omdat een fout in een machine elk exemplaar van die machine op dezelfde manier treft, dus dan loont het zich om te fixen zodat verdere ongelukken worden voorkomen.

Niet elk mens maakt dezelfde menselijke fout.
Exact dat is het punt 1 mens kan 1 fout maken als de fout in 100.000 of 1 miljoen auto's zit is de kans op nog een ongeluk groter.

Wat mij nog een beetje irriteerd is het excuus van teslag, gemiddelde 1 dode per 94 miljoen km, wij tesla zitten op 1 dode per 200 miljoen. Ik proef hier een soort rechtvaardiging uit van kijk onze auto's zijn veiliger. Naar de nabestaanden toe komt dat nogal bot over.

Groter probleem lijkt me dat deze systemen gewoon niet perfect zijn als zelf tesla nu dus zegt dat de auto doden kan veroorzaken alleen met een mindere kans heb je volgens mij toch een probleem.
Een bestuurder neemt namelijk aan dat het systeem perfect werkt en dat doet het dus niet.
De bestuurder zal zich met andere zaken bezig gaan houden en niet meer op de weg kijken en ingrijpen.

Ook argumenten als truk had voorrang moeten geven en weet ik nog wat doen niet ter zake. Dat zijn namelijk zaken die gebeuren en daar zal een systeem op moeten anticiperen.

Ook onduidelijk is wit op wit is dus een probleem voor een camera als herkenning. Akkoord maar radar en ultrasoon en zelfs laser daar zou het geen verschil voor moeten maken. Waarom hebben die systemen niet ingegrepen.

Het aantal dodelijke ongelukken is misschien nog klein omdat tesla's vooral i8n de usa op autopiloot rijden, de wegen zijn daar veel anders dan in europa. Ik zou nog wel eens willen zien wat er gebeurt op Europese wegen als er in grotere hoeveelheden autonome auto's komen. Doden gaan er zeker dan ook vallen.

Ik denk zelf dat je niet moet vertrouwen op deze systemen en dat tesla ten onrechte het idee geeft dat het automatisch kan. Het moet ondersteunend werken. Feitelijk moet er een controle systeem zijn dat ziet of jij je handen aan het stuur hebt. Alleen dan autopiloot, handen van het stuur geen autopiloot.
Maar wie zijn fout is het om klakkeloos achter het stuur te gaan zitten? En de veronderstelling te maken dat zijn auto 100% veilig is? Dat zal niemand beweren omdat 100% veiligheid een illusie is. Zelfs tesla niet. En het komt idd erg bot over, maar Tesla heeft een punt wanneer zij het dodental vergelijken met mensen die zelf rijden. Het laat zien dat die auto's wel degelijk uitstekend kunnen rijden, zelfs wanneer er plotseling een voetganger oversteekt die geen voorrang had etc.

Wat betreft Europese wegen, naar mijn ervaring zijn die wel even een stuk beter dan stukken in de US. Vooral de belijning is hier uitstekend, iets waar zo'n auto erg veel baat aan heeft.
Probleem blijft dat mensen om wat voor een reden het idee hebben dat de autopiloot foutloos werkt en je dus je handen van het stuur kan halen.
als mensen dat idee hebben komt dat ergens vandaag of is er een bepaalde indruk gewekt al dan niet terecht of niet.
Het is jou taak als fabrikant om dat weg te nemen.

Om die reden zeg ik, controle voor minimaal 1 hand aan het stuur. Dan ben je haast verplicht om ook vooruit te kijken en geen andere zaken te doen.

Europese wegen beter, het verkeer op de meeste amerikaanse wegen is totaal niet te vergelijken. Vaak veel meer banen, breder, grotere afstanden met naar verhouding minder verkeer, lagere snelheden. Laat een tesla zelf rijdens een los in parijs of milaan, lachen.
Het probleem blijft dat mensen om wat voor een reden het idee hebben dat ze zelf foutloos rijden en je dus het idee hebben dat de machine NOG beter dan foutloos moet zijn.

Welk lot trek je liever, 1 op 90 kans om dood te gaan of 1 op 200 ;)
De vergelijking 1:90 en 1:200 is leuk maar gezien het beperkt aantal tesla's op de weg geeft dat een vertekend beeld. Je kan pas een betere uitspraak doen als er echt zeg 500.000 op de weg rijden en dan nog in veel verschillende gebieden.

Nu is 1op 90 bij zeg 40 miljoen amerikaanse auto's tegen zeg 50.000 bij 1 op 200.
doet me dan denken aan wij hebben onderzocht en x% zegt dit waarbij 50 mensen gevraagd zijn.
Tja, je kan altijd om hogere getallen blijven vragen ;)
De WC-eend stelling en het feit dat dit schijnbaar de eerste is, maakt de statistiek er niet betrouwbaarder op.

Je hebt niet voor niks early adapters, de middenmoot en mensen die als laatste iets nieuws oppakken.

Ik hoop dat ze de Tesla's zo aanpassen dat dit niet meet kan voorkomen en tevens deze casus doorwerken met andere modellen.
Dan zit je op een traject naar veiligheid toe.
Klopt je moet ergens beginnen, jammer dat er doden vallen en hopen dat het in ieder geval niet voor niets geweest is.
We praten wel weer eens over de kans, als het aantal zelfrijdende auto's gelijk is aan het aantal niet zelf rijdende auto's.

Dan zullen we het nog maar niet hebben over de kans dat je dood gaat, door dat de zelfrijdende auto gehacked is, de kans die nu vandaag de dag al hebt bij normale auto's, maar waar het nog gevaarlijker wordt, wanneer alles van de auto te controleren en te bedienen is via een computer.*

En ja, een machine MOET het altijd beter doen dan de mens, anders heeft het geen nut om de mens te vervangen

* overheden, willen toch al overal een backdoor in hebben
Ik ben het voor een groot deel met je eens.

Echter moet je ook bedenken dat wanneer iedereen een zelfrijdende auto heeft, die met elkaar gaan inspelen. Dan is Parijs opeens niet zo chaotisch meer. Nu brengt het inderdaad de nodige problemen met zich mee, maar opnieuw: Wie rijd er als een malloot door Parijs heen? De menselijke bestuurders zijn in dit verhaal de kippen zonder kop die de regels aan hun laars lappen. En tja, ook die variabelen moeten worden geprogrammeerd. Nu zijn we nog lang niet op dit punt waarbij iedereen een elektronisch gestuurde auto heeft. Sterker nog, we staan nog in de kinderschoenen, maar toen iedereen een paard en wagen had stonden ze ook te kijken naar die benzine motoren ;) Het is een kwestie van tijd.
Wat mij nog een beetje irriteerd is het excuus van teslag, gemiddelde 1 dode per 94 miljoen km, wij tesla zitten op 1 dode per 200 miljoen. Ik proef hier een soort rechtvaardiging uit van kijk onze auto's zijn veiliger. Naar de nabestaanden toe komt dat nogal bot over.
Als je het artikel leest, dan valt het wel mee met de tone-of-voice. Wat ik gekker vind is het volgende:
It is important to note that Tesla disables Autopilot by default and requires explicit acknowledgement that the system is new technology and still in a public beta phase before it can be enabled. When drivers activate Autopilot, the acknowledgment box explains, among other things, that Autopilot “is an assist feature that requires you to keep your hands on the steering wheel at all times," and that "you need to maintain control and responsibility for your vehicle” while using it. Additionally, every time that Autopilot is engaged, the car reminds the driver to “Always keep your hands on the wheel. Be prepared to take over at any time.” The system also makes frequent checks to ensure that the driver's hands remain on the wheel and provides visual and audible alerts if hands-on is not detected. It then gradually slows down the car until hands-on is detected again.
Dat lijkt mij juist heel erg bot richting de nabestaanden.
Klopt, beta en frequent checks, waarom niet continue, handen van het stuur, waarschuwing. Is misschien irritant maar dat moet je maar voor lief nemen.

Wat ik bij discussies over tesla en sommige andere merken wel altijd merk. Heb geen commentaar, zeg niets negatiefs want het lijken wel heilige merken.

Een waarschuwing is leuk maar vrijwaardt je als fabrikant niet van aansprakelijkheid. Ik blijf van mening dat tesla leuk disclaimers kan gebruiken maar als mensen er toch te veel op vertrouwen behoor je daar veiligheidssystemen voor in te bouwen, dus niet regelmatig kijken handen aan het stuur maar continue.
Sterker nog met een camera kun je ook kijken of de bestuurder wel op de wel let en niet naar de zijkant. Vergelijkbaar met in slaap val systemen.
Dus ja meer veiligheid en je niet verbergen achter disclaimers.
Daar ben ik het totaal niet mee eens. Hoewel er momenteel nog veel te weinig data is om de genoemde statistieken van 1 op 94 vs 1 op 200mil km te rechtvaardigen maar laten we er van uit gaan dat, misschien momenteel al, maar zeker in de toekomst autonome auto's minder ongelukken zullen veroorzaken dan menselijke bestuurders (ik geloof hier in ieder geval absoluut is). Dan zeg jij dat als er dan toch een ongeluk gebeurd de fabrikant aansprakelijk, terwijl het voor iedereen duidelijk is dat de bestuurder nog steeds verantwoordelijk is voor de auto en moet op blijven letten.

Is de auto-fabrikant dan ook verantwoordelijk als je tijdens het inparkeren tegen een paaltje aan rijdt omdat de sensor deze over het hoofd heeft gezien? Nee, hier ben je gewoon nog zelf verantwoordelijk voor.

Het zijn technieken die ons helpen tijdens het autorijden en ons helpen het aantal ongelukken te verminderen, maar je blijft zelf verantwoordelijk. Als in dit soort gevallen de verantwoordelijkheid bij Tesla wordt gelegd zal dit een doodsteek zijn voor de verdere ontwikkeling van zulke systemen.

Uiteraard moet er een minimale kwaliteit aan zulke systemen zitten voordat ze in auto's gebouwd mogen worden en naar mijn mening zijn we dat punt al voorbij en voegen deze systemen absoluut iets positiefs toe aan een auto. Zolang er geen grove nalatigheid gevonden kan worden (bijvoorbeeld als deze gevaarlijke situatie van wit op wit bekend was bij Tesla) zie ik niet in hoe de verantwoordelijkheid van dit ongeluk bij Tesla kan liggen.
Leuk verhaal nu naar de praktijk

Fabrikant introduceert een systeem waarmee de auto automatisch kan rijden.
Natuurlijk een disclaimer je moet je handen aan het stuur houden en altijd opletten.

Klant vraagt zich af, handen aan het stuur opletten, waarvoor kan het ding dan automatisch rijden.
Klant denk het ding doet het goed dus ik hoef toch niet altijd op te letten, niet voor niets geef ik veel geld uit voor automatisch rijden.

Ongeluk, klant let niet op, helaas had je dat maar moeten doen en het staat in de voorwaarden.

Einde verhaal weer een dode en we gaan verder.

Ik zeg als je als fabrikant een systeem levert waarbij je de klant de mogelijkheid geeft om de handen van het stuur te halen, n iet op te letten moet je daar een veiligheid voor inbouwen.
Doe je dat bij een normale auto, garantie op een ongeluk en dat weet je als bestuurder.

Fabrikanten zouden verplicht moeten worden bij deze systemen ook systemen te leveren die de bestuurder in de gaten houde, niet af en toe maar permanent. Let deze wel op de weg, niet te lang naar achteren kijken, omgedraaid zitten, handen niet aan het stuur.

Je verbergen achter voorwaarden waarbij doden vallen moet niet kunnen. Goede reden dat men het in de EU nog verbied.
Nee, dat is niet realistisch. Er zijn allerlei potentieel gevaarlijke apparaten die komen met allerlei veiligheidsinstructies. Mensen besluiten echter vaak om die niet op te volgen omdat de risico's klein zijn. Dat is dom, maar kun je niet voorkomen.

De Tesla waarschuwt overigens ook na enige tijd als je je handen niet op het stuur hebt, met piep en trilsignalen volgens mij. Maar ja, niet elke seconde. Dat is ook niet haalbaar. Zelfs in niet-zelfrijdende auto's halen mensen soms wel kort de handen van het stuur...

Zelfstandig rijdende auto's zijn nu nét nieuw. En nu zijn ze al zo goed. De ontwikkeling zal door gaan en over 10 jaar rijden die dingen overal om je heen. En ondertussen worden het veiliger en veiliger.
Leuk verhaal apparaten en het verschil is die apparaten daar moet jij mee omgaan, die bedien jij, jij bepaald jij beslist.

Stel je nu eens een kettingszaag voor die als je hem met cameraherkenning op een stam zet automatisch begint te zagen. De kettingszaag beslist en niet jij. Vooruit je kan nog ingrijpen maar wie weet te laat.
Met zo een apparaat beslist het ding zelf en niet jij.
Je verhaal gaat dus niet op als je het met iets vergelijkt dat zelf beslissingen neemt.
Dan zou ik zo'n techniek niet willen gebruiken. Hoe kan ik nou ooit weten dat het systeem in jouw simpele voorbeeld een paaltje over het hoofd ziet? Jij ziet het paaltje en je neemt aan dat het systeem het ook heeft gezien. Het is niet alsof het systeem voor het inparkeren vraagt, "Ziet u ook paaltjes die ik niet zie"? Je hebt dus geen enkel moment om het systeem te corrigeren. En daar zit je dan met je kras.

En uitvergroot geldt dat dus ook voor deze vrachtwagen. De auto heeft de trailer(in het midden van de ca 18m lengte) geramd, omdat hij hem totaal niet heeft gezien(lijkt niet eens geremd te hebben).

https://www.theguardian.c...elf-driving-car-elon-musk
http://www.foxnews.com/le...illed-by-tractor-trailer/

De bestuurder ook niet(aangezien hij een spelletje speelde), maar hoe kan die bestuurder nou weten dat zijn auto die vrachtwagen totaal niet ziet? Het moment dat jij realiseert dat jou systeem aan het falen is kan wel eens veel te laat zijn. Zelfs terwijl jij het mijlenver aan ziet komen. Maar je vertrouwt er hopelijk op dat het systeem werkt, want anders kan je het net zo goed helemaal niet gebruiken.
Goed punt. En het is hard nodig, een ongeluk zit in een klein hoekje...
De auto geeft zelf aan dat je je handen aan het stuur moet houden, je moet opletten en dat je zelf verantwoordelijk ben. De beste persoon was vanalles aan het doen, maar opletten hoorde daar niet bij...
"Ook argumenten als truk had voorrang moeten geven en weet ik nog wat doen niet ter zake."

Natuurlijk doet dat ter zake! DAT is de oorzaak van heel deze ellende!
Echt waar. Welkom in de realiteit, de realiteit waar je als autonome auto rekening moet houden met voertuigen die geen rekening met jou houden, in mensentaal anticiperen.

Als je dat van een systeem niet kan verwachten moet je het niet gebruiken. Feit blijft dat het systeem een fout gemaakt heeft dat lees ik toch uit het hele artikel.
Ik denk dat hij bedoelt, als die truck zich aan de regels had gehouden, dit ongeluk niet was gebeurd... met of zonder auto pilot.

Het doet er daarom dus wel degelijk toe.

Ik vraag me dan af, hoe groot was de kans, dat de bestuurder zelf op de truck was gereden? Ik ken hier ook genoeg wegen, die levens gevaarlijk zijn, als iemand zich niet aan de regels houd. Daar gaat auto pilot je echt niet bij redden. Als je zelf rijd ben je met een ongeval net zo hard de sjaak.
De vraag is en dat staat niet in het artikel of de truck zich voor de auto gegooid heeft
Feit blijft dat het camerasysteem de witte truck tegen een witte achterkant niet herkend heeft, de bestuurder niet zijn aandacht bij de weg had omdat deze er vanuit ging dat de tesla het kon.
Tesla daar een disclaimer voor heeft, je moet altijd opletten maar geen controle uitvoert of de bestuurder dat wel doet.
Naar mijn mening dus toch duidelijk een fout bij de tesla.
Nu is er niet ingegrepen en weet je dus nooit wat er was gebeurt als er wel was ingegrepen.
Had de tesla wel ingegrepen maar te laat was deze discussie er niet omdat je dan kon stellen het was de schuld van de vrachtwagen.
Dat we dat nu niet weten maakt dat de tesla toch niet goed zijn werk doet autonoom en daar dus niet geschikt voor is, tensij er een controle is dat de bestuurder altijd in kan grijpen en met zijn aandacht ook bij de weg is.
Ja maar, als de verkeerssituatie al niet duidelijk is.. hoe kan een Tesla's autopilot je dan helpen?

Hier hebben we bv een aantal wegen van rechts, waar een strook met groen langs staat. Je kunt daar niet zien dat er wat aan komt, je kunt uberhaubt nauwelijks zien dat er een weg van rechts aan komt. Hier zijn ook al zoveel ongelukken gebeurd.. het blijkt dus een onveilig kruispunt te zijn.

Of daar nou een tesla in auto pilot rijd, of een normale auto, die zelf bestuurd word.. de kans op een ongeluk is daar gewoon een stuk groter.

Dit is dan meer een zaak voor de gemeente/provincie om bij kruisingen zoals die in Amerika, als bij ons, een duidelijkere verkeerssituatie neer te zetten.

Ik denk dat we dat niet moeten vergeten.
Jou punt is precies de reden waarom autonoom rijden nog niet zou mogen.
Als een mens het al moeilijk kan zien dat er een weg van rechts is hoe kan een auto met de techniek van nu dit dan zien. Vooruit met kaart en gps zou deze kunnen weten er komt een weg aan ik moet opletten.
Hoog gras maakt het onduidelijk.Probleem bloijft als er autonoom gereden wordt let de mens niet op tenzij er weer een controle is in de auto die de mens verplicht op te latten. Dat roept weer irritaties op van waarom heb ik dan autonoom rijden als ik zelf noig moet opletten.
Die argumenten doen er wel degelijk toe. Als de auto niet autonoom was, had er geen haan naar gekraaid en was de bestuurder van de truck aangeklaagd. Volgens jou zou nu de bestuurder van de truck Tesla kunnen aanklagen omdat de auto niet oplette. En Tesla verkoopt het toch echt als rijhulp waarbij de gebruiker wordt gewaarschuwd als hij de knop indrukt.
Waar staat er in het artikel dat de truck zich voor de tesla gegooid heeft ? Jij maakt dat er van.

Feit blijft dat de tesla de truck niet gezien heeft, witte truck witte achterkant en niet heeft ingegrepen, dat is dus gewoon een fout.
Staat in het originele artikel:

What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S.

Op deze weg had de truck geen voorrang. Dus hij had de Tesla over het hoofd gezien.
"Ik proef hier een soort rechtvaardiging uit van kijk onze auto's zijn veiliger. Naar de nabestaanden toe komt dat nogal bot over."

Je moet goed beseffen dat ze dit soort dingen wel MOETEN roepen in een wereld waar alles om cijfertjes gaat en je wel feiten moet smijten om je zin te krijgen.

ArtGod is een goed voorbeeld, hij stelt:
"Als een autopilot dit soort eenvoudige situaties al niet aan kan dan heb ik er geen vertrouwen in. Ik heb hoe sowieso geen vertrouwen in zelf rijdende auto's moet ik eerlijk zeggen"

Dit zegt hij, ONDANKS dat deze 'eenvoudige situaties' blijkbaar slechter door mensen opgelost worden. De Tesla S is dus al VEILIGER dan een ander willekeurige menselijke bestuurder.. en TOCH vind hij het onacceptabel en heeft hij er geen vertrouwen in.
Fun fact: Als er een autopiloot van tesla in die vrachtwagen had gezeten was dit ongeluk niet gebeurd want dan had de vrachtwagen netjes de tesla S voorrang gegeven volgens de regels!
Hoe meer automatische auto's, hoe veiliger het wordt op de wegen...

Wat kun je anders, Tesla zijnde, dan met feiten gooien in een wereld waar mensen bang zijn voor automatisch rijdende auto's vanwege een onverklaarbaar emotioneel gevoel dat een mens beter is (ook al zeggen de cijfers het tegengestelde)? Mensen houden van schuld afschuiven. Bij menselijke chauffeurs kun je makkelijk de schuld afschuiven op die éne persoon, vol vertrouwen dat JIJ een betere chauffeur bent en dezelfde fout niet zou maken.

- Vrachtwagen chauffeur maakte fout
- menselijke bestuurder van de Tesla S reageerde niet/zag het niet/te laat
- Tesla S drive-assist (waarvan Tesla heel duidelijk zegt dat het ondersteunend is, een GEEN volwaardige auto-piloot en de chauffeur dus ZELF OOK moet opletten!) faalt ook in het waarnemen van deze fout van de vrachtwagenchauffeur

Wat gebeurt er vervolgens? OMG TESLA S! AUTO-PILOOT IS SCHULDIG!!! Wettelijk gezien is alleen de vrachtwagen chauffeur schuldig. Moreel gezien zou je kunnen zeggen dat de Tesla S bestuurder het had moeten zien.
Gevoelsmatig geeft iedereen de Tesla S software/hardware de schuld...

Typerend, en jammer.
Dat klopt, maar ik persoonlijk(en ik snap dat velen die mening niet delen), vind het moeilijker te verkroppen als het door een beslissing van een systeem komt dan een fout van een mens. Ik heb liever dat ik een ongeluk veroorzaak(in al die 20 jaar niet eens betrokken geweest), dan mijn auto een ongeluk veroorzaakt. En zo ook voor vrienden en kennissen. Ik kan het moeilijk uitleggen, maar ik accepteer een meervoud aan fouten van mensen boven die van een machine(ook omdat dat niet echt fouten zijn, maar letterlijk gecalculeerde beslissingen).
Volgens mij is dit oorzaak ook door een in alle waarschijnlijkheid door een mens veroorzaakt. Het is echter de machine die het niet heeft weten te voorkomen. De truck had de Tesla voorrang moeten verlenen volgens het reitje feiten bovenaan deze thread.
Heb je gelijk in, ik had eigenlijk moeten zeggen falen om te voorkomen ipv veroorzaken. Ik had het overigens niet over dit specifieke geval, maar ongelukken voorkomen is echter ook iets waar sommige mensen(en systemen) beter in zijn dan andere.

Overigens heb ik tot de systemen volledig autonoom zijn(en verplicht?) liever dat zo'n systeem als beschermengel meekijkt, dan het systeem van Tesla waarbij jij de beschermengel bent. Als je je taak serieus neemt is dat voor mij stressender dan zelf rijden(je bent passagier van 'iemand'(die ook nog eens onzichtbaar is ook) waarvan je weet dat je elk moment het stuur over moet kunnen nemen). Als ik autonoom gereden wordt, dan wil er ook volledig en blindelings op kunnen vertrouwen. Een last minute actie heeft een vrij grote kans om te falen als je het mij vraagt.
Je zegt dat het stresseriger is, maar hoeveel KM heb je zo al ervaren?

De eerste uren zelf rijles nemen waren ook stresserig ;)
Geen ervaring. Maar geconcentreerd opletten of een systeem zijn taak goed uitvoert(dus eigenlijk alle facetten van autorijden minus de daadwerkelijke besturing) lijkt mij nou niet bepaald een ontspannende ervaring. Je mag je als je je strikt aan Tesla's regels houdt nog steeds met niks anders bezighouden en jij blijft ook eindverantwoordelijk. Je haalt dus de leuke dingen van auto rijden(het rijden zelf) weg, terwijl je er niks voor terug krijgt. Elke seconde die je niet oplet kan nog steeds de laatste zijn, daar verandert niks aan. En hoe anticipeer je dat het systeem een situatie goed in aan het schatten is? Daar krijg je pas feedback over als het misschien al te laat is(zoals misschien hier bij die vrachtwagen).

Je zou het misschien het beste kunnen vergelijken met de taak van een rijinstructeur. Maar dan wel één met een(ik geef toe goede) cursist die je niet ziet en niet aanspreekbaar is.
Van een mens is een last minute actie inderdaad vaak gevaarlijk. Een opvallend percentage drukt van de schrik het gas pedaal in.
" Ik heb liever dat ik een ongeluk veroorzaak(in al die 20 jaar niet eens betrokken geweest), dan mijn auto een ongeluk veroorzaakt. "

Je vergeet dat de auto niet het ongeluk heeft veroorzaakt. De Truck (dus de mens) heeft het ongeluk veroorzaakt. Door geen voorrang te verlenen waar dat moest.
Zoals ik net al corrigeerde; falen te voorkomen. En daarom noemde ik ook betrokken; Het is nog niemand gelukt mij te raken(wel genoeg pogingen daartoe ;) ) *klopt af*

Het is dus wél gelukt deze Tesla te raken. Of dat onvermijdbaar was weet ik niet, maar dat sluit ik natuurlijk ook niet uit. Het is in dit geval dus vooral interessant om te achterhalen op welk moment het voertuig doorhad dat er een ongeluk aan zat te komen en wat het systeem toen nog gedaan heeft om het te voorkomen. Of dat het misschien in intern conflict is geraakt(deadlock ;) ) en gewoon maar wat heeft gedaan.

Ook interessant is natuurlijk of het systeem op de betreffende plek wel gebruikt mocht worden(Tesla hangt er nogal wat voorwaarden aan en een weg met een kruising lijkt mij nog geen geschikte plek).
Nog even een toevoeging:

https://www.theguardian.c...elf-driving-car-elon-musk

Against a bright spring sky, the car’s sensors system failed to distinguish a large white 18-wheel truck and trailer crossing the highway, Tesla said. The car attempted to drive full speed under the trailer, “with the bottom of the trailer impacting the windshield of the Model S”, Tesla said in a blog post..

Hij lijkt(ik wil geen oordeel vellen over de bron) dus de hele vrachtwagen inclusief aanhanger compleet gemist te hebben(geen enkele remactie). Een vrachtwagen 'midscheeps' rammen vind ik toch een behoorlijke fout. Als de Tesla nou vol in de zijkant was geraakt vond ik het een ander verhaal.
Grote vraag : was de trailer zo hoog dat de weg op sensor-hoogte vrij was?
Trailers hebben in Europa er zo'n bar (voor oa fietsers) onder hangen

Dat de auto op ruithoogte werd geraakt door de onderkant van de trailer, lijkt dit wel te suggereren.

[Reactie gewijzigd door hackerhater op 1 juli 2016 14:12]

Ik neem inderdaad ook aan dat hij relatief hoog was. Bovendien was de camera verblind door de zon. Dus ik neem nu even aan dat als de camera niet verblind was de auto wel op tijd was gestopt. Maar blijkbaar kan de radar dus niet zien of de volledige auto veilig door kan rijden. Dan zou het systeem dus nooit op alleen radar(in de huidige vorm) mogen rijden. En hij zou dan ook meteen de bestuurder moeten waarschuwen dat hij per direct de besturing over moet nemen.

Ik ben trouwens bang dat een auto dwars door zo'n fietsers-bar knalt.

[Reactie gewijzigd door MN-Power op 1 juli 2016 14:21]

Het systeem is ook puur een driver-assist, GEEN volledige bestuurder.
What's in a name. Maar zoals dit geïmplementeerd is zou ik de bestuurder juist een system-assist noemen, aangezien jij de fouten van het systeem op moet vangen(net als stabiliteitscontrole jou helpt als jij in de fout gaat). In het geval van de Tesla: Het systeem bestuurt, jij assisteert indien nodig. En dat is in mijn ogen een best lastige taak(want wanneer realiseer je je dat jij het beter kan?).
Tjah het is niks anders dan een hele fancy cruisecontrol.
Heel leuk, maar als ie niet remt, rem ik toch echt wel zelf.
Dat valt best wel mee hoor, een gemiddelde auto klapt er ongeveer tot het raam onder bij een normale snelheid. Het is echt sterker dan men denkt. Ik heb toch al meerdere schades gezien van auto's in de zijkant van een vrachtauto en zelfs een auto die er met 100 in was geklapt was er niet verder ingeschoten dan net het raam.

Tuurlijk het is met name tegen fietsers maar het is eigenlijk een kleine vangrail. Ik heb nu ook de schets gezien en de weg moet wel heel breed zijn geweest dat de trailer recht achter de trekker reed. Dus denk niet dat de schets echt klopt.
Ik ben het niet met je eens dat uit de serie "air crash investigations" is af te leiden dat feilbaarheid van mensen beter wordt geaccepteerd. Dat fouten van piloten worden aangepakt met aanpassingen in opleiding en procedures is niet omdat er minder hard aan wordt getild, dat is omdat je het nu eenmaal niet kunt oplossen door van piloten het ontwerp aan te passen of onderdelen te vervangen...
Ik kijk nooit naar die serie, maar als ik denk aan vliegtuigongelukken dan valt me altijd op dat de betrokken luchtvaartmaatschappijen zo snel mogelijk met de mededeling komen dat het een "menselijke fout" was.
Strikt genomen is alles een menselijke fout, van de ontwerper, de mecanicien, enz. enz., maar dan zou het apparaat niet 100% veilig zijn.
(Ik wou schrijven: "En wij mensen willen nu eenmaal dat apparaten 100% veilig zijn." maar dan ga ik claimen wat ik probeer aan te tonen. 8)7 )
maar als ik denk aan vliegtuigongelukken dan valt me altijd op dat de betrokken luchtvaartmaatschappijen zo snel mogelijk met de mededeling komen dat het een "menselijke fout" was.
De enige reden dat ze dat doen is om het vertrouwen in het type vliegtuig niet te laten afnemen.
Voor een luchtvaartmaatschappij is het VEEL goedkoper als het een technische fout is waar ze niks aan kunnen doen. Dan mag namelijk Boeing of Airbus de schade betalen.
De schade door een piloot die 'iets fout' doet, is niet/amper af te wentelen, dat is volledig de verantwoordelijkheid van de luchtvaartmaatschappij.
Strikt genomen is alles een menselijke fout, van de ontwerper, de mecanicien, enz. enz., maar dan zou het apparaat niet 100% veilig zijn.
Nee hoor, dit ben jij (of de maatschappij) die de schuld 'ergens' wil neerleggen.
Toen metaalmoeheid werd 'uitgevonden' was er niemand die iets 'fout' had gedaan. En zo zijn heel veel fouten achteraf 'logisch', maar er is niemand die daadwerkelijk iets fout heeft gedaan.

En dan hebben we het nog over 'overmacht' door noodweer of bijvoorbeeld vogels. De enige 'fout' die we maken is dat we proberen te vliegen :+
Misschien omdat zo'n mededeling de indruk wekt dat de fout bij een individu ligt, waardoor de klant minder snel het vertrouwen zal verliezen in het vliegtuig of de luchtvaartmaatschappij.

Maar het interessante van de serie "air crash investigations" is dat het horrorscenario van een vliegtuigongeluk maar een deel is van het verhaal, het draait om het onderzoek naar de oorzaken. Aan het eind van een aflevering is bijna altijd duidelijk wat in de nasleep voor maatregelen zijn genomen om een zelfde soort ongeluk te kunnen voorkomen. Daarbij wordt ook op menselijke fouten heel serieus ingesprongen, naar aanleiding van ongelukken zijn er in de loop van de tijd vele concrete verbeteringen doorgevoerd op gebied van training en procedures. Ik heb bepaald niet de indruk dat vaker dan zelden of nooit de kous af is met de constatering "menselijke fout".
Zeker weten. Maar hier hebben we het dan niet over algemene veiligheid of het falen van mens / machine. Jij spreekt over de acceptatie na een gemaakte fout.
Ik vind het prachtig hoe ze dat aanpakken in de luchtvaart. Ik hoop dat er per zelf-rijdende-auto crash ook zo diepgaand wordt gegraven, dan wordt autorijden misschien nog ooit veiliger dan vliegen ;)
Jouw voorbeeld geeft niet echt aan dat het falen van machines minder geaccepteerd is dan het falen van mensen (zeg niet dat dit niet geval is maar jouw voorbeeld geeft dit niet aan, maar bvb van piloten wordt evengoed verwacht dat ze geen fouten maken). Het verschil in jouw voorbeeld zit hem in het feit dat een machine/mechanisch falen nu eenmaal meer aan kan gedaan worden om een zelfde probleem in de toekomst te voorkomen. Wanneer er een fout door een mens gebeurt kan men niets anders doen dan procedures of training methodes aan te passen.
Daar heb je een punt dat ze dus beter moeten zijn dan mensen. Echter is het andere risico weer dat mensen door de (deels) zelf rijdende auto lakser worden en zelf minder op gaan letten onder het idee, de auto doet het werk wel. En zo ver zijn we nu (denk ik) nog niet.

Maar hoe dan ook zul je ongevallen (waarschijnlijk) nooit helemaal kunnen uitsluiten. naast eventuele fouten in het programmeren/code heb je ook gewoon dat sensoren stuk kunnen gaan of ontregeld worden waardoor het systeem er verkeerd op reageert. Kijk maar naar vliegtuigen waar ze al wat langer met auto pilots werken wat eigenlijk hetzelfde idee is. De crash van het turkisch airlines toestel wat een paar jaar terug bij Schiphol is neer gestort bijvoorbeeld, was veroorzaakt door een slecht functionerende hoogte meter waardoor de autopilot te veel gas terug nam en het toestel bijna letterlijk uit de lucht viel (stall).
Het technische mankement was niet het hele verhaal, als de piloten behoorlijk op hun instrumenten hadden gelet dan hadden ze de waarschuwingsindicaties daarop gezien en de crash kunnen voorkomen. Ze waren in een te laat stadium van de landing nog bezig met de landingschecklist, en in de haast om die af te ronden waren ze de rolverdeling in de cockpit uit het oog verloren (1 van de piloten hoort voortdurend de vliegsnelheid en -hoogte in de gaten te houden).

De analogie is dat deze piloten net als de bestuurder van de Tesla te veel vertrouwden op de correcte werking van de automatische systemen.

Een groot verschil is dat de bestuurder van zo'n Tesla niet zo grondig wordt getraind en voortdurend bijgetraind als piloten, de vraag is dus of je in even grote mate alertheid mag verwachten.

Een ander verschil is dat er op de weg voortdurend een onverwachte situatie kan optreden, terwijl grote alertheid in de cockpit vooral nodig is tijdens opstijgen, landing en bijzondere situaties, waar je meestal wat tijd voor hebt om je op in te stellen (op 10 km hoogte zal er niet plotseling een truck oversteken)
Ik ben het volledig met je stelling eens, behalve dat je zelf niet meer rijd. Ik denk juist dat veel mensen geen zelfrijdende auto willen nemen omdat je zelf niet meer hoeft te rijden en zelf rijden maakt auto rijden juist leuk (tenminste vind ik dan). Tuurlijk stem ik in als het om veiligheid gaat op de weg, maar ga er maar niet vanuit dat iedereen een zelfrijdende auto wil :)
De eerste 5 jaar dat je je rijbewijs hebt is autorijden leuk, als je daarna 10 jaar woon-werk hebt gedaan, is dat echt niet leuk meer hoor, wel doodsaai.

Daarna zijn alleen de privé ritjes op vakantie over bergpassen ed nog leuk, of lekker door schotland bijvoorbeeld, maar dat is nog geen 10% van je jaarlijkse km's.

Het lijkt mij heerlijk om de saaie woon-werk stukken met een soort van autopilot te kunnen rijden, zeker in files of überhaupt saaie snelwegen.

En je kan het ook uitzetten dus waar zou iemand het niet willen? Das net zoiets als cruisecontrol, ik zou niet meer zonder willen, liever de airco eruit dan cruisecontrol moeten missen. Maar het kan ook gewoon uit.
Als men die files zou oplossen zou autorijden al veel minder saai worden. Met die files word autorijden zelfs frustrerend.
Superleuk, uur lang file rijden. Doe mij dan maar automatische piloot en 'n dutje.
Ik woon niet in de buurt bij drukke wegen of kom er zelden :). Zelf nog nooit last gehad van file ;)

[Reactie gewijzigd door silverchaoz op 1 juli 2016 09:16]

Alsof je met een Tesla met zijn accu in de file wilt belanden.. no thank u
Behalve de energie die je gebruikt voor ventilatie en andere systemen is een Tesla vele malen energie efficienter dan een benzineauto als je in een file staat. Een Tesla met volle accu's kan meer dan twee dagen 'stationair' draaien. Langer dan de meeste benzine auto's.

Ik maak me dus nooit zorgen als ik met de Tesla in een file kom. Waarom zou dat een probleem zijn?
Sterker nog. Als ik in de file terecht kom met mijn Nissan Leaf, dan heb ik meer batterijlading over bij aankomst dan normaal. Dat beestje rijdt efficiënter bij lage snelheden dan bij hoge snelheden.
Want???
Als een Tesla stil staat verbruikt hij geen stroom. Los mogelijk van airco en licht.
Filerijden zal dus je rijdbare afstand wel kleiner maken maar als je met een normale lading vertrokken bent is dat geen enkel probleem.
Los daarvan kun je met een brandstof auto ook zonder power komen te staan ;)
Airconditioning en licht zijn anders behoorlijke energieverbruikers. Ik denk dat het veel of weinig gebruik daarvan wel invloed heeft op de actieradius van een auto die alleen een accu heeft als energievoorziening.
Ook een traditionele start/stop auto heeft die verbruikers en kan op een gewoon 70Ah accutje al lang stilstaan. Led verlichting verbruikt nauwelijks , airco heel wat meer.
De (mega grote) accus van een Tesla kunnen zoiets probleemloos aan. Maar zoals ik al zeg het heeft natuurlijk invloed op de rijafstand, alleen heel gering.
Nja ik weet niet hoe bij jou file rijden gaat in NL maar bij mij is dat: remmen, 50 cm rijden, remmen en weer opnieuw.
Dat is niet stilstaan voor een paar uur en je auto wordt wel even op plek van bestemmen gezet, dat is non stop stukje gas, stukje remmen.

Wat dacht je van het volgende:
- draaiende motor (tenzij die uitgezet wordt, maar non stop de motor uitzetten/starten zal niet goed zijn voor de accu duur)
- muziek
- dag/nacht verlichting
- ventilator / airco
- 50 cm rijden
- remmen

Het klopt dat je met een normale auto (benzine of diesel bedoel je lijkt mij) ook zonder kan komen te staan..
Maar! indien ik file rij zie ik voldoende tankstations, allemaal tank stations voor je benzine/diesel/lpg wagen, 0,0 voor je tesla.
Dan moet je toch eens beter opletten Langs de snelwe gis een heel skala aan oplaadstations beschibaar. Herkenbaar aan de ronde afdeking.
Een beetje snelweg chauffeur had die al lang gezien. En ja .. ook tussen die 50 cm rijden staat de electromotor helemaal niets te verbruiken in tegenstelling tot een brandstof motor. Ik zelf weet dat trouwens met een beetje ervaring altijd tot enkele tientallen meters te zetten ipv 50 cm maar dat zal de ervaring wel zijn.
Nja tientalle meters verzetten terwijl het vrijwel stil staat is moeilijk tenzij je eroverheen kan vliegen haha. Maar dan moet je auto voornamelijk die ervaring kunnen bieden.

Klopt dat de benzine auto ook staat te verbruiken, maar die heeft ook een radius van 2x zoveel.

[Reactie gewijzigd door LopendeVogel op 5 juli 2016 00:06]

kwestie van juiste rijbaan kiezen en niet rustig blijven en niet als een idioot elk gaatje willen vullen ;)
Maar we gaan nu wel erg off-topic.
Mocht je de weg naar fastnet nog niet kennen, bij deze: https://fastned.nl/nl/onze-missie
Ja kwestie van de juisye rijbaan kiezen.. werkte file rijden maar op die manier dan bestond er geen file. Helaas werkt dat niet zo, mensen die non stop van rijbaan wisselen in de hoop 10 sec eerder op werk te zijn maken het alleen maar erger.
Je moet ook niet wisselen maar op basis van ervaring de juiste keuze maken. Kennis van de weg, afritten en gedrag dus. Filerijden zal nooit leuk worden maar je kunt ook zonder dat zenuwachtig gedrag van elke 50 cm optrekken rustig blijven. Nogmaals, ervaring is daar de key.
Daar ben ik het helemaal mee eens.
Ik woon in Eindhoven. Moest recentelijk 2x per week naar Utrecht.

Om die reden elke ochtend om 6 uur de auto in om niet 'n uur in de file te staan, je zit er snel in hoor!
Vergeet niet dat zelfrijdende auto's niet perfect hoeven te zijn, ze hoeven enkel beter te zijn dan mensen.
Pardon? We moeten bij zelfrijdende auto's wel degelijk streven naar perfectie en hoe beter ze worden hoe sneller ze perfect moeten worden want hoe minder de bestuurder nog geneigd zal zijn de auto piloot te controleren/ondersteunen.
Omdat ze in principe beter kunnen zijn als een mens zullen we er ook hogere eisen gaan stellen om bij voorbeeld dichter op elkaar te kunnen rijden om zo de weg efficienter te kunnen gebruiken.
Probleem is dat we nu in de pioniersfase zitten, die systemen zijn verre van perfect en dus moeten de bestuurders blijven opletten. Er zullen helaas nog wel een tijdje van dit soort ongelukken blijven gebeuren.
Ja hallo, Tesla vergelijkt hier wel appels en peren. Tesla's zijn nieuwe, dure en doorgaans goed onderhouden auto's. Alleen daarom zullen ze al minder betrokken zijn bij ongelukken waar slechte banden, remmen, verlichting en andere technische fouten de oorzaak waren.

En ten tweede, als de rijomstandigheden echt gevaarlijk worden, bij dichte mist, zware regen- of sneeuwval, stofstormen, zwaar onweer en andere omstandigheden die de sensoren onbetrouwbaar maken houdt de zelfrijdende auto het echt voor gezien.

Op die manier is het niet zo moeilijk beter te scoren dan de (in Nederland) gemiddelde 10,2 jaar oude auto die door weer en wind de weg op gaat....
Ja hallo, Tesla vergelijkt hier wel appels en peren. Tesla's zijn nieuwe, dure en doorgaans goed onderhouden auto's. Alleen daarom zullen ze al minder betrokken zijn bij ongelukken waar slechte banden, remmen, verlichting en andere technische fouten de oorzaak waren.

Op die manier is het niet zo moeilijk beter te scoren dan de (in Nederland) gemiddelde 10,2 jaar oude auto die door weer en wind de weg op gaat....
De ongelukken die jij omschrijft zullen inderdaad minder voorkomen bij Tesla's. Maar het zelfde geldt voor nieuwe auto's vs. oude auto's. En een Tesla van 10 jaar zal evenveel kans (waarschijnlijk veel minder maar goed) hebben op dit soort type ongelukken als een 10 jaar oude auto die niet computer gestuurd is. Verder is het is niet representatief om te zeggen dat het overgrote deel van de bevolking rijdt in een oude auto zoals jij deze beschrijft.
En ten tweede, als de rijomstandigheden echt gevaarlijk worden, bij dichte mist, zware regen- of sneeuwval, stofstormen, zwaar onweer en andere omstandigheden die de sensoren onbetrouwbaar maken houdt de zelfrijdende auto het echt voor gezien.
Ook wij Nederlanders hebben meer last van de weersomstandigheden bij kut weer.
Vergeet niet dat zelfrijdende auto's niet perfect hoeven te zijn, ze hoeven enkel beter te zijn dan mensen
Ze moeten beter zijn dan de beste chauffeur, of wil jij in een auto meerijden met de intelligentie van een gemiddelde chauffeur?
En wat zou er gebeuren, denk je, als wij alle "gemiddelde" chauffeurs zelfrijdende auto's geven? Zou dat de veiligheid bevorderen of juist laten afnemen?

Als je kijkt naar de dodental statistieken zou het betekenen dat dit de veiligheid alleen maar ten goede zal doen.

En ik noemde geen niveau onder "beter dan mensen". Natuurlijk moet dat ding superieur zijn aan veiligheid. Maar zelfs de beste mensen maken fouten. Auto's ook. Enkel minder. Zeker wanneer je kijkt wat er vandaag de dag over de weg rijd is het voor elektronisch gestuurde voertuigen niet bijzonder moeilijk om dit niveau te toppen.
En wat zou er gebeuren, denk je, als wij alle "gemiddelde" chauffeurs zelfrijdende auto's geven? Zou dat de veiligheid bevorderen of juist laten afnemen?
Daar zul je wellicht gelijk in hebben, regel je het even?
Als je kijkt naar de dodental statistieken zou het betekenen dat dit de veiligheid alleen maar ten goede zal doen.
Weer die statistieken....
Aantal dodelijke ongevallen met een Tesla: 1 in de laatste 2 jaar
Aantal dodelijke ongevallen met een Zer0: 0 in de laatste 25 jaar
Ergo, volgens de statistieken rijd ik oneindig veel beter dan een Tesla.
Zodra volgens die statistieken zelfrijdende auto's veiliger worden stap ik in.
Daar zul je wellicht gelijk in hebben, regel je het even?
Just a matter of time.
Weer die statistieken....
Waar wil je je conclusie dan uit halen? Als jij niet met deze manier wil rijden is dat meer dan prima, echter wordt iedere mens ook is moe achter het stuur, wordt je afgeleid, etc etc. Ik prijs je dat je nog geen ongeluk heb gemaakt, echter is dit niet de realiteit van iedereen.
Als iedereen in een zelfrijdende auto zou rijden zouden er waarschijnlijk veel meer ongelukken zijn. De overige menselijke bestuurders kunnen nu vaak ingrijpen.

Het kan ook best zo zijn dat de vrachtwagen dacht die stopt wel voor mij, Tesla ziet dat niet en een ongeluk. Als menselijke rijder hou je toch wel rekening mee of iemand wel voorrang gaat geven. En zeker een vrachtwagen.

Wat ik ook apart vind is dat de Tesla na de hit met de vrachtwagentrailer geen noodstop heeft gemaakt maar door 2 hekken ging en vervolgens ook nog probeert naar de weg terug te draaien?

[Reactie gewijzigd door FlyEragon op 1 juli 2016 10:42]

Denk je nou serieus dat een Tesla als een kip zonder kop over de weg rijd... Dat ding heeft meer sensors aan boord dan je gemiddelde operatiekamer.

En natuurlijk heeft hij nu een fout gemaakt en zag hij dit niet. Hoe vaak ziet de gemiddelde bestuurder iets over het hoofd? Die fietser opeens uit het niets? Ook dit zijn ongelukken die, helaas, dodelijk kunnen aflopen. Maar enkel omdat dit meer geaccepteerd is, en omdat dit vaker gebeurt, is het minder erg dan dat een auto een fout maakt met dodelijk afloop. Iedere dode is er een teveel, maar zolang een Tesla beter kan opletten tijdens situaties zit ik hier liever in.
Mooi dat de Tesla meer sensors aan boord heeft, alleen ik begrijp zelf stiekum dat als ik in de zon kijk dat ik minder zicht heb en dus voorzichtig moet doen om geen witte vrachtauto's te raken, die onfeilbare sensors van de Tesla blijkbaar niet.

Soms snap ik echt niet waarom dit soort 'objecten' niet meer objectief bekeken kunnen worden, zo'n Tesla geeft blijkbaar zo'n kick aan sommige mensen dat echt alles recht gepraat wordt. Ding is gewoon nog niet perfect en we mogen blij zijn dat met die techniek nog niet volledig autonoom gereden wordt.
Nogmaals, tof dat jij langzamer rijd. Andere mensen scheuren door en geven er niets om. Je kan nu niet een heel bedrijf vergelijken met jezelf.

Het hele verhaal wat ik hierboven heb gezet geeft precies antwoord op dit argument. De auto is nog niet perfect. Maar dat is niemand in het verkeer. Voorlopig doet hij het tig keer beter dan de gemiddelde bestuurder. En prima dat jij daar dan boven zit en situaties goed inschat, maar dat is geen representatief beeld over de gehele bevolking.
Correctie, de statistische kans dat een zelfrijdende auto in een dodelijk ongeval komt is kleiner dan wanneer een mens rijdt, maar je kunt niet stellen dat dit voor ieder individu ook geldt. Meer dan genoeg petjes, bejaarden, bange mensen die 10+ keer examen hebben moeten doen, dombo's die nog moeite hebben met de simpelste dagelijkse bezigheden, zitten ook allemaal achter het stuur. Die brengen het gemiddelde van (dodelijke) ongevallen omhoog. Als je gewoon een verstandig persoon bent die plezier heeft aan autorijden en goed oplet ligt de kans waarschijnlijk een heel stuk lager. Ik weet niet wat mijn eigen kans is, maar wil in elk geval niet het risico lopen dat hij hoger wordt door in een zelfrijdende auto te stappen.
Feilbaarheid van machines gaat sociaal nooit geaccepteerd worden.

Volgens http://statbel.fgov.be/nl...s_durant_l_annee_2012.jsp wordt er op één jaar tijd 83 miljard kilometer gereden door alle verkeer samen in België.
Als we 1 op 209 miljoen doortrekken, betekent dat 397 ongelukken per jaar mocht iedereen met een Tesla rijden.

Volgens http://www.standaard.be/cnt/dv3m6kia gebeuren er 365617 autoongelukken per jaar in België. Een Tesla is dus920 keer veiligerr dan een menselijke bestuurder.

Of we deze set gegevens kunnen doortrekken is natuurlijk maar de vraag.
Persoonlijk ben ik meer voorstander van volledig autonome auto's, maar dan op een nieuw te ontwerpen grid systeem. Geen verkeersborden , gps, rijlanen of andere bullshit nodig. Maar dan moeten we wel elke rijbaan aanpassen...
Het vervelende is dat je alleen de negatieve uitschieters hoort. Hoe vaak heeft autopilot al een onoplettende chauffeur gered? Geen idee, maar zonder die informatie is het lastig oordelen imho.
Nou ja, eigenlijk hoor je wel hoe vaak AP een chaufferur redt. Er worden statistieken bij gegeven die dat suggereren. Als die kloppen (weet ik niet), dan kun je daaruit afleiden dat autopilot ongelukken voorkomt.
Waar zijn die stats dan?
Ik heb al tig x een ongeluk voorkomen, en mijn ogen zien wel een giga vrachtwagen rijden, ja ook als die wit is en de lucht wit is....
Een Tesla snapt dat schijnbaar niet en rijd er gewoon op in.
Als ik achter het stuur gezeten had, was deze man waarschijnlijk nog in leven geweest. Want mijn ogen herkennen wel een vrachtwagen, ook als die echt wit was dus ook witte banden en etc (wat die uiteraard niet had..)
Zeggen dat de beste man niks zag is een domme conclusie want hij is dood... Waarschijnlijk dacht de bestuurder: oh mijn Tesla heeft een auto pilot dit ziet die giga vrachtwagen wel, niet dus.
Man is bij het ongeluk overleden, alsof die even tesla gebeld heeft met de melding dat hij het ook niet zag en het niet de schuld van de auto was,...

Wat ik me wel kan indenken, er zijn echt veel slechte auto rijders op de weg die volgens mij zelf niet in de gaten hebben hoe gevaarlijk ze rijden (zoals geen knipperlicht wanneer ze van rijbaan wisselen, gewoon de auto op een andere baan gooien of met 130km/u gaan bumperkleven met een metertje tussen de 2 auto's in).
Laat die slechte auto rijders met een auto pilot rijden, en de mensen die gewoon netjes / goed rijden het op hun manier doen.. Dat kan natuurlijk wel ineens veel ongevallen schelen, want het is niet de natuur die de auto ongelukken veroorzaken, het zijn de slechte en niet oplettende bestuurders.

Een autopilot zal naar mijn weten ook niet op een 3 baansweg waar je 130 mag op de meest linkse baan 105 rijden (zoals ik ook regelmatig tegenkom) wanneer bijv een vrachtwagen een ander inhaalt met 95-100.

Wanneer ik de weg op rij, vrijwel dagelijks voorkom ik wel een ongeluk doordat ik oplet en er rekening mee hou dat er ontiegelijk veel slechte bestuurders in NL rond rijden (vraag me niet hoe of waar ze dat rijbewijs gehaald hebben, maar dat is niet gehaald door netjes en goed te rijden..)

[Reactie gewijzigd door LopendeVogel op 1 juli 2016 09:52]

De stats staan in het artikel vermeld.

Verder, het is net zo'n domme uitspraak om te zeggen dat de man nog had geleefd als jij de bestuurder was geweest. Je zat toch niet in de auto? Je weet toch niet hoe het licht was. Je weet toch de omstandigheden niet. Beweren dat je altijd alles ziet en nooit iets mist is flauwekul. Tegenlicht kan erg verwarrend zijn. Zelfs voor jou, de beste chauffeur van Nederland.
Voor mij is licht nooit een excuses. Als je gaat rijden met fel/zonlicht zonder zonnebril ben je gewoon een kamikazee op de weg klaar.... heeft niks met beste chauffeur te maken.
De zelfingenomenheid maakt je imo al een slechtere bestuurder dan de gemiddelde. Want de slechtste bestuurders hebben geen zelfreflectie en vinden dat ieder ander slecht rijdt. Ik rijdt slecht, weet je waarom, omdat ik vaak veel te hard rij en inhaal. Maar ik ga er wel vanuit dat bestuurders mensen zijn en iedereen dus ook anders rijdt. De een te hard, de ander te zacht, en beide types zijn even asociaal (afhankelijk van de variatie t.o.v. het gemiddelde). Maar ook iemand die zicht keurig aan de snelheid en regeltjes houdt kan zich asociaal gedragen in het verkeer, alleen door de houding "ik doe het goed".

OT: Een autopilot kan waarschijnlijk beter 'rijden' dan jij, alleen al omdat het de menselijke factor sterk reduceert. Het wordt niet moe, raakt niet afgeleid, wordt niet boos, etc. Enige wat er nog moet gebeuren is beter afstellen (perfectioneren), net zo lang tot het bijna helemaal geen fouten meer maakt. En dat is bij de gemiddelde mens onmogelijk.
Er is een zeer groot verschil tussen zelfingenomenheid (ik noem het zekerheid) dan gevaarlijk rijden.
Jij haalt hier duidelijk deze 2 door elkaar waardoor ik dus helemaal geen slechte bestuurder ben. Alle onzin die jij noemt (althans het komt in de praktijk wél voor, maar niet bij mij) heeft niks met mij te maken.

Vind ik hard rijden leuk? Zeker weten! Maar ik ga niet 180 op een 120 weg rijden waar het druk is en veel invoeg stroken zijn. Zie ik een snelweg als een circuit? Nee... Ik ga niet op de slechte Nederlandse wegen mijn onderstel aan gort rijden.

Over je ontopic gedeelte ben ik het volledig met je eens.
Mijn brein is niet geboren met perfect rijgedrag, met 20 ogen en etc. Een auto pilot zal het vast en zeker op den duur beter kunnen (even de veiligheid mbt hacks en etc daargelaten natuurlijk). En ook beter dan mij.
Op dit moment vertrouw ik mezelf meer dan een auto pilot. Het enige moment wanneer ik geen zonnebril op mijn hoofd heb zitten is wanneer de zon weg is. Het ongeluk hier is gewoonweg ontstaan omdat de censoren van Tesla gewoonweg een witte vrachtwagen niet kan detecteren wanneer de achtergrond (lucht) wit is, dat is gewoon vragen om problemen en een zeer grote fout in het systeem.
Een fout wat niet aanwezig is in mijn systeem (hersens) want die ziet wel een vrachtwagen, ook wanneer de lucht wit is.

En dat is ook wat ik zei: indien ik de bestuurder van de Tesla was zonder auto-pilot aan had ik de vrachtwagen ontweken.. Geen twijfel over mogelijk.

[Reactie gewijzigd door LopendeVogel op 4 juli 2016 17:43]

Ok dat plaatst het wel weer in perspectief, zo zie je maar weer dat een boodschap in tekst weer heel anders kan overkomen dan bedoeld. Zelfde geldt voor mij, merk ik aan jouw reactie. Ik bedoelde 'm namelijk iets anders.
Bij sommige wagens zijn knipperlichten een optie :-)
Ik erger mij er ook aan en ik woon BE :-(

Het is hier dezelfde troep als bij jullie! Teveel idioten die maar op doen, teveel idioten die het verschil niet zien tussen 90 en 70, die niet weten hoe die versnellingspook werkt, die maar 2 pedalen hebben (koppeling en rem), die wel pinkers hebben maar geen knop om die te gebruiken, die het begrip "inhalen" niet snappen enz...

Dan heb je nog die Racers. De jonge F1 piloten die denken dat een Citroen DS3 dezelfde wegligging en stopkracht heeft als een F1 McLaren. Die op 1m achter je tegen 150KM waar je 120KM mag, cool vinden.

Smijt daar dan nog een boel overladen, stugge en onwendbare bende vrachtwagens, waarvan sommige bestuurders zelfs niet de betekenis van die borden kent, tussen en je hebt een cocktail van al dan niet-dodelijke ongevallen. Genaamd: woon-werk-verkeer.
Haha ja ik vind het wel grappig.. Zodra ik in de auto zit met mijn vrouw ernaast en ik ergens een golf zie rijden of aan zie komen dan vertel ik haar al wat er gaat gebeuren (bijna standaard is het: geen knipperlicht, want dat is inderdaad een dure extra optie voor de golf volgens mij).

Ik vind het echter altijd wel spannend om de weg op te gaan, je weet nooit wat voor situaties een malloot gaat creëren.

Ik had het gisteren nog, een 80 weg maar iemand in een panda met de kofferklep open voor me reed 60 (maakt mij niks uit, ik blijf erachter als ik niet kan inhalen met de juiste afstand), zit er iemand achter mij een witte Peugeot leasebak, een vrouw met een klein kindje ernaast nog geen meter achter me.

Dan kan ik 2 dingen doen: niet erop letten (met alle gevolgen van dien), of zachjes mijn remlicht laten zien.
Ik kies voor het 2e, lief van mij? Vast niet. Maar dat mens moet aan haar dochter/zoontje ( ik zag niet wat het was ) denken. Ik ga uiteraard niet vol op de rem waardoor het 100% zeker een ongeluk was en ik een leuk bedrag zou krijgen, maar ik laat mensen wel zien waar ze mee bezig zijn.
Resultaat: ze ging afstand nemen want ze vond de disco remverlichting van mij niet leuk.
Oftewel doel bereikt, ik heb iemand bewust gemaakt van haar rijgedrag. Met als pluspunt dat mijn achterkant nog krasvrij is.

Dat de tweaker boven jou (bed76) mij een slechte bestuurder noemt omdat ik vind dat ik het beter doe dan de gemiddelde bestuurder nemen we natuurlijk met een korrel zout.
Heb ik ooit een ongeluk meegemaakt of veroorzaakt? Nee
Heb ik ooit een paaltje of een muurtje geraakt? Nee
Heb ik veel ongelukken ontweken? Hell yeah.
Ben ik bang in het verkeer? Zeker weten niet
Trap ik vol op de rem als er een paar druppels regen vallen? Natuurlijk niet
Trap ik vol op de rem wanneer een 120 weg over gaat naar een 80 weg? Zeker weten niet
Erger ik me aan mensen die bang zijn of zaken vergeten (knipperlicht, spontaan keihard remmen etc etc)? Ja, het liefst zou ik ze de auto uittrekken. Ik doe het niet, dat mogen ze vroeg of laat met hun verzekeraar regelen want een ongeluk staat op hun wens lijst.

Echter België heeft een ander probleem (of had, correct me if i'm wrong)
Dat is doordat er geen wegenbelasting is en alles omtrent auto rijden goedkoper is.
Oftewel iemand die net zijn rijbewijs heeft kan makkelijker een GTI rijden dan iemand in NL. En wat nodigt een GTI uit? Juist, hard rijden. Net iets wat een beginnende bestuurder niet zou moeten doen, en iets wat in NL gewoon duur is voor een jonge knaap is dat in BE een stuk goedkoper.

Het neefje van een goede vriend van me is 17, en rara wat hij al heeft? Een Golf 6 GTI met meer dan 400PK, JA! meer dan 400PK.
Nu is hier het voordeel: hij mag nog niet rijden zonder een ervaren bestuurder ernaast. Oftewel hij wordt gedempt door de gene naast hem (mijn kennis rijd al jaren in sportieve auto's en weet maar al te goed waar je mee moet opletten). Maar zo leert hij wel ervaring op te doen wat in mijn ogen een zeer belangrijk punt is.
Voorheen haalde je je rijbewijs en kon je direct alleen achter het stuur ( nu ook wanneer je 18+ bent ) maar dan heb ik meer vertrouwen in die knaap van 17 dan die van 18 of ouder wat zonder iemand ernaast de weg op gaat. Want je rijbewijs halen i peanuts, maar daarna begint het echte auto rijden pas.

Toen ik begon met rijden was het een Toyota Starlet P9 met maar 90PK. Dat nodigt niet uit om gek te doen want dat ding kan niet over de top gaan.
Die Golf GTI met meer dan 400PK (1x in gereden in Duitsland, en dat is gewoon TE voor een jonge knaap) is te gek voor woorden. In Nederland zie je het zo goed als niet gelukkig, maar in BE (ik heb in sittard-geleen gewoond, oftewel je komt elke week wel in BE / Maasmechelen om te tanken enz) zie je ze nog meer.

Zie je een Golf of een Franse auto? Altijd opletten!

[Reactie gewijzigd door LopendeVogel op 4 juli 2016 17:58]

Dat valt niet de berekenen want als de AutoPilot rijd dan rijd per definitie de bestuurder niet.
Dat is dus niet waar. Je bent geacht om als bestuurder altijd actief te rijden, ook als autopilot aan staat, oftewel je rijdt eigenlijk samen. Het is namelijk puur een hulpsysteem (net als cruise control en active lane assist). Als de autopilot iets verkeerd dreigt te doen moet je het sturen direct overnemen (door tegen de weerstand in te sturen) of remmen. Als je dat doet zal autopilot zich ook direct uitschakelen, omdat je dan zelf het sturen e.d. weer overneemt.

[Reactie gewijzigd door Cybje op 1 juli 2016 09:00]

Een AutoPilot is een (slechte) tussenstap naar een autonome auto. Maar moet ik bij een autonome auto ook continu klaar staan om in te grijpen? Wat heb ik er dan aan?

Tesla moet mensen niet de indruk geven dat het ding zelf kan rijden. Of hij rijdt zelf en ik hoef er niet naar om te kijken of het is een cruise control.
Tesla geeft mensen die indruk (dus dat het ding zelf kan rijden) helemaal niet, ik ben als bestuurder van een Model S prima geïnformeerd over de beperkingen, o.a. bij het inschakelen van autopilot. Dat alle andere mensen door verkeerde berichtgeving vanuit de media onjuist worden geïnformeerd is weer een ander verhaal...

[Reactie gewijzigd door Cybje op 1 juli 2016 09:25]

Het is exact hetzelfde principe als in de luchtvaart. Je kunt (nog) niet iets anders gaan doen, je gaat de auto monitoren in plaats van zelf besturen. Dat geeft jezelf meer rust, maar je bent zelf verantwoordelijk.

En de Tesla kan prima zelf rijden, alleen moet je nadenken waar en wanneer je het gebruikt. In een stad met fietsers? Nee, absoluut niet. Op een buitenweg, misschien. Op een snelweg, zonder tegenliggers etc, jazeker! Een file? Geweldig!

Overigens heeft Tesla niet voor niks dingen ingebouwd dat je zelf kunt monitoren wat de auto doet. De rijbaan wordt gepresenteerd op het scherm voor je neus, en ook de auto's die hij waarneemt rondom je, inclusief de relatieve afstand.
Ik rij liever zelf dan dat ik de hele tijd moet opletten dat me auto geen fouten maakt, lijkt mij iets meer ontspannen hoor.
Wanneer je auto zelf rijd ben je altijd geneigd even ergens anders naartoe te kijken, dat is dus niet aan te raden. Nja rij dan gewoon lekker zelf, is meer ontspannen lijkt mij zo. Een boekje erbij pakken mag dan al niet want je moet non stop opletten dat je auto niks raars doet of iets niet kan zien..
Die indruk wekt Tesla ook geheel niet, er wordt zoals altijd op z'n Amerikaans ontzettend uitdrukkelijk gewaarschuwd dat het systeem absoluut niet de bestuurder vervangt en niet meer dan een hulpmiddel is... het is dus idd een geavanceerde cruisecontrol.

Het vergelijk met een volledig autonome auto ontgaat mij een beetje, nu zijn de wetten eenmaal nog altijd zo dat jij als bestuurder verantwoordelijk bent. In het geval dat autonome auto's gemeengoed gaan worden zullen hier wijzigingen mbt aansprakelijkheid komen... en zolang een dergelijk systeem nog lang niet vrijwel geheel feilloos kan werken zal dat er nog niet komen, buiten dat de gehele kwestie mbt de discussie over aansprakelijkheid nog niet gevoerd is. Een systeem van autonome auto's kan eigenlijk ook alleen maar werken als alle auto's autonoom zijn.
Denk dat zo'n half/half situatie als nu meer problemen oplevert dan oplost. Marketing technisch is het een coole feature, mensen kopen het en verdedigen het zelfs met hand en tand. Maar in de praktijk let je op of je let niet op. Door niet aktief bezig te zijn met het autorij proces let je dus niet meer op.

Voor mij moet de auto het dus helemaal zelf regelen, of ik doe het wel. Voorlopig heb ik nog geen vertrouwen in de auto die het volledig zelf regelt, dus blijf ik even de baas.

Vind het verhaal dat de Tesla een witte vrachtauto niet ziet op een witte achtergrond ook wel heel slecht, dus het hele systeem leunt blijkbaar op een niet in alle situaties functionerende videocamera. Dit scenario had men ook wel kunnen bedenken dat dit voor zou komen, welke automobilist kent nu niet de zichtproblemen bij laagstaande zon bijvoorbeeld.
Je bent natuurlijk niet verplicht om het systeem in te schakelen als je niet een half/half situatie wilt. Ik vind het zelf wel erg prettig rijden, maar grijp wel direct in zodra ik het idee heb dat autopilot iets gaat (of al doet) wat niet logisch is, bijv. iets teveel naar de zijkant sturen. Ik wil niet het risico van een ongeluk nemen.

Ondanks dat je nog steeds heel erg moet opletten, is het wel een fijn hulpmiddel. In de praktijk rijdt autopilot veel gecentreerder in de rijstrook en zeker bij wind e.d. ben je niet meer zo bezig met het in het midden houden van de auto en merk ik dat ik veel meer energie overhoud om dus juist het verkeer in de gaten te houden. Daarnaast raak ik minder vermoeid en blijf dus überhaupt beter opletten, ook op kortere ritten van 15-30 minuten.

Ik ben het dus absoluut niet eens met jouw zin 'Maar in de praktijk let je op of je let niet op'. Ik denk wel dat er inderdaad mensen zijn die minder goed opletten met autopilot, maar dat geldt lang niet voor iedereen. En hoe vaak zie je dat ook niet bij auto's zonder autopilot? Soms zie ik echt meerdere mensen achter elkaar op de snelweg met hun mobiel spelen.
Regels werken pas goed wanneer IEDEREEN zich aan die regels houd. IMHO autonoom rijden werkt pas goed wanneer ALLE voertuigen autonoom rijden.

En ja, technologie kan en zal nog beter worden. En dus die "robot-"auto's zullen ook beter worden. Moeten we dan nu Tesla doodslaan? Komaan, geef die mensen op zijn minst de kans om hun systemen te verbeteren. Dat doet men in de vliegtuig-industrie ook. En als er een vliegtuig verongelukt zijn dat een pak meer slachtoffers dan nu 1 bestuurder.

Waarom ga je niet op dezelfde manier Fiat te lijf die na de overname van Chrysler die Jeeps slechter en slechter maakt OOK met dodelijke gevolgen! bron: http://hollywoodlife.com/...t-jeep-killed-actor-died/
Mij al 2x van een kop staart botsing van een auto die ineens vol in de ankers ging voor mij.
Dan wordt het wel eens tijd dat je zelf meer afstand bewaart zodat dit geen voorkomen is.
Zodat de voorstekers (allemaal achter elkaar) in het gat kunnen duiken dat jij veiligheidshalve aanhoudt? Dat werkt tegenwoordig alleen op banen met één vak. Je hebt helemaal gelijk hoor, ik hou zelf ook veiligheidsafstand. Maar ik kan net daarom gewoon niet wachten tot de dag dat AI verplicht wordt op onze wegen en in alle wagens die erover rijden. Al die voorstekers, risiconemers, afsnijders en egocentrische rotzakken mogen dan netjes in het rijtje blijven wachten op hun beurt en kunnen ze het concept van ritsen en respect ten opzichte van de medemens vanop de eerste rij waarnemen. Echt waar, zo beu dat ik het ben... :(

Hulde aan Tesla om zulke features te testen, dit is volgens mij de toekomst. Doden gaan we nooit kunnen uitsluiten vrees is ik, maar de statistieken tonen nu al aan dat het in ieder geval een pak minder zou zijn met AI.
Juist door die afstand, invoeger drukt op zijn rem ik zet net de radio op een ander kanaal.
Meningen zoals die van jou zijn de doodsteek voor zelf-rijdende auto's. Op de een of ander manier verwacht men dat de techniek perfect en onfaalbaar is, terwijl ik tegelijkertijd niemand hoor klagen over het feit dat mensen zo vreselijk faalbaar zijn dat er gemiddeld elke dag ruim één verkeersdode in Nederland is.

En in dit geval is de techniek een veiligheidssysteem: de bestuurder hoort op te letten. Er gaan ook mensen dood doordat hun ABS faalt of hun airbag het niet doet. Hopelijk wordt dat ook onderzocht, maar er kraait geen haan naar. Maar oh wee als het botsingsdetectiesysteem van een Tesla faalt.

Die techniek hoeft alleen maar het aantal verkeersdoden te verminderen, en dat lijkt al te lukken hoe zeer de techniek nog in de kinderschoenen staat. Als het aan mij lag dan verplichtte ik iedereen om zelf-rijdende auto's te rijden, want mensen kunnen niet auto rijden, en dan kan het me niet schelen of je het vertrouwt.
Op de een of ander manier verwacht men dat de techniek perfect en onfaalbaar is, terwijl ik tegelijkertijd niemand hoor klagen over het feit dat mensen zo vreselijk faalbaar zijn dat er gemiddeld elke dag ruim één verkeersdode in Nederland is.
Een zelf-rijdende auto zal inderdaad vrijwel perfect moeten zijn voor ik instap. Mensen mogen statistisch meer falen, maar ik ben geen cijfertje of "gemiddelde" mens.
Die techniek hoeft alleen maar het aantal verkeersdoden te verminderen
Nee, de techniek moet er voor zorgen dat ik zonder ongelukken van A naar B kan, niks meer of minder.
Dan kan je nog lekker dromen want de techniek zal er nooit voor zorgen dat je zonder ongelukken van A naar B kan, om de simpele reden dat er meer meespeelt dan alleen 'de techniek'. Je bent tenslotte niet de enige op de weg. Ik neem dus maar aan dat je ook nooit niet in een vliegtuig stapt, want oh nee die autopiloot techniek is niet perfect. En je rijdt ook niet in de trein. Oh je doet dat wel? Je bent dus hypocriet?

Zoals je nu en altijd zal zien ontstaan ongelukken doordat beide partijen een fout maken. Dezelfde techniek in dezelfde auto heeft dezelfde man al eerder gered van een ongeluk, maar uiteindelijk gaat het altijd een keer fout.
Tuurlijk, de dag dat er ALLEEN nog maar zelfrijdende auto's zijn.

Maar ja daar gaan verzekeringsbedrijven niet gelukkig mee zijn, of ziekenhuizen of al die anderen parasieten die nu profiteren van het drukke woon-werk-verkeer (en die je niet op Tweakers.net ziet). Wat als door zelfrijdende auto's er morgen geen snelheidsboetes meer worden uitgeschreven? Ondertussen heeft de comisaris wel graag zijn of haar bonus.. of gaan die met plezier inbinden omdat de wereld veiliger is?
Dan nog niet.
Je blijft de factor weer (ijzel/aquaplaning) en technisch falen (klapband ed) houden.
Ik weet niet of je bekend bent met wat autopilot precies is? Het is namelijk een combinatie van adaptive cruise control en active lane assist, met wat extra slimmigheden zoals dat je van rijstrook kunt wisselen. Het heeft eigenlijk maar heel weinig te maken met de echt zelfrijdende auto (zoals Google wel heeft). Zo kan de Tesla niet eens schuin achter zich kijken om voor het van rijstrook wisselen te controleren of er een andere auto aan komt op die rijstrook.

Het is heel logisch dat autopilot heel veel situaties niet aan kan, daar is het gewoon niet op geprogrammeerd.

Daarnaast dien je als bestuurder gewoon continu op te letten en autopilot puur als hulpsysteem te gebruiken. Tesla waarschuwt daar aan alle kanten voor, zelfs elke keer opnieuw bij het inschakelen van autopilot. Als mensen dat soort waarschuwingen negeren (en ik weet niet of deze bestuurder dat heeft gedaan, maar er zijn er genoeg die het wel doen) en er gaat iets mis, dan is dat echt hun eigen schuld. Ze moeten zelf ingrijpen namelijk als de autopilot niet ingrijpt.
Zo kan de Tesla niet eens schuin achter zich kijken om voor het van rijstrook wisselen te controleren of er een andere auto aan komt op die rijstrook.
Zeker wel.

Niet met radar dus niet op lange afstand maar mijn Tesla weigert van baan te wisselen als daar een auto rijd. Alleen op de Autobanh met zeer grote verschillen in snelheid kan dat mogelijk een probleem zijn, in normaal verkeer vrijwel nooit.
Dat leek mij ook al. Als ze max 5 meter om zich heen kijken kan dat in Duitsland op sommige stukken toch echt problemen geven. ook hier op de snelwegen in de avond waar sommige het nodig vinden het gas in te trappen tot 150-170kmh.

Het lijkt me echter fantastisch om zo naar Zaandam(nl) te rijden vanuit Aalst(be) op die saaie stukken snelweg. E ja je bent nog wel aan het opletten op wat de auto doet en het verkeer maar je bent toch iets rustiger.
Ik bedoel ook iets meer dan de 5 meter schuin achter je, wat de limiet is van de ultrasonische sensoren die de Model S op dat punt gebruikt. Met een snelheidsverschil van 20 km/u legt diegene links schuin achter je al elke seconde meer dan 5 meter af en is het dus eigenlijk een nutteloos systeem op de snelweg. Het is puur om de gevaarlijkste situaties te voorkomen (dus als je een auto in je dode hoek niet ziet bijvoorbeeld).

Edit: dit moest een reactie zijn op @falconhunter

[Reactie gewijzigd door Cybje op 1 juli 2016 10:18]

Toch bedankt :) Het lijkt me super om mee te rijden. En natuurlijk moet je toch enigszins actief blijven en opletten om zulke ongelukken te voorkomen. Maar diezelfde ongelukken gebeuren met gewone auto's ook als mensen het snelheidsverschil niet kunnen inschatten.
Ik heb dat zelf ook wel eens voor, zeker in het donker.
Pas maar op: want die Hollanders hebben anders wel pap van hun traject-systemen!!! Vorige maand naar Koog-a/d-Zaan (computerbeurs) en op terugweg op de A10 geflitst op een 4-baansautosnelweg waarbij die klootzakken tussen 2 stukken van 90KM een stukje van 80KM/u hebben MET traject-controle! Dit is puur pesterij! Ik doe dat traject al jaren, nooit boetes gehad maar nu wel! En denk je nu echt dat ik met 4 mensen en een volle kofferbak met waardevol computermateriaal ga zitten racen?

Ik ben er nog niet goed van!
Dat is inderdaad een grote frustratie. Ik rijdt dit toch wel geregeld gezien mijn moeder nog in Zaandam woont en ik daar ben opgegroeid. Die trajectcontrole slaat inderdaad helemaal nergens op. Ze zijn ermee bezig om dat te veranderen maar er is een actiegroep tegen. Omdat de omwonenden? *enkel weilanden in de omtrek* Maar goed, ik ken het stuk goed genoeg en ik weet nog niet of ik via Utrecht of Rotterdam ria rijden, dat is altijd een 'last minute call' (als er geen file staat op één van de routes) Het houd het leuk voor de mensen die meerijden :)
Ik weet niet of je bekend bent met wat autopilot precies is? Het is namelijk een combinatie van adaptive cruise control en active lane assist, met wat extra slimmigheden zoals dat je van rijstrook kunt wisselen
Feitelijk is het dus geen autopilot. Waarom noemt Tesla het dan zo? Het gebruik van die naam roept verwachtingen op.
De benaming autopilot is toch juist wel heel accuraat? Het is eigenlijk net als het bekende autopilot van een vliegtuig: het is niet meer dan een hulpsysteem, maar de piloten moeten wel klaar staan om zelf de controle over het vliegtuig over te nemen.

Dit is wat Wikipedia schrijft over autopilot in het algemeen en dat is eigenlijk ook exact hoe je Tesla autopilot moet zien: An autopilot is a system used to control the trajectory of a vehicle without constant 'hands-on' control by a human operator being required. Autopilots do not replace a human operator, but assist them in controlling the vehicle, allowing them to focus on broader aspects of operation, such as monitoring the trajectory, weather and systems.
Je komt in een vliegtuig met autopilot heel ver, het werkt met coordinaten en het is veruit superieur aan de "autopilot" in de Model S, die kan nog lang niet zoveel, dat is een functie in ontwikkeling. Ze hebben hem alvast autopilot genoemd, maar dat is vooralsnog voorbarig en daarom ook wat misleidend.
Mijn reactie gaat over het feit dat de definitie van autopilot is dat het puur een assisterend systeem is, net zoals dat in het vliegtuig ook een assisterend systeem is. Uiteraard is het in een vliegtuig vele malen verder doorontwikkeld en ook heel veel redundanter uitgevoerd.

Ik probeer geen wedstrijdje te maken tussen de autopilot in de auto en in een vliegtuig. Daar komt ook veel te veel bij kijken; aan de ene kant is autopilot voor een vliegtuig veel complexer, aan de andere kant is die voor een auto ook aardig complex (zoals dat je veel meer afhankelijk bent van wat andere weggebruikers doen).
Tesla waarschuwt daar aan alle kanten voor, zelfs elke keer opnieuw bij het inschakelen van autopilot.
De computer van mijn ouders waarschuwt hen óók altijd wanneer ze weer eens ik-weet-niet-wat installeren. Toch wordt er altijd braaf op "OK" en "Doorgaan" geklikt. Er komen zoveel schermpjes voorbij dat mensen de waarschuwingen gaan negeren.

Tesla kan dus ook letterlijk teveel waarschuwen.

Tegelijk maakt Tesla reclame voor hoe goed en handig het systeem is. Dat het veiliger is dan waar de mens zelf toe in staat is. (M.a.w. vertrouw op het systeem, dat is beter dan jijzelf. Je zou de conclusie kunnen trekken: grijp niet in ! Het systeem weet het beter dan jij.

Ik vermoed dat die waarschuwingen aanduiden dat ze het zelf ook nog niet helemaal vertrouwen en vooraf hun straatje schoon willen vegen.
Ik denk dat Tesla op slinkse manier een autonome auto aan het ontwikkelen is door steeds meer functies toe te voegen aan de AutoPilot, terwijl ze continu roepen dat mensen zelf verantwoordelijk zijn en moeten opletten.

Maar op een gegeven moment is de software 'klaar' en dan zullen er nog steeds doden vallen. Ik heb al voorspeld dat er grote onrust gaat ontstaan als een autonome auto een kind doodrijdt.
Ik blijf het herhalen. Die autonome systemen werken pas echt goed wanneer IEDEREEN autonoom rijdt.
Ik blijf het herhalen. Die autonome systemen werken pas echt goed wanneer IEDEREEN autonoom rijdt.
Ook dan kan een bug in software voor een botsing zorgen.
Dat is niet per se zo. Zelfs niet als de systemen samenwerken. Dat introduceert de mogelijkheid van timingverschillen, wachttijden door synchronisatie van acties (anders onstaan er race conditions).

Technisch zijn er nog heel veel problemen op te lossen en sommige zullen niet oplosbaar blijken.
De Tesla kijkt wel degelijk schuin naar achter en zal een opdracht tot lane change zelfs weigeren in die gevallen.

camera, radar, ultrasonics en GPS. vullen elkaar aan.
Ja zie mijn tweede reactie, hij doet dat maar voor 5 meter. Ik doel echt op schuin naar achteren wat verder weg (dus niet bijv. de dode hoek), zodat hij een auto op de linkerstrook dat aan komt rijden aan zou zijn komen. Zo'n voertuig komt met een snelheidsverschil van 20 km/u al 5+ meter per seconde dichterbij.
De achteruit camera neemt dit soort bewegingen wel waar en zal deze meenemen in de aansturing. Dat is bijv bij de Nissan met active assist niet anders. Ook daar wordt de camera info gebruikt als aanvulling op de info.
De beslissing tot lane change is echter een menselijk en dus ben en blijf je verantwoordelijk voor de gang van zaken. Als jij 100 km/u rijdt op de Duitse Autobahn en er komt net een Zonta aan met 300Km/u dan heb je toch een probleem bij wisselen van rijstrook.
Die Zonta zou bij achterop rijden overigens wel de schuldige partij zijn.. je dient immers altijd rekening t ehouden emt situaties.
Net zoals in bovenstaande situatie de vrachtwagen de schuldige is en niet de tesla. Het is die chauffeur die een grove fout maakt.
Dat is jammer genoeg niet het geval, de achteruit camera wordt helemaal niet gebruikt in het autopilot systeem. Er zit helemaal geen chip aan gekoppeld om de beelden te verwerken, zoals bij de camera aan de voorzijde wel het geval is.

Het plaatje bij dit bericht is een heel accuraat plaatje over wat de autopilot ziet: https://ic.tweakimg.net/ext/i/imagenormal/2000553710.jpeg

Aan de zijkanten en achterzijde heb je dus alleen die 'bubbel' die door de ultrasonische sensoren wordt gecreëerd en halen maar tot 5 meter afstand.

Anders moet je maar eens Google loslaten op de artikelen van wk057, die heeft het hele autopilot systeem uitgebouwd en later ingebouwd in een Tesla die oorspronkelijk geen autopilot had (dus dat wat Tesla zelf als onmogelijk gaf). Daar staat wel vrij interessante technische informatie in.
De wereld is op dit moment nog te complex voor computers om daar onder alle omstandigheden goed te navigeren en te rijden.
100% mee eens. Helaas is dat ook zo voor mensen, ik denk dat de 1.25M doden in het verkeer jaarlijks (https://en.wikipedia.org/...raffic-related_death_rate) dat wel voldoende aantonen.

Oftewel liever iets dat 125k doden veroorzaakt dan de huidige 1.25M doden (en dat zijn oude statistieken. Nu loopt het aantal doden wel terug in ontwikkelde landen, maar ik vermoed dat dat teniet wordt gedaan door toename van auto's in andere landen).
Overigens dat staat er los van dat ik geen vertrouwen heb in semi-autonome oplossingen qua veiligheid: Of volledig autonoom of helemaal niet, maar je moet niet eisen van bestuurders om continue op te letten zonder daadwerkelijk iets te doen.
Er waren diezelfde dus nog zo'n 100 dodelijke ongelukken in de VS.

Maar ja, dat is "normaal".

De verkeersfout bij dit ongeluk lijkt overigens volledig bij de vrachtwagen te liggen. De Tesla-bestuurder had nog kunnen uitwijken/remmen, maar is een slachtoffer.

Maar laten we vooral de dader negeren als we een computer de schuld kunnen geven!

Mijns inziens: als de vrachtwagen ook een autonoom systeem had gehad, was het hele ongeluk in de eerste plaats niet gebeurd.

[Reactie gewijzigd door Keypunchie op 1 juli 2016 09:31]

Ik snap niet dat jullie hier niet snappen dat er een groot verschil is dat iemand om het leven komt door een menselijke fout of door een software fout.

Een mens is wilsbekwaam, een autonome auto niet.
Naar mijn mening is de man helemaal niet omgekomen door een softwarefout.

De trucker had voorrang moeten verlenen.

De automobilist had mogelijk nog in kunnen grijpen, mogelijk niet.

De software is technologische ondersteuning van de bestuurder.

Maar net zoals je niet in een sloot moet rijden omdat je GPS zegt dat er daar een weg is, kan je de obstakeldetectie niet blindelings vertrouwen. Denk ook dat er niemand is die zich maar even in Tesla's systeem en beperkingen verdiept en dat wel doet.
Ja maar, had had had.

Hoeveel keer maak jij je boos op de weg omdat iemand de verkeersregels niet naleeft en zus of zo doet? Veeeeeeel. Dat is het probleem bij de autonome voertuigen: zolang er idioten mee in het verkeer mogen rondrijden gaat dat nooit goed lukken.

Of er zou een autopilotversie moeten komen met een "jerk" modus :P
Eindelijk iemand die het snapt!
De situatie waar dit dodelijke ongeluk plaatsvond was mijns inziens zeer eenvoudig en zou door een menselijke bestuurder vrijwel zeker niet tot een dodelijk ongeluk hebben geleid. Ik vind het daarom niet relevant of zelfrijdende auto's nou minder verkeersdoden opleveren.

Natuurlijk maken mensen ook fouten maar ik denk dat met autonome auto's elke dode er één teveel is omdat het niet een mens is die de fout is maar de fabrikant. Wat je uiteindelijk gaat krijgen is dat fabrikanten aan de overheid gaan zeggen: 'met onze auto's zijn er minder doden dan met menselijke bestuurders dus willen wij dat wij niet aansprakelijk gesteld kunnen worden voor de doden die er WEL vallen door onze software.'
Ik vind het daarom niet relevant of zelfrijdende auto's nou minder verkeersdoden opleveren.
Die 1.25M verkeersdoden die er jaarlijks vallen en hun nabestaanden zijn het daar waarschijnlijk niet mee eens. Ik overigens ook niet. En natuurlijk moeten we dan niet zeggen zodra we met autonome auto's op 1.24M verkeersdoden zitten dat we goed genoeg bezig zijn. Maar ik heb ook niet het idee dat het beter is om door een mens doodgereden te worden dan door een autonome auto waar mogelijk de fabrikant een fout heeft gemaakt (wat uiteindelijk ook gewoon mensen zijn).
Ik denk dat je zal zien dat mensen het onaanvaardbaar vinden dat er doden vallen door een software fout, ook al zijn het er minder.

En fabrikanten willen natuurlijk geen claims aan hun broek voor al die doden dus willen ze gevrijwaard worden van aansprakelijkheid. Dat kan gewoon niet.
Natuurlijk wil een fabrikant dat. Net als gigantische winstmarges en geen concurrentie. Maar een fabrikant wil wel meer. Hoe is een autonome auto anders dan een reguliere auto? Daar kunnen ook doden vallen doordat bijvoorbeeld remmen weigeren. Dit zal bij een autonome auto dan ook exact hetzelfde behandeld moeten worden mijn inziens: ongelukken gebeuren, en fouten moeten worden opgelost. Is er echter sprake van echt nalatigheid van de fabrikant, dan is die er voor verantwoordelijk.

Maar we moeten het allemaal niet lastiger proberen te maken dan het is. Toen ze van paard en wagen naar een auto overschakelde vroegen ze zich waarschijnlijk ook af wie er verantwoordelijk is bij een ongeluk door een technisch defect, en dat is ons allemaal ook gelukt.
Als er doden vallen door een ontwerpfout dan is de fabrikant altijd aansprakelijk, ook als er geen nalatigheid in het spel is.

De software zal vaak niet goed werken en daardoor zullen duizenden doden vallen. Dat kost fabrikanten miljarden aan claims en dat zullen ze proberen te ontduiken door een 'deal' te sluiten met de overheden dat zij gevrijwaard worden van claims.
De situatie waar dit dodelijke ongeluk plaatsvond was mijns inziens zeer eenvoudig en zou door een menselijke bestuurder vrijwel zeker niet tot een dodelijk ongeluk hebben geleid.
Onwaar, aangezien Tesla's Autopilot niet ter vervanging is van zelf besturen, maar als aanvulling daarop. In ieder geval hoe het nu is. Er was dus een menselijke bestuurder en die heeft niet ingegrepen, en dus is hij het zelf schuld. Dat de tractor daar niet op dat moment over had mogen steken is een ander verhaal. Maar je bent nog altijd zelf verantwoordelijk en je kan dus ook niet 100% op dit systeem vertrouwen.
Ik heb niets aan een AutoPilot als ik steeds continu klaar moet staan om te corrigeren als hij het weer eens niet snapt. Dan rij ik liever zelf!

[Reactie gewijzigd door ArtGod op 1 juli 2016 08:35]

Je moet ook zelf rijden. Autopilot is nu als ondersteuning, niet als vervanging. Zo moeilijk is dat toch niet om te begrijpen?
Kennelijk voor veel mensen wel, anders was dit ongeluk nooit gebeurd.
Dus dit soort ongelukken gebeurt alleen met auto's die zelf kunnen rijden?

Ik snap dat je enige weerstand hebt, en mensen zijn aartsconservatief, zeker qua autorijden, maar een dergelijk systeem kent eigenlijk alleen maar voordelen.

Maar mensen moeten er ook nog aan wennen, en het zien als een toevoeging.

Ik vraag me af hoeveel ongelukken dit systeem heeft voorkomen in de afgelopen jaren, mensen letten namelijk ook niet op als ze een normale domme auto hebben.
Ja, dat is een conclusie die je kan trekken ja. De bestuurder is gewoon ten alle tijden verantwoordelijk. Je kan het toch niet afschuiven op Tesla, omdat zij het rijden veiliger maken? Ik heb zo'n vermoeden dat als je de cijfers erbij pakt, dat de autopilot vaak heeft ingegrepen en dus een veilige stop heeft gemaakt, wat niet gebeurd was wanneer het systeem er niet was.

Zoals in het bericht staat heeft de Tesla 1 dodelijk ongeluk op 200 miljoen km, waar het gemiddelde op onder 100 miljoen km ligt. Als nou de bestuurder wel had opgelet, dan had ook dit ongeluk niet gebeurd en was de combinatie van mens en machine nog veiliger geweest.
Als die camioneur de REGELS had gevolgd en voorrang had gegeven aan die auto, die eigenlijk voorrang had, DAN was er niets gebeurt. Waarom probeert men toch altijd de verantwoordelijkheid af te schuiven op techniek! Er zijn verkeersregels. DIE moet je volgen of je nu een zelfrijdende wagen hebt of niet. Een autonoom systeem zal zich veel gemakkelijker aan de opgelegde (en ingeprogrammeerde) regels houden. Probleem is dat sommige menselijke chauffeurs die regels aan hun laars lappen met dodelijke gevolgen. Daar kan een zelfrijdende wagen ook niets aan doen!
Nou dan gebruik je het toch niet? Er is expliciet aangegeven dat het momenteel als aanvulling dient en je gewoon op hoort te blijven letten.
Ik heb niets aan een AutoPilot als ik steeds continu klaar moet staan om te corrigeren als hij het weer eens niet snapt. Dan rij ik liever zelf!
Heb jij alle hulpsystemen in je auto uitstaan?
Inderdaad. Hoe vaak mijn ABS niet ingegrepen heeft wanneer ik weer eens een noodstop door een idioot (met 80/90 plots naar links komen op een snelweg!) moest maken.

Of dat de weg kletsnat is, je moet remmen voor een file en je grip zou verliezen zonder ingreep van de ABS.
Maar dat is erg makkelijk te zeggen, dat hier een ongeluk van zou komen. Dat was onvermijdbaar. Kijk maar naar het begin van de auto- of vliegtuighistorie. Daar zijn ook niet bepaald weinig ongelukken gebeurd. Alsnog heel erg triest van dit ongeluk, elk ongeluk eigenlijk.
Waar ik op duidde is dat het onvermijdbaar is dat mensen andere dingen gaan doen, terwijl zo'n AutoPilot gewoon toezicht nodig heeft.

Dat maakt het systeem ook onbruikbaar want wat heb ik aan een zelftijdende auto als ik op elk moment moet kunnen ingrijpen (kijk maar eens de video's op Youtube over de AutoPilot hoe vaak mensen moeten ingrijpen)?

De vliegtuig industrie is niet te vergelijken. Een vliegtuig heeft een groot nut maar een auto kan gewoon al bestuurd worden door een mens. Het is niet zinnig om levens op te offeren om computers praktijk ervaring op te laten doen met besturen van een voertuig.

[Reactie gewijzigd door ArtGod op 1 juli 2016 09:51]

Maar dit is geen zelf rijdende auto. Er zitten veel toeters en bellen op die de bestuurder helpen met rijden, maar een bestuurder is nog steeds noodzakelijk. De auto kan veel zelf doen in de autopilot stand, maar het is niet te vergelijken met een echte autopilot zoals in een vliegtuig. Geef de technologie nog een jaar of 5/10 en dan zullen er auto's uitkomen met een echte autopilot waarbij de bestuurder niet meer noodzakelijk is.

Bij dit ongeluk was het dus een fout van de bestuurder aangezien Tesla duidelijk aangeeft dat hun autopilot systeem geenszins een vervanging is van een bestuurder, alleen een aanvulling. Al hint Tesla er wel op dat de Tesla X in de toekomst wel een autonome auto kan worden met software updates.
Mensen doen nu ook andere dingen, alleen let de auto niet op.

Je denkt volgens mij dat bestuurders in domme auto's constant alert zijn en dat alle bestuurders in slimme auto's continu de krant aan het lezen zijn.
Dat mensen om het leven komen door hun eigen fouten wordt geaccepteerd. Mensen kunnen ook aansprakelijk gesteld worden als zij iemand anders letsel toedoen door nalatigheid. Een auto is een ding en alleen de fabrikant kan aansprakelijk worden gesteld. De bestuurder van een autonome auto kan altijd zeggen dat hij / zij niet reed.
Jij roept dat dat geaccepteerd wordt un algemene zin maar volgens mij projecteer je je eigen ideeen daarover naar de rest van de samenleving.

Als straks 90% van de auto's deze functies hebben is het precies andersom, foutje van de auto wordt geaccepteerd (zullen er aanzienlijk minder zijn tegen die tijd in verhouding) en dan wordt zo'n mafklapper die denkt het zelf beter te kunnen afgeserveerd.
Ik zal de laatste zijn om te zeggen dat dat niet gaan gebeuren, maar ik denk dat het nog wel een tijdje duurt. Willen we in de tussen tijd zoveel doden accepteren door software fouten? Ik denk van niet.
Dan kunnen we beter stoppen met alle soorten van vervoer. Dagelijks maken mensen brokken, om wat voor reden ook. In wat ben je in het gelijk gesteld? Dat er in het verkeer ongelukken gebeuren? Tsja, gefeliciteerd met je gelijk..

Dat mensen andere dingen doen heeft niets te maken met autopilot, dat doen ze namelijk ook zonder.
Nee, want we accepteren het als mensen fouten maken en dat het hun leven kost. Als andere mensen fouten maken en dit leidt tot de dood of verwonding van een ander persoon dan zijn zij aansprakelijk.

Maar als een autonome auto een ongeluk maakt dan is feitelijk de fabrikant aansprakelijk. Tesla ondervangt dit nu door steeds te roepen dat de bestuurder verantwoordelijk is maar dan mogen zij niet de indruk geven dat de auto zelf kan rijden.

Het is nog juridisch niet bewezen dat de fabrikant aansprakelijk is in een autonome auto. Ik vermoed dat fabrikanten onder de aansprakelijkheid uit zullen proberen te komen door een 'deal' te sluiten met de overheden.
Zolang er nog een stuur en rempedalen in de auto zitten is de bestuurder te allen tijde verantwoordelijk. (punt)

Anders zou bij adaptive cruisecontrol ook de contructeur aansprakelijk zijn, en dat is niet zo.
Adaptive cruisecontrol is wat anders dan een autonome auto. Nu wordt het nog gebracht als zijnde een hulp-functie maar op een gegeven moment wordt het onduidelijk of de auto nou rijdt of de bestuurder, omdat de auto bijna alles zelf kan.
Wow, tesla heeft autonome autos?! Als dat zo is zou je een punt hebben.
Helaas heeft Tesla nog laaang geen autonome, in plaats daarvan hebben ze autopilot. Net als met vliegtuigen is dat eigenlijk geen automatisch piloot, maar puur een hulp middel...

Overigens hebben de meeste bedrijven al duidelijk gemaakt dat bij autonome autos de fabrikant de schuld heeft.. [voorbeeld]
Ik heb nog veeeel minder vertrouwen in mensen (die heeeeeel veel tekortkomingen hebben). Als ik nu een berichtje post van een dodelijk ongeluk veroorzaakt door een mens (kan er zo honderden vinden!) heb je dan ook geen vertrouwen meer in de mens? En dan? Niet meer het vervoeren toestaan?

Dus tja, als het kiezen is tussen twee kwaden: Dan voor mij die autopilot. De cijfers spreken voor zich.
Ik heb zelf geen Tesla, maar wel een auto met zogenaamde Adaptive Cruise Control. Voorin de bumper zit een radar die voor de auto kijkt. Als verkeer voor je remt, remt mijn auto ook. Als het verkeer versnelt, versnelt mijn auto ook, tot aan de ingestelde snelheid.

Gebruik ik het vaak? Ja, bijna iedere rit (35.000 km per jaar/115.000 totaal) staat het een deel van de weg aan. Soms kort, soms wel 100 km. Het is een ideaal systeem voor in de file en als het redelijk rustig op de weg is. Er zijn situaties waar het niet geschikt is om aan te zetten. Ook zijn er situaties die het systeem niet kan ondervangen. Een stilstaande file waar je met 120 op af rijdt is zo'n situatie. Een noodstop vóór je is ook een uitdaging voor het systeem.

Aan de andere kant is het ook wel eens voorgekomen dat ik even werd afgeleid en het systeem mij piepend attendeerde op naderend gevaar. Als je in de file even oogcontact wil met de blondine in de auto naast je zet je het ook even aan. Je weet dat je dan niet voor je hoeft te kijken, het systeem redt zich prima.

Bottom line : ja het is een heel erg fijn systeem. Maar het heeft altijd beperkingen. Daarom ontslaat de activeer-knop je niet van je taak om op te blijven letten. Daar wordt door Tesla altijd op gewezen, en gecontroleerd. Dat je zelf dan besluit om niet op te letten is vragen om een Darwin award.

Het is natuurlijk heel triest voor het slachtoffer en zijn familie. Ook voor de vrachtwagenchauffeur. Die zat fout en had voorrang moeten geven. Door zijn toedoen is er nu een persoon overleden. Het slachtoffer had er blijkbaar bewust voor gekozen om zijn taak (het besturen van de Tesla) geheel over te laten aan de auto zelf.

In mijn ogen is de chauffeur voldoende gewaarschuwd door de auto, maar heeft hij bewust de waarschuwingen genegeerd. Waarschijnlijk omdat het in het verleden altijd goed ging. Dat is niet de fout van Tesla.
Kans is groot dat met elke menselijke chauffeur je identiek hetzelfde resultaat had gekregen.

Heel misschien is er dan nog de kans dat de chauffeur in zo een geval zijn hoofd nog wat kan intrekken - maar als je daar al op moet gaan rekenen.

Het is zelfs zo dat als beide voertuigen uitgerust geweest waren met autopilot dat het ongeluk nooit was voorgevallen.
Ik weet ook dat er met "handmatig" bestuurde auto's ongelukken komen en wordt dus ook in het gelijk gesteld.
Wat een "dooddoener" zo'n opmerking.
Ik blijf me verbazen over de vaak conservatieve instelling op Tweakers.
Als iedereen zo dacht reden we nu nog met paard en wagen en rekenden op een telraam en gebruikten postduiven voor berichten.
Nieuwe technieken verstandig en voorzichtig benaderen is wat anders dan "gelijk" willen hebben.
Je vergist je vreselijk, want ik ben helemaal niet conservatief. Maar ik heb twijfels of een computer wel de complexiteit van het verkeer aan kan op dit moment. Ik zeg totaal niet dat een computer het in de toekomst niet zal kunnen (sterker, ik geloof heilig dat ooit een AI slimmer dan een mens zal zijn) maar ik weet gewoon dat mensen fouten van machines die levens kosten niet gaan accepteren. Fabrikanten proberen steeds de verantwoordelijkheid af te schuiven op de 'bestuurder' ook al rijdt de auto 99% gewoon zelf.
We zullen maar best wachten op de resultaten van het onderzoek. Volgens de VRT site zou het komen door het felle licht.
http://deredactie.be/cm/vrtnieuws/buitenland/1.2700853

Ik mag hopen van niet, want dan zou het systeem gewoon slecht zijn. Ik hoop echt dat het niet door 1 sensor fail is. Google heeft trouwens een indrukwekkend filmpje waar uitgelegd wordt hoe hun technologie werkt.
https://www.youtube.com/watch?v=Uj-rK8V-rik
Op 11:20 kan je bijvoorbeeld zien waar de gps denkt dat de auto rijdt.

De vraag is of er in de toekomst iemand een scrambler kan bedenken die de sensoren van een auto iets helemaal anders kan doen denken. Het is niet perfect, maar ik wil dat deze technologie werkt.
Topfilmpje. Geeft ook duidelijk aan dit dit accident niet had kunnen gebeuren met de technologie die Google gebruikt. Ik heb echter het gevoel dat ze daar zo lang aan het wachten zijn tot 'het klaar' is dat ze het momentum wel eens zouden kunnen verliezen ....

Het filmpje legt ook duidelijk uit dat Tesla zijn implementatie een groot menselijk risico inhoudt. Hoe groot de warning signs ook zijn, men wordt lui achter het stuur. Je kan niet verwachten dat alles voor jou gebeurt en je nog steeds superalert blijft.

Had musk nu gewoon Lidars geproduceerd op de scale van zijn batterijen had ie elke Tesla van één kunnen voorzien en was dit ongeval met grote zekerheid niet gebeurd.

Nuja zolang er in de komende 6 maand geen 2 nieuwe dodelijke ongelukken plaatsvinden is er niks aan de hand .... thats a gamble that big-balls musk is willing to take... (btw, ik blijf een eeuwige fan van musk/tesla hoor)

[Reactie gewijzigd door ebx op 2 juli 2016 22:14]

Volgens het artikel op de NOS site over dit ongeval had de chauffeur van de truck die bij het ongeluk betrokken was, verklaard dat de bestuurder van de Tesla een film zat te kijken.
Hij kan dat alleen weten als hij de tesla goed heeft gezien en toch geen voorrang heeft verleend.
Na een ongeluk ga je kijken bij het slachtoffer en als de film dan nog speelt (op de mobiel bijvoorbeeld) dan kun je redelijkerwijs concluderen dat diegene niet met het verkeer bezig was.
Want dat kan onmogelijk achteraf na het ongeluk? Dat hij naar de tesla loopt en daar een film op de middenconsole ziet afspelen?

Dit ongeluk gebeurde omdat hij onder de trailer door reed, ik verwacht dus opzich niet al te veel schade aan de auto zelf naast een onvrijwillige ombouw tot cabriolet.
Ja, de bestuurder van de Tesla zou Harry Potter aan het kijken zijn geweest. De film zou nog doorspelen na de crash. De bestuurder zou ook zeer hard gereden hebben en pas een kwart mijl verder tot stilstand zijn gekomen. Dit blijkt ook uit de situatieschets van het ongeval. Je ziet dat de auto een heel stuk verder pas tot stilstand komt, pas nadat hij onder de trailer doorgereden is, van de weg af raakt, twee keer door een hek reed en vervolgens een lichtmast raakt en spint. De bestuurder was een bekende youtubeblogger die eerder een filmpje online plaatste waarop te zien is dat de Tesla uitwijkt voor een vrachtwagen die van baan wisselt.

https://www.autobahn.eu/1...filmde-eerder-close-call/
Ik zit regelmatig en een tesla en noodingrepen van de bestuurder op de autopilot komen regelmatig voor.

Statistisch gezien is er nog geen dode gevallen in Nederland en is de autopilot 100% veilig.

Iemand anders mag het onderwerp zijn van het veranderen van de statistische cijfers van de autopilot. Dat gaat 100% zeker gebeuren namelijk

Als ik achter het stuur zit moet je altijd opletten. De autopilot is statistisch alleen veilig met een hele waslijst aan disclaimers en bovendien zolang er verhoudingsgewijs slechts een klein deel van de gemaakte km mee wordt gereden

NB: Tesla's zijn prachtige auto's hoor, daar light het niet aan
Jij hebt duidelijk nog geen gebruik gemaakt van Tesla's autopilot. Die is levensgevaarlijk en heeft een eigenwil. Iets minder overdreven uitgedrukt; Je moet gewoon nog vaak ingrijpen.
Alsnog is het vrij overdreven, want iets als Autopilot wordt natuurlijk niet zomaar ingevoerd. Als iets levensgevaarlijk is, doen ze dat echt niet; daar worden grondige tests voor uitgevoerd

Maar opletten blijft altijd een hele belangrijke.

[Reactie gewijzigd door Danny.G op 1 juli 2016 09:35]

Het grote probleem dat ik met dat schema vooral zie is dat de autopilot gebruikt werd op een locatie waar deze niet voor ontworpen is. Tesla heeft zelf aangegeven dat de AP enkel gebruikt mag worden op de snelweg. Op andere wegen zal het meestal ook goed gaan maar er zijn nog te veel onbekenden/variabelen waarmee onvoldoende rekening wordt gehouden zoals we hier kunnen zien.
Dit soort wegen is het uitermate geschikt voor. 1 x per 30 km heb je zon afslag in veeeel staten. Dat wil niet zeggen dat je zelf niet met goed moet opletten natuurlijk.
Het grote probleem dat ik met dat schema vooral zie is dat de autopilot gebruikt werd op een locatie waar deze niet voor ontworpen is. Tesla heeft zelf aangegeven dat de AP enkel gebruikt mag worden op de snelweg. Op andere wegen zal het meestal ook goed gaan maar er zijn nog te veel onbekenden/variabelen waarmee onvoldoende rekening wordt gehouden zoals we hier kunnen zien.
Als Tesla rijder kan ik dit geheel onderschrijven. Ik rij veel handsfree maar zodra ik in een dergelijke situatie kom heb ik mijn handen gewoon netjes aan het stuur. Indien de bestuurder hier inderdaad handsfree gereden heeft is dat een inschattingsfout of een grote overschatting van de capaciteiten van de systemen.

Handsfree is voor de snelweg en zelfs bij een afrit en afslag moet je al alert zijn. Gebruik in een dergelijk complexe verkeerssituatie is totaal ongepast en gevaarlijk. Zoals bij vrijwel elk ongeluk lijkt het hier dus een inschattigsfout van de rijder.
De vraag is dan waarom je zo een systeem uberhaupt zou gebruiken. Vergelijk het een beetje met een cruise control. Als je zelf rijdt en laat het gaspedaal los vermindert je auto vaart. Bij een cruise control blijft je auto nog gedurende de reactietijd aan dezelfde snelheid doorrijden.

Als ik het zou kunnen gebruiken zou ik zelf heel snel afgeleid zijn.
Ik weet niet of je ooit een Tesla S van dichtbij hebt gezien? Ze zijn zo breed als een bus en van gewone sedan/stationwagon hoogte.

Het punt dat ik probeer te maken is: lijkt alsof de S de trailer van de vrachtwagen niet heeft gezien als zijnde onderdeel van de ervoorgaande truck cabine, maar als 2 aparte voertuigen met een ruimte ertussen.

Waarom denk ik dat? De truck cabine is best groot, dikke willen en laag bij de grond chassis shizzle. De trailer leunt op de achterkant van de truck waar die is bevestigd. Vervolgens heb je de trailer zelf tot aan de achterkant waar er weer een stuck omlaag naar de weg gaat voor een wiel blok. Volgens jouw link (ongeluk scene) is de Tesla S onder de trailer doorgegaan.

Omdat die er dus onderdoor is gegaan denk ik dat de Tesla het stuk tussen achterkant truck cabine en wielstelsel van trailer niet heeft gezien als voertuig, omdat het er "onderdoor keek".
Mijn eerste gedachte was ook dat de sensor de aanhangwagen niet gezien heeft van de truck.
Net omdat er geen zijkanten gemonteerd zijn in tegenstelling tot Europa.

Lijkt mij spijtiggenoeg dat de chauffeur niet alert was bij het rijden met de autopilot.
Tesla claimt verder dat de witte truck niet opgemerkt werd tegen de witte lucht erachter.
Of de autopilot het beter dan average doet is een bliksemafleider. Dat moet met een autopilot niet terzake zijn. Die moet het gewoon goed doen.

Die opmerking van Tesla zelf geeft aan dat het systeem een structureel probleem heeft.
Voertuigen met eenzelfde kleur als de achtergrond worden niet opgemerkt.
Voor mensen die niet graag en niet goed genoeg kunnen rijden, vind ik dat Autopilot functies nog steeds een VEEL betere optie is. Het zijn vaak toch deze mensen die de ongevallen veroorzaken en zoals je zegt, de cijfers zijn in het voordeel van de tesla.
5) Autopilot doet het statisch gezien beter dan average wat betreft dodelijke ongelukken.
Niet dat ik nou gelijk wil zeggen dat het systeem niet goed is, maar bovenstaand kun je volgens mij nog helemaal niet zeggen.
Uit dit artikel begrijp ik dat mensen gemiddeld eens op de 94 miljoen mijl een dodelijk ongeluk veroorzaken in de VS. Tesla Autopilot heeft pas 130 miljoen mijl gereden en is nu de eerste keer betrokken bij een dodelijk ongeluk. Dat is toch bij lange na niet genoeg om iets over de statistische kans te zeggen? Die 94 miljoen mijl is een gemiddelde he, ongetwijfeld zit daar ook wel eens 130 miljoen mijl of meer tussen twee dodelijke ongelukken, en een andere keer weer minder, zo werkt dat bij gemiddeldes. Bij slechts één gebeurtenis kun je domweg nog helemaal niks zeggen over wat de kans uiteindelijk wordt.
Hij zou volgens de truckchauffeur film aan het kijken zijn (niet officieel bevestigd).


http://www.autoblog.nl/ni...geluk-met-autopilot-88637
"Mogelijke verklaring: trailers in de USA hebben geen 'bars' aan de zijkant zodat auto's en fietsers er niet onder kunnen komen (zoals elke trailer hier dat wel heeft in de EU). "

Nee, dat is de keuze van de eigenaar/fabrikant van het voertuig. Dat is geen verplichting in de EU en ontbreekt dan ook in veel gevallen.

Het helpt ook niet tegen auto's, die zijn veel te zwaar. Bij fietsers kan het helpen.
Nee, maar die bars verschijnen wel op een camera/rader => obstakel
Kijk, DAT is tenminste fatsoenlijke informatie..
Vrij lage auto? Hij is 1.45 meter hoog. Vrijwel even hoog als een Mercedes C klasse. 6cm lager dan een Opel Astra. Voor je idee, een Audi A5 (ook geen echt lage auto) is 1.39 meter hoog. Tesla model S is qua hoogte gewoon een gemiddelde auto hoor.

Deze inschattingsfout van de autopilot is gewoon een triviaaltje. No way dat een menselijke bestuurder dit niet opgemerkt zou hebben.

Het niet hebben van bars aan de zijkant zal ongetwijfeld de autopilot op een verkeerd spoor hebben gezet. Maar goed, ik woon op het platte land en je wilt niet weten wat voor wonderlijke (landbouw)voertuigen en -aanhangers hier rondrijden die afwijken van de norm qua hoogte, breedte, plaatsing van wielen, uitsteeksels, etc...etc... Een autonoom systeem / autopilot zou dit allemaal gewoon moeten kunnen herkennen.

Maar goed, al dat gekke spul rijdt bij ons niet op de snelweg, en bovendien zijn bij ons de snelwegen zodanig ingericht dat je deze ook niet zomaar kunt oversteken. Is allemaal ongelijkvloers.
Dit was ook geen autosnelweg. Het is een gewone doorgaande weg (buiten de bebouwde kom vergelijkbaar met een 80km weg in NL). Snelheden van 40-65 mph. Als je op streetview kijkt, zie je dat er verderop een stopplaats van de schoolbus is. Alle reden dus om met gepaste snelheid te rijden.
...en zelf je ogen op de weg te houden.
Dat lijkt me erg verstandig :)
Even los van de schuldvraag, ik snap dat ze zeggen van "de bestuurders moet blijven opletten om zonodig in te krijgen als het moet". Maar als ik 10K veilige kilometers gemaakt hebt, ben je gewoon te laat als de auto in een split second niet doet wat jij verwacht dat de auto doet. Zelf ingrijpen zal vrijwel altijd te laat zijn. Ookal doe je je best.

[Reactie gewijzigd door Dacuuu op 1 juli 2016 08:24]

Ik denk dat dat een belangrijke opmerking is. Hoe realistisch is het om te verwachten dat chauffeurs alert blijven als het systeem al vele kilometers probleemloos functioneert, en je al die tijd dus eigenlijk niets hebt hoeven doen? Niet zo realistisch lijkt me. En dat is een probleem.

Dat ze nu schermen met "het is het eerste dodelijke ongeluk in 130 miljoen mijl, het gemiddelde is 94 miljoen mijl, en dus zijn we veiliger" is een drogreden. Allereerst is dit systeem alleen voor op highways, en die zijn sowieso al veiliger dan kleinere wegen (dat geldt hier, dat zal vast ook in de VS gelden). Dan betekent een N=1 observatie statistisch gezien helemaal niets. Je kan geen conclusies trekken uit het feit dat het 130 miljoen mijl goed gegaan is. Je zal minstens het tien of honderdvoudige aantal mijlen moeten afleggen om conclusies te gaan trekken; tot die tijd val je ruim binnen de statistische ruis. Voor hetzelfde geldt gaat het volgende week weer mis (laten we het niet hopen...) Pas als over langere tijd en een veelvoud aan km's blijkt dat het gemiddeld significant veiliger is, kan je conclusies gaan trekken.

Aan de andere kant is de opmerking van blissard hierboven dat het verbeteren van het systeem naar aanleiding van dit ongeluk wel direct impact heeft op alle Tesla-rijders wel een belangrijke. Mensen leren niet op deze manier van elkaar, en ik denk zeker dat (volledig) automatisch rijden de toekomst heeft en daarbij ook veiliger zal zijn dan menselijke bestuurders.

[Reactie gewijzigd door ATS op 1 juli 2016 12:47]

Ik denk dat mensen wel leren van elkaar. Hoe kun je nu niet emotioneel geraakt worden door een item in het journaal waar iemand een ander dood reed? Onlangs werd iemand veroordeeld tot zes jaar gevangenisstraf en de rechter vond zijn 'oprechte excuses' na eerdere incidenten niet erg aandoenlijk blijkbaar.

Als jij zoiets leest, of op tv ziet en je wordt er niet door geraakt dan ben je een psychopaat. En ik denk niet dat je een psychopaat bent want daarvan zijn er nog minder dan stoute bestuurders. Dus ik denk dat jij als mens wel degelijk geraakt wordt door zulke verhalen en dat dit in je onderbewustzijn gevolgen heeft voor je rijgedrag.

Dat is allemaal geen theorie. Dat is gewoon standaard geaccepteerde psychologie. Mensen beïnvloeden elkaar. Men leert en past op, omdat je een moreel mens bent. En streeft naar het goede.

Als je niet zo bent dan hoor ik het wel. Maar neem jezelf liever wat serieuzer. Je bent geen machine, kereltje.

Dus als het gaat om Tesla's die van elkaar leren doordat de software een upgrade krijgt of mensen die leren van een rechtszaak maakt geen verschil.

Maar ik weet zeker dat als we allemaal autonoom rijden, wat een inhoudelijke tegenstrijdigheid is, want niemands rijdt meer auto, de samenleving verhard en onverschilliger wordt en dat als gevolg daarvan, er op andere terreinen weer meer doden vallen, gewoon omdat niemand nog leert om verantwoordelijk te zijn.
Als jij denkt dat 'geraakt worden' door een tragisch ongeluk en jouw gedrag daarop aanpassen geaccepteerde psychologie is, mag je mij dat onderzoek aanwijzen. Als er íets tegenstrijdig is qua zeggen en doen, zijn het mensen wel. Precies hetzelfde principe is te zien bij privacy; wel belangrijk vinden maar niets ondernemen om die te behouden. Of milieubewust zijn; naar eigen zeggen om de natuur geven (en meedoen aan clickacties van Greenpeace), maar wel uitgebreid douchen, batterijen tussen normaal restafval gooien, ieder twee jaar een nieuwe tv kopen en een flinke 2-liter auto rijden.

Volgens eigen zeggen is iedereen een goede autorijder (vraag maar eens rond..), maar toch gebeuren er tientallen ongelukken per dag. Zelfs met het Nederlandse relatief hoge niveau van rijvaardigheid.

Geraakt worden door een ongeval is niets meer dan sociaal-psychologisch gedrag. Zoals je al zegt: als je níet geraakt wordt, word je gezien als gevoelloos. Daarna ga je weer over tot de orde van de dag. Tussen groepsgevoel en rationeel gedrag zit nog kilometers aan ruimte voor andere processen, om die 1-op-1 link te weerleggen.

Daarom snap ik ook niet dat sommige reacties hier zeggen; "ja maar, die vrachtwagen was fout. Die had geen voorrang". Er zijn in het verkeer tientallen situaties te bedenken waarin jij niet de schuldige bent, maar je andermans fouten wel moet anticiperen en opvangen. Dat snap je pas als je zelf een aantal jaren aan het verkeer deelneemt (in een auto welteverstaan). Als je serieus denkt zonder brokken jezelf te vervoeren door je letterlijk aan de regels en wetten te houden -en er vanuit te gaan dat anderen dat ook doen- kom je van een koude kermis thuis.
Het verschil tussen wat mensen zeggen en doen is niet hetzelfde als emotioneel geraakt worden door iets en daaruit een moreel sociaal-maatschappelijk of cultureel acceptabel gedrag vertonen.

Het is ook iets anders dan hypocrisie, waar je gedrag vertoont dat conflicteert met je mening of houding of je intentie.

In dit geval zou dat zijn dat je zegt te leren van de negatieve effecten die voortkomen uit de situatie maar niet het rijgedrag vertoont om die effecten te vermijden.

Mensen hebben aangeboren empathische vermogens, tenzij je psychopathisch bent. Het is vrijwel onmogelijk om niet emotioneel geraakt te worden door ellende en verlies van anderen. Als je op tv hoort dat het aantal zelfmoorden nooit zo hoog was bewijst dat genoeg; mensen worden emotioneel geraakt en lijden. Dat kan intrinsieke oorzaken hebben maar de omgeving speelt altijd een rol.

Als je denkt dat de wereld en wat zich daarin voordoet geen rol speelt in moreel of ethisch handelen, dan is dat geen zaak van hypocrisie maar van abnormale psychologie. En moreel gedrag en de factor wat anderen er van zouden zeggen speelt een rol, maar staat los van het feit dat de wereld je raakt. Het kan een additie zijn, een rechtszaak als een soort naming en shaming.

Als het geen rol speelt, waarom was er zoiets als de schandpaal?

Als motorrijder ben ik me bijzonder sterk bewust van het falen van andere weggebruikers voor mijn lijf en leden.
Ik denk dat mensen wel leren van elkaar. Hoe kun je nu niet emotioneel geraakt worden door een item in het journaal waar iemand een ander dood reed? Onlangs werd iemand veroordeeld tot zes jaar gevangenisstraf en de rechter vond zijn 'oprechte excuses' na eerdere incidenten niet erg aandoenlijk blijkbaar.
Ja, mensen leren. Maar ik zei "Mensen leren niet op deze manier van elkaar". Als mensen echt goed van elkaar zouden leren, dan zou niemand expres door rood gaan, zou niemand te hard rijden en zo niemand meer met alcohol op gaan rijden. Immers: er zijn vele voorbeelden waarbij dat de oorzaak was van een ongeluk. Waarom gebeurt het dan nog steeds zo vaak? En hier gaat het om een heel specifieke situatie. Denk je serieus dat dit ene ongeluk bestudeerd zal worden door alle chauffeurs ter wereld om daar lering uit te trekken? :?
[...]
Als je niet zo bent dan hoor ik het wel. Maar neem jezelf liever wat serieuzer. Je bent geen machine, kereltje.
"Kereltje"? Praat je altijd zo tegen mensen die je niet kent? :X
Dus als het gaat om Tesla's die van elkaar leren doordat de software een upgrade krijgt of mensen die leren van een rechtszaak maakt geen verschil.
Sorry, maar dat zie ik echt niet. Van een software-update van Tesla profiteert elke Tesla-rijder. Van een rechtszaak krijgt denk ik 90% weinig of niets mee, laat staan dat ze er van leren voor hun eigen gedrag.
Maar ik weet zeker dat als we allemaal autonoom rijden, wat een inhoudelijke tegenstrijdigheid is, want niemands rijdt meer auto, de samenleving verhard en onverschilliger wordt en dat als gevolg daarvan, er op andere terreinen weer meer doden vallen, gewoon omdat niemand nog leert om verantwoordelijk te zijn.
Right. Want de weg is de enige plek waar je verantwoordelijkheid leert.
Ja ik denk dat mensen lering trekken uit het kennis nemen van de situatie. Het is steeds opnieuw een notificatie die aanmoedigt tot moreel rijgedrag.

Dat veel mensen dat niet in de praktijk brengen, of slechts tijdelijk na een rechtszaak of het zien van het leed dat slecht rijgedrag veroorzaken kan, is een andere zaak en heeft allerlei redenen. Maar dat was het punt niet.

Of elke Tesla-rijder profiteert is de vraag en een zaak van de 'nonidentity problem. :-)

Maar je hebt gelijk dat je via andere wegen, no pun intended, ook verantwoordelijk gedrag kunt leren. Maar infrastructuur en mobiliteit zijn belangrijke onderdelen van ons leven. We streven er naar. het staat op de politieke agenda, dagelijks horen we de file meldingen. We bekijken het weer om te zien of we rekening moeten houden met problemen zoals vertraging.

En dat zijn nu net de factoren waarom we dit gesprek voeren, dat als het hard regent, we langzamer moeten rijden, zodat we eerder weg moeten of te laat arriveren. En als de baas boos wordt, dan hebben wij een ethisch dilemma: rijd ik relatief te hard in slecht weer en neem ik dat risico met de levens van anderen, hoe schat ik dat risico in?
Dan ben ik zeker een psychopaat want als er weer een liquidatie, aanslag, ongeval met dode, moord of wat dan ook plaats heeft gevonden ga ik me er echt niet anders van gedragen, laat staan dat het me emotioneel boeit. Nee zolang het geen bekende van me is, of als ik er niet bij betrokken ben, dan boeit het me echt totaal niets
Je bent je misschien niet bewust dat het je raakt. De mate waarin varieert van mens tot mens.
Dat ze nu schermen met "het is het eerste dodelijke ongeluk in 130 miljoen mijl, het gemiddelde is 94 miljoen mijl, en dus zijn we veiliger is een drogreden. Allereerst is dit systeem alleen voor op highways, en die zijn sowieso al veiliger dan kleinere wegen (dat geldt hier, dat zal vast ook in de VS gelden). Dan betekent een N=1 observatie statistisch gezien helemaal niets. Je kan geen conclusies trekken uit het feit dat het 130 miljoen mijl goed gegaan is. Je zal minstens het tien of honderdvoudige aantal mijlen moeten afleggen om conclusies te gaan trekken; tot die tijd val je ruim binnen de statistische ruis. Voor hetzelfde geldt gaat het volgende week weer mis (laten we het niet hopen...) Pas als over langere tijd en een veelvoud aan km's blijkt dat het gemiddeld significant veiliger is, kan je conclusies gaan trekken.
Het is natuurlijk spelen met cijfers. Zijn die "veilig" gereden kilometers door het systeem zelf afgelegd zonder ingrijpen van gebruikers? Denk het namelijk niet en dan had je ineens een slechter presterende Autopilot.

Geloof persoonlijk dat het wel de toekomst is, maar het is alom bekend dat het nog niet die 99,9% kan garanderen. Durf jij dan je leven op het spel te zetten of rijd je dan liever zelf?
In dit geval zat de bestuurder waarschijnlijk niet op te letten... volgens de NOS keek de bestuurder zelfs een film
http://nos.nl/l/2114618
Dat claimt de chauffeur van de vrachtwagen. De vrachtwagen die de auto afsneed door voor hem langs links af te slaan. Iets wat verboden is.

Dus we hebben het wel over een claim van iemand die bewezen schuldig is over iets wat hij helemaal niet kan weten. Of zat hij er zo dicht op dat hij kon zien waar de auto bestuurder naar keek? Moet de vrachtwagen chauffeur vooral zeggen. "Ja rechter, de auto was zo dichtbij dat ik kon zien wat de bestuurder deed en toen sloeg ik toch voor de auto af".
Wij waren er niet bij dus we kunnen niet weten of dat die chauffeur wellicht iets van de agenten heeft gehoord die ter plaatse zijn gekomen.

Hoe dan ook, een zelfrijdende auto is leuk maar je moet zelf continu op blijven letten, kun je net zo goed zelf rijden.
Dat kun je natuurlijk zo direct niet stellen. De Tesla kan ook te hard gereden hebben waardoor een afstand die normaal veilig is om af te slaan nu ineens net niet veilig was. Als je bijv de situatie schets ziet, zie je dat de Tesla meer naar de achterkant van de truck / trailer combinatie de trailer raakt. Stel dat de maximum snelheid niet overschreden is dan zou iets remmen genoeg geweest moeten zijn om de trailer niet te raken. Is de Maximum snelheid wel overtreden dan kan het goed zijn dat de trailer normaal gepasseerd zou zijn wanneer de bestuurder zich wel aan de snelheid gehouden had.

Niet dat ik direct de vrachtwagen chauffeur 100% wil vrij pleiten, maar de Tesla chauffeur vrij pleiten kan ook zeker niet zomaar.

Verder is het natuurlijk logischer dat wanneer de bestuurder een film aan het kijken is de vrachtwagen chauffeur dit na het ongeluk heeft gezien / gehoord. Als hij voorlangs kruist is het vrijwel onmogelijk om de middenconsole van de Tesla in welke situatie dan ook te zien. Veel logischer is dan dat bijv. de film nog draaide toen de chauffeur bij de Tesla is gekomen direct na het ongeluk, of dat agenten dit hebben vast gesteld bij een eerste controle van de crashsite.

[Reactie gewijzigd door Dennism op 1 juli 2016 09:31]

Gaat mij meer om het feit dat de bestuurder van de tractor dit claimt. Niet dat ik het ontken maar hoe weet hij dat nou. Politie gaat dit soort dingen bij een ongeluk toch niet aan betrokkenen melden? Het gaat hier niet om blikschade maar een dode.

Het heeft voor mij wel een hoog "hij dook zomaar uit het niets op". Tuurlijk had de Tesla bestuurder moeten opletten en de tractor moeten zien maar zelfde geld andersom. Dit is een typisch ongeluk waarschijnlijk, twee fouten stapelen zich op.

Had slecht 1 een fout gemaakt was er niets gebeurt.
Het is alleen vervelend dat je, helemaal in een frontstuur trekker een dode hoek van tientallen zo niet honderden meters hebt achter je spiegels en je dus inderdaad een auto of motor volledig kan missen. Dit met name op rotondes.
Ik heb geen foto's gezien dus weet niet of het een torpedo of een front is dus is lastig oordelen.

Mij is het ook wel eens gebeurd dat ik een auto of motor niet gezien heb totdat ie echt voor me neus verschijnt en ik nog net de rem in kan trappen. Dus nee makkelijk geoordeeld. En politie is verplicht dit te melden althans in Nederland ivm schadeformulier
Vanuit een truck heb je wel meer zicht wat er in een auto gebeurt (op 't moment dat je 'm opmerkt). Bovendien zal de laptop na een ongeluk niet gelijk verdwenen zijn.
En ook Tesla heeft belang bij het verhaal van een film kijkende bestuurder.
Wat er precies is gebeurd staat nergens, en je mag best van baan wisselen (in de VS is het voornamelijk 'keep your lane'), maar verboden is het zeker niet..
Kan zijn dat de chauffeur vanuit het achterraam van de tesla dit heeft gezien toen hij (eerder) voorbij reed.. Enuh, de tesla bestuurder heeft ook ettelijke filmpjes van zichzelf tijdens het rijden met de tesla op youtube gezet in het verleden, wat de bewering dus mogelijk wel versterkt..

Enuh, ik zie helaas dat er genoeg achterlijke idioten gewoon filmpjes zitten te kijken op hun middenconsole tijdens het rijden (en dan dus ook nog veel links/rechts zwermen)..

Dit is sowieso een tragisch ongeluk wat zeker de huidige beperkingen van de gebruikte sensoren bloot legt..
http://f.cl.ly/items/3j0R...202016%2007%3A45%3A19.png

Kruisend tegemoet komend verkeer. En dan moet je voorrang verlenen.
Dat wist ik dus niet, heb het bij de post verderop de bijgevoegde situaties gezien en ja daarvanuit was de vrachtwagen fout.. Zoals ik in de meeste artikelen zag, ging het over een highway waarbij de truck van lane wisselde (en dus die artikelen waren fout)..
Maar dat neemt dus niet weg dat de betreffende bestuurder niet aan het opletten was en dus met iets heel anders bezig dan op het verkeer te letten, en met de historie van de gebruiker op youtube geloof ik de chauffeur wel (die dus ook zeker fout was).
Andere nieuwsbronnen melden dat de "bestuurder" een film aan het kijken was. Tesla waarschuwt gebruikers inderdaad om ten alle tijden de handen aan het stuur te houden en te blijven opletten.
Zollang we geen A.I. hebben zullen deze systemen net zo dom blijven als de programmeurs die het in elkaar zetten.

Veel slimmer dan if object in the way then stop wordt het ook niet.

Als dat wel het geval was dan hadden we ook geen piloten meer, die zijn getraind om in te grijpen als de autopiloot faalt en dat komt ook nog regelmatig voor. Falende sensoren, onlogisch programmeerwerk. Ook bij dit systeem voor autos moet de automobilist alert blijven en volledig kunnen ingrijpen als dat moet. Dus eigenlijk vermoeiender met dan zonder rijden.
Dit is echt onzin. De luchtvaart is veiliger met een automatische piloot en de meeste ongelukken met vliegtuigen hebben dan ook een menselijke oorzaak. Ook hier: de Tesla met Autopilot is veel veiliger dan een niet-autonome auto. Ik lees eigenlijk nooit verhalen over onlogisch programmeerwerk of falende sensoren waardoor vliegtuigen uit de lucht vallen of auto's massaal crashen.
Ook hier: de Tesla met Autopilot is veel veiliger dan een niet-autonome auto
Statistisch gezien wel, maar toch moet het nog blijken, er is met tesla's nog vrij weinig KM gereden uiteindelijk. Het toeval of geluk kan er nu nog goed voor zorgen dat die cijfers hoger (of lager) zijn dan ze na 1 triljard kilometer zijn...

Als je voor het ongeluk ging kijken was een Tesla nog oneindig veel veiliger (208,9 miljoen kilometer 0 fatale ongelukken). Gebeurd er morgen nog een ongeluk zit je al rond de 100 miljoen ipv 209 miljoen kilometer gemiddeld...

Gaan er morgen 10 mensen dood met normale auto's in de US dan veranderd dat gemiddelde van 151 miljoen kilometer (94 miljoen mijl) bijna niet omdat dat uit zo veel kilometers is opgebouwd dat een paar ongelukken daar weinig invloed op hebben...

[Reactie gewijzigd door watercoolertje op 1 juli 2016 08:11]

Ik ben het gedeeltelijk met je eens. Maar of Autopilot echt al veiliger is? Sowieso ben ik erg skeptisch over systemen waarbij de gebruiker continue hoort te zitten opletten of het wel goed gaat. Maak het of autonoom, of niet, zo'n tussenoplossing geloof ik niet in.

Dan zijn het aantal kilometers wel indrukwekkend, maar is het niet ook vooral voor de snelweg bedoeld en dat ze daar dus relatief veel kilometers maken?
Snelwegkilometers zijn een stuk veiliger. In NL 1 dode per miljard km.
Dus ze moeten niet vergelijken met algemene getallen. Nu doen ze het 5 keer slechter dan "normale auto's op snelwegen in Nederland".

http://m.metronieuws.nl/b...heeft-veiligste-snelwegen
Nu doen ze het 5 keer slechter dan "normale auto's op snelwegen in Nederland".
Op een snelweg heb je geen dwars overstekende vrachtwagens

De Tesla reed dus vermoedelijk op een autoweg of een soort provinciale weg.

[Reactie gewijzigd door TWyk op 1 juli 2016 09:56]

Goed punt. Misschien beter om te vergelijken met Belgische snelwegen dan.
Het lijkt er wel op dat de autopilot hier überhaupt geen rekening mee houdt, dus slechts op normale autosnelwegen gebruikt moet worden.
Er staal elders in de reacties een linkje naar de Google streeft view van waar het gebeurt is. Het is idd geen nl snelweg type weg, maar een weg met (door een grasstrook) gescheiden rijbanen en een gelijkvloerse kruising. Standaard highway zoals je ze vaak ziet in de VS.
Het is ook wat je zegt, een tussenoplossing. Ofwel, die systemen worden beter, ze evolueren, en de fabrikanten leren van elk incident en elk ongeval. 5 jaar geleden was het ongehoord dat een auto een verkeersbord of de wegbelijning herkende en daar op kon reageren. Kijk nog 5 jaar verder en die systemen zijn vele malen veiliger dan welke bestuurder dan ook. Ik zeg met mijn vele snelwegkilometers en alle lutsers die ik daar zie: op de middellange termijn heb ik veel meer vertrouwen in een autopilot dan in de gemiddelde bestuurder.
Je vliegt dus nooit?

Het is namelijk precies hetzelfde zoals nu de luchtvaart functioneert. De vliegtuigen vliegen voor een groot deel autonoom, maar hebben nog altijd piloten nodig om alles te configureren en het over te nemen als de situatie daar om vraagt.
Lekkere reactie hoor.

Nee een vliegtuig is niet te vergelijken. Bij een vliegtuig kunnen de piloten (eigenlijk altijd, maar volgens mij in de praktijk niet bij opstijgen en landen) met hun voeten op hun instrumentenpaneel een boekje lezen en met de stewardesses flirten. Als er wat gebeurd dan leggen ze hun boek aan de kant en pakken de stuurknuppel om wat er ook aan de hand is op te lossen (hopelijk).

Het grote verschil met een auto is dat als het mis gaat we het hebben over dat je echt direct moet reageren omdat je anders plat bent. Dus je moet je voet continue bij de rem hebben en continue checken wat je autopilot aan het doen is (of een andere semi-autonoom systeem). Dat is niet te vergelijken met een vliegtuig.
Leuke aanname....
maar een totale misvatting en onderschatting van het geheel. Vliegen in het geheel is complexer.

In een vliegtuig moet minstens 1 piloot altijd 'operationeel' zijn voor juist de noodgevallen.
Natuurlijk is het niet te vergelijken met een vliegtuig. Realiseer je je wel dat daar juist veel meer (continu) gecontroleerd moet worden?

En daar zit hem juist het verschil. Het budget wat beschikbaar is voor een autopilot in een auto versus de multiple autopilots in een vliegtuig.

We moeten gewoon accepteren dat het concept auto-pilot voor een auto nog volledig in ontwikkeling is. Dat er gewoon getest wordt op straat is een gegeven.

Dat er ook ongelukken gaan gebeuren, daar was op te wachten.

De vraag is hoe men hiermee omgaat en of men hiermee het systeem kan verbeteren.
Dat maakt autonoom rijden problematisch want wat je zegt klopt. Een vliegtuig heeft tientallen tot honderden mensen aan boord. Als het daar fout gaat is er veel leed. De auto heeft maar een persoon tot 4 of 5 mensen aan boord.
Daarom zijn er in een vliegtuig meerdere bemanningsleden. Een piloot die altijd oplet. Een boordwerktuigkundige of zoiets. Vaak drie mensen.

Dus als het inbouwen van veiligheid(dsopties) een functie is van het aantal vervoerde mensen, dan maak ik me zorgen.
Dit is echt onzin. De luchtvaart is veiliger met een automatische piloot en de meeste ongelukken met vliegtuigen hebben dan ook een menselijke oorzaak.
Dat valt reuze mee, pilot error is 'slechts' bij 50% v/d gevallen de oorzaak. Tuurlijk is dat veel, maar net niet de meeste, of wat veel mensen denken, het leeuwendeel.
Ik lees eigenlijk nooit verhalen over onlogisch programmeerwerk of falende sensoren waardoor vliegtuigen uit de lucht vallen of auto's massaal crashen.
Massaal uiteraard niet, maar defecte sensoren hebben in veel gevallen bijgedragen aan luchtvaartongelukken.

[Reactie gewijzigd door Aikon op 1 juli 2016 09:20]

De vraag is natuurlijk: Als die sensoren er helemaal niet waren geweest, en de piloot helemaal zelf moest inschatten: Waren die ongelukken dan niet gebeurt?
Dat valt reuze mee, pilot error is 'slechts' bij 50% v/d gevallen de oorzaak. Tuurlijk is dat veel, maar net niet de meeste, of wat veel mensen denken, het leeuwendeel.
Thus, pilot error is a major cause of air accidents. During 2004, pilot error was pointed to be the primary reason of 78.6% of disastrous GA (general aviation) accidents, and as the major cause of 75.5% of general aviation accidents in the US.
https://en.wikipedia.org/wiki/Pilot_error
We recognize that more than 85% of aircraft accidents are caused by pilot error.
http://www.avbuyer.com/ar...re-caused-by-pilot-error/
Nu ben ik zelf programmeur en zou ik ook graag gezien hebben dat mensen die kritieke systemen maken (zoals bij vliegtuigen het geval is) hun code verifiëren door deze mathematisch te bewijzen. Realiteit is dat dit niet gebeurt. Het is zeker waar dat de luchtvaart veiliger is geworden met de introductie van de automatische piloot maar:
Ik lees eigenlijk nooit verhalen over onlogisch programmeerwerk of falende sensoren waardoor vliegtuigen uit de lucht vallen of auto's massaal crashen.
Kan ik je hier wat leesvoer geven wat betreft dom programmeer werk:
https://www.engadget.com/...-dreamliner-software-bug/

Integer overflows is niet iets wat je wilt tegenkomen in een kritiek systeem.
Nu ben ik zelf programmeur en zou ik ook graag gezien hebben dat mensen die kritieke systemen maken (zoals bij vliegtuigen het geval is) hun code verifiëren door deze mathematisch te bewijzen. [...]
Met een mathematisch bewijs, bewijs je dat de code gegeven een bepaalde dataset op een verwachte manier reageert.
Echter zit je nog steeds met dingen die niet verwacht zijn.
En hoewel de door jou genoemde integer overflow vaak een stomme programmeerfout betreft, kan het evengoed komen door onverwachte situaties en dan kun je bewijzen wat je wilt, maar als het design niet voldoende is, zal uiteindelijk ook mathematisch bewezen code niet voldoende zijn.
Neemt niet weg dat er best wel wat aangerommeld is en wordt in software, ook in best wel kritische systemen.
Door het maken van de gestelde bewijzen kun je wel aantonen of bepaalde aannames over het systeem wel of niet kloppen.

Net als unit-tests is dit niet interessant voor de hogere managers en de mensen die over het geld gaan want er valt geen directe winst uit te halen.

Wat vaak over het hoofd gezien wordt is dat juist door de implementatie van deze dingen je voorkomt dat fouten gemaakt worden in de toekomst die te duur worden om te repareren. (Het is vaak al genoeg om kritisch na te denken over wat de code wel of niet kan en zou moeten doen, als je dit toch al doet schrijf dan meteen tests en dergelijke)
[...] juist door de implementatie van deze dingen je voorkomt dat fouten gemaakt worden in de toekomst die te duur worden om te repareren.
Helemaal mee eens :)
Maar je kunt software doorrekenen maar als die modellen beschrijft van wat er verkeerd kan gaan, dan bereken je een model, niet de werkelijkheid. En de werkelijkheid verrast vaak nogal eens. Dus dat voorbehoud is er altijd.

Als een auto-auto fabrikant die modellen doorberekent, dan hebben ze een inschatting van hun eigen vermogen om de realiteit waar te nemen en alle opties die binnen hun verbeelding kunnen bestaan.

In dit ongeluk blijkt dat de programmeurs van Tesla mensen waren en als zodanig deze verkeerssituatie niet hadden bedacht.

En dat zal altijd het geval blijven.
Maar je kunt software doorrekenen maar als die modellen beschrijft van wat er verkeerd kan gaan, dan bereken je een model, niet de werkelijkheid. En de werkelijkheid verrast vaak nogal eens. Dus dat voorbehoud is er altijd.
De truc is juist dat je test op alle situaties die je wenselijk acht, zodra je dat gedaan hebt weet je exact wat er kan gebeuren als het systeem zich gedraagt zoals je dat verwacht had. (dat het dus niet stiekem iets anders doet).

Vervolgens maak je gewoon een test die al het andere afvangt en hier een rapport van maakt, dan zie je meteen welke scenario's je over het hoofd gezien hebt en waar je dus mee aan de slag moet.

Afhankelijk van de programmeertaal zijn er ook redelijk wat tools die je hierbij kunnen helpen.
Hoe kun je een test maken die 'alles afvangt' als je niet weet dat alles kan zijn?

Is het wenselijk om een 12-tal situaties te bedenken or voorzien en die te programmeren en dan jezelf op de borst te slaan dat je alles hebt afgedekt? En wat je niet afdekt, dat doen we dan af met een extra test, een vergaarbak van alle mogelijke andere situaties terwijl je volstrekt geen idee hebt over hoe de wereld in elkaar steekt van dag tot dag?

En wie zegt me dan dat die extra test alles afvangt? Je kunt een negatief niet bewijzen.
Hoe kun je een test maken die 'alles afvangt' als je niet weet dat alles kan zijn?
Door simpel weg te testen op afwijkend gedrag.
En wie zegt me dan dat die extra test alles afvangt? Je kunt een negatief niet bewijzen.
Dat kan in de computer wereld juist wel alleen kost dat heel erg veel tijd om goed te doen dus ook geld en willen de meeste bedrijven daar niet aan beginnen.

Elke computer of computer programma kun je modeleren als een finite state machine. Daarbij beschrijf je alle wenselijke staten en alle wenselijke transities tussen die staten. Mocht het zo zijn dat je een transitie krijgt die niet mogelijk hoort te zijn dan ga je naar een error state. Die kun je dan weer afvangen om te ontdekken wat dit afwijkend gedrag veroorzaakt.
Maar hoe weet je zeker dat je alle wenselijke staten en transities te pakken hebt? Bedoel je dat je op een of andere manier als wenselijk stelt: de auto mag nooit letsel veroorzaken? Box! :?
Je maakt een stuk software met een reden, wat moet de software allemaal kunnen doen? Hoe mag hij dit doen?

Dit zijn gewoon dingen die je van te voren moet vast stellen.

De auto mag alleen vanuit de 1 of de neutral naar de achteruit gaan. Probeert men dit te doen vanuit de 2 of hoger dan weiger deze transitie.
Ja maar we spreken over een autonome auto, die zelf schakelt.

We hadden het over hoe programmeurs in jou ogen goden zijn die alle situaties kunnen voorzien. Dan kom jij met dure termen als wenselijke staten en transities. Daarop vraag ik door en dan kom jij terug met algemeenheden.

Wat is het nu precies aan die programmeurs dat zij in staat zijn een stuk code te ontwerpen dat in staat is alle mogelijke acties die voortkomen uit het chaotische verkeer van de juiste beslissing te voorzien om te zorgen voor veiligheid?
Ach, zelfs de allereerste Ariane 5 is ontploft door een integer overflow (of was het underflow?).
Nu ben ik zelf programmeur en zou ik ook graag gezien hebben dat mensen die kritieke systemen maken (zoals bij vliegtuigen het geval is) hun code verifiëren door deze mathematisch te bewijzen.
Hoewel ik in sommige situaties een groot voorstander ben van het bewijzen van de correctheid van je code, moet je wel in gedachte houden dat hier een forse beperking op zit: het werkt alleen als je de input en output heel exact kunt beschrijven. Bijvoorbeeld, als je een sorteer-algorithme wilt bewijzen dan kun je zeggen dat de output dezelfde waarden moet bevatten als de input en dat elke waarde in de output (behalve de allereerste!) minstens net zo groot moet zijn als de waarde ervoor. Ok, dat is prima te doen. Maar in dit geval is de probleemomschrijving veel te vaag om er grip op te hebben "moet er, gegeven deze sensor-data, een noodstop gemaakt worden?". Het resultaat zal een boolean zijn, maar heel veel verder dan dat kom ik niet...
Je loopt appels met peren te vergelijken, maar nu ben ik geen expert op automatische system op vliegtuigen. Maar één ding weet ik wel - een vliegtuig wordt 'gemonitord' door een luchtverkeersleider en kijkt mee.... vliegtuigensystemen zijn geprogrammeerd om bij elkaar uit de buurt te blijven, ruim van te voren allerlei waarschuwingssignalen te geven wanneer parameters niet kloppen.

Ook een vliegtuig op autopilot zal uiteindelijk een fout gaan maken wanneer er niet wordt ingegrepen....... maar met een wezenlijk verschil dat vliegtuigen niet op 10 meter van elkaar vliegen en daardoor een belangrijke toegevoegde waarde hebben voor de veiligheid.

In het luchtruim houdt alles en iedereen zich aan regels, op de weg?....... als ik pech heb hier in België heb ik net niet 3 'bijna' ongelukken op de eerste kilometer op weg naar mijn werk.

Ik ga het nu toch zeggen, maar je kon erop wachten...... en natuurlijk ook de reactie van Tesla:
Volgens autoproducent Tesla is het ongeval het gevolg van 'extreem zeldzame' omstandigheden. 'De automatische piloot noch de bestuurder zag de witte kant van de aanhangwagen van een tractor tegen een fel verlichte lucht, dus er werd niet geremd', aldus het bedrijf. Tesla laat in een verklaring ook weten mee te leven met de familie van het slachtoffer. Het bedrijf moedigt automobilisten ook aan om vooral goed op te blijven letten. 'De automatische piloot wordt steeds beter, maar is niet perfect en de automobilist moet alert blijven.'
bron: Volkskrant artikel

Hoe ik het zie vanaf het begin met de updates die in de EU/US gewoon zonder grondig te testen toegelaten worden. Alsof je een kind van 2 een geladen pistool geeft - je weet dat het uiteindelijk fout gaat....

[Reactie gewijzigd door GetaGrip op 1 juli 2016 08:52]

Nog een punt: De piloot heeft een zeeeeeeer gedegen opleiding, en er zit een reservepiloot naast.

Je rijbewijs haal je binnen een week als je wil en rij je uitgeput na je werk op je 18e, terwijl je die nacht door gaat rijden naar zuid frankrijk om de files te vermijden, de hitte voor te zijn (goedkope auto, geen airco, meer lawaai, nog vermoeiender) en een hotelnacht uit te sparen...
Je loopt appels met peren te vergelijken, maar nu ben ik geen expert op automatische system op vliegtuigen. Maar één ding weet ik wel - een vliegtuig wordt 'gemonitord' door een luchtverkeersleider en kijkt mee.... vliegtuigensystemen zijn geprogrammeerd om bij elkaar uit de buurt te blijven, ruim van te voren allerlei waarschuwingssignalen te geven wanneer parameters niet kloppen.

Ook een vliegtuig op autopilot zal uiteindelijk een fout gaan maken wanneer er niet wordt ingegrepen....... maar met een wezenlijk verschil dat vliegtuigen niet op 10 meter van elkaar vliegen en daardoor een belangrijke toegevoegde waarde hebben voor de veiligheid.
Dat een vliegtuig gemonitord wordt door een luchtverkeersleider, leuk. In Nederland worden (delen van) snelwegen ook gemonitord (denk aan de rode kruizen). Deze personen kunnen verder geen invloed uitoefenen, anders dan stromen in goede banen leiden (en dan hopen dat niemand door een rood kruis rijdt bijv.).

Ik zie dat danielik delen van zijn reactie verwijderd heeft. Oorspronkelijk stond er iets in de trend van automatische piloot bij vliegtuigen is ook niet veilig. Vandaar dat ik in eerste instantie daar ook op reageerde. Maar ben het met je eens dat vliegtuigen en auto's appels en peren zijn. Weet wel dat de automatische piloot van een vliegtuig over veel meer informatie beschikt en veel sneller beslissingen kan maken dan een menselijke piloot ooit zou kunnen doen. Landen met slecht zicht gebeurt ook op de automatische piloot, het is onveilig om "op de tast" (met alleen informatie van je systemen) een landing in te zetten.
Alsof je een kind van 2 een geladen pistool geeft - je weet dat het uiteindelijk fout gaat....
Niet de meest handige vergelijking; we hebben het hier over de VS, dus je weet dat ze dan lekker hun kop in het zand steken en er mooi niks aan doen.
Hier een bericht over een airbus. Crasht bijna door falende sensors.
https://tweakers.net/nieu...na-door-softwarefout.html
Eén zwaluw maakt nog geen zomer. Dit bewijst niet dat vliegtuigen zonder dergelijke systemen veiliger zouden zijn.
En toch maakt de automatische piloot minder fouten dan de mens.
Klopt. Omdat de auto piloot vooral de grove fouten corrigeert die wij mensen wel maken. Bumperkleven, niet kijken bij het wisselen van een baan, te hard rijden waar het niet kan. En natuurlijk wat de andere bestuurders ook doen. dan heb je 3 kwart van alle ongelukken niet meer.
dan heb je 3 kwart van alle ongelukken niet meer
En 80% van alle statistieken is verzonnen :+

Beetje meer achtergrond en als je zulke uitspraken doet, moet je ook even aan bron vermelding doen. Want nu lijkt het alsof je het gewoon uit je duim zuigt.
In sommige situaties.

Midden in Bangkok of Zelfs New York moet ik nog zien hoe goed het op dit moment zou werken
buiten het feit dat je programmeurs dom noemt (dank u....) is het wat kortzichtig. Ten eerste Verder moet je weten dat vliegtuigen eigenlijk al perfect zonder piloot kunnen vliegen, en dat deze laatste tegenwoordig zo weinig werk heeft, dat als er iets gebeurt hij ofwel ligt te slapen, niet weet wat er gebeurt of het zo catastrofaal is dat er niet veel meer valt te doen. (wat deels ook komt omdat steeds minder en minder burgerpiloten uit het leger komen, maar dat terzijde).

Maar vliegtuigmaatschappijen en hun regulerende organisaties hebben (geleerd) dat het idd de combinatie is die wss het beste werkt. Al is het maar om de gemoedstoestand van de passagiers :+

AI zit er aan te komen, de vraag is of het wenselijk is en of het een meerwaarde is. Een globaal ai systeem, dat dan steeds met een update leert en de software bijwerkt lijkt me dan nog het beste systeem. Hoewel je dan ook met privacyissues zit natuurlijk.

Het lijkt me sterk dat bij een falende sensor het systeem überhaupt nog valt te gebruikten trouwens ;-).

[Reactie gewijzigd door white modder op 1 juli 2016 08:13]

Verder moet je weten dat vliegtuigen eigenlijk al perfect zonder piloot kunnen vliegen, en dat deze laatste tegenwoordig zo weinig werk heeft, dat als er iets gebeurt hij ofwel ligt te slapen, niet weet wat er gebeurt of het zo catastrofaal is dat er niet veel meer valt te doen.
Dat is evengoed kortzichtig en niet waar. Ze kunnen redelijk goed automatisch op de "snelweg" blijven, maar er zijn zoveel dingen die niet kunnen, weer ontwijken, ATC instructies opvolgen, opstijgen, taxi, reageren op fouten of afwijkingen. Overigens zijn ook verreweg de meeste landingen handmatig (737 op autoland). Verder heeft een autopilot en autothrottle vrij veel instellingen en modes die je per situatie moet kiezen. Al met al zou het dus gewoon onmogelijk zijn een vlucht uit te voeren zonder piloot op het moment.
Ze kunnen wel autonoom vliegen, zoals bevestigd door zowel Airbus als Boeing, en dat over de gehele lijn, het wordt simpelweg niet geïmplementeerd ;-). Er zijn zelfs tests gedaan met een F-16 zonder piloot. En ik beweer niet dat het niet goed is dat er nog piloten achter het stuur zitten ;-), integendeel. Dat een mens beter kan inschatten wanneer er iets misloopt is iets anders, hoewel de meeste ongelukken wel door menselijke fouten gebeuren (de laatste tijd, zoals je zelf zegt door verkeerde instelling voor de autopiloot enz dat steeds ingewikkelder word en meer tijd in beslag neemt)

Je hebt wel gelijk dat mijn reactie ook kortzichtig is trouwens, het was meer als reactie op ;-)

[Reactie gewijzigd door white modder op 1 juli 2016 10:44]

Had de automatisch piloot niet nog steeds een enorm probleem met corrigeren van zijwind?
Zover ik laatst van een docu zag was/is dit nog niet automatisch te doen en heb je echt een ervaren piloot nodig om dit voor elkaar te krijgen.
En als het systeem deels uitvalt door welke reden dan ook. Bijvoorbeeld motor falen.
Dan maakt een goede piloot toch wel het verschil tussen iedereen dood of "slechts" een paar mensen.

De combinatie heeft dan toch net iets meerwaarde dan enkel de gemoedrust van de passagiers.

Zelfde lijkt me met autonome auto's. Er zal altijd een situatie zijn waarop de auto niet kan reageren al is het maar omdat bv het systeem uitvalt.
Maar het zal in elk geval een heel stuk veiliger zijn dan al die bumper klevende idioten en bange onvoorspelbare bestuurders die eigenlijk niet eens op de weg zouden moeten komen.
(Ben zelf ook niet heilig, maar ga in elk geval niet bumper kleven :p )

En treinen, metro's etc kunnen toch eigenlijk ook perfect autonoom?
Maar is het daar überhaupt eigenlijk al ingevoerd?

Lijkt me in elk geval onmogelijk om alle situaties voor te programmeren. Wat niet te voorspellen is, kan je ook niet in programmeren of met sensoren aftasten.
En er komt ook uiteindelijk een kosten/baten verhaal bij lijkt me. Sensoren die 500+ m ver met radar meten rondom de auto (of in elk geval voor en achter) is wellicht een beetje overkill. Maar visueel doe je dat zelf ook mits het zicht het toe laat. En je ogen pikken over het algemeen toch net iets meer nuances op dan een camera denk ik.
In Duitsland kijk ik zelfs nog wel wat verder voor me uit, simpelweg omdat mijn remweg + reactie afstand >650m is. Kan je dat nog verwachten van de sensoren in een semi autonome auto?
Denk dat dat pas reëel wordt bij een netwerk aan onderling communicerende auto's of sensoren in de weg oid.
Zollang we geen A.I. hebben zullen deze systemen net zo dom blijven als de programmeurs die het in elkaar zetten.

Veel slimmer dan if object in the way then stop wordt het ook niet.
Je denkt dat een echte bestuurder veel anders kan dan stoppen als er iets spontaan in de weg zit?

Het feit dat zowel de autopilot (die 'verblind' was door de witte lucht) als de bestuurder niets hebben opgemerkt moet toch al een aanwijzing zijn dat dit zonder autopilot ook was gebeurd. Ik vermoed dat de bestuurder net zo verblind was door de heldere achtergrond als de autopilot zelf.
Jij gaat er van uit dat de bestuurder opgelet heeft. het is goed mogelijk dat hij afgeleid was door andere bezigheden, en daardoor de vrachtwagen niet gezien heeft.
http://arstechnica.com/in...s-in-simulated-dogfights/

Met zelflerende genetische algoritmen kan je al lang niet meer spreken van if then programmeren.
Je zou een systeem waarbij veiligheid kritisch is ook kunnen programeren zodat de standaard actie is "zet de auto veilig aan de kant" tenzij voorgeprogameerde senario herkent dus actie.
Hoe spijtig het ook is, 100% veilig bestaat niet. We moeten hier onze lessen uit trekken, maar niet verwachten dat er nooit meer zoiets gebeurd.

Bij leven hoort de realiteit van dood gaan.
Beetje cru. Je verschuilen achter cijfers omdat het zo lang al goed gaat vind ik laf. Net alsof ze zeggen, tsja dit zat eraan te komen. Eerst maar eens het onderzoek afwachten
Damage control is dat, met name in de VS is dit nodig voordat het je miljoenen gaat kosten. En anders omdat iemand niet zat op te letten moet tesla, en de zelfrijdende techniek in het algemeen, boeten voor zijn waarschijnlijke fout. Daar komt eigenlijk bij dat, hoe verschrikkelijk ook, er een mijlpaal is behaald.

De overleden bestuurder was ook een youtuber die filmpjes maakte over de automatische piloot. Zo testte hij uit of de auto zou uitwijken als die een vrachtwagen tegen kwam. Het zou ook zo zijn dat hij ten tijde van het ongeval een film aan het kijken was.

Bron : nos.nl

[Reactie gewijzigd door VySio op 1 juli 2016 08:02]

Dus moedwillig anderen in gevaar brengen voor je YouTube kanaal?

Net zoals die mensen die (ook al verbied Tesla dit), op de achterbank filmen hoe de auto zelf rijd.

Een gevalletje user error dus...
Ze verschuilen zich niet en zijn waarschijnlijk op zoek om de oorzaak aan te pakken. Waar ze zich echter wel tegen moeten verdedigen is de perceptie dat autopilot ineens enorm onveilig is en dat het moet afgeschaft worden.

Hun redenering van witte achtergrond kan misschien zo zijn voor de camera, maar hoe zit het dan met de radar en andere sensoren? Of reiken die niet ver genoeg om deze auto op tijd te laten stoppen?
maar hoe zit het dan met de radar en andere sensoren?
De post is verkeerd vertaald. Een 'tractor trailer' is een vrachtwagen met oplegger.
Schijnbaar heeft de radar 'onder' de oplegger door gekeken...
De radar heeft waarschijnlijk de truck wel gezien, maar genegeerd omdat deze leek op een verkeersbord boven de weg. Elon Musk tweet hierover:
Radar tunes out what looks like an overhead road sign to avoid false braking events
https://twitter.com/elonmusk/status/748625979271045121

Zo'n Amerikaanse trailer heeft namelijk (zoals door anderen al gemeld is) geen 'vanghek' dat onder de trailer uitsteekt. Voor de radar lijkt dit dus op een verkeersbord (achterwielen links zijn de 'linkerpaal', trailer is het 'bord' en de trekker is de 'rechterpaal').

[Reactie gewijzigd door ShadowLord op 1 juli 2016 12:02]

Dat is dus gewoon een design flaw als dat inderdaad het geval is, maar gelukkig wel een die vrij makkelijk op de lossen moet zijn door de radar zo af te stellen dat het niet mogelijk is om onder een voertuig door te kijken. en de radar een groter bereik te geven, zie bijv. Audi's met adaptive Cruise control met pre sense, die radar heeft een bereik van +-200 meter in de laatste generatie.

[Reactie gewijzigd door Dennism op 1 juli 2016 09:29]

Zelfs als de radar onder de trailer heen heeft gekeken heeft deze slechts een afstand van 5meter, dat had natuurlijk nooit genoeg kunnen zijn om deze trailer te ontwijken.
Mja het is inderdaad slecht vertaald. Op deredactie.be staat dat het ging over een vrachtwagen met trailer. Op de Tesla blog gaat het over een 'tractor trailor', basically wat we allemaal kennen als een truck met grote aanhangwagen. Vrachtwagen dus. Hebben die trouwens normaal geen aparte reflectoren aan alle kanten hangen, wat er juist voor moet zorgen dat ongeacht de kleur van de trailer, de randen ervan zeer duidelijk zichtbaar zijn voor de mens?

Nu, los van het feit dat hier veel uit geleerd kan worden over de plaatsing en functionele werking van de verschillende sensoren en veiligheidsfeatures, lijkt de voornaamste fout me toch dat die vrachtwagen een autosnelweg (highway) overstak... slecht verkeerswissel design is dus niet alleen voor België voorbehouden...
Highway is niet hetzelfde als autosnelweg. Sterker nog, bijna elke weg is een highway. Het blijft vervelend, die mensen die engels spreken en aan de verkeerde kant van de weg rijden...
Hun redenering van witte achtergrond kan misschien zo zijn voor de camera, maar hoe zit het dan met de radar en andere sensoren? Of reiken die niet ver genoeg om deze auto op tijd te laten stoppen?
We hebben geen idee met wat voor snelheden de auto's reden. De Tesla reed rechtdoor, als dat met zo'n 80 kilometer per uur is geweest dan is elke remactie te laat als er voor je een vrachtwagen "even" de weg afsnijdt om af te slaan.

Je zou dan hooguit op de verkeerde weghelft uit kunnen wijken (dus zelf links afslaan de berm in) maar daar zal de Autopilot van Tesla niet voor zijn geprogrammeerd. Die is immers niet bedoeld om zelf te rijden maar hooguit om te stoppen als er een noodsituatie nadert.
Hij heeft wel Auto Emergency Steering. Mooie term het zal wel niet precies zo werken. Maar het blijft daarom ook semi automatisch.
Het probleem van dit, is zelfde als het probleem van rijden met navigatie: de mens wordt alleen maar dommer.
De 'te laat' hangt gewoon af van de detectieafstanden van de sensoren. Er bestaan radar's die tot op km's afstand een voertuig als deze kunnen detecteren. Het kan ook afhangen van de hoek van de radar (de truck reed op een highway loodrecht op de baan. En blijkbaar hier dus ook de hoogte van de trailer (de radarbeam ging eronderdoor).
80km/u hoeft niet te laat te zijn, zolang 1 van de detectiesystemen het op tijd detecteert.
Auto pilot is in ieder geval veiliger dan een dronkenlap achter het stuur.

En dat zeg ik als tegenstander van zelfrijdende auto's.
Hoezo? Ik zeg alleen dat een 100% veilige wereld niet bestaat. We moeten streven naar perfectie, maar ook begrijpen dat niet te halen.
Niet zo zeer 'dat zat eraan te komen' maar meer 'vooralsnog minstens net zo veilig'?
Ik vind het ook niet eens zo schokkend gezien de gereden kilometers die wel succesvol waren.

Maar dat betekent niet dat er geen les uitgetrokken kan worden. Waarom zit er geen lange afstand sensor aan de voorzijde?
Omdat Tesla's systeem een budget systeempje is om enigzins automatish te reden, niet autonoom te rijden.

Tesla is eigenlijk een uitbreiding van eerdere systemen die je waarschuwen als je buiten de lijnen gaat of cruise control die zelf afstand houdt. Dat zijn veel simpeler systemen dan die je in de Google auto ziet. Die heeft veel complexere (en duurdere) sensoren.

Volgens mij is er eigenlijk ook nergens geclaimed dat Tesla's systeem om kan gaan met kruisend verkeer, alle presentaties gingen meer over het rijden op een snelweg en afstand houden tot auto's die de zelfde kant op gaan.

Dan is 5 meter ook al weinig maar met computer reactie tijden nog afdoende.

Met 5 meter ultra-sonic kun je gewoon niet rijden met kruisend verkeer.
Hoe kom je er bij dat het gaat om een goedkoop systeem?

Auto's met systemen waar google op staat geplakt, techniek kopen ze en ze hopen dat ze er iets beter van kunnen maken,
hebben ook fouten gemaakt.

Weliswaar niet dodelijk maar ze zijn zeker niet feilloos.
https://static.googleuser...s/reports/report-0216.pdf
Ze maken er zelf ook verslagen van.
In mijn optiek maken ze er meer den hype van dan dat ze daadwerkelijk intentie hebben om iets op de weg te brengen.
Ongeveer 4 mln kilometers gereden waarvan 2,4 autonoom.


Statistisch gezien moest er sowieso een dodelijk ongeluk komen al kun je die vergelijking niet helemaal maken omdat er met een geslagen meer zakelijk wordt gereden en daardoor meer op snelweg rijd.

Desalniettemin RIP.
Wel een leven dat verloren is gegaan waar twijfel over bestaat.
Omdat het een goedkoop systeem is. In vergelijking met het systeem van Google.

Dit bedoel ik nou met al mijn posts op dit onderwerp. Mensen zien de auto van Tesla die lijntjes kan volgen en zien het als gelijkwaardig met de echt autonome auto's.

Google's auto en andere zijn nog niet KLAAR. Ook volgend jaar niet, die zul je nog lang niet op de markt zien.

Wat je nu ziet zijn geavanceerd cruise controls. Handige hulp middelen maar niet een auto die jouw veilig van A naar B kan brengen.

Kijk gewoon even naar de specs van de sensoren. Er wordt ook nergens geclaimed door de makers van de Tesla dat de auto dezelfde autonomie heeft als de echte projecten. Dit is echt iets van de media en mensen zoals jij die denken dat een afstands metertje gelijk staat aan een lidar die gebruikt wordt om alles om de auto heen in kaart te brengen,.

http://www.techinsider.io...a-driverless-cars-2015-12

Lidar 80k

Autonoom vs lane following. Totaal verschillende scope.
Heb je helemaal gelijk in,
alleen woed er ook een discussie over welk systeem nou de voorkeur heeft.

Een systeem om binnen de lijntjes te rijden waarbij er vanuit verschillende bronnen input komt,
of een compleet autonoom systeem.

Een compleet autonoom systeem is zeer moeilijk te implementeren, zoniet onmogelijk, er zijn veel te veel factoren waar je rekening mee moet gaan houden waarbij het probleem bij interpretaties/verschillen ligt.

Een systeem dat binnen de lijntjes rijd is vrij snel te implementeren en vooral in de westerse wereld. Er is een goed wegennet dat goed in mekaar zit waarbij eventuele aanpassingen relatief snel kunnen worden gedaan. Zo opperde iemand om bijvoorbeeld de hectometers mee te nemen als extra ijkpunt, zo simpel en vrijwel in elk land te vinden.


Overigens ben ik wel van mening dat als eerst buiten de bebouwde kom het systeem op orde moet worden gebracht, en vervolgens eventueel deels binnen. Ik geloof niet dat er massaal ineens autonome wagens een stad worden toegelaten op midden-korte termijn. De techniek daarvoor is bij lange niet rijp en misschien zal die ook nooit compleet gebruikt gaan worden ivm mogelijke gevolgen.
Ik kan me voorstellen dat er een limiet komt mbt maximale snelheid binnen de bebouwde kom van 30km/h
Niet schokkend na zo weinig kilometers? In Nederland heb je gemiddeld elke 5 miljard kilometer een dodelijk ongeluk (2007). Dat is een hele andere grootte van orde (factor 24 verschil).
Elke 5 miljard?

In Amerika is het dus elke 94 miljoen mijl (mensen) versus 130 miljoen mijl (Tesla auto-pilot)

Nu zal het hier op de weg misschien wel veiliger zijn dan in Amerika, maar dit is wel een heel groot verschil in cijfers.
Ja, daar is een heel andere definitie gebruikt lijkt me, valt dus niet te vergelijken. Ik heb mijn cijfers van wikipedia en wordt omschreven als 'Slachtoffers per miljard gemotoriseerde voertuigkilometers (IRTAD, International Road Traffic and Accident Database)'. De VS staat daar als 1 verkeersdode/9 miljard km te boek. https://nl.wikipedia.org/...west_en_Provincie_in_2013

[Reactie gewijzigd door Aikon op 1 juli 2016 09:22]

Ik heb mijn cijfers van wikipedia en wordt omschreven als 'Slachtoffers per miljard gemotoriseerde voertuigkilometers (IRTAD, International Road Traffic and Accident Database)'. De VS staat daar als 1 verkeersdode/9 miljard km te boek. https://nl.wikipedia.org/...west_en_Provincie_in_2013
Dus als daar staat "5" dan is dat niet 1 slachtoffer per 5 miljard kilometer maar juist 5 slachtoffers per 1 miljard kilometer ofwel 1 slachtoffer per 200 miljoen kilometer.
Gelukkig schrijven we hier dan ook geen wetenschappelijke artikelen, maar voeren we een discussie, waar we best op Wikipedia als een bron mogen bouwen.

Uit:
https://en.wikipedia.org/...raffic-related_death_rate

Land: verkeersdoden per 100.000 inwoners/per 100.000 voertuigen/per miljard km:
NL: 3,4 / 6 / 4.5
US: 10.6 / 12.9 / 7.1

Kortom, in het Amerikaanse verkeer komen meer mensen om dan in het Nederlandse. Overigens is dat niet zo gek en ligt dat niet zozeer aan rijstijl of kwaliteit van de auto's. Er m.i. twee redenen;
1. Afgelegen wegen. Er zijn veel wegen in de VS die erg afgelegen zijn. Deze zijn minder goed verlicht, bewegwijzerd en onderhouden dan Nederlandse wegen.
2. Niet-fit rijden. Uitgaansleven in Nederland is vaak in binnensteden en goed bereikbaar met OV of fiets. Ook rijdt het OV tot laat door (de nachttrein/nachtbus). In de VS, zeker in de minder stedelijke gebieden, is de auto de enige optie. Daardoor rijden mensen vaker onder de invloed of vermoeid.

Vooral dat laatste is natuurlijk iets waarbij 'driver automation' erg veel verschil kan maken.
We schrijven hier inderdaad geen wetenschappelijke artikelen, maar dat wil niet zeggen dat de gegevens die we gebruiken in de discussie niet onderbouwd moeten zijn.

Het is fijn dat je 2 redenen noemt, maar zijn dat je eigen gedachten of kun je dat onderbouwen. Ik vind het gevaarlijk om zomaar dingen te roepen zonder bewijs. In dit geval zou het een stuk eerlijker zijn, mits je bewijs hebt voor 1 en 2, om te zeggen: "Wat de redenen hiervoor zijn, weet ik niet." Je hebt namelijk helemaal geen gegevens over wat voor soort ongelukken, waar precies, leeftijds groep, omstandigheden (weer/drugs/alcohol gebruik) etc etc.

Op basis daarvan kun je dan een discussie voeren, niet op basis van onderbuik gevoel.
We schrijven hier inderdaad geen wetenschappelijke artikelen, maar dat wil niet zeggen dat de gegevens die we gebruiken in de discussie niet onderbouwd moeten zijn.
Sorry hoor, maar heb je dat Wikipedia artikel überhaupt geopend? De laatste kolom van de tabel is gelabeld "Year, data source (standard source: The WHO report 2015,[1] data from 2013)" waarbij de "[1]" een linkje is naar de originele data.
Dit is helemaal geen gevalletje "Wikipedia klakkeloos als bron gebruiken", wat hier gebeurt is "Wikipedia is een makkelijke manier om niet zelf op zoek te hoeven naar een primaire bron en de data ook nog meteen netjes opgemaakt te krijgen". Te kort door de bocht voor een wetenschappelijke publicatie, maar prima verdedigbaar voor een discussie en verre van "niet onderbouwd".
Het is fijn dat je 2 redenen noemt, maar zijn dat je eigen gedachten of kun je dat onderbouwen.
Er m.i. twee redenen
Dat zijn dus zijn eigen gedachten: "m.i." = "mijns inziens".

[Reactie gewijzigd door robvanwijk op 1 juli 2016 22:22]

In Nederland heb je gemiddeld elke 5 miljard kilometer een dodelijk ongeluk (2007). Dat is een hele andere grootte van orde (factor 24 verschil).
Het is ook gewoon een onzin cijfer mbt auto's in Nederland.
Stel je hebt 8 miljoen auto's in Nederland die 15.000 km per jaar gemiddeld afleggen dan is dat 120 miljard kilometers per jaar. Als er maar 1 dode per 5 miljard km zou vallen dan vielen er maar 24 doden per jaar in heel Nederland.
In werklijkheid vallen er 20 keer zo veel doden.

Hmmm, 5 miljard gedeeld door 20 is 250 miljoen. En dan zit je weer in dezelfde orde van grootte als de cijfers in dit artikel. Niet verrassend dus.

[Reactie gewijzigd door TWyk op 1 juli 2016 10:16]

Er zijn vele ongelukken gebeurt terwijl de autopilot aanstond (sommige zijn te vinden op youtube), maar er was nog niet eerder een dodelijk ongeluk. Dit ene dodelijk incident zegt weinig over de veiligheid van Tesla's autopilot.

Het is ook een slechte vergelijking, stukjes waar autopilot actief is versus hele ritten waar mensen besturen. Autopilot doet alleen simpele handelingen en mensen niet. Dat maakt impliciete gevolgtrekkingen zoals Tesla doet in het persbericht zeer discutabel.
De bestuurder is ook nog verantwoordelijk om op de weg te letten. Daarbij als het buiten het vermogen van de auto ligt om het ongeluk te voorkomen dan is zowel een computer als persoon niet instaat om het ongeluk te voorkomen.
Er rijden 130.000 Tesla rond snel. In Nederland vallen 500 doden per jaar op 8M auto's. Snel rekensom leert dat Tesla dat staat op 8 doden per jaar met Tesla rijders.

Je kunt zeggen dat bepaalde auto's veiliger zijn en andere niet maar het cijfer is meer als indicatie.

Jammer dat Tesla geen animatie heeft of meer informatie van het ongeluk. Het ongeluk kan net zo goed zijn veroorzaakt door de vrachtwagen zelf, misschien zelfs waarschijnlijker.

[Reactie gewijzigd door comitatus op 1 juli 2016 08:01]

Het lijkt mij enorm lastig om een autopilot beslissingen te laten maken in het verkeer. Naast wat hier zo te lezen is misgegaan (de autopilot zag de witte tractor niet tegen een witte achtergrond) is er ook nog een categorie van beslissingen die zelfs wij mensen enorm lastig zouden vinden om te nemen, namelijk als je moet kiezen tussen twee kwaden. Een extreem voorbeeld is een situatie waarin een persoon in een auto zit die op hoge snelheid rijdt waarbij er ineens een aantal personen voor zijn neus de weg over steken en de enige uitwijkmogelijkheid een muur is. Stuurt de autopilot in zo'n geval de auto de muur in, waarbij de kans groot is dat de bestuurder komt te overlijden, of rijdt hij in op de personen voor zijn neus, waarbij de kans groot is dat er daar meerdere slachtoffers vallen. Kortom, kies de autopilot ervoor om zijn bestuurder zo goed mogelijk te beschermen en zo ja, ten koste van wat? Of is dat zelfs door de bestuurder te configureren? Naast een technische zit hier natuurlijk ook een hele maatschappelijke discussie achter. Wat vinden wij aanvaardbaar.
Kunnen we stoppen met zulk soort hypothetische situatie te bedenken en te gaan eisen dat een autonome auto eerst moet gaan checken hoe oud iedereen is in de situatie om dan zo min mogelijk kinderen omver te rijden? Waarbij hij er op het laatste moment achter komt dat dat ene kind toch gewoon een klein persoon was en hij weer vol de andere kant op moet sturen?

Een autonome auto moet gewoon alles eraan doen om een ongeluk te voorkomen. Niet meer, niet minder. Als je het nodeloos complex gaat maken vergroot je enkel de kans op een ongeluk. Daarnaast, wat denk je dat een persoon in die situatie doet? Die zal puur instinctief reageren, en dan zo'n 1-2 seconde later als je autonome auto, en die bedenkt ook echt niet al die zaken in zo weinig tijd. Dan kan je beter gewoon sneller reageren als autonome auto en het hele ongeluk voorkomen.
Waarom je +2 krijgt snap ik niet. Ik vind je reactie bedenkelijk.

Wat je zegt is 'Laten we niet te veel analyseren want dat is moeilijk en we willen niet te diep in gaan op de materie want dan komen we er misschien achter dat er een morele kant aan de zaak zit die we willen vermijden. We willen niet nadenken over wat aanvaardbaar is en welke afweging de fabrikant in de software moet programmeren.'

Dat doet me denken aan de drie apen, die van horen, zien en zwijgen. De situatie die marrs beschrijft is niet hypothetisch voor lang. En als we die situaties niet van te voren bespreken dan laten we het over aan de fabrikant. En als ik jou lees dan vind je dat prima, zodat jij je niet bezig hoeft te houden met ethische vraagstukken. Dat soort dingen is niet progressief, maar moedwillig wegkijken van de problemen die men nu al kan bedenken.

Je klinkt als een huisvrouw die er geen verstand van heeft en die kwaad wordt op de wasmachine en de monteur: 'Hij moet het verdomme gewoon goed doen, ik wil niet weten wat er fout ging!'
Tja en zo vind ik behalve jouw reactie bedenkelijk (omdat die toch redelijk op de man af is), en ook het idee dat we de software van een auto moeten gaan laten bepalen over leven en dood. Voor mij heeft de software van een autonome auto slechts één taak: Ongelukken voorkomen.

Met zulk soort hypothetische situaties die bedacht worden zie ik het voor me dat er twee groepen voetgangers zijn. Moet een auto dan de gemiddelde leeftijd van die groepen gaan uitrekenen en de oudste groep als doelwit nemen? En dan komt hij op het laatste moment erachter dat iemand nog een baby buiten het camera veld van de auto vast had, en dus toch voor de andere groep gaan? Maar toen bleek dat het slechts een pop was, dus toch weer voor het originele plan gaan?

Op deze manier moet er eerst een enorme hoeveelheid extra rekenkracht aan beeld herkenning worden besteedt, in plaats van dat de auto gewoon direct vol in de remmen gaat en alles eraan doet om niemand te raken. En dan hebben we het nog niet over de extra complexiteit, en dus extra risico's, die de programma's gaan krijgen als we complete ethische beslissingsstructuren gaan inbouwen. Beslissingsstructuren waar we het hier ook nog niet over eens zullen zijn (maak een pol over het voorbeeld marrs en ik durf te wedden dat er flink wat verschillen qua ideeën zijn). En waar een normale bestuurder echt niet over nadenkt terwijl hij vol zijn rempedaal indrukt. (Of niet: https://www.youtube.com/watch?v=DP3b4j2JS3c).

Oftewel de TL;DR: Ik wil autonome auto's die ongelukken voorkomen. Die altijd de beslissing nemen die (zover de auto's kunnen berekenen) degene is met de kleinste kans op een ongeluk. Niet auto's die extra risicos nemen, en ongelukken veroorzaken, omdat iemand zo nodig een schaalverdeling moest maken van wie eigenlijk niet zo erg is als hij/zij onderdeel is van een ongeluk. En ook geen auto's waarbij ik een stel poppen op de achterbank moet zetten om hem voor de gek te houden dat er kinderen in zitten, zodat hij mijn leven ook een beetje serieus neemt.
Maar doorgaans zie ik mensen redeneren dat een autonome auto veel sneller kan beslissen omdat de rekenkracht van de processor zo hoog is. Maar nu schrijf jij dat het kostbare milliseconden kost om een beslissingsstructuur te berekenen, tijd die een auto niet heeft om ongelukken te voorkomen.

Wel, wat is het nu? Jij bent het dus oneens met de mensen die die stelling hebben?

En dus wat is je voorstel, dat een auto gewoon al die berekeningen niet moet doen omdat in milliseconden de situatie blijft wijzigen en gewoon in de remmen moet gaan. En dan blijkt dat de situatie van een kind dat een pop bleek er nooit was en dus reed de auto-auto een kind dood omdat we met ons allen bang waren dat de auto te veel tijd nodig had om een situatie door te rekenen...

Als die situatie ontstaat waarom gaan we dan autonoom rijden? Een mens die niet nadenkt reageert instinctief. Een kind! Omdraaien dat stuur!

Het hele punt is dat we de mens uitspelen tegen de machine en er een soort wedstrijd of wedloop van maken.

Als jij een auto-auto de kleinste kans wilt laten berekenen, dan is het onmogelijk om niet alle mogelijker scenario's bij langs te gaan. Of dat kan, ik denk het niet, want de realiteit is niet een lineaire situatie.
Een mens die niet nadenkt reageert instinctief. Een kind! Omdraaien dat stuur!
Heb jij een bron waaruit blijkt dat een mens aantoonbaar slachtoffers op 'waarde' kan schatten binnen dat moment dan? Want dat een mens instinctief reageert ben ik met je eens, maar waarnemen wat er zich om je heen bevindt (2 groepen), bepalen wat daar de waarde van is (leeftijden van de mensen) en daar een conclusie aan verbinden (wat ga je eigenlijk doen als je in de ene groep een kinderwagen ziet, maar in de andere groep twee kinderen van 6?) kost gewoon tijd. En het punt van instinctief handelen is dat je dat juist zonder overweging doet. Ga je overwegen, dan reageer je nooit sneller dan instinctief en verlies je dus kostbare tijd waarin je moet remmen en ontwijken.

Vraag voor de 'lol' eens aan hulpdiensten hoevaak ze mensen uit een wrak moeten knippen omdat ze een dier op de weg ontweken of met een wiel in de berm kwamen en van schrik verkeerd tegenstuurden. Mensen zijn niet goed in het 'instinctief' juiste beslissingen nemen bij ongelukken.

Wat wel een zekerheid is, is dat niets raken (ontwijken) beter is dan wel wat raken en dat energie verminderen (remmen) de schade ook vermindert. Dat zou de prioriteit moeten zijn bij elk ongeluk.

[Reactie gewijzigd door twiFight op 1 juli 2016 17:01]

Het zijn ingebakken beslissingen. Een mens herkent een kind zo snel als de delen van de hersens die daarvoor van belang zijn geactiveerd kunnen worden. En dat is een snelheid die ik accepteer als de acceptabele basis aan de grond van menselijk handelen.

Ik eis van een mens niet dat die sneller moet zijn dan zijn eigen schaduw. Op het moment dat de menselijke factor niet langer acceptabel is, dan rijst er een enorm ethisch vraagstuk. Want dan voldoen wij niet aan de eisen die wij onszelf opleggen, al levende in de moderne samenleving.

En dan is het logisch dat we machines bouwen, zoals robots, die sneller kunnen reageren dan het maximum menselijk bereik. Maar als het menselijk bereik faalbaar is, dan moeten noodzakelijkerwijs al onze producties ook inherent faalbaar zijn. Want alleen perfectie kan perfectie creëren.

Vandaar dat ik denk dat de auto-auto op termijn nauwelijks voordelen heeft t.o.v. de bestaande situatie en dus de vraag die ik stel bij elke technologie is - of het nut heeft en de situatie verbeterd - beantwoord ik met marginaal. En daarbij betrek ik ook de maatschappelijke gevolgen van de introductie en implementatie van de auto-auto, dus hoe die de mens in de samenleving beïnvloed en op welke manier.

En als het veel gedoe om niets is, of een marginaal effect, dan zeg ik, doe het niet. En haal de winst van minder verkeersdoden uit iets anders. Bijvoorbeeld meer thuis werken. Het ontmoedigen en belasten van auto-gebruik. Het aanmoedigen dat familie dichter bij elkaar woont. Dat geeft meer voordelen, ook rond klimaat.

De hele zaak is krankzinnig. Waar hebben we het over? Wat laten we feitelijk onbesproken? Wat is het paradigma?

Dat we allemaal individueel vervoer willen. Dat we leven in een samenleving die individualisme zo ver doorvoert, dat we allemaal persoonlijke mobiliteit beogen en een groot deel van ons inkomen opofferen aan een vervoersideaal.

Wat we dus willen met een auto-auto is de gevolgen van die keuze wegstrepen. Maar het is een omweg, no pun intended. Als je minder doden wilt in het verkeer, rijdt dan minder auto als samenleving. De beste oplossingen zijn die welke het basale probleem adresseren.

Andere oplossingen zijn lapwerk, een stapeling van steeds nieuwe technologieën om door technologie veroorzaakte problemen op te lossen.

Ik hen een tijd terug een capuchino machine uit de jaren 60 in handen gehad en ik sneed me aan een venijnig scherp randje van een klep. Nu kan ik de technologie 'pleister' bouwen om de wond te bedekken. Maar beter is het om er voor te zorgen dat zo'n apparaat dat verdomde tering-randje zo scherp als een scheermes niet heeft to begin with zoals ze in het Engels zeggen.

Verkeersdoden zijn voornamelijk het gevolg van individualisme in de samenleving, dat naast 'ieder zijn eigen auto' ook bijdraagt aan het lak hebben aan verkeersregels omdat we risico's nemen met de veiligheid van anderen omdat we met anderen concurreren op de arbeidsmarkt; we willen op tijd komen, de baas niet teleur stellen en als het gaat om vrachtverkeer, tijd is geld.

Daarom stel ik dat een weg een klok van asfalt is. :o Een auto-auto is dus een technologische oplossing om een ontkenning van een probleem in stand te houden. :) Het is een cirkelredenatie waarbij we de auto inzetten als middel om onze arbeidsmobiliteit te verhogen en concurrerend te zijn met onze medemens, die we dan soms dood rijden in onze individualistische haast om het geld te verdienen waarmee we de auto als statussymbool kunnen bekostigen en ons de mobiliteit verschaft om te concurreren d.m.v arbeidsmobiliteit. 8)7

"Progress if often spurred by a certain kind of faith in the future, which we may call hope: the hope that things will work out just fine, that although problems may occur along the way, we will find means to solve them, and that no real harm willcome to us. Modern technology has a way of inciting such hope. It has a natural affinity to utopian thinking.

-- Michael Hauskeller, 'The Ontological Ethics of Hans Jonas'

En dus vind ik het opmerkelijk dat we praten over de snelheid van ons te langzame brein of de kwaliteit van software en de snelheid van de hardware in de auto-auto. |:(
Een autonome auto moet gewoon alles eraan doen om een ongeluk te voorkomen. Niet meer, niet minder. Als je het nodeloos complex gaat maken vergroot je enkel de kans op een ongeluk.
Als je die auto als een op zichzelf staand systeem ziet, is dat wel een mooi streven inderdaad. Zo gauw die auto 'in het wild' wordt losgelaten, krijg je meerdere systemen/auto's die allemaal een ongeluk willen voorkomen. Het lijkt me niet zo moeilijk situaties te denken waarbij twee (of meerdere) autonome auto's die hetzelfde willen bereiken, in conflict komen.

Het principe is niet veel anders dan verschillende threads in een processor die ook in een bepaalde staat kunnen belanden. Dat multithreading vereist een centrale plek om te synchroniseren, oftewel straks zijn alle Tesla's centraal met elkaar verbonden. Welke thread krijgt dan prioriteit?
Als je ook maar denkt dat je die hele redenering zelf bewust kunt maken op de moment dat zich zoiets voordoet, denk ik dat je naïef bent. ALS dat gebeurd, reageer je gewoon instinctief. Echt beslissen is hier echt niet van toepassing.

Dat heb ik zelf al een paar keer gemerkt bij een overstekend konijntje of iets dergelijks. Ik heb gas gelost en ben rechtdoor gereden, zonder daarbij na te kunnen denken. Hetzelfde bij een kat die de autosnelweg overstak toen ik 180 per uur reed. Telkens de juiste beslissing, achteraf gezien.

Mocht het gegaan zijn over een groep mensen, ik zou niet kunnen inschatten wat mijn reactie gaat zijn. Je kan enkel achteraf gaan discussiëren of het de juiste beslissing (of beter reactie) was.
Ik heb groot vertrouwen in de mens, waar de meeste pro-Tesla fanboys dat niet zijn. En breder, techno-fanboys.

Want een mens die een kind ziet gaat dat kind ontwijken, instinctief. Want dat is evolutie. We beschermen kinderen tegen gevaren.
maarja een groep mensen die de snelweg oversteken als er aanstormende auto's aankomen verdienen gewoon de darwin prijs... als je begrijpt wat ik bedoel....
Als ik gegarandeerd een dier ga raken op snelheid laat ik juist niet mijn gas los.
Zodat het voor het dier gegarandeerd dead on impact is.
Zeker weten? Ook als je dan het risico loopt dat het je voorruit verbrijzelt en je niets meer kunt zien terwijl je nog steeds op snelheid bent? Of dat het in je wielkast slaat waardoor je (tijdelijk) minder goed bestuurbaar bent?

...of dat het te groot is, en je je airbag in je snufferd krijgt.
Ligt aan het dier natuurlijk, maar bij een hond/kat en zo rem ik dan expres niet.
De kans is veel groter dat de auto bestuurbaar blijft als de motor het trekken is, dan wanneer ie vrij loopt.
+ het laatste wat ik zou willen is dat het dier lijdend ligt dood te gaan met gebroken ribben ed. Dan liever in 1 klap dood.
Uiteraard direct stoppen na de klap ivm schade aan de auto.

Een ree of zo zal ik eerder proberen te ontwijken met een elandproef.
https://nl.wikipedia.org/wiki/Elandtest
Tja, het is maar hoe je het bekijkt. Heb ooit een hond aangereden. Die stak over (zonder aangelijnd te zijn) op een doorgaande weg waar ik ongeveer 50 reed. Door flink te remmen heb ik hem met mijn voorbumper een flinke duw in zijn zij gegeven. Hond leek nog best ok en rende daarna snel weg terwijl zijn baasje haastig een steegje in scharrelde, wetende dat hij fout was.

Wat ik wil zeggen is dat als ik 50 was blijven rijden de hond er veel minder goed vanaf was gekomen. Dan was hij wellicht ergens onder mijn auto terecht gekomen.

Het is natuurlijk allemaal afhankelijk van de situatie. Maar goed, als denkend mens kun je wat creatiever met zo'n situatie omgaan dan een stuk software. Hoe geavanceerd we dat ook vinden.
Tuurlijk, met 30/50 is de kans nog aanwezig dat je genoeg kan remmen zodat het dier zonder serieuze verwondingen eraf komt.
Maar 80/100/120? Waar je in het donker het dier ook nog later op merkt?

Als een kat een 80-weg overrent is het sorry kat, boem.

In de stad zou ik sowieso op de claxon duwen. grotere kans dat het dier dan opzij springt.

[Reactie gewijzigd door hackerhater op 1 juli 2016 15:29]

Impulsieve reactie is eerst remmen. Handen aan je stuur houden om controle te behouden. Tenzij je een Fransman bent natuurlijk... :)
Normaal ja, mijn rijopleiding is een stuk uitgebreider geweest dan van de doorsnee mensen ;)
Nu maak je me nieuwsgierig! :) Wat is het geweest? Militair? Politie? Rij-instructrice?
Neuh gewoon een maffe rijinstructeur die me wel aardig vond en ik was een van de laatste die hij opleidde voor zijn pensioen.

Dus the works gekregen inclusief slipcursus, noodstops ed.
Dat gecombineerd met een vrouw die op de vrachtwagen rijd ;)

Daarnaast rij ik veel per jaar (25.000+), in NL, Duitsland en Belgie. Mijn auto kan btw 185 :+ (autobahn)

Het mafste dat ik ooit gedaan heb : grote jeep (9 persoons) omhoog gereden op een zandweg op Ibiza O+ :P

[Reactie gewijzigd door hackerhater op 1 juli 2016 15:45]

Het lijkt mij enorm lastig om een autopilot beslissingen te laten maken in het verkeer. Naast wat hier zo te lezen is misgegaan (de autopilot zag de witte tractor niet tegen een witte achtergrond) is er ook nog een categorie van beslissingen die zelfs wij mensen enorm lastig zouden vinden om te nemen, namelijk als je moet kiezen tussen twee kwaden. Een extreem voorbeeld is een situatie waarin een persoon in een auto zit die op hoge snelheid rijdt waarbij er ineens een aantal personen voor zijn neus de weg over steken en de enige uitwijkmogelijkheid een muur is.
Dat soort dingen krijg je toch ook niet bij je rijopleiding? Als je met hoge snelheid door een krappe omgeving heen rijdt (tussen 2 muren) en ook nog eens blindelings op een groep personen afstormt dan doe je al iets gruwelijk fout. Met andere woorden: Je had al nooit in die situatie terecht moeten komen, ook als menselijke bestuurder niet.

Als de verkeerssituatie zo krap is dat je jezelf doodrijdt als je in een muur uitwijkt, dan rijd je gewoon te hard. De reactie van een autopilot zal dus eerder zijn om op die situatie te anticiperen (hee, het lijkt net een echte bestuurder) en zijn snelheid aanpassen zodat er alleen blikschade is als je de auto in de muur parkeert.
Waarom is dat een discussie als het gaat om automatisch rijden, maar is het geen thema bij je rijlessen?
Omdat de meeste auto's op dit moment nog helemaal niet die zooi aan boord hebben?
Nee, ik bedoel bij rijlessen waarbij je dan zou moeten leren hoe je hiermee om gaat als menselijke bestuurder. Jij, als mens, hoe reageer je in dit soort situaties? Dat is volgens mij geen thema in de lessen.
Wij als mens kunnen op zo'n moment alleen instinctief reageren. Een computer heeft geen instinct, die zal de vooraf geprogrammeerde regels moeten volgen. De vraag is dus, m.i. terecht, wat voor regels geven we de computer mee?
Uiteraard zal regel 1 zijn, vermeid een situatie als dit. Echter, aangezien er beslist onvoorziene omstandigheden bestaan, zal ook een computer die tegenkomen. Ik denk dus dat de ethische discussie over dit onderwerp wel degelijk relevant is.
Ik denk dat een mens hier geen problemen mee gehad zou hebben. Het toont weer aan dat zelfrijdende auto's (op dit moment) nog een brug te ver zijn. De overheden zouden dit soort systemen moeten verbieden vind ik. Je krijgt dat mensen andere dingen gaan doen tijdens het rijden en dus helemaal niet meer opletten. Aan de andere kant heeft het ook geen zin om een autopilot te hebben als je steeds paraat moet staan om in te grijpen. Dan kan je net zo goed zelf gaan rijden.

Verbieden die dingen!

[Reactie gewijzigd door ArtGod op 1 juli 2016 08:11]

Technologische vraag: hoe komt het dat de Tesla de auto niet heeft gezien? Aangezien het systeem 's nachts werkt, kunnen ze niet afgaan op licht, ze moeten dus lasers / radars gebruiken.

Dan is de vraag: is de auto er tegen 50 mijl tegenop gereden, of heeft de autopilot nog proberen te remmen?
> ze moeten dus lasers / radars gebruiken.

Nee, nee.

Camera (1) en ultra-sonic sensors. Jij denkt aan de autonome auto's zoals die van google. Die hebben lidar(?). Tesla is niet geschikt voor autonoom rijden. Zal het in de huidige setup ook nooit worden.
Dit is natuurlijk onzin, o.a. Audi gebruikt voor Pre Sense (crash detectie) en Adaptive Cruise Control (wat ook in het autonoom pakket van Tesla zit) gewoon een Radar module met een bereik van +- 200 meter in de laatste generatie, welke ondersteund wordt met Ultrasoon sensoren. Zie bijv. http://www.audi-technolog..._control2_en__details.jpg

Heb je een Audi met ACC en verkeersbord detectie dan komt er ook nog een camera bij.

Andere fabrikanten gebruiken voor soortgelijke systemen ook Radar / Lidar / Laser. Tesla had dat dus ook gewoon kunnen doen, in plaats van enkel op een camera met korte afstands ultrasoon sensoren te vertrouwen.
Ik lees de zin van Snake

> kunnen ze niet afgaan op licht, ze moeten dus lasers / radars gebruiken.

als

> Ik snake denk dat ze niet alleen een camera kunnen gebruiken en neem dus aan dat ze lasers/radar gebruiken.

Dat is dus niet zo. Ook is de radar die wel wordt gebruikt voor afstands detectie niet geschikt om echt een beeld van het verkeer te krijgen.

In dit geval het herkennen van een voertuig dat wil afslaan. Het zijn eigenlijk omgekeerde snelheids detectors, niet de lidar die je in filmpes ziet van google die een heel beeld maken van de omgeving.

Maar even terug, wat jij zegt is wat Tesla had kunnen/moeten doen (maar dan was het net zoals de Google auto nog niet af) en ik zeg dat dit er nog niet inzit.

Ik vind die autonome auto's zeer interessant en het doet mij een beetje pijn dat mensen denken dat de Tesla er een is. Is het gewoon niet.
het was blijkbaar een hoge platte trailer waar de auto onderdoor schoof.
dat is een best dun object om te zien met een radar, en kans dat de radar er onderdoor keek.
Het is een goede stap naar de toekomst maar was het niet beter om een goed universeel systeem te ontwikkelen in plaats van diverse systemen en het universele systeem goed uit te werken en de fouten eruit te halen?
Ik denk ook dat er altijd wel ongelukken gemaakt moeten worden om fouten eruit te krijgen. Helaas noemen we dit met vallen en opstaan en kunnen we dit niet voorkomen. Anders komen we niet erachter.
Ik vraag mij ook af, stel dat achter een heuvel en file staat, wie zal dit sneller opmerken?
Maar dat is voor een bedrijf niet heel interessant. Waar zitten de USPs? Waar halen ze hun uniekheid vandaan? Waar gaan ze de winst op maken?

Nee, het is maatschappelijk het beste, maar ik zie dit voorlopig nog niet op grote schaal gebeuren aangezien bedrijven graag hun eigen sausje over dingen heen gooien. Zelfs met Android moet iedere fabrikant hun eigen skin eroverheen leggen, dus dan gaat het met is duurders en complexers als een auto ook nog wel even duren...
maar was het niet beter om een goed universeel systeem te ontwikkelen in plaats van diverse systemen en het universele systeem goed uit te werken en de fouten eruit te halen?
Absoluut niet. Innovatie krijg je door concurrentie. Als de concurrent/vijand iets nieuws heeft dan moeten wij iets beters hebben. Die houding drijft de innovatie. Je ziet dat oorlogstuig, prestige projecten (space race) maar ook bij smartphones. Nu de meeste smartphones Android draaien, gaat zijn het nog maar kleine evoluties in plaats van grote revoluties.
Ja, maar ik zou wel graag zien dat fabrikanten verplicht worden om hun trainingssets en fout-analyse data te delen. In dit geval zou Tesla hun data over dit ongeval moeten delen. Hierdoor kunnen alle autofabrikanten er van leren, en wordt het veiliger voor iedereen. Hoe de fabrikanten zorgen dat ze deze situatie dan aanpakken is hun probleem, maar het kan niet zo zijn dat automatische auto's van elke fabrikant apart een bepaald type ongeluk meegemaakt moeten hebben om er als industrie in zijn geheel van te leren. In de luchtvaart wordt hier behoorlijk open over gecommuniceerd trouwens.

Ik denk ook dat dat positief zou zijn voor alle fabrikanten. Je wil niet dat het fenomeen van de automatische auto een slechte naam krijgt en het getroffen wordt door een verbod of een negatieve stemming onder consumenten.
Dat is een goed idee. Dat er uit ongeval situaties openbare testcases voor elke fabrikant gemaakt worden. Maar omdat zoiets zelfs bij crashes niet gebeurd heb ik ijdele hoop dat de fabrikanten hun zwakten zo openbaar durven te maken.
Triest zat, maar het mooie van de automatische piloot van tesla is dat ze deze nu zullen aanpassen en dit ongeluk nooit meer zal gebeuren. Bij geen enkele Tesla, wereldwijd. Dat is een gigantisch voordeel boven menselijke bestuurders die dit ongeluk zullen blijven herhalen. (Deze bestuurder niet meer natuurlijk :-/ )
Een automobilist ziet dit 100 meters van te voren al lang aankomen. Tesla ziet alleen maar een object. Wij mensen weten de kenmerken van een tractor. Wij weten dat er vaak jonge mennekes op zitten, dat ze hoog zitten, dat ze slecht verlicht zijn, dat ze traag zijn, dat ze weleens zomaar de weg op kunnen rijden.

Zelfde als spelende kinderen, een tesla snapt daar geen snars van. Wij mensen weten dat ze zo de straat op kunnen schieten, dat de voetbal waar mee ze spelen zo de weg op kan rollen, dat ze in hun eigen speel wereld zitten en zomaar opeens in een gevaarlijke situatie terecht kunnen komen waar wij automobilist in kunnen grijpen.
Wat jij zegt klopt 100%. Het inschattende vermogen van een auto (of andere technologie) staat nog in de kinderschoenen. Ik weet niet of dit er ooit van zal komen, maar wij mensen (ook al maken wij de meeste fouten), kunnen er ook veel voorkomen. Ver vooruit kijken en inschatten welke situaties er mogelijk gaan gebeuren is iets wat een auto of welke robot dan ook nog niet kan.

+1.
Dit was geen trekker maar een trailer van een vrachtwagen, die de zon weerkaatste. De camera van de Tesla werd hierdoor overladen met licht en zag de trailer dus niet.
Dit kan mensen dus ook overkomen.

Sterker nog, het is me zelf ook wel eens overkomen dat ik door laagstaande zon bijna een ongeluk gehad heb. Of dat een grijze auto zonder verlichting op een grauwe bewolkte dag wel heel erg laat zag. Gelukkig steeds geen ongelukken, maar scheelde weinig.

En het "mooiste" is nog, van zo'n van leren alle andere auto-pilots binnenkort van. Terwijl ik als mens een fout maak, leer ik er alleen zelf van (als ik het heb overleefd)
Spijtig dat het systeem zijn Eigen betrouwbaarheid niet goed kan inschatten dan. Overbelichting = niet veilig rijden = vertragen of automatische piloot afzetten.
Ja inderdaad. Dat wordt waarschijnlijk de fix, de software update. Lijkt mij.
Ik doe dat zelf ook, als ik iets niet meer zie gaat het gas eraf.

Maar goed, ander verhaal is dat de sensoren eigenlijk te beperkt zijn. In ieder geval te beperkt voor volledige autonoom rijden.
Het scheelde weinig omdat je het object waarschijnlijk al eerder had gezien toen je nog niet verblind werd, waardoor je vanuit je onderbewustzijn onwillekeurig wat alerter was, en vanuit die situatie meer adequaat kon reageren.

Noem het onderbewustzijn, noem het intuïtie, noem het talent, maar het zijn allemaal eigenschappen die we een computer (voorlopig) niet kunnen geven.

Wat met deze Tesla gebeurde was typisch een gevalletje 'ED-209'.
Nee het scheelde weinig omdat de ander wel aan het opletten was (en tegen een andere achtergrond met meer contrast) aan zat te kijken.
Want anders was het gewoon een ongeluk geweest, wat puur en alleen aan mij had gelegen.
Geen onderbewustzijn of wat dan ook. Werd gecorrigeerd door de andere bestuurder. In beide gevallen.
Tja, wat kan ik hier nog op zeggen? Wellicht ben jij dan wel beter af met een autopilot...
Haha, ik hoor het al, jij bent een van die mensen die denkt beter te kunnen rijden dan een autonome auto? Mensen zijn gewoon langzaam in vergelijking met computer gestuurde auto's.
Ik geef alleen fouten toe. Die ik overigens maakte in het eerste jaar dat ik mijn rijbewijs had. Maar het zou nog steeds kunnen gebeuren.

Let wel, ik zeg niet dat de auto-pilot de heilige graal is. Het kan beter uitgerust worden door combinatie van camera (die ze al hebben) met sonar/radar achtige dingen die andere merken gebruiken. Beste van twee werelden.

Maar ik wilde alleen maar de vergelijking maken dat je met zo'n camera opstelling dezelfde problemen krijgt als de mens met z'n ogen. Het is beperkt bij weinig contrast of overbelichting. Dus dit kan de mens ook gebeuren. En dus een nog te maken verbeter punt.
Sterker nog, ik weet zeker dat er op dit moment op deze planeet geen autonoom rij-systeem te vinden is dat beter kan rijden dan een willekeurige automobilist.

Een mens trager dan een computer? Absoluut mee eens. Maar wij (mensen) kunnen veel betere beslissingen nemen in een speelveld waarin het aantal variabelen hoog is en wat voortdurend aan verandering onderhevig is.

Jammer genoeg is de mens een emotioneel wezen wat uiteraard de weerslag heeft op zijn rijgedrag. Daarin zal een autonoom rij-systeem de mens zeker kloppen.

In dit geval van de falende Tesla zijn er (precies wat jij aangeeft) simpelweg te weinig variabelen in overweging genomen om tot een bepaalde conclusie te komen. Zelfs na de aanrijding had hij nog niet door dat er een aanrijding geweest was. Het systeem is eenvoudigweg nog te simpel voor wat het aan moet kunnen. Het is gewoon nog aan de vroege kant voor dit soort dingen.

Maar goed, je trok het op de persoon, "Ik ben een van die mensen die denkt beter te rijden dan een autonome auto.". Nou ja, dan maar even de kaarten op tafel leggen: Ik ben 48, heb 29 jaar mijn rijbewijs en heb ik die 29 jaren ongeveer gemiddeld 50.000 km per jaar gereden. Reken maar uit. Qua autoverzekering zit ik in de hoogste korting met daarbij de hoogste trede. De laatste op mij verhaalbare schade had ik in 1995, en dat was een lichte aanrijding in de orde van grootte van ongeveer 1200 gulden.

Nou...dus ja, in 2016 denk IK zeker wel dat IK beter kan rijden dan een autonome auto, en ook nog wel in de jaren daarna. Er zal ongetwijfeld een moment komen dat een autonoom rij-systeem de mens (en daarmee ook mij) voorbij streeft, maar dat is voorlopig nog zeker niet het geval.
Deels mee eens. Ik denk dat het echter niet zo lang meer gaat duren.

Ook ben ik wat minder positief over de mens ;) Jij schrijft dat mensen goed zijn in een omgeving waar het aantal variabelen en veranderingen hoog ligt. Ik denk daar heel anders over.
Ik ben iedere keer verbaasd dat het zo goed gaat, dat mensen in auto's rijden die veel harder gaan dan waar ze zelf ooit voor gebouwd zijn (max 20km/u) :P
Deze is toepasselijk: https://xkcd.com/1075/

En deze eerste vormen van autonome auto's (niet alleen Tesla, maar ook het Google systeem dat meer variabelen kent / sensoren heeft) laten al zien dat het behoorlijk goed gaat. De gereden kilometers zonder schade geeft aan dat vooral Google behoorlijk op de goeie weg zit.

Ik wilde overigens niet persee op de man spelen, ik het juist het idee dat jij het op de persoon trok door te zeggen "misschien heb jij het dan wel nodig". En daaruit maakte ik het op dat jij dacht het beter te kunnen. Misschien heb je gelijk, maar het gaat in ieder geval al niet lang meer duren.

Overigens denk ik dat het er in Westerse landen redelijk snel naar toe gaat met autonoom rijden.

Ik heb ook de nodige kilometers zelf gereden in Azië, waaronder India. Ik denk dat het nog wel even duurt voordat het daar goed gaat werken.
Als ik jouw verhaal zo lees dan maakt de mens helemaal geen fouten. Dan leef je toch in een andere realiteit dan ik. Een mens en machine kan fouten maken, en zoals ik uit bovenstaande tekst haal maakt de machine minder fouten dan de mens.

En hoe kom je aan bovenstaande informatie, want het lijkt mij dat Tesla toch wel rekening probeert te houden met spelende kinderen.
Maar blijkbaar zijn de sensoren nog niet zover dat ze het effect van een zonnebril kunnen nabootsen. Een mens met een zonnebril had deze trailer gezien.
Daarom moet de chauffeur ten alle tijden opletten en kunnen ingrijpen. Autopilot is geen vervanger van de chauffeur maar een hulpmiddel, als de chauffeur niet een film aan het kijken was maar zoals het moest gewoon aan het opletten dan was dit ongeluk waarschijnlijk niet gebeurd.
Tenzij de zon recht van voren stond en de trailer achter een ander object vandaan reed. En nog zat andere mogelijkheden.
Sowieso is de situatie niet eens bekend. Gelijkwaardige kruising? Voorrang van verkeer? Hield iedereen zich aan de verkeersregels?
Welke snelheden? etc.

Makkelijke inschatting dat iemand met een zonnebril het wel gezien zou hebben.
Heb zo het vermoeden dat een gewone bestuurder ook niet veel uit had kunnen maken.
(blijkt ook wel aangezien de bestuurder zelf ook in had kunnen grijpen, maar blijkbaar de trailer ook niet gezien en hij/zij had misschien wel een zonnebril op als het een zonnige situatie was)
In dit geval kopt je eerste zin niet.

De sensoren zien 5 meter. Op 100 meter zien ze dus geen flikker. Niets. Helemaal niets.

De camera kan verder zien maar dat is veel onbetrouwbaarder want dan ziet de software pas iets als het een object kan herkennen in het beeld. Veel minder betrouwbaar.

Ik zeg het anders ook al, Tesla's systeem is geen autonome auto. Het is meer bedoeld als een geavanceerde cruise control die zelf afstand kan houden. Dus auto's die dezelfde richting op gaan.

Tesla's systeem kan NIET over weg met plotselinge obstacles. Zeg een slagboom, zal de camera niet zien en de andere sensoren zien pas op 5 meters iets. Dus met een beetje snelheid zit je er op.

Als volg systeem werkt het omdat auto's voor je niet meteen stil staan, dan is vijf meter zicht "genoeg".

Maar het is nooit genoeg om een auto autonoom te laten rijden.

Jammer dat mensen het toch zo gebruiken. Gelukkig heeft deze idioot er alleen zichzelf mee gehad.
Zie de eerste reactie; het is inderdaad de vrachtwagen die geen voorrang verleende. Ook het overzicht dat in deze reactie wordt aangehaald doet mij twijfelen of de vrachtwagenchauffeur in staat was te zien dat de Tesla rijder een film aan het kijken was.

Immers, hoe zou hij dat wel kunnen observeren om vervolgens geen voorrang te verlenen?
Het is veel aannemelijker dat dit na die tijd is geconstateerd, bijv. dat de film nog draaide op een middenconsole / tablet of telefoon toen de eerste mensen bij het wrak van de tesla aankwamen. Als de vrachtwagen namelijk voorlangs gekruist is, en de Tesla de trailer raakt meer naar de achterkant van de trailer is het vrijwel onmogelijk zoniet onmogelijk dit tijdens het rijden gezien te hebben.
En toch gebeuren exact het soort ongelukken dat jij beschijft dagelijks sinds auto's gemeengoed zijn. Tussen 'weten' en snel genoeg reageren om een ongeluk te vermijden zit nog steeds een groot verschil, ook voor mensen.

Daarbij, als het klopt wat Tesla zegt, dat de witte tractor tegen de witte lucht niet gedetecteerd werd, heeft dit ongeluk niks te maken met een domme AI of een fout van de programmeurs, maar met de sensoren die nog niet alles kunnen waarnemen. Als jij iets niet hebt gezien, kan je brein ook niet in gang schieten om er op tijd op te reageren. De Tesla S heeft dus gewoon betere sensoren nodig, wat wellicht het goedkoopste onderdeel in de hele chain is om te verbeteren.
dat zijn natuurlijk allemaal factoren die je een auto ook kan vertellen (voorspelbaarheidsfactor van een voertuig). Kinderen aan het voetballen? => snelheid verlagen en rekening houden met voetbal die de weg op kan schieten...
AI kan hier zelfs van leren in de praktijk (zoals de mens ook doet) en zelfs dit distribueren naar andere systemen zodat die ook weten van dit soort situaties
"Dit" zag de bestuurder ook niet aankomen. Of het de laagstaande zon was of dat hij een film aan het kijken was weet niemand.

Daarnaast klopt het niet wat je zegt: Tesla snapt dit ook, of kan dit leren. Zo hebben ze tijdens alle tests fietsers ook een "andere" status gegeven: die doen ook vaak onverwachte dingen. En Tesla kan zo geprogrammeerd worden.
Net als met schaken. Daar zal de grootmeester ook nooit van de computer verliezen 😃 Beetje flauw voorbeeld, maar de toekomst is aan de technologie. Leuk dat mensen dingen kunnen zien aankomen, maar ze maken afgrijselijk veel fouten. Zijn vaak zelfs bewust niet goed aan het autorijden ( bellen, appen, eten, roken etc.) . Als we ieder ongeluk met autonome auto's analyseren en oplossen, dan vinden we over tien jaar een mens achter het stuur "gewaagd". Dan passen we de wegen aan aan de automaten en zijn er over 20 jaar nauwelijks meer verkeersongevallen door auto's. Mensen zijngewoon erg slecht in risico inschatting van hun eigen gedrag en leren daardoor veel te langzaam. Automaten zijn daar juist erg goed in. Zeker bij een eenvoudig systeem als verkeer.
Tja, het risco van deze systemen is dat mensen zelf niet meer gaan opletten zelfs als je van alles en nogwat uit de kast haalt om daar wel voor te zorgen.

Dit incident had voorkomen kunnen worden als de bestuurder had opgelet en dus geen gebruik had gemaakt van de huidige manier van autopilot functionaliteit.
Dit incident had voorkomen kunnen worden als de bestuurder had opgelet en dus geen gebruik had gemaakt van de huidige manier van autopilot functionaliteit.
Dat zou dus het complete autopilot-systeem zinloos maken. De uiteindelijke doelstelling achter zo'n autopilot is dat je auto een robot wordt en je zelf als passagier in je eigen auto kan rijden, ook als je geen rijbewijs hebt.

Als je de afweging zou maken van het aantal doden dat valt door een "inschattingsfout" van de autopilot zoals dit, of het aantal doden als gevolg van dronken bestuurders, dan wint die autopilot het gegarandeerd.
De uiteindelijke doelstelling achter zo'n autopilot is dat je auto een robot wordt en je zelf als passagier in je eigen auto kan rijden, ook als je geen rijbewijs hebt.
Dat mag dan het doel zijn, maar zover zijn we nog lang niet, en je kunt je afvragen of je een auto die bijna zover is wel op de weg moet laten. Mensen vertrouwen teveel in de techniek.
WoW dus jij hebt voor dat het onderzoek is afgerond nu al de conclusie getrokken dat dit voorkomen had kunnen worden? Wellicht had de bestuurder dit voertuig nooit kunnen zien aankomen door de lokale omstandigheden. Ik weet het niet, jij blijkbaar wel
Vind dat hele gebeuren bij Tesla sowieso wel eigenaardig. Google is al jaren bezig om met meerdere auto's miljoenen testkilometers af te leggen om het automatisch rijden te vervolmaken, terwijl Tesla met een software-update dezelfde functionaliteit belooft?

Mijn gevoel zegt me dat de Tesla variant lang niet zo grondig getest is als waar Google mee bezig is.
autopilot is(op dit moment) wat anders dan waar Google mee bezig is.
Google wil auto's die door kinderen nog "bestuurd" kunnen worden met een paar spraak commando's.
Tesla's autopilot is een combinatie tussen een next-gen cruise-control en een preventieve airbag, om een getrainde bestuurder te assisteren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True