Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Fatale crash Uber-auto kwam doordat software overstekende voetganger niet zag

De zelfrijdende Volvo XC90-auto van Uber die in maart vorig jaar in de VS betrokken was bij een fataal ongeluk met een voetganger, bleek software aan boord te hebben die onvoldoende in staat was om rekening te houden met voetgangers die op onbedoelde plekken de weg oversteken.

De Amerikaanse National Transportation Safety Board meldt in een vrijgegeven document dat de Uber-auto niet de software aan boord had om te reageren op voetgangers die aan jaywalking doen, oftewel voetgangers die op 'onwettige wijze' een weg oversteken op een plek waar bijvoorbeeld geen zebrapad of oversteekplaats is.

Binnen twee weken publiceert de NTSB zijn volledige rapport over de crash van 18 maart 2018, waarbij in het Amerikaanse Tempe een 49-jarige vrouw om het leven kwam toen ze in het donker de weg overstak op een plek waar geen overgang was. Ze had een fiets aan de hand toen ze weg overstak.

Dat laatste bleek ook een noodlottig element. De Volvo-auto reed nog 70km/u toen de vrouw werd aangereden. Toen de auto haar detecteerde, op 5,6 seconden voor de impact, werd de vrouw als een voertuig aangeduid. Vervolgens verandert het brein van de auto dat in 'overige' en weer terug naar voertuig; dat patroon herhaalde zich nog twee keer. Pas op 1,2 seconden voor de crash herkende het systeem de situatie correct.

Met die resterende 1,2 seconden speling had het systeem de remmen kunnen activeren, maar technici van Uber bleken een ingebouwd Volvo-remsysteem te hebben uitgeschakeld. De automaker gaf eerder aan dat dat systeem het ongeluk wellicht zelfs had kunnen voorkomen. Uber-technici hadden dit uitgeschakeld, omdat het onveilig zou zijn als de auto twee actieve softwaresystemen zou hebben die parallel aan elkaar opereren.

Het NTSB-rapport bevestigt verder dat er een vertraging van een seconde in de software was ingebouwd tussen het detecteren van een situatie waarin een crash waarschijnlijk is en het reageren daarop. Uber had dit gedaan, omdat het bedrijf bang was voor teveel false positives. Tijdens de 1,2 seconden voor de impact leidde dat ertoe dat de auto niet de remmen activeerde, omdat het de aard van het gevaar eerst verifieerde. De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg. Met 0,2 seconden te gaan gaf de auto een geluidswaarschuwing, waarna de bestuurder het stuur ter hand nam, maar ze remde pas een seconde nadat de botsing al had plaatsgevonden.

In het onderzoeksrapport staat dat Uber inmiddels veranderingen heeft doorgevoerd aan zijn veiligheidsprogramma. Verder heeft het bedrijf de training van veiligheidschauffeurs aangescherpt en rijden er nu steeds twee personen in de zelfrijdende auto's.

Door Joris Jansen

Nieuwsredacteur

06-11-2019 • 08:04

333 Linkedin Google+

Reacties (333)

-13330320+1132+231+32Ongemodereerd169
Wijzig sortering
Natuurlijk mag je de 'hoogst mogelijke' betrouwbaarheid eisen. Maar wat is dat precies?

Of je nu praat over de servers waar het bankverkeer op draait, de systemen die vliegtuigen in de lucht houden, kerncentrales of autonoom rijdende auto's, het principe is ongeveer hetzelfde: bij systemen waar hoge eisen aan gesteld worden, meet je betrouwbaarheid in het aantal keren dat het fout mag gaan. Fout in een bepaalde periode is hier het eenvoudigst om mee te werken.

Zoals je zelf al zegt, 100% is onmogelijk. Systemen falen. De vraag is, hoe vaak mag een systeem falen voordat het acceptabel is dat systeem in te voeren? Daarvoor wil je en paar dingen weten:

- Wat is de impact van een fout? Een kerncentrale mag echt ongeveer nooit falen, omdat een fout miljoenen mensen kan treffen.
- Wat is de impact van het niet invoeren van het systeem? Als je de servers waar banken op draaien weer moet vervangen door papieren administratie, hoeveel fouten worden er dan gemaakt?

In dit geval is de analyse niet zo moeilijk: Ik definieer 'fout' als een fout die een (ernstig) ongeval tot gevolg heeft. Een ongeval met een voertuig heeft doorgaans impact op een handvol personen, en in extreme omstandigheden op tientallen. De impact van het invoeren van autonoom rijdende voertuigen is duidelijk: ze vervangen menselijke chauffeurs, die ook fouten maken.

Vandaar mijn conclusie: Zodra computers het beter doen dan mensen, mogen ze autorijden. Dat is geen reden om die systemen niet te blijven perfectioneren, het zou fantastisch zijn als door autonome voertuigen de verkeersveiligheid ook echt toeneemt. Maar het feit dat ze het geen factor 100 beter doen dan mensen (wat met '8 nines' gevraagd werd) is geen reden om ze niet te laten autorijden. Het alternatief is nog steeds soms slaperige, appende, afgeleide mensen achter het stuur.

[Reactie gewijzigd door Pooh op 6 november 2019 12:29]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True