Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Fatale crash Uber-auto kwam doordat software overstekende voetganger niet zag

De zelfrijdende Volvo XC90-auto van Uber die in maart vorig jaar in de VS betrokken was bij een fataal ongeluk met een voetganger, bleek software aan boord te hebben die onvoldoende in staat was om rekening te houden met voetgangers die op onbedoelde plekken de weg oversteken.

De Amerikaanse National Transportation Safety Board meldt in een vrijgegeven document dat de Uber-auto niet de software aan boord had om te reageren op voetgangers die aan jaywalking doen, oftewel voetgangers die op 'onwettige wijze' een weg oversteken op een plek waar bijvoorbeeld geen zebrapad of oversteekplaats is.

Binnen twee weken publiceert de NTSB zijn volledige rapport over de crash van 18 maart 2018, waarbij in het Amerikaanse Tempe een 49-jarige vrouw om het leven kwam toen ze in het donker de weg overstak op een plek waar geen overgang was. Ze had een fiets aan de hand toen ze weg overstak.

Dat laatste bleek ook een noodlottig element. De Volvo-auto reed nog 70km/u toen de vrouw werd aangereden. Toen de auto haar detecteerde, op 5,6 seconden voor de impact, werd de vrouw als een voertuig aangeduid. Vervolgens verandert het brein van de auto dat in 'overige' en weer terug naar voertuig; dat patroon herhaalde zich nog twee keer. Pas op 1,2 seconden voor de crash herkende het systeem de situatie correct.

Met die resterende 1,2 seconden speling had het systeem de remmen kunnen activeren, maar technici van Uber bleken een ingebouwd Volvo-remsysteem te hebben uitgeschakeld. De automaker gaf eerder aan dat dat systeem het ongeluk wellicht zelfs had kunnen voorkomen. Uber-technici hadden dit uitgeschakeld, omdat het onveilig zou zijn als de auto twee actieve softwaresystemen zou hebben die parallel aan elkaar opereren.

Het NTSB-rapport bevestigt verder dat er een vertraging van een seconde in de software was ingebouwd tussen het detecteren van een situatie waarin een crash waarschijnlijk is en het reageren daarop. Uber had dit gedaan, omdat het bedrijf bang was voor teveel false positives. Tijdens de 1,2 seconden voor de impact leidde dat ertoe dat de auto niet de remmen activeerde, omdat het de aard van het gevaar eerst verifieerde. De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg. Met 0,2 seconden te gaan gaf de auto een geluidswaarschuwing, waarna de bestuurder het stuur ter hand nam, maar ze remde pas een seconde nadat de botsing al had plaatsgevonden.

In het onderzoeksrapport staat dat Uber inmiddels veranderingen heeft doorgevoerd aan zijn veiligheidsprogramma. Verder heeft het bedrijf de training van veiligheidschauffeurs aangescherpt en rijden er nu steeds twee personen in de zelfrijdende auto's.

Door Joris Jansen

Nieuwsredacteur

06-11-2019 • 08:04

333 Linkedin Google+

Reacties (333)

-13330320+1132+231+32Ongemodereerd169
Wijzig sortering
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.

Ik heb liever dat Uber zich hier weg van houdt. Ik ben wel kritisch tegenover autonome voertuigen maar ondanks mijn aversie tov Google heb ik een stuk meer vertrouwen in Waymo dan Uber - die loopt vrijwel overal de kantjes vanaf. Zo blijkt ook hier weer.

Wat me ook opvalt: waarom testen ze autonome voertuigen met iets wat praktisch een tank is, een zeer dikke Volvo? Waarom niet met een klein licht autootje, een Smart ofzo? Of dat hier veel had uitgemaakt weet ik niet, maar ik word liever aangereden door een Smart dan door een Volvo XC90...

[Reactie gewijzigd door MadEgg op 6 november 2019 08:47]

zoals ik het begrijp is er een "Beoordeel tijd" ingebouwt dat wanneer er een detectie wordt gedaan. Je niet meteen afgeremd wordt. Bij een vals positive namelijk erg irritant als je zomaar stil gezet wordt zonder reden.

Het systeem probeerde daarom zeker te beoordelen wat het zag. En omdat daar geen conclusie uitkwam werd er ook niet naar de volgende stap gegaan. HOW TO AVOID. Oftewel remmen of uitwijken. Dat daar iets niet goed gaat is dan wel duidelijk. Het is dus een combinatie van het kunnen detecteren, kunnen beoordelen en reageren die in deze software nog niet goed loopt.

Gek genoeg een kwestie van het detecteren van iets dat voor de auto zit waarvoor het systeem hoe dan ook had moeten remmen ongeacht wat het was. Inplaats van hangen in de afweging van wat het was waarvoor geremd had moeten worden.
De fout lijkt me duidelijk. Het systeem heeft standaards 1 seconde wachttijd ingebouwd, pas dan wordt de bestuurder gealarmeerd, voordat die reageert en de situatie beoordeeld ben je ook 1 seconde verder.
Als je false positives wil voorkomen moet het systeem de bestuurder meteen een waarschuwing geven zonder vertraging, die kan dan alsnog beslissen binnen 1 seconde in te grijpen of na 1 seconde grijpt het systeem wel of niet in.

andere probleem is natuurlijk dat het systeem geen rekening gehouden heeft met een persoon op deze locatie omdat het niet mocht.
Vraag me af hoe het systeem dat op een spookrijder gaat reageren die natuurlijk op de verkeerde kant van de weg rijd, wat ook niet mag.
Een systeem lijkt me moet met alles in iedere situatie rekening houden dus ook met zaken die volgens de regeltjes niet mogen.
Ja, daarom heb je natuurlijk dit soort 'tests'. En dan moet je eigenlijk als 'tester' er 100% bij zijn en dat is hier niet gebeurt. Zwaar nalatig.
99.999999% betrouwbaar. Dat zou betekenen dat in een land als Nederland, met bijvoorbeeld 20 miljoen zelfstandig rijdende voertuigen, er maar 73 fouten per jaar gemaakt mogen worden. Op dit moment vallen er 10 keer zoveel doden in het verkeer. Ik denk dat een betrouwbaarheid van 99.9999% (6 nines) eerder je benchmark moet zijn. Je praat dan over 7300 fouten per jaar, waarbij ik ervan uitga dat 1 op de 10 fouten een dode zou 'mogen' opleveren (dus een 'fout' is hier een fout die een ernstige aanrijding veroorzaakt).

Zodra een autonoom voertuig een hogere score haalt dan een erg goede bestuurder, zal het geaccepteerd worden. Daar heb je echt geen 8 nines voor nodig. De techniek van je auto haalt dat niet eens, de kans dat je auto daadwerkelijk remt als je de rem intrapt is fors lager.
Waarom zou je niet de hoogst mogelijke betrouwbaarheid mogen eisen? Een auto heeft geen last van vermoeidheid en zenuwachtigheid. 100% is onmogelijk (er zullen altijd wel buitengewoon onwaarschijnlijke dingen gebeuren), maar een auto kan best 'geleerd' worden rekening te houden met voetgangers die oversteken waar dat eigenlijk niet mag (of wanneer het niet mag), met bestuurders die opeens er kort opduiken etc - dingen die vaak genoeg gebeuren.

Kijk, als iemand besluit zonder te kijken over te steken 1 seconde voordat jij er aan komt, daar kan ook een zelfsturende auto weinig aan doen. Maar als je 5+ seconden hebt om een situatie te voorkomen, dan dient een zelfsturende auto toch echt ruim op tijd de juiste beslissing al gemaakt te kunnen hebben.
Natuurlijk mag je de 'hoogst mogelijke' betrouwbaarheid eisen. Maar wat is dat precies?

Of je nu praat over de servers waar het bankverkeer op draait, de systemen die vliegtuigen in de lucht houden, kerncentrales of autonoom rijdende auto's, het principe is ongeveer hetzelfde: bij systemen waar hoge eisen aan gesteld worden, meet je betrouwbaarheid in het aantal keren dat het fout mag gaan. Fout in een bepaalde periode is hier het eenvoudigst om mee te werken.

Zoals je zelf al zegt, 100% is onmogelijk. Systemen falen. De vraag is, hoe vaak mag een systeem falen voordat het acceptabel is dat systeem in te voeren? Daarvoor wil je en paar dingen weten:

- Wat is de impact van een fout? Een kerncentrale mag echt ongeveer nooit falen, omdat een fout miljoenen mensen kan treffen.
- Wat is de impact van het niet invoeren van het systeem? Als je de servers waar banken op draaien weer moet vervangen door papieren administratie, hoeveel fouten worden er dan gemaakt?

In dit geval is de analyse niet zo moeilijk: Ik definieer 'fout' als een fout die een (ernstig) ongeval tot gevolg heeft. Een ongeval met een voertuig heeft doorgaans impact op een handvol personen, en in extreme omstandigheden op tientallen. De impact van het invoeren van autonoom rijdende voertuigen is duidelijk: ze vervangen menselijke chauffeurs, die ook fouten maken.

Vandaar mijn conclusie: Zodra computers het beter doen dan mensen, mogen ze autorijden. Dat is geen reden om die systemen niet te blijven perfectioneren, het zou fantastisch zijn als door autonome voertuigen de verkeersveiligheid ook echt toeneemt. Maar het feit dat ze het geen factor 100 beter doen dan mensen (wat met '8 nines' gevraagd werd) is geen reden om ze niet te laten autorijden. Het alternatief is nog steeds soms slaperige, appende, afgeleide mensen achter het stuur.

[Reactie gewijzigd door Pooh op 6 november 2019 12:29]

Perfect samengevat.

Om daar nog iets aan toe te voegen.
Mijn verwachting is dat verzekeringsmaatschappijen uiteindelijk de drijvende kracht worden hierachter.
Mensen zijn nou eenmaal de grote "single point of failure", zonder menselijke bestuurders daalt uiteindelijk de premie en dus veel interessanter.

Daarnaast moet je je zelf de vraag stellen met de situatie waar we nu inzitten.
Mijn gepensioneerde oom heeft in het verleden meerdere aanrijdingen gehad met stilstaande auto's.
Hij bleek niet meer in staat om goed de situatie in te schatten. Van CBR kreeg hij gewoon verlenging, want medisch in orde.
Uiteindelijk na veel gezeur is het gelukt om hem zijn rijbewijs te laten inleveren. Was werkelijk een gevaar op de weg.

Voor deze mensen (en jongeren) zou een zelf rijdende auto een geweldige uitkomst zijn.
Ook nooit meer een auto te hard door een woonwijk, kinderen kunnen naar school fietsen zonder de angsten van ouders om aangereden te worden door een slaperige chauffeur.
Probleem is dat we in een overgangsfase zitten. Daarmee bedoel is dat als autonome systemen op de weg komen er ook mensen rijden, mensen maken fouten. Heb je alleen autonome systemen dan kunnen die op wegen met elkaar communiceren waardoor fouten, lees ongelukken niet meer zouden moeten gebeuren.

Blijft natuurlijk dat je naast auto's ook andere weggebruikers hebt, fiets, brommer, voetganger, motor, kinderen die nog steeds onberekenbaar en niet legaal gedrag kunnen vertonen. Daar zal een systeem altijd rekening mee moeten houden.
Die overgangsfase loopt natuurlijk op meerdere manieren. Ik geloof dat we niet snel een situatie zullen krijgen waarin volledig 'domme' auto's de weg delen met volledig autonome auto's, buiten de snelwegen. Zeker in stadsverkeer zal volledig autonoom rijden nog lang een droom blijven.

Ik geloof veel meer in auto's die meer en meer autonoom worden. Dat zie je nu al heel veel, met lane assist en adaptive cruise control, en dat gaat veel meer gebeuren. Waarom zou je niet kunnen communiceren met een niet-volledig autonome auto? Hoe handig zou het zijn als je heads-up op basis van de navigatie van ene andere auto alvast kon vertellen dat die auto rechts van de blokmarkering toch echt links ervan moet zijn, volgens z'n navigatie? Of dat er 8 auto's voor je op de snelweg iemand vol op de rem stapt en jij ook moet remmen? Er is weinig dat je daarvan niet nu al kunt bouwen. Ik denk dat we steeds slimmere auto's krijgen, met nog heel lang een mens achter het stuur, waarbij autonoom rijdende voertuigen vooral een proeftuin zijn, en interessant voor bepaalde eenvoudige taken (snelwegrijden).

Een derde categorie is 'remote' rijden. Je zet in Rotterdam een vrachtwagen op de snelweg. Die rijdt autonoom tot 20 km voor Dusseldorf. Daar wordt 't te druk, en kan het niet meer autonoom, bovendien moet hij zometeen het industriegebied op. Een operator logt remote in, en rijdt hem het laatste halfuur vanaf z'n bureau naar lokatie. Die operator kan op die manier 6 vrachtwagens per dag rijden, ipv 1.
Je gaat ervan uit dat "per ongeluk gedood door een mens" en "per ongeluk gedood door een algoritme" even zwaar wegen.

Maar dat is niet zo. Mensen zullen een dood door een algorite minder accepteren. En daarom zullen computers het veel beter moeten doen.
Dat is een heel interessante vraag. Ik ben daar voor het gemak even vanuit gegaan, omdat voorspellen welke kant dat kwartje opvalt heel lastig is.

Jouw aanname, dat mensen dood door een algoritme minder accepteren, gaat hoogstwaarschijnlijk alleen op wanneer het algoritme een fout maakt. Dood door een actieve fout van een algoritme (stel dat een autonome auto geen voorrang verleent) is inderdaad 'zwaarder'.

Maar het omgekeerde speelt net zo goed! 'Dood door eigen schuld' omdat een algoritme niet in staat was om een fout op te vangen van een ander, waar een mens daar misschien wel toe in staat was geweest, dat zou maar zo lichter beoordeeld kunnen worden. Zodra technieken 'geaccepteerd' zijn, nemen we bepaalde consequenties voor lief. Het zou maar zo kunnen dat we het computers niet kwalijk nemen dat ze ervan uitgaan dat mensen zich aan de regels houden. Zoals we bij een overweg het ook de trein niet kwalijk nemen als er een ongeluk gebeurt terwijl de lichten en slagbomen gewoon werkten.
Nee, ongever 7300 ongevallen waarbij ongeveer 730 doden vallen. Dat is de huidige situatie op de Nederlandse wegen. Dat is geen doel, dat is hoe de gemiddelde chauffeur nu rijdt. Zodra autonome voertuigen het beter gaan doen dan dat, dan kun je chauffeurs beter vervangen door computers.
Het aantal doden za dan dalen maar de schuldvraag komt wel anders te liggen. Als het een software fout is ipv menselijk hoe ga je daar dan mee om, simpelweg de bestuurder eigenaar maken kan nu nog maar zodra autonoom rijden steeds meer de norm wordt dan wordt het met andere dingen dan het verkeer wel steeds ‘gebruikelijker’ en in hoeverre kan je ingrijpen door de mens dan nog verwachten.
Ik vraag mij dan ook af wie er zal beslissen over de ethische vraagstukken, zoals wie rijd de auto omver in het geval een botsing onvermijdelijk is. Weet niet of dit reel is maar stel even hypothetisch dat die auto plots over een olievlek komt te rijden, en deze sliert richting het voetpad. Als die gewoon doorsliert rijd hij een kind omver. Maar als deze gas geeft zal hij enkel de hond omverrijden. Computers zijn in staat om zulke beslisingen te maken in milliseconden, moet dit geprogrammeerd worden? Statistisch gezien zullen zo een zaken gebeuren en die vraag zal ooit gesteld worden neem ik aan.
Het is niet omdat je de ethische kwesties probeert te ontlopen, dat ze zich uiteindelijk niet zullen stellen. Meer nog: eerder dan technische problemen zullen ethische kwesties uiteindelijk bepalen wanneer de autonome auto “klaar” is.

De ethische beschouwingen als “nutteloos” wegzetten is dan ook een zeer autistische benadering!
De vraag is natuurlijk of het nodig is om zo betrouwbaar te zijn. Waarschijnlijk is 85% betrouwbaarheid al beter dan de gemiddelde menselijke bestuurder.
Zo rationeel denken mensen niet. Dus worden er hogere eisen gesteld aan een autonoom rijdend systeem wil men overstappen. Want zeg nu zelf, zou jij in een auto stappen die 85% betrouwbaar is met zelf rijden?
Voor mijn gevoel rij ik beter dan dat en dat zal (bijna) ieder mens denken/zeggen.
Het ligt uiteraard genuanceerder. Meer zoals @Pooh hierboven zegt.
Zodra een autonoom voertuig een hogere score haalt dan een erg goede bestuurder, zal het geaccepteerd worden. Daar heb je echt geen 8 nines voor nodig. De techniek van je auto haalt dat niet eens, de kans dat je auto daadwerkelijk remt als je de rem intrapt is fors lager.
Maar ik vraag me af hoeveel fouten een erg goede bestuurder maakt. Veel (potentiële) fouten worden namelijk niet eens opgemerkt. Denk aan een rustig moment waar de bestuurder even afgeleid is. Als er plots een kind oversteekt is het een opgemerkte fout, maar als er niets onverwachts gebeurt dan zie je die fout niet. Hetzelfde geldt voor andere weggebruikers die opletten en daardoor erger voorkomen. Het feit dat het vaak goed gaat komt deels doordat anderen jouw fouten ook nog kunnen corrigeren. Dus als iedereen 1% fouten maakt dan is er nog steeds maar 0,01% kans op een ongeluk (uitgaande van het nodig zijn van twee fouten om een ongeluk te veroorzaken).

85% betrouwbaarheid is natuurlijk kul, maar 99,9% zou best een stuk beter kunnen zijn dan een goede bestuurder. En laten we het maar niet hebben over alle onbenullen die hun telefoon in de auto gebruiken...
Ja, dit hangt natuurlijk volledig van je definitie van 'fout' af.

Is een fout:
- In een willekeurige verkeerssituatie niet perfect handelen, zonder dat daardoor noodzakelijk gevaar of verwarring wordt veroorzaakt (dus een paar centimeter naast de ideale lijn, 1-2 km/h te langzaam of te snel, een kwart seconde te laat reageren op een situatie)
- In een willekeurige verkeerssituatie minder dan gemiddeld goed handelen, zonder gevaar of verwarring. (tegen de lijn aan, 5 km/'h te langzaam of snel)
- In een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat verwarring wordt veroorzaakt, zonder gevaarzetting (te hard op kruising afrijden, wel remmen)
- In een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat gevaar wordt veroorzaakt en andere weggebruiker moet ingrijpen (zo hard op kruising af dat ander moet inhouden, ook al had ander voorrang)
- enzovoorts, enzovoorts, t/m
- Veroorzaken dodelijk ongeval.

Voor die eerste is een betrouwbaarheid van 50% waarschijnlijk al hoog. Voor die laatste wil je iets dat beter is dan de gemiddelde chauffeur nu, dus minder dan 1 dode per 20 miljoen ritten ofzo. De echte interessante gevallen zitten in het midden: Hoe reageert de rest van het verkeer op een autonoom rijdend voertuig? Kun je een voertuig 'aankijken' en daardoor de intentie begrijpen? Als hij iets naar links gaat in de baan, wil hij dan bij de volgende kruising linksaf? En andersom, snapt een voertuig dat een kind op de stoep gevaarlijker is dan een volwassene? Of dat een fietser met een koptelefoon op later reageert dan 1 zonder? Er zijn heel veel signalen in het verkeer die nu bijdragen aan de verkeersveiligheid, die lastig in te programmeren zijn.
Perfecte uiteenzetting van de hoe delicaat het onderwerp is. Met mijn 99.9% dacht ik vooral aan zoiets als deze:
een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat gevaar wordt veroorzaakt en andere weggebruiker moet ingrijpen (zo hard op kruising af dat ander moet inhouden, ook al had ander voorrang)
85% betrouwbaarheid is natuurlijk kul, maar 99,9% zou best een stuk beter kunnen zijn dan een goede bestuurder. En laten we het maar niet hebben over alle onbenullen die hun telefoon in de auto gebruiken...
Het is natuurlijk ook lastig omdat er nu een vergrootglas op zelf-rijdende autos zit. Bij elk incident zal men zeggen zie je wel, niet veilig. Terwijl misschien de beste chauffeur in de wereld het ongeluk niet had kunnen voorkomen. Het is natuurlijk idd zo dat een autonoomsysteem altijd op let en elk mens wel eens afgeleid is. Zeker met die randdebielen die zonodig moeten appen in de auto.

Ik denk zeker met 99,9% betrouwbaarheid dat het verkeer een heel stuk veilig wordt dan het nu is.
Een normaal mens houdt het niet vol geconcentreerd te kijken naar iets wat bijna nooit fout gaat. Zie bijvoorbeeld dit paper waar een heleboel relevant onderzoek wordt aangehaald: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3627747/ .

De enige reden dat een rijinstructeur deze taak beter doet dan een "safety driver" is dat studenten zoveel fouten maken, en deels ook dat die fouten zo voorspelbaar zijn. Ingrijpen is daardoor een dagelijkse handeling.
Een systeem lijkt me moet met alles in iedere situatie rekening houden dus ook met zaken die volgens de regeltjes niet mogen.
Ja hoor, dag. Er mag best meer verantwoordelijkheid worden afgeschoven op de 'zwakke' weggebruiker.
Jij hebt als voetganger zo goed als 360 graden zicht, je hoort veel beter, je manoeuvreerd veel gemakkelijker, je stopt en je vertrekt sneller, je gaat trager en hebt dus veeeeeeel meer tijd om alles op te nemen en te verwerken.

Dan heb je het in mijn ogen gewoon fameus verdient als je van je sokken wordt gereden omdat je blindelings de straat overstak. Waarvan je wist dat die er was, trouwens.

Dat 'ze zullen wel stoppen, ik ben in m'n recht want zwakke weggebruiker' mentaliteit moet echt verdwijnen.

[Reactie gewijzigd door Tokkes op 6 november 2019 20:19]

Met 2010 Volvo V70 met adaptive had had ook altijd problemen met fietsers op de rijbaan. Elke keer ging de auto vol in de remmen. En Volvo had toen nog niet de mogelijk om de het adaptive deel van de cruisecontrol uit te zetten..

Maar het blijft natuurlijk ironisch dat de standaard crash detectie van de Volvo het ongeluk had kunnen voorkomen of in elk geval de snelheid dermate omlaag te krijgen dat het niet noodlottig was geworden..
Beetje afhankelijk trouwens van het type hert, het is niet voor niets dat overstekekende elanden in het noorden zo vaak voor dodelijke ongelukken zorgen.
Als-dan, inderdaad. Het is duidelijk dat de technologie nog niet ver genoeg is.
Tegelijk blijkt de combinatie van gedeeltelijk-functionerende autonome technologie met een mens -met intrinsiek korte aandachtsspanne- helemaal een slecht idee.

Ik zeg: stel het publiek niet bloot aan risico's die kleven aan de ontwikkeling van technologie, waarbij falen zulke grote gevolgen heeft.

Het is aan de politiek om de grenzen van acceptabele veiligheid te bepalen. Hun taak is om to informeren bij specialisten en experts om een goed oordeel te kunnen vellen, en om de veiligheid van het volk te beschermen
HOWEVER... in een perfecte wereld zou dat zo zijn. Tegenwoordig zijn in veel landen kapitalisten aan de macht. En die hebben goede connecties met het bedrijfsleven. Ofwel, grote bedrijven krijgen het vaak voor elkaar dingen te realiseren die twijfelachtig zijn. Dat is geen complottheorie, maar algemene bekend. Zie Nederland: Lobbyisten staan altijd te dringen bij de semiopenbare ruimtes bij de tweede kamer... In de eerste kamer hebben veel senatoren "nevenfuncties", waarbij ze in de raad van bestuur van bedrijven en organisaties hebben. Hoe kunnen die dan nog belangeloos beslissingen nemen, vraag ik mij af...

[Reactie gewijzigd door MeMoRy op 6 november 2019 22:39]

Want... niet perfect ???
Het alternatief, door de mens bestuurde auto's, scoort ook verre van perfect.

Ik denk dat wij over een paar jaar niet eens meer zelf mógen rijden en dat dat heel veel verkeersslachtoffers gaat schelen. Maar voor die fase bereikt wordt moet ook ervaring opgedaan worden. Je kunt niet alles testen. En dan zéker de onverwachte situaties niet.

Op het moment dat autonome voertuigen qua veiligheid vergelijkbaar zijn met de status quo van de manueel bestuurde auto dan zijn ze klaar om de openbare weg op te gaan.

Die garantie wordt nu in principe gewaarborgd door ook een oplettende chauffeur achter het stuur te zetten. En dat is wat hier mis is gegaan... DE MENS zat als eindverantwoordelijke óók niet op te letten.
Omdat het altijd een afweging blijft. Het kan in sommige situaties veiliger zijn voor de imzittende om een aanrijding te hebben met object X dan uit te wijken en vervolgens object Y te raken.
Als de auto een kat had herkent en een uiwijking een 80% kans zou betekenen om een vangrail of andere auto te raken dan is de betere beslissing om door te rijden.
Programmeren van dit soort systemen is lastig omdat je dit soort life/death beslissingen er dus wel in moet zetten.
5.6 seconden van tevoren betekent dat je ook prima zou kunnen remmen, het hoeft geen uitwijken te zijn...
Remmen, Gas loslaten of Niets doen?
Net zoals een omaatje die de weg oversteekt, je rechts een muur hebt, en links een moeder met kinderen O-)
Of een op leeftijd zijnde wetenschapper die de oplossing heeft voor kernfusie en rechts een muur en link een moeder met kinderen :X
Hoewel gezien de tragsiche context wellicht niet aan iedereen deze humor is besteed sla je wel de spijker op zijn kop. Dit zijn het soort dilemma's waar gewoon naar gekeken moet worden. Uiteindelijk zou je verwachten dat een electronisch systeem die keuze in een dergelijke split second situatie beter afgewogen zou moeten kunnen maken dan een mens.

Helaas heeft men bij Uber hier wel een paar opmerkelijke keuzes gemaakt.
Zoals anderen ook opmerken, Als het systeem er niet uitkomt zou het voertuig wat mij betreft gewoon altijd tot stilstand moeten komen. Dat zou zelfs zo moeten zijn als er helemaal niets op de weg is/blijkt. Des te meer nog omdat je weet dat je met nieuwe techniek aan het testen bent.

Spijtig genoeg moeten we niet vergeten dat er altijd een prijs is voor vooruitgang, maar dat ook wanneer we geen voortgang zouden boeken er nog steeds verkeersslachtoffers zouden vallen.

Goed in elk geval dat men hier bewust mee om probeert te gaan en er veel aandacht is om zaken goed uit te zoeken.
Als ik het me goed herinner was het in dit geval rustig op de weg, maar je moet niet vergeten dat zomaar stoppen levensgevaarlijk kan zijn. Als je op een drukke snelweg rijd en er wappert een lege kartonnen doos rond kan de AI mogelijk in de war raken, als die dan zomaar besluit te stoppen kan dat best gevaarlijke situaties opleveren.

edit: typo

[Reactie gewijzigd door marcmeide op 6 november 2019 10:56]

Voordat een auto dat kan herkennen zijn we wel weer een paar jaar verder denk ik :D
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.
Dat snap ik ook niet aan dit verhaal? Voertuig, overige, ... Maakt toch niks uit? Hun LIDAR-systeem moet toch gezien hebben dat het niet in dezelfde richting en dezelfde snelheid als de auto bewoog dus ofwel moest stoppen ofwel uitwijken?
'Oh, het valt in de 'overig' categorie, daar mag ik gewoon tegen knallen'?
Vreemde logica...

[Reactie gewijzigd door Fire69 op 6 november 2019 08:49]

Ik geloof nog steeds in meer camera's waaronder ook thermisch infrarood, hiermee kun je een object maar ook persoon veel beter herkennen aan een warmtebeeld. Des te meer informatie van verschillende sensoren des te beter de beslissing kan zijn
Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet?
Ik denk dat "overig" voor dingen bedoeld is die niet bewegen, zoals een vangrail, geparkeerde auto, etc.
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.
Het is redelijk onduidelijk verwoord in het artikel, geen idee hoe het in het rapport staat. Maar er zijn continue dingen op de weg waar je niet voor hoeft te remmen, zeker als je de wereld in essentie 2D ziet. Denk aan markeringen of viaducten. Mogelijk worden die als 'overig' geclassificeerd. Daarnaast zou het kunnen zijn dat voertuig wordt bedoeld als 'voertuig dat voor de auto rijdt' of misschien is de classificatie als 'voertuig' wel een reden om op de rem te stampen, maar belemmerde die 1 seconde vertraging dat.

Met het gebrek aan details in dit artikel kun je er echt niets over zeggen, het is 100% speculatie. In het rapport zal het allemaal in detail uiteengezet zijn neem ik aan.

[Reactie gewijzigd door Blubber op 6 november 2019 08:57]

Ik wordt liever helemaal niet aangereden. Zeker niet door een computer. ;)

Achter een computer zit een bedrijf dat zich weer achter diezelfde computer kan verschuilen. Bij een persoon is dit eenvoudiger te bewijzen. Maar dan nog maak ik liever helemaal geen aanrijding mee.

[Reactie gewijzigd door sjaool op 6 november 2019 09:07]

Overig kan ook een zak, ballon, hoopje bladeren, doos, vogel of iets zijn waar je helemaal niet voor hoeft te stoppen.

Dit geeft een beetje HET probleem met AI en dus ook autonome voertuigen aan: ze hebben geen idee waar ze mee bezig zijn en objecten die ze 'zien' zijn gewoon een bunch of pixels die wij een naam voor ze hebben gegeven. Ze zijn niet in staat om zelf iets te vinden van hetgeen voor de camera/sensor komt. Misschien dat het ooit in een verre toekomst zover komt, maar voorlopig zijn het hele domme dingen die zogenaamd intelligent gemaakt zijn omdat ze heel veel hopen pixels herkennen en daar eigenschappen aan verbinden die wij ze bijgebracht hebben.
Ze zijn wel goed in dat soort dingen in voorspelbare situaties. Op snelwegen en eenvoudige stadsituaties doen ze het best goed; ik denk dat een autonome auto beter en sneller kan anticiperen op vreemd gedrag van andere voertuigen. Maar dat komt omdat het aanbod van de diverse voertuigen beperkt is (auto, motor, vrachtwagen, bus) en ze allemaal dezelfde kant op rijden met ruwweg dezelfde snelheid. Maar in Amsterdam of New York is het chaos op bepaalde plekken, waar fietsers en voetgangers, huisdieren en ander tuig zomaar voor je voertuig kunnen springen. Er kunnen zomaar dingen op de weg liggen, kuilen, gaten, werkzaamheden, pakketbezorgers en weet ik wat waar ie allemaal rekening mee moet houden. Het een beweegt en het ander niet.

Het kán allemaal, maar het gaat best nog wel even duren voordat we écht autonoom kunnen gaan (laten) rijden. En de A in AI is het sleutelwoord. Het is GEEN intelligentie. Het is KUNSTMATIG.
Het is duidelijk dat de auto 5.6 seconde al iets zag. Dat is een mooi lange tijd. Alleen was het niet duidelijk wat het zag, en daar ging het mis. Pas 1.2 seconde voor het ongeluk was alles duidelijk. Wat me uitermate verbaasd is dat er gedurende die 4.4 seconde daarvoor gewoon de snelheid van 70 km/h is vastgehouden. Ik snap dat je niet meteen op de rem kan trappen, dat geeft te veel positives. Maar je probeert allicht wel je snelheid aan te passen. Reduceer het desnoods tot 60 km/h. Dat is zo weinig dat achterliggend verkeer er niet direct last van heeft, maar de remweg en botsenergie gaan meteen 26% omlaag (beiden gaan kwadratisch met de snelheid). Het geeft de software ook nog eens 0.8 seconde langer de tijd gehad (voordat het op de plaats van botsing was geweest).

Alleen al het feit dat men zich zorgen maakte over het aantal false positives geeft aan dat dit een testsysteem was. Maar juist dan zorg je dat de software aan de veilige kant gaat zitten, in plaats van het uit te schakelen en je snelheid bij twijfel aan te houden, en dan ook nog eens een seconde te wachten voor in te grijpen.

Voor mij is dit werkelijk onbegrijpelijk. Ook al had die mevrouw daar niet mogen oversteken, het klinkt alsof Uber hier basisbeginselen van een veilig design aan de laars heeft gelapt en nu reactief reageert in plaats van daar van te voren over na te denken.
Een recent artikel in de Volkskrant over zelfrijdende auto's vat goed samen waarom het nog wel even zal duren voordat het echt zover is: https://www.volkskrant.nl...rlopig-verdampt~b5794dcf/
Klinkt allemaal heel schadelijk voor Uber. Dat gezegd zijnde, is het in sommige gevallen ook voor mensen heel moeilijk om dit soort ongevallen te vermijden. Als je de persoon al 5 seconden kan zien is dat argument niet helemaal geldig, maar dat hangt sterk van de situatie af. Misschien droeg de vrouw wel volledig zwarte kleren in het donker, en kwam ze twijfelend tussen auto's uit?
Ik weet niet of je destijds de beelden gezien hebt, er is toen ook veel over gediscussieerd.
https://www.youtube.com/watch?v=Cuo8eq9C3Ec
Op de beelden lijkt het heel donker maar ik dacht dat dit in de realiteit niet zo was en dat het eerder door de camera zelf kwam. De echte details weet ik niet meer.

Maar zoals op de video te zien is, steekt de vrouw gewoon over in een verlaten weg.
Zelfs al zou het veel te donker zijn om ook maar iets te zien dat moet je daar je snelheid aan aanpassen.
Maar wederom, ik betwijfel dat het echt zo donker was aangezien er wel straatverlichting zichtbaar is.
Artikel over de belichting. Het was idd niet zo donker als Uber wilde doen geloven.
https://arstechnica.com/c...ws-dont-believe-it/?amp=1
Ik geloof zelf ook zo iets. Maar dat de vrouw in zwarte kleding net voorbij de straat verlichting oversteekt helpt niet om het te kunnen zien. Ook zijn er geen reflecterende opervlakten op de fiets of persoon. Anders hadden de koplampen wel iets kunnen bieden. Ik zou zelf na een lange werkdag ook niet gefocust genoeg zijn om optijd te kunnen reageren.


Een Volvo met koplampen zo laag dat je net een auto voor je kan zien... Dat is dus nooit genoeg.
Ik zou zelf na een lange werkdag ook niet gefocust genoeg zijn om op tijd te kunnen reageren.
Dan moet je niet in de auto stappen.
Hetzelfde met drugs, alcohol of wat dan ook; als je niet meer in staat bent om adequaat te reageren, dan moet je niet in de auto stappen.
Tja, is een luiheid van een lege 70km weg zonder overgangen net voorbij een verlicht deel. Als ik even niks zie. Ga ik er ook niet vanuit meteen daarna een voetganger te mogen verwachten. Dat ik dan maar 2s reactie tijd heb om van 70 naar 0 te gaan. is gewoon onmogelijk. Wat ik bedoel is dat op zo een weg mijn reactie tijd niet 0.2 s maar eerder 1s is. Gewoon omdat je de situatie niet verwacht of aan kan zien komen.
(Gebaseerd op de video van het ongeluk)

Neem dan mee dat mijn ogen toch wel wat beter zijn dan die camera had ik misschien 3-4s gehad. Is nog niet bijzonder veel.
Vandaar dat ik van mening ben dat ik niet veel meer had kunnen doen om toptijd te stoppen. Dan was het misschien geen fataal ongeluk geweest maar zeer zeker een zware.
EDIT
Verder zoekend op de analyse van het ongeluk blijkt het lang niet zo donker te zijn op de betreffende weg. Prima zicht en had dit makkelijk kunnen worden gezien.

[Reactie gewijzigd door Tim Lamein op 6 november 2019 09:15]

3-4 s is alsnog voldoende voor een aardige snelheidsvermindering iets waar de voetganger waarschijnlijk erg blij mee zou zijn geweest, in de praktijk zou je niet hoeven te remmen en had je er gewoon omheen kunnen sturen want best wel een zee van ruimte aldaar.

In principe moet je kunnen remmen in de afstand die je kunt overzien anders kun je wel overal bovenop knallen, al was het maar een pallet die door "kwajongens" op de weg is gelegd.
Mijn verwachting dat het mij niet was gelukt is gebasseerd op de video van uber waarbij op die weg bijna niks voor de auto zichtbaar is.
Het ongeval is gebeurd om 22h op 18 maart. Even opgezocht: in die periode van het jaar is het op die plaats vanaf 20h donker, dus om 22h al helemaal. Het is wel geen verlaten weg, maar een "avenue", die waarschijnlijk wel redelijk verlicht was door straatlampen.

Toen de software de vrouw "zag" (wat niet wil zeggen dat een menselijke chauffeur dit op hetzelfde moment zou opmerken), was de auto nog 5,5 seconden verwijderd. Had de software zijn werk gedaan, was de auto makkelijk tot stilstand gekomen. De XC90 heeft een noodrem systeem dat 7m/s² kan afremmen, dus dan sta je na 3 seconden stil bij 70km/h. Had de auto meteen geremd toen hij uiteindelijk het gevaar had gedetecteerd, was hij er nog steeds met 40km/h opgekwakt. Dan was de aanrijding misschien niet dodelijk geweest, maar toch nog steeds ernstig. De fout zit hem dus niet in die laatste "false positive" filter, maar in de hele serie interpretaties die daaraan voorafgaan.

Dat gezegd zijnde, de vrouw kon de auto zien aankomen op het moment dat ze begon over te steken, en stak toch (schuin dan nog) de baan over op een plaats waar die nog eens breder was dan normaal (door twee stroken om af te slaan). Niet dat het ongeval hierdoor haar schuld is, maar het kan ook niet echt een veilige handeling genoemd worden.
Was het geen handige beslissing? Ja. Maar de auto had meer dan genoeg tijd om de juist beslissing te nemen - hetzij af te remmen, hetzij een correctie naar de linkerbaan uit te voeren. Zie ook de discussie op https://twitter.com/KostelecPlan/status/1107999338133778443 - de situatie daar is voor voetgangers niet prettig, de vrouw die om het leven kwam was niet de eerste, enige noch de laatste die daar over stak vanwege een flut verkeersituatie.
Die had ik nog niet gezien, goede aanvulling!
Gezien de donkerheid van de beelden zou je bijna geneigd zijn om te zeggen dat de bestuurder van de auto het niet had kunnen zien aankomen, maar ik weet uit ervaring inderdaad dat een dashcam vaak niet zo goed om kan met donkere omgevingen.
In elk geval was de fietser duidelijk genoeg te onderscheiden van andere objecten met de juiste systemen (ze stond in het midden van de weg, niet achter een auto o.i.d.).
Je gaat je wel afvragen, als het donker en verlaten was, en de auto neem ik aan z'n koplampen aan had, hoe kan het slachtoffer de auto dan niet gezien hebben?

Niet bedoeld als een 'eigen schuld dikke bult'-vraag, maar eerder: als het slachtoffer door omstandigheden de auto niet heeft gezien, kan het dan niet zo zijn dat die zelfde omstandigheden ook andersom (deels) het slachtoffer slecht zichtbaar gemaakt hebben? Of op z'n minst deels verantwoordelijk waren voor de misclassificatie van de voetganger.
De beelden zijn ietwat onbetrouwbaar omdat deze een donkerdere situatie schetsen dat wellicht daadwerkelijk het geval was. Ook het instellen van 1 seconde uitstel klinkt onhandig.

Maar het uitschakelen van het Volvo systeem, dat snap ik ergens wel. Bijvoorbeeld Mazda, bouwt bij al haar auto’s sinds 2012 een laser en camerasysteem in voor noodstoppen in de stad tot 30km/u, SCBS. Echter, wat de fabrikant niet communiceert naar buiten is dat het systeem eigenlijk altijd aan staat maar niet actief ingrijpt.

Dus op de snelweg en op 60/80 wegen, werkt het systeem nog altijd maar dan in de zogenaamde “pre-crash” stand. Met allerlei onbedoelde bijgevolgen.

Zo rijd je op een zeer drukke snelweg 110 of 120 en alles wat je nadert binnen 20/25 meter en ook maar marginaal langzamer is dan jij bent, schiet het systeem ongemerkt aan. De remblokken gaan alvast dicht op de remschijven staan en de rembekrachtiger gaat maximaal werken.

Als je dan ook maar het pedaal aanraakt, rem je zeer krachtig en dus onbedoeld harder dan de bedoeling was. Ook spannen de gordels vast aan en in sommige gevallen schiet de auto in een “Limp-mode”, waarbij je dashboard verandert in een kerstboom met allerlei lampjes en waarschuwingen. Een modus dat voorkomt dat de auto na een ongeval nog door kan schieten of rijden met maximale snelheid. De enige wijze waarop je de “Limp mode” uit kan schakelen is dus de eerst volgende afrit of parkeerplaats stoppen en de motor uit en aan te zetten.

En dat allemaal omdat je 25m (net iets meer dan een vrachtwagenlengte) afstand houdt en men dat verkeerdelijk aanziet als een uitnodiging om kort voor je in te voegen.

Daarom begrijp ik wel dat Uber dit soort grappen liever uit dan aan heeft staan en daarmee de autonome software niet in de war wilt brengen. Want die kan net als een mens moeilijker anticiperen op een situatie als de auto zich niet langer voorspelbaar gedraagt.
De camera beelden zijn duidelijk (al dan niet met opzet) donkerder dan werkelijk. Ze steekt recht onder 2 lantarenpalen over en is zogenaamd pas het laatste moment zichtbaar. Indien de zichtbaarheid daadwerkelijk zo kort is, moeten de koplampen op een hoger standje gezet worden, als je zo gaat rijden ben je werkelijk een idioot en kan je uiteraard nergens op tijd op reageren.
De chauffeuse is hier 100% schuldig door überhaupt niet vooruit te kijken.
Uber is medeverantwoordelijk door zoveel vertraging in een noodsysteem in te bouwen. Computer moet juist sneller dan de mens reageren en niet onze extra lange vertraging hebben van zien, verwerken, reageren.

Dat er geen zebrapad is, betekent niet dat je niet mag oversteken. Niemand loopt honderden meters door voor een zebrapad.

[Reactie gewijzigd door HakanX op 7 november 2019 09:04]

Klinkt als victim blaming.

Natuurlijk is het niet handig om daar over te steken, maar dat praat het niet opletten van de bestuurster en het niet hebben (dan wel actief uitschakelen) van een deugdelijke botsdetectie niet goed.
Was ze victim of was ze de veroorzaker van het ongeluk?

Dat wij hier in Nederland de zwakke verkeersdeelnemer een juridische basis geven om zich als complete idioten in het verkeer te begeven, wil nog niet zeggen dat een auto elk ongeluk moet kunnen voorkomen.
Dat ben ik helemaal met je eens en heb ik ook geprobeerd duidelijk te maken met
Als je ziet hoeveel er mis gegaan
Overigens wil ik
het bedrijf bang was voor teveel false positives.
wel een beetje goedpraten. Als een veiligheidssysteem steeds onnodig ingrijpt dan zetten gebruikers het uit. Een veiligheidssysteem dat heel veel false positives voorkomt en daartegenover in een uitzonderlijk geval een false negative geeft, is wellicht veiliger (omdat het gebruikt wordt) dan een systeem dan nooit false negatives heeft, maar wel regelmatig false positives (omdat het uitgeschakeld wordt).
wel een beetje goedpraten. Als een veiligheidssysteem steeds onnodig ingrijpt dan zetten gebruikers het uit.
Voor een driver assist techniek zou je dat misschien nog wel kunnen zeggen.
Voor iets wat een volledig autonoom rijdende auto wil produceren is het verhaal wel even anders.
Je rijdt of autonoom of niet. Als je veel false positives hebt is er gewoon iets mis met je manier van autonoom rijden.
Ja en nee. Als auto's altijd kunnen remmen krijg je situaties waarbij voetgangers zonder kijken een drukke baan oversteken. De auto stop toch vanzelf, maar jij plakt wel samen met je koffie tegen je voorruit. Voetgangers en fietsers moeten hun verantwoordelijkheid blijven nemen en niet zomaar eender waar en zeker niet eender wanneer een baan oversteken.
Ik heb zelf ook al wel eens een baan met 2+2 rijvakken waar men 70km/u rijdt overgestoken, in het donker, zonder licht,... omdat het volgende zebrapad te ver was. Maar dan wacht je tot er geen verkeer aan komt en loop je naar de overkant.
Ja en nee. Als auto's altijd kunnen remmen krijg je situaties waarbij voetgangers zonder kijken een drukke baan oversteken. De auto stop toch vanzelf, maar jij plakt wel samen met je koffie tegen je voorruit. Voetgangers en fietsers moeten hun verantwoordelijkheid blijven nemen en niet zomaar eender waar en zeker niet eender wanneer een baan oversteken.
In het verkeer dient iedereen zijn best te doen om een ongeluk te voorkomen.
Dit is nu ook hoe het werkt, je houdt een beetje rekening met fouten van anderen omdat je zelf ook wel eens iets doms doet of iets niet ziet.
Technisch voorrang hebben is dus geen excuus. Als je kunt remmen om een ongeluk te voorkomen dan doe je dat.
Dat ben ik helemaal met je eens
Dus moet je niet doen aan victim blaming. Het slachtoffer deed niets illegaals.
Overigens wil ik
[...]
wel een beetje goedpraten.
Ik niet. Het systeem is in ontwikkeling. Van elke false positive kan het leren. Anders krijg je nooit een werkelijk autonome auto.

[Reactie gewijzigd door The Zep Man op 6 november 2019 08:36]

Oké laten we voor het gemak doen alsof het slachtoffer niets illegaals deed, dan nog is het toch gewoon ontzettend dom? Er komt een auto aanrijden die zijn verlichting aan heeft, maar je loopt gewoon door?

Als je hier in Nederland jezelf verstopt achter een boom naast een zebrapad, en zodra er een auto aankomt ren je ineens de weg over, dan doe je in principe ook niet illegaals maar ben je wel ontzettend dom bezig.
Euh jawel, je doet dan wel iets illegaals, je overtreed dan namelijk artikel 5 van de wegenverkeerswet.

"Het is een ieder verboden zich zodanig te gedragen dat gevaar op de weg wordt veroorzaakt of kan worden veroorzaakt of dat het verkeer op de weg wordt gehinderd of kan worden gehinderd"

Daarnaast hoef ik alleen voorrang te verlenen aan voetgangers die reeds oversteken of waarvan duidelijk is dat zij dit gaan doen.

RVV Art: 49 Lid: 2

"Bestuurders moeten voetgangers en bestuurders van een gehandicaptenvoertuig, die op een voetgangersoversteekplaats oversteken of kennelijk op het punt staan zulks te doen, voor laten gaan."

Tevens is voorrang geven een plicht, maar is voorrang nemen geen recht.

Dus ja je hangt. (aan mijn bumper, en wettelijk)
[...]
Het slachtoffer deed niets illegaals.
Behalve oversteken waar 't niet mag, toch?
Het slachtoffer deed niets illegaals.
Is dat zo, mocht ze daar oversteken?
Zo ja, had ze 'voorrang'?
Is victim blaming zo iets negatiefs dan?

Als je als een kip zonder kop, zonder op te letten, in het donker, een 70KM/U weg oploopt heb je gewoon ook schuld.

En natuurlijk niet ALLE schuld, want die vrouw in de auto was ook met andere dingen bezig (is overigens ook slachtoffer) en is dus mede schuldig, en die software engineer die de veiligheids software uitzet om je eigen beta software beter te testen heeft ook schuld. Maar die overstekende persoon heeft zeker ook schuld aan het ongeval. Dat deze persoon ook slachtoffer is doet daar weinig aan af.
Is victim blaming zo iets negatiefs dan?

Als je als een kip zonder kop, zonder op te letten, in het donker, een 70KM/U weg oploopt heb je gewoon ook schuld.
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt dan heb je gewoon ook schuld."

De fietser deed niets illegaals. De bestuurder wel, want die lette niet op. Het systeem (en de bestuurder) had vijf seconden om te reageren en deed dit niet. Het is niet alsof de fietser plots op het laatste moment voor de auto sprong (zoals bij verzekeringsfraude), gekeken naar de opname.

Een slachtoffer heeft geen schuld. Een dader wel. De fietser is geen dader.

Verder moeten autonome auto's aan een hogere standaard voldoen dan dat menselijke bestuurders hebben. Anders worden ze maatschappelijk niet geaccepteerd. Hierom mogen de verwachtingen gerust hoog gelegd worden voor dit soort systemen, en mogen dit soort fouten niet voorkomen. Totdat de auto volledig autonoom is blijft tevens de bestuurder net zo verantwoordelijk als bij een conventionele auto. Immers is er zonder volledige autonomie enkel sprake van rijassistentie.

[Reactie gewijzigd door The Zep Man op 6 november 2019 08:50]

De fietser deed niets illegaals.
Ze was aan het 'jaywalken'. Iets wat wel illigaal is in America
Dat soort regels zijn er om ongelukken te voorkomen.. overtreed je de regels dan is er een verhoogde kans op ongelukken.
[...]
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt dan heb je gewoon ook schuld."
Appels met citroenen
Een slachtoffer heeft geen schuld. Een dader wel. De fietser is geen dader.
Oversteken op een plek waar dat niet is toegestaan
Oversteken in het donker (waarschijnlijk zonder verlichting, reflectors weet ik niet)
Oversteken waar men 70 km/uur mag rijden

Dat zijn 3 regels overtreden en dat betaal je soms met je leven in het verkeer...
Dat is minstens gedeeltelijke schuld
Ik weet niet welk filmpje jij gezien hebt,
Jazeker. En de camerabeelden zijn een stuk donkerder dan dat de werkelijkheid is, gekeken naar het straatlicht. Tevens lette de bestuurder niet op.

[Reactie gewijzigd door The Zep Man op 6 november 2019 09:11]

Victim baming. Nee. Maar het blijft toch echt de verantwoordelijkheid van beide personen.
Nou, er is vind ik een verschil tussen victim blaming en aangeven dat het slachtoffer deels verantwoordelijk is voor een ongeval door de verkeersregels op onveilige manier te overtreden.

Als ik door rood rijd en wordt doodgereden door een vrachtauto zal men ook zeggen: "Niet slim om door rood te rijden". Is dat dan victim blaming, of gewoon niet slim van mij?
Ja deeloplossing is natuurlijk ook een voertuig dat autonoom rijdt duidelijk te maken. Bv fluo geel met groene lamp op het dak. Als duidelijk is dat het autonome auto's zijn, gaan mensen er omheen hier hopelijk op acteren. En trein zal bv niet gauw de schuld krijgen van een aanrijding met voetganger, omdat verondersteld mag worden dat de voetganger oppast.

Als dit met autonome auto's gebeurt, hoef je de techniek niet op alle voetganger situaties voor te bereiden.
Wat een onzin. Als voetganger moet je er altijd vanuit gaan dat een auto jou niet ziet, autonoom of niet. Met al die whatsappende mensen achter het stuur tegenwoordig...
Dan heb je dus ook die software aanpassingen niet nodig;)

Maar is niet waar wat je zegt natuurlijk. Binnen de bebouwde kom is de auto eigenlijk altijd schuldig momenteel.
Maar is niet waar wat je zegt natuurlijk. Binnen de bebouwde kom is de auto eigenlijk altijd schuldig momenteel.
Dat is maar een schrale troost als jij degene bent die in het ziekenhuis of grafkist ligt...
Het gaat niet om regels, het gaat om zelfbescherming.

[Reactie gewijzigd door kozue op 6 november 2019 08:44]

Tja, daar gaat het dus totaal niet om. We kijken alleen wie er schuld heeft en dus moet betalen.
Werk jij bij een verzekeringsmaatschappij ofzo? Er is iemand doodgereden en jij maakt je zorgen om wie er moet betalen? Daar zal het slachtoffer zich vast nog een paar keer voor omdraaien in haar grafkist...
Nee niet voor een verzekering nee. En we hebben het hier over ongelukken met autonome auto's en hoe daar mee om te gaan, niet met de dood van iemand die ik niet ken en er zelf ook best wat aan had kunnen doen om te voorkomen.
Hoe het in de VS werkt weet ik niet, maar hier ben je als bestuurder zelf verantwoordelijk. Die had op de weg moeten letten en niet op haar mobiel.
En of je het slachtoffer wel of niet kent is irrelevant, jij kan de volgende zijn. Boeit het je dan ineens wel?
Headline van morgen: “autonome auto herkende zebrapad niet in het donker”. Veel plezier de komende donkere maanden.
Je doet nu aannames. Ik heb het over de juridische schuldvraag. Als je dat niet kan scheiden van de rest is het lastig discuseren
Tja, daar gaat het dus totaal niet om.
Als mens zou het daar wel degelijk om moeten gaan.
'Leuk' dat de auto misschien schuldig is maar daar heb je weinig / niks aan als jij voor de rest van je leven invalide bent.
Een beetje nadenken en 'defensief' deelnemen aan het verkeer kan geen kwaad, vooral als kwetsbare verkeersdeelnemer maar ook gewoon in de auto.

[Reactie gewijzigd door Olaf van der Spek op 6 november 2019 08:56]

Ik weet niet of je bekend bent met de ring in Eindhoven? 70KM/u, 2x2 rijstroken en meer dan genoeg mensen die niet op de aangewezen plekken oversteken of geen zin hebben om op groen te wachten. Ik, als mens zou daar altijd op reageren en een basisvereiste voor een zelfsturende auto lijkt me dat die dat ook kan. Anders is het zeer, zeer kwalijk dat dit ding ooit op de weg is toegelaten.
Hij is toegelaten omdat er een bestuurder in zit die moet opletten.
Er is ooit een filmpje uitgelekt waar je haar ziet zitten (er zit een cam in de cabine gericht op de bestuurder in die auto’s). Ze zit gewoon op haar mobiel te kijken en niet op te letten. Dat is een deel van de oorzaak van dit ongeluk.
Wat is “niet toegestaan”? Als je alleen bij een zebrapad over mag steken zou je de meeste wegen helemaal niet over mogen steken want zebrapaden kom je meestal alleen bij kruisingen tegen. Volgens mij steken dagelijks vele mensen een weg over in het donker waar je 80 km/u mag.

Nee hoor, er is hier maar 1 schuldige: de bestuurder van de auto die blind vertrouwde op een computer om haar werk te doen. Al die zelfrijdende meuk van tegenwoordig is een hulpmiddel, meer niet. Je moet als bestuurder nog steeds je aandacht op de weg houden, zelfrijdend of niet.
De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg.
Sterker nog, de hoofdtaak van de bestuurder was om in te grijpen als de auto iets niet goed deed, zodat Uber daar aan kan werken.
Dat is toch vragen om (dodelijke) ongelukken?
Wat ik me afvraag: heeft de voetganger de auto niet gezien?
Ik kan het me niet voorstellen.
De auto reed in ieder geval niet te snel, dus daar ligt het probleem niet.

Maar wat ook een behoorlijke kanttekening is, is dat de bestuurder de vijf seconden voor het ongeluk omlaag keek. (Op haar telefoon...)

Alles bij elkaar opgeteld faalde alles en iedereen die betrokken was bij de situatie.
Ik zie het eigenlijk als een bevestiging dat de toename van het aantal systemen die helpen met besturen van een voertuig gelijk is aan de afname van concentratie (oplettendheid) van de menselijke bestuurder.

Hoe mee je als mens de rol van 'toeschouwer' krijgt, des te later het vermogen actief en alert in te kunnen grijpen. De (voortdurende!!) concentratie die je kunt opbrengen terwijl je zelf actief iets bestuurt, ga je niet kunnen opbrengen als er vrijwel geen input van je verwacht wordt. (geestdodendheid).

'Correct instellen' is een nogal vaag en weids begrip. Overspant dus het spectrum van de fysieke afstelling van sensoren, via de configuratie van e.e.a. langs de programmering van het geheel tot aan de research die gedaan wordt hoe zaken waar te nemen en hierop te handelen.

Simpel: Als we al treinen nog niet volledig autonoom kunnen laten rijden (geïsoleerde voorbeelden daargelaten), dan zal het met auto's al helemaal niet lukken. Leuk dat ze onder bepaalde omstandigheden een stuurbeweging kunnen maken, versnellen of vertragen, maar dat is echt nog he-le-maal niks...(in de kinderschoenen staan, enzo..)

Laat ze eerst maar eens aantonen dat er ook een zeker empatisch vermogen is bij het maken van een split second beslissing. (bijvoorbeeld kiezen door over de plots overstekende kinderwagen heen te rijden, of het schampen van de tegenligger die er al rijdt, en daarmee mogelijk de baby redden maar blikschade forceren.)

Of dit... uit eigen ervaring: Schoolzone... jij komt aanrijden richting een zebrapad waar een klein jochie aan jouw kant wil oversteken. Aan de andere kant komt een gestresste ouder (yup-type) hard aanrijden, niet voornemens te stoppen (want al laat voor werk).
Wat doe je? Netjes stilstaan zodat jochie gaat oversteken (kijkt alleen jouw kant op), en mogelijk voor de wielen van de yup beland... of net even laten twijfelen door wat later te remmen (maar wel te stoppen), zodat hij in eerste instantie (geschrokken) op de stoep blijft staan.

In de eerste situatie treft jou in ieder geval geen blaam (hoe het ook met het joch afloopt).
In de tweede situatie toon je 'huftergedrag', maar weet daarbij 100% de situatie te redden.

Nou, en dan nu autonome AI die dergelijke situaties kan oplossen. Zal er ongetwijfeld komen... maar niet in 2020...

...en nu vraag jij je af wat ik gedaan zou hebben. In 16 jaar mijn kinderen naar school brengen voordat ik naar mijn werk ging, heb ik deze situatie meerdere keren meegemaakt. Beide 'oplossingen' uitgevoerd. Gelukkig ging het nooit echt mis, maar wel eens de tegenligger met blokkerende wielen zien remmen. Uiteindelijk gekozen voor liever de afkeurende blik van een omstander (die waarschijnlijk geen 100% inzicht in de situatie had), dan met het hart in de keel iemand een noodstop te moeten zien maken.

Software kan vliegen, software kan rijden, en software kan sondes op verre hemellichamen laten landen. Maar verantwoord, veilig en besluitvaardig een voertuig door een onvoorspelbaar scenario loodsen is iets heel anders.

Oh, en ik geloof erin... het komt. Het zal er ooit zijn, maar nu is het echt nog veel te vroeg.

[Reactie gewijzigd door OCU-Macs op 6 november 2019 10:37]

Je Vergeet gemakshalve dat er ook nog 1 bijrijder in de zelfrijdende auto van Uber zat. Deze persoon is juist aangewezen om zulke situaties te herkennen en aldoende de anticiperen. In mijn optiek, is dit louter een technische rapport dat niet gericht is om uber de schuld te geven maar juist het mankement in het systeem aan de duiden
Sowieso waren zoals gemeld de lichtomstandigheden in het echt beter dan op de video, dat is ook bewezen in een aantal andere filmpjes van mensen die daar on-site zijn gegaan.

Maar vergeet vooral niet dat het uitgeschakelde volvo systeem (vrij standaard forward radar) dit gewoonweg had gedetecteerd en had ingegrepen door te remmen.

En dat de radar systemen van de Uber auto dit ook gezien hebben, maar de software (door aantal design keuzes, oa de 1 seconde vertraging) gewoonweg dit fout heeft opgepakt.
" De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg."

Is de software echt schuldig te houden als de bestuurder niet op aan het letten was? Volgens mij zit die bestuurder juist om de fouten van de testsoftware op te vangen. Geloof niet dat Uber geclaimd heeft dat de auto zonder bestuurder kan rijden.
Is de software echt schuldig te houden als de bestuurder niet op aan het letten was?
De software misschien niet maar Uber wel.. mensen zijn gewoon niet geschikt om gedurende lange tijd actief machines in de gaten te houden.
Zeker wanneer het overige verkeer gewoon oplet
Zelfs als je 2s afstand houdt red je het niet als de auto voor je uit het niets vol op de rem gaat.
hooguit tot blikschade
Er zal maar een motorrijder achter rijden..
Of een vrachtwagen zonder automatische noodrem. Succes met de blikschade. ;)
Bij snelheden >= 70 blijft het sowieso zelden beperkt tot blikschade.
zie ik beperkte risico's bij de meeste false positives
Ligt nogal aan de frequentie van false positives.

[Reactie gewijzigd door Olaf van der Spek op 6 november 2019 09:53]

Natuurlijk erg genoeg, dat is niet goed te praten. Je kunt veel testen maar ik vrees dat er altijd situaties voorkomen die je niet had kunnen voorzien.

Aldoende leert men. Hopelijk bestaat er uiteindelijk een vele male veiligere situatie op de weg wanneer deze systemen helemaal door ontwikkeld zijn.
Totdat het je vrouw of kind is.
Denk je er dan nog zo over?

Men heeft willens en wetens goede systemen uitgeschakeld, dat is nooit goed te praten.
Ik ben ervan overtuigd dat zelfs met de huidige stand van de techniek de computers beter op zitten te letten dan iedereen dit achter het stuur zit te appen.
Elk ongeluk met een zelfrijdende auto wordt echter 1000x vergroot in het nieuws gebracht.
De 600 doden per jaar in NL door niet-zelfrijdende auto's zijn slechts een voetnoot in de krant...

M.b.t. het uitschakelen van het Volvo systeem; die is vanuit de techniek wel te begrijpen.
De praktijk spreekt je tegen. Autonome auto's kunnen goed omgaan met andere auto's. Maar fietsers en voetgangers zijn moeilijker detecteerbaar en voorspelbaar.

Nee, mijns inziens zou het alleen uitmaken op de snelweg en autowegen.
Precies.

Ik ben blij dat het hier toch een stuk lastiger is om dergelijke testen op de openbare weg uit te voeren.
Emotioneel niet, rationeel wel. Dat zijn twee compleet verschillende dingen en moet je niet verwarren.
Feit blijft dat inderdaad niet alle situaties kunnen worden voorkomen. Niet door mensen en niet door AI. Dat feit blijft staan, ook als het een familielid is die slachtoffer is.
Er is een verschil tussen de onboard video (die bewust donkerder gemaakt lijkt te zijn) en werkelijke omstandigheden. Het is weliswaar geen 'freeway' maar wel een grote doorgaande weg die goed verlicht is. Het punt waar het ongeluk gebeurde is weliswaar iets donkerder, maar nog meer dan genoeg verlicht voor een menselijke bestuurder om ver op tijd te remmen.
Zoals ik al zei, die video is ruk. De weg is daar veel donkerder op de video dan in de werkelijkheid. In werkelijkheid had elke bestuurder de voetganger ruim op tijd kunnen zien.
Het is van de zotte dat er met software waarvan niet duidelijk is waar het wel of niet op kan reageren samen met onverantwoord gepruts aan een voertuig en gebrek aan een persoon die tijdig kan ingrijpen levensgevaarlijke experimenten te doen in de praktijk zonder dat de omstanders als testpersonen daar enige weet of zeggenschap op hebben.
Dat dit mogelijk was zegt vooral veel over het gebrek aan besef van de betrokkenen die dit een goed idee vonden. Het ligt niet aan de software en zal daar ook nooit aan moeten kunnen liggen zolang die geen wettelijk verantwoordelijkheid heeft.
Wat is er mis met 2 veiligheid systemen parallel? Ik snap dat even niet. Hier in de proces industrie hebben we juist vele beveiligingen parallel draaien, mechanisch en elektronisch. Voor veiligheid (noodstop in dit geval) kan dat nooit genoeg zijn. Liever een keer te veel remmen dan te weinig.
Zou dat ook niet met juridische aansprakelijkheid te maken kunnen hebben? Waarop vertrouw je en wat voor afspraken maak je daarover, en kun je dat bewijzen.

Tevens is het bij de ontwikkeling van die software wellicht handig om al rekening te houden met het bestaan van andere software, die dezelfde hardware mag bedienen. Ik kan me ook voorstellen dat veel false positives slecht zijn voor het slecht lerende van het andere software pakket?
Klopt maar dit gaat om het uitschakelen van de standaard aanwezige noodstop van Volvo, iets wat zich de afgelopen jaren al heeft bewezen en doorontwikkeld is. Het klinkt mij gewoon als arrogant dat ze dat uitschakelen. Als mens zet je dat ook niet uit omdat je denkt dat je beter kan remmen dan de auto zelf? Het is een backup middel. Hetzelfde als gaan parachute springen zonder backup omdat je toch wel goed kan vouwen. Het is niet voor niets een backup systeem.
Een noodstop maken terwijl er geen gevaar is kan ook gevaarlijk zijn vanwege achterliggers die dat niet verwachten. Hoewel je voldoende afstand dient te houden, is dat vooral op hogere snelheden bijna nooit het geval voor een noodstop.

Ga maar op de linkerbaan op de snelweg met 130km/h zomaar opeens keihard op de remmen tot stilstand.
Klopt, maar daarom is het systeem van Volvo ook goed getest en doorontwikkeld. Dat zal nooit veranderen, dus kan prima aan blijven staan. Juist het voorkomen van de false positive situaties icm met een bug in hun eigen software heeft tot het fatale ongeluk geleid. Fout 1 is hier gewoon het uitzetten van geteste betrouwbare backup systemen, aangezien hun eigen software nog niet volledig betrouwbaar is.
Autonoom rijden kan zeker een toevoeging hebben in de toekomst, efficienter rijden en hopelijk ook veiliger dan een regulier persoon; sowieso een interessante ontwikkeling. Helaas is het nog ''niet af'' en de enige manier om het te verfijnen is om het in de echte wereld te toetsen.

Dus om alle fouten eruit te halen moeten er doden vallen?

Heel cru, je ziet nu pas dat mensen richtlijnen en maatregelen gaan bedenken op het moment dat er ernstige verkeersongelukken gebeuren. Wellicht kan het ook niet anders...
Neen, er moeten geen doden vallen. Alleen heb je hier, zoals meestal, een opeenstapeling van fouten die tesamen de oorzaak vormen van het fatale incident:
- een systeem dat het ongeluk had kunnen voorkomen was uitgeschakeld
- het systeem dat actief was, was onvoldoende getest en niet ver genoeg ontwikkeld
- de persoon die het systeem moet controleren tijdens de rit was niet aan het opletten

Met andere woorden: de risicos zijn totaal foutief ingeschat door Uber.
Sowieso zullen er ongelukken blijven gebeuren. Probleem is wie we de schuld geven van het ongeluk. En misschien moeten we dat aanpassen.
Ik vraag me af waar de bestuurder mee bezig was, die had ook kunnen ingrijpen.
Die zat op de telefoon te kijken dacht ik (er staat ergens een filmpje op YouTube)

[Reactie gewijzigd door PdeBie op 6 november 2019 08:48]

3 maal raden |:(
Bijna 75.000 boetes zijn er in 2017 uitgedeeld aan bestuurders die achter het stuur aan het bellen of appen waren. Daarmee inde het Centraal Justitieel Incassobureau bijna 17 miljoen euro.

Dit blijkt uit cijfers die De Stentor heeft opgevraagd. In Zuid-Holland werden de meeste boetes uitgeschreven. Zeker 18.000 keer appte of belde daar iemand achter het stuur.
Ik vind het verschrikkelijk dat er op deze manier iemand om het leven is gekomen.

Er zijn drie controlesystemen; een bestuurder die niet op de weg kijkt, een remsysteem dat uitgeschakeld is, en een systeem dat een opzettelijk ingebouwde vertraging heeft. Dat is toch te gek voor woorden?
Volgens mij is de overstekende vrouw fout...


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True