'Bij Uber-crash aanwezige bestuurder was delen van de rit bezig met smartphone'

De bestuurder die in de zelfrijdende Uber-auto aanwezig was toen de dodelijke aanrijding met een persoon plaatsvond, was een deel van de rit bezig met haar telefoon. Dat blijkt uit een politierapport dat verschillende media hebben ingezien.

TechCrunch citeert uit het rapport dat de ogen van de bestuurder gedurende een derde van de 43 minuten durende rit niet op de weg waren gericht. De politie zou verder concluderen dat het ongeluk vermijdbaar was geweest als de bestuurder wel op de weg had gelet. Reuters meldt dat de politie gegevens bij de streamingdienst Hulu heeft opgevraagd, waaruit zou blijken dat de bestuurder een programma aan het kijken was en rond het tijdstip van de aanrijding daarmee stopte. De bestuurder zou een halve seconde voor de crash haar ogen weer op de weg hebben gericht. Het is onduidelijk of er strafrechtelijke vervolging plaatsvindt.

De aanrijding vond plaats op 18 maart en het Uber-voertuig was in de modus voor zelfstandig rijden geplaatst. Er moet dan nog wel een menselijke bestuurder aanwezig zijn voor veiligheidsdoeleinden. Eerder bleek dat Uber de noodrem van de auto had uitgeschakeld om 'grillig gedrag' te voorkomen. De bestuurder wordt in gevallen van nood geacht in te grijpen, maar krijgt daarvoor geen notificatie. Bij het ongeluk kwam een 49-jarige vrouw om het leven, die in het donker de weg overstak op een plek waar geen overgang was. De staat Arizona, waar het ongeluk plaatsvond, verbood verdere tests van Uber.

Uber ongeval Tempe

Door Sander van Voorst

Nieuwsredacteur

22-06-2018 • 19:51

175

Reacties (175)

175
169
102
15
0
49
Wijzig sortering
Was dit niet al duidelijk, ze keek de hele tijd op haar mobiel.
https://youtu.be/51HQ5JXIvWw?t=63 vanaf 1min

[Reactie gewijzigd door Pascal op 22 juli 2024 16:59]

Ze heeft verklaard bezig geweest te zijn met het monitoren van de auto:
In a postcrash interview with NTSB investigators, the vehicle operator stated that she had been monitoring the self-driving system interface.
(bron)

Dat blijkt nu dus bewezen onjuist, en meer dan speculatie op grond van slechte camerabeelden.

[Reactie gewijzigd door burne op 22 juli 2024 16:59]

Ja als er geen andere verklaring voor de gegevens van Hulu is, dan is dit wel heel ernsig. Strafbaar hoop ik.
Is twijfelachtig. De noodrem was immers ook uitgeschakeld met het excuus om grillig gedrag te voorkomen. Dus had ze die gebruikt, deed die weer niks. In dat opzicht kun je dus best stellen dat de auto moedwillig gesaboteerd is. En natuurlijk de persoon die oversteekt waar het geen oversteekplaats is.
Nee hoor, het ging om een testrit en de bestuurder wordt betaalt om op te letten… De auto is niet gesaboteerd want het originele systeem werkte gewoon niet goed in combinatie met het systeem van Uber dat ze aan het testen waren.. En genoeg auto's hebben niet zo'n systeem…
De muts had gewoon moeten opletten, dan was dit waarschijnlijk ook helemaal niet gebeurd.. Naast natuurlijk dat degene niet had moeten oversteken waar daar geen oversteek voor is.
Zo op de kaart te zien is het gewoon een oversteekplaats anders.

Dit ongeluk bewijst eens en te meer dat zodra je mensen werk uit handen neemt of (deels) automatiseert, ze gelijk er maar vanuit gaan dat ze zelf niks meer hoeven te doen. Dat zie je al met dode hoek signalering (waarom nog kijken, dat doet het systeem toch voor me, dat is toch feilloos? ) , dat zie je met navigatie (ik moest hier rechtdoor) en nu met die 'hulpsystemen' voor automatisch rijden gaan mensen er gelijk vanuit dat ze achterover geleund hun telefoon verslaving kunnen voortzetten.

Ondanks dat ik in de IT werk pleit ik echt voor minder automatisering op een hoop vlakken. Er wordt veel te veel geautomatiseerd 'omdat het kan' in plaats van dat het daadwerkelijk nut heeft.
Naast het feit dat dit soort dingen natuurlijk gewoon banen gaat kosten.
Dat bewijst dit totaal niet...
We willen naar geheel autonome auto's. Dus dat mensen feitelijk niets meer hoeven te doen (wat betreft autorijden/verkeer dan). Dat kan enkel door het testen van deze auto's onder toezicht. In dit geval faalde dat toezicht. En dat is kwalijk. Niet van de techniek, maar van de persoon die verzuimde haar werk te doen.
Ik weet niet wie 'we' zijn maar een groot deel van de mensen wil dat in elk geval helemaal niet.
We is de samenleving als geheel. Dat niet iedereen zich daarin kan vinden, tja.... Het is niet meer dan vanzelfsprekend dat op termijn zelf rijden niet meer mogelijk is (behalve misschien op bepaalde afgesloten stukken weg, voor de mensen die rijden gewoon leuk vinden!). Wanneer de techniek eenmaal volwassen genoeg is zal autonoom rijden het gehele verkeer veranderen, evenals de indeling van steden, wegen, etcetera. Er zijn veel minder auto's nodig (want waarom zou deze ongebruikt 80% van de tijd geparkeerd staan als deze in de tussentijd prima zelfstandig andere mensen kan vervoeren). Parkeren in de stad wordt overbodig. De auto zet zichzelf gewoon buiten de stad weg wanneer deze niet in gebruik is. Daarnaast zullen files extreem verminderen (reken de winst uit voor de economie, om over frustraties nog niet te spreken) en zullen (ernstige) ongevallen uitzonderlijk zijn. Het gaat écht nog wel even duren. Maar dit is wel waar 'we' heen gaan! Of je nu wilt of niet!
Zoals ik al zei, "we" is geen meerderheid op dit moment. Het zal mij benieuwen of dit ooit gaat veranderen.
Naast alle technische onmogelijkheden
Tja... toen destijds de paard en wagens vervangen werden door auto's was er ook geen meerderheid maar is het uiteindelijk toch doorgevoerd. Uiteindelijk wegen de belangen van veiligheid, economische belangen, etc. dan zwaarder dan wat de 'onwetende' burger denkt te weten en wat veelal geregeerd wordt door angst (onwetend tussen aanhalingstekens uiteraard! Dat is immers echt te kort door de bocht in deze).

Technische onmogelijkheden zijn er nu al niet meer. De enige uitdaging zit nog in hoe we de software slim genoeg krijgen en/of hoe we de regelgeving, inrichting wegennet etc. aangepast krijgen om bepaalde issues te omzeilen.

Het is geen vraag OF het ooit gaat gebeuren, het is enkel een vraag wanneer het gaat gebeuren. En mijn gevoel is dat dat best wel eens heel snel zou kunnen zijn (<- let wel: gevoel. dus ga niet vragen om bronnen/onderbouwing e.d.). Het heeft momenteel erg veel aandacht, de techniek/software gaat razend snel. En uiteindelijk zit de meerderheid hier wel degelijk op te wachten - ook al weten ze dat zelf veelal nog niet... Immers minder verkeersdoden willen we allemaal, minder files willen we allemaal, minder tijd naar de snelweg staren willen de meesten (niet allemaal). Autonoom rijdende auto's kunnen dit allemaal in potentie mogelijk maken (en nee, zover zijn we nu nog echt niet! Maar de potentie is er zondermeer).
Dit vind ik wel een interessante statement. Heb je hier een bron voor?
Het kosten van banen is gewoon een feit, dat is het gevolg. Ik ben met je eens als het hier om een productieauto ging en de fabrikant ook aangeeft dat het geen probleem is als je wat anders gaat doen, maar dat is in dit geval dus iet, het gaat hier om een TESTauto en de bestuurder wordt betaalt om op te lette of het systeem goed werkt en niet om 3minuten na het starten van de rit te beginnen met het kijjen van the voice en dan 42 minuten later dus daardoor een dodelijk onfeluk veroorzaakt omdat het systeem dus niet goed werkte en ZIJ dus de backup had moeten zijn, je weet wel, waar ze voor betaald werd, haar werk...

En zeker geen oversteekplaats, moet je de situatie daar dan toch even beter bekijken (tja, tenzij jij bv midden op een snelweg hier ook gewoon een oversteekplaats vindt).

[Reactie gewijzigd door SuperDre op 22 juli 2024 16:59]

Uiteindelijk is 'geautomatiseerd' rijden veiliger dan mensen laten rijden. We zitten nu alleen in een overgangsfase waarin er nog een hoop uitgewerkt en geperfectioneerd moet worden. Al die voorbeelden die je noemt hebben meer geld/tijd/levens bespaard dan ze gekost hebben, en dat wordt alleen maar beter naarmate ze beter werken en beter geïntegreerd zijn.

Over 25 jaar zijn zelfrijdende auto's breed uitgerold en loopt het aantal verkeersdoden hard terug.
Over 50 jaar kijken mensen terug op 'vroeger' en vragen ze zich af hoe iemand toen zelf achter het stuur heeft durven stappen.
De muts had gewoon moeten opletten, dan was dit waarschijnlijk ook helemaal niet gebeurd.. Naast natuurlijk dat degene niet had moeten oversteken waar daar geen oversteek voor is.
Dat sowieso, maar liever een grillige reactie in zo'n geval dan geen reactie, lijkt mij zo.
Probleem is dat die 'grillige reactie' zich ook buiten dit soort gevallen voor kan doen. Als de auto 2 keer per dag uit het niets een noodstop maakt omdat hij denkt dat dat nodig is, dan kan ik me goed voorstellen dat ze dat systeem uitschakelen tot het werkt zoals het moet werken.
Plus dat een onverwachte noodstop uit het niets in het verkeer zéér gevaarlijk is en een operator daar verder weinig op kan ingrijpen... Daarentegen was hier genoeg tijd om in te grijpen... Dus het had voorkomen kunnen worden wanneer de operator in kwestie gewoon haar werk gedaan had. Als ik op mijn werk de hele dag Youtube zit te kijken en het systeem waar ik aan werk faalt vervolgens omdat er niet getest is betekent dit niet dat betreffende software per definitie slecht is, maar dat ik gewoon gefaald heb in mijn werk (en dus minimaal; de zak verdien te krijgen...).
Ik denk dat de noodrem de autonome noodstop is, er wordt ook gezegd dat deze uitgeschakeld is en de bestuurder geacht is in te grijpen. Die zal dan wel op een ouderwets rempedaal moeten trappen
Dat snap ik. Maar we weten nu niet of de automatische noodrem goed had ingegrepen en het ongeval had kunnen voorkomen.
Gezien de ervaring die ik heb met automatisch gestuurde voertuigen, zou ik zeggen dat het automatisch noodstop systeem uitgezet was om te voorkomen dat de auto oppeens een noodstop midden op de weg maakt, omdat het dacht wat te zien... het is de verantwoordelijkheid van de “bijrijder” om de noodstop uit te voeren als het nodig. Dit kan natuurlijk alleen als die gene aan het opletten is.
maar het is gewoon slecht design dat de software om de auto te monitoren op een smartphone draait en niet in een HUD setup bij het raam zit, anders kun je helemaal niet op die software EN de weg letten.
Klopt. Het noodrem systeem was uitgeschakeld omdat de auto anders onvoorspelbaar gedrag zou vertonen. Wat echter fout ging is dat het systeem verwacht dat de bestuurder ingrijpt. Maar de bestuurder geen signaal krijgt van de auto. En ja die bestuurder doet de hele dag geen ene moer in dat ding dus die zit niet op te letten. Had dan ff een piepje ingebouwd als headsup voor de bestuurder. Dat ie de hele rit op zn telefoon zit okay. maar in gevaarlijke situaties heb je em nodig omdat die auto in principe incompleet is.
Twijfelachtig of het strafbaar is, omdat de auto niet in staat was autonoom een ongeluk te voorkomen?
Het lijkt me dat dit los moet staan.
Het achter het stuur van een door jou bestuurde auto bezig zijn met je telefoon is wat mij betreft een losstaand feit wat in Nederland iig gewoon strafbaar is, altijd.


Dat er nu iemand dood is, de auto autonoom kon rijden, wel of niet een noodstop functie had etc. zijn m.i. hoogstens feiten welke mee te nemen zijn bij de strafbepaling.
kun je dus best stellen dat de auto moedwillig gesaboteerd is.
Moedwillig gesaboteerd is echt iets heel anders, wanneer er daadwerkelijk sabotage gepleegd zou zijn is het doel schade toebrengen. Schade aan wie of wat? En waarom? Voor een beetje complot theorie is vast wel een plekje te vinden, hier lijkt me dat wat ongepast.

Strafbare nalatigheid dan wellicht, toch iets wat lijkt op sabotage maar niet ten doel heeft schade te veroorzaken.
Of het (strafbare) nalatigheid is om de noodrem uit te schakelen, dat zou een rechter moeten bepalen. Al denk ik niet dat er een advocaat zal zijn die dat gaat proberen. Een onterechte autonome noodstop is misschien wel gevaarlijker als die functie uitschakelen.
Een achterligger zit waarschijnlijk al bovenop je voordat een menselijke bestuurder kan ingrijpen, terwijl een menselijke bestuurder wel wordt geacht op ieder moment de besturing volledig over te kunnen nemen.
De plotselinge en onterechte noodstop zou dus niet zomaar op een bestuurder afgeschoven kunnen worden (moet je dan in een reflex je rempedaal optillen oid?), het niet uitvoeren van die noodstop wel.


Voor een strafeis, is het dan van belang of je in een auto stapt die niet autonoom kan rijden, of in een die dat wel deels kan (en wat jij moet testen) en waarvan je weet dat deze autonoom geen noodstop kan maken?
Het is toch juist de taak van die chauffeur om daar waar het autonoom rijdende systeem faalt in te grijpen?
Dat is toch waarvoor hij/zij betaald wordt?

Zou er dan voor een strafmaat een verschil moeten zitten tussen een auto met alleen adaptive cruise control, een volledig zelf bestuurde auto of een auto die volledig autonoom kan rijden maar zo nu en dan alleen een foutje maakt?
In alle gevallen wordt van de bestuurder verwacht die noodstop op ieder moment uit te kunnen en zullen voeren wanneer dat nodig is. Indien dat niet zo zou zijn was er vast geen testvergunning afgegeven.


Dat een persoon ergens oversteekt waar dat niet verwacht wordt, is dat van belang voor de strafbaarheid?
Zelfs al was dit een zelfmoord van het slachtoffer, dan nog zou je verwachten dat de bestuurder zou doen wat redelijkerwijs mogelijk is om een (fatale) afloop te voorkomen. Ook dan lijkt het me niet toegestaan met de telefoon bezig te zijn achter het stuur van een rijdende auto.

[Reactie gewijzigd door JDVB op 22 juli 2024 16:59]

Inderdaad, hoewel in het filmpje lijkt het wel alsof ze erg ver naar beneden kijkt. Als je naar bijvoorbeeld je radio kijkt gaan je ogen iig niet zover naar beneden.
Als ik dat filmpje zie betwijfel ik of ik ook wel op tijd had geremd. Die vrouw is nauwelijks te zien! Staat niet los dat er een paar zeer kwalijke dingen zijn gebeurd tijdens die testrit en het gebruik van een smartphone is zeker ernstig als je weet dat je iets aan het testen bent dat nog niet helemaal af is.
Er is een ander filmpje dat toont dat de weg daar niet zo donker is. Rond 3:35

https://youtu.be/NWkUNQoiZZw

Op grond van Uber filmpje dacht ik dat ook. Geen idee welk beeld het meest overeenkomt met de werkelijkheid.

[Reactie gewijzigd door jaspov op 22 juli 2024 16:59]

Gezien de kwaliteit van het filmpje dat Pascal linkt, is er wellicht een kwalitatief mindere camera gebruikt door Uber, dan de camera dat gebruikt is in het filmpje dat jij linkt (iets met diafragma en zo ;)). Wellicht dat daardoor dus de perceptie is ontstaan dat er (te) weinig licht was.
In het uber filmpje zit in de duisternis ook geen ruis. Dat zou je wel verwachten wanneer een camera op een hoge iso staat ingesteld omdat het zo donker is. Het heeft er alle schijn van dat ze de donkere partijen veel donkerder hebben gemaakt (dat het bewerkt is dus). Uber als bedrijf heeft ook nog eens de schijn tegen.
Dat had ik ook met dat filmpje.
1 keer knipperen met je ogen en is het al te laat.
Maar die auto heeft wel sensoren die daar dan weer geen last van heeft.
De sensoren van de auto hadden wel "iets" gedetecteerd 6 seconden voor de botsing, maar het was toch niet duidelijk een voetganger, de software zag het aan voor een andere auto, dan weer een fiets, ...
Ook telkens met een andere voorspelling van de route die de andere partij volgde.

Het meest krijtelijke is toch wel dat de auto zelf besloot om een noodstop uit te gaan voeren 1,3 seconde voor de botsing .. maar dat Uber die optie had uitgeschakeld. As in het systeem gaf wel aan dat het nu het moment was voor een noodstop maar mocht die dus niet initiëren.
At 1.3 seconds before impact, the self-driving system determined that an emergency braking maneuver was needed to mitigate a collision. According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer control, to reduce the potential for erratic vehicle behavior. The vehicle operator is relied on to intervene and take action. The system is not designed to alert the operator.
Zie: https://arstechnica.com/c...iving-software-ntsb-says/

Even wat rekenen zegt dat de auto normaal had begonnen met remmen op een 21 meter afstand - geen idee of dat voldoende was geweest, maar de impact had in ieder geval heel wat minder zwaar geweest.
De auto reed 40mph (~17m/s) waardoor je een stopafstand hebt van van circa 36 meter. De auto heeft 1,3 seconden (~21 meter) om te stoppen. Dus, de auto raakt de vrouw met een resterende stopafstand van 15 meter. Dan rijdt de auto nog altijd ~35km/h bij het botsen tegen de gevaarlijk-overstekende vrouw. Vol geraakt worden door een loodzware SUV van de zij, ook op ~35km/h is al gauw fataal.

Zou een menselijk bestuurder het hebben kunnen ontwijken? Gezien de nagenoeg niet-verlichte weg zou dat zeer mogelijk ook slecht kunnen aflopen naar mijn mening. Althans, dat zeg ik met het idee dat ik achter het stuur zit.
Je snijdt een cruciaal punt aan. Ik weet zeker dat het gros van de menselijke bestuurders deze vrouw ook hadden aangereden met dezelfde uitkomst.

De enige schuldige hier is Uber die bewust veiligheidssystemen uitschakelt omdat hun eigen techniek nog niet goed genoeg is.
Dit punt is al uitgebreid elders (ook op tweakers) bediscussiëerd. Het lijkt erop dat het filmpje niet de werkelijke situatie weergeeft, maar veel te donker is. En dat er in werkelijkheid wel voldoende zicht was. Zie ook andere comments op dit artikel. De vraag is zelfs of het filmpje gemanipuleerd was...

Verder is het zo, dat als je zo hard rijdt met zo weinig zicht, dan ben je óók onverantwoord bezig, en dat zou m.i. een voldoende reden kunnen zijn om iemand voor doodslag te veroordelen (dwz: opzet, maar niet noodzakelijk voorbedachte rade).

Dus ja: een reguliere menselijke bestuurder had kunnen ontwijken, want die had goed opgelet (met voldoende zicht), en dus de vrouw op tijd gezien, of die had veel minder hard gereden (met zo weinig zicht als op het filmpje), en dus de vrouw ook voldoende op tijd gezien.
Het originele filmpje is bewust donkerder gemaakt maar de weg is juist uitstekend verlicht (zie je ook aan de hoeveelheid lantaarnpalen) en je hebt normaal gesproken ook iets meer blikveld dan alleen recht vooruit als je aan het rijden bent. Een mens had dit ongeluk absoluut kunnen voorkomen (als ze niet ook op hun telefoon zaten te klooien)
Niet iedere botsing met een auto is dodelijk. De auto reed al te hard en als die vrouw gewoon had opgelet dan had ze nog kunnen remmen en met een veel lagere snelheid de voetganger geraakt.
De auto reed al te hard en als die vrouw gewoon had opgelet dan had ze nog kunnen remmen en met een veel lagere snelheid de voetganger geraakt.
"De Auto" zag het slachtoffer op tijd en besloot op tijd om te remmen. Alleen kan "De Auto" niet zelfstandig remmen, want het management van Uber vond dat ongewenst. Dus zat er een mens achter het stuur die moest remmen, hopelijk op hetzelfde moment als wanneer "De Auto" dat besloot.

En dat ging mis.

Uber management besloot om Volvo's "City Drive" uit te zetten. Dat had het ongeval voorkomen.

Uber management besloot om de auto niet te laten remmen ook al zag Uber's eigen technologie een obstakel. Dat had het ongeval voorkomen.

Uber management besloot de veiligheid van andere weggebruikers in handen te leggen van iemand die een serie op Hulu belangrijker vind dan het leven van de mensen om haar heen. Als ze opgelet had, had ze het ongeval kunnen voorkomen.

Noblesse Oblige. Het ongeval is volledig te wijten aan beslissingen van het Uber management team. Inclusief de verantwoording voor het inhuren van een incompetente 'security driver'.
Alleen kan "De Auto" niet zelfstandig remmen, want het management van Uber vond dat ongewenst. Dus zat er een mens achter het stuur die moest remmen, hopelijk op hetzelfde moment als wanneer "De Auto" dat besloot.
Daarbij komt ook nog dat het noodremsysteem ook geen waarschuwing gaf. Dus stel dat de bestuurder inderdaad het dashboard in de gaten gehouden had (in plaats van haar telefoon) dan had ze ook geen waarschuwing gehad.
ze had gewoon door haar voorruit moeten kijken..
Ze had beter gewoon zelf kunnen rijden. Weg semi autonoom rijden. Of ze maken de techniek zo dat het echt autonoom rijden is, of ze laten gewoon de mens rijden.
Dit werkt niet en zal nooit gaan werken!
Tuurlijk werkt dit wel. Je mag het alleen niet afzetten zoals hier gebeurd is. Mijn vorige wagen heeft zo ook eens zelfstandig geholpen een groot stuk beton te ontwijken op een donker stuk snelweg.
Je mag het alleen (nog) niet opvatten als volledig zelf rijdend. De namen van de fabrikanten zijn soms een beetje misleidend.
Tuurlijk, maar stel dat er een alarmbelletje afging ofzo dan had ze nog een kans gehad. Of stel dat ze wel (zoals ze claimde) op het dashboard aan het letten was, dan had ze een waarschuwing moeten zien. Dat neemt niet weg dat ze gewoon niet op aan het letten was, maar het blijven valide kritiekpunten op Uber wat mij betreft. Ze waren zo onverantwoord bezig dat het eigenlijk alleen een kwestie van tijd was voordat je zo'n ongeluk kreeg, en ze hebben in die zin geluk dat de bestuurder in dit geval óók onverantwoord bezig was.
Precies dit. Autonoom rijden heeft de potentie om veel veiliger te zijn dan door mensen. Wellicht kan het dat nu al zijn zelfs. Bovenstaande 2 reacties zetten ons helaas een stuk terug op dat gebied. Een deel van de schuld ligt idd met name bij Uber management lijkt mij, maar ook bij de persoon zelf die daar in het donker oversteekt en de (afgeleide?) bestuurder. Maar autonoom rijden werkt gebrek bij concentratie bij de verantwoordelijk bestuurder in de hand. We blijven mensen en als we een lange tijd niks hoeven te doen gaan onze gedachten automatisch afdwalen. Dat is zo bij iedereen denk ik geen uitzondering. Dus moet je systeem daarop ingericht zijn. Dan pas kan het een succes zijn.
afdwalen of op je smartphone gaan kijken vind ik toch wel 2 compleet verschillende dingen. Ze werd betaalt om op te letten, niet op der smartphone hulu te gaan zitten kijken..
Ik ben met je eens als dit geen testrit was en als ze er niet voor betaalt werd om op te letten….. maar dit was een testrit en ze werd betaalt om op te letten….
Je hebt gelijk. Ze is wel degelijk nalatig geweest. Ze had haar taak moeten doen of als die niet 'vol te houden' is moeten weigeren. Eens. Maar bij een nagenoeg volledig automatisch systeem gaan we dit gedrag meer zijn...
Dat gaan we doen bij een systeem waarbij dat volgens de fabrikant kan en ook de bedoeling is, zodra de fabrikant dat niet garandeert en zelfs aangeeft dat je ten alle tijden de handen op het stuur moet hebben en moet opletten, dan niet. Die verantwoordelijkheid ligt bij de bestuurder..
Nou, mijn auto geeft ook geen waarschuwingen als er iemand ineens opduikt voor mijn auto, ik zal ook zelf door die grote voorruit moeten kijken en zelf ook op die rem moeten drukken… en DAT was de taak van die muts die achter het stuur zat, DAAR werd ze voor betaalt, niet om hulu op der smartphone te gaan zitten kijken...
Maar jouw auto heeft ook geen systeem om te detecteren dat er iemand ineens opduikt. Als het dat wel heeft, dan kan ik me enigszins voorstellen dat je automatisch ingrijpen uitzet als het te vaak automatisch op de noodrem gaat staan - maar dan verwacht ik wel dat er minstens een waarschuwing in beeld komt, misschien met een geluid daarbij. Wat als je met je kinderen in de auto zit en je kijkt even weg omdat ze druk zijn? Dan zou zo'n waarschuwing een leven kunnen redden.
Als je gewoon oplet dan 'duikt' er niet zomaar ineens iets voor je op.
DAAR ben ik het niet met je eens, zelfs met goed opletten kan zoiets gewoon gebeuren, kinderen zijn klein en kunnen zo verstopt achter een auto/busje zitten dat je het echt niet zoet als die dan ineens tevoorschijn komt. Dat kan zelfs de beste bestuurder overkomen..
En Daar ben ik het dan weer niet mee eens. Jij brengt voorbeelden die wel kloppen, maar niet van toepassing zijn op de situatie hier. De situatie was vrij duidelijk, blijkt uit verschillende filmpjes. Op basis van die beelden kun je redelijk zeker vaststellen dat iemand die had opgelet, op z'n minst de snelheid van de auto behoorlijk omlaag had kunnen brengen.
Ik reageer hier op Metro2002 die aangeeft dat als je "gewoon oplet dan 'duikt' er niet zomaar ineens iets voor je op", hij heeft het daar over algemeen, niet over deze specifieke situatie.. In deze specifieke situatie had het hoogst waarschijnlijk wel voorkomen kunnen worden als de muts gewoon had opgelet.
Het gaat hier om een TESTauto, waarbij sowieso geacht wordt dat de daarvoor betaalde testrijderop let en niet een stream gaat zitten kijken die 42 van de schijnbaar reeds 45 minuten durende testrit bezig was ofwel 3 minuten na het begin van de testrit zette ze 'the voice' al aan.
Dan had ze in elk geval ook nog door de voorruit kunnen kijken en daarop reageren.
Uiteindelijk moet een bestuurder gewoon opletten, of je nou adaptive cruise control hebt of autonoom level 3, de persoon achter het stuur is verantwoordelijk.

En vergeet niet dat het slachtoffer besloot een vierbaans autoweg (80/100 km/u) lopend over te steken!
De uber auto reed niet te hard, was verlicht en maakte geen onverwachte bewegingen. (afgezien van niet remmen)

Dus zowel het slachtoffer als de bestuurder en Uber zaten fout en elk van deze drie hadden dit ongeluk kunnen voorkomen.
Een bord een paar honderd meter eerder zegt SPEED LIMIT 45. Er liggen een fietspad en een voetpad naast de weg. En het slachtoffer stak over bij deze kruisende voetpaden. Op die plek staat ook een bordje dat afslaande auto's fietsers voorrang moeten geven. Vierbaans autoweg?

Kunnen we het bij de feiten houden?

Een experimentele auto van Uber, bestuurd door computers en software van Uber, rijdt iemand dood. Er zit een Uber-medewerker achter het stuur. Uber heeft veiligheidssystemen uitgeschakeld (City Drive), functies uitgeschakeld (zelfstandig remmen) en geen voorziening getroffen om de bestuurder te waarschuwen voor naderend onheil. Uber is juridisch aansprakelijk.

De auto had de bestuurder 6 seconden voor de aanrijding kunnen en moeten waarschuwen.

Misschien dat het OM ook nog iets met de bestuurder gaat doen, maar dat staat helemaal los van Uber's rol in het geheel.
45 miles is dus 72km/u. En op de plek waar het slachtoffer overstak staat een bordje dat je daar NIET mag oversteken, maar de oversteekplek verderop moet gebruiken.

Jij vindt Uber aansprakelijk en ondanks dat Uber aantoonbaar een protentieel gevaarlijke situatie heeft gecreëerd, is Uber niet de veroorzaker van het ongeluk.

De bestuurder van de auto is altijd verantwoordelijk voor de auto, als ik LKAS en ACC aanzet in mijn auto, dan ben ik nogsteeds de bestuurder, ondanks dat we dan al spreken van autonoom rijden op level 2.

Uber had beter zijn best kunnen doen om het te voorkomen, maar uiteindelijk heeft het samenspel van onverstandig handelen van het slachtoffer en de bestuurder het ongeluk veroorzaakt.
Waarom jij +3 krijgt is mij een raadsel, het ging hier om testritten om het systeem te testen. Daarbij was bewust het systeem van volvo uitgeschakeld omdat dat problemen gaf met hun eigen systeem, die in principe hetzelfde had moeten doen.
OF het systeem van volvo ook daadwerkelijk het ongeluk had kunnen voorkomen blijft gissen, het ZOU zulke ongelukken moeten voorkomen, maar ook city drive is niet perfect..

Nee, het probleem ligt toch echt voornamelijk bij de bestuurder, die werd betaalt om op te letten maar verzaakte dat te doen.
Tja, en hoe vaak worden er wel geen incompetente werknemers aangenomen, tijdens de solicitatie lijken ze in orde maar later blijkt het dus gewoon prut te zijn…..

Het ongeluk is dus niet volledig te wijten aan het uber management..
Het ongeluk is dus niet volledig te wijten aan het uber management..
Ik benoem drie dingen die bewuste keuzes van Uber geweest zijn en die alledrie ieder op zich genoeg waren geweest om dit ongeluk (deels) te voorkomen. Zes seconden voor de aanrijding wist de auto al dat er een mogelijk obstakel op een botskoers lag. De auto kon niet remmen, kon de bestuurder niet waarschuwen.

Hun eigen systeem had nooit kunnen doen wat het had moeten doen, dat was juist doelbewust uitgeschakeld. Als je de weg opgaat met een zelfrijdende auto die niet kan stoppen in een noodsituatie en die geen manier heeft om de bestuurder te waarschuwen voor een noodsituatie ... :F
Wat een onzin, het standaard systeem van volvo was uitgeschakeld omdat dat dus problemen gaf met hun systeem. Het gaat hier om een testauto en testrit, waarbij dus uitgegaan wordt dat de testrijder goed oplet, waar ze dus voor betaald wordt. De testrit was schijnbaar 45 minuten aan de gang voor het ongeluk gebeurde, 22:59, dat was ook toen haar hulu stream stopte, die toen al 42 minuten 'the voice' 8)7 aan het streamen was (zie reuters). Duidelijk dat dat domme wijf dus totaal niet serieus met haar werk bezig was. Zoals ik al eerder zei, dat soort dingen kun je moeilijk detecteren bij solicitatie.
En zoveel auto's die geen waarschuwing hebben en de bestuurder dus zelf moet opletten, dus het systeem van volvo uutschakelen was in deze TESTrit geen probleem, ZIJ was het noodsysteem voor de TESTauto.. je mag van je testrijders toch wel een beetje professionaliteit verwachten ipv dat ze zo bagger programma als the voice(of wat dan ook) gaan zitten kijken tijdens hun werk.
Het ongeval is volledig te wijten aan beslissingen van het Uber management team. Inclusief de verantwoording voor het inhuren van een incompetente 'security driver'.
Neen de overeenkomsten zijn duidelijk de bestuurder moet zijn aandacht er ten alle tijden bijhouden. Sterker nog uber had een aantal mensne uit hun programma ontslaan omdat ze juist gsm gebruikte of omdat ze verkeersovertredingen deden (zoals door rood licht rijden) die ze normaal niet had mogen maken.
Ik snap je punten en idd, de beslissingen zijn niet al te rooskleurig. Maar dat betekent niet dat de chauffeur (die er nota bene als laatste redmiddel erbij zat!) tijdens zo'n rit met iets anders bezig kan en mag zijn. Beiden treffen blaam; management had die beslissingen niet mogen nemen, chauffeur was onverantwoordelijk bezig met haar mobiel. Je kunt de schuld / verantwoordelijkheid niet afschuiven op 1 partij, beiden zijn verantwoordelijk.

[Reactie gewijzigd door CH4OS op 22 juli 2024 16:59]

Uhm, het is niet per se zo dat het management team dat besluit heeft genomen om een functie uit te schakelen. Dat kan ook een wat hoger geplaatste engineer zijn geweest die een paar ongewenste interacties had met dat systeem.
Filmpje was sterk aangepast onderbelicht: mensen zijn over datzelfde stuk weg gaan rijden en het bleek vele malen beter belicht te zijn dan dat 't lijkt op het "officiële" filmpje.

[Reactie gewijzigd door guillaume op 22 juli 2024 16:59]

Filmpje was niet aangepast, de dashcam was waarschijnlijk gewoon niet goed ingestelt. Niet dat het uitmaakte, want die muts keek toch niet op de weg terwijl dat wel haar taak was..
Agreed. Na de reactie van @vinx77 herlas ik m'n post, was 'n ongelukkige bewoording.
Ligt puur aan de camera dat het zo donker lijkt en de persoon niet opvalt. Onder andere is al door iemand anders eens met een betere camera gefilmd. De weg is verlicht en als je zou opletten, dan was dit wel eerder opgevallen.

Never mind, is al genoemd.

[Reactie gewijzigd door Allovich op 22 juli 2024 16:59]

Definieer op tijd... Misschien was de aanrijding niet voorkomen, maar de dodelijke afloop misschien wél... Had toch al een wereld van verschil gemaakt!
offtopic:

Ik vind het werkelijk idioot dat je als bedrijf / politie een video uit laat lekken / vrij geeft, waarin de laatste seconden van een mensenleven worden getoond. Alleen om je 'gelijk' aan te tonen dat het niet Ubers schuld was.

respectloos.
Volgens mij is Uber hiermee juridisch niet vrijgepleit want de persoon in de auto werkte voor Uber.
Alleen is die persoon zelf mogelijk strafbaar terwijl Uber waarschijnlijk alleen aansprakelijk is.
het gaat er mij niet om wie of wat er verantwoordelijk is. Dat zal uitgezocht moeten worden. Het gaat er om dat iemand er bewust voor kiest om die beelden naar buiten te brengen. Dat is geen toeval of per ongeluk gegaan. Het gaat hier om beelden die gemaakt zijn in de auto en beelden van een dashcam die naar voren is gericht. Geen openbare bronnen / webcams o.i.d.

Geef de beelden aan de politie (intern), laat deze de beelden beoordelen door deskundigen en kom terug met een (wel/niet) (ver-)oordeling.

De enige reden om deze beelden naar buiten te brengen is om de omgekomen fietser in diskrediet te brengen. (In het originele bericht werd gemeld dat de vrouw een x-jarige vrouw was zonder vaste woon- of verblijfplaats en waarschijnlijk onder invloed van alcohol was).
Juist.

En het zal vast niet alleen om "het gelijk" gaan, er zijn met deze "case" namelijk grote belangen en veel geld gemoeid.
En dat schijnt tegenwoordig belangrijker te zijn dan een mensenleven.
In de zorg bijvoorbeeld en nog veel meer zaken kijkt men alleen nog wat je kost en/of opbrengt.
ik vind het prima dat er gekeken wordt wie er 'schuldig' aan dit ongeluk was en/of er schadevergoedingen uitgekeerd moeten worden. 'Kon dit ongeluk voorkomen worden of niet', lijkt me een prima vraag. Echter waar ik niet zo fan van ben, is het publiceren van beelden van de laatste seconden van iemands leven en het in diskrediet brengen van het slachtoffer. (Het zou een dakloze vrouw zijn, die alcoholist is..)

Geef deze beelden aan de politie, en laat die hun werk doen. Deze beelden (beelden in de auto en de dashcambeelden) zijn bewust naar buiten gebracht.

Erg laag bij de grond en respectloos.

[Reactie gewijzigd door Ynst2003 op 22 juli 2024 16:59]

Het verhaal was eerst nog dat ze op het scherm van de auto met meldingen aan het kijken was. Wat daar onderaan in de auto is bevestigd (en niet zoals je zou verwachten voor de bestuurder waarbij je toch je ogen op de weg houd).

Maar dit is vrij duidelijk.
In principe wel, maar je kunt je afvragen of het relevant is. Zelfs al had de bestuurder 'opgelet' had het ongeluk in mijn ogen nooit voorkomen kunnen worden. De voetganger duikt echt uit het niets op. Had ieder van ons kunnen overkomen..
Maar niet ieder van ons is professioneel testbestuurder van een autonome auto... En bovendien (zoals hierboven ook gezegd), al had de operator te laat op de rem getrapt dan had de uitkomst van de aanrijding toch heel anders geweest kunnen zijn en had het slachtoffer het mogelijk overleefd... Het verschil tussen te laat remmen en in het geheel niet remmen is potentieel nogal groot.
Dit specifieke voorval wordt nu al maanden herhaald overal, met weinig tot geen nieuwe toevoegingen.
Laat wel zien hoe ver de ontwikkeling van "ondersteund" rijden al is, gezien het feit dat er herhaald geschreven wordt over maar twee of drie voorvallen.
Natuurlijk is het nog niet perfect en gelukkig wordt daar hard aan gewerkt, maar zoals ik het nu kan beoordelen is het al veiliger dan een menselijke bestuurder.
Paar dingen vallen op:
1. Het was weer heel "donker". (wie de discussie gevolgd heeft weet wat ik daarmee bedoel)
2. Niet een officiële oversteekplaats. Iemand een idee wat dat rozige kruis is tussen de snelwegen?
Vergeet niet dat een menselijk oog een veel hoger contrast heeft dan een camera, het ziet er wel donker uit maar zo donker zal het voor haar niet geweest zijn. Of ze hiervoor veroordeeld kan worden is alleen lastig, omdat de vrouw met de fiets zelf een gevaarlijke situatie heeft gecreeerd, en had dit niet gebeurt geweest als de mevrouw met de fiets had opgelet, dat is duidelijk.

Wat dus niet duidelijk is is of de mevrouw het ongeluk had kunnen voorkomen al had ze op de weg gekeken, dat is dus niet duidelijk, dat kan je niet echt zeggen, want dat ligt aan het vermogen van de persoon in auto om exact te reageren om zo'n situatie, want je leert niet hoe je moet reageren als je iemand te laat ziet omdat ze een gevaarlijke situatie gecreerd heeft.
Vervolging lijkt me dan ook sterk.

[Reactie gewijzigd door MrFax op 22 juli 2024 16:59]

Ik vermoed dat er toch gekeken gaat worden naar dood door nalatigheid.
Mits het waar is dat de bestuurster zat te "netflixen".

Maar goed, ondanks het feit dat ze nog leeft is ze voor het leven beschadigd lijkt me.
Is dit niet een enorm veiligheidsrisico?

De auto is in zo’n mate zelfrijdend dat een bestuurder zich verveelt en maar iets anders gaat doen.

Maar niet zelfrijdend genoeg om zonder bestuurder te kunnen.
Dat is een enorm veiligheidsrisico als je dat bij consumenten in gaat zetten. Zou het niet moeten zijn wanneer je een professional achter het stuur zet met als enige taak op te letten voor het geval het systeem faalt... In het kader van "you had one job!"...
Het in de gaten houden van een autonoom rijdende auto waarvan noodsystemen uitgeschakeld zijn vind ik niet bepaald een bullshit job... Het is juist een nogal zware verantwoordelijkheid! Een auto is en blijft immers een potentieel moordwapen. Dus dan filmpjes zitten kijken is gewoon onverantwoord.
Het is veel te weinig werk voor een baan.

Een operator zou een vloot van 10 a 50 van die auto’s kunnen monitoren.
Blijkbaar was het in de gaten houden van 1 enkele auto al te veel werk?? Hoe moet iemand 50 auto's in de gaten gaan houden waarbij mogelijk in een fractie van een seconde ingegrepen moet worden?

Ik begrijp dat het kan vervelen als je in zo'n auto als operator uren zit en er niks te doen is omdat de auto zijn werk prima doet.... Maar ja: hoe enerverend is het om achter een lopende band te staan? Om eens iets te noemen... Je wordt er voor betaald, dus je hebt je werk goed te doen! En kun je die verantwoordelijkheid niet aan: zoek dan een andere baan in plaats van mensenlevens in gevaar te brengen. Tamelijk simpel in mijn ogen.
Je kan niet verwachten dat iemand dat volhoud om daar te zitten en te kijken en je voet op de rem te houden terwijl het systeem volautomatisch is. Uber wist dat niemand dit ging volhouden maar het is gewoon om zich in te dekken en de auto te helpen als het in de problemen kwam.
Dat is toch juist het hele punt met autonoom rijden. Dat je Niet hoeft zelf OP te Letten. En daarnaast het ook een "taxi" is. In dit geval is de technology de schuldige en Niet echt de bestuurder.

[Reactie gewijzigd door theduke1989 op 22 juli 2024 16:59]

Anoniem: 310408 @theduke198922 juni 2018 20:03
Dat is toch juist het hele punt met autonoom rijden. Dat je Niet hoeft zelf OP te Letten.
Tjee, ik hoop niet dat jij ook maar een product tests want je snapt werkelijk niets van het process waarbij je maanden of jaren besteed aan het testen of iets beter kan.

Deze auto reed NIET autonoom. Er was een testrijder aan boord die 100% verantwoordelijk was. Die persoon staat nu een rechtszaak voor dood door schuld te wachten.
Alleen... zo werken mensen niet. We zijn heel slecht in het toezicht houden op dingen die meestal goed gaan - en die kennis is er al omdat de luchtvaart al deze problemen al heeft gehad met de automatische piloot (en dat zijn mensen die goed getraind zijn.)
De juridische constructie doet geen recht aan hoe wij als mensen met dergelijke situaties om kunnen gaan.
Als jij betaalt wordt om op te letten, dan werkt dat dus wel zo. Jij wordt betaalt om achter het stuur op te letten of de auto/systeem zijn werk doet, dan ga jij NIET een beetje op je smartphone bezig zijn..
Oh luchtvaart heft al deze problemen al gehad? knap, toch nog nooit een voetganger of fietser daar op 10K hoogte gezien, of een ander vliegtuig dat je even de pas afsnijdt (overigens vraag ik me af of de automatische piloot daar goed mee overweg kan).

De bestuurder is in dit geval gewoon hardstikke schuldig doordat die niet oplette.. Was het ongeluk ook gebeurd als ze wel had opgelet, dan was het al een iets ander verhaal geworden..
Sorry, maar ik heb totaal geen medelijden met deze bestuurdster, ze had gewoon niet bezig moeten zijn met haar smartphone (waar ik sowieso kotsmisselijk van wordt als ik zo dagelijks in het verkeer rond rij, steeds meer mensen die hun smartphone interessanter vinden dan de weg en daardoor veel vaker gevaarlijke verkeerssituaties veroorzaken of gewoon te lang voor het groen blijven staan).
LOL Omdat wij regeltjes opstellen en met flappen zwaaien, betekent dat nog niet dat de natuur van de mens zich daar aan gaat houden. Zeker een schatige gedachte. Concentratie is simpel weg niet gebonden aan afspraken die wij maken en zelfdiscipline en dergelijken ook niet. Ongeveer dezelde reden dat sommige dingen gewoon fout gaan. Dat kan je duidend keer onderzoeken en veiliger maken en toch gaat het gewoon fout. We zijn simple wezens vol fouten, moeilijk te verwachten dat die geen fouten gaan maken.
Dus nee, het werkt niet zo.

Tevens hoop ik de fouten die je opnoemt van jezelf zijn en dat je anders daar even op focused, scheelt met dat kotsmisselijke gevoel.
Nee die fouten zijn niet van mij, want ik ben niet zo verslaafd aan mijn smartphone, die zit netjes in mijn rugzak tijdens het rijden, en blijft daar ook als die afgaat. Maar zo te horen ben jij dus wel iemand die rustig in het verkeer zijn smartphone gebruikt.
Ja, mensen zijn niet perfect, maar je bent een randdebiel als jij het gebruik van de smartphone in het verkeer afdoet als 'natuur van de mens', want dat is het dus echt niet.. zullen we dan maar nergens meer tegen optreden, want 'ach dat is de natuur van de mens' 8)7
Maar er is wel een verschil tussen de aandacht die verslapt omdat je steeds niet in hoeft te grijpen, en zeggen "fuck it, ik ga Hulu kijken"...
Ja, een paar weken, of bij sommige mensen een paar dagen of zelfs een paar uur.
In een onderzoek naar piloten bleek een groot gedeelte regelmatig te slapen tijdens de vlucht en kwam ook vaak genoeg voor dat de piloot die wakker werd zn co pilot ook pittend aantrof.

https://www.bbc.com/news/uk-24296544
En dat is nog steeds begrijpelijker dan gewoon een video gaan kijken terwijl je betaald wordt om te monitoren vind ik. In slaap vallen overkomt je, Hulu niet.
Hou er ook rekening mee dat piloten rustig 12 uur aan het vliegen zijn op intercontinentale vluchten. Zo'n Uber ritje duurt misschien een half uur als de klant vrij ver moet? Het zal niet heel vaak voorkomen dat je uren snelweg aan een stuk rijdt lijkt me.

Overigens vind ik ook niet dat de chauffeur als enige schuldig is hoor, Uber draagt zeker een deel van de verantwoordelijkheid. Dat pleit de chauffeur echter niet volledig vrij.
Je vergelijkt appels met peren. Je kunt de situatie in het luchtverkeer niet vergelijken met de situatie rond autonoom rijdende auto's. Om te beginnen is de autopiloot in vliegtuigen al decennia lang in ontwikkeling en al heel lang uit de test-fase.
Daarnaast worden piloten zeer intensief getraind in het omgaan met de techniek in een vliegtuig, inclusief de autopiloot. Ze weten exact wat dat ding doet, kan en niet kan.
Het feit dat er zo ontzettend weinig ongelukken gebeuren in de luchtvaart is daar een gevolg van.
Er was een testrijder aan boord die 100% verantwoordelijk was. Die persoon staat nu een rechtszaak voor dood door schuld te wachten.
Dat zou je verwachten, maar het artikel vermeldt expliciet:
Het is onduidelijk of er strafrechtelijke vervolging plaatsvindt.
De auto reed autonoom, en om de kans op fouten te verminderen was er een bestuurder aan boord. De bestuurster deed haar werk niet en dat moet haar aangerekend worden, maar dat dacht ze zich te kunnen veroorloven juist omdat de auto autonoom reed (en daar nog niet goed genoeg in was, wat aan het kale feit niets afdoet verder).
Ze werd er voor betaalt om op te letten…
De techniek is doelbewust uitgeschakeld, waarom is de techniek de schuldige en niet de bestuurder?
Om Ubers eigen implementatie hiervan te testen op basis van de aangebrachte sensoren, dit was een testrit van Uber om het systeem realistisch te kunnen testen. Omdat het nog om testen gaat moet een gebruiker in kunnen grijpen bij gevaarlijke situaties, hiervoor krijgt die betaald. Bestuurder besluit echter Hulu te kijken.
Het Volvo City Safety System grijpt sowieso pas op het laatste moment in (om te zorgen dat het niet 'comfortabel' remt en je niet in de verleiding komt het als normaal remsysteem te gebruiken). Waarschuwingen (rode flitsende lichtstreep voor bestuurder op dashboard en enerverend gepiep) komen wel eerder. Uber kon perfect hun systeem testen mét het Volvo systeem ingeschakeld, waarbij ingrijpen van het Volvo systeem betekent dat het normale systeem gefaald heeft. Daar moet je niet het risico voor vergroten iemand aan te rijden.
Nee dat kon niet want dat systeem van volvo zat dus in de weg met hun eigen systeem. Bedoeling was natuurlijk dat hun eigen systeem dat wel kon afhandelen, wat nu blijkt dat het dat niet kon.. OF het systeem van volvo het wel had kunnen afhandelen is natuurlijk maar de vraag...
Bron?

Elke industriële AGV (Automated Guided Vehicle) die in de buurt van mensen opereert heeft een volledig onafhankelijk veiligheidssysteem (los van een of meerdere noodstopschakelaars die uiteraard ook aanwezig zijn). En die dingen zitten soms ook 'in de weg' en dan zal je als ontwerper je plan moeten trekken zonder ze uit te schakelen. Zo'n dingen worden gewoon nooit goedgekeurd als ze geen gecertificeerde veiligheidsscanners hebben die direct op de rem en/of motordrives aangesloten zijn. Software die op een zachte manier probeert in te grijpen mag uiteraard, maar is geen vervanging voor veiligheidssystemen. En als je die software wil testen, betekent ingrijpen van het veiligheidssysteem dat je software gefaald heeft. Niemand die erover denkt de veiligheidssystemen uit te schakelen om dat te testen.

Hier hebben we een systeem dat aan een veel hogere snelheid rijdt, tussen mensen die niet op de hoogte zijn van de aanwezigheid van zelfrijdende voertuigen waarvan alle noodstopsystemen uitgeschakeld zijn. Het Volvo systeem om onduidelijke redenen, het eigen systeem omdat het te vaak reageert. Dat wordt vervangen door een menselijke bestuurder die sowieso bewezen slecht is in het aandachtig blijven terwijl hij of zij zelden of nooit moet ingrijpen, die niet eens voorzien was van serieuze noodwaarschuwingen (een bericht op het dashboard waarvan sprake in eerdere nieuwsberichten is geen geschikte waarschuwing als direct ingrijpen vereist is, in tegenstelling tot het originele Volvo systeem met een in de ruit weerkaatsende rode lichtbalk op het dashboard die gepaard gaat met een luid akoestisch signaal). Tot overmaat van ramp was de bestuurder nog met andere zaken bezig. In treinen zijn er bijvoorbeeld systemen die ervoor zorgen dat bestuurders (die ook relatief weinig te doen hebben) hun aandacht wel bij de weg houden; een aantal auto's is ook van systemen voorzien die de aandacht van de bestuurder continu monitoren, maar hier bleek dat allemaal niet aanwezig.

Sorry, maar als je dat naar veiligheid toe een serieus verdedigbaar ontwerp vindt, hoop ik dat ik nooit in de buurt van een door jou ontworpen machine moet komen.
Het gaat hier om een TESTauto, ik ben met je eens als het ging om een productiesysteem dat je in een bestaande productieauto zou inbouwen. Maar dat is dus niet het geval hier. Ze gebruikte een standaard volvo om hun systeem te TESTEN, en dan wil je dus ook niet het systeem van een ander gebruiken, zeker niet als die ook nog grillig samenwerkt met jouw eigen systeem wat uiteindelijk OOK hetzelfde moet kunnen. Hier was dus de bestuurder het noodsysteem van de TESTauto, maar als die muts haar werk niet doet tja..... Zoals ik al zei, ik zou het met je eens zijn als het om een productiesysteem ging, maar dat gaat het dus niet.. en bron dat het volvo systeem in de weg zat kun je zelf wel vinden met google, meer dan genoeg bronnen.
Ook een testsysteem dat in een productieomgeving draait, dient van de nodige veiligheidssystemen voorzien te zijn. Ik zou het met je eens zijn als dat ding in een omgeving getest werd waar iedereen wist dat het om een testsysteem ging (en dus extra alert was), maar als dat ding incognito tussen nietsvermoedende andere verkeersdeelnemers rijdt, is dat een productieomgeving, ongeacht of het een test- of productiewagen betreft. Het resultaat dat er iemand is doodgereden zonder dat er een remcommando uitgevoerd is, terwijl er wel remcommando's gegeven zijn, toont duidelijk aan dat de setup in kwestie niet geschikt was om daar gebruikt te worden. Trouwens, dat Volvo systeem grijpt echt pas op het allerlaatste moment in, zo laat dat ze bij snelheden boven 30 km/h zelfs niet garanderen dat er toch geen aanrijding volgt. Als dat nog regelmatig interfereert met je eigen systeem, is dat eigen systeem gewoon echt niet klaar om op de openbare weg gebruikt te worden. Juffrouw noodsysteem kan onmogelijk veilig zo laat ingrijpen als het Volvo city safety systeem dat doet, dus als je het een probleem vindt dat het Volvo city safety systeem kon ingrijpen, was het een even groot probleem als juffrouw noodsysteem wél had ingegrepen.

Noch afgezien van de uitgeschakelde automatische systemen, was er geen systeem aanwezig om te controleren of juffrouw noodsysteem haar werk ook echt deed, terwijl elk psychologisch onderzoek al heeft uitgewezen dat mensen vreselijk slecht zijn in alert blijven als er zelden of nooit iets gebeurt. Het feit dat juffrouw noodsysteem blijkbaar film aan het kijken was, toont dat nog eens pijnlijk aan. Er zijn mogelijkheden om dat te voorkomen (denk aan het volgen van oogbewegingen om te controleren waarnaar de bestuurder kijkt (beschikbaar in een aantal auto's), tot het zorgen dat de bestuurder iets te doen heeft waarvoor hij alert moet zijn op de weg (denk aan de systemen die gebruikt worden in treinen)), maar dat vond men niet nodig.

Hier is gewoon gekozen voor de makkelijkste oplossing, waarbij de wetenschappelijke argumenten aan de kant geschoven zijn en de uitleg voor de technische noodzaak aan alle kanten rammelt. Hoogstwaarschijnlijk is er geoordeeld dat het risico kleiner was dan de kost om een en ander behoorlijk uit te voeren, maar dat maakt het nog niet aanvaardbaar. Op een productievloer kom je hier in elk geval niet mee weg, ook niet in de USA.
Onzin, de bestuurder was in dit geval het backup remsysteem, maar die vond het zinniger om iets anders te doen. Zo'n noodsysteem kan ook uitvallen om wat voor reden dan ook, dus als jij als bestuurder rekent op zo'n noodsysteem dan ben je gewoon een waardeloze bestuurder en behoor je je rijbewijs helemaal niet te hebben.
Mevrouw ging na 3 minuten in de rit al met streamen waarna 45 minuten later de stream eindigde bijna gelijk met het moment van het ongeluk... Dit heeft niets te maken met iemand die de aandacht verliest.

Het had ook kunnen zijn dat Uber een ander merk auto had gebruikt om de tests te doen waarbij geen nood remsysteem in zat (heel veel auto's hebben dat nog steeds niet), maar toevallig gebruikte ze een volvo die die optie toevallig wel had, maar die optie werkte niet goed samen met hun eigen systeem en daarom is de optie uitgeschakeld. Ofwel gelijkwaardig aan een auto die het systeem niet heeft, dus is het geen probleem om dan voor het testen van je eigen systeem die optie uit te schakelen (immers kunnen mensen de optie zelf ook uitschakelen).
Juffrouw noodsysteem had uiteraard haar aandacht veel beter bij de weg moeten houden en had zeker geen film mogen kijken, ik denk niet dat daar discussie over is.

Het probleem is alleen dat mensen dat in dergelijke omstandigheden vrij algemeen niet doen, dat is uitvoerig wetenschappelijk aangetoond (of ze nu op hun telefoon zitten te kijken, iets proberen te lezen, in hun hoofd met andere dingen bezig zijn of domweg in slaap vallen, de schuldgraad is verschillend, het resultaat niet echt) en dat om die reden bijvoorbeeld treinen al jaren systemen hebben die enkel en alleen dienen om hun bestuurders bij het spoor en de seinen te houden (en zelfs dan gaat het daar soms ook nog mis). Mits enig onderzoek had Uber dus kunnen weten dat hun bestuurders, zeker naarmate hun systemen beter werden, minder alert zouden worden en hadden ze dus een kant-en-klare oplossing kunnen kopiëren die van hun bestuurders toch een ietwat betrouwbaarder backup-systeem van maakte. Kom op, er is zelfs een noodstopsignaal gegenereerd door de software, maar dat gaf alleen een mededeling. Je enige argument is dat het bestaande systeem niet goed samenwerkte met hun eigen systeem, maar je gelooft toch niet dat een bedrijf dat in staat is een meestal redelijk goed rijdend autonoom voertuig te maken niet in staat is om een noodsituatie ook via bijvoorbeeld de aanwezige rode lichtbalk en geluidssignaal (of iets vergelijkbaars) te melden zodat ook een niet oplettende bestuurder even wakker schrikt en (mogelijk te laat) toch nog even op de rem trapt. Zelfs als je een aanrijding niet kan voorkomen helpt elk beetje minder snelheid om de gevolgen te verminderen.

Je weigert al de hele tijd het onderscheid te maken tussen een bestuurder die de hele tijd actief deelneemt aan het verkeer (en dus de hele verkeerssituatie actief moet volgen om dat te kunnen) en een bestuurder waarvan we dat eigenlijk wel verwachten (anders kan hij of zij niet op tijd betrouwbaar inschatten wanneer er ingegrepen moet worden) maar die dat voor zijn deelname aan het verkeer meestal eigenlijk niet moet doen (ze was al 45 minuten film aan het kijken zonder dat er iets mis ging). Voor een robot kan je dat verschil negeren, voor een mens niet.
De techniek was duidelijk ingeschakeld, anders was de bestuurder wel aan het besturen geweest. De bestuurder en de aangereden persoon treffen ook blaam, maar de techniek speelde een belangrijke rol in het ongeluk.
Nope. dé techniek die hier had moeten ingrijpen (het noodrem-systeem) was uitgeschakeld (omdat dat systeem nog niet goed werkte en dus regelmatig onnodig de noodrem procedure inzette). De operator was hiervan op de hoogte (of had daarvan op de hoogte moeten zijn) en had daarom 1 belangrijke taak: in het geval van een noodsituatie (zeg iemand die plotseling oversteekt) ingrijpen. Dát heeft ze niet gedaan. Ergo: 100% menselijk falen en geen enkel falen van de techniek (sterker nog: die had de overstekende persoon ruim op tijd al in de gaten, maar besloot niet tot juiste actie mede omdat er systemen uitgeschakeld waren).
Bij een werkend systeem is dat het punt. Maar zo'n systeem bestaat nog niet.
Dit was een alpha versie, waarbij de automatische noodstop installatie was uitgeschakeld.
Waymo rijdt al enige tijd met auto's zonder bestuurder. Autonoom rijdende auto's bestaan dus wel.

Maar niet bij Uber. Daar is TV kijken wat mij betreft een ernstige vorm van veronachtzaming van taken.
Even niet opletten is onvermijdelijk bij menselijke reserve bestuurders, maar series kijken is onacceptabel.
Voor zover ik weet zit er bij Waymo ook nog steeds een person in de auto om op te letten, MAAR is hun system al wel veel verder/veiliger dan Uber..
Het systeem van volvo was uitgeschakelt omdat dit in de weg zat bij hun eigen systeem, dus niet zo heel raar dat het systeem van volvo was uitgeschakelt.
Uber had in dit geval juist de technologie uitgeschakeld die dit soort ongelukken moest voorkomen, de noodremmen.
Zo simpel is het niet, de bedoeling was natuurlijk dat het systeem van uber dit ook zou kunnen, maar blijkbaar dus niet kon. Het systeem van volvo was uitgeschakeld omdat dit in de weg zat van hun eigen systeem. Het gaat hier om testritten, en de bestuurder had dus gewoon goed moeten opletten wat die dus verre van deed. En het is maar de vraag of het systeem van volvo het ongeluk wel had voorkomen..
Het gaat hier om een testrit waarbij de bestuurder wordt betaalt om op te letten of het systeem goed zijn werk doet. Ik ben met je eens als het ging om een normale taxirit, maar dat is hier dus niet het geval, het ging om een testrit. De bestuurder behoorde op te letten ipv op haar telefoon dingen te doen, dus wat mij betreft mag de bestuurder hier dus vervolgt worden.
Dit was geen taxi, maar een testrit onder verantwoordelijkheid van een test operator (die als enige taak had: ingrijpen bij falen van het systeem en dat dus verzuimde doordat de telefoon blijkbaar belangrijker was dan andermans veiligheid)...
Wat ook meeweegt is dat de bestuurder voorheen niet alleen reed maar ze reden in paren. Als je maat Hulu zit te kijken dan zeg je wat. Of in het ergste geval: je gaat om en om wat anders doen. Als je uren en uren alleen in zo’n auto zit en je waant je onbespied. Poepsaai want de computer stuurt. Dan krijg je dit toch vroeger of later?
Bij een lange rit heb je misschien gelijk (hoewel je dan misschien een andere baan moet zoeken) maar ze was nu nog niet eens 45 minuten onderweg.
De fase waarin we nu terechtkomen met zelfrijdende auto's is wat dat betreft veruit het gevaarlijkste.. Waar auto's wel volledig zelf kunnen rijden maar waar de bestuurder nog wel moet blijven opletten omdat de systemen nog niet foutloos zijn in alle mogelijke situaties.. De gemiddelde mens is daar niet geschikt voor.. De meeste mensen gaan zich vervelen of gewoon andere dingen zitten doen tot zelfs slapen aan toe.. De mens is wetenschappelijk bewezen heel slecht in blijven opletten terwijl men verder weinig of niks hoeft te doen.. Daarom zakken de meeste mensen b.v. ook voor psychologische onderzoeken waar dat soort zaken getest worden bij o.a. de sollicitatie voor functies als treinmachinist etc..
Tja, wat moet je hiermee, spijtige zaak...
  • De auto had de overstekende vrouw moeten detecteren.
  • De bestuurster had op de weg moeten letten.
  • De vrouw die overstak had beter kunnen kijken bij het oversteken en zich zicthbaarder kleden.
Alle 3 deels in fout en helaas met een fatale afloop. :X
Anoniem: 998261 @Chuk22 juni 2018 19:59
En totaal niet anders dan wat dag in dag uit honderden/duizenden keren per dag gebeurt met niet-autonoom rijdende auto's....

[Reactie gewijzigd door Anoniem: 998261 op 22 juli 2024 16:59]

Behalve dat autonoom rijdende auto's dat soort gevallen juist geacht worden op te vangen. Een van de redenen dat de bestuurster onvoorzichtig reed. Er is dus een niet te verwaarlozen kans dat precies dit ongeluk anders niet gebeurd was.
of dit ongeluk met een normale auto niet gebeurd was is geloof ik wel een belangrijke vraag.

In het donker een weg oversteken als er een auto aangeraasd komt is altijd gevaarlijk en vaak ook dodelijk.

Ook al zag het systeem haar eerst voor wat anders aan, de vraag is hoe lang had het systeem nodig voor deze bevestiging?

Als de auto bijvoordbeeld 0,2 sec getwijfeld heeft en vervolgens 1,3 sec van te voren besloot dat het zou moeten noodremmen (wat het niet kon door de instellingen) zou een mens misschien wel later remmen (reactietijd in het verkeer is gemiddeld 1 sec).

edit: reactietijd van een mens toegevoegd
Dit was een testrijder onder contract die fraudeerde door zonder haar werk te doen (opletten) toch kilometers in rekening bracht. Ze had gezien de goed verlichte weg die aanrijding met het grootste gemak kunnen voorkomen en is dus volledig aansprakelijk.
Als je als testrijder voelt dat je je concentratie aan 't verliezen bent dan stop je. Echt heel simpel.
ik zou je gelijk geven als het gewoon een normale bestuurder was, maar deze werd betaalt om op te letten en daarmee het systeem te testen… Dus ze heeft behoorlijk verzaakt..
Anoniem: 310408 @Chuk22 juni 2018 20:08
en zich zicthbaarder kleden.
Op het moment dat dat een wettelijke eis is, okay, Tot die tijd is je conclusie voorbarig en voor het slachtoffer en de nabestaanden zeer pijnlijk. Jij mag oversteken in elke kleding die je maar wil en de auto's van de toekomst hebben daar maar rekening meet te houden. De tijd dat je alleen mag wandelen met radar reflectoren in je nek ligt nog ver in onze toekomst.

Het slachtoffer treft geen enkele blaam. En dat heeft niets maar dan ook werkelijk niets te maken met welke auto het ongeluk veroorzaakte. De auto werd wettelijk bestuurd door degene die er in zat. Wettelijk gezien (en zeer tegen het idee van veel tweakers) treft Uber hier geen blaam. Vind ik ook jammer. In de tijd van testen zou de wetgeving zich moeten aanpassen, al is het maar met wetten die maar tien jaar gelden.

[Reactie gewijzigd door Anoniem: 310408 op 22 juli 2024 16:59]

Ik begrijp wat je bedoelt maar moet toch deels nuanceren. Het is niet noodzakkelijk omdat iets niet wettelijk verplicht is dat het toch enorm aangeraden wordt in potentieel gevaarlijke situaties. Hoeveel keer hebben mijn ouders mij niet verteld om mij altijd goed zitchbaar te kleden als ik in het donker langs de straten wandel of fiets. Dit is niet om een boete te vermijden of omdat het onwettig is maar puur als extra voorzorgsmaatregel die je kan nemen om ongelukken te vermijden.

En het is absoluut niet dat ik het slachtoffer wil culpabiliseren, het is een extra factor die potentieel het ongeluk had kunnen vermijden. De andere feactoren die ik heb vermeld over de bestuurder en de auto wegen natuurlijk veel meer door.
Al had het slachtoffer een pijlwagen voor zich uit geduwd en zichzelf geverfd in fluoricerend geel dan ben je nog steeds onzichtbaar voor mensen die met hun bakkes naar hun smartphone kijken.

Ik ben op de fiets ook altijd zeer goed zichtbaar (reflectors, 10w LED koplamp (!) rij niet in dode hoeken etc) en toch zien mensen me soms domweg niet puur omdat ze niet kijken!

[Reactie gewijzigd door Metro2002 op 22 juli 2024 16:59]

culpabiliseren
culpabiliseren werkw.Uitspraak: [kʏlpabili'zerə(n)] Verbuigingen: culpabiliseerde (verl.tijd enkelv.) Verbuigingen: heeft geculpabiliseerd (volt.deelw.) (iemand) beschuldigen, zich schuldig laten voelen..

Nog nooit van gehoord en weer wat geleerd
Ja, dat was een mooie. :)
Punt 1 is niet juist. De auto had de overstekende vrouw juist wél gedetecteerd. Alleen greep die niet juist in - mede doordat bepaalde systemen uitgeschakeld waren ten behoeve van de test. En dat kon omdat er iemand aan het stuur zat met als enige taak op te letten. Maar ja.
Ja en in nederland willen ze ook zulke tests op de openbare weg toestaan...Let maar op dat gaat ook mis.
Achja, genoeg mensen zonder autonome auto's die veel gevaarlijker rijden, en dus in hun non-autonome auto denken dat het ok is om op hun smartphone te kijken…
Laat ze maar komen met die tests, des de eerder die systemen door en door getest zijn, des te beter zijn ze, want veel slechter dan een doorsnee bestuurder zijn ze nu al niet..
Die kan je tenminste nog herkennen, ff links over de streep, dan rechts weer een beetje over de streep, en dan weet je daar heb je weer zo een, gelijk zo ver mogelijk links en er snel voorbij ;)
Hoezo weet hulu je locatie? Voor een streamingdienst niet echt nodig lijkt mij. Hoe komt die politie ook aan die gegevens? Of is dit via de rechter gelopen. Veel vragen hoor omtrent privacy, of het hier nu helpt of niet laat ik even buiten beschouwing.
Waarom zou Hulu haar locatie weten? Die weten gewoon dat je op uur X (tijd van de crash) naar serie Y aan het kijken was.
en wat indien het account gedeeld was en door meerdere personen gebruikt werd?
- dat mag in principe niet, tenzij Hulu sunaccounts heeft zoals Netflix
- dan kijken ze op IP en matchen ze met de telefoon die in de auto zat? ;)

Denk je dat de politie ginder zoiets niet kan uitdokteren?
Ze weten de tijd. De politie weet met de uber-data de bijbehorende locatie.
Anoniem: 310408 @gabba2522 juni 2018 20:21
Bij dit soort testen moet de testende partij al dat soort data vrijgeven. Als jij twijfels hebt over dat de overheden toegang moeten hebben tot dit soort data als er iemand doodgereden is, verschillen er enorm van mening en wil ik graag van je weten waarom jij denkt dat de mogelijke dader zich zou kunnen verschuilen achter dit soort dingen.

Wil je dat niet uit 'privacy' overwegingen zal je ervoor moeten kiezen om in landen te testen waar je nooit met dit soort lastige vragen geconfronteerd word. Google maar eens (wel goed zoeken!) naar autofabrikanten die in Sri Lanka en Goa testen. Weet je meteen welke auto drive systemen je NIET wil kopen.

Op dit item kan niet meer gereageerd worden.