Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Fatale crash Uber-auto kwam doordat software overstekende voetganger niet zag

De zelfrijdende Volvo XC90-auto van Uber die in maart vorig jaar in de VS betrokken was bij een fataal ongeluk met een voetganger, bleek software aan boord te hebben die onvoldoende in staat was om rekening te houden met voetgangers die op onbedoelde plekken de weg oversteken.

De Amerikaanse National Transportation Safety Board meldt in een vrijgegeven document dat de Uber-auto niet de software aan boord had om te reageren op voetgangers die aan jaywalking doen, oftewel voetgangers die op 'onwettige wijze' een weg oversteken op een plek waar bijvoorbeeld geen zebrapad of oversteekplaats is.

Binnen twee weken publiceert de NTSB zijn volledige rapport over de crash van 18 maart 2018, waarbij in het Amerikaanse Tempe een 49-jarige vrouw om het leven kwam toen ze in het donker de weg overstak op een plek waar geen overgang was. Ze had een fiets aan de hand toen ze weg overstak.

Dat laatste bleek ook een noodlottig element. De Volvo-auto reed nog 70km/u toen de vrouw werd aangereden. Toen de auto haar detecteerde, op 5,6 seconden voor de impact, werd de vrouw als een voertuig aangeduid. Vervolgens verandert het brein van de auto dat in 'overige' en weer terug naar voertuig; dat patroon herhaalde zich nog twee keer. Pas op 1,2 seconden voor de crash herkende het systeem de situatie correct.

Met die resterende 1,2 seconden speling had het systeem de remmen kunnen activeren, maar technici van Uber bleken een ingebouwd Volvo-remsysteem te hebben uitgeschakeld. De automaker gaf eerder aan dat dat systeem het ongeluk wellicht zelfs had kunnen voorkomen. Uber-technici hadden dit uitgeschakeld, omdat het onveilig zou zijn als de auto twee actieve softwaresystemen zou hebben die parallel aan elkaar opereren.

Het NTSB-rapport bevestigt verder dat er een vertraging van een seconde in de software was ingebouwd tussen het detecteren van een situatie waarin een crash waarschijnlijk is en het reageren daarop. Uber had dit gedaan, omdat het bedrijf bang was voor teveel false positives. Tijdens de 1,2 seconden voor de impact leidde dat ertoe dat de auto niet de remmen activeerde, omdat het de aard van het gevaar eerst verifieerde. De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg. Met 0,2 seconden te gaan gaf de auto een geluidswaarschuwing, waarna de bestuurder het stuur ter hand nam, maar ze remde pas een seconde nadat de botsing al had plaatsgevonden.

In het onderzoeksrapport staat dat Uber inmiddels veranderingen heeft doorgevoerd aan zijn veiligheidsprogramma. Verder heeft het bedrijf de training van veiligheidschauffeurs aangescherpt en rijden er nu steeds twee personen in de zelfrijdende auto's.

Door Joris Jansen

Nieuwsredacteur

06-11-2019 • 08:04

333 Linkedin Google+

Reacties (333)

-13330320+1132+231+32Ongemodereerd169
Wijzig sortering
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.

Ik heb liever dat Uber zich hier weg van houdt. Ik ben wel kritisch tegenover autonome voertuigen maar ondanks mijn aversie tov Google heb ik een stuk meer vertrouwen in Waymo dan Uber - die loopt vrijwel overal de kantjes vanaf. Zo blijkt ook hier weer.

Wat me ook opvalt: waarom testen ze autonome voertuigen met iets wat praktisch een tank is, een zeer dikke Volvo? Waarom niet met een klein licht autootje, een Smart ofzo? Of dat hier veel had uitgemaakt weet ik niet, maar ik word liever aangereden door een Smart dan door een Volvo XC90...

[Reactie gewijzigd door MadEgg op 6 november 2019 08:47]

zoals ik het begrijp is er een "Beoordeel tijd" ingebouwt dat wanneer er een detectie wordt gedaan. Je niet meteen afgeremd wordt. Bij een vals positive namelijk erg irritant als je zomaar stil gezet wordt zonder reden.

Het systeem probeerde daarom zeker te beoordelen wat het zag. En omdat daar geen conclusie uitkwam werd er ook niet naar de volgende stap gegaan. HOW TO AVOID. Oftewel remmen of uitwijken. Dat daar iets niet goed gaat is dan wel duidelijk. Het is dus een combinatie van het kunnen detecteren, kunnen beoordelen en reageren die in deze software nog niet goed loopt.

Gek genoeg een kwestie van het detecteren van iets dat voor de auto zit waarvoor het systeem hoe dan ook had moeten remmen ongeacht wat het was. Inplaats van hangen in de afweging van wat het was waarvoor geremd had moeten worden.
De fout lijkt me duidelijk. Het systeem heeft standaards 1 seconde wachttijd ingebouwd, pas dan wordt de bestuurder gealarmeerd, voordat die reageert en de situatie beoordeeld ben je ook 1 seconde verder.
Als je false positives wil voorkomen moet het systeem de bestuurder meteen een waarschuwing geven zonder vertraging, die kan dan alsnog beslissen binnen 1 seconde in te grijpen of na 1 seconde grijpt het systeem wel of niet in.

andere probleem is natuurlijk dat het systeem geen rekening gehouden heeft met een persoon op deze locatie omdat het niet mocht.
Vraag me af hoe het systeem dat op een spookrijder gaat reageren die natuurlijk op de verkeerde kant van de weg rijd, wat ook niet mag.
Een systeem lijkt me moet met alles in iedere situatie rekening houden dus ook met zaken die volgens de regeltjes niet mogen.
Ja, daarom heb je natuurlijk dit soort 'tests'. En dan moet je eigenlijk als 'tester' er 100% bij zijn en dat is hier niet gebeurt. Zwaar nalatig.
Niet alleen de tester is nalatig de software ingenieurs ook die bepaalde systeem schijnbaar niet geactiveerd hebben.

Het toont voor mij aan dat autonoom rijden nog een lange weg te gaan heeft voor het echt 99.999999% betrouwbaar is.
99.999999% betrouwbaar. Dat zou betekenen dat in een land als Nederland, met bijvoorbeeld 20 miljoen zelfstandig rijdende voertuigen, er maar 73 fouten per jaar gemaakt mogen worden. Op dit moment vallen er 10 keer zoveel doden in het verkeer. Ik denk dat een betrouwbaarheid van 99.9999% (6 nines) eerder je benchmark moet zijn. Je praat dan over 7300 fouten per jaar, waarbij ik ervan uitga dat 1 op de 10 fouten een dode zou 'mogen' opleveren (dus een 'fout' is hier een fout die een ernstige aanrijding veroorzaakt).

Zodra een autonoom voertuig een hogere score haalt dan een erg goede bestuurder, zal het geaccepteerd worden. Daar heb je echt geen 8 nines voor nodig. De techniek van je auto haalt dat niet eens, de kans dat je auto daadwerkelijk remt als je de rem intrapt is fors lager.
Waarom zou je niet de hoogst mogelijke betrouwbaarheid mogen eisen? Een auto heeft geen last van vermoeidheid en zenuwachtigheid. 100% is onmogelijk (er zullen altijd wel buitengewoon onwaarschijnlijke dingen gebeuren), maar een auto kan best 'geleerd' worden rekening te houden met voetgangers die oversteken waar dat eigenlijk niet mag (of wanneer het niet mag), met bestuurders die opeens er kort opduiken etc - dingen die vaak genoeg gebeuren.

Kijk, als iemand besluit zonder te kijken over te steken 1 seconde voordat jij er aan komt, daar kan ook een zelfsturende auto weinig aan doen. Maar als je 5+ seconden hebt om een situatie te voorkomen, dan dient een zelfsturende auto toch echt ruim op tijd de juiste beslissing al gemaakt te kunnen hebben.
Natuurlijk mag je de 'hoogst mogelijke' betrouwbaarheid eisen. Maar wat is dat precies?

Of je nu praat over de servers waar het bankverkeer op draait, de systemen die vliegtuigen in de lucht houden, kerncentrales of autonoom rijdende auto's, het principe is ongeveer hetzelfde: bij systemen waar hoge eisen aan gesteld worden, meet je betrouwbaarheid in het aantal keren dat het fout mag gaan. Fout in een bepaalde periode is hier het eenvoudigst om mee te werken.

Zoals je zelf al zegt, 100% is onmogelijk. Systemen falen. De vraag is, hoe vaak mag een systeem falen voordat het acceptabel is dat systeem in te voeren? Daarvoor wil je en paar dingen weten:

- Wat is de impact van een fout? Een kerncentrale mag echt ongeveer nooit falen, omdat een fout miljoenen mensen kan treffen.
- Wat is de impact van het niet invoeren van het systeem? Als je de servers waar banken op draaien weer moet vervangen door papieren administratie, hoeveel fouten worden er dan gemaakt?

In dit geval is de analyse niet zo moeilijk: Ik definieer 'fout' als een fout die een (ernstig) ongeval tot gevolg heeft. Een ongeval met een voertuig heeft doorgaans impact op een handvol personen, en in extreme omstandigheden op tientallen. De impact van het invoeren van autonoom rijdende voertuigen is duidelijk: ze vervangen menselijke chauffeurs, die ook fouten maken.

Vandaar mijn conclusie: Zodra computers het beter doen dan mensen, mogen ze autorijden. Dat is geen reden om die systemen niet te blijven perfectioneren, het zou fantastisch zijn als door autonome voertuigen de verkeersveiligheid ook echt toeneemt. Maar het feit dat ze het geen factor 100 beter doen dan mensen (wat met '8 nines' gevraagd werd) is geen reden om ze niet te laten autorijden. Het alternatief is nog steeds soms slaperige, appende, afgeleide mensen achter het stuur.

[Reactie gewijzigd door Pooh op 6 november 2019 12:29]

Perfect samengevat.

Om daar nog iets aan toe te voegen.
Mijn verwachting is dat verzekeringsmaatschappijen uiteindelijk de drijvende kracht worden hierachter.
Mensen zijn nou eenmaal de grote "single point of failure", zonder menselijke bestuurders daalt uiteindelijk de premie en dus veel interessanter.

Daarnaast moet je je zelf de vraag stellen met de situatie waar we nu inzitten.
Mijn gepensioneerde oom heeft in het verleden meerdere aanrijdingen gehad met stilstaande auto's.
Hij bleek niet meer in staat om goed de situatie in te schatten. Van CBR kreeg hij gewoon verlenging, want medisch in orde.
Uiteindelijk na veel gezeur is het gelukt om hem zijn rijbewijs te laten inleveren. Was werkelijk een gevaar op de weg.

Voor deze mensen (en jongeren) zou een zelf rijdende auto een geweldige uitkomst zijn.
Ook nooit meer een auto te hard door een woonwijk, kinderen kunnen naar school fietsen zonder de angsten van ouders om aangereden te worden door een slaperige chauffeur.
Ik kijk uit naar een situatie waarin het merendeel autonome wagens is.
Dan rij ik als een asociale chauffeur en krijg ik overal voorrang -want die autonome systemen gaat ingesteld zijn om defensief te rijden-, moet ik nergens wachten en wordt het autorijden weer een pleziertje zonder fileleed :+

Dat autonome systemen een hogere betrouwbaarheid zouden hebben is zo over gemiddelden. Maar er zijn veel chauffeurs die veel beter rijden dan het beste autonome systeem. De statistieken worden onderuit gehaald door mensen die "niet kunnen rijden" of dronken rijden etc.

Mensen schatten situaties veel beter in zolang er andere menselijke of dierlijke actoren in het spel zijn.
Interessante denkwijze.

Ik denk dat als er genoeg mensen het systeem “misbruiken” zoals jij nu suggereert,
Al die autonome auto’s jouw gedrag uiteindelijk mogen vastleggen en hier geautomatiseerd aangiften van gaan doen.

Vraag me af hoe duur uiteindelijk verzekeringen worden voor mensen die niet autonoom willen rijden.

Of ik het er mee eens ben dat al die auto’s dat doen? Das opzich nog wel een leuke discussie denk ik ;)
Aangifte van een privé persoon, laat staan software, is niet geldig. Dat moet door een beëdigd ambtenaar gebeuren. En binnen de wettelijke lijnen kan je dit ook perfect uitvoeren.

Ik vraag me af of er uberhaupt een verzekeraar autonome voertuigen gaat willen verzekeren... Denk aan: één softwarefoutje in een upgrade en 100.000 auto's maken dezelfde fout opeens met een crash tot gevolg.
Crash na een update ipv een Bluescreen na een update ;)
Probleem is dat we in een overgangsfase zitten. Daarmee bedoel is dat als autonome systemen op de weg komen er ook mensen rijden, mensen maken fouten. Heb je alleen autonome systemen dan kunnen die op wegen met elkaar communiceren waardoor fouten, lees ongelukken niet meer zouden moeten gebeuren.

Blijft natuurlijk dat je naast auto's ook andere weggebruikers hebt, fiets, brommer, voetganger, motor, kinderen die nog steeds onberekenbaar en niet legaal gedrag kunnen vertonen. Daar zal een systeem altijd rekening mee moeten houden.
Die overgangsfase loopt natuurlijk op meerdere manieren. Ik geloof dat we niet snel een situatie zullen krijgen waarin volledig 'domme' auto's de weg delen met volledig autonome auto's, buiten de snelwegen. Zeker in stadsverkeer zal volledig autonoom rijden nog lang een droom blijven.

Ik geloof veel meer in auto's die meer en meer autonoom worden. Dat zie je nu al heel veel, met lane assist en adaptive cruise control, en dat gaat veel meer gebeuren. Waarom zou je niet kunnen communiceren met een niet-volledig autonome auto? Hoe handig zou het zijn als je heads-up op basis van de navigatie van ene andere auto alvast kon vertellen dat die auto rechts van de blokmarkering toch echt links ervan moet zijn, volgens z'n navigatie? Of dat er 8 auto's voor je op de snelweg iemand vol op de rem stapt en jij ook moet remmen? Er is weinig dat je daarvan niet nu al kunt bouwen. Ik denk dat we steeds slimmere auto's krijgen, met nog heel lang een mens achter het stuur, waarbij autonoom rijdende voertuigen vooral een proeftuin zijn, en interessant voor bepaalde eenvoudige taken (snelwegrijden).

Een derde categorie is 'remote' rijden. Je zet in Rotterdam een vrachtwagen op de snelweg. Die rijdt autonoom tot 20 km voor Dusseldorf. Daar wordt 't te druk, en kan het niet meer autonoom, bovendien moet hij zometeen het industriegebied op. Een operator logt remote in, en rijdt hem het laatste halfuur vanaf z'n bureau naar lokatie. Die operator kan op die manier 6 vrachtwagens per dag rijden, ipv 1.
Je gaat ervan uit dat "per ongeluk gedood door een mens" en "per ongeluk gedood door een algoritme" even zwaar wegen.

Maar dat is niet zo. Mensen zullen een dood door een algorite minder accepteren. En daarom zullen computers het veel beter moeten doen.
Dat is een heel interessante vraag. Ik ben daar voor het gemak even vanuit gegaan, omdat voorspellen welke kant dat kwartje opvalt heel lastig is.

Jouw aanname, dat mensen dood door een algoritme minder accepteren, gaat hoogstwaarschijnlijk alleen op wanneer het algoritme een fout maakt. Dood door een actieve fout van een algoritme (stel dat een autonome auto geen voorrang verleent) is inderdaad 'zwaarder'.

Maar het omgekeerde speelt net zo goed! 'Dood door eigen schuld' omdat een algoritme niet in staat was om een fout op te vangen van een ander, waar een mens daar misschien wel toe in staat was geweest, dat zou maar zo lichter beoordeeld kunnen worden. Zodra technieken 'geaccepteerd' zijn, nemen we bepaalde consequenties voor lief. Het zou maar zo kunnen dat we het computers niet kwalijk nemen dat ze ervan uitgaan dat mensen zich aan de regels houden. Zoals we bij een overweg het ook de trein niet kwalijk nemen als er een ongeluk gebeurt terwijl de lichten en slagbomen gewoon werkten.
Je hebt wat mij betreft gelijk in alles wat je zegt, technisch gezien klopt het. Maar er is nog een enorme emotionele brug te overwinnen.

Sorry dat mijn voorbeeld zo bruut is, het is om een duidelijk punt te maken. Stel een dergelijke auto rijd je vrouw dood. Stel je dat eens voor, je lust en je leven voorgoed weggenomen door een software bugje. Oeps...gelukkig komt er een patch?

Nu is het voor de hand liggende argument dat indien een menselijke bestuurder het veroorzaakt, de uitkomst exact gelijk is, dood is dood. Maar emotioneel wordt dat zeker niet zo ervaren.

In Nederland vielen vorig jaar 678 verkeersdoden, en laten we het niet hebben over een veelvoud van gewonden, invaliden, etc.

Het gaat dus absoluut niet acceptabel zijn dat autonome voertuigen 678 verkeersdoden per jaar maken. Ook al is er puur technisch gezien hetzelfde resultaat.

Dat is niet hoe een maatschappij reageert op machines. Machines mogen geen mensen doden, nooit. Om deze reden wordt iedere vliegramp jarenlang onderzocht. Een nog recenter voorbeeld is het voorval met de stint in Oss. Heel het land op zijn kop, en het complete voertuig simpelweg verboden. Jaren na dato wordt er nog gepraat over machine rampen, inclusief het voorbeeld van dit artikel wat de hele wereld over gegaan is.

Stel je dus voor dat dergelijke autos honderden doden maken. Dat gaat niet gebeuren. Na hooguit een stuk of 3 doden komen ze gewoon niet meer de weg op.
Je kan van een treinmachinist ook niet zeggen dat die een fout gemaakt heeft als er iemand voor zijn trein springt. Idem dat niet aan elk ernstig ongeval een fout vooraf gaat.
7300 "mogelijke" doden door een autonoom systeem dat is veelste veel, welk bedrijf gun je die enorme winsten ten goede van allemaal doden...
Nee, ongever 7300 ongevallen waarbij ongeveer 730 doden vallen. Dat is de huidige situatie op de Nederlandse wegen. Dat is geen doel, dat is hoe de gemiddelde chauffeur nu rijdt. Zodra autonome voertuigen het beter gaan doen dan dat, dan kun je chauffeurs beter vervangen door computers.
Het aantal doden za dan dalen maar de schuldvraag komt wel anders te liggen. Als het een software fout is ipv menselijk hoe ga je daar dan mee om, simpelweg de bestuurder eigenaar maken kan nu nog maar zodra autonoom rijden steeds meer de norm wordt dan wordt het met andere dingen dan het verkeer wel steeds ‘gebruikelijker’ en in hoeverre kan je ingrijpen door de mens dan nog verwachten.
Puur mathematisch heb je gelijk, in de praktijk is zal zoiets compleet onaanvaardbaar blijken. Dat beseffen ook de autofabrikanten inmiddels... En ze beseffen ook hoe moeilijk het wordt om significant veel beter te doen dan een “goede chauffeur”.

De doorbraak van de autonoom rijdende auto is dan ook nog niet voor het komende decennium vrees ik...
Zodra een autonoom voertuig een hogere score haalt dan een erg goede bestuurder, zal het geaccepteerd worden.

Zo werkt het natuurlijk helemaal niet, want dan reden er al autonome auto’s rond. De ganse auto-industrie en aanverwanten heeft zich gigantisch mispakt aan dit soort rationele redeneringen.

In jouw rationele logica zouden er vele tienduizenden doden per jaar mogen vallen bij vliegtuig ongevallen en zouden we dat acceptabel moeten vinden, want het is “ nog altijd veel veiliger dan de auto”.
Ik vraag mij dan ook af wie er zal beslissen over de ethische vraagstukken, zoals wie rijd de auto omver in het geval een botsing onvermijdelijk is. Weet niet of dit reel is maar stel even hypothetisch dat die auto plots over een olievlek komt te rijden, en deze sliert richting het voetpad. Als die gewoon doorsliert rijd hij een kind omver. Maar als deze gas geeft zal hij enkel de hond omverrijden. Computers zijn in staat om zulke beslisingen te maken in milliseconden, moet dit geprogrammeerd worden? Statistisch gezien zullen zo een zaken gebeuren en die vraag zal ooit gesteld worden neem ik aan.
Ik denk dat dat vooral een vraagstuk is waar theoretici zich zorgen om maken. In de praktijk kun je dan zeggen dat de mindere ingreep (bv niet van richtig veranderen) gekozen wordt om zo min mogelijk verrassend te handelen. De situaties komen bijna nooit voor, en mij blijft het gevoel bekruipen dat het vooral de mensen zijn die een nutteloze ethiek-studie doen die zich nu geroepen voelen hier te "helpen" door een ethiek-regelwerk op te zetten, en eindelijk een doel voor hun studie al zien opkomen.
Het is niet omdat je de ethische kwesties probeert te ontlopen, dat ze zich uiteindelijk niet zullen stellen. Meer nog: eerder dan technische problemen zullen ethische kwesties uiteindelijk bepalen wanneer de autonome auto “klaar” is.

De ethische beschouwingen als “nutteloos” wegzetten is dan ook een zeer autistische benadering!
Nutteloos was ook bewust overdreven gezegd. Maar de ethische kwesties worden in mijn optiek enorm overdreven, omdat dit soort afwegingen nagenoeg nooit gemaakt hoeven te worden.
Het toont voor mij aan dat autonoom rijden nog een lange weg te gaan heeft voor het echt 99.999999% betrouwbaar is.
De vraag is natuurlijk of het nodig is om zo betrouwbaar te zijn. Waarschijnlijk is 85% betrouwbaarheid al beter dan de gemiddelde menselijke bestuurder.
De vraag is natuurlijk of het nodig is om zo betrouwbaar te zijn. Waarschijnlijk is 85% betrouwbaarheid al beter dan de gemiddelde menselijke bestuurder.
Zo rationeel denken mensen niet. Dus worden er hogere eisen gesteld aan een autonoom rijdend systeem wil men overstappen. Want zeg nu zelf, zou jij in een auto stappen die 85% betrouwbaar is met zelf rijden?
Voor mijn gevoel rij ik beter dan dat en dat zal (bijna) ieder mens denken/zeggen.
Het ligt uiteraard genuanceerder. Meer zoals @Pooh hierboven zegt.
Zodra een autonoom voertuig een hogere score haalt dan een erg goede bestuurder, zal het geaccepteerd worden. Daar heb je echt geen 8 nines voor nodig. De techniek van je auto haalt dat niet eens, de kans dat je auto daadwerkelijk remt als je de rem intrapt is fors lager.
Maar ik vraag me af hoeveel fouten een erg goede bestuurder maakt. Veel (potentiële) fouten worden namelijk niet eens opgemerkt. Denk aan een rustig moment waar de bestuurder even afgeleid is. Als er plots een kind oversteekt is het een opgemerkte fout, maar als er niets onverwachts gebeurt dan zie je die fout niet. Hetzelfde geldt voor andere weggebruikers die opletten en daardoor erger voorkomen. Het feit dat het vaak goed gaat komt deels doordat anderen jouw fouten ook nog kunnen corrigeren. Dus als iedereen 1% fouten maakt dan is er nog steeds maar 0,01% kans op een ongeluk (uitgaande van het nodig zijn van twee fouten om een ongeluk te veroorzaken).

85% betrouwbaarheid is natuurlijk kul, maar 99,9% zou best een stuk beter kunnen zijn dan een goede bestuurder. En laten we het maar niet hebben over alle onbenullen die hun telefoon in de auto gebruiken...
Ja, dit hangt natuurlijk volledig van je definitie van 'fout' af.

Is een fout:
- In een willekeurige verkeerssituatie niet perfect handelen, zonder dat daardoor noodzakelijk gevaar of verwarring wordt veroorzaakt (dus een paar centimeter naast de ideale lijn, 1-2 km/h te langzaam of te snel, een kwart seconde te laat reageren op een situatie)
- In een willekeurige verkeerssituatie minder dan gemiddeld goed handelen, zonder gevaar of verwarring. (tegen de lijn aan, 5 km/'h te langzaam of snel)
- In een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat verwarring wordt veroorzaakt, zonder gevaarzetting (te hard op kruising afrijden, wel remmen)
- In een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat gevaar wordt veroorzaakt en andere weggebruiker moet ingrijpen (zo hard op kruising af dat ander moet inhouden, ook al had ander voorrang)
- enzovoorts, enzovoorts, t/m
- Veroorzaken dodelijk ongeval.

Voor die eerste is een betrouwbaarheid van 50% waarschijnlijk al hoog. Voor die laatste wil je iets dat beter is dan de gemiddelde chauffeur nu, dus minder dan 1 dode per 20 miljoen ritten ofzo. De echte interessante gevallen zitten in het midden: Hoe reageert de rest van het verkeer op een autonoom rijdend voertuig? Kun je een voertuig 'aankijken' en daardoor de intentie begrijpen? Als hij iets naar links gaat in de baan, wil hij dan bij de volgende kruising linksaf? En andersom, snapt een voertuig dat een kind op de stoep gevaarlijker is dan een volwassene? Of dat een fietser met een koptelefoon op later reageert dan 1 zonder? Er zijn heel veel signalen in het verkeer die nu bijdragen aan de verkeersveiligheid, die lastig in te programmeren zijn.
Perfecte uiteenzetting van de hoe delicaat het onderwerp is. Met mijn 99.9% dacht ik vooral aan zoiets als deze:
een situatie waarin voorrang verleend moet worden of geremd moet worden, minder dan gemiddeld goed handelen, zodat gevaar wordt veroorzaakt en andere weggebruiker moet ingrijpen (zo hard op kruising af dat ander moet inhouden, ook al had ander voorrang)
85% betrouwbaarheid is natuurlijk kul, maar 99,9% zou best een stuk beter kunnen zijn dan een goede bestuurder. En laten we het maar niet hebben over alle onbenullen die hun telefoon in de auto gebruiken...
Het is natuurlijk ook lastig omdat er nu een vergrootglas op zelf-rijdende autos zit. Bij elk incident zal men zeggen zie je wel, niet veilig. Terwijl misschien de beste chauffeur in de wereld het ongeluk niet had kunnen voorkomen. Het is natuurlijk idd zo dat een autonoomsysteem altijd op let en elk mens wel eens afgeleid is. Zeker met die randdebielen die zonodig moeten appen in de auto.

Ik denk zeker met 99,9% betrouwbaarheid dat het verkeer een heel stuk veilig wordt dan het nu is.
Dat zou onacceptabel zijn gezien politicie overtuigt moeten gaan worden. 85% zou dan nooit acceptabel zijn. Tesla geeft aan dat minimaal 2x zo betrouwbaar als mensen behaalt moet worden maar dat is natuurlijk een vage statement.
Ik kan je de autonome spellingcontrole aanraden!
Haha, een taalnazi. Die zie je niet meer zoveel op het internet.
Keep up the hopeless fight, kerel! :)
4 kanjers van taalfouten in 3 zinnen, dat zie je inderdaad niet zo vaak. Besef je wel welke indruk dat geeft?!
Gast, dit is het internet, relax.
We schrijven hier geen scriptie, niemand boeit het iets.
Tja, het boeit mij inderdaad niet, je laat immers een erg domme indruk na. En anders is het intellectuele slordigheid. In beide gevallen gaat de inhoud de facto verloren.
Ja, en ook niet gecommuniceerd hebben naar de tester, welke systemen er wel of niet draaien.
En ik snap ook dat als je een hele dag een auto autonoom test, dat je dan er veel op vertrouwd als er niks fouts gaat. Dus het is een erg vervelende kwestie zo.

Edit:
https://techcrunch.com/20...tching-hulu-not-the-road/ Dit maakt het allemaal ook wel een stukje erger, tijdens de rit van 43 minuten heeft de bestuurder 204 keer naar het scherm gekeken waar een tv programma aan het spelen was.

[Reactie gewijzigd door SeenD op 6 november 2019 10:19]

Feitelijk zou een bestuurder dan om de 1 of 2 uur gewisseld moeten worden zodat deze alert blijft.
Maar goed mensen kosten geld en vervangen betekend meer mensen meer kosten.
Een normaal mens houdt het niet vol geconcentreerd te kijken naar iets wat bijna nooit fout gaat. Zie bijvoorbeeld dit paper waar een heleboel relevant onderzoek wordt aangehaald: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3627747/ .

De enige reden dat een rijinstructeur deze taak beter doet dan een "safety driver" is dat studenten zoveel fouten maken, en deels ook dat die fouten zo voorspelbaar zijn. Ingrijpen is daardoor een dagelijkse handeling.
Daarom zou zo iemand dat werk max 1 of 2 uur mogen doen afhankelijk van dat onderzoek en dat wisselen met iemand anders.
Gewoon twee man in het voertuig met dubbele bediening zoals in een leswagen.

Zelfrijdende voertuigen moeten juist levens redden niet kosten, dit is wel heel erg kwalijk. Vraag me af in hoeverre hiervoor mensen vervolgd kunnen worden met dood door schuld maar het is een groot bedrijf dus ze zullen wel vrijuit gaan.
Of de handen verplicht aan het stuur zoals een Tesla. Deze vrouw was bezig op haar telefoon.
Maar goed, daar moeten ze de auto voor ombouwen en dat kost geld... Waarschijnlijk is het goedkoper om twee 'opzichters' in de auto te zetten.
Ach, ach. De typische reactie waarom zelfrijdende acceptatie zolang duurt. Elke minuut van de dag rijd ergens een onoplettende bestuurder in de wereld een ander dood: discussieren we niet over op de Tweakers frontpage.

Honderden zo niet duizenden malen hebben de Uber en Waymo auto’s al verkeerssituaties dermate onmenselijk snel ingeschat dat een ongeluk door een fout van een ander is voorkomen. Discussieren we niet over hier.

Maar er gaat een keer wel wat mis en het is gelijk onaceptabel en er moeten koppen rollen.

Misschien iets in perspectief plaatsen?
Zeg je dat ook als die vrouw je moeder was? Zonder Uber had ze nu nog geleefd.

En ja chauffers rijden mensen dood maar niet expres en als ze bijv gedronken hebben of aan het appen zijn worden ze ook gewoon gestraft.

Uber is gewoon een cowboy bedrijf en wederom zwaar nalatig geweest. Dus omdat er dagelijks verkeersdoden vallen hoeven we daar dan maar niet meer naar te kijken en ze een schouderklopje geven?
Naar mijn mening is de tester 100% verantwoordelijk.
De software ingenieurs zijn bezig met een concept te ontwikkelen dat duidelijk nog niet af is (want test) en dus is het vrij evident dat nog niet alle mogelijk situaties correct worden geïnterpreteerd.
De tester had de voetganger moeten zien én ingrijpen voor het signaal er was.
Het is fout om aan te nemen dat de tester altijd moet wachten op het testsignaal.
De tester zit net in de auto om de situatie in te schatten en waar nodig te corrigeren.

Een rijinstructeur gaat toch ook niet wachten met ingrijpen als hij/zij ziet dat de bestuurder in opleiding bv door het rood rijdt?
Naar mijn mening is de tester 100% verantwoordelijk.
Dan houd je er geen rekening mee dat de tester menselijk is. Als je in een autonome auto zit die honderden uren alles netjes doet, dan weet je 100% zeker dat een mens zijn concentratie verliest.
Net zoals het onzinnig is om een bewaker een hele dag naar 20 cameras te laten kijken waar niks op gebeurd.

Een rijinstructeur die naast iemand zit bij zijn eerste les heeft een hogere concentratie dan iemand die nog even een laatste les doet voor zijn/haar examen.

Ik vind het onverantwoordelijk en oneerlijk om iemand zulke geestdodend werk te laten doen als het monitoren van een dergelijke autonome auto en dan die persoon de schuld te geven van het ongeluk.
Je hebt gelijk maar de tester is ook een schakel, de laatste schakel die in had moeten grijpen. Neemt niet weg dat de schakels daarvoor ook niet gewerkt hebben door domme keuzes of fouten.

De bestuurder had idd continue op de weg moeten letten en is zeker medeverantwoordelijk. Maar de bestuurder is onderdeel van een systeem wat dus vol fouten zit.
Een systeem lijkt me moet met alles in iedere situatie rekening houden dus ook met zaken die volgens de regeltjes niet mogen.
Ja hoor, dag. Er mag best meer verantwoordelijkheid worden afgeschoven op de 'zwakke' weggebruiker.
Jij hebt als voetganger zo goed als 360 graden zicht, je hoort veel beter, je manoeuvreerd veel gemakkelijker, je stopt en je vertrekt sneller, je gaat trager en hebt dus veeeeeeel meer tijd om alles op te nemen en te verwerken.

Dan heb je het in mijn ogen gewoon fameus verdient als je van je sokken wordt gereden omdat je blindelings de straat overstak. Waarvan je wist dat die er was, trouwens.

Dat 'ze zullen wel stoppen, ik ben in m'n recht want zwakke weggebruiker' mentaliteit moet echt verdwijnen.

[Reactie gewijzigd door Tokkes op 6 november 2019 20:19]

Deels geef ik je gelijk maar heel eenvoudig voorbeeld, sta bij een zebra, auto's moeten stoppen, hoeveel doen dat ? Dan moet je dus toch eigen initiatief nemen.

Maar dat bij aanrijding met fietser de bewijslast omgekeerd is, is soms idd niet wenselijk. Je zou dan standaard een dashcam moeten hebben om je gelijk aan te tonen.
Bij een zebrapad heb je in veel landen ook gewoon voorrang om over te steken.

Mijn puntje gaat vooral om het naleven van de wegcode door alle gebruikers. Niet alleen die een kaartje of papiertje zijn gaan halen om met de auto/motor te mogen rijden.

Ik stop gerust voor een zebrapad. Maar als er 10 meter verder eentje staat en jij wil per se niet naar dat zebrapad lopen om over te steken moet je ook niet gaan klagen dat ik nog wat versnel om je te waarschuwen dat ik niet stop in zo'n geval.
Met 2010 Volvo V70 met adaptive had had ook altijd problemen met fietsers op de rijbaan. Elke keer ging de auto vol in de remmen. En Volvo had toen nog niet de mogelijk om de het adaptive deel van de cruisecontrol uit te zetten..

Maar het blijft natuurlijk ironisch dat de standaard crash detectie van de Volvo het ongeluk had kunnen voorkomen of in elk geval de snelheid dermate omlaag te krijgen dat het niet noodlottig was geworden..
Brrr... en dan die dikke vrachtwagen achter je in je achterbak krijgen?

Wat doet de crash detectie trouwens als er in een bos een hert of zo oversteekt? Ik heb altijd geleerd te kiezen om het hert aan te rijden en niet tegen een boom op te klappen. Daar zal niet iedereen het mee eens zijn. Maar wat kiezen auto's als die van Uber en wat kiest Tesla? Er zijn zo meer complexe beslissingen waarvan ik graag tevoren wat inzicht zou hebben in de beslissingsboom. Ik heb wel eens op een provinciale weg in een kettingbotsing gezeten (voorste auto ging vol in de ankers want moest kleine zijweg in). Keihard remmen, logisch maar dan: uitwijken... naar links uitwijken zou een frontale botsing met een tegemoetstormende vrachtwagen betekenen. Naar rechts zouden hectometerpaaltjes in de berm het begeven. En niet uitwijken zou het rammen van de voorganger betekenen. Wat kiest een Uber/Tesla/etc? En wat nou als er aan de rechterkant een lantarenpaal staat of een verkeersbord, of een groepje mensen of een dikke boom?
Ik heb toen trouwens de hectometerpaaltjes gekozen. Had amper schade terwijl andere auto's behoorlijk in elkaar lagen. En ik ben daarna nog meer afstand gaan nemen tot mijn voorganger.
Beetje afhankelijk trouwens van het type hert, het is niet voor niets dat overstekekende elanden in het noorden zo vaak voor dodelijke ongelukken zorgen.
hert versus eland he. De meeste herten zitten vlotjes onder de 200 kilo. Een eland tikt al snel de 700 kg - Als je daar dan met een wagen van 1.2 ton oprijdt ga je die momentumtransfer uiteraard veel harder voelen dan dat je een hertje van 100 kilo opschept.
OK, maar vervang nu hert door kind? Kies je dan nog steeds voor het aanrijden van het kind? En wat als er een schoolklas met kinderen oversteekt. Dit soort morele dilemma's zijn niet nieuw. Weinig mensen zullen daadwerkelijk bewust de boom kiezen. AI zal theoretisch de meest optimale keuze maken, maar ik verwacht dat als de AI meerdere keren in het nieuws komt omdat de bestuurder is overleden omdat de auto voor de boom kiest, het heel erg snel is afgelopen met AI. Ondanks dat de keuze van de auto moreel correct is..
Dat is inderdaad een beetje jammer. De volvo van mijn pa is helaas niet uitgerust met adaptive cruise. Verder erg mooie wagens. (V70 2012(2013 model)
Volvo gaf aan dat dit mogelijk het ongeluk had kunnen voorkomen. Niets is 100% zeker met dit soort systemen.
Ja het is zeker irritant als zomaar stilgezet wordt... Maar als het alternatief is dat mensen doodgereden worden, dan zijn wat mij betreft autonome voertuigen niet klaar voor de openbare weg.
Er zullen nog veel meer doden vallen. Zo werkt dit nu eenmaal, software is nooit 100% correct.
Maar wat zegt dit? Er vallen iedere dag veel doden op de weg door menselijke fouten. Als autonome voertuigen minder doden maken dan mensen is het dan wel OK?
Als-dan, inderdaad. Het is duidelijk dat de technologie nog niet ver genoeg is.
Tegelijk blijkt de combinatie van gedeeltelijk-functionerende autonome technologie met een mens -met intrinsiek korte aandachtsspanne- helemaal een slecht idee.

Ik zeg: stel het publiek niet bloot aan risico's die kleven aan de ontwikkeling van technologie, waarbij falen zulke grote gevolgen heeft.

Het is aan de politiek om de grenzen van acceptabele veiligheid te bepalen. Hun taak is om to informeren bij specialisten en experts om een goed oordeel te kunnen vellen, en om de veiligheid van het volk te beschermen
HOWEVER... in een perfecte wereld zou dat zo zijn. Tegenwoordig zijn in veel landen kapitalisten aan de macht. En die hebben goede connecties met het bedrijfsleven. Ofwel, grote bedrijven krijgen het vaak voor elkaar dingen te realiseren die twijfelachtig zijn. Dat is geen complottheorie, maar algemene bekend. Zie Nederland: Lobbyisten staan altijd te dringen bij de semiopenbare ruimtes bij de tweede kamer... In de eerste kamer hebben veel senatoren "nevenfuncties", waarbij ze in de raad van bestuur van bedrijven en organisaties hebben. Hoe kunnen die dan nog belangeloos beslissingen nemen, vraag ik mij af...

[Reactie gewijzigd door MeMoRy op 6 november 2019 22:39]

Tja, het is natuurlijk ook zo dat je innovatie afremt. In Amerika rijden er al genoeg autonome auto's rond maar in europa zie je niets vanwege bureaucratie en (duitse) lobbygroepen die nog lang niet zover zijn.

Het is een lastige balans.

Het is aan de politiek om de grenzen van acceptabele veiligheid te bepalen.
Die kunnen dit weer niet. Dat zie je bijvoorbeeld met Tesla's autopilot. Die moet soms gevaarlijke acties uitvoeren (zichzelf uitschakelen in een bocht bijvoorbeeld) door europese regelgeving.
De politiek kan momenteel niets en niemand tevreden stellen dus daar hoef je niets van te verwachten.
Innovatie is sowieso een subjectief gestuurd concept. Ik werk zelf als onderzoeker aan een universiteit (eindhoven) en daar moet al het tegenwoordig commercieel interessant zijn. Het draait de universiteit om geld binnenhalen. Het is heel moeilijk om geld via Nederlandse of Europese subsidie te krijgen en dan zelfs willen ze vaak dat je een bedrijf in de arm neemt als cofinancierder. Maar volgens mij worden de meeste projecten bij ons nu direct gefinancierd vanuit bedrijven. Die kunnen zo lekker goedkoop onderzoek laten doen.

Maar ja, als je dan niets maakt waarmee ze geld kunnen verdienen, trekken ze de stekker eruit. Ik moet me 2 keer per jaar verantwoorden met mijn voortgang. En dan hebben ze de gelegenheid mij bij te sturen.
Fundamenteel onderzoek (mijns inziens /echte/ innovatie) is er nauwelijks meer.

[Reactie gewijzigd door MeMoRy op 6 november 2019 22:47]

Zo werkt dit nu eenmaal, software is nooit 100% correct.
Klopt. Maar er zit een gigantisch verschil tussen software maken die met elke situatie rekening met houden en daar af en toe in faalt. Of software die bepaalde veel voorkomende situaties uitgesloten heeft omdat dat makkelijker was.
Helemaal waar, maar steeds onverwacht remmende auto's zijn ook een gevaar voor het achterop komende verkeer.
Ja je moet altijd afstand houden, maar getuige vele ongelukken, dat gebeurt lang niet altijd.

Nog los van het feit dat alles wat los zit ook de hele tijd door de auto vliegt wanneer die weer eens vol in de remmen gaat.

Aan fase positives kleven net zoveel nadelen als aan fase negatives. Blijkbaar heeft über hier zoveel fase positives gehad dat ze maatregelen hebben willen nemen om die in te perken. Een keuze met fatale gevolgen aan de kant van de fase negatives, helaas....
Precies, dus niet klaar voor openbare weg, zoals ik zeg.
Want... niet perfect ???
Het alternatief, door de mens bestuurde auto's, scoort ook verre van perfect.

Ik denk dat wij over een paar jaar niet eens meer zelf mógen rijden en dat dat heel veel verkeersslachtoffers gaat schelen. Maar voor die fase bereikt wordt moet ook ervaring opgedaan worden. Je kunt niet alles testen. En dan zéker de onverwachte situaties niet.

Op het moment dat autonome voertuigen qua veiligheid vergelijkbaar zijn met de status quo van de manueel bestuurde auto dan zijn ze klaar om de openbare weg op te gaan.

Die garantie wordt nu in principe gewaarborgd door ook een oplettende chauffeur achter het stuur te zetten. En dat is wat hier mis is gegaan... DE MENS zat als eindverantwoordelijke óók niet op te letten.
En dan zéker de onverwachte situaties niet.
Iemand die oversteekt op een plek waar dat niet de bedoeling is, is geen onverwachte situatie.

Het probleem is dat de techniek nog niet goed genoeg is om objecten te herkennen. En dus worden er allemaal shortcuts gebouwd om het makkelijker te maken, zodat je een systeem hebt dat het redelijk doet.
Maar diezelfde shortcuts zorgen uiteindelijk allemaal voor onveilige situaties.
Zoals hier duidelijk is geworden. Maar Tesla maakt ook dergelijke shortcuts waardoor een Tesla bij een wegafsluiting met oranje kegels daar dwars doorheen rijd omdat er een shortcut is gemaakt waardoor dat soort objecten genegeerd worden. (blijkbaar doordat de software te vaak in de war raakte van licht en schaduw werkingen op een wegdek en dus statische objecten deels weggefilterd worden)
Die garantie wordt nu in principe gewaarborgd door ook een oplettende chauffeur achter het stuur te zetten
Precies: "in principe". Terwijl ieder weldenkend mens weet dat het NIET gewaarborgd word, omdat een menselijke chauffeur niet oplettend kan blijven als zo'n auto urenlang alles goed doet.
(zeker als je bedenkt dat de mensen die hiervoor aangenomen geen echte testers waren, maar gewoon laagbetaalde baantjes voor mensen die ze van de straat plukken)
Iemand die oversteekt op een plek waar dat niet de bedoeling is, is geen onverwachte situatie.
Iemand die oversteekt MET EEN FIETS IN DE HAND op een plek waar dat niet de bedoeling is, was gezien de gebeurtenissen, wél een onverwachte situatie,

Maar dat is niet wat ik bedoel. Ik bedoel dat je in het algemeen in de praktijk pas de onverwachte situaties tegen gaat komen. Je moet dus ook in de praktijk ervaring op doen om het systeem te optimaliseren. Een dergelijk systeem volledig in een testsituatie ontwikkelen en er dan vanuit gaan dat het in 'het eggie' perfect gaat werken is een utopie.
Natuurlijk ga je in de praktijk onverwachte situaties tegen komen die niet bedacht zijn bij testen. Als test manager weet ik dat maar al te goed uit mijn dagelijks werk.

Maar dit was absoluut geen onverwachte situatie. Als ik situaties moet bedenken waar een autonome auto mee om moet kunnen gaan dan is een kind dat plotseling de straat op rent het allereerste wat ik direct bedenk. En mensen die over steken op andere plekken dan zebrapaden het tweede.
Derde is fietsers die zich aan geen enkele verkeersregel houden en doen wat ze willen.
Dat zijn geen onverwachte situaties. Dat zijn situaties die je elke dag in het verkeer tegen komt en die een autonome auto absoluut aan moet kunnen.
Het zijn ook dergelijke situaties die typisch op een test-track getest worden ipv de openbare weg.

Uber had blijkbaar moeite om de wagen alles netjes te laten herkennen en om het makkelijker te maken hebben ze in de software gezegd dat objecten buiten een kruispunt geen overstekende fietsers of voetgangers zullen zijn. Een shortcut die duidelijk onverantwoord is.
Op een snelweg zijn fietsers en voetgangers zeer zeldzaam, dus ik had het nog kunnen begrijpen als ze daar zo'n versimpeling zouden gebruiken. Maar op een normale weg uiteraard niet.
Als je software nog zulke tekortkomingen heeft, dan is het ook niet verantwoord om 'm met menselijke begeleiding buiten de snelwegen te laten rijden. (En ik betwijfel ook zeer of de mensen die in de auto zaten wisten dat de auto zulke tekortkomingen in de software heeft)

Dit was absoluut geen bijzondere situatie en een auto die deze situatie niet aan kan is nog niet klaar om in "het eggie" getest te worden. Deze situatie had prima in software getest kunnen worden of op een test-track. Ze hebben hier gespeeld met mensenlevens om niet te ver achter te lopen op de concurrentie.
Tesla heeft ook ongelukken gehad, maar daarbij was echt sprake van bijzondere situaties.
De 'bug' zit iets anders in elkaar...

Het herkennen van een object gaf vele false positives. Über heeft een vertraging ingebouwd van 1 seconde om goed te herkennen om wat voor object het gaat en daar goed op te reageren.

In normale omstandigheden is er dan nog voldoende tijd om te remmen of uit te wijken.

Maar hier ging dat anders. Binnen die seconde ging het systeem 'twijfelen' aan het object tussen "voertuig" en "overig".
Het slechte zicht (het was donker), de onverwachte plek en de ongewone combinatie van een voetganger met een fiets in de hand triggerde de twijfel van de auto.

Bij (en hier komt de bug:) elk twijfelmoment is opnieuw die seconde wachttijd gaan lopen waardoor er keer op keer niet gereageerd werd. Intussen reed de auto op volle snelheid door.

Was tijdens het twijfelen de seconde wachttijd door blijven lopen dan was na een seconde waarschijnlijk keurig geremd en was er niets aan de hand geweest.

Edit: vervelende typo

[Reactie gewijzigd door T-men op 6 november 2019 15:45]

Maar hier ging dat anders. Binnen die seconde ging het systeem 'twijfelen' aan het object tussen "voertuig" en "overig".
Nee, absoluut niet waar. Alles wat je zegt klopt totaal niet met wat het onderzoek aangeeft !!!
In de laatste seconde zat het systeem niet te twijfelen. Het systeem wist bovendien dat een ongeluk niet meer te vermijden was. En toen ging vervolgens die ene seconde ook nog eens in voor die false positives.
Maar ook zonder die ene seconde was het een fatale botsing geweest.

Ga het rapport van de NTSB lezen. De link staat in het artikel van tweakers.

-1.2 seconde voor de botsing stelt het systeem pas definitief vast dat het om een fietser gaat in het pad van het voertuig. Uitwijken is niet meer mogelijk. (pagina 11 van het onderzoek)

1.2 seconden is bij lange na niet voldoende om een auto met 70km/h tot stilstand te brengen.

Die seconde wachttijd is nooit opnieuw gaan lopen.
Het systeem heeft de voetganger met de fiets steeds als wat anders gedetecteerd. Daardoor had het systeem niet in de gaten welke kant het object op ging en in het pad van het voertuig zou komen.
Voetgangers buiten oversteekplaatsen werden geclassificeerd als object zonder richting die genegeerd mogen worden. Als een object als iets anders gedetecteerd word, dan is de tracking history kwijt en neemt het systeem aan dat wanneer het een 'vehicle' is dat het in dezelfde richting als de autonome auto zal rijden. En als het een fietser is neemt het systeem ook aan dat die in dezelfde richting als de autonome auto zal rijden. (in dit geval in de parallel baan)
Dat gemis aan tracking history zorgt er voor dat het systeem seconden lang wel een object waarneemt, maar denkt dat het geen gevaar is omdat het op dat moment nog niet in de baan van het voertuig zit.
Pas als de voetganger daadwerkelijk in het pad van het voertuig is (1.5 sec voor de botsing) heeft het systeem in de gaten dat het wellicht moet doen. Maar het heeft nog steeds niet in de gaten wat het is en neemt daardoor aan dat het statisch object is.
0.3 sec later herkent het pas een fiets die de auto kruist en dan is het al te laat.
Vervolgens komt dan éénmalig die second wachttijd, waardoor de auto pas 0.2 sec voor de botsing een signaal geeft. Maar ook die 1.2 sec was al veel te laat om te remmen.

Het staat allemaal overduidelijk in het NTSB rapport.

[Reactie gewijzigd door mjtdevries op 6 november 2019 16:38]

Dat is deze dus ook zeker niet. De software was nog in een test traject met 2 inzittenden.
Praat je over de situatie beschreven in het artikel? Want daar was maar 1 inzittende die ook nog eens druk bezig was met haar smartphone.
ja, Ik las in een ander artikel dat er ook nog een tweede inzittende zou zijn.
Hmm als ik dit filmpje kijk, zie ik toch echt 1 persoon
Niet bij Uber destijds, hoewel ze dat blijkbaar wel inmiddels veranderd hebben.
Een seconde erover doen om de situatie nog eens te beoordelen, dat is wel heel erg lang voor een computer systeem. Het geeft vooral te denken over de kwaliteit van Uber's software dat er blijkbaar een hele seconde nodig was.

Ter indicatie: Tesla's software draait op 200 FPS, en met de nieuwe hardware gaan ze naar 2000 FPS.
je moet niet FPS voor bijvoorbeeld een camera gaan vergelijken met berekeningen per seconden. Of in dit geval zelfs een gevaar inschatting. De buffer die hier gehanteerd wordt zal ook bij de tesla aanwezig zijn. Je wilt niet hebben dat wanneer iemand net nog oversteekt terwijl je aan komt rijden de auto meteen remt. Dan verstoord te auto jouw en de volgers achter je het rij confort. Het is niet altijd nodig meteen te reageren. Daarom is daar ongeveer een seconde voor ingeprogrammeerd. Juist computers kunnen dit heel goed regelen. Als ze maar goed zijn afgesteld of aangeleerd.
Telefoon-zombie wat ineens stilstaat op de weg mogelijkerwijs? Niet de eerste...
Zelf rijdende auto’s klinkt allemaal leuk, maar ik zou er geen willen hebben. Voor mij is na een lange dag werken zelf een stuk rijden een stuk ontspanning en wil ik niet gereden worden.

Nu dit gezegt te hebben, de techniek kan wel meehelpen in noodsituaties. Bv zoals vandaag iemand in het nieuws was, dat die een epilepsie aanval kreeg en iemand aangereden had. Dan zou het goed zijn dat het overgenomen kan worden.

In het geval met uber vindt ik ook de fout dat ze de systemen van volvo uitgezet hadden en dat de bestuurder met andere dingen bezig was. Het is een test systeem dan moet er een bestuurder zijn en niet aan de bestaande apparatuur gesleuteld worden. Die is zeer goed getest en afgesteld bij dat type auto. Als je veranderingen erin wil maken moet je samen werken met de fabrikant van het merk auto
Dat dacht ik ook met mijn 57.000km per jaar tot ik mijn Tesla met FSD kreeg. De dagelijkse trajectcontrolle tussen Amsterdam en Utrecht rij ik zelden meer zelf hoor.

Het is net als werk: niemand vind het meest routinematige deel van zijn werk het leukst, zo ook vaak op de weg.

En het mooiste: het is en-en. Dus je kan kiezen hoe je wilt rijden of gereden worden.
Omdat het altijd een afweging blijft. Het kan in sommige situaties veiliger zijn voor de imzittende om een aanrijding te hebben met object X dan uit te wijken en vervolgens object Y te raken.
Als de auto een kat had herkent en een uiwijking een 80% kans zou betekenen om een vangrail of andere auto te raken dan is de betere beslissing om door te rijden.
Programmeren van dit soort systemen is lastig omdat je dit soort life/death beslissingen er dus wel in moet zetten.
5.6 seconden van tevoren betekent dat je ook prima zou kunnen remmen, het hoeft geen uitwijken te zijn...
Remmen, Gas loslaten of Niets doen?
Net zoals een omaatje die de weg oversteekt, je rechts een muur hebt, en links een moeder met kinderen O-)
Of een op leeftijd zijnde wetenschapper die de oplossing heeft voor kernfusie en rechts een muur en link een moeder met kinderen :X
Hoewel gezien de tragsiche context wellicht niet aan iedereen deze humor is besteed sla je wel de spijker op zijn kop. Dit zijn het soort dilemma's waar gewoon naar gekeken moet worden. Uiteindelijk zou je verwachten dat een electronisch systeem die keuze in een dergelijke split second situatie beter afgewogen zou moeten kunnen maken dan een mens.

Helaas heeft men bij Uber hier wel een paar opmerkelijke keuzes gemaakt.
Zoals anderen ook opmerken, Als het systeem er niet uitkomt zou het voertuig wat mij betreft gewoon altijd tot stilstand moeten komen. Dat zou zelfs zo moeten zijn als er helemaal niets op de weg is/blijkt. Des te meer nog omdat je weet dat je met nieuwe techniek aan het testen bent.

Spijtig genoeg moeten we niet vergeten dat er altijd een prijs is voor vooruitgang, maar dat ook wanneer we geen voortgang zouden boeken er nog steeds verkeersslachtoffers zouden vallen.

Goed in elk geval dat men hier bewust mee om probeert te gaan en er veel aandacht is om zaken goed uit te zoeken.
Als ik het me goed herinner was het in dit geval rustig op de weg, maar je moet niet vergeten dat zomaar stoppen levensgevaarlijk kan zijn. Als je op een drukke snelweg rijd en er wappert een lege kartonnen doos rond kan de AI mogelijk in de war raken, als die dan zomaar besluit te stoppen kan dat best gevaarlijke situaties opleveren.

edit: typo

[Reactie gewijzigd door marcmeide op 6 november 2019 10:56]

Er kan altijd nog gekozen worden voor wegwijken naar de vluchtstrook als je op de rechterbaan (of voor de Britten - linkerbaan) rijdt.
Dat is absoluut waar, maar ik suggereer niet dat er abrupt geremd zou moeten worden.

In dit geval waren er zoals ik begrijp 5,6 seconden om het voertuig tot stilstand te brengen.
Voordat een auto dat kan herkennen zijn we wel weer een paar jaar verder denk ik :D
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.
Dat snap ik ook niet aan dit verhaal? Voertuig, overige, ... Maakt toch niks uit? Hun LIDAR-systeem moet toch gezien hebben dat het niet in dezelfde richting en dezelfde snelheid als de auto bewoog dus ofwel moest stoppen ofwel uitwijken?
'Oh, het valt in de 'overig' categorie, daar mag ik gewoon tegen knallen'?
Vreemde logica...

[Reactie gewijzigd door Fire69 op 6 november 2019 08:49]

Ik geloof nog steeds in meer camera's waaronder ook thermisch infrarood, hiermee kun je een object maar ook persoon veel beter herkennen aan een warmtebeeld. Des te meer informatie van verschillende sensoren des te beter de beslissing kan zijn
Klopt Lidar is gewoonweg niet geschikt.
Maar ook met camera's zal het nooit 100% worden zo lang computers geen begrip hebben van context en zul je dus false positives moeten accepteren wil je het veilig houden.
M.a.w. eens in de zoveel tijd zal je stilstaat zonder duidelijke reden.
Persoonlijk vind ik zelf rijdende auto's een onrealistisch idee, afgezien van de techniek kleven er nogal wat issues aan.
Zo is het nog interresant hoe hier in Nederland verzekerings technisch mee omgegaan wordt.
Als ik niet rijd ben ik passagier dus zou ik nooit verantwoordelijk gehouden moeten kunnen worden en is het bedrijf dat de software maakt in mijn opinie de schuldige.
Helaas is dat een niet haalbaar iets en om die reden alleen zal ik persoonlijk altijd zelf blijven rijden ipv het laten doen door een pc.
Er zijn 2 zaken met zelfrijdende auto's.

Overheden moeten er eerst goedkeuring voor geven.
Dan heb je verzekeraars die de risico's moeten gaan bekijken of de autonome systemen idd wel zo foutloos zijn. Als die dat in hun ogen niet zijn zullen premies ook vrij fors worden, d.w.z als je all-risk hebt. WA is de wettelijke dekking.

Ga er dan ook van uit de voordat overheden toestemming geven ze ook samen met verzekeraars naar de risico's zullen gaan kijken.
Dan is nog de vraag moet ik die hoge premie betalen?
Ik heb immers geen invloed op de software en zijn beslissingen.
Zelf zou ik het dan ook vreemd vinden dat ik als persoon verantwoordelijk gehouden wordt voor software waar ik totaal geen invloed op heb.
In mijn opinie zou dus de fabrikant die premie moeten betalen.
Nu zullen er mensen zijn die zeggen:"Ja maar je kunt ingrijpen"
Dat klopt maar de foute beslissing is dan al gemaakt.
Dat is in mijn ogen hetzelfde als iemand die iemand wegduwd alvorens een ongeluk te maken in staat van beschuldiging te stellen. De omgekeerde wereld dus.
De vraag is of je je auto dan nog all-risk moet verzekeren, immers je zou kunnen stellen dat je zelf geen fouten meer maakt.

Neem natuurlijk niet weg dat je altijd wa moet hebben. Er kunnen zich altijd situaties voordoen waar je deels schuld hebt.
Dan is nog de vraag moet ik die hoge premie betalen?
Vanzelfsprekend.

Het kan ook zijn dat de auto veiliger rijdt dan de gemiddelde mens. Dan wordt het dus een lagere premie.
Zelf zou ik het dan ook vreemd vinden dat ik als persoon verantwoordelijk gehouden wordt voor software waar ik totaal geen invloed op heb.
Daar zul je dan toch aan moeten wennen.

Er zijn zovéél dingen waarvoor je aansprakelijk bent, maar waarop je geen invloed hebt. Als je hond uit eigen beweging iemand bijt. Als er een dakpan van je huis waait. Als er een boom uit je tuin omvalt, etc. etc. Dat heet risicoaansprakelijkheid.

Meestal kun je zulke schade ook niet op iemand anders verhalen. Het is vaak nogal lastig om aan te tonen dat iemand anders iets fout gedaan heeft. Als de dakdekker bijvoorbeeld die ene pan niet goed had neergelegd, dan zul je dat nooit kunnen bewijzen. Of misschien was die ene pan wel niet goed gebakken bij de fabriek. Etc. etc. Of misschien lag het toch alleen aan de wind, en is het gewoon enkel pech. Maar wel jouw pech.
In mijn opinie zou dus de fabrikant die premie moeten betalen.
Dat slaat natuurlijk nergens op. Het eerste wat die zullen doen is die premie voor 120% aan jou doorberekenen (20% opslag voor administratiekosten en eventueel restrisico, en eventuele juridische kosten). Vrij zinloos dus. Het is jouw auto, dus ben jij risicoaansprakelijk, en hoe dan ook gaat het geld toch uiteindelijk uit jouw eigen zak komen. En anders kies je maar een andere auto...

Als de fabrikant nu verwijtbare fouten heeft gemaakt, dan kan ie natuurlijk wel aangesproken worden, maar dat is nu ook al zo. Maar een software-bug is niet per definitie een verwijtbare fout.

[Reactie gewijzigd door RJG-223 op 7 november 2019 01:50]

Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet?
Ik denk dat "overig" voor dingen bedoeld is die niet bewegen, zoals een vangrail, geparkeerde auto, etc.
Het is mij niet duidelijk wat het uitmaakt dat het systeem twijfelde tussen "voertuig" en "overig". Vind Uber dat je "voertuigen" dan wel "overige obstakels" wel mag aanrijden maar het ander niet? Als er iéts gedetecteerd wordt is het toch zaak om dat te vermijden, maakt niet uit of dat nou een hond, kat, persoon, voertuig of overig obstakel is.
Het is redelijk onduidelijk verwoord in het artikel, geen idee hoe het in het rapport staat. Maar er zijn continue dingen op de weg waar je niet voor hoeft te remmen, zeker als je de wereld in essentie 2D ziet. Denk aan markeringen of viaducten. Mogelijk worden die als 'overig' geclassificeerd. Daarnaast zou het kunnen zijn dat voertuig wordt bedoeld als 'voertuig dat voor de auto rijdt' of misschien is de classificatie als 'voertuig' wel een reden om op de rem te stampen, maar belemmerde die 1 seconde vertraging dat.

Met het gebrek aan details in dit artikel kun je er echt niets over zeggen, het is 100% speculatie. In het rapport zal het allemaal in detail uiteengezet zijn neem ik aan.

[Reactie gewijzigd door Blubber op 6 november 2019 08:57]

Akkoord, maar daarbij is het in het geheel niet relevant wat het is. Het gaat erom of het obstakel stil staan, of dat het beweegt, en zo ja, met welke snelheid. Op basis daarvan maak je een voorspelling van het traject gedurende de komende tijd en legt dat naast de voorspelling van het eigen traject in diezelde tijdsperiode en kijkt of ze kruisen. Daarbij zou het niet uit moeten maken of het een muur, auto, glasplaat, persoon, vliegtuig of viaduct is.

Een classificatie kan wel helpen bij het voorspellen van het gedrag, natuurlijk. Levende wezens gedragen zich anders dan, ik noem maar wat, een aanstormende trein.

Als we het maar even positief uitleggen en aannemen dat er getwijfeld werd tussen een stationair object dat langs de kant van de weg stilstond en dus geen gevaar vormde, of een potentieel kruisend voertuig, is het alsnog een foute beslissing om dan maar uit te gaan van een stationair object. Als er ook maar enige twijfel is dat het een kruisend voertuig is moet daarvoor afgeremd worden. Net zoals een menselijke bestuurder zou doen.
Probleem is je hebt het no over een obstakel en lidar zien idd obstakels, met normale camera krijg je daar een beter beeld bij, in het donker minder. Je weet echter niet of het een vast of levend obstakel is. door thermisch infrarood toe te voegen aan het systeem krijgt het obstakel ook een warmtebeeld. Daaruit kun je dan weer zien of het levend of vast is.
Levend betekend dat het systeem al alerter zou moeten zijn. Helaas is Thermisch infrarood nog duur maar zou het wat mij betreft wel onderdeel moeten zijn van dit soort autonome systemen.
Levend betekend dat het systeem al alerter zou moeten zijn. Helaas is Thermisch infrarood nog duur maar zou het wat mij betreft wel onderdeel moeten zijn van dit soort autonome systemen.
Exact. De technologie moet afdoende zijn om verstandige beslissingen te nemen. En daar hoort een prijskaartje bij, daar mag niet op bezuinigd worden. Prijs mag in deze geen enkele factor zijn, behalve dan in de beslissing om de experimenten in zijn geheel wel of niet te gaan doen.
Helaas is prijs bij auto's altijd een factor. In de auto-industrie gaat het om centen. Kijk je naar de hardware voor een autonoom systeem dan zal dat toch eerst op duurdere auto's komen te zitten en daarna goedkoper worden en naar kleinere auto's.
Of je een lidar en camera nu op een 20k of 100k auto zet, de hardwarekosten zijn op dit moment dezelfde. Voor een 20k auto is autonoom nu te duur.

Thermisch infrarood camera's zijn naar verhouding heel veel duurder, zeker als je er naast je normale nog een paar rond de auto moet hebben.
Dan koop je toch gewoon een Rolls-Royce? Daar kijken ze niet op de centen.

Mocht dat te duur voor je zijn (bij mij is dat oog zo :) ) kun je gewoon blij zijn dat een Golf nu gewoon dingen heeft waar 20 jaar geleden een Mercedes S-klasse alleen maar van kon dromen.
Ik wordt liever helemaal niet aangereden. Zeker niet door een computer. ;)

Achter een computer zit een bedrijf dat zich weer achter diezelfde computer kan verschuilen. Bij een persoon is dit eenvoudiger te bewijzen. Maar dan nog maak ik liever helemaal geen aanrijding mee.

[Reactie gewijzigd door sjaool op 6 november 2019 09:07]

Overig kan ook een zak, ballon, hoopje bladeren, doos, vogel of iets zijn waar je helemaal niet voor hoeft te stoppen.

Dit geeft een beetje HET probleem met AI en dus ook autonome voertuigen aan: ze hebben geen idee waar ze mee bezig zijn en objecten die ze 'zien' zijn gewoon een bunch of pixels die wij een naam voor ze hebben gegeven. Ze zijn niet in staat om zelf iets te vinden van hetgeen voor de camera/sensor komt. Misschien dat het ooit in een verre toekomst zover komt, maar voorlopig zijn het hele domme dingen die zogenaamd intelligent gemaakt zijn omdat ze heel veel hopen pixels herkennen en daar eigenschappen aan verbinden die wij ze bijgebracht hebben.
Ze zijn wel goed in dat soort dingen in voorspelbare situaties. Op snelwegen en eenvoudige stadsituaties doen ze het best goed; ik denk dat een autonome auto beter en sneller kan anticiperen op vreemd gedrag van andere voertuigen. Maar dat komt omdat het aanbod van de diverse voertuigen beperkt is (auto, motor, vrachtwagen, bus) en ze allemaal dezelfde kant op rijden met ruwweg dezelfde snelheid. Maar in Amsterdam of New York is het chaos op bepaalde plekken, waar fietsers en voetgangers, huisdieren en ander tuig zomaar voor je voertuig kunnen springen. Er kunnen zomaar dingen op de weg liggen, kuilen, gaten, werkzaamheden, pakketbezorgers en weet ik wat waar ie allemaal rekening mee moet houden. Het een beweegt en het ander niet.

Het kán allemaal, maar het gaat best nog wel even duren voordat we écht autonoom kunnen gaan (laten) rijden. En de A in AI is het sleutelwoord. Het is GEEN intelligentie. Het is KUNSTMATIG.
Een groot deel van deze objecten geeft geen warmte af en zou door een IR al niet direct als "persoon op weg" gedetecteerd worden.
Ik mag hopen dat zo'n systeem niet alleen afgaat op warteafgifte. Er zijn tal van scenario's denkbaar waarin ik niet direct door mijn warmteafgifte herkenbaar ben.
Hopelijk niet, maar ik geval van de Volvo zou IR hier net 1 van de factoren geweest kunnen zijn om net wel een noodstop te maken. (radar+IR+ ...)
Veel waarschijnlijk niet, iedere kilo minder is natuurlijk beter.
Of je er veel van merkt als voetganger als je wordt aangereden door 900kg of 1600kg ijzer betwijfel ik. :P
Ik 'kaap' even de top-comment hier - een video met een mobieltje van de plek waar het ongeluk gebeurde. Ik zie dat sommige mensen vooral de voetganger de schuld geven en zeggen dat de weg donker is, maar hoewel de situatie niet perfect is is het beter dan de Uber video doet voorkomen. https://twitter.com/KostelecPlan/status/1107999338133778443

(Of de videos waar ik aan dacht, die in het artikel van Ars Technica opgenomen zijn - https://arstechnica.com/c...ws-dont-believe-it/?amp=1)

[Reactie gewijzigd door MicBenSte op 6 november 2019 11:02]

Je wordt bij 70 kmu door beide compleet kapot gereden hoor. Ik zit dan zelf liever in die Volvo, voor mijn eigen veiligheid. Wel bijzonder dat er in een autonoom voertuig nu 2 mensen moeten meerijden. Doel voorbij, letterlijk en figuurlijk.

[Reactie gewijzigd door Jorgen op 6 november 2019 09:50]

Waymo heeft altijd al 2 personen in de auto gehad net zoals andere merken die zelfrijdende autos testen wanneer het 'in het wild' is. Uber is de enige die slechts 1 persoon in de auto had uit kostenbesparingen.
Ik snap waarom het bij testen moet, maar doel meer op het feit dat een autonoom voertuig, 2 bestuurders cq opletters nodig heeft. Dat voelt zo tegenstrijdig.
Risicovermijding. In principe moet de zelfsturende auto alle dingen zelf uitvoeren, dus dan heb je als 'bestuurder' weinig te doen en is het risico groot dat je niet gefocust blijft. In principe worden testbestuurders ook getest of ze gefocust kunnen blijven, maar Uber lijkt daar ook de kantjes er dus van af te lopen. Er zijn 2 mensen tijdens de testritten zodat er in theorie altijd minstens 1 iemand is die op de weg aan het letten is en aan het kijken is of de auto de juiste beslissingen neemt. (Zo uit mijn hoofd doet bv Waymo het dat 1 iemand full-time de beslissingen controleert en eventueel kan ingrijpen, en 1 ander ook controleert maar verder ook notities maakt voor mogelijke verbeterpunten die opvallen tijdens het rijden)
Met 70km/u is een Smart ook dodelijk.
Met 70km/u zal een kartonnen doos zelfs flink pijn doen en je potentieel verwonden.

[Reactie gewijzigd door MeMoRy op 6 november 2019 09:58]

Dus gewicht maakt wél uit.
Mogelijk dat een lichtere wagen doorgaans ook sneller tot stilstand komt?
Niet perse, want lichtere wagens hebben vaak smallere banden, dus minder contactoppervlak. Ook nog kleinere remmen.
En dan heb je nog kwaliteitsverschillen: de betere grote auto's staan soms sneller stil dan goedkope kleine auto's. Abs, esp, etc maakt ook allemaal uit.
En kleine auto's zijn niet eens zo licht... smart fortwo is bijna 900kg. Dat is een flinke hamer.
Het zijn ook inderdaad al deze factoren welke meewegen.
Je punt was ook valide mijns inziens totdat je de kartonnen doos erbij haalde.

Trouwens zijn smallere banden en kleinere remschijven bij kleinere auto's altijd proportioneel om het speelveld een beetje eerlijk te houden bij onverwachte situaties op de weg.
Mochten de remmen wijsgeren en niet jouw carrosserie een auto tegen gaan houden, dan scheelt het wél of je een smart of XC90 moet incasseren.
Gelukkig lopen menselijke bestuurders nooit de kantjes er vanaf, en leren menselijke bestuurders vanzelf van hun fouten zodat ze die nimmer meer herhalen. ;) :p
Dat is nog geen reden om het dan ook voor autonome voertuigen te accepteren.

Ik ben het er bij een hoop weggebruikers ook niet mee eens dat ze een rijbewijs hebben ;)

Een groot verschil is wel bij autonome auto's dat het meer structurele problemen zullen zijn. Er is een bepaalde klasse situaties die altijd fout zullen gaan zonder dat de software aangepast wordt. Bij mensen is het meestal een combinatie van diverse factoren die het ongeluk veroorzaken en dat maakt het minder voorspelbaar, en meer in lijn met het menselijke verwachtingspatroon van risico's.

[Reactie gewijzigd door MadEgg op 6 november 2019 10:09]

Omdat een Volvo onverwoestbaar is ;-)
Ik heb liever dat Uber zich hier weg van houdt. Ik ben wel kritisch tegenover autonome voertuigen maar ondanks mijn aversie tov Google heb ik een stuk meer vertrouwen in Waymo dan Uber - die loopt vrijwel overal de kantjes vanaf. Zo blijkt ook hier weer.
Uber was toch die criminele toko die direct al het bewijs vernietigde als er een inval werd gedaan...
Volgens mij gaat dat autonome rijden nooit echt lukken. Je mag dan wel 90% of zo van de problemen oplossen, maar er blijft altijd een categorie over die een automaat nooit goed zal inschatten, namelijk menselijk handelen en dan met name in situaties waar geen regels zijn (4 auto's tegelijk bij een kruising?) of regels overtreden worden (fietsers).
Ik denk dat geen enkele autonome auto veilig door een Nederlandse binnenstad kan rijden waar fietsers en voetgangers zich aan geen enkele regel houden.
Ziet b.v. een autonome auto als een kind achter een geparkeerde auto verdwijnt? Of als een fietser zijn hand uitsteekt om af te slaan (Gebeurt vaker niet dan wel...)?
Of wat doet een autonome auto in een situatie waar je een enorm drukke voorrangsweg opmoet? Wachten tot de accu leeg is?
Ook @Tim Lamein @bbob1970 @Pooh Heb net het artikel van The Register gelezen [1]. Wat er gebeurde is dat Uber een shit-tier classificatie systeem heeft.

Normaal gesproken verwacht je dat een systeem met variabelen werkt met [objectID, type[], loc[], (etc)]. Wat Uber heeft gedaan is [type, loc[], (etc)]. In plaats van een ID te geven en daar vervolgens een classificatie aan te geven en dat vervolgens te monitoren, gaf het systeem een classificatie en werden vervolgens alle records er uit gegooid toen het systeem begon te twijfelen aan de classificatie.

[Reactie gewijzigd door MicBenSte op 6 november 2019 12:06]

Aangepast, dit zou nu moeten werken.
verder heb ik een ander artikel gelezen maar deze komt verder overeen met wat er in het artikel van tweakers is meegenomen.
Ik denk dat "jaywalking" wel ingewikkelder is dan simpel ontwijken. Vaak speelt oogcontact en zelfs overige aspecten een rol, zoals kleding en zichtbare alcoholische dranken. In drukke gebieden is het vaak normaal dat voetgangers alvast wat stappen nemen in de richting van het aankomende voertuig, met de intentie om net naast de projectie van dat voertuig (soms centimeters) ff stil te staan, zodat nog ff snel tussen dat voertuig en daaropvolgend voertuig kan worden overgestoken, die soms dan wel of niet iets minder gas moet geven.

Als men zulke situaties wilt trainen zouden ze eens in drukke gebieden zoals Cairo of Mumbai moeten kijken, maar je begint natuurlijk met simpele gebieden. En daar is nu deze slachtoffer mee gevallen.
Wat bedrijven als Waymo en Tesla goed doen is dat ze niet stom zonder uitgebreide data en testen software op de weg laten rijden die mensen letterlijk kan vermoorden. Uber cared niet naar regels/wetten en morele verplichtingen en wilt zo snel mogelijk op de meest simpele manier voor elkaar krijgen wat ze willen zonder na te denken over de concequenties.

Tesla heeft bijvoorbeeld een extreem lange weg moeten slaan om functies 1 voor 1 te introduceren in de vloot met daarop uitgebreide testing en data van miljoenen auto's die zelfs versies lang voordat een functie uit komt al begonnen zijn met achtergrond processen om deze toekomstige functies te simuleren in shadow mode en alle mogelijke hoeken te behandelen. Waardoor kinderziektes in de software nooit het daglicht zien gezien er altijd voor de meest veilige optie wordt gekozen door het systeem liever te langzaam en met extra scannen en extra oplettendheid door een parkeer plaats te laten rijden dan dit gelijk in het wild te activeren en te testen. Korte termijns oplossingen als deze bij Uber zijn enkel en alleen maar gefocussed op geld boven leven en maatschappelijke wensen. Bedrijven als Uber moeten daarom naar mijn idee verbannen worden van het experimenteren met Autonomie en AI. Hier zouden betere richtlijnen voor geschreven moeten worden en vergunningen voor gedeeld moeten worden die enkel bedrijven die de veiligheid voorop stellen de mogelijkheid geeft hier de enige risico's in te nemen wanneer daar genoeg veiligheids netten voor zijn.

Auto Pilot bijvoorbeeld is nu al velen malen veiliger dan gemiddelde weg gebruiker op de snelweg al is het zeker niet water dicht zie ik wel dat dat betere data is dan een merk wat er zelf voor kiest om veiligheids functies uit te zetten omdat dubbele veiligheid niet gewenst vind en liever een lek achter laat.
Omdat als ze een smart gebruiken alleen een gek nog de chauffeur wil zijn. Gevoelsmatig verander je dan van tester tot dummy.
Het is duidelijk dat de auto 5.6 seconde al iets zag. Dat is een mooi lange tijd. Alleen was het niet duidelijk wat het zag, en daar ging het mis. Pas 1.2 seconde voor het ongeluk was alles duidelijk. Wat me uitermate verbaasd is dat er gedurende die 4.4 seconde daarvoor gewoon de snelheid van 70 km/h is vastgehouden. Ik snap dat je niet meteen op de rem kan trappen, dat geeft te veel positives. Maar je probeert allicht wel je snelheid aan te passen. Reduceer het desnoods tot 60 km/h. Dat is zo weinig dat achterliggend verkeer er niet direct last van heeft, maar de remweg en botsenergie gaan meteen 26% omlaag (beiden gaan kwadratisch met de snelheid). Het geeft de software ook nog eens 0.8 seconde langer de tijd gehad (voordat het op de plaats van botsing was geweest).

Alleen al het feit dat men zich zorgen maakte over het aantal false positives geeft aan dat dit een testsysteem was. Maar juist dan zorg je dat de software aan de veilige kant gaat zitten, in plaats van het uit te schakelen en je snelheid bij twijfel aan te houden, en dan ook nog eens een seconde te wachten voor in te grijpen.

Voor mij is dit werkelijk onbegrijpelijk. Ook al had die mevrouw daar niet mogen oversteken, het klinkt alsof Uber hier basisbeginselen van een veilig design aan de laars heeft gelapt en nu reactief reageert in plaats van daar van te voren over na te denken.
Een recent artikel in de Volkskrant over zelfrijdende auto's vat goed samen waarom het nog wel even zal duren voordat het echt zover is: https://www.volkskrant.nl...rlopig-verdampt~b5794dcf/
De stelling die daar wordt gemaakt dat het nog decennia kan duren of zelfs nooit is natuurlijk wel heel erg doomdenkend zijn. De huidige stand van AI werd op dezelfde manier weerlegt decennia geleden door veel critici, aan de andere kant waren er anderen die het al veel eerder hadden verwacht/gehoopt. Het is met dergelijke ontwikkelingen altijd afwachten wanneer de breakthrough komt en hopelijk wordt deze dan niet ergens onder een tapijt geveegd omdat een bepaalde industrie hier niet op zit te wachten zoals heel lang de situatie is geweest bij de oliemaatschappijen...

Bedrijven zoals Uber die overal shortcuts in snijden zijn een hele slechte indicator en doen deze branch meer schade aan dan dat ze helpen. Maar dat vonden we al toen werd aangekondigd dat Uber hiermee ging testen. We zagen dit aankomen en alsnog kregen ze toestemming om te gaan testen op de openbare weg...

'Shit happen!', dat is een uitspraak die helemaal waar is, maar 'Shit happens more if you don't give a shit!' zoals Uber...
Het is een basaal artikel wat voor jan en alleman is geschreven, ik zou er weinig van geloven. Neem als voorbeeld:
Hier schuilt een probleem: niemand weet precies hoe ver de techniek momenteel is. Om te weten of een robotauto 20 procent veiliger is dan een menselijke bestuurder, zouden robotauto’s acht miljard kilometer moeten afleggen, berekende onderzoeksinstituut Rand Corporation destijds. Vertaald: honderd zelfrijdende auto’s zouden 24 uur per dag gedurende een periode van 225 jaar moeten rondrijden om de stelling te bewijzen.
Zo werkt dit helemaal niet. Google (en alle andere) simuleren miljarden kilometers binnen software. Niet alle scenario's kunnen zo getest worden maar hier worden zeker valide data mee gegenereerd. Zoals het in het artikel gepresenteerd wordt is helemaal niet relevant. Tesla pakt bijvoorbeeld een heel andere aanpak (agile) waarbij ze steeds kleine verbeteringen brengen. Autopilot van vorig jaar is totaal anders dan dit jaar. En niemand weet hoe ver het is? Dus Waymo doet maar wat? Echt een domme uitspraak..

Het gaat echt nog wel even duren maar gezien de miljarden die er in gestopt worden zal het sneller gaan dan men denkt. Mensen denken alleen dat het vandaag of morgen plots een autonome auto staat. Zo werkt het niet.
Klinkt allemaal heel schadelijk voor Uber. Dat gezegd zijnde, is het in sommige gevallen ook voor mensen heel moeilijk om dit soort ongevallen te vermijden. Als je de persoon al 5 seconden kan zien is dat argument niet helemaal geldig, maar dat hangt sterk van de situatie af. Misschien droeg de vrouw wel volledig zwarte kleren in het donker, en kwam ze twijfelend tussen auto's uit?
Ik weet niet of je destijds de beelden gezien hebt, er is toen ook veel over gediscussieerd.
https://www.youtube.com/watch?v=Cuo8eq9C3Ec
Op de beelden lijkt het heel donker maar ik dacht dat dit in de realiteit niet zo was en dat het eerder door de camera zelf kwam. De echte details weet ik niet meer.

Maar zoals op de video te zien is, steekt de vrouw gewoon over in een verlaten weg.
Zelfs al zou het veel te donker zijn om ook maar iets te zien dat moet je daar je snelheid aan aanpassen.
Maar wederom, ik betwijfel dat het echt zo donker was aangezien er wel straatverlichting zichtbaar is.
Artikel over de belichting. Het was idd niet zo donker als Uber wilde doen geloven.
https://arstechnica.com/c...ws-dont-believe-it/?amp=1
Ik geloof zelf ook zo iets. Maar dat de vrouw in zwarte kleding net voorbij de straat verlichting oversteekt helpt niet om het te kunnen zien. Ook zijn er geen reflecterende opervlakten op de fiets of persoon. Anders hadden de koplampen wel iets kunnen bieden. Ik zou zelf na een lange werkdag ook niet gefocust genoeg zijn om optijd te kunnen reageren.


Een Volvo met koplampen zo laag dat je net een auto voor je kan zien... Dat is dus nooit genoeg.
Ik zou zelf na een lange werkdag ook niet gefocust genoeg zijn om op tijd te kunnen reageren.
Dan moet je niet in de auto stappen.
Hetzelfde met drugs, alcohol of wat dan ook; als je niet meer in staat bent om adequaat te reageren, dan moet je niet in de auto stappen.
Tja, is een luiheid van een lege 70km weg zonder overgangen net voorbij een verlicht deel. Als ik even niks zie. Ga ik er ook niet vanuit meteen daarna een voetganger te mogen verwachten. Dat ik dan maar 2s reactie tijd heb om van 70 naar 0 te gaan. is gewoon onmogelijk. Wat ik bedoel is dat op zo een weg mijn reactie tijd niet 0.2 s maar eerder 1s is. Gewoon omdat je de situatie niet verwacht of aan kan zien komen.
(Gebaseerd op de video van het ongeluk)

Neem dan mee dat mijn ogen toch wel wat beter zijn dan die camera had ik misschien 3-4s gehad. Is nog niet bijzonder veel.
Vandaar dat ik van mening ben dat ik niet veel meer had kunnen doen om toptijd te stoppen. Dan was het misschien geen fataal ongeluk geweest maar zeer zeker een zware.
EDIT
Verder zoekend op de analyse van het ongeluk blijkt het lang niet zo donker te zijn op de betreffende weg. Prima zicht en had dit makkelijk kunnen worden gezien.

[Reactie gewijzigd door Tim Lamein op 6 november 2019 09:15]

3-4 s is alsnog voldoende voor een aardige snelheidsvermindering iets waar de voetganger waarschijnlijk erg blij mee zou zijn geweest, in de praktijk zou je niet hoeven te remmen en had je er gewoon omheen kunnen sturen want best wel een zee van ruimte aldaar.

In principe moet je kunnen remmen in de afstand die je kunt overzien anders kun je wel overal bovenop knallen, al was het maar een pallet die door "kwajongens" op de weg is gelegd.
Mijn verwachting dat het mij niet was gelukt is gebasseerd op de video van uber waarbij op die weg bijna niks voor de auto zichtbaar is.
Maar die video is misleidend want in werkelijkheid is de situatie veel lichter.

https://arstechnica.com/c...-shadows-dont-believe-it/
Ja dat is waar mijn edit op een stuk hierboven vandaan kwam. Daarom ook hierboven "mijn verwachting was gebasseerd op de slechte zichtbaarheid van de uber video"-reactie
Dat klinkt theoretisch leuk, maar dan kan niemand meer na een dag werken de auto in.

We weten allemaal dat er momenten op een dag zijn dag je goed uitgerust bent, en dat je vermoeid bent. Wij zijn geen robots.

Voor jezelf moet je natuurlijk wel uitmaken of je tè vermoeid bent om te rijden. Even een powernap nemen doet wonderen.
Het ongeval is gebeurd om 22h op 18 maart. Even opgezocht: in die periode van het jaar is het op die plaats vanaf 20h donker, dus om 22h al helemaal. Het is wel geen verlaten weg, maar een "avenue", die waarschijnlijk wel redelijk verlicht was door straatlampen.

Toen de software de vrouw "zag" (wat niet wil zeggen dat een menselijke chauffeur dit op hetzelfde moment zou opmerken), was de auto nog 5,5 seconden verwijderd. Had de software zijn werk gedaan, was de auto makkelijk tot stilstand gekomen. De XC90 heeft een noodrem systeem dat 7m/s² kan afremmen, dus dan sta je na 3 seconden stil bij 70km/h. Had de auto meteen geremd toen hij uiteindelijk het gevaar had gedetecteerd, was hij er nog steeds met 40km/h opgekwakt. Dan was de aanrijding misschien niet dodelijk geweest, maar toch nog steeds ernstig. De fout zit hem dus niet in die laatste "false positive" filter, maar in de hele serie interpretaties die daaraan voorafgaan.

Dat gezegd zijnde, de vrouw kon de auto zien aankomen op het moment dat ze begon over te steken, en stak toch (schuin dan nog) de baan over op een plaats waar die nog eens breder was dan normaal (door twee stroken om af te slaan). Niet dat het ongeval hierdoor haar schuld is, maar het kan ook niet echt een veilige handeling genoemd worden.
Ik dacht dat het ongeluk wel de schuld was van de overstekende vrouw. Die had geen voorrang op de auto. Dat zij de "zwakke verkeersdeelnemer" was doet daar niets aan af.
Was het geen handige beslissing? Ja. Maar de auto had meer dan genoeg tijd om de juist beslissing te nemen - hetzij af te remmen, hetzij een correctie naar de linkerbaan uit te voeren. Zie ook de discussie op https://twitter.com/KostelecPlan/status/1107999338133778443 - de situatie daar is voor voetgangers niet prettig, de vrouw die om het leven kwam was niet de eerste, enige noch de laatste die daar over stak vanwege een flut verkeersituatie.
Die had ik nog niet gezien, goede aanvulling!
Gezien de donkerheid van de beelden zou je bijna geneigd zijn om te zeggen dat de bestuurder van de auto het niet had kunnen zien aankomen, maar ik weet uit ervaring inderdaad dat een dashcam vaak niet zo goed om kan met donkere omgevingen.
In elk geval was de fietser duidelijk genoeg te onderscheiden van andere objecten met de juiste systemen (ze stond in het midden van de weg, niet achter een auto o.i.d.).
Je gaat je wel afvragen, als het donker en verlaten was, en de auto neem ik aan z'n koplampen aan had, hoe kan het slachtoffer de auto dan niet gezien hebben?

Niet bedoeld als een 'eigen schuld dikke bult'-vraag, maar eerder: als het slachtoffer door omstandigheden de auto niet heeft gezien, kan het dan niet zo zijn dat die zelfde omstandigheden ook andersom (deels) het slachtoffer slecht zichtbaar gemaakt hebben? Of op z'n minst deels verantwoordelijk waren voor de misclassificatie van de voetganger.
Kan het me verkeerd herinneren, maar volgens mij zit vlak voor het stuk waar het ongeluk gebeurde een flauwe bocht met de versperring van een pijler van een viaduct. Op het moment dat de vrouw begon met oversteken was de auto niet zichtbaar voor haar. Vraag is wel waarom ze zo langzaam met oversteken was.
De beelden zijn ietwat onbetrouwbaar omdat deze een donkerdere situatie schetsen dat wellicht daadwerkelijk het geval was. Ook het instellen van 1 seconde uitstel klinkt onhandig.

Maar het uitschakelen van het Volvo systeem, dat snap ik ergens wel. Bijvoorbeeld Mazda, bouwt bij al haar auto’s sinds 2012 een laser en camerasysteem in voor noodstoppen in de stad tot 30km/u, SCBS. Echter, wat de fabrikant niet communiceert naar buiten is dat het systeem eigenlijk altijd aan staat maar niet actief ingrijpt.

Dus op de snelweg en op 60/80 wegen, werkt het systeem nog altijd maar dan in de zogenaamde “pre-crash” stand. Met allerlei onbedoelde bijgevolgen.

Zo rijd je op een zeer drukke snelweg 110 of 120 en alles wat je nadert binnen 20/25 meter en ook maar marginaal langzamer is dan jij bent, schiet het systeem ongemerkt aan. De remblokken gaan alvast dicht op de remschijven staan en de rembekrachtiger gaat maximaal werken.

Als je dan ook maar het pedaal aanraakt, rem je zeer krachtig en dus onbedoeld harder dan de bedoeling was. Ook spannen de gordels vast aan en in sommige gevallen schiet de auto in een “Limp-mode”, waarbij je dashboard verandert in een kerstboom met allerlei lampjes en waarschuwingen. Een modus dat voorkomt dat de auto na een ongeval nog door kan schieten of rijden met maximale snelheid. De enige wijze waarop je de “Limp mode” uit kan schakelen is dus de eerst volgende afrit of parkeerplaats stoppen en de motor uit en aan te zetten.

En dat allemaal omdat je 25m (net iets meer dan een vrachtwagenlengte) afstand houdt en men dat verkeerdelijk aanziet als een uitnodiging om kort voor je in te voegen.

Daarom begrijp ik wel dat Uber dit soort grappen liever uit dan aan heeft staan en daarmee de autonome software niet in de war wilt brengen. Want die kan net als een mens moeilijker anticiperen op een situatie als de auto zich niet langer voorspelbaar gedraagt.
Ik weet niet of het volvo systeem het zelfde is als die van Mazda
ik rijd zelf een Volvo V40
en ik heb zo nu en dan dat wanneer ik thuis inparkeer dat de auto vol in de rem gaat omdat de begroeiing zo dicht is dat hij denkt dat ik tegen een muur ga aanrijden wat dus niet zo is en dus iedereen in de auto tegen de voorruit aangeplakt zit en dan rijd ik volgens mij helemaal niet hard het parkeer vak in.

Had dat systeem aangestaan had die vrouw het misschien wel overleefd.
De Volvo en Mazda systemen zijn vrij vergelijkbaar maar de consequenties van de systemen zijn wel verschillend. Ook de technologie verschilt ietwat. Volvo gebruikt radar en een camera. Mazda gebruikt radar en infraroodlasers plus een camera. Ze detecteren nagenoeg gelijk maar de effecten verschillen. Zo kan het Mazda systeem al panikeren en een noodstop maken omdat je een slagboom iets te dicht nadert. Of wanneer je iemand te dicht nadert op de snelweg.

Ook de pre-crash systemen zijn vergelijkbaar maar die van Mazda staat iets te streng afgesteld. De Volvo grijpt in na meldingen van een impact, de Mazda ervoor al.

Leuk voor de fabrikant, zo zijn ze sinds 2017 of 2018 de “top safety pick” van de NHTSA in de VS, iets minder leuk voor de bestuurders en inzittenden.
Het zou mooi zijn als een systeem als deze kan voorkomen dat er ooit iemand doodgereden wordt. Als je ziet hoeveel er mis gegaan is zou dat misschien ook wel kunnen. Maar
  • Oversteken op een plek waar dat niet is toegestaan
  • Oversteken in het donker (waarschijnlijk zonder verlichting, reflectors weet ik niet)
  • Oversteken waar men 70 km/uur mag rijden
Ik heb alle drie wel eens gedaan, maar tegelijkertijd? Dat is toch vragen om (dodelijke) ongelukken? Ik zou iedereen op willen roepen dit nooit te doen!
edit:
Volgens mij zijn dit beelden van vlak voor het incident

[Reactie gewijzigd door 84hannes op 6 november 2019 11:29]

De camera beelden zijn duidelijk (al dan niet met opzet) donkerder dan werkelijk. Ze steekt recht onder 2 lantarenpalen over en is zogenaamd pas het laatste moment zichtbaar. Indien de zichtbaarheid daadwerkelijk zo kort is, moeten de koplampen op een hoger standje gezet worden, als je zo gaat rijden ben je werkelijk een idioot en kan je uiteraard nergens op tijd op reageren.
De chauffeuse is hier 100% schuldig door überhaupt niet vooruit te kijken.
Uber is medeverantwoordelijk door zoveel vertraging in een noodsysteem in te bouwen. Computer moet juist sneller dan de mens reageren en niet onze extra lange vertraging hebben van zien, verwerken, reageren.

Dat er geen zebrapad is, betekent niet dat je niet mag oversteken. Niemand loopt honderden meters door voor een zebrapad.

[Reactie gewijzigd door HakanX op 7 november 2019 09:04]

Dat er geen zebrapad is, betekend niet dat je niet mag oversteken. Niemand loopt honderden meters door voor een zebrapad.
Dat betekenT dat wel, als je dat VEILIG kan !!
De kruising verderop staat ook als gevaarlijk bekend voor voetgangers, en op de plek van het ongeval word veelvuldig overgestoken door voetgangers en fietsers omdat het qua route een logische verbinding is tussen twee punten.

Maar goed dat is een fout van de wegbeheerder om dit soort situaties te laten ontstaan, daarvoor zijn er verkeerspsychologen die menselijk gedrag voorspellen afhankelijk van de situatie.
Mijn mening is dat er 3 schuldigen zijn.

Te beginnen met het slachtoffer. Dit schrijf ik uiteraard niet graag, want normaal gesproken is victim blaming not done. Echter, uit de beelden is op te maken dat de oversteker achteloos oversteekt. Op geen enkel moment wordt links of rechts gekeken. Ook al was het niet pikkedonker, het was duister.

Stel je dat eens voor. Een relatief donkere weg en een auto met licht die aan komt rijden. Dit voertuig op geen enkel moment aankijken of de aanwezigheid ervan opmerken...dat is toch bijzonder. Ik meen gelezen te hebben dat de vrouw mentale problemen had, anderen zeggen een zwerfster.

Wat uiteraard geen misdaad is, maar de oversteek aktie zelf is onderdeel van het ongeluk. Zo steek je gewoon niet over.

De tweede schuldige is de bestuurder. Welke aan een test deelneemt waarbij je behoort in te kunnen grijpen maar deze plicht naast zich neerlegt. Ik vind het geen hoofdschuldige, maar het draagt bij aan de uitkomst.

Tot slot acht ik Uber de hoofdschuldige. Zij zijn immers de vervangende bestuurder, met hun software. De vraag of de oversteek aktie legaal of illegaal is, is in feite niet relevant. Een systeem dient rekening te houden met verkeersovertredingen aangezien dat dagelijkse kost is op de weg.
Klinkt als victim blaming.

Natuurlijk is het niet handig om daar over te steken, maar dat praat het niet opletten van de bestuurster en het niet hebben (dan wel actief uitschakelen) van een deugdelijke botsdetectie niet goed.
Was ze victim of was ze de veroorzaker van het ongeluk?

Dat wij hier in Nederland de zwakke verkeersdeelnemer een juridische basis geven om zich als complete idioten in het verkeer te begeven, wil nog niet zeggen dat een auto elk ongeluk moet kunnen voorkomen.
Dat ben ik helemaal met je eens en heb ik ook geprobeerd duidelijk te maken met
Als je ziet hoeveel er mis gegaan
Overigens wil ik
het bedrijf bang was voor teveel false positives.
wel een beetje goedpraten. Als een veiligheidssysteem steeds onnodig ingrijpt dan zetten gebruikers het uit. Een veiligheidssysteem dat heel veel false positives voorkomt en daartegenover in een uitzonderlijk geval een false negative geeft, is wellicht veiliger (omdat het gebruikt wordt) dan een systeem dan nooit false negatives heeft, maar wel regelmatig false positives (omdat het uitgeschakeld wordt).
wel een beetje goedpraten. Als een veiligheidssysteem steeds onnodig ingrijpt dan zetten gebruikers het uit.
Voor een driver assist techniek zou je dat misschien nog wel kunnen zeggen.
Voor iets wat een volledig autonoom rijdende auto wil produceren is het verhaal wel even anders.
Je rijdt of autonoom of niet. Als je veel false positives hebt is er gewoon iets mis met je manier van autonoom rijden.
Ja en nee. Als auto's altijd kunnen remmen krijg je situaties waarbij voetgangers zonder kijken een drukke baan oversteken. De auto stop toch vanzelf, maar jij plakt wel samen met je koffie tegen je voorruit. Voetgangers en fietsers moeten hun verantwoordelijkheid blijven nemen en niet zomaar eender waar en zeker niet eender wanneer een baan oversteken.
Ik heb zelf ook al wel eens een baan met 2+2 rijvakken waar men 70km/u rijdt overgestoken, in het donker, zonder licht,... omdat het volgende zebrapad te ver was. Maar dan wacht je tot er geen verkeer aan komt en loop je naar de overkant.
Ja en nee. Als auto's altijd kunnen remmen krijg je situaties waarbij voetgangers zonder kijken een drukke baan oversteken. De auto stop toch vanzelf, maar jij plakt wel samen met je koffie tegen je voorruit. Voetgangers en fietsers moeten hun verantwoordelijkheid blijven nemen en niet zomaar eender waar en zeker niet eender wanneer een baan oversteken.
In het verkeer dient iedereen zijn best te doen om een ongeluk te voorkomen.
Dit is nu ook hoe het werkt, je houdt een beetje rekening met fouten van anderen omdat je zelf ook wel eens iets doms doet of iets niet ziet.
Technisch voorrang hebben is dus geen excuus. Als je kunt remmen om een ongeluk te voorkomen dan doe je dat.
Juist, net zo goed als dat jij geen gevaarlijke situatie veroorzaakt. Ongelukken gebeuren door de regel pas als 2 weggebruikers een fout maken, waar het best kan zijn dat 1 ervan in overtreding is en de ander slechts onoplettend.

Laten we niet vergeten dat er genoeg bijna ongelukken zijn die voorkomen orden doordat de andere partij wel oplette.
Dat ben ik helemaal met je eens
Dus moet je niet doen aan victim blaming. Het slachtoffer deed niets illegaals.
Overigens wil ik
[...]
wel een beetje goedpraten.
Ik niet. Het systeem is in ontwikkeling. Van elke false positive kan het leren. Anders krijg je nooit een werkelijk autonome auto.

[Reactie gewijzigd door The Zep Man op 6 november 2019 08:36]

Oké laten we voor het gemak doen alsof het slachtoffer niets illegaals deed, dan nog is het toch gewoon ontzettend dom? Er komt een auto aanrijden die zijn verlichting aan heeft, maar je loopt gewoon door?

Als je hier in Nederland jezelf verstopt achter een boom naast een zebrapad, en zodra er een auto aankomt ren je ineens de weg over, dan doe je in principe ook niet illegaals maar ben je wel ontzettend dom bezig.
Euh jawel, je doet dan wel iets illegaals, je overtreed dan namelijk artikel 5 van de wegenverkeerswet.

"Het is een ieder verboden zich zodanig te gedragen dat gevaar op de weg wordt veroorzaakt of kan worden veroorzaakt of dat het verkeer op de weg wordt gehinderd of kan worden gehinderd"

Daarnaast hoef ik alleen voorrang te verlenen aan voetgangers die reeds oversteken of waarvan duidelijk is dat zij dit gaan doen.

RVV Art: 49 Lid: 2

"Bestuurders moeten voetgangers en bestuurders van een gehandicaptenvoertuig, die op een voetgangersoversteekplaats oversteken of kennelijk op het punt staan zulks te doen, voor laten gaan."

Tevens is voorrang geven een plicht, maar is voorrang nemen geen recht.

Dus ja je hangt. (aan mijn bumper, en wettelijk)
[...]
Het slachtoffer deed niets illegaals.
Behalve oversteken waar 't niet mag, toch?
Het slachtoffer deed niets illegaals.
Is dat zo, mocht ze daar oversteken?
Zo ja, had ze 'voorrang'?
Is victim blaming zo iets negatiefs dan?

Als je als een kip zonder kop, zonder op te letten, in het donker, een 70KM/U weg oploopt heb je gewoon ook schuld.

En natuurlijk niet ALLE schuld, want die vrouw in de auto was ook met andere dingen bezig (is overigens ook slachtoffer) en is dus mede schuldig, en die software engineer die de veiligheids software uitzet om je eigen beta software beter te testen heeft ook schuld. Maar die overstekende persoon heeft zeker ook schuld aan het ongeval. Dat deze persoon ook slachtoffer is doet daar weinig aan af.
Is victim blaming zo iets negatiefs dan?

Als je als een kip zonder kop, zonder op te letten, in het donker, een 70KM/U weg oploopt heb je gewoon ook schuld.
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt dan heb je gewoon ook schuld."

De fietser deed niets illegaals. De bestuurder wel, want die lette niet op. Het systeem (en de bestuurder) had vijf seconden om te reageren en deed dit niet. Het is niet alsof de fietser plots op het laatste moment voor de auto sprong (zoals bij verzekeringsfraude), gekeken naar de opname.

Een slachtoffer heeft geen schuld. Een dader wel. De fietser is geen dader.

Verder moeten autonome auto's aan een hogere standaard voldoen dan dat menselijke bestuurders hebben. Anders worden ze maatschappelijk niet geaccepteerd. Hierom mogen de verwachtingen gerust hoog gelegd worden voor dit soort systemen, en mogen dit soort fouten niet voorkomen. Totdat de auto volledig autonoom is blijft tevens de bestuurder net zo verantwoordelijk als bij een conventionele auto. Immers is er zonder volledige autonomie enkel sprake van rijassistentie.

[Reactie gewijzigd door The Zep Man op 6 november 2019 08:50]

De fietser deed niets illegaals.
Ze was aan het 'jaywalken'. Iets wat wel illigaal is in America
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt en je doet dit tijdens spertijd dan heb je gewoon ook schuld."

Laten we iets dat in zeldzame gevallen door beperkte handhaving een boete oplevert tussen de $1 en $1000 niet vergelijken met iemand dood rijden.

[Reactie gewijzigd door The Zep Man op 6 november 2019 08:56]

Dat soort regels zijn er om ongelukken te voorkomen.. overtreed je de regels dan is er een verhoogde kans op ongelukken.
1. Je maakt ZELF de vergelijking...
2: overigens is naast die boete, ook de kans op een ongeluk groter.... zoals hier... daarom hebben we verkeersregels.
2. Een verkrachter pleegt bewust een misdrijf
3. De aanrijding is niet bewust veroorzaakt, het is een ongeluk, de bestuurder van de auto is net zo goed slachtoffer als de wandelaar en beide zaten niet op te letten.
4. Als men niet wilt leren van de fouten die gemaakt zijn aan beide kanten, dan gebeuren dit soort ongelukken meer en meer. Helaas gebeuren dit soort ongelukken al regelmatig met menselijke bestuurders.
Verder moeten autonome auto's aan een hogere standaard voldoen dan dat menselijke bestuurders hebben. Anders worden ze maatschappelijk niet geaccepteerd. Hierom mogen de verwachtingen gerust hoog gelegd worden voor dit soort systemen, en mogen dit soort fouten niet voorkomen. Totdat de auto volledig autonoom is blijft tevens de bestuurder net zo verantwoordelijk als bij een conventionele auto. Immers is er zonder volledige autonomie enkel sprake van rijassistentie.
Dit is inderdaad een punt. dit is ook waarom tesla's etc niet als automoon voortuig gezien worden volgens mij. Het is allemaal nog niet goed genoeg en af en toe moet een bestuurder ingrijpen (ook al voldoen ze volgens mij al aan een hogere standaard dan menselijke bestuurders als je de data van Tesla voor waarheid aanneemt)

Maar is serieus je enige maatstaaf voor "schuld" de uitkomst van iets?
Een slachtoffer kan weldegelijk mede schuldig zijn aan zijn/haar eigen slachtoffer zijn... (een overvaller die neergeschoten wordt als extreem voorbeeld)
[...]
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt dan heb je gewoon ook schuld."
Appels met citroenen
Een slachtoffer heeft geen schuld. Een dader wel. De fietser is geen dader.
Oversteken op een plek waar dat niet is toegestaan
Oversteken in het donker (waarschijnlijk zonder verlichting, reflectors weet ik niet)
Oversteken waar men 70 km/uur mag rijden

Dat zijn 3 regels overtreden en dat betaal je soms met je leven in het verkeer...
Dat is minstens gedeeltelijke schuld
Ik weet niet welk filmpje jij gezien hebt, maar vanaf dat de overstekende vrouw te zien is heeft de bestuurder niet meer dan 2 seconden de tijd om in te grijpen. Haal er 1 seconde reactietijd af en je zit op minder dan 1 seconde om daadwerkelijk te reageren. Als de vrouw op dat moment geremd had dan was het misschien anders afgelopen, maar deze aanrijding was mijn inziens niet te voorkomen door de bestuurder.

Dat de auto de voetganger al ruim van te voren had kunnen en moeten detecteren is een ander verhaal.
Ik weet niet welk filmpje jij gezien hebt,
Jazeker. En de camerabeelden zijn een stuk donkerder dan dat de werkelijkheid is, gekeken naar het straatlicht. Tevens lette de bestuurder niet op.

[Reactie gewijzigd door The Zep Man op 6 november 2019 09:11]

Als het meisje in het korte rokje voorover buigt en iemand praktisch uitnodigt is het haar schuld.
Als het meisje in het korte rokje aan de kant van de weg staat is het niet haar schuld.
Inderdaad. Punt. Belachelijk om het anders te stellen. 8)7
[...]
"Als je als meisje, met een kort rokje, door een donkere steeg loopt in een ongure buurt dan heb je gewoon ook schuld."
Er bestaat ook iets als gezond verstand, helaas houden de mensen zich niet volledig aan wetten en gebeuren er foute dingen. Als de wereld zo netjes was zou je als blanke persoon geen problemen hebben om door steegjes te lopen in Rio. Helaas is de wereld niet zo.

Er zijn fouten gemaakt aan beide kanten in dit verhaal en helaas heeft dat een leven gekost.
Maar alle schuld op 1 kan schuiven is ook niet netjes, want laten we eerlijk zijn oversteken lopend met een fiets in het donker is niet zo verstandig.
Victim baming. Nee. Maar het blijft toch echt de verantwoordelijkheid van beide personen.
Nou, er is vind ik een verschil tussen victim blaming en aangeven dat het slachtoffer deels verantwoordelijk is voor een ongeval door de verkeersregels op onveilige manier te overtreden.

Als ik door rood rijd en wordt doodgereden door een vrachtauto zal men ook zeggen: "Niet slim om door rood te rijden". Is dat dan victim blaming, of gewoon niet slim van mij?
Ja deeloplossing is natuurlijk ook een voertuig dat autonoom rijdt duidelijk te maken. Bv fluo geel met groene lamp op het dak. Als duidelijk is dat het autonome auto's zijn, gaan mensen er omheen hier hopelijk op acteren. En trein zal bv niet gauw de schuld krijgen van een aanrijding met voetganger, omdat verondersteld mag worden dat de voetganger oppast.

Als dit met autonome auto's gebeurt, hoef je de techniek niet op alle voetganger situaties voor te bereiden.
Wat een onzin. Als voetganger moet je er altijd vanuit gaan dat een auto jou niet ziet, autonoom of niet. Met al die whatsappende mensen achter het stuur tegenwoordig...
Dan heb je dus ook die software aanpassingen niet nodig;)

Maar is niet waar wat je zegt natuurlijk. Binnen de bebouwde kom is de auto eigenlijk altijd schuldig momenteel.
Maar is niet waar wat je zegt natuurlijk. Binnen de bebouwde kom is de auto eigenlijk altijd schuldig momenteel.
Dat is maar een schrale troost als jij degene bent die in het ziekenhuis of grafkist ligt...
Het gaat niet om regels, het gaat om zelfbescherming.

[Reactie gewijzigd door kozue op 6 november 2019 08:44]

Tja, daar gaat het dus totaal niet om. We kijken alleen wie er schuld heeft en dus moet betalen.
Werk jij bij een verzekeringsmaatschappij ofzo? Er is iemand doodgereden en jij maakt je zorgen om wie er moet betalen? Daar zal het slachtoffer zich vast nog een paar keer voor omdraaien in haar grafkist...
Nee niet voor een verzekering nee. En we hebben het hier over ongelukken met autonome auto's en hoe daar mee om te gaan, niet met de dood van iemand die ik niet ken en er zelf ook best wat aan had kunnen doen om te voorkomen.
Hoe het in de VS werkt weet ik niet, maar hier ben je als bestuurder zelf verantwoordelijk. Die had op de weg moeten letten en niet op haar mobiel.
En of je het slachtoffer wel of niet kent is irrelevant, jij kan de volgende zijn. Boeit het je dan ineens wel?
Headline van morgen: “autonome auto herkende zebrapad niet in het donker”. Veel plezier de komende donkere maanden.
Je doet nu aannames. Ik heb het over de juridische schuldvraag. Als je dat niet kan scheiden van de rest is het lastig discuseren
Zo gaat dat altijd :
Als een dronken, veel te' snelle chauffeur jouw in het donker overstekende , daar waar het niet mag , zonder verlichting /reflectoren tienerkind doodrijdt , gaat de rechter bepalen of het ongeval ook in nuchtere toestand had plaats gevonden. (ja dus ...)

En dat bepaalt wie mag betalen.
Tja, daar gaat het dus totaal niet om.
Als mens zou het daar wel degelijk om moeten gaan.
'Leuk' dat de auto misschien schuldig is maar daar heb je weinig / niks aan als jij voor de rest van je leven invalide bent.
Een beetje nadenken en 'defensief' deelnemen aan het verkeer kan geen kwaad, vooral als kwetsbare verkeersdeelnemer maar ook gewoon in de auto.

[Reactie gewijzigd door Olaf van der Spek op 6 november 2019 08:56]

Zeker, maar staat los van de schuldvraag
En dat staat weer los van de vraag wie aansprakelijk is.
Tegenwoordig gaat het bijna alleen om de juridische kant. Dat deze bestuurster wellicht de rest van haar leven herbelevingen heeft is niet belangrijk als ze juridisch gezien maar deels schuld heeft.
Ik weet niet of je bekend bent met de ring in Eindhoven? 70KM/u, 2x2 rijstroken en meer dan genoeg mensen die niet op de aangewezen plekken oversteken of geen zin hebben om op groen te wachten. Ik, als mens zou daar altijd op reageren en een basisvereiste voor een zelfsturende auto lijkt me dat die dat ook kan. Anders is het zeer, zeer kwalijk dat dit ding ooit op de weg is toegelaten.
Hij is toegelaten omdat er een bestuurder in zit die moet opletten.
Er is ooit een filmpje uitgelekt waar je haar ziet zitten (er zit een cam in de cabine gericht op de bestuurder in die auto’s). Ze zit gewoon op haar mobiel te kijken en niet op te letten. Dat is een deel van de oorzaak van dit ongeluk.
Wat is “niet toegestaan”? Als je alleen bij een zebrapad over mag steken zou je de meeste wegen helemaal niet over mogen steken want zebrapaden kom je meestal alleen bij kruisingen tegen. Volgens mij steken dagelijks vele mensen een weg over in het donker waar je 80 km/u mag.

Nee hoor, er is hier maar 1 schuldige: de bestuurder van de auto die blind vertrouwde op een computer om haar werk te doen. Al die zelfrijdende meuk van tegenwoordig is een hulpmiddel, meer niet. Je moet als bestuurder nog steeds je aandacht op de weg houden, zelfrijdend of niet.
De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg.
Sterker nog, de hoofdtaak van de bestuurder was om in te grijpen als de auto iets niet goed deed, zodat Uber daar aan kan werken.
Exact!!! Dat is hier ook de kern van de zaak. De bestuurder zat daar om in te grijpen indien het systeem zou falen. Dus als laatste vangnet.

Ze zat daar dus niet om aan te tonen hoe ontspannen je met andere dingen bezig kunt zijn terwijl je ontzorgd wordt door een autonoom voertuig besturingssysteem.
Het is toch echt Uber geweest die wegens 'kosten' de testers voor een minimale vergoeding veeeel te lang liet rijden, en dan ook nog alleen.

Zoals gebruikelijk als het over Uber gaat is de onethische, corrupte bedrijfscultuur binnen dat bedrijf dus weer de schuldige.
Volgens mij steken dagelijks vele mensen een weg over in het donker waar je 80 km/u mag.
en daar lees je over in de krant , als ze op een weekend werden doodgereden.
Nee hoor, er is hier maar 1 schuldige: de bestuurder van de auto die blind vertrouwde op een computer om haar werk te doen. Al die zelfrijdende meuk van tegenwoordig is een hulpmiddel, meer niet. Je moet als bestuurder nog steeds je aandacht op de weg houden, zelfrijdend of niet.
Neen, de vrouw had de wagen moeten zien aankomen en/of héél snel oversteken.
Ze is, zoals 84H aangeeft op 3 punten in fout.
[/quote]
Nee, de menselijke bestuurder had alles binnen haar mogelijkheden/vermogen moeten doen om een dodelijk ongeluk te voorkomen. Immers, zij is de minst kwetsbare in de situatie. Dat brengt een zekere verantwoordelijkheid met zich mee. (want ze kan er vanuit gaan dat niet ingrijpen nauwelijks tot eigen letsel zal leiden, maar des te meer bij de andere partij).

Echter, die heeft helemaal niets van dien aard ondernomen, en het dus gewoon laten gebeuren. Dat maakt haar schuldig.
U bent jurist / advocaat/ rechter? Enige ervaring met rechtspraak?

Nope ...

[Reactie gewijzigd door OxWax op 6 november 2019 11:50]

Ik ben geen jurist, noch rechter, maar inderdaad wel de nodige ervaring met dergelijke (recht)zaken waarbij ik bijstand heb gehad van een advocaat. Zowel als (verkeerstechnisch) veroorzaker als slachtoffer. En ik kan je vertellen: Het is niet zo zwart/wit als in de wegenverkeerswet is vastgelegd. Zo speelt er altijd nog de invloed van diverse omstandigheden, waarbij er ook nog eens geen automatische koppeling is tussen schuld en aansprakelijkheid. En da's maar goed ook.

Overigens zijn dergelijke 'zachtere' bepalingen al beter vastgelegd in de BPR en RPR (Binnenvaart Politie Reglement en Rijnvaart Politie Reglement). Kijk bijvoorbeeld maar eens naar artikelen 1.04 en 1.05.
Dat is toch vragen om (dodelijke) ongelukken?
Wat ik me afvraag: heeft de voetganger de auto niet gezien?
Ik kan het me niet voorstellen.
De auto reed in ieder geval niet te snel, dus daar ligt het probleem niet.

Maar wat ook een behoorlijke kanttekening is, is dat de bestuurder de vijf seconden voor het ongeluk omlaag keek. (Op haar telefoon...)

Alles bij elkaar opgeteld faalde alles en iedereen die betrokken was bij de situatie.
Bij 20 meter per seconde is dat 100 meter afstand. Een overstekende fietser (die links en rechts kijkt) zou koplampen toch écht wel moeten kunnen zien. VOORAL in het donker.

Verder kent dit verhaal alleen maar slachtoffers, iedereen zou het anders hebben gedaan met de kennis van nu.
Ik doelde op de inschatting van het slachtoffer om over te steken. Als de auto nou veel harder had gereden dan toegestaan, dan kan iemand dat gemakkelijk verkeerd inschatten.

Dat de auto de fietser niet zag is slecht, maar uiteindelijk had dit kunnen worden voorkomen als de bestuurder geen video zat te kijken....
According to data provided by Hulu, the driver was streaming NBC's popular show "The Voice" on the Hulu app for about 40 minutes. The end time coincides with the crash.
Bron: https://money.cnn.com/201...-police-report/index.html
Klopt, ik bevestig wat je zegt maar gaf even aan hoe de oversteekster hier deze situatie in had kunnen schatten.
Oh, ik interpeteerde het verkeerd, sorry!

Ja, de oversteekster, was niet handig, de bestuurder was onverantwoord en Uber heeft een prototype laten besturen door een beperkt/ongetrainde bestuurder. Het is een trieste situatie.
Klopt, de oversteek was lang en zover de beelden laten zien heeft de oversteker op geen enkel moment links of rechts gekeken of de auto aangekeken. Zelfs bij naderende impact werd niet eens een ontwijkende beweging gemaakt.

Bijzonder.
Wat mij vooral erg opvalt aan dit verhaal is dat dit best een extreme situatie is waarin veel dingen samenvallen die een wellicht fatale aanrijding erg waarschijnlijk maken als het een menselijke bestuurder geweest was maar dat de diverse software de (fatale) aanrijding in feite meer dan prima had kunnen voorkomen! Maar dit enkel niet deed doordat de technici hebben lopen prutsen (wellicht niet zozeer schuld van de technici, maar meer van Uber die gewoon te snel wil!)... Ik zie het dus eigenlijk meer als bevestiging dat autonome voertuigen absoluut in staat zijn om ongevallen te voorkomen waar menselijke bestuurders daar meer moeite mee zouden hebben. Echter: moeten de systemen dan wél correct ingesteld worden... En daar is het hier gigantisch mis gegaan!
Ik zie het eigenlijk als een bevestiging dat de toename van het aantal systemen die helpen met besturen van een voertuig gelijk is aan de afname van concentratie (oplettendheid) van de menselijke bestuurder.

Hoe mee je als mens de rol van 'toeschouwer' krijgt, des te later het vermogen actief en alert in te kunnen grijpen. De (voortdurende!!) concentratie die je kunt opbrengen terwijl je zelf actief iets bestuurt, ga je niet kunnen opbrengen als er vrijwel geen input van je verwacht wordt. (geestdodendheid).

'Correct instellen' is een nogal vaag en weids begrip. Overspant dus het spectrum van de fysieke afstelling van sensoren, via de configuratie van e.e.a. langs de programmering van het geheel tot aan de research die gedaan wordt hoe zaken waar te nemen en hierop te handelen.

Simpel: Als we al treinen nog niet volledig autonoom kunnen laten rijden (geïsoleerde voorbeelden daargelaten), dan zal het met auto's al helemaal niet lukken. Leuk dat ze onder bepaalde omstandigheden een stuurbeweging kunnen maken, versnellen of vertragen, maar dat is echt nog he-le-maal niks...(in de kinderschoenen staan, enzo..)

Laat ze eerst maar eens aantonen dat er ook een zeker empatisch vermogen is bij het maken van een split second beslissing. (bijvoorbeeld kiezen door over de plots overstekende kinderwagen heen te rijden, of het schampen van de tegenligger die er al rijdt, en daarmee mogelijk de baby redden maar blikschade forceren.)

Of dit... uit eigen ervaring: Schoolzone... jij komt aanrijden richting een zebrapad waar een klein jochie aan jouw kant wil oversteken. Aan de andere kant komt een gestresste ouder (yup-type) hard aanrijden, niet voornemens te stoppen (want al laat voor werk).
Wat doe je? Netjes stilstaan zodat jochie gaat oversteken (kijkt alleen jouw kant op), en mogelijk voor de wielen van de yup beland... of net even laten twijfelen door wat later te remmen (maar wel te stoppen), zodat hij in eerste instantie (geschrokken) op de stoep blijft staan.

In de eerste situatie treft jou in ieder geval geen blaam (hoe het ook met het joch afloopt).
In de tweede situatie toon je 'huftergedrag', maar weet daarbij 100% de situatie te redden.

Nou, en dan nu autonome AI die dergelijke situaties kan oplossen. Zal er ongetwijfeld komen... maar niet in 2020...

...en nu vraag jij je af wat ik gedaan zou hebben. In 16 jaar mijn kinderen naar school brengen voordat ik naar mijn werk ging, heb ik deze situatie meerdere keren meegemaakt. Beide 'oplossingen' uitgevoerd. Gelukkig ging het nooit echt mis, maar wel eens de tegenligger met blokkerende wielen zien remmen. Uiteindelijk gekozen voor liever de afkeurende blik van een omstander (die waarschijnlijk geen 100% inzicht in de situatie had), dan met het hart in de keel iemand een noodstop te moeten zien maken.

Software kan vliegen, software kan rijden, en software kan sondes op verre hemellichamen laten landen. Maar verantwoord, veilig en besluitvaardig een voertuig door een onvoorspelbaar scenario loodsen is iets heel anders.

Oh, en ik geloof erin... het komt. Het zal er ooit zijn, maar nu is het echt nog veel te vroeg.

[Reactie gewijzigd door OCU-Macs op 6 november 2019 10:37]

Oh, en ik geloof erin... het komt. Het zal er ooit zijn, maar nu is het echt nog veel te vroeg.
Klopt. Maar we zijn al wel een heel end (alles is relatief hè!) en in dit voorval zie ik daar eerder een bevestiging in. De auto deed het juist, de betrokken mensen hebben de fouten gemaakt...

Daarnaast: zelfs als die autonome auto's ooit uit de kinderschoenen zijn geloof ik niet dat alle ongelukken voorkomen kunnen worden. Maar zo lang het veiliger is dan nu met menselijke bestuurders ben ik voorstander. En ik denk dat dát niet eens heel gek ver weg is... Want als ik het kunnen (of willen) zie van de gemiddelde menselijke bestuurder op de weg... Dan is er niet eens heel gek veel nodig om het beter/veiliger te maken :/

Wat betreft de situatie die jij benoemt m.b.t. hufterige tegenligger bij een zebrapad. Volgens mij is de huidige generatie autonome auto nog helemaal niet berekend op het voorspellen van gevaarlijke situaties buiten de eigen route. Dus geheel eens: die zou daar niks mee doen verwacht ik. Daarmee is deze niet schuldig aan het eventuele ongeval, maar het blijft een feit dat een menselijke bestuurder mogelijk wel iets had kunnen voorkomen (zou zelf overigens dan eerder kiezen voor de claxon in plaats van zelf eigenlijk te hard op het zebrapad afrijden, maar dat terzijde! Het gaat er om dat je iets doet om erger te voorkomen). In de toekomst zullen autonome auto's wellicht ook meer letten op omliggend verkeer. Waarom niet? Kost enkel wat meer rekenkracht en daar is tegenwoordig genoeg van aanwezig! En daarbij geloof ik heel erg in signalerings systemen op de auto's van de toekomst die middels geluid- en/of lichtsignalen kunnen acteren met mede weggebruikers - met name dus voetgangers/fietsers. Zeg maar het alternatief van handgebaren/oogcontact en dus claxon welke we nu als menselijke bestuurders kennen om te communiceren met de wereld buiten de auto.

[Reactie gewijzigd door kazz1980 op 6 november 2019 10:58]

Claxon zal ik ook wel eens gedaan hebben. Geen idee meer. Herinner me ook dat ik wel eens (al remmend) naar het midden van de weg stuurde en daarmee de tegenligger blokkeerde. Vaak zijn zulke mensen meer onder de indruk van een naderend voertuig dan van een overstekend kind.

Maar je begrijpt mijn bedoeling gelukkig. Soms moet je tegengesteld handelen om het juiste te kunnen bereiken. Hiervoor heb je een zeker bewustzijn nodig. Ik durf eigenlijk wel te stellen dat de (ai van de) auto die dergelijke 'problemen' kan oplossen, ook al best een goede gesprekspartner zou kunnen zijn. Zo hoog schat ik dat dus in.

In hoeverre jij of ik daarin op het juiste spoor zitten...geen idee. Laten we over 5 jaar deze thread nog maar eens opdiepen en kijken waar we dan staan.
In hoeverre jij of ik daarin op het juiste spoor zitten...geen idee. Laten we over 5 jaar deze thread nog maar eens opdiepen en kijken waar we dan staan.
Dat lijkt me hoe dan ook een erg interessante exercitie... Ongeacht waar we dan staan qua autonome auto's! ;) Misschien veel verder dan we nu denken, misschien staat het dan nog steeds in kinderschoenen.... Who knows! Ik heb best wel hoge verwachtingen... Maar verwacht alsnog dat het zeker wel 10 tot misschien zelfs 20 jaar gaat duren voordat er echt grootschalig autonoom gereden wordt. We zullen zien.
Kan bij wet gemakkelijk geregeld worden: voetgangers en fietsers mogen enkel oversteken bij stoplichten, oversteekplaatsen en zebra's. Mochten ze daar door voertuigen aangereden worden, dan is de bestuurder van het voertuig verantwoordelijk.

In al het andere gevallen, zoals domweg een provinciale weg oversteken, zijn fietsers en voetgangers verantwoordelijk.

Het is niet moeilijk. Er moet gewoon een verandering in de mentaliteit komen.
Je Vergeet gemakshalve dat er ook nog 1 bijrijder in de zelfrijdende auto van Uber zat. Deze persoon is juist aangewezen om zulke situaties te herkennen en aldoende de anticiperen. In mijn optiek, is dit louter een technische rapport dat niet gericht is om uber de schuld te geven maar juist het mankement in het systeem aan de duiden
Die zat er juist niet in. Uber wou voor een dubbeltje op de eerste rang zitten.
in de tekst wordt anders gesuggereerd:

"Met 0,2 seconden te gaan gaf de auto een geluidswaarschuwing, waarna de bestuurder het stuur ter hand nam, maar ze remde pas een seconde nadat de botsing al had plaatsgevonden."
O, ik snapte je verkeerd. Er was inderdaad een bestuurster. Ik dacht dat je bedoelde dat er daarnaast nog een bijrijder was. Zo is het namelijk geregeld bij alle andere organisaties die met zelfrijdende auto's testen.
Sowieso waren zoals gemeld de lichtomstandigheden in het echt beter dan op de video, dat is ook bewezen in een aantal andere filmpjes van mensen die daar on-site zijn gegaan.

Maar vergeet vooral niet dat het uitgeschakelde volvo systeem (vrij standaard forward radar) dit gewoonweg had gedetecteerd en had ingegrepen door te remmen.

En dat de radar systemen van de Uber auto dit ook gezien hebben, maar de software (door aantal design keuzes, oa de 1 seconde vertraging) gewoonweg dit fout heeft opgepakt.
Ik meen hier de camerabeelden van gezien te hebben en op basis daarvan durf ik te zeggen dat een menselijke bestuurder dit ongeluk waarschijnlijk ook niet had kunnen voorkomen.

Het lastige van deze hele discussie zijn de emoties die erbij komen kijken:

Wanneer een zelfrijdende auto een ongeluk veroorzaakt wordt dit breed uitgemeten en wordt het als excuus gebruikt om het onderbuikgevoel (niet veilig) te rechtvaardigen.

Terwijl je eigenlijk alleen naar de cijfers zou moeten kijken (die er waarschijnlijk nog onvoldoende zijn):

Als er ook maar 1 ongeluk minder gebeurd doordat auto's zelfstandig rijden is het al gerechtvaardigt om deze ontwikkeling toe te juichen.

Dat dit juridisch ook nog wel wat voeten in de aarde heeft (schuldvraag/verantwoordelijkheid) laat ik hierbij bewust even buiten de discussie.
Je hebt de beelden gezien die Uber gemaakt heeft. Deze lijken bewust donkerder. Het traject zelf (zoals andere videos laten zien) is veel beter verlicht dan de Uber video het doet lijken.
Ik heb het zelf een keer gehad toen op een donkere herfstavond 3 vrouwen in donkere gewaden besloten om tussen de geparkeerde auto's over te steken, buiten de footprint van de lantaarnpaal.

Ik kon er echt nog net omheen met de auto. Dat was puur op reflex, want voor de rest had ik ze niet eerder kunnen opmerken.
Nou, ik mis in dit artikel juist wat de schade is. Ze hebben aangegeven hun leven te beteren...wtf, ze hebben iemands dood veroorzaakt!
Boete, gevangenisstraffen, etc.
Uber heeft uiteindelijk de familie van het (dakloze) slachtoffer een financiële compensatie gegeven. En Uber is niet vervolgd, terwijl hier gewoon staat dat ze echt verantwoordelijk voor zijn.
8-9 maanden later zijn ze gewoon weer doorgegaan met testen op openbare wegen.

Dit is een absurde tijd dat je als bedrijf verantwoordelijk kan zijn voor iemands dood, en daar nauwelijks gevolgen van hebt... soms haat ik deze wereld.
" De aanwezige bestuurder van de Volvo keek op dat moment niet op de weg."

Is de software echt schuldig te houden als de bestuurder niet op aan het letten was? Volgens mij zit die bestuurder juist om de fouten van de testsoftware op te vangen. Geloof niet dat Uber geclaimd heeft dat de auto zonder bestuurder kan rijden.
Is de software echt schuldig te houden als de bestuurder niet op aan het letten was?
De software misschien niet maar Uber wel.. mensen zijn gewoon niet geschikt om gedurende lange tijd actief machines in de gaten te houden.
Dit is een simpel feit. Anderzijds: die bestuurder had 1 taak.... Tja.
Maar meest tragische aan het voorval vind ik nog altijd dat de diverse systemen het prima hadden kunnen voorkomen, maar dat al deze systemen uitgeschakeld/vertraagd waren door technici. Ik zie het dus vooral als een blunder van Uber/technici en als een bevestiging dat autonome auto's wel degelijk in staat zijn om zelfs in een extreme situatie als dit een fatale aanrijding te kunnen voorkomen. Maar dan moeten de diverse systemen wel goed ingesteld zijn en goed op mekaar aangesloten zijn.... En wat dat betreft zie ik liever af en toe een false positive dan een incidentele false negative.....
En wat dat betreft zie ik liever af en toe een false positive dan een incidentele false negative.....
Ook als dat soort false positives ongelukken tot gevolg hebben? ;)
Uiteraard afhankelijk van het hoe en wat en de frequentie.... Maar een auto die (ogenschijnlijk) uit het niets op de rem gaat zal in de praktijk niet snel tot een fataal ongeluk leiden - hooguit tot blikschade en in een extreem geval mogelijk ook letsel (maar dan loopt vooral de testbestuurder van Uber risico in dit geval - het achterliggende voertuig minder... En hoe naar ook, dat zie ik dan toch als risico van het vak als testbestuurder!).
Zeker wanneer het overige verkeer gewoon oplet (wat ze zouden moeten doen!) en/of zelfs systemen aan boord hebben die ingrijpen wanneer een ander voertuig te snel dichterbij komt (wat steeds meer auto's hebben) zie ik beperkte risico's bij de meeste false positives en extreem grote risico's bij een false negative (zoals hier gebleken).
Zeker wanneer het overige verkeer gewoon oplet
Zelfs als je 2s afstand houdt red je het niet als de auto voor je uit het niets vol op de rem gaat.
hooguit tot blikschade
Er zal maar een motorrijder achter rijden..
Of een vrachtwagen zonder automatische noodrem. Succes met de blikschade. ;)
Bij snelheden >= 70 blijft het sowieso zelden beperkt tot blikschade.
zie ik beperkte risico's bij de meeste false positives
Ligt nogal aan de frequentie van false positives.

[Reactie gewijzigd door Olaf van der Spek op 6 november 2019 09:53]

Die frequenties benoemde ik al ;) Maar desalnietemin lijken 10 false false positives me al snel beduidend minder schadelijk dan 1 false negative (beetje willekeurige getallen hoor - maar er zal een bepaalde verhouding zijn die zéér in het voordeel van de false positives uitpakt).

Met 2 seconde afstand én goed opletten (of automatisch remsysteem) kun je overigens als automobilist prima voldoende afremmen om een fataal ongeluk te voorkomen (een aanrijding voorkom je misschien niet, maar de fatale afloop wel)... Vergeet niet: een noodstop betekent ook niet dat de betreffende autonome auto instant stil staat - die heeft een vergelijkbare remweg als de auto die er achter zit... In het geval van vrachtwagen of motorrijder is het risico inderdaad wel beduidend groter... Een motor kan eventueel echter makkelijker uitwijken en een vrachtwagen zou meer afstand moeten houden dan die 2 seconden.... (ja ik weet het: zou moeten! De praktijk is nogal eens anders). Hoe dan ook zijn ook flase positives absoluut niet wenselijk... Maar het lijkt me heel veel wenselijker (of beter gezegd: minder onwenselijk) dan false negatives.
Vergeet niet: een noodstop betekent ook niet dat de betreffende autonome auto instant stil staat - die heeft een vergelijkbare remweg als de auto die er achter zit...
Is dat zo? Veel bestuurders zullen niet direct of helemaal niet maximaal remmen.
Ik denk dat menigeen zonder te hebben kunnen remmen op de auto voor hem zal knallen.

Vergeet ook niet, je hebt 1s reactietijd maar reageren kost ook nog tijd, en dan hou je nog geen rekening met dat je misschien net even in je spiegel keek.
Een motor kan eventueel echter makkelijker uitwijken
Hoe kom je daar bij?
Op snelheid zijn motoren sowieso niet zo wendbaar en als het nat is, is een en ander ook wat lastiger.
Maar het lijkt me heel veel wenselijker (of beter gezegd: minder onwenselijk) dan false negatives.
Natuurlijk, maar dat blijft vaak een trade-off.
Die trade-off is precies waar ik op doel ;) Verder zeggen we redelijk hetzelfde...
Heb overigens zelf wel eens meegemaakt dat een auto een noodstop maakte voor mij. Bleek terecht - maar ik had niet gezien waar het voor was (was voor mij ook nauwelijks zichtbaar), dus voor mij was het een noodstop uit het niets.... Voor mij dus ook een noodstop met als resultaat dat we nét even mekaar raakten. Uiteindelijk niet meer schade dan een gedeukt nummerbord. En dat was op de snelweg met pakweg 100 km/uur én dus voldoende afstand.... Dus met de aanname voldoende afstand en oplettende bestuurder acht ik de kans op een fataal ongeluk in zo'n situatie echt klein bij een achterliggende auto. Motoren heb ik geen ervaring mee... baseer me enkel op wat ik gehoord heb van anderen die wel motor rijden - die hebben mij eens aangegeven dat bij een noodstop uitwijken een optie kan zijn en vaak beter dan zelf vol op de rem. Maar ga daar verder de vingers niet aan branden. Geen ervaring mee.
Als je gewoon autorijdt ben je ook niet 100% van de tijd 100% met je aandacht op de weg gericht: je luistert muziek, ziet een billboard, praat met de medepassagier, houdt ruziënde kinderen uit elkaar, kijkt naar wegwijzers, etc.

Bedenk nou dat je in een hok wordt gezet met een rode knop voor een paar uur per dag, een paar weken lang. Ooit zal er een lichtflits zijn en met je de knop binnen 2 seconden indrukken... je hebt geen idee wanneer. Tenzij je een robot bent, ontworpen voor die taak, zou ik het knap vinden als je dat lukt (toevalligheden uitgesloten)
Natuurlijk erg genoeg, dat is niet goed te praten. Je kunt veel testen maar ik vrees dat er altijd situaties voorkomen die je niet had kunnen voorzien.

Aldoende leert men. Hopelijk bestaat er uiteindelijk een vele male veiligere situatie op de weg wanneer deze systemen helemaal door ontwikkeld zijn.
Totdat het je vrouw of kind is.
Denk je er dan nog zo over?

Men heeft willens en wetens goede systemen uitgeschakeld, dat is nooit goed te praten.
Ik ben ervan overtuigd dat zelfs met de huidige stand van de techniek de computers beter op zitten te letten dan iedereen dit achter het stuur zit te appen.
Elk ongeluk met een zelfrijdende auto wordt echter 1000x vergroot in het nieuws gebracht.
De 600 doden per jaar in NL door niet-zelfrijdende auto's zijn slechts een voetnoot in de krant...

M.b.t. het uitschakelen van het Volvo systeem; die is vanuit de techniek wel te begrijpen.
De praktijk spreekt je tegen. Autonome auto's kunnen goed omgaan met andere auto's. Maar fietsers en voetgangers zijn moeilijker detecteerbaar en voorspelbaar.

Nee, mijns inziens zou het alleen uitmaken op de snelweg en autowegen.
Op een weg met duidelijke belijning en geen gekke verkeerssituaties geef ik je gelijk.
Maar als ik zie welke wegmarkeringen ik soms tegen kom, waarbij de witte lijnen bijna niet meer zichtbaar zijn, er gele lijnen zijn naast geschilderd of gewoon stoppen, dan hebben die auto's het daar volgens mij wel moeilijk mee.

Volgens mij denken die bedrijven daar ook zo over. Ik heb toch nog geen enkel bedrijf horen zeggen dat hun auto dit kan.

Hoe ik het zie, hebben we eerst zelfrijdende auto's op snelwegen, maar duurt het nog lang vooraleer dit in dorpskernen kan.
Precies.

Ik ben blij dat het hier toch een stuk lastiger is om dergelijke testen op de openbare weg uit te voeren.
Emotioneel niet, rationeel wel. Dat zijn twee compleet verschillende dingen en moet je niet verwarren.
Feit blijft dat inderdaad niet alle situaties kunnen worden voorkomen. Niet door mensen en niet door AI. Dat feit blijft staan, ook als het een familielid is die slachtoffer is.
Heb je de onboard videos gezien van het ongeluk? Óók een menselijke bestuurder had haar aan gort gereden. Ze loopt in een zwarte jas met haar fiets op een onverlichte weg zonder op te letten. Ja, de computers hadden het hier kunnen voorkomen. Maar het is niet zo alsof er een dode is gevallen _door_ computers. Er kan volgende keer een ongeluk voorkomen worden dankzij computers, dat wel.
Er is een verschil tussen de onboard video (die bewust donkerder gemaakt lijkt te zijn) en werkelijke omstandigheden. Het is weliswaar geen 'freeway' maar wel een grote doorgaande weg die goed verlicht is. Het punt waar het ongeluk gebeurde is weliswaar iets donkerder, maar nog meer dan genoeg verlicht voor een menselijke bestuurder om ver op tijd te remmen.
Ik zie een pikdonkere weg. Als voetganger kijk je 10x links en rechts en als je de koplampen van een auto die met 70km/u rijd niet ziet dan vraag je er écht zelf om. Sorry. Ik steek dagelijks wegen over in vergelijkbare én betere lichtomstandigheden, mét fiets in de hand notabene (ik woon aan zo'n weg, maximum snelheid 60). En ik kijk extreem goed uit, precies omdat ik weet dat als ik geen licht op mij of m'n fiets heb dat autos mij niet goed zien. Het is donker, mensen zijn moe, kijken even op hun telefoon, komen terug van werk. En ik ben gewoon praktisch onzichtbaar.
Zoals ik al zei, die video is ruk. De weg is daar veel donkerder op de video dan in de werkelijkheid. In werkelijkheid had elke bestuurder de voetganger ruim op tijd kunnen zien.
Ik geloof je op je blauwe ogen echter waar kan ik het ter verificatie nakijken? Verder gaat mijn hele betoog om dat de voetganger geen verlichting draagt én de auto zelf had zien aankomen (ging niet heel erg snel). Dit had mij nooit overkomen, nogmaals.
Ja, ziet er dus erg donker uit? Je brengt argumentatie aan die je punt ontkracht. Precies in dat donkere deel tussen lantarenpalen in is het gewoon erg donker - en als je als voetganger of fietser daar oversteekt kan je verwachten dat auto's je niet goed zien. Met alle respect, maar daar oversteken is gewoon extreem gevaarlijk en zou ik _niet_ doen tenzij ik zeker weet dat er geen auto aan komt.

Op geen enkele manier kan je garanderen dat een bestuurder je ziet daar - hopen, ja, zeker weten nee.
Ik zou je helemaal gelijk geven op het moment dat het gebeurd en ik gruwelijk emotioneel ben en er helemaal kapot aan zou gaan.

Maar, dit gebeurt nu dagelijks, elke seconde, zonder ontwikkeling blijft dit en veranderd er niets. Alles komt nu onder het vergrootglas.

Later, denken we misschien, Damn, blij dat we een autopiloot hebben anders was ik nu verongelukt of heb ik iemand anders laten verongelukken.
Eens dat het niet goed te praten is dat er systemen uitgeschakeld/vertraagd zijn die dit hadden kunnen voorkomen! Maar ook eens met @peerke1987, ongelukken gebeuren. En die zullen er nog wel meer komen ook... Maar ik geloof dat autonome auto's nu al veiliger rijden dan menselijke bestuurders (op bepaalde routes - dat wel - ze zijn nog niet zover dat ze alle mogelijke wegen/situaties wereldwijd aankunnen) en dat dit enkel beter en beter wordt wanneer deze systemen (en de ontwikkelaars ervan) leren door vooral veel te rijden. En tja, van fouten leer je toch het meest... Dus in die zin vind ik het tragisch, maar wel acceptabel dat het af en toe mis gaat mits dat minder is dan nu met menselijke bestuurders het geval. In die zin beschouw ik dat puur als een statistisch gegeven... En ik denk dat iedereen het er dan wel over eens is als je kunt kiezen tussen 100 verkeersdoden of 10 verkeersdoden (willekeurige getallen!). Maakt het niet minder tragisch als één van die 10 doden een naaste is... En goede kans dat ik er dan toch ook anders over zou denken. Maar dat is dan emotie en niet verstand.
Ze hebben het systeem van Volvo uitgezet, omdat 2 systemen parallel laten werken niet handig is.
Het systeem van Volvo is natuurlijk niet van uber zelf en dus niet hun eerste keuze, want anders kunnen ze alleen Volvo gebruiken later.
Hun systeem is alleen minder goed misschien, omdat Volvo zelf aangeeft dat hun auto met eigen systeem wél geremd had.
Het is van de zotte dat er met software waarvan niet duidelijk is waar het wel of niet op kan reageren samen met onverantwoord gepruts aan een voertuig en gebrek aan een persoon die tijdig kan ingrijpen levensgevaarlijke experimenten te doen in de praktijk zonder dat de omstanders als testpersonen daar enige weet of zeggenschap op hebben.
Dat dit mogelijk was zegt vooral veel over het gebrek aan besef van de betrokkenen die dit een goed idee vonden. Het ligt niet aan de software en zal daar ook nooit aan moeten kunnen liggen zolang die geen wettelijk verantwoordelijkheid heeft.
Ik heb hier voor al mijn mening gegeven op een reactie, dus ik ga die niet herhalen.

Ik ben het overigens wel volledig met je eens dat een testpersoon in een testvoertuig, beter had moeten weten en het niet kan verantwoorden even niet op te letten. (ik was er niet bij, dus wat er precies gaande was weet ik ook niet)
Zo is het: Het zijn hier mensen die schuld hebben. Niet de software.
En het is diep triest dat er (achteraf bezien) te gemakkelijk is gesleuteld met de gedachte false positives te voorkomen waarbij niet voldoende besef geweest lijkt te zijn dat er dan false negatives op kunnen treden - met alle gevolgen van dien!

Dat gezegd hebbende: ik zie het geven van een rijbewijs aan een mens ook nog steeds als een soort van experiment met het overige verkeer/mensen als ongevraagde testpersonen. Het rijbewijs zelf zegt geenszins dat je veilig kunt autorijden - enkel dat je voldoende vinkjes hebt behaald waarvan we als samenleving hebben bedacht dat dit het aannemelijk genoeg maakt dat je veilig genoeg de weg op kunt met een dodelijk voertuig... In die zin zie ik weinig verschil tussen een mens een rijbewijs geven of een autonoom rijdende auto een 'rijbewijs' geven en de weg op laten.... Enkel: moet er wel goed nagedacht worden wanneer zo'n autonoom rijdende auto wel en wanneer niet een rijbewijs krijgt en de weg op mag! En dáár lijkt hier toch niet helemaal voldoende over nagedacht te zijn....
Voetgangers verbieden. FIXED :D
Wat is er mis met 2 veiligheid systemen parallel? Ik snap dat even niet. Hier in de proces industrie hebben we juist vele beveiligingen parallel draaien, mechanisch en elektronisch. Voor veiligheid (noodstop in dit geval) kan dat nooit genoeg zijn. Liever een keer te veel remmen dan te weinig.
Zou dat ook niet met juridische aansprakelijkheid te maken kunnen hebben? Waarop vertrouw je en wat voor afspraken maak je daarover, en kun je dat bewijzen.

Tevens is het bij de ontwikkeling van die software wellicht handig om al rekening te houden met het bestaan van andere software, die dezelfde hardware mag bedienen. Ik kan me ook voorstellen dat veel false positives slecht zijn voor het slecht lerende van het andere software pakket?
Klopt maar dit gaat om het uitschakelen van de standaard aanwezige noodstop van Volvo, iets wat zich de afgelopen jaren al heeft bewezen en doorontwikkeld is. Het klinkt mij gewoon als arrogant dat ze dat uitschakelen. Als mens zet je dat ook niet uit omdat je denkt dat je beter kan remmen dan de auto zelf? Het is een backup middel. Hetzelfde als gaan parachute springen zonder backup omdat je toch wel goed kan vouwen. Het is niet voor niets een backup systeem.
Een noodstop maken terwijl er geen gevaar is kan ook gevaarlijk zijn vanwege achterliggers die dat niet verwachten. Hoewel je voldoende afstand dient te houden, is dat vooral op hogere snelheden bijna nooit het geval voor een noodstop.

Ga maar op de linkerbaan op de snelweg met 130km/h zomaar opeens keihard op de remmen tot stilstand.
Klopt, maar daarom is het systeem van Volvo ook goed getest en doorontwikkeld. Dat zal nooit veranderen, dus kan prima aan blijven staan. Juist het voorkomen van de false positive situaties icm met een bug in hun eigen software heeft tot het fatale ongeluk geleid. Fout 1 is hier gewoon het uitzetten van geteste betrouwbare backup systemen, aangezien hun eigen software nog niet volledig betrouwbaar is.
Een auto op de weg die continue z'n plekje op de weg aan het zoeken is en daarvoor afremt en weer optrekt, wil je als overig verkeer echt niet hebben zeg.
Als de ene keer het ene systeem wint en af gaat remmen en de volgende seconde wint het andere systeem dat zegt dat er doorgereden moet worden dan heb je precies een situatie die je niet wil.
Dat is hier niet van toepassing. Het gaat om een noodstop systeem wat nu al in alle auto's zit welke uitgeschakeld is.
Vervangen door een implementatie van Uber zelf, bedoel je, en helaas nog lang niet in elke auto standaard ingebouwd tegenwoordig.

En ook in dit geval zouden 2 systemen die continue zeggenschap willen over het zelfde remsysteem voor een hoop onnodige remacties kunnen zorgen.
Zelf wij mensen hebben twee systemen parallel draaien: Hoger bewustzijn en reflexen. Bij het aanraken van iets heets trek je al automatisch je hand terug, zonder dat je daar eerst uitgebreid over na gaat denken om vervolgens tot een besluit te komen.

Zo zou het bij autonome auto's ook moeten werken: Een laatste (onafhankelijk en autonoom) vangnet dat ingrijpt als reactie van de hogere ai uitblijft. In dit geval was de ai ook veel te lang bezig met bepalen wat het nu eigenlijk waarnam.

Lijkt eigenlijk op de scene met ED-209 uit de eerste robocop film: https://www.youtube.com/watch?v=A9l9wxGFl4k
Autonoom rijden kan zeker een toevoeging hebben in de toekomst, efficienter rijden en hopelijk ook veiliger dan een regulier persoon; sowieso een interessante ontwikkeling. Helaas is het nog ''niet af'' en de enige manier om het te verfijnen is om het in de echte wereld te toetsen.

Dus om alle fouten eruit te halen moeten er doden vallen?

Heel cru, je ziet nu pas dat mensen richtlijnen en maatregelen gaan bedenken op het moment dat er ernstige verkeersongelukken gebeuren. Wellicht kan het ook niet anders...
Neen, er moeten geen doden vallen. Alleen heb je hier, zoals meestal, een opeenstapeling van fouten die tesamen de oorzaak vormen van het fatale incident:
- een systeem dat het ongeluk had kunnen voorkomen was uitgeschakeld
- het systeem dat actief was, was onvoldoende getest en niet ver genoeg ontwikkeld
- de persoon die het systeem moet controleren tijdens de rit was niet aan het opletten

Met andere woorden: de risicos zijn totaal foutief ingeschat door Uber.
Sowieso zullen er ongelukken blijven gebeuren. Probleem is wie we de schuld geven van het ongeluk. En misschien moeten we dat aanpassen.
Ik vraag me af waar de bestuurder mee bezig was, die had ook kunnen ingrijpen.
Die zat op de telefoon te kijken dacht ik (er staat ergens een filmpje op YouTube)

[Reactie gewijzigd door PdeBie op 6 november 2019 08:48]

Heb even bekeken maar op de video is helemaal geen telefoon te zien.
Kon ook een scherm van de auto(systeem) zijn waar hij naar zat te staren, hij had idd een stream aan staan van Hulu(log provider) maar ook dat bewijst niks.

Natuurlijk kan hem ten laste gelegd worden dat hij te weinig zijn ogen op de weg hield(niet met autorijden bezig zijn).

Maar of hij daadwerkelijk een film zat te kijken is een aanname wat wij allemaal maar maken (denk ik ook wel) maar zwart-wit bewezen is het nooit.

In Nederland gebeurd ook veel ongelukken door smartphonegebruik ik ben het met je eens hoor.
3 maal raden |:(
Bijna 75.000 boetes zijn er in 2017 uitgedeeld aan bestuurders die achter het stuur aan het bellen of appen waren. Daarmee inde het Centraal Justitieel Incassobureau bijna 17 miljoen euro.

Dit blijkt uit cijfers die De Stentor heeft opgevraagd. In Zuid-Holland werden de meeste boetes uitgeschreven. Zeker 18.000 keer appte of belde daar iemand achter het stuur.
Ik vind het verschrikkelijk dat er op deze manier iemand om het leven is gekomen.

Er zijn drie controlesystemen; een bestuurder die niet op de weg kijkt, een remsysteem dat uitgeschakeld is, en een systeem dat een opzettelijk ingebouwde vertraging heeft. Dat is toch te gek voor woorden?
Volgens mij is de overstekende vrouw fout...


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True