Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Fatale crash met Uber-auto is veroorzaakt door software die objecten negeerde'

De autonoom rijdende Uber-auto die in maart in de VS betrokken was bij een fataal ongeluk met een voetganger, had mogelijk software die te veel was ingesteld om objecten op de openbare weg te negeren.

Volgens twee bronnen die over de materie zouden zijn ingelicht, was er bij de autonoom rijdende Volvo XC90 sprake van software die in feite te veel objecten aanmerkte als false positives, zo schrijft The Information. Het gaat hierbij om objecten die het systeem detecteert, maar niet worden gezien als een probleem voor het voertuig. Een plastic zak is daar een voorbeeld van.

Bij de bewuste crash in maart stak een voetganger met een fiets aan de hand de weg over. De Uber-auto detecteerde de voetganger die met een fiets aan de hand de weg overstak, maar volgens een van de bronnen zijn technici te ver gegaan met de gevoeligheidsafstelling om bepaalde objecten te negeren, waardoor de auto te laat reageerde.

De auto reed tijdens het ongeluk in de autonome modus en had wel een menselijke chauffeur die in theorie in kon grijpen, maar door onoplettendheid gebeurde dat niet. Enkele dagen na het ongeluk bleek dat de zelfrijdende auto's van Uber al maandenlang minder goed presteerden dan de bedoeling was: de menselijk backup-chauffeurs moesten veel vaker ingrijpen dan gedacht.

Door Joris Jansen

Nieuwsredacteur

07-05-2018 • 20:47

279 Linkedin Google+

Reacties (279)

-12790271+1100+219+31Ongemodereerd143
Wijzig sortering
Hier het filmpje van de crash incl. de camera die op de bestuurder is gericht. De bestuurder is met van alles en nog wat bezig behalve de weg.

https://www.youtube.com/watch?v=51HQ5JXIvWw

De weg lijkt slecht verlicht, maar niks is anders waar. De weg is zeer goed verlicht, door de kwaliteit van de camera's lijkt het donker.

https://www.youtube.com/watch?v=CRW0q8i3u6E

De schuldvraag ligt wat mij betreft primair bij de bestuurder. Je hoort op de weg te letten, zeker als je in een experimenteel voertuig rijdt. Een zelfrijdende auto is wat mij betreft niks meer als een ondersteunend middel en daarmee dus ook niet meer of minder als alle andere auto's op de weg.

Secundair moet er onderzocht worden in hoeverre Uber nalatig is geweest in de ontwikkeling. Zoals hierboven al gezegd, en zelfrijdende auto is niks anders als een middel en in hoeverre was dat middel defectief. Daarmee kan worden bepaald in hoevere Uber competent genoeg is om een dergelijke uitdaging aan te gaan. Sancties in de vorm van een verbod om op openbare wegen te rijden vind ik gepast.
De schuldvraag ligt wat mij betreft primair bij de bestuurder.
De bestuurder in dit geval is een zwarte doos vol van Waymo gestolen zelfverzonnen magie. Die heeft de touwtjes in handen. De uitzendkracht die achter het zit stuur bestuurt helemaal niets behalve haar telefoon.

Die zwarte doos vol magie is eigendom van Uber, en daar hoort de primaire focus van de strafrechtelijke vervolging te liggen. Uber is misdadig nalatig in van alles en nog wat. Het is niet netjes een ingehuurd goedmakertje voor critici de verantwoordelijkheid voor deze doodslag in de schoenen te schuiven.

("Manslaughter" (doodslag) is in Arizona wanneer je bewust iemand doodmaakt hoewel je initieel niet de intentie had hem of haar te doden. Bijvoorbeeld omdat je je zelfbeheersing verliest of omdat je zwarte doos vol magie in je 2000 kilo zware slagwapen teveel 'ruis' negeert en over een mens heenrijdt.)
Zoals gezegd, die zwarte doos van jou is niks anders als een middel. Als dat middel 100% zou zijn dan zou de bestuurder er niet zijn.
Het management van Uber heeft de uitzendkracht iets heel anders vertelt. Dat is het punt waar het Uber's probleem wordt.
Of je nu de fabrikant de schuld geeft of de bestuurder... De echte schuld is wat mij betreft iets anders.

Een autonoom voertuig bouwen is geen sinecure. Ik zelf denk dat je er strong AI voor nodig hebt. Bij Uber denken ze blijkbaar anders, net als by Waymo, Google, Tesla, BMW... Die mensen zullen het allemaal wel beter zien dan ik... Maar toch... Echte strong AI bestaat nog niet. Het beste wat we nu hebben kan de mens verslaan bij bordspelletjes / kaartspellen e.d. Ik denk dat we eerst iets minder ambitieuze dingen moeten proberen dan meteen naar autonome auto's te willen gaan... Zeker gezien de risico's.

De kern van het probleem hier is: De Uber auto kan geen onderscheid maken tussen kartonnen dozen, plastic zakken en voetgangers. Als we het dan toch even over de vooruitgang van de AI hebben... zo triest is het dus eigenlijk nog steeds. Dit voertuig moet zelfstandig beslissingen nemen die levens in gevaar kunnen brengen als ze niet goed beoordeeld worden, maar de hersenen die er in zitten zijn feitelijk gewoon een opgevoerde rekenmachine met wat software voor beeldherkenning en navigatie...

Ik denk dat we in de komende 5 jaar een soort van tweede internetbubbel krijgen... de AI bubbel. En dan weer 10-15 jaar later komen de dingen waar we tijdens de bubbel over droomden echt en zeggen we zie je wel. Maar iets willen voordat het kan is niet 'vooruitziend' of 'je tijd vooruit' zijn, maar gewoon dom imho. Ik stel: autonome voertuigen kan nog niet met de huidige AI. Doe je het toch, dan moet je of de omstandigheden perfect beheersen, of je neemt feitelijk gewoon enorme risico's met mensenlevens. Er rijden nog helemaal niet zoveel autonome auto's rond maar er zijn al een paar doden gevallen. Het wachten is tot er een spelend kind wordt doodgereden...
Het grote verschil echter is dat ongelukken met zelfrijdende auto's tot op de bodem worden uitgezocht zoals bij vliegtuigongelukken en verbeteringen doorgevoerd en veel van geleerd.

Dus hoe erg die 5 doden ook is het is onvermijdelijk omdat als ze over 10 jaar zouden beginnen met deze autonome auto's je die doden ook zou krijgen omdat er simpelweg bepaalde dingen naar boven komen dat je zelfs met AI niet kunt oplossen en je dus praktijkervaring nodig hebt.

Bij iedere dode worden de auto's veiliger en slimmer hoe cynisch dat ook klinkt.

Bovendien vraag ik me af of het wel klopt wat jij zegt dat er veel doden zijn gevallen want er is behoorlijk wat kilometers gereden.

De media springt er echter bovenop waardoor je ook direct het in het nieuws hoort terwijl met gewone auto's er dagelijks duizenden mensen dood gaan wereldwijd en de doden geen enkele verbetering teweegbrengen in de veiligheid van de auto's.

[Reactie gewijzigd door Dark_man op 8 mei 2018 03:21]

Dus jij vindt het oké dat er ge-experimenteerd wordt met mensen levens (want dat gebeurt er nu feitelijk).

Autonome auto's zijn nog niet geschikt, dat blijkt immers uit de vele ongelukken.
Grappig hoe de directie en CEO's zelf 0,0 risico's nemen.

Het is te schandalig voor woorden en dan nog recht lullen wat krom is ook?
in principe wordt er bij menselijke bestuurders toch ook ge-experimenteerd met mensenlevens? alleen dan gebeuren er veel meer dodelijke ongelukken en leert alleen degene die het meemaakt en overleeft ervan, ipv dat alle zelfrijdende auto's kunnen leren van een ongeluk die 1 zo'n auto veroorzaakt
Het is ook compleet niet geschikt dat er mensen achter het stuur zitten van zo'n blok staal. Het verschil in veiligheid is nu al miniem, en zelfrijdende auto's worden alleen maar veiliger.
Behalve dat in feite de mens eerst de controle had en niet de hardware zelf. Menselijke fouten zijn er altijd, er is dan dus ook geen sprake van expirementeren.

AI kan daarentegen foutloos zijn, en autonome auto's worden momenteel in een veel te vroeg stadium de weg op gegooid, om na een x aantal doden de fouten eruit te halen...
AI kan helemaal niet foutloos zijn, er zal altijd net een vogel op de sensor hebben gekakt, iemand in een niet bedoeld camopak voor de auto springen, de AI zal iets onverwachts zien (zoals die witte vrachtwagen of een reflectie ergens) zodat het toch misgaat.

Misschien is het op dit moment een klein beetje te vroeg, maar het uitstellen van het toelaten van zelfrijdende auto's totdat ze 2x veiliger zijn dan mensen gaat extreem veel meer doden kosten. Mensen veroorzaken nu 500 verkeersdoden per jaar in Nederland, al is de AI 1% beter dan de gemiddelde mens scheelt dat een paar doden per jaar.
Uit statistieken blijkt dat er per jaar ongeveer 1.3 miljoen mensen overlijden in auto ongelukken. Dat er de laatste jaren 5 mensen zijn gestorven door autonome auto's is verre van veel ongelukken. Dat er beter gecontroleerd moet worden op bedrijven die willen meeliften op het succes van partijen zoals bijvoorbeeld Waymo wil niet zeggen dat de huidige ontwikkelingen een hele grote stap voorwaarts zijn.


Laten we het zo stellen: als er nog 20 mensen moeten sterven voordat de technologie over 10 jaar verplicht is in voertuigen en miljoenen levens zal gaan sparen, is dat dan een fatsoenlijke reden om te stoppen met dit onderzoek?
Als autonome auto's niet geschikt zijn vanwege het grote aantal ongelukken, dan moet ik me wel afvragen hoe je tegen handmatig bestuurde auto's aankijkt, aangezien het aantal ongelukken per gereden kilometers een ordegrootte hoger liggen.

Uber lijkt hier bijzonder nalatig te zijn geweest, al moet onderzoek nog de precieze schuld uitwijzen. Maar neem een auto van Google, en de ongelukken die er gebeuren zijn veelal door menselijke bestuurders die niet opletten en door hun fout een onvermijdelijke botsing veroorzaken.
In principe geldt dat bij heel veel uitvindingen, de eerste auto had ook geen veiligheidsgordels. Hoe denk je dat die erin gekomen zijn? Omdat de ervaring pijnlijk geleerd heeft dat mensen er bij een botsing uit kunnen vliegen. Of denk je dat er bij de eerste pogingen om te vliegen geen doden zijn gevallen, dat hoort inderdaad hoe cynisch het ook klinkt nu eenmaal erbij. Elke nieuwe technologie zal door schade en schande moeten groeien en de kinderziektes kunnen inderdaad voor slachtoffers zorgen.
Vergelijk het eens met medicijn onderzoek.
Nadat een medicijn ontwikkeld is word dit getest op gezonde proefpersonen. De geschiedenis heeft geleerd dat deze het ook niet altijd overleven, ondanks dat er van te voren word gedacht dat het medicijn veilig is.
Gelukkig zijn we in het verleden nooit gestopt met ontwikkeling nadat er iemand overleden was
Behalve dat je er ZELF voor kiest dit medicijn te gebruiken en dat je niemand anders mee de dood in neemt.
Dat is niet het punt wat ik wilde maken.
Maatschappelijk is het geaccepteerd dat mensen sterven voor wetenschappelijke vooruitgang.
Kun je de ai niet mee laten rijden met een normale bedtuurder en dan in geval van een afwijkende reactie achteraf analyzeren of de bestuurder of de ai het juist had? Dan heb je voor de sceptici een menselijke bestuurder maar wel de data
Dit concept wordt inderdaad toegepast bij zelfrijdende autos. Zie hier het voorbeeld van de zelfrijdende auto van nvidia

https://youtu.be/-96BEoXJMs0

Er zijn echter verschillende manieren van implementatie van de AI in de software van zelfrijdende autos. Voor zover ik weet maakt Uber tot op zekere hoogte gebruik van AI om object classification uit te kunnen voeren, maar de daadwerkelijke software die de uiteindelijke beslissingen moet nemen is op het moment nog gewoon rule-based. De ontwikkelaar zelf bepaalt dus welke handeling de auto in verschillende situaties uit zal voeren. Met correct afgestelde software zal dit in 99% van de gevallen voldoende zijn, maar in die 1% afwijkende gevallen zal de software te kort schieten om een veilige handeling te bedenken.

Voor deze afwijkende gevallen is er binnen de SAE richtlijnen voor autonoom rijden bepaald dat tot een bepaald niveau de bestuurder de volledige rit moet monitoren en in moet grijpen als het systeem een onverwachte handeling uitvoert.

In Amerika stelt de NHTSA soortgelijke richtlijnen op. Toestemming tot de openbare weg wordt vervolgens gegeven voor een bepaald niveau van automatisering. Ik heb het zelf niet nagekeken, maar ik denk dat Uber toestemming had om autonome voertuigen te testen tot een niveau ongeveer gelijk aan SAE 2/3, wat betekent dat de auto redelijk zelfatandig zou moeten kunnen rijden, maar de bestuurder ten alle tijden de regie houdt over de handelingen en het gehele systeem per direct uit kan schakelen en zef verder kan rijden. Daarom denk ik dat schuld in dit geval uiteindelijk bij de bestuurder ligt in plaats van de medewerkers van Uber.
Hoe Uber de andere beslismachine (bestuurder) heeft geprogrammeerd (geïnstrueerd, betaald en gecontroleerd) valt Uber in zekere zin ook wel aan te rekenen.
Als we de vraag wiens schuld t is even opzij leggen en focussen op het 'Of we wel autonome auto's moeten ontwikkelen of niet' dan ligt bij mij het antwoord niet bij 'veroorzaken ze ongelukken?', maar bij 'veroorzaken ze minder ongelukken dan de gemiddelde bestuurder?'

Als dat laatste waar is, dan ben ik voor autonome auto's.

[Reactie gewijzigd door WORPspeed op 8 mei 2018 00:32]

Dit is echter wel een cirkel redenering aangezien je die cijfers pas achteraf tot je beschikking hebt. Eigenlijk is het ook een open deur.

De vraag is: hoe komen we er achter of ze beter zijn dan mensen en is het geoorloofd om in de publieke ruimte te experimenteren om die data te vergaren?

Een andere interessante vraag is: wat doen we als blijkt dat ze *meer* ongelukken veroorzaken? Geven we het hele idee dan op? Of concluderen we dan dat we ze verder moeten doorontwikkelen net zo lang totdat ze wél beter zijn dan mensen?
Dit gaat toch op voor elk nieuw product dat mogelijk gevaarlijk is?

Gaan we deze nieuwe veiligheidsgordel verkopen?
-nee, straks voorkomt het juist minder letsel dan de huidige modellen
-ja, maar alleen als ze meer letsel voorkomen dan de huidige modellen
-Maar hoe weet je dat ze niet meer letsel toelaten? En als ze meer letsel veroorzaken, gaan we het dan opgeven? Gaan we nooit meer nieuwe veiligere gordels proberen te ontwikkelen?
-Nou laten we het eerst in een lab testen en als het goed genoeg getest is, dan gaan we het gecontroleerd buiten de lab testen. Elke keer een grotere test wanneer de huidige resultaten genoeg zelfvertrouwen in de techniek geven en wanneer dat niet zo is, dan kijken we waarom dat niet zo is en of we dat kunnen veranderen. Pas wanneer we zeker weten dat we het nooit kunnen veranderen en dat t altijd te gevaarlijk zal zijn (of te gevaarlijk om te testen) dan pas geven we t op (of wanneer t niet meer winstgevend blijkt te zijn)
Werkelijk? Mijn nichtje van 18 die net haar rijbewijs heeft gehaald is ook een experiment op de weg!
Ik verkies in alle gevallen de autonome auto van nu boven mijn nichtje.

Dit is toch gewoon statistiek mensen… tel het aantal incidenten per kilometer van mensen en vergelijk die met het aantal incidenten per kilometer van autonome auto's.
Dit is toch gewoon statistiek mensen… tel het aantal incidenten per kilometer van mensen en vergelijk die met het aantal incidenten per kilometer van autonome auto's.
Maar dan moet je ze juist écht onbeheerd laten rondrijden. De huidige aanpak (waarbij de mens ingrijpt als het mis dreigt te gaan) maakt goed statistisch vergelijken juist onmogelijk omdat je feitelijk de data cherry-picked. Als je naast elke menselijke chauffeur een tweede mens zet die de eerste controleert net zoals bij de autonome auto gebeurt zou het aantal ongelukken ook dalen.

Ik vind je overigens niet slim. Ik stap honderd keer liever bij je nichtje in de auto dan in een onbeheerde Uber. Het is inmiddels gewoon wel duidelijk dat die echt nog niet veilig genoeg zijn (elke 13 mijl een ingreep!).
Als de auto een warmte camera had gehad, had die prima kunnen zien dat mensen van 37 graden rondlopen.
De kern van het probleem hier is: De Uber auto kan geen onderscheid maken tussen kartonnen dozen, plastic zakken en voetgangers.
Als jij denkt dat je dat wel kunt zou je nu je rijbewijs (als je dat al hebt) in moeten leveren. Wat je ook tegenkomt onderweg: er overheen rijden omdat je denkt dat het een kartonnen doos of een plastic zak is kan eenvoudigweg niet. Wat als je je vergist? En vergissen is heel menselijk. Heb je geen AI voor nodig.

(En ik ben een ouwe zak die inmiddels misschien wel twee keer heen en weer naar de maan is gereden, qua kilometers..)
[...]


Als jij denkt dat je dat wel kunt zou je nu je rijbewijs (als je dat al hebt) in moeten leveren. Wat je ook tegenkomt onderweg: er overheen rijden omdat je denkt dat het een kartonnen doos of een plastic zak is kan eenvoudigweg niet. Wat als je je vergist? En vergissen is heel menselijk. Heb je geen AI voor nodig.

(En ik ben een ouwe zak die inmiddels misschien wel twee keer heen en weer naar de maan is gereden, qua kilometers..)
Dat is niet helemaal correct. Je moet kunnen remmen voor een voorzienbare hindernis.
http://www.donaldstevens....0voor%20dieren...%20.html

Een hond steekt over en je gaat bruusk in de remmen, waardoor je een ongeval veroorzaakt, kan betekenen dat je vrijuit gaat, omdat je instictief handelt. Voor een fazant geldt dit blijkbaar niet.
Je Belgische bron is 22 jaar oud en niet relevant meer. Ik denk dat er in (bijna) een kwart eeuw wel wat veranderd is aan wetgeving door o.a uitspraken van rechters..
Nou ik weet dat ik niet hoef te remmen voor een opwaaiend stukje afval of voor een zak die op de weg ligt. Ik weet wel dat ik moet remmen voor een voetgangen die oversteekt. Hoe weet ik dat? Ervaring en menselijk denkvermogen.
Het lijkt wel alsof die pagina in 1996 is geschreven. Er is vast heel wat veranderd op het gebied van regels voor remmen sinds toen.
Je rijdt zelf met de wagen neem ik aan? Heb jij het nog nooit meegemaakt dat je schrikt van "iets" wat op de weg ligt / valt / rolt? Het is niet altijd een kartonnen doos / isolatie / kapotte band. Sommige voorwerpen zijn zo groot dat het even goed een kind kan zijn.
Dus ja, ik heb zelf al de "fout" gemaakt om bruusk te remmen of uit te wijken voor iets wat achteraf gezien niets waard was. Maar dat is makkelijk praten na de feiten...
Dus dat menselijk denkvermogen (maar vooral het menselijk waarnemingsvermogen) is absoluut niet onfeilbaar, integendeel...
Maar dan nog, weet ik dat ik moet remmen voor een overstekende voetganger. De discussie hier is niet die zak of een stukje afval, de discussie hier is de voetganger.

[Reactie gewijzigd door SizzLorr op 8 mei 2018 12:38]

Maar dan nog, weet ik dat ik moet remmen voor een overstekende voetganger. De discussie hier is niet die zak of een stukje afval, de discussie hier is de voetganger.
Dat is raar… en toch vergeten heel veel automobilisten dat heel vaak… daarom worden er dagelijks voetgangers aangereden door automobilisten.
Klopt, maar je gaat er dan van uit dat jij de voetganger wél gezien hebt. Waar ik op doelde was eerder dat een mens zeer vaak dingen verkeerd inschat. Nu blijkt de software dat in dit geval ook gedaan te hebben, maar ongetwijfeld zullen er veel conclusies uit volgen met nadien de nodige aanpassingen.
Bij een mens kan dat echter niet. Ja, je zal de volgende keer mogelijk beter opletten, maar je waarnemingsvermogen blijft (te) beperkt.
+3 Dit is precies hoe ik er ook over denk maar ik denk niet dat ik het beter kan verwoorden.

Hulde!
het voordeel bij ongelukken door een ai en vergelijken met ongelukken door menselijke bestuurders is dat het bij alle zelfrijdende auto's weer meegenomen kan worden, terwijl bij mensen alleen dat individu ervan kan leren.
Op zich zou het probleem al een stuk opgevangen worden door sensors te gebruiken die warmte kunnen detecteren. Een false-positive die toch een heat-signature bevat zou dan door het systeem niet meer genegeerd kunnen (mogen) worden.

Als ik vele reacties hier lees (niet per sé die van jou) denk ik dat we allemaal te zeer denken dat de mens "goed" of "beter" met de wagen rijdt dan deze zelfrijdende auto's. Niets is minder waar. Ik doe dagelijks +200km en zie waanzinnig veel mensen met smartphones, boeken, kranten, tablets, en-wat-nog-allemaal bezig op een autosnelweg in een niet-zelfrijdende auto...
Zelfs in ideale omstandigheden, met uiterste concentratie zullen er ongelukken gebeuren door het beperkte waarnemingsvermogen van mensen. Eigenlijk zijn mensen minder geschikt als bestuurders dan de huidige alternatieven, op voorwaarde dat de zelfrijdende systemen inderdaad betere detectie hebben dan in dit voorbeeld.
Denk bijvoorbeeld aan de vele dode-hoek ongevallen (hoofzakelijk met vrachtwagens). Iets dergelijks is bijzonder eenvoudig te vermijden met een zelfrijdende auto, simpelweg omdat alle sensoren van zo'n systeem alle waarnemingen blijven doen in alle richtingen - in tegenstelling tot wat een mens kan waarnemen door beperkingen in zicht of waarnemingscapaciteit.
Je zegt het verkeerd. Op het moment dat het management zijn bestuurders verteld dat ze niet hoeven op te letten wordt het Uber's probleem. Ik vind het een sterk verhaal om te horen dat Uber dergelijk iets zou aandurven en daar is op dit moment ook geen bewijs voor. Zoals @OddesE al zegthet is geen strong AI, het is een complex stukje engineering welke dient als middel en niet als vervanger.
De vraag is of de disclaimer "hij rijdt zelf,aar jij moet op blijven letten" voldoende is.
Iedereen realiseert zich dat als een auto vijfenegentig procent van de tijd alles zelf doet het niet redelijk is honderd procent aandacht van de chauffeur te vragen.
Een boek lezen of appen tijdens het rijden is daarentegen onaanvaardbaar bij de huidige staat van automatisch rijden.
ALs er zwart op wit staat dat ze hebben gezegd 'je hoeft niet op te letten, speel maar lekker met je mobiel', dan hebben ze een probleem, maar A dat hebben ze niet gezegd want luie mensen verzinnen zelf ook wel dat ze niet op hoeven letten na 100km foutloos rijden en B dat is zelfs dan nog strafbaar dus als je 2 hersencellen hebt hou je je handen op het stuur en kijk je uit je doppen.

[Reactie gewijzigd door Origin64 op 8 mei 2018 16:50]

Interessante redenatie. In de luchtvaart en scheepvaart wordt er ook veel met automatische navigatie gewerkt. Toch is menselijke supervisie in beide gevallen nog altijd verplicht, en zal de eindverantwoordelijkheid bij de bestuurder van het schip/vliegtuig liggen. Wanneer de automatiek faalt neemt de mens het gewoon over. Dit is bij "zelfrijdende" autos niet anders. Het verlicht de workload, net als een cruise control, maar de automatische navigatie is geen vervanging (op dit moment) voor een mens.

Als je echt geen bestuurder wil zijn, heb je trein, taxi/uber of bus daarvoor.

[Reactie gewijzigd door Aetje op 8 mei 2018 12:29]

Toch is menselijke supervisie in beide gevallen nog altijd verplicht, en zal de eindverantwoordelijkheid bij de bestuurder van het schip/vliegtuig liggen.
De 'autopiloten' van vliegtuigen en boten zijn extreem dom. Ze houden een koers en snelheid (en hoogte) vast, en meer niet. Met enige regelmaat vliegt er een vliegtuig op autopiloot door een berg heen. Een heel ander systeem waarschuwt je, maar de autopiloot doet helemaal niets.

Iedere vergelijking tussen autopilot in boten en vliegtuigen en zelfrijdende auto's is verspilde moeite.
Laat de schuld maar gewoon bij Uber. De bestuurder gaat zeker niet vrijuit, maar is in dienst bij Uber.

Als Uber "objecten" van deze omvang nog als "false positive" wil laten gelden, is er wel iets structureel mis in het ontwerp van de software. Op zich is het begrijpelijk dat je in de software objecten als "false positive" kan classificeren, maar een object van meer dan 50 cm hoog en breed kan altijd flinke schade aan een voertuig geven. Objecten van dit soort afmetingen kunnen daarom nooit genegeerd worden. Daarnaast zou een infrarood (warmte) beeld nog eens moeten aangeven dat dit object warmte uitstraalt en dus menselijk of dierlijk moet zijn.
Kortom genoeg redenen om een auto in de ankers te laten gaan, al is het maar om schade te beperken.

Als Uber van de problemen wist, dan mag men zeker van nalatigheid spreken. De auto is dat met een bekend software-probleem opgestuurd en de bestuurder wellicht niet goed geïnstrueerd dat deze extra alert moet zijn op bewegende objecten die het pad van de auto (mogelijk) kruisen.
Gezien de tijd en verlichting ter plaatse zal de waarheid wel tussen die 2 filmpjes inzitten. Die van Uber is duidelijk veel donker dan de werkelijkheid, maar die andere is dan weer duidelijk gemaakt om te laten zien hoe 'licht' het daar wel niet is. Als je echt zoveel ziet als in dat filmpje heb je heel die lantaarnpalen niet meer nodig :+
Er zijn ook filmpjes van die weg van vóór het ongeluk, die ook laten zien hoe licht de weg is. Uiteraard zullen ze allemaal afwijken van de werkelijkheid, maar dat de weg echt zo pikduister is als in het filmpje van Uber is gewoon niet realistisch.
Ik wil je graag verwijzen naar mijn reactie van iets eerder.

De gelinkte camera van @SizzLorr pakt iets te veel focus richting het licht (de lampjes - je ziet het aan de reflectie en 'lichtshaduw'), maar de werkelijke situatie zit veel dichter bij de gelinkte video dan de situatie zoals de dashcam van Uber het weergeeft.
Bekijk de filmpjes nog maar een keer.....in het Uber filmpje ontbreken de slierten aan lampjes....daar is ze net voorbij gereden want ze zijn in de achteruitrijcamera nog wel net zichtbaar....er staan alleen nog hier en daar lantaarnpalen....
Het punt van de dashcam is meer bewijsvoering voor dit soort dingen en dan niet wie heeft wie niet gezien, maar wie begaat duidelijk een overtreding of heeft een grove inschattingsfout gemaakt.

In dit eval is het helaas zo dat de fietser/wandelaar en grove inschattingsfout heeft gemaakt en waarschijnlijk ook met andere dingen bezig was. Helaas heeft ze dit met haar leven moeten bekopen.

Dat de weg beter verlicht was dan op de dashcam zichtbaar is doet daar niets aan af. De politie die het onderzoek leid had ook al aangegeven dat dit voor een normale auto met bestuurder ontzettend lastig was om hier tijdig op te reageren om het ongeluk te voorkomen. Neemt niet weg dat de bestuurder op had moeten letten zodat de snelheid waarmee het ongwluk gebeurde lager was en de vrouw misschien wel een lans had om van haar verwondingen te herstellen.

Om maar even de vraag te stellen. Als jij daar had gereden. Netjes 35MPH op de cruise control (dus onder het limiet want teller snelheid is effectief lager dan daadwerkelijke snelheid). Had je dit dan volledig kunnen voorkomen? Ik denk het niet namelijk.
En wat mij betreft bij uber. De auto deed het waarschijnlijk de meeste tijd gewoon goed. Waarschijnlijk was het ook een bekend stuk. Als het iets zo goed werkt dan ga je als hulp bestuurder heel snel vervelen en krijg je snel vertrouwen. Dat is nu eenmaal het gemak van technologie. Niemand maakt zich druk dat een magnetron straling geeft, de boiler ontploft of de droger in de fik vliegt.
Niet dus, de chauffeur moet gemiddeld meer dan 1x per 30km ingrijpen. Dat is minstens 1x per uur. Dan kan je niet spreken van een auto die het meestal goed doet. Die doet het gewoon slecht en daarin mag je geen vertrouwen hebben. Dat de chauffeur dan ook met andere dingen bezig was dan op de baan te letten is onbegrijpelijk.
Eens.... en daarom is het des te lastiger te begrijpen hoe sommige mede-weggebruikers met van alles en nog wat (appen, FB, Snapchat, browsen, etc) bezig zijn terwijl ze GEEN AI systeem hebben dat in kan grijpen. Mensen maken inherent fouten en door de aandacht te verleggen naar een telefoon, neemt de kans op een ongeluk significant toe.

Mijn huidige auto heeft beperkte autonome besturing waar je ten alle tijden de handen aan het stuur moet houden. Alleen in een file doet hij alles zelf. En als alles uit staat, blijven diverse preventie systemen voor emergency braking/uitwijken actief. Dat is wat mij betreft ideaal, het systeem laat mij de hoofd bestuurder zijn en blijven, maar waakt voor het geval ik een fout maak.

Zolang AI niet meer ontwikkeld is, moet de mens de hoofd bestuurder zijn.
Niemand maakt zich druk dat een magnetron straling geeft
Eh, dat hoort zo bij een magnetron :)
Maar ik zie in de tweede video heel veel lichten langs de weg hangen aan kabels, die in de eerste video niet te zien zijn (alleen ver achter de bestuurder, niet waar ze op dat moment rijdt). Dus dat tweede filmpje lijkt mij helemaal geen goed beeld te geven van het stuk weg waarop het ongeluk plaatsvond!
Misschien zijn de slechte camera-opnames wel opzet.
In eerste instantie dacht ik ook dat die fietser uit het niets op duikt,
maar mogelijk zou het mogelijk zijn dat Uber bewust de beelden donkerder heeft gemaakt om het zo te laten lijken.
Als je goed kijkt dan zie je dat de lantarenpalen gewoon werken.
Dat kan heel goed, dacht ik eerst ook aan. Maar de tweede video is in elk geval echt geen goed vergelijkingsmateriaal, want die heeft heel erg veel lampen naast de weg hangen, wat op het stuk weg in de eerste video niet het geval is. Dus ik vind dat die tweede video niks bewijst.

Als je naar de schaarse lantaarns in die video kijkt, lijkt het wel alsof de stukken weg die verder van zo'n lantaarn zijn heel veel donkerder zijn dan de stukken dicht bij een lantaarn. Maar goed, dat bewijst nog niet het omgekeerde: het is nog steeds goed mogelijk dat het wel degelijk prima licht genoeg was voor een mens om zo'n oversteker te zien.
De camera pakt teveel focus richting de lampen van de auto, je ziet de straatlampen branden maar dat zijn vlekjes. Een slecht afgestelde camera dus, er is meer dan genoeg licht voor het menselijk ook.

https://www.youtube.com/watch?v=8p0lpe-puOI
Die video's zijn veel representatiever inderdaad. In de linker video vind ik het nog steeds best wel donker, en de vrouw loopt wel precies in een donker stuk. Maar in de rechtervideo is het donkere stuk al een stuk lichter. En zoals je zegt ziet het menselijk oog meer dan zulke camera's.
Hebben we dezelfde video gekeken? Dit is een fietser die niet alleen te voet maar ook nog eens zeer langzaam een drukke autoweg oversteekt, zonder licht, zonder reflectieve strips op de fiets of kleding. Er is geen zebrapad oid.

Deze persoon is voor die auto gelopen, die zijn lichten aan had, in de hoop dat deze wel zou remmen. Het slachtoffer probeerde niet eens vaart te maken terwijl die auto eraan kwam. Keek niet eens om voordat ze werd geraakt. Dat is echt suicidaal.

De bestuurder zat ook niet op te letten en blijkbaar zitten er fouten in de software. Dus door alle partijen zijn grote fouten gemaakt, zoals meestal als er doden vallen in het verkeer. Om dit alleen bij de autobestuurder en Uber te leggen en compleet te negeren dat het slachtoffer een doodswens leek te hebben, vind ik onbehoorlijk. Als er 1 iemand had opgelet dan was dit niet gebeurd.

[Reactie gewijzigd door Origin64 op 8 mei 2018 16:11]

Die weg is 3 banen breed en ik zie de persoon niet rennen ofzo. Daarnaast is de weg meer dan voldoende verlicht.
Het is dan ook meer dan voldoende verlicht om een auto aan te zien komen en te wachten met oversteken tot het veilig is.

Ik ga toch ook niet met mijn fiets aan de hand een 50 weg oversteken terwijl er verkeer rijdt? Die auto heeft voorrang. Je wilt toch niet dood. Ik begrijp dit echt niet. Waarom wacht die fietser niet op haar beurt?

[Reactie gewijzigd door Origin64 op 8 mei 2018 16:41]

Je moet dan wel de hele post lezen. De focus van de dashcam is zo ingesteld dat hij het licht van de auto pakt. Als je het tweede filmpje bekijkt dan zie je dat er meer als genoeg straatlampen zijn en dat de weg voldoende is verlicht om de voetganger op een afstand te zien.
Ook op klare dag is het niet slim om zonder te kijken over te steken.
Dus, wat je nu wil zeggen is dat het ok is om voetgangers die niet uitkijken dood te rijden?

De weg is 3 banen breed, de voetganger zal er even over doen om van de ene kant naar de andere te komen. De weg is recht, misschien verwachte ze dat de auto op zn minst zou afremmen. Een oplettend persoon had haar gezien.
Nee, ik vind het alleen raar dat er zo'n ophef is dat die auto zo'n grote fout heeft gemaakt terwijl de overstekende persoon op zijn minst een net zo grote en imo grotere fout maakte.
Nou het punt is, iemand met een fiets doodrijden, daar moet je goed je best voor doen. Iemand met een SUV van 2630 kg doodrijden is heel makkelijk. De auto reed (om een nog niet verklaarde reden) 40 mph (65km/h) waar 35mph (55 km/h) is toegestaan. Wat nu ook blijkt is dat de auto vlak voor de crash een baan opschuift, dat kan jezelf ook zien als je naar de camera kijkt die op de bestuurder is gericht, kijk maar naar de middenberm die verandert in een streep. Zo te zien wil de auto rechtsaf, de auto stuurt dus op haar in.

Misschien dacht ze dat er genoeg afstand was tussen haar en de auto. Misschien dacht ze dat de auto haar zou ontwijken omdat hij in eerste instantie op de linkerbaan zat. Misschien dacht ze dat de auto zou afremmen omdat de verkeerslichten iets verder op rood staan, of dacht ze dat de auto sowieso zou afremmen en niet op haar zou insturen.

Weet je wat jij je zin. Misschien was ze arrogant genoeg om te denken dat de auto maar voor haar moest remmen en liep ze de weg op. Dan nog is er geen enkele reden waarom de auto niet zou remmen, is er geen enkele reden om mensen dood te rijden en is er ook geen enkele reden om met de vinger naar de vrouw te wijzen.

Punt is dat als de bestuurder had opgelet en de auto zich aan de maximum snelheid had gehouden, dan had die auto stil gestaan of op zn minst afgeremd. Buiten dat om, kan nog het een en andere gezegd worden over het feit dat de auto op haar instuurt, maar goed dat even daar gelaten.

Ik weet trouwens niet of je kinderen hebt of dat jij uberhaubt een rijbewijs hebt. Nu is het een oud vrouwtje, maar straks is het jou zoontje/dochtertje die zonder te denken zomaar de weg opschiet. Als automobilist heb je met dit soort situaties te maken, klaar. Iedereen met een rijbewijs weet dat je 30 moet rijden waar 30 is toegestaan, vanwege dit soort toestanden. D'r kan vanalles de weg opschieten, er kunnen allerlei obstacles zomaar opduiken. Dat gebeurt, klaar! Jij bent de sterks en meest beschermde dus jij hoort andere webgebruikers te behoeden. Zo werkt het in Nederland en in vele andere landen.

Nou kan je wel zeggen, oh ze liep daar, ze deed dit, ze was dat, bla bla bla. Allemaal onzin. Ga jij je zoontje van 4 maar eens uitleggen dat hij nooit of te nimmer achter een bal aan moet rennen. Succes daarmee.

[Reactie gewijzigd door SizzLorr op 11 mei 2018 02:41]

Ik zeg toch ook niet dat die software niet verbeterd hoeft te worden? Alleen dat er 2 kanten aan dit verhaal zitten. Als ik kinderen krijg zal ik ze zeker uitleggen dat auto's gevaarlijk zijn en dat je aan de kant moet als je er een hoort aankomen, anders ga je dood.
En ik zeg dat jou kant verhaal onzin is.
Ja hoor prima de auto is altijd schuldig zelfs als ik zonder te kijken buiten de bebouwde kom met mijn fiets aan de hand zonder verlichting zeer traag een weg oversteek. Dan ben ik helemaal niet gevaarlijk bezig. Nee het is die klote automobilist die op haar mobiel keek die onverantwoordelijk bezig is, ik mag gewoon suicidale acties uitvoeren en daar moet de rest van de wereld maar rekening mee houden.

Waar een dodelijk ongeval gebeurt, is er 99% kans dat beide partijen niet opletten.

[Reactie gewijzigd door Origin64 op 14 mei 2018 11:18]

Ik vind ook zeker de overheid hierin mede verantwoordelijk en schuldig. Zij laat immers heel naïef commerciële bedrijven met alleen oog voor het maken van winst op de openbare weg toe met experimentele technologie. De overheid maakt daardoor van de openbare weg een test terrein met alle risico's van dien.

Dit is ook in mijn optiek de nummer 1 reden dat autonoom rijden nog wel heel lang gaat duren op de normale openbare weg want net zoals ook nu iedereen met van alles achter het stuur bezig is zal dat met een autonome auto nog veel meer zijn want er is niet direct een noodzaak om met het verkeer bezig te zijn.

Ik geloof meer in autonoom only rijbanen, zoals ook met de park shuttle in Capelle aan de IJssel. Veel minder variabelen.
Tja, dat is weer zo'n dilemma he. Testen op een afgesloten testcircuit kom je zo ver mee. Die auto's zullen op een gegeven moment de weg op moeten, wanneer is dat moment? De hele techniek staat in de kinderschoenen en er zijn geen standardisatie of verificatie tools. Dan zal je als overheid de fabrikant op z'n blauwe ogen moeten geloven.

Maar er is hoop, dat verificatie proces is nu ook volop in ontwikkeling.

Als je zegt, na dat gebeuren met Tesla en alle slechte berichtgeving rondom Uber had er ergens een belletje af moeten gaan. Ja inderdaad, misschien is dat belletje ook afgegaan. Hier in de EU hebben overheidsinstanties veel meer macht daarin, ze kunnen zelfstandig boetes en sancties opleggen. In de VS is dat niet, vaak komt het er op neer dat de overheidsinstantie via de rechter het moet afdwingen en probeer dan maar eens te bewijzen dat er iets niet klopt. Helaas, maar zo hebben die gekke Amerikanen het bedacht.
De schuldvraag ligt wat mij betreft primair bij de bestuurder.
Wat mij betreft niet. We weten dat mensen hun aandacht er niet bij kunnen houden als ze niets te doen hebben. Het is dus ook volslagen onredelijk om dat van iemand te vragen.

Uber daarentegen wist heel goed dat hun systeem matig presteerde. Ze nemen de risico's om sneller data te kunnen vergaren die broodnodig is voor het ontwikkelen van dit soort systemen.

Er is in mijn ogen geen enkele reden om goed te praten dat bedrijven zulke grote risico's nemen, nog minder om die af te schuiven op onderbetaalde chauffeurs met een menselijkerwijs onmogelijke taak.
Dit is wat mij betreft ook het probleem met half zelfrijdende systemen. Ze moeten of alles zelf kunnen, of helemaal niets. Adaptive Cruise control is prima, sensors die letten op de witte strepen is ook prima, maar de auto laten sturen is niet acceptabel wanneer de auto niet alles kan/mag.
De hele simpele reden is dat mensen op iets gaan vertrouwen, omdat het bijna altijd goed gaat. Dat moet je dus niet hebben, want dan krijg je dus dat mensen op hun telefoon gaan zitten e.d.

Gewoon hand(en) aan het stuur, prima wat extra snufjes, maar jij doet sturen, jij let op de weg, en op geen enkele manier kan die rijden. Tenzij wederom een auto het echt allemaal zelf kan en mag.
Nou moet ik toch even onze grote vriend Tesla erbij halen. Je hebt gelijk, of je hebt goed door ontwikkelde systemen die alles doen of je hebt ondersteunende middelen. Wat Uber heeft is een ondersteunend middel. Er is een reden waarom veel autofabrikanten zeeeeeer conservatief zijn als het gaat om de introductie van dit soort middelen. Mercedes had in de jaren 90 al een ACC, maar dan nog heeft het decenia geduurd voor ze dat durvde te installeren in serie auto's. De reden daarvoor is heel simpel, het gaat om mensen levens. Sterker nog, het gaat om mensen levens in massa's.
Al rij je niet in een experimenteel voertuig als bestuurder ben jij verantwoordelijk en moet je altijd je ogen op de weg houden.
Maar de vraag is wel of deze weg echt goed verlicht was.
In je tweede film zie je een goed verlichte weg maar als je de eerste goed bekijkt zie je nergens lantaarnpalen staan.
Overigens zou je toch in de verte ook verlichting moeten zien en ook dat kan ik niet waarnemen.
op de 33ste seconden is de plek van de crash.
Ik vraag mij af of het slachtoffer de wagen gewoon niet gezien heeft of een verkeerde inschatting heeft gemaakt in de hoop dat de bestuurder haar wel zou zien en zou vertragen?
toch wel grappig dat er zoveel mensen vertrouwen op de automatische rijmodus van de auto,
terwijl er zoveel heissa gemaakt word door mensen die er niet in rijden.

zie de tesla bestuurder die op een vrachtwagen klapte etc.

volgens mij worde er vrij duidelijk aangegeven door de fabrikanten dat je moet opletten, maar moet eerlijk toegeven dat ik altijd wel mensen slingerend zie autorijden met hun mobiel in hand zonder een zelfbesturende auto.
In een niet autonoom rijdende auto moet je simpelweg altijd opletten.
Het grote gevaar met autonoom rijdende autos met een 'backup' bestuurder is dat je 99% vd tijd niet moet opletten.
Denk aan het stokken vangen uit de honeymoonquiz met ron brandsteder. (ja zo oud ben ik al :) )
Als ik tegen jou zeg ga hier staan en binnen de 3 minuut valt er eentje dan is dat niet zo'n probleem. Ook niet als er elke minuut een valt.
Terwijl als ik tegen je zegt, er valt er ééntje tussen nu en een uur. Geheid dat je hem mist.
Zelfde principe met autonoom rijdende autos als je de hele tijd niet moet oplettend ga je meer op het systeem vertrouwen (zie je wel dat het werkt) en dan wordt je automatisch minder oplettend (het zal wel goed gaan).
Natuurlijk had Uber hier nooit een uitzendkracht in moeten zetten zeker niet in dit vroeg stadium, maar gekwalificeerd personeel.

[Reactie gewijzigd door TaranQQ op 8 mei 2018 15:59]

Kwestie van de mensen in de auto beter op laten letten terwijl de techniek op degelijk niveau is door ontwikkeld? Eeuwig zonde dit soort nieuws voor autonoom rijden.
Mensen meer laten opletten is een moeilijk probleem. Afgezien van de afleidingen waar mensen in het verkeer aan toe geven (mobieltjes etc), is de mens niet gemaakt om passief een aandachtige observerende rol te nemen. Dat is een bekend probleem uit resilience engineering, de aandacht verslapt snel als er geen acties ondernomen hoeven te worden. De oplossing ligt misschien eerder in de mens een actievere rol te geven... maar dan is het geen automatische piloot meer.
Dus doe je het zoals Tesla dat doet, om de zoveel tijd aandacht vragen.
Eigenlijk moeten ze een systeem hebben die kijkt of jij op de weg let, zoals Samsung doet met de camera die kijkt of naar de scherm kijkt.
Tsja... Zoiets, en als de bestuurder duidelijk over een bepaalde periode niet oplet gewoon automatisch naar de eerstvolgende veilige parkeerplaats?
Het is wel een verschil dat Tesla rond rijdt met consumenten/klanten, terwijl er bij Uber betaald personeel in zit.
Al heeft Uber nu niet echt de beste reputatie als het komt op het screenen en fatsoenlijk betalen van hun personeel...
Dat geldt als voor een consument ja, maar niet als getest wordt met een auto.
Een chirurg gaat toch ook niet tijdens een operatie even niet opletten.
Een chirurg is dan ook niet passief aan het observeren.
Chirurgen in opleiding moeten 2 jaar lang operaties bijwonen zonder iets te doen. Die letten echt wel op tijdens een operatie.
Ja? Dan hebben ze een doel, om een chirurg te worden. Ze moeten opletten om iets te leren en iets te bereiken. Bij deze chauffeurs is geen vooruitzicht, ze moeten x maal ingrijpen in misschien de xkm die ze rijden. En operaties hebben progressie dat hebben deze autoritten niet.
Dit is heel saai en nonchalant werk, en het is bekend dat wanneer iets nonchalant gebeurt er vaker fouten worden gemaakt.
Ik vermoed dan dat een deel van het probleem ook is dat Uber waarschijnlijk niet heel hard investeert in die mensen, of in de organisatie er omheen. Het is zeker wel mogelijk om veel beter op te letten, maar dat kun je niet verwachten van de gemiddelde uber chauffeur tegen het standaard uber hongerloontje en ook geen 8+ uur achter elkaar. Daarom moet je dus geen gemiddelde chauffeur er in stoppen. Verder zouden ze bijvoorbeeld ook weer iemand anders de opnames kunnen laten controleren om te zien of de chauffeur genoeg oplet of andere dingen zit te doen zoals in dit geval. Dat wil je zien voordat je er achter komt omdat er iemand overreden wordt. Kost een hoop, zeker, maar je bent dan ook bezig met het ontwikkelen van nieuwe technologie, dat kost een boel geld, dan moet je niet bezuinigen op de chauffeur.
Dit is natuurlijk een vermoeden, maar het zou me zeer verbazen als Uber wel dit soort maatregelen allemaal treft.
[..] dat Uber waarschijnlijk niet heel hard investeert in die mensen, of in de organisatie er omheen.
De essentie van het business-model van Uber is dat men op geen enkele wijze investeert in mensen of organisatie. Ze huren ZZP-ers in omdat dat zakelijke contracten zijn waarbij ze alle menselijke aspecten achterwege kunnen laten. Een taxi-bedrijf moet toezien op werktijden en pauzes, een ZZP-er die voor Uber rijdt kan wat Uber betreft best 20 uur per dag op de weg zitten. Is niet het probleem van Uber. Een taxi-bedrijf moet VOG, taxi-vergunning en rijbewijs controleren. Uber vraagt of je die papiertjes hebt als ZZP-er, maar controleert dat niet. Een veroordeelde verkrachter die ook nog dronken zonder rijbewijs iemand doodgereden heeft kan prima voor Uber rijden. Is niet het probleem van Uber.
Ja, dat is waarom ik denk dat ze ook voor hun autonoom rijden onderzoek wel niet heel hard in de mensen zullen investeren, en waarom ik denk dat uber geen goede partij voor dit soort ontwikkelingen (althans voor het op de publieke weg testen).
Ik weet niet waarom je denkt dat ze niets moeten doen, maar uiteraard klopt dat niet. Chirurgen in opleiding doen gewoon operaties onder supervisie. Er is iemand aanwezig die kan ingrijpen als het nodig is, maar ze opereren gewoon. Zelfs studenten geneeskunde mogen kleine dingen doen zoals wonden hechten.

[Reactie gewijzigd door vampke op 7 mei 2018 23:14]

Nee hoor de eerste 2 jaar kijken ze alleen bij operaties. Daarna gaan ze pas zelf onderdelen binnen een operatie doen.
Ik hoop niet dat jij 2 jaar lang alleen maar heb mogen kijken? De eerste jaren kan je prima de chirurg assisteren tijdens de operatie (als extra paar handen naast de operatieassistent). Dit gebeurt continue en daar leer je ook meer van.
Zijn jullie misschien verschillende landen en ideeen over opleidingen aan het vergelijken ?
In NL wordt (voorzover ik weet, ik ben geen dokter) wel geopereerd door chirurgen in opleiding.
Nee, dat is het helemaal niet. Verkeersveiligheid ligt namelijk niet alleen aan jou, maar ook aan andere weggebruikers die niet zo oplettend zijn.
Juist. Daarom is het veel veiliger als ik met 180 over de snelweg rij, dan houdt ik m'n aandacht er tenminste bij. 130 is zo slaapverwekkend op een rustige snelweg overdag.
Dat betwijfel ik zeer. Als het goed is, is 130Km ook vergelijkbaar slaapverwekkend - een overdreven term. Als je met 130Km je volledige aandacht nodig hebt omdat er allerlei spannends gebeurt is er kennelijk sprake van
- veel obstakels
- grote snelheidsverschillen met andere weggebruikers
- rammelende schuddende auto die je wakker houdt
- veel bochten

In al die situaties is het veel gevaarlijker om 130 ipv 80Km/u te rijden.
Kwestie van dit soort zaken te testen op gesloten wegen. Als het zo slecht is als het artikel doet denken was het systeem verre van geschikt voor testen op publieke wegen.
Als ik het zo lees, is het systeem wel klaar, maar was het verkeerd ingesteld. Dus het gaat om een menselijke fout in het autonome rijden, niet een autonome fout.
De vraag is natuurlijk of een correcte afstelling op dit moment mogelijk is. Het is de balans tussen stoppen voor elke overwaaiende plastic zak en alle objecten negeren en lekker doorrijden. En ik vermoed dat dat een zeer delicaat balans is. Is de objectherkenningssoftware hier al klaar voor?
Waarschijnlijk zijn ze op de verkeerde weg door alleen met camera/lidar achtige systemen de omgeving te scannen.
Met een radar kun je heel goed zien of een object "hard" (mens/fiets) of "zacht" (plastic zak/kartonnen doos) is. Radar heeft wel een fiks weer nadeel, als het erg hard regent of sneeuwt zie je letterlijk niets meer. Maar ja, dan moet je toch de snelheid aanpassen, toch? (ps lees: minder hard rijden)

Edit: Men zal een ander nadeel van radar noemen, dat het signalen van andere radars opvangt, wat storend zou werken. Laat dit nu net een eigenschap zijn die militair erg gewaardeerd wordt, met passieve radars (ontvangers dus).

[Reactie gewijzigd door wjn op 7 mei 2018 22:12]

Niet alleen dat, ook de kwaliteit van de input die de sensoren leveren heeft hier een enorme invloed op:
hoe robuuster / nauwkeuriger de sensor data, des te groter wordt de kans dat de juiste beslissing genomen wordt.
Mijn eerste gedachte is een warmtecamera, maar die worden misschien al toegepast?
En dat zou dus niet moeten mogen. Ga dan eerst zoals gezegd op gesloten wegen testen.
Daarna wijzig je niks meer aan je instelling als je het in productie.... op de openbare weg laat.
Ik snap de gedachte gang, maar op een gesloten weg kan je deze situatie niet of heel moeilijk nabootsen. En je moet ook maar dit soort freak situaties verzinnen. Dit soort ongelukken hoort vrees ik bij het leerproces. Een kind stoot zich vaak ook meerdere malen voordat hij door heeft dat ie iets niet moet doen. Deze situatie zal nu ook in de software geprogrammeerd worden.
Ik snap de gedachte gang, maar op een gesloten weg kan je deze situatie niet of heel moeilijk nabootsen
Waymo(Google) heeft gewoon een afgeloten testtraject. Ze controleren ook of de mensen goed opletten en selecteren daar expres op tijdens het aannemen. Een beetje zoals een treinbestuurder. Eén keer door een rood licht en je bent gelijk op non-actief totdat ze een intensieve test hebben gedaan.
Dit soort ongelukken hoort vrees ik bij het leerproces.
Deze dood was te voorkomen geweest. De bestuurder zat totaal niet op te letten. Waarom werd hierop niet gecontroleerd? Waarom werd het niet stopgezet? Het aantal ingrepen ging enorm omhoog, waarom werd daar niks mee gedaan?
Prestatiedrang. De druk ligt bij de maatschappijen altijd erg hoog als het gaat om "wie er de eerste is" wat ook vaak weer gekoppeld kan worden aan geld. Dit had voorkomen kunnen worden, zeker, maar door simpele keuzes door management is dit gewoon doorgegaan. Dus is management / directie wat mij betreft schuldig aan dood door schuld. Ze waren immers op de hoogte van de toename van risico's.

Voor wat betreft de actievere rol van de chauffeur, kunnen we die niet een tablet geven om bij elk object de keuze van de computer te bevestigen? Zodat de computer hier weer van kan leren? Lijkt me niet zo moeilijk namelijk. Waarom een computer alles in z'n eentje laten leren?
Je laatste opmerking is precies wat ik ook dacht, 2 vliegen in 1 klap: bestuurder krijgt een actieve rol en het systeem kan sneller leren.
AR brilletje erbij, noem het Forza Horizon 8 ;)
Deze dood was te voorkomen geweest.
Dat vraag ik me sterk af. Deze vrouw kwam echt uit het niets de weg op lopen. Dit wordt ook ondersteund door de verklaring van de politie na het bekijken van de camerabeelden. Verder ben ik het wel met je eens.

Overigens is het wel een interessante vraagstuk wanneer autonoom rijden massaal ingevoerd moet worden. Je kunt namelijk niet alle ongelukken voorkomen maar wanneer is het ethisch verantwoord om autonoom rijden te omarmen? Is dat al wanneer gemiddeld gezien de autonome auto's minder ongelukken veroorzaken dan menselijke bestuurders? Immers betekent dit statistisch gezien minder slachtoffers.
[...]

Is dat al wanneer gemiddeld gezien de autonome auto's minder ongelukken veroorzaken dan menselijke bestuurders? Immers betekent dit statistisch gezien minder slachtoffers.
Eerlijk? Wat mij betreft gisteren al. De hoeveelheid mensen die ik op hun telefoon zie onder het rijden is werkelijk schrikbarend. Ik denk makkelijk 1/3 van de bestuurders zit aan de telefoon, en ik denk een kwart daarvan is bezig met niet-handsfree bellen.
Ja en? Blijkbaar maakt dat weinig uit voor het aantal ongevallen. Je zou daaruit ook kunnen concluderen dat de gevaarzetting van bellen onder het rijden nogal overdreven wordt.
Ja en? Blijkbaar maakt dat weinig uit voor het aantal ongevallen. Je zou daaruit ook kunnen concluderen dat de gevaarzetting van bellen onder het rijden nogal overdreven wordt.
Hoezo maakt dat blijkbaar weinig uit? Sinds een jaar of twee is het aantal ongelukken weer aan het stijgen, dat is al héél lang niet meer gebeurd.
Mobiele telefoons zijn al veel langer dan een jaar of 2 gemeengoed dus daar kan het niet alleen aan liggen.
Mobiele telefoons zijn al veel langer dan een jaar of 2 gemeengoed dus daar kan het niet alleen aan liggen.
Uiteraard, wat toen telefoons gemeengoed werden was het per direct een gewoonte om 'm te gebruiken in de auto. Ik weet het nog als de dag van vandaag. 18 juni 2015 om 1345 precies besloot 30% van de consumenten per direct hun telefoon in het verkeer te gebruiken. Geen sprake van een geleidelijke trend.

Sarcasme terzijde, dit is gewoon algemeen bekend.

[Reactie gewijzigd door nst6ldr op 9 mei 2018 13:05]

Overigens is het wel een interessante vraagstuk wanneer autonoom rijden massaal ingevoerd moet worden.
Moet worden ingevoerd? Iemand zal die auto's moeten kopen, en gezien de prijs van dat soort systemen gaan er sowieso minstens 30 jaar overheen voordat zoiets van de topmodellen doorsijpelt naar de budgetmodellen en de 3e hands markt, als dat al gebeurt.

Voor mij zijn autonoom rijdende auto's pas interessant als je ze zelfstandig opdrachten kunt geven. Ik rij zelf tot aan m'n bestemming, merk dat je daar niet kunt parkeren en geef de auto opdracht ergens een gratis parkeerplek te zoeken en te wachten tot ik hem via een app weer oproep. Of ik heb bij een avondje uit wat teveel gedronken en laat me in de automaat stand naar huis rijden. En dan moet dat wel mogen en niet eindigen zoals dit: https://www.telegraaf.nl/...op-passagiersstoel-zitten
Ik denk dat je je verkijkt op de rijkdom die er is. Er is geld zat, weliswaar oneerlijk verdeeld maar toch. Volledig autonome auto's kunnen zichzelf terugverdienen door als taxi/car sharing te dienen. Dit zou mogelijk ook een reductie van het aantal auto's betekenen wat waarschijnlijk gestimuleerd zal worden vanuit de overheid. Er zijn dus meerdere factoren die kunnen bijdragen aan een kostprijsreductie.

Maar waar ik eigenlijk op doelde is wanneer de wetgeving klaar autonome auto's is en deze ontwikkeling een vogelvlucht kan nemen. Nu is het namelijk nog kleinschalig en niet overal wetgeving-technisch mogelijk.
Ik kijk wel uit om zonder toezicht wildvreemden in mijn auto te laten zitten. En carsharing werkt alleen als je zo'n overgeorganiseerd type bent dat maandag al precies weet waar en wanneer hij de rest van de week heen gaat. En huren is sowieso te duur als je normaal gesproken oude auto's rijdt en niks geeft om een gloednieuwe auto.

[Reactie gewijzigd door Morgan4321 op 8 mei 2018 10:01]

Zeg je dit ook over de mensen die hun huis AirBnB'en? Want dat is immers immens populair. Als carsharing zo makkelijk gemaakt word dat de auto zelfstandig naar de huurder rijdt dan is de drempel laag en wellicht interessant genoeg dat je tussen vrienden en familie of zelf werknemers genoeg mensen kan vinden om er lekker aan te verdienen.
Zeg je dit ook over de mensen die hun huis AirBnB'en?
Ja. Ik krijg sowieso van al die berichten over airbnb de indruk dat meeste van die huizen helemaal niet bewoond woerden door de eigenaar maar men ze het liefst het hele jaar door verhuurt.
Het probleem is ook dat als het massaal ingevoerd wordt, het een minder groot probleem is. We zitten nu in een hele moeilijke tijd omdat er een overgangs periode is. En daardoor moeten ze de autonome auto's die tussen de "normale" weggebruikers terecht komt, veel meer leren/programmeren omdat er veel meer vreemde situaties kunnen voorkomen. Als we massaal alle auto's konden vervangen door autonome auto's, hoeft met minder variabelen rekening gehouden te worden.
Ik snap de gedachte gang, maar op een gesloten weg kan je deze situatie niet of heel moeilijk nabootsen.
Hoezo? Steek over. Boots een straat na. Gooi een bal, een hond, een kind de weg op en kijk of de auto reageert. Hoe moeilijk kan dat zijn.?
Ik geloof dat een hond of een kind voor een auto gooien op de meeste plekken in de wereld illegaal is. Misschien niet de beste test :P

Ik denk dan eerder dat je bedoeld:

Steek over in schemering met de zon op zijn laagste punt, en een kind die plots begint te lopen nadat deze al een poosje stilstond op de middenberm? Of kijk wat er gebeurd als iemand op het laatste moment besluit gas te geven bij het rode verkeerslicht?

Of wat als je een rij auto's passeert en er staat plots iemand op die net klaar is met veterstrikken? Gaat de software alvast remmen omdat er plots iemand in beeld verschijnt? Of wacht deze totdat de persoon die opstaat zich ook richting de rijbaan begeeft? In het 1e geval sta je vaak plotseling stil terwijl dat niet nodig is, al dan niet met iemand in je kofferbak. In het 2e geval kan het zijn dat je te laat reageert en je remweg te lang is.

Wat ik maar bedoel aan te geven is dat de keuzes waarvan jij denkt dat ze heel makkelijk zijn dat gewoon echt niet zijn. Dit is een van de weinige denken waarbij een mens nu echt nog een groot voordeel is ten opzichte van een computer: inschattingen. Als een persoon voldoende informatie krijgt kan deze erg snel (correcte) inschattingen maken. Waar het bij mensen meestal mis gaat is het gebrek aan informatie: meestal doordat iemand simpelweg niet oplet, soms door slecht zicht of andere oorzaken.
Of wat als je een rij auto's passeert en er staat plots iemand op die net klaar is met veterstrikken? Gaat de software alvast remmen omdat er plots iemand in beeld verschijnt?
Als mens zou ik zeker rekening houden met de kans dat een naderend persoon ook werkelijk gaat oversteken. Dus ja, afremmen.
Ook kan de bestuurder mijn gedrag als voetganger of fietser peilen en zien of ik alsnog stop omdat de auto neigt tot doorrijden. De autonome Volvo van Uber blijkt echter weer beter in negeren en rijd me dood.
Iemand die jou achterop rijdt had sowieso niet voldoende afstand en lette ook niet goed genoeg op.
Autonome voertuigen blijken nog lang niet volwassen en vooralsnog onvoorspelbaar.
Iemand die jou achterop rijdt had sowieso niet voldoende afstand en lette ook niet goed genoeg op.
Autonome voertuigen blijken nog lang niet volwassen en vooralsnog onvoorspelbaar.
Dit is dus precies wat ik bedoel: de aandacht van een mens verslapt, waardoor je er achterop klapt. Op dit moment zijn mensen (vermoed ik) nog beter in autorijden dan autonome systemen. Maar een autonoom computersysteem leert continue bij en zal binnen niet onafzienbare tijd de mens inhalen, mits het een kans is gegund uiteraard. De aandacht van de autonome auto verslapt immers nooit.

Punt blijft dat zolang er mensen zijn die zich op een rijbaan begeven of er auto's zijn die niet autonoom rijden je ongelukken gaat houden. Ook met een autonome auto.
Menselijke bestuurders daarintegen? Dat is toch juist het probleem ;)
Bekijk dit filmpje eens van Google als je tijd hebt: https://www.youtube.com/watch?v=Uj-rK8V-rik&t=2243s
Specifiek de situatie rond 34:00, zoiets verzin je niet zomaar.
En er zitten nog een hele hoop situaties in dat filmpje waar je écht niet zelf op komt :)
Door iemand dood te rijden? Nice.
Ik begrijp de echte testen op de openbare weg, maar dan nog mag het niet zo zijn dat iemand een wijziging aanbrengt die niet eerst getest wordt. Edgecases..... maybe.... maar zeker niet cool.
Het grappige is dat autonoom rijden al veiliger is dan met een (gemiddelde) bestuurder. Als je alle kilometers bij elkaar optelt en 1 dooie is dat heel weinig. Maar dat is ethisch gezien niet te verklaren, hier is de wereld nog lang niet klaar voor. Want als straks bijna alle autos autonoom rijden en iemand wordt aangereden wiens schuld is dat dan?
Waar baseer je dat op? Volgens mij zijn hier geen cijfers van. Arstechnica publiceerde daar laatst nog over. https://arstechnica.com/c...ce-autopilot-saves-lives/
Het grappige is dat autonoom rijden al veiliger is dan met een (gemiddelde) bestuurder. Als je alle kilometers bij elkaar optelt en 1 dooie is dat heel weinig.
Dan moet je wel een vergelijking maken met verkeer op vergelijkbare wegen. Probeer met je autonome auto maar eens door de binnenstad van Amsterdam, Parijs of Bankok te komen.
Ik moest denken aan dit filmpje van Mercedes: http://www.youtube.com/watch?v=2-eBUZP0FJ0&t=3m0s

Freak situaties verzinnen om mee te testen is onderdeel van je product goed ontwerpen. Daarbij komt dat als je wat tijd steekt in dat soort dingen in simulatie of gecontroleerde omgeving testbaar maken, je je product ook veel sneller tot een hoog niveau kan brengen.
Deze situatie zal nu ook in de software geprogrammeerd worden.
Meen je dat? Dat is letterlijk "als het kalf verdronken is, dempt men de put". Elke put afzonderlijk, kalverlijk voor kalverlijk. Dat schiet natuurlijk niet op.

Overigens is de gedachte om autonome auto's (voorlopig) op gesloten wegen te testen, helemaal niet zo'n gek idee. Dat doen we met autonome vliegtuigen en autonome schepen tenslotte ook, en nog steeds zit daar altijd een piloot of kaptein op te letten. Dan hebben we het over tientallen jaren oude techniek die steeds aangescherpt is. Is het dan niet overdreven ambitieus om auto's in veel ingewikkelder situaties op de medeweggebruiker los te laten?

[Reactie gewijzigd door mae-t.net op 8 mei 2018 03:21]

Ga dan eerst zoals gezegd op gesloten wegen testen.
Een afgesloten weg is totaal niet hetzelfde als een gewone weg. Een auto die perfect kan rijden op een gesloten circuit kan een gigantische kans op ongelukken hebben bij normale verkeerssituaties.

Ja, de allereerste proefversies test je natuurlijk op een afgezet terrein, maar op een bepaald punt zul je toch "voor het echie" moeten gaan. Vergelijk het met mensen die rij-examen moeten doen, dat doen ze toch ook op de openbare weg, in plaats van op een circuit?
op een bepaald punt zul je toch "voor het echie" moeten gaan. Vergelijk het met mensen die rij-examen moeten doen, dat doen ze toch ook op de openbare weg, in plaats van op een circuit?
Je test hier de auto. Test dan hoe hij reageert als er plotsklaps iets of iemand opduikt.
Dat kun je testen. Als het ding de overstekende persoon negeert moet je die auto dus niet de maatschappij in sturen. Testen, testen en testen.
Als het ding de overstekende persoon negeert moet je die auto dus niet de maatschappij in sturen.
Ja dûh, zo kan ik het ook. Maar nu de andere kant van het verhaal: als het ding netjes remt voor de overstekende persoon (die persoon, in die situatie, ...), is ie dan klaar om de maatschappij in te mogen?
Testing shows the presence, not the absence of bugs - Edsger W. Dijkstra
Ter illustratie, stel dat je een chip maakt met daarin een schakeling die twee getallen op kan tellen ("32 bit full adder"). Als je dat ding volledig wilt testen, door alle mogelijke combinaties van invoer te proberen en te controleren of je de correcte uitvoer krijgt, dan moet je ongeveer 4 miljard (input a) x 4 miljard (input b) x 2 (carry in) combinaties proberen. Op een snelheid van 10 GHz duurt dat ruim 3 miljard seconde (dat is ruim 100 jaar). Als je 64 bit inputs hebt dan wordt het meteen hopeloos (miljarden keren de leeftijd van het heelal). En dat zijn dan nog combinatorische schakelingen, waarbij de uitvoer alleen afhangt van de invoer (met andere woorden: zonder geheugen). Schakelingen met geheugen zijn nog lastiger.

Dus als we het erover eens kunnen zijn dat een automatische piloot meer dan 65 bits aan input tegelijk verwerkt en vast wel ergens een stukje geheugen bevat, dan is de enige mogelijke conclusie dat net zolang testen totdat je alle mogelijke situaties gehad hebt een leuke theorie is, maar in de praktijk volkomen onmogelijk.
Niet alleen daardoor is het onmogelijk. Lichtinval, kleur van kleding/fiets, reflectie van licht (eventueel van andere auto's), een heldere (bloed)maan - of juist geen maan, slimme straatverlichting ... Er zijn zo immens veel variabelen dat het alleen daardoor al onmogelijk is om alles te kunnen testen. Dat wordt hem dus niet.

Wellicht naar een systeem van drie door andere partijen geprogrammeerde computers die eenzelfde besluit moeten nemen, waarbij twijfel een noodstop betekent. En dan dat als wettelijke verplichting met een incentive voor de partij die de meeste juiste besluiten heeft genomen. Dan heb je gelijk druk van de markt om het goed te doen, zodat niet drie keer per kwartier de koffie tegen de voorruit aangaat :)

Overigens is een full-adder prima te bewijzen zonder alles door te rekenen, dat geldt in geen geval voor een automagische piloot. Overigens ook benieuwd wat er met zo'n ding gebeurt bij een blikseminslag. Maar dat slechts geheel terzijde.
Het lijkt me toch echt niet dat het systeem klaar is. Als je het verschil niet ziet tussen een plastic zakken en een mens zit je met een probleem. Heb je een situatie waar er onverwacht een persoon van links komt en een plastic vuilniszak plots van rechts komt aangewaaid. De auto kan niet meer tijdig stoppen maar wel één van de twee objecten vermijden. Je hebt dus 50% kans dat ie de mens aanrijdt om een plastic zak te sparen.
't Gaat wellicht nog niet eens om "slecht", maar dat het geen 99,9999995% haalt. Elk vermijdbaar risico - en daar lijkt het hier op - moet afgestreept kunnen worden. Tja, en dan komt de druk van de investeerders ineens om de hoek kijken. Dan wordt er dus toch een trade-off gemaakt. De oplossing? Lastig. Het liefst zou ik verplicht stellen dat onderzoeksresultaten openbaar zijn/worden. Maar dan investeert er niemand meer in, dat snap ik ook wel. Mijn insteek zou dan ook zijn: Verplicht de auto's op een aparte baan houden zonder risico op passanten tot bewezen is dat ze even goed presteren als het gemiddelde in het land. En dat wordt al discutabel genoeg, want dan ga je akkoord met een aantal ongelukken met fatale afloop. Als dat goed gaat, een stap verder, etcetera. Is een kwestie van lange adem, maar dan bouw je vertrouwen op, in plaats van bij 100% te beginnen en er elke keer vertrouwen weglekt. Maar goed, als het simpel was, was het vast al eens opgelost.

En ik denk dat @theborgnl de spijker op de kop slaat. Als passieve bestuurder reageer je domweg te laat bij zoiets. Normaal neem je actief deel aan het verkeer, maar niet als tweede bestuurder. Hoe laakbaar ook, dat is vrees ik wel menselijk.

Toevoeging: En dan bedoel ik niet alleen het resultaat, maar ook het pad naar die resultaten. Dus de opzet van het geheel ook, daar was ik niet duidelijk over.

[Reactie gewijzigd door Houtenklaas op 7 mei 2018 21:49]

Het liefst zou ik verplicht stellen dat onderzoeksresultaten openbaar zijn/worden.
Betrouwbaarheidscijfers doorgeven is verplicht in één Amerikaanse staat. Ik snap niet precies je gedachtegang, waarom zou niemand investeren? Ten eerste gebeurd het al, verder is het publiceren van resultaten redelijk normaal (jaarcijfers, onderzoeken, etc).
Omdat ik me kan voorstellen dat een partij rustig afwacht tot iemand anders gaat investeren om er daarna met de onderzoeksresultaten aan de haal te gaan. Betrouwbaarheidscijfers ophoesten en resultaten geven is één, maar volledige openheid in onderzoeksmethodes, de weg naar de uitkomsten etcetera is een heel ander ding. Dat is voor zover ik kan nagaan nergens verplicht. Lijkt me commercieel ook niet haalbaar, alhoewel ik de wenselijkheid er wel is denk ik.
Die cijfers zijn alleen aantal km, aantal ingrepen, aantal ongelukken. Daar kan een concurrent niets mee, behalve zijn performance vergelijken.
Dat is dan ook precies het probleem. Wat ik graag zou willen is juist het leereffect van onderzoek, het vallen en opstaan wel openbaar is, zodat iedereen baat heeft bij dat onderzoek en de leercurve.
Lijkt me dat, zelfs als je een beetje idee hebt hoe het ontwerp gedaan is door een ander qua keuzes etc, het nog verrekt lastig is om het te repliceren. Want dan zal je ook dezelfde sterkte en focus voor LIDAR etc moeten hebben (ik ga er vanuit dat Waymo bv flink wat doorontwikkeld heeft in vergelijking met de normale commerciele LIDAR-systemen), en andere systemen, anders kloppen de parameters niet meer bij wanneer de software aanpassingen moet doen aan de snelheid, moet remmen, etc.
In het gelinkte artikel eerder op tweakers word gesproken over het doel om maar eens per 21 kilometer te moeten ingrijpen, en dat word niet gehaald. Google zou maar eens per 9000 kilometer moeten ingrijpen.

Dat vind ik toch verre van 99,9999995%. Dit is gewoon niet geschikt voor de openbare weg. Klaar.
Als dit een rij examen betrof was je gezakt, en terecht.

Het verschil is echter dat een rij instructeur of examinator in principe mee aan het rijden is en er juist op bedacht is dat jij fouten maakt en zoals je zegt iemand die er pasief bij zit gaat echt niet adequaat kunnen reageren. Je zult die persoon actief bij het besturen moeten betrekken, anders is er geen psycholoog die je gaat vertellen dat het een goed idee is.

Dit soort situaties waren prima te simuleren op een gesloten circuit. Dit lijkt zelfs veel op de test die EURONCAP uitvoert om het automatisch remsysteem te testen van auto's.

Ik denk dat hier gewoon zware boetes op moeten staan. Uber is in mijn ogen duidelijk nalatig geweest hier. Ze wisten dat er vaak moest worden ingegrepen en blijkbaar wisten ze ook van de incorrecte false positives.
Tja, dat is het nadeel. Google heeft het zware werk gedaan en aangetoond dat haar auto's redelijk veilig zijn, in ieder geval veilig genoeg voor de openbare weg.

Nu denk iedereen dat hun auto het ook wel kan, maar nu blijkt dat er nogal wat verschil zit in de kwaliteit van de zelfrijdende auto.
Veilig genoeg voor een openbare weg ergens in Arizona.
En daar kun je gewoon met een sportvliegtuigje op de openbare weg landen :+ Er rijd, behoudens enkele plekken, bijna geen kip

Doe dan gewoon NY of LA
Kan je niet mensen de auto’s laten besturen inclusief alle sensoren aan en dan achteraf alle data “af laten spelen” en dan de autopilot beslissingen laten nemen? Dan heb je een mooie hybride vorm van een persoon die rijdt en achteraf toch de computer laten simuleren in real live omgevingen.
Laat mij maar een jaartje in een xc90 rijden en dan mag uber de data hebben.
Doe je het ook met een Dacia :)
Nee, dan hou je geen rekening met de menselijke factor. In dit geval de verslapping van aandacht van de 'bestuurder' juist vanwege het autonome rijden. Mensen zijn met de beste wil tenslotte geen robots.

Dat terzijde, heeft Volvo met Uber behoorlijk op een verkeerd paard gewed. Ze hebben nu een dode extra op hun naam staan ondanks hun streven naar nul verkeersdoden. Dankzij Uber.
https://group.volvocars.com/company/vision

[Reactie gewijzigd door Fireshade op 7 mei 2018 21:34]

Wanneer weet jij wanneer de auto gaat crashen op het moment dat deze ergens tegenaan gaat rijden met redelijk hoge snelheid. Dan ben jij als testpiloot ook waarschijnlijk al te laat. Dit moet gewoon 100% feilloos werken op een gesloten terrein, met voldoende simulatie.
De software kon al zien dat er iets de weg op kwam maar markeerde het niet als persoon, maar deed dat pas op het laatste moment.
Dat zou niet gebeuren als jij achter het stuur zit. Je ziet iets de weg op komen, dan speel je daar op in en wacht je niet tot het laatste moment.
Eeuwig zonde voor de persoon die hiermee is omgekomen en diens familie en vrienden.
'Onverlicht'. Er zijn meerdere mensen die met een goede dashcam, op ongeveer hetzelfde tijdstip als dat het ongeluk gebeurde in de week na het ongeluk die weg afreden en het op YouTube zetten. Die weg is vrij goed verlicht. De dashcam van Uber was compleet waardeloos. Zie bv https://www.youtube.com/watch?v=8p0lpe-puOI of https://www.youtube.com/watch?v=1XOVxSCG8u0 voor hoe de weg er werkelijk uit ziet later op de avond.

[Reactie gewijzigd door MicBenSte op 7 mei 2018 21:47]

Ik zou bijna denken dat de beelden van de dashcam van uber gemanipuleerd zijn. Het donker wat donkerder maken en klaar is het 'bewijs'.
Tenzij de politie pas een dag later aan het onderzoek begonnen is en ze ook niet gelijk de dashcam in beslag genomen hebben of de auto een high-speed verbinding had met het hoofdkantoor en ze daar gelijk aan het editen zijn geslagen, lijkt me dat onmogelijk. Lijkt me eerder dat gewoon de camera van een uitermate beroerde kwaliteit was met een nog slechtere afstelling.
Wie heeft die beelden vrijgegeven? Ik dacht 'die zal Uber wel gestuurd hebben, vanuit een opname gemaakt door de auto'. Maar het kan natuurlijk dat de auto ook nog een 'gewone' dashcam had. Maar het lijkt me eerder dat Uber alle beelden opneemt van de camera's die in de auto zitten voor het zelfrijden, en dan is die beeldkwaliteit wel heel belabberd.
Nou ik er over nadenk... waar zijn die beelden dan?
De politie heeft de beelden vrijgegeven van de dashcam in de auto van Uber, ze zijn ook op YouTube te vinden (nou ja, degene die door de politie vrijgegeven zijn - de aanrijding zelf zie je niet, allleen als reactie van de bijzonder onoplettende bestuurder/controleur. Je ziet beelden vooruit tot +- een halve seconde voor de aanrijding zelf.

[Reactie gewijzigd door MicBenSte op 8 mei 2018 20:48]

Dan kun je donker wegstrepen maar feit blijft dat deze fietser te voet zeer traag zonder goed om zich heen te kijken en op een opening te wachten, een doorgaande weg begint over te steken, zonder zebrapad, en dan ook niet eens reageert op het geluid van een naderende auto. Je kut op die beelden zien dat ze niet eens omkeek voor ze geraakt werd. (was dit toevallig een elektrische auto?)

Ik ben het er wel een beetje mee eens dat dit een zelfmoordpoging lijkt.

[Reactie gewijzigd door Origin64 op 8 mei 2018 16:46]

Het viel enorm mee hoe onverlicht de weg was, de camera die op de Uber zat was van beroerde kwaliteit. Er zijn andere videobeelden en foto's die de situatie qua licht en zicht veel beter tonen.
Uber heeft blijkbaar alle veiligheidssystemen van de auto uitgeschakeld om hun eigen troep te testen. Met de originele Volvo-software was dit namelijk niet gebeurt.
Daar is Volvo mooi mee in de aap gelogeerd.
En heel veel andere ongelukken waren weer wel gebeurd met de originele Volvo-software want die is alleen maar ondersteunend en bij lange na niet zelfrijdend. Toevallig dit specifieke systeem (Collision Warning met Auto-Brake) had hier geholpen en ook dat werkt uitsluitend onder bepaalde snelheden.
WAARSCHUWING
Collision Warning werkt niet in alle rijsituaties, verkeers-, weers- en wegomstandigheden. Collision Warning reageert niet op naderende tegenliggers of fietsers noch op dieren.

Er wordt alleen gewaarschuwd, wanneer het risico van een botsing groot is. In het onderdeel "Functie" en "Beperkingen" wordt geïnformeerd over de beperkingen die u als bestuurder moet kennen, voordat u de Collision Warning met Auto Brake gebruikt.

Er wordt niet gewaarschuwd noch geremd voor voetgangers en fietsers bij een rijsnelheid hoger dan 80 km/h (50 mph).
https://support.volvocars...3f78dafe9c0a801e800731cd7

[Reactie gewijzigd door TheLunatic op 7 mei 2018 21:16]

Pak dan wel de goede feature, city safety voor de XC90: https://support.volvocars...58449cb66c0a8015159b3a7b8
Deze crash zou wel eens bepalend kunnen zijn voor de toekomst van autonoom rijden in de VS. Het onderzoek van de NTSB en het rapport en de aanbevelingen die daaruit komen, kunnen verstrekkende gevolgen hebben. Niet voor niets heeft Uber vandaag bekend gemaakt een voormalig voorzitter van de NTSB te hebben aangezocht als veiligheidsadviseur. Zie bijvoorbeeld https://www.ft.com/conten...2c-11e8-b3ee-41e0209208ec
Ondertussen zijn er twee dodelijke schatoffers per dag door menselijk bestuurde voertuigen in US.

Er moet duidelijk een betere regelgeving zijn omtrent zelf rijdende auto's. Probleem bij zo'n wagens is, dat ze 1000 uur perfect zelf rijden, en de "hulp" bestuurder letterlijk met z'n vingers zit te draaien. Zo vreemd is het dan niet dat de dame in kwestie even afgeleid is door telefoon of andere.

Net zoals vliegtuigen soms uit de lucht vallen, blijkt het op het eind van het verhaal een veel veiligere methode.

Daarbij lijkt het ongeval ook zeer moeilijk te voorkomen, de dame heeft geen/nauwelijks verlichting, lijkt ook compleet niet op het verkeer te letten terwijl ze toch even een zone ~70km/u (45miles) oversteekt op een niet fietspad/voetpad. Als fietser/voetganger ben ik liever iets later dan doodgereden omdat een voertuig/bestuurder mij niet ziet.
Ik vind het raar dat 90% van de discussie hier gaat over hoe donker die video van Uber is tov ander materiaal, ipv de vraag waarom iemand te voet met een fiets aan de hand een drukke weg oversteekt zonder te kijken.
Tja, aan de ené kant is het natuurlijk vreselijk dat zoiets gebeurd, helemaal als het voorkomen had kunnen worden. Je kan je echter ook afvragen wat erger is, 1 fataal ongeluk door een softwarefout of 2 fatale ongelukken door human error.
(edit: aangezien het blijkbaar niet duidelijk was, dit is hypothetisch, niet gebaseerd op data zoals het nu is)

Alleen in de USA zijn er al zo'n 37.000 verkeersdoden per jaar - dat zijn er meer dan 100 per dag. Dus zelfs als autonoom rijden tien keer veiliger zou zijn dan hoe het nu is, vallen er nogsteeds 10 doden per dag. Het probleem is wel een beetje dat elke keer dat er een ongeluk met een autonome auto gebeurt het met grote koeienletters in de krant staat, waardoor bij het algemene publiek een onveilig gevoel ontstaat over deze techniek, terwijl het waarschijnlijk nu al een stuk veiliger is dan wanneer mensen zelf rijden.

Ik kan me echter ook wel de frustratie voorstellen als er een geliefde van je op deze manier om het leven komt.

[Reactie gewijzigd door thescorpi0n op 7 mei 2018 21:59]

Volgens mij is de vraag meer of Uber specifiek onverantwoordelijk bezig is geweest, ontwikkeling van autonome auto's lijkt bij concurrenten met minder problemen te gaan.
Daar heb je ook zeker gelijk in. Tot in hoeverre dat zo is weet ik ook niet, ik heb inderdaad wel vaker gelezen dat vergeleken met de rest de Uber auto's nog wel vaak foutjes maakt. Dat is echter alleen anekdotisch (moeilijk te bewijzen ook).

Maar dan krijg je ook de (vooral ethische) vraag van wanneer het veilig genoeg is. Je kan nooit garanderen dat een systeem geen ongelukken meer gaat hebben of zelfs veroorzaken, helemaal met zo'n product in de echte wereld waar elke keer wel weer een edge case op kan duiken.

Als de kans op een dodelijk ongeluk half zo groot is met een autonoom systeem, willen we het dan op onze wegen hebben? Er is niet echt een goed antwoord op, vooral een ethische kwestie.
Als de kans op een dodelijk ongeluk half zo groot is met een autonoom systeem, willen we het dan op onze wegen hebben? Er is niet echt een goed antwoord op, vooral een ethische kwestie.
Waarom is daar geen goed antwoord op? Als je kunt kiezen tussen 100 doden door mensen of 50 doden door autonome auto's...dan is de keus volgens mij snel gemaakt als je rationeel denkt. Maarja...vooruitgang is natuurlijk eng :)
Rationeel is er wel een goed antwoord op ja, maar mensen zijn niet zo goed in rationeel zijn :p
Ik zou naar de rapporten moeten zoeken, maar in vergelijking met vnl Alphabet/Google (en in mindere mate met Tesla) heeft Uber veel meer ingrepen nodig, en heel veel meer ingrepen voor incidenten waarbij mogelijk matig tot dodelijk letsel veroorzaakt kan worden als ik het me goed herinner. Volgens mij was het iets is de orde van 1 matig-dodelijke fout voor Google op periodieke basis, 4-6 of zoiets voor Tesla en 12-20 ofzo voor Uber.
Dat is echter alleen anekdotisch (moeilijk te bewijzen ook).
Die cijfers zijn gewoon beschikbaar aangezien in één Amerikaanse staat dit verplicht is. Je moet alleen opletten dat het geen appels/peren vergelijking wordt gemaakt.

https://www.reuters.com/a...terventions-idUSKBN1FK3AU

Uber is behoorlijk onbetrouwbaar. Vanwege appels/peren is het onduidelijk hoe exact, maar in de orde van 100x vaker ingrijpen.
Die ethische vraag is makkelijk beantwoordt, zodra er minder slachtoffers vallen dan dat met menselijke bestuurders zou gebeuren, is het veilig genoeg. Het zou onethisch zijn om implementatie te vertragen vanuit perfectionistische overwegingen als je nu levens kunt redden. De mogelijke verbeteringen kun je alsnog meteen gaan testen, voor de volgende versie.
Dit is inderdaad het domein van de menselijke emotie, het verschil tussen een macro en micro perspectief.

Door software gedood worden is een heel stuk moeilijker uit te leggen dan door een menselijke fout, ook al is het resultaat hetzelfde. Zo van "ja, sorry, was een bug, opgelost in de volgende patch". Dat is niet te verkopen aan de betrokkenen.

Dit probleem zal altijd ten dele blijven, maar toch sta ik er van te kijken wat er allemaal de weg op mag. Dit soort fouten zijn geen subtiliteiten of fine-tuning, het gaat om een stuk staal wat gewoon dwars door een mens heen rijd, zelf wanneer deze gedetecteerd is. Dit de weg opsturen, onder welke naam dan ook, is letterlijk spelen met mensenlevens.
Een bug is een menselijke fout.
No shit, spuit elf.
Nou wat dan is dan nog het punt van je verhaal.
Je kan je echter ook afvragen wat erger is, 1 fataal ongeluk door een softwarefout of 2 fatale ongelukken door human error.
Dat mag je je alleen afvragen als de statistiek zo is. Autonoom rijden is nog niet op dit niveau. Er zijn veel te vaak ingrepen nodig.
Hm, dat weet ik nog zo niet. Ik kan geen echte statistieken vinden om iets te kunnen zeggen of het wel zo is, maar ook niet of niet zo is. Maar als je bijvoorbeeld naar de Waymo's van Google kijkt, dan hebben die sinds het begin 1 ongeluk gehad waar de auto schuld in had, terwijl ze al meer dan 5 miljoen kilometer gereden hebben. Dat lijkt toch niet heel slecht. Dan heb je alleen waarschijnlijk nog wel een alert persoon achter het stuur die kan ingrijpen als het fout lijkt te gaan.

[Reactie gewijzigd door thescorpi0n op 7 mei 2018 21:34]

In de data die ze aan de staat Californië leverden gaven ze aan dat er gemiddeld gezien elke 5596 mijl (9005 km)¹ ingegrepen moest worden.
Uitgaande van dat er alleen inbegrepen werd om schade aan medeweggebruikers, de omgeving of het voertuig zelf te voorkomen, heb ik het gevoel dat bij de gemiddelde menselijke chauffeur de interval van dat soort schades langer is. Ik kon hier echter geen onderzoek over vinden.

¹: https://www.reuters.com/a...terventions-idUSKBN1FK3AU

[Reactie gewijzigd door jbvo op 7 mei 2018 23:08]

Ik denk dat het ook moeilijk is om hier echt wat uit te concluderen. We hebben natuurlijk ook geen idee bij hoeveel van die ingrepen het ook echt noodzakelijk was. Ik kan me het ook wel voorstellen dat de 'bestuurders' misschien geinstrueerd zijn om bij elk mogelijk twijfelgeval in te grijpen. Misschien is het ook wel niet zo, maar omdat dat niet bekend is lijkt het me moeilijk om echt een duidelijk antwoord te krijgen op hoe goed het nu al werkt.
Je kan je echter ook afvragen wat erger is, 1 fataal ongeluk door een softwarefout of 2 fatale ongelukken door human error.
Die statistiek kun je volgens mij helemaal nog niet maken.
Ongelukken met autonome auto's zullen NOOIT! voorkomen worden, er zullen altijd wel ongelukken blijven gebeuren. Wel is het dus zo dat het aantal ongelukken drastisch zal dalen of de gevolgen van het ongeluk een stuk minder zijn.
Wel moet natuurlijk het onderzoek en de tests fatsoenlijk, en voor zover kan, veilig uitgevoerd worden, en dat betekend dus eigenlijk zoveel mogelijk eerst op een test traject (er zijn daar specifiek 'steden' voor gebouwd of ghostcities die daarvoor gebruikt kunnen worden). En op de openbare weg mag dan alleen software gebruikt worden die onder de meeste situaties getest is, en niet zomaar iets uitgeschakeld worden om iets te testen, DAT moet dan maar weer gebeuren op de testbaan.
Grote bedrijven moeten wel met cijfers rekenen omdat het dom zou zijn om beslissingen te nemen op basis van emotie. Emotie wordt namelijk makkelijk gestuurd. Bijvoorbeeld door gerichte advertenties op social media. Of hijgerige berichtgeving in de Telegraaf. Hoe zou de wereld er uitzien als we ons lieten leiden door onze onderbuik?
Als autonome auto's het aantal slachtoffers zou halveren, hoe haal je het dan in je bolle kop om die ontwikkeling tegen te houden? Alleen maar omdat doodgereden worden door een softwarebug erger is dan doodgereden worden door een telefonerende mens?
Het is zo'n goedkoop discussietruukje om een situatie te bedenken die de lezer direct raakt ("dierbare") en dat vervolgens door te trekken naar een grote populatie. Het gaat om kansen. Met autonome auto's heeft jouw "dierbare" gewoon minder kans om doodgereden te worden. Telt dat niet?
Probleem is vooral dat je vooraf niet eens weet of het dodental gaat halveren, dat moet je nog maar afwachten. Bedrijven claimen dat, maar er is geen bewijs. Net als dat Tesla claimt dat 'autopilot' rijden veiliger is dan manueel maar ik ben daarvan totaal niet overtuigt.

Het autonoom rijden is gewoon een marketing hype, kijk maar naar Tesla iets autopilot noemen wat geen autopilot is. En dan moet ik die bedrijven gaan vertrouwen dat ze het dodental halveren? Ik dacht het niet, laat mij maar lekker zelf rijden.
Probleem is vooral dat je vooraf niet eens weet of het dodental gaat halveren, dat moet je nog maar afwachten.
Dat is geen probleem, want daar hoeven we helemaal niet passief op te wachten. Om te beginnen is het uitgangspunt dat een groot deel van de ongelukken wordt veroorzaakt door menselijk falen. Als je de factor mens uit de vergelijking haalt, voorkom je die ongelukken dus. De vraag is dan of de oplossing (autonome auto's) meer of minder ongelukken oplevert. En dat laatste kun je heel goed al voorspellen op basis van simulaties, laboratoriumtesten en gecontroleerde testen op de openbare weg. Allemaal volstrekt risicoloze testen, die allemaal al gedaan zijn en die genoeg informatie moeten kunnen opleveren om een voorspelling te doen over een "real life" situatie. Die voorspelling kun vervolgens inderdaad pas toetsen na jaren van algemeen gebruik, maar als je je voorwerk goed hebt gedaan, zal die uitkomst niet veel afwijken van de voorspelling.
En kennelijk is die voorspelling dat het aantal ongelukken sterk zal verminderen.
Bedrijven claimen dat, maar er is geen bewijs. Net als dat Tesla claimt dat 'autopilot' rijden veiliger is dan manueel maar ik ben daarvan totaal niet overtuigt.
Het kan best dat jij niet overtuigd bent. Wat is er voor nodig dat jij wel overtuigd raakt?
Hoe zou de wereld er uitzien als we ons lieten leiden door onze onderbuik?
Precies zoals die er nu uitziet? ;) :+
:) Yes, politici die over elkaar struikelen om te reageren op weer een aangewakkerde angststoornis door hijgerige berichten in de media en de onvermijdelijke huilsessies rond de koffietafel. Ignorance is bliss, zeggen ze in Engeland, maar Ignorance is hell. Zeg ik.
Nee geloof me als zelfrijdende auto's het dodendal halveren gaat dat echt veel te weinig zijn. Zelfrijdend moet echt even veilig of nog veiliger worden dan vliegen pas dan gaan we het accepteren dat er misschien eens in de zoveel jaar een ongeluk gebeurt.
Hier ben ik het niet mee eens. De techniek is er om ons te helpen. Als het aantal doden/ongelukken gehalveerd kan worden dan moet dit zeker ingezet worden. Jij zegt dat je niet over mensen wilt praten alsof het cijfertjes zijn maar tegelijkertijd vind je het wel acceptabel om te wachten totdat deze auto's bijna 100% veilig zijn. De personen ( A,B,C,D etc.) die ondertussen slachtoffer zijn van menselijke fouten (want mens bestuurt nu) die mogen dan maar wel?

[Reactie gewijzigd door Jero_B op 8 mei 2018 08:32]

Zoals ik al hierboven zei autofabrikanten claimen veiliger verkeer maar hier is geen bewijs voor. Misschien vallen er wel meer doden als het grootschalig wordt ingezet.
Ja dat is waar, de tijd zal het uitwijzen. Ik geloof er wel in, niet alleen als veiliger vervoersmiddel maar ook als oplossing voor onder andere het file probleem. Naast dat de hoeveelheid asfalt ook beperkt kan worden op het moment dat dit de standaard is. Gelukkig zijn er altijd twee kanten bij een discussie, houdt de boel in evenwicht :)
Okee, dus als er een zelfrijdend systeem was dat maar 70% van de slachtoffers maakt als menselijke bestuurders, dan zou jij die 30% die gered kan worden lekker laten sterven vanuit een of ander ideaal dat computers geen fouten mogen maken? Wat als dan jouw dierbare door een mens wordt doodgereden? Dan weet je dat er 30% kans was dat deze nog zou leven, als je niet zo kortzichtig was geweest.
Er vallen op dit moment ontzettend veel doden in het verkeer. 70% daarvan is nog echt heel veel, voor een geautomatiseerd systeem is dat echt onacceptabel.

En ja ik denk dat ik het serieus beter zou kunnen verwerken als mijn dierbare wordt doodgereden door iemand die daar echt niets aan kon doen en ontzettend spijt heeft, dan dat het gebeurt door een autopilot en de topman van Tesla die vervolgens eigen schuld roept, ook al heb je dan onder aan de streep inderdaad meer slachtoffers.
Okee dat vind ik vreemd maar je bent er iig eerlijk over.
Maar hoezo is dat vreemd dan? De manier waarop iemand overlijd is toch heel erg belangrijk voor de nabestaanden en het verwerkingsproces?

Om even een heel extreem (en overdreven hypothetisch) voorbeeld te geven, wat heb jiij liever, 600 doden per jaar in het verkeer door onoplettende mensen of 200 doden per jaar door explosies veroorzaakt door terrorisme?
200 is minder dan 600 dus 200.

De reden maakt me helemaal niet uit. Mensen zullen iemand moeten missen en die persoon kan niets meer beleven. Of dat nu komt doordat ze van de trap vallen of door enge terroristen is niet erg relevant. Wat uitmaakt is hoe makkelijk het te voorkomen is. Terrorisme is een ingewikkeld internationaal probleem met culturele en economische aspecten. Van de trap vallen kan veel goedkoper worden voorkomen, met ruwe bekleding en trapleuningen en evt. een traplift.

[Reactie gewijzigd door Origin64 op 9 mei 2018 22:56]

[quote]
Er vallen op dit moment ontzettend veel doden in het verkeer. 70% daarvan is nog echt heel veel, voor een geautomatiseerd systeem is dat echt onacceptabel.
[quote]
Dat is toch een kromme redenatie? Een 30% reductie in het aantal ongevallen is dus onvoldoende motivatie om een bepaalde techniek te introduceren omdat de resterende 70% nu wordt platgereden door een autonome auto in plaats van een mens?
En ja ik denk dat ik het serieus beter zou kunnen verwerken als mijn dierbare wordt doodgereden door iemand die daar echt niets aan kon doen en ontzettend spijt heeft, dan dat het gebeurt door een autopilot en de topman van Tesla die vervolgens eigen schuld roept, ook al heb je dan onder aan de streep inderdaad meer slachtoffers.
Onderaan de streep maakt het mij geen moer uit door wie mijn kinderen worden doodgereden, ze zijn net zo dood en ik krijg ze er niet mee terug. Wat mij wel uit zou maken is de constatering dat er kennelijk mensen zijn die de kans hebben laten liggen (of zelfs geblokkeerd) om de dood van mijn kinderen te voorkomen.
volgens een van de bronnen zijn technici te ver gegaan met de gevoeligheidsafstelling om bepaalde objecten te negeren
Dan maar direct met de deur in huis, de erorme complexiteit rond autonome devices: technici = schuldig.
Dat is wel makkelijk gezegd maar in de praktijk kan dit nog wel wat lastiger worden. Stel dat je in de toekomst een autonome auto hebt die 10 keer veiliger is dan nu, waardoor er in principe tienduizenden doden minder kunnen vallen per jaar. Moeten de technici dan strafrechtelijk vervolgd worden voor de ene keer dat het nog wel gebeurd? Als het duidelijk neglect is snap ik je punt, maar waar trek je de lijn?
Stel dat er 10 ongelukken worden voorkomen en 1 wordt veroorzaakt.
Dan weet ik het wel: Niet invoeren, die 10 voorkomen ongeluggen wegen niet op tegen onvolwassen techniek die er 1 veroorzaakt.
Je zal maar als object worden geclassificeerd door de AI/programmeurs........
Als programmeur zit ik hier met een big smile achter de pc haha. Mag hopen dat t ook een grapje was?
Doorgeslagen winst optimalisatie is de oorzaak hier.
Een bestuurder kost geld.. te vaak ingrijpen laat een slecht product zien.
Dus maakte ze het zo dat t meer negeerde minder fout raportages.
De kern van het fiat geld kapitalistische verdien model word daar mee blood gelegd.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True