Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Aantal ingrepen bij autonome Waymo-auto's halveerde in 2018

Testers van autonome auto's van Waymo hoeven in Californië steeds minder vaak in te grijpen tijdens het rijden. Per duizend mijl grepen ze vorig jaar 0,09 keer in. Dat is de helft minder dan een jaar eerder. Apple-auto's hadden 871,65 ingrepen per duizend mijl nodig.

Van alle zelfrijdende auto's in Californië hebben die van Google-dochteronderneming Waymo de minste ingrepen nodig, blijkt uit cijfers van The Last Driver License Holder. De site beroept zich op cijfers van het DMV die kortstondig online stonden en later deze week weer online komen. In de periode van december 2017 tot november 2018 reden de Waymo-auto's ongeveer 1,3 miljoen mijl, meer dan 2 miljoen kilometer, en waren er 114 'disengagements', zoals het DMV het noemt. Dat wil zeggen dat de zelfrijdende technologie een fout ontdekt of de tester het nodig vindt om de controle over te nemen.

Het jaar daarvoor reed Waymo 352.545 mijl en waren 63 ingrepen nodig voor een gemiddelde van 0,18 ingrepen per duizend mijl. In een jaar tijd is het bedrijf dus vier keer zoveel gaan rijden en halveerde het aantal ingrepen per duizend mijl. In 2017 vond het merendeel van de ingrepen plaats op de normale straatweg; zes ingrepen waren er op de snelweg nodig, volgens het rapport van Waymo. Hoe die verhouding er voor 2018 uitziet, is onbekend, omdat het volledige DMV-rapport nog niet online staat.

Waymo is het enige bedrijf dat meer dan een miljoen mijl op de Californische wegen reed, daarna volgt GM Cruise met 447.621 mijl. Dit bedrijf had met zijn 162 auto's 86 ingrepen, een gemiddelde van 0,19 per duizend mijl.

Het bedrijf met de meeste ingrepen was Apple, met zijn 62 auto's reed het 79.745 mijl en waren er 69.510 ingrepen. Dat komt neer op een gemiddelde van 871,65 ingrepen per duizend mijl. Het was het eerste jaar dat Apple op de openbare, Californische wegen reed.

Door Hayte Hugo

Nieuwsposter

13-02-2019 • 15:27

76 Linkedin Google+

Reacties (76)

Wijzig sortering
Wat is acceptabel? Elke ingreep lijkt mij er eentje teveel. Maar 0 fouten is ook niet haalbaar. Eigenlijk zou je dit met het aantal menselijke fouten per 1000 Mile moeten vergelijken. Als het beter scoort dan weer vergelijken met type ongelukken. Ik vind autonoom rijden waarbij je zelf moet opletten eigenlijk vlees noch vis. Het is het allebei niet.En wat mij ook wel interessant lijkt is wat er gebeurt in een omgeving waarin alleen autonome auto’s samen rijden en ook nog eens onderling kunnen communiceren. Daar wordt het wellicht veiliger van. Optische waarnemingen vergelijken met digitale waarnemingen van omliggende objecten. Een soort mesh netwerk waarin beacons van auto’s, stoplichten, verkeersborden etc allemaal informatie aan elkaar doorgeven. Stel dat dit er zou zijn dan is de kans op fouten een stuk kleiner lijkt mij.

[Reactie gewijzigd door hydex op 13 februari 2019 16:03]

Wat is acceptabel?
Voor mij heel simpel: als het aantal ongelukken per 1.000 km lager is dan dat van menselijke bestuurders. Vanaf dat moment maakt het dus niet uit of je een AI of een mens achter het stuur zet.
[...]

Voor mij heel simpel: als het aantal ongelukken per 1.000 km lager is dan dat van menselijke bestuurders. Vanaf dat moment maakt het dus niet uit of je een AI of een mens achter het stuur zet.
Hangt dan nog wel af van het type ongelukken. Want stel dat ai dodelijke ongelukken meer voorkomt, maar bv meer blikschade veroorzaakt. Is dat acceptabel? En hoe zit het juridisch? Op wie verhaal je de schade? Allemaal leuke uitdagingen voor de toekomst
Over het juridische is allang nagedacht. Uiteindelijk wordt dat een spelletje tussen de fabrikant en de verzekeraar, al zou een fabrikant zelf ook een verzekeringstak op kunnen richten en op die manier instaan voor alle schade die het voertuig veroorzaakt. (Hele) grote bedrijven doen dit vaak nu ook al voor hun wagenpark en (technische) installaties.

Dit bericht gaat trouwens niet over het aantal ongelukken, maar het aantal ingrijpen.
Probleem is vooral "wat als een fabrikant een bug per ongeluk released". Het lastige is dat dat zeker gaat gebeuren, en wat als je dan na jaren en jaren 0 verwijtbare ongelukken plots 100 000 verwijtbare ongelukken op één dag hebt. Gemiddeld misschien nog steeds minder dan vandaag de dag, maar het wordt de dood van een automerk. Of stel je voor dat Waymo haar software aan de helft van de markt verkoopt, er een dergelijk bug wordt gevonden en na 1000 incidenten worden alle auto's op Waymo software wereldwijd automatisch stilgezet.
Er zijn al vaker grote terugroepacties geweest?

Als je bang bent dat een fabrikant van elektrische voertuigen dergelijke schade niet af kan handelen, zou je alleen een auto moeten kopen bij een bedrijf dat genoeg geld in kas heeft of aan een onafhankelijke derde partij heeft gegeven om zulke claims af te kunnen handelen. Zeg maar een soort
combinatie van Woningborg of Nationale Hypotheek Garantie.
Zolang er een stuur in de auto zit zal je 10 keer op accept moeten drukken voor dat hij zelf zal gaan rijden. Alles zal op jouw verhaalt worden. Doe dat twee jaar lang, miljarden kilometers dat het goed gaat (hopelijk) en dan slopen ze wellicht het stuur er een keer uit.

Als ik even omreken, dan wordt er dus met een waymo 1 keer in de 18000 kilometer ingegrepen. Dat is niet verkeerd eigenlijk. Volgens mij kom je op een gegeven moment op een punt dat je allemaal zeer uitzonderlijke situaties moet gaan oplossen waar er heel veel van zijn die het verder naar beneden brengen van het ingrepen zal vertragen. Voorlopig gaat het in ieder geval nog als een speer.
Vraag me af wat de NTSB als road ready ziet. 0,001 per 1000 mijl?
Ik ben toch wel benieuwd hoe men dit nu precies gaat zien, want een ongeluk is een ongeluk maar een menselijk falen is m.i. iets totaal anders als het falen van AI software.

Wat mij het meest aan het denken zet is dat een falen binnen de software een algemeen falen zal zijn en een menselijk falen beperkt zich tot die enkele persoon. Wanneer een mens een stoplicht niet ziet door onoplettendheid o.i.d. rijdt deze door, bij een software falen zullen alle auto's dit stoplicht niet herkennen en doorrijden. Dit is op drukke plaatsen geen probleem (dit zal erg snel opgelost worden) maar wat op een relatief rustige kruising? Persoonlijk heb ik zelf nog nooit schade gereden, dus ik zou het eerlijk gezegd best spannend vinden als ik erop moet gaan vertrouwen dat mijn voertuig én dat andere voertuig niet zullen botsen.

Daarnaast rijd ik 60k aan kilometers per jaar. Jij zegt eigenlijk dat wanneer mensen op dit moment meer ongelukken veroorzaken dan de AI software deze nu gebruikt kan gaan worden. Als ik de cijfers nu even heel simpel bekijk zou ik dan 1/0,09=11,1111 ofwel elke 11.111km een ongeluk hebben dus afgerond 6 per jaar omdat andere mensen wat minder goed kunnen rijden? Jij zal het vast met mij eens zijn dat dit niet mijn voorkeur heeft.

Voor de reacties hier onder mij:
multikoe geeft aan dat hij vanaf dat moment een AI achter het stuur zet, er staat nergens dat hij dan een mens als backup zou willen om in te grijpen.
En vooruit ik reageerde snel op een post waarin 1k km stond, dan nog is die 0,09 de meest gunstige (veruit).
Ik ben overigens niet tegen een AI in de auto, maar ik vind het statement dat, wanneer een mens "gemiddeld" meer ongelukken maakt als een AI, je dan maar een AI achter het stuur zet en de ongelukken moet accepteren niet mijn ding.
Daarnaast begrijp ik ook wel dat een AI een update kan uitrollen en zo alle foutjes meteen kan corrigeren, het gaat mij om de uitzonderingen waar de update nog niet voor is geweest. Wat als jij, je vrouw of je kind om het leven komt omdat dit de eerste keer was? Of vinden jullie dat dan prima omdat deze situatie zich niet meer zal herhalen?

[Reactie gewijzigd door Pluisie op 13 februari 2019 20:48]

Wat mij het meest aan het denken zet is dat een falen binnen de software een algemeen falen zal zijn en een menselijk falen beperkt zich tot die enkele persoon. Wanneer een mens een stoplicht niet ziet door onoplettendheid o.i.d. rijdt deze door, bij een software falen zullen alle auto's dit stoplicht niet herkennen en doorrijden. Dit is op drukke plaatsen geen probleem (dit zal erg snel opgelost worden) maar wat op een relatief rustige kruising?
Ik denk dat je het concept nog totaal niet begrijpt het is geen kwestie van programmeren: hier is een kruising en daar is een kruising. Het is programmeren hoe een kruising er uit ziet en de auto dat zelf laten herkennen. Als er een ongeluk is op welke kruising dan ook dan zal er een team aan werken die herkenning te verbeteren voor alle autos (dus niet 1 persoon leert zijn lesje door niet goed op te letten, maar 10000den auto's in 1 * met een update).

Daarnaast is het ook wat simpel gedacht dat als 1 auto het niet ziet de andere identieke autos het niet zien. De situatie zal altijd anders zijn door verkeer er om heen. En daardoor zal dezelfde auto niet altijd identiek reageren.

Even los van waar iedereen je al op wijst, namelijk dat ingrijpen niet hetzelfde is als een botsing voorkomen...
Wat mij het meest aan het denken zet is dat een falen binnen de software een algemeen falen zal zijn en een menselijk falen beperkt zich tot die enkele persoon
Dat is een goed punt, maar het werkt natuurlijk ook twee kanten op: als de software een situatie wel goed inschat en goed handelt, dan zal ze dat altijd doen. Dat is ook het principe achter de inzet van AI: je haalt de menselijke factor eruit, door de variatie in de manier waarop mensen reageren is het vreselijk moeilijk om veilige verkeerssituaties te creëren. Met AI wordt het veel gemakkelijker: je mag hier maar 50, dus geen drempels meer nodig, geen sluizen, borden, etc.
Daarnaast rijd ik 60k aan kilometers per jaar. Jij zegt eigenlijk dat wanneer mensen op dit moment meer ongelukken veroorzaken dan de AI software deze nu gebruikt kan gaan worden. Als ik de cijfers nu even heel simpel bekijk zou ik dan 1/0,09=11,1111 ofwel elke 11.111km een ongeluk hebben dus afgerond 6 per jaar omdat andere mensen wat minder goed kunnen rijden? Jij zal het vast met mij eens zijn dat dit niet mijn voorkeur heeft.
In de eerste zin zeg je het precies goed: *Als* mensen meer ongelukken veroorzaken dan AI, *dan* kan deze gebruikt worden. Dan zeg je iets dat ik niet kan volgen, maar het lijkt erop dat je zegt dat met een ongeluk om de 11.000 km AI nog niet veilig is. Dat klopt, maar ik beweer ook niet dat dat zo is. Ik zeg alleen dat ik AI's zou accepteren als ze minder ongelukken maken dan mensen. Niet eerder dus.

Dan maak je nog een fout en die wordt door anderen ook al aangestipt: het artikel spreekt over ingrepen en jij maakt er ongelukken van. Dat is fout. Een ingreep wil nog niet zeggen dat er zonder die ingreep een ongeluk was gebeurd. Een foute baanwisseling op de snelweg wordt vaak opgevangen door andere weggebruikers die opzij gaan. Als je door rood rijdt, wordt je niet per definitie aangereden, de rest zal je echt wel (proberen te) ontwijken.

[Reactie gewijzigd door multikoe op 13 februari 2019 22:19]

Niet 0.09 ongelukken, maar ingrepen per 1000 mijl. Ik denk dat jij ook wel af en toe hard op de rem trapt, of een ruk aan het stuur geeft om gevaar te ontwijken :)
"Vanaf dat moment maakt het dus niet uit of je een AI of een mens achter het stuur zet."

Als er alleen een AI achter het stuur zit wordt er toch niet meer ingegrepen door een mens of mis ik nu iets?
Hierbij heb je de getallen niet helemaal goed begrepen volgens mij. Het is niet 1 ongeluk per 11.000 mijl. Maar 1 *menselijke ingreep* per 11.000 Mijl. Das heul wat anders. Ik kan garanderen dat jij *vele* malen vaker dan 1 keer per 11.000 17.777 km achter het stuur denkt "oh shit dat gaat net goed". De komende jaren zal de mens waarschijnlijk gewoon nog achter het stuur als beckup werken. Maar ik vertrouw een systeem dat mij eens per 11.000 17.777 mijl in laat grijpen meer dan de gemiddelde brokkenpiloot op de weg op dit moment.

Edit: Jij rekent in km. Dus dat is eens per ~17.777 km.

[Reactie gewijzigd door NuclearBanana op 13 februari 2019 19:26]

Hey hoeft niet perfect te zijn, alleen beter dan mensen. Als dat punt wordt bereikt betekent het dat er al mensen levens bespaard kunnen worden.

Voor sommige mensen zal het eng blijven, maar ook die zullen te maken krijgen met deze nieuwe deelnemers in het verkeer.
Hey hoeft niet perfect te zijn, alleen beter dan mensen. Als dat punt wordt bereikt betekent het dat er al mensen levens bespaard kunnen worden.
Dat geeft nog niet echt een duidelijke grens aan, beter dan Mr. Bean of beter dan Ken Block?
Het werkt al beter dan mensen.

Want wat betreft reactiesnelheid en zicht in het donker, regen en mist zal die beter rijden dan een mens.

Echter vinden mensen het eng en willen ze een nog veiligere manier van rijden.

Daarnaast zal na elk ongeluk de fabrikant de data gebruiken om de software te verbeteren net als bij een vliegtuigramp en zal het dus constant verbeterd worden.
En wat denk je dat er gebeurd als de verzekeringspremie voor de zelfrijders opeens een pak hoger uitvalt?
Ik denk dat het dan heel snel omslaat, en iedereen (die het zich kan veroorloven) wordt gereden.
Ik stap pas in als mijn gevoel van veiligheid minstens even hoog is als wanneer ik zelf rijdt. Mensen hebben toch vaak het gevoel dat zij geen ongeluk krijgen/veroorzaken ongeacht de statistieken. Het zal denk ik voor veel mensen een heel emotionele keuze worden om in te stappen.
Dat is denk ik key, als er alleen autonome auto's rijden, die allen volgens de regels rijden, en alleen rekening met elkaar houden en evt zelfs samen communiceren, dan zal het waarschijnlijk vlekkeloos verlopen zonder ongelukken.

Maar dat is dan enkel de auto's onder elkaar, want in de steden heb je nog altijd de onverwachte aspecten ; voetgangers, spelende kinderen, fietsers, dieren etc.

Maar gezien zo een AI computer sneller kan reageren dan de mens, zal dat wel goed moeten komen dan.

Ik denk zelf dat in de binnenstad we nog even zelf moeten rijden, en dat op de snelwegen automatisch de auto's het overnemen en bij de afrit je weer de controle moet overnemen.
De grote vraag is ' Wat is ingrijpen?' Is een frontale aanrijding voorkomen of een zware crash of is dat op een moment dat de automatische piloot weigert verder te rijden omdat het de situatie niet snapt en een mens moet ingrijpen om bijvoorbeeld rond een omgevallen boom te rijden. Of denk aan een tikkeltje nemen op een parking, of parkeren of een grasveld zonder lijnen of de bevelen opvolgen van een politieagent op een kruispunt waar de verkeerslichten zijn uitgevallen, of uw auto op de stoep zetten voor een prioritair voertuig zoals een ambulance.

Waymo maakt nu al veel minder ongevallen dan een menselijke chauffeur, de enige vraag die ik me stel is hoeveel van die ingrepen waren absolute noodzaak om een gewone, dode of blikschade te voorkomen.
0.09 ingrepen zegt ook niet het hele verhaal.

-Wat was het waarschijnlijke gevolg geweest zonder ingreep, een dodelijk ongeluk is natuurlijk veel erger dan de bumper van een andere auto aantikken.
-Hoe groot is de kans dat het daadwerkelijk mis was gegaan als de bestuurder niet had ingegrepen?

En zo zijn er nog wat dingen te bedenken.
Maar ik vraag me ook af hoeveel ongelukken mensen gemiddeld per 1000 mijl maken.
Blijft een lastig verhaal natuurlijk. Iemand zoals ik met 22 schadevrije jaren(heb ook daadwerkelijk nooit iets geraakt of me laten raken) kijkt anders tegen acceptabel aan dan iemand die noem maar wat gemiddeld elke 5 jaar schade rijdt. Ook al is autonoom beter dan gemiddeld, eens in de 10 zou ik nog steeds verre van acceptabel vinden...
Je moet jezelf niet overschatten.

Het kan ook zomaar dat je volgend jaar 4 ongelukken op een rij maakt.

Je blijft namelijk een mens.
Dat kan. Maar je hebt er zelf toch echt een groot aandeel in. Ook al ben je niet de schuldig partij. Een ongeluk krijgen is niet zo simpel als alleen kansberekening. Dat aandeel is zelfs zeer klein. Als je fatsoenlijk defensief rijdt en goed anticipeert laat je weinig aan kans over. Maar velen vinden het belangrijker om te praten met of kijken naar hun passagier, of met de telefoon te spelen. En één hand aan het stuur is wel genoeg en ga zo maar door.

Basically: Drive like everyone is out to get you

[Reactie gewijzigd door MN-Power op 13 februari 2019 19:24]

Het kost 1 idioot die volg gas door rood op je zijkant inrijdt om je eindigen. En er zijn (helaas) te veel van dat soort idioten.
Ik ben van mening: minder mensen achter het stuur = beter.
En dit terwijl ik zelf heel erg van rijden houd.
Heb zelf een keer een ongeluk gehad met een voetganger die tijdens regen in de nacht zonder zebrapad verborgen van achter een auto in 1x de straat rennend overstak.

Zo ongeveer alle gevaarlijke dingen die je kan doen als voetganger.

Ik remde toch net snel genoeg en had de voetganger toch geraakt maar dat ga je niet kunnen uitleggen aan je verzekeraar of politie want voetgangers hebben altijd gelijk.

Op zoiets was ik totaal niet voorbereid en ik denk ook niemand niet.

Dus je weet het gewoon niet, er zijn oneindig veel unieke situaties die kunnen ontstaan.
Ik zeg ook nergens dat het onmogelijk is, niemand is god en/of onfeilbaar, zelfs AI niet. En in jouw geval was de voetganger er met een andere bestuurder waarschijnlijk slechter af geweest. Als er overigens ruimte is(dus geen tegenliggers) probeer ik altijd ruimte tussen mij en geparkeerde auto's te houden, ook op de fiets. Je zal niet de eerste zijn die op een openzwaaiende deur klapt. En door de grotere kijkhoek zie je een eventuele voetganger of kind eerder en heb je ook nog eens meer kans om uit te wijken + remmen. En als dat niet kan, je snelheid aanpassen, ook al rijd je onder de max. snelheid.
Nou als ik kijk naar hoe mensen reageren op ambulance of brandweer die met loeiende sirenes nog steeds niet weten wat ze moeten doen denk ik dat het nooit goedkomt met mensen.

Tesla had een recent nog gezegd een update door te voeren die politie en hulpdiensten kon detecteren.

Dan zie je dat AI op een gegeven moment gewoon dit soort dingen veel beter kan dan de mens.

De mens is maar in een heel beperkt deel van auto rijden goed, daarnaast verbetert de techniek zo snel dat je gewoon niet weet wat voor soort dingen er zullen komen.

Kijk naar AI, dat dat zo een vlucht zou nemen had denk ik niemand verwacht. Mensen wisten wel dat het in de toekomst eraan zat te komen maar het zit nu in een fase waar het in een stroomversnelling is gekomen vergelijkbaar met de ontwikkeling van computers en internet vanaf het jaar 2000.
Met alle respect, dat jij 22 schadevrije jaren hebt gehad is statistisch gezien natuurlijk compleet irrelevant
Wat is acceptabel? Elke ingreep lijkt mij er eentje teveel. Maar 0 fouten is ook niet haalbaar.
Maar wanneer wordt er ingegrepen? Wanneer anders een ongeluk onafwendbaar was geweest, of een milliseconde voordat het systeem zelf actie had ondernomen? Er is een groot verschil tussen die twee, maar het wordt beiden als hetzelfde geregistreerd.
Als ik 1000 kilometer rij met zonder ingrepen (minder dan 1) zou dat voor veel mensen voldoende zijn om hun rijexamen in 1 keer te halen. (inclusief lessen vraag ik me af of een gemiddelde rijbewijsontvanger veel meer dan 5000 kilometer rijervaring heeft als ze hun rijbewijs ontvangen. En dat is inclusief al het gestuntel/ingrepen in de eerste 20 lessen) Zeker als de software mogelijkheden heeft om te leren van fouten is dat zeker vergelijkbaar met de gemiddelde menselijke bestuurder.

Bovendien moet je je ook nog afvragen hoeveel van deze ingrepen terecht zijn. Ze waren voldoende voor een mens om te reageren maar dat wilt natuurlijk niet zeggen fatale botsing als er niet was ingegrepen.

ik zou erg benieuwd zijn als het cbr hun cijfers er naast zouden leggen waar je dan op uit komt. (kilometers tijdens afrijden met het aantal ingrepen er bij).
Ik verbaas mij over BMW. Het huidige lane keeping en adaptive cruise control systeem in mijn BMW is het slechtste systeem waar ik ooit mee gereden heb.

De grenzen van het lane keeping system (file assistent) zijn zo beperkt dat deze nauwelijks nut heeft en de ACC slaat op willekeurige momenten uit met de mededeling dat hij het niet meer weet. Wat in een electrische auto met regeneratief remsysteem betekent dat je midden op de snelweg zonder aanleiding gaat remmen! Levensgevaarlijk, zeker als je een bumperklever achter je hebt of een zwaar beladen vrachtwagen.

Nu ook al drie keer gehad dat hij een auto met aanhanger of motor voor mij niet zag en gewoon vrolijk op volle snelheid probeerde er doorheen te rijden.

Al met al is rijden met dat systeem stresvoller dan zelf rijden :/

En nu lees ik hier dat ze dus wel degelijk weten hoe het moet 1.6 ingrepen per 1000 mijl is niet slecht.

[Reactie gewijzigd door Omega Supreme op 13 februari 2019 16:27]

Die 1.6 is wel uit 2016, met 219.51 in dit jaar, daar is dan toch wat veranderd
BMW is zich recent pas meer toe gaan leggen op autonoom rijden, ik vermoed dat die test in 2016 voor de meer traditionele systemen als lane keeping en ACC is.

Vandaar mijn verbazing gezien mijn ervaringen met deze systemen in mijn i3s-2018. Hoe dan ook heb ik er flink de balen van, want dat waren dure opties. Dat hun LK systeem beperkt en nutteloos was had ik kunnen weten. Werkt alleen op de snelweg en onder 60km/uur. Meestal sta ik op de N-wegebn in de file.

Maar die ACC is wel een dingetje, die is simpelweg gevaarlijk om te gebruiken. Ik had een leuke nog niet gemeld: laatst stond er iemand op de (brede) vluchtstroom net aan de andere kant van de doorgetrokken streep. Toch vond de BMW het nodig om hard te gaan piepen en een noodstop te maken. Ik reageerden vrij vlot, maar desondanks druk gebarende boze mensen achter mij!
Het probleem met de i3 is dan ook weer dat het systeem niet op basis van radar werkt, maar op basis van de camera. En die werkt een stuk beperkter dan de radar die in véél meer auto's toegepast worden. Als je ook zoekt op de problemen die mensen ermee hebben, is het veel voorkomend helaas.
Als het een LKAS systeem is dan moet het een duidelijk zicht hebben op de lijnen van de rijstrook om autonoom te kunnen sturen. Je hebt een LFA nodig om de wagen voor je te volgen wanneer je zo dicht rijdt dat lijnen niet zichtbaar zijn (file bijvoorbeeld). Belangrijk verschil dat maar weinig mensen kennen. Wordt in de wagen meestal aangeduid door een wagen tussen 2 lijnen (LKAS) en een stuur met 2 handjes (LFA).

ACC maakt gebruik van een radar. Wanneer het systeem detecteerd dat er iets in de weg zit (dat kan een blad zijn, ijs, sneeuw, hevige regen, ...) dan zal deze de ACC uitschakelen. Maar de meeste systemen zullen op dat moment niet beginnen met remmen, maar je waarschuwen dat ze zichzelf hebben uitgeschakeld. Dat je in een EV zit mag daar geen verschil in maken. Het is de boordcomputer die een actie onderneemt, niet je remsysteem. Tenzij je default natuurlijk terugvalt op max regen.
BMW verkoopt het als een systeem een file assistent die alleen werkt bij lage snelheden. Met andere woorden de situatie waarin je dicht op elkaar rijdt. Het probleem met dit systeem is niet zozeer dat het niet werkt, als waar het werkt: Alleen op de snelweg en dan schakeld het zelfs op de snelweg uit als er sprake is van flyovers en/of samen gaan splitsen van twee snelwegen en vergelijkbare situaties. Met andere woorden het systeem is zeer beperkt.

Daarbij is de detectie of je handen aan het stuur hebt heel vervelend afgesteld. Ondanks dat ik mijn handen continu aan het stuur heb, zit ik voor het systeem blijkbaar te stil en krijg ik iedere paar seconde een waarschuwing mijn handen op het stuur te houden. Dan moet ik bewust continu een beetje weerstand aan het stuur gaan geven om het aan te houden. Tja, dan kan ik net zo goed zelf sturen.

Default in de i3 rem je regeneratief door gas terug te nemen. Aangezien ik als de ACC aanstaat geen gas geef gaat hij automatisch remmen als het systeem uitslaat. Op zijn minst zou ik verwachten dat hij in deze situatie de auto laat rollen tot ik zelf op het gaspedaal druk of de rem en het systeem daarna pas weer inschakelt. Nu is het zoals gezegd bloedlink omdat het systeem op de vreemdste momenten uitslaat.

Om even wat voorbeelden te geven: Als je van de (felle) zon de schaduw in rijdt of omgekeerd slaat het systeem 8 van de 10 keer uit. Als ik het aquaduct in de A1 inrijdt schakelt hij ca 2/10 keer uit, in circa de helft van de gevallen waarin het niet bij het inrijden gebeurt gebeurt dat bij het uitrijden.

Stilstaande auto's of van die matrixbord aanhangers op de vluchtstrook kan hij helemaal niets mee, dan gaat het systeem spontaan remmen. Kleine aanhangwagens het tegenovergestelde, het systeem remt totaal niet. Motoren gaat 9 van de 10 keer goed, maar in dat ene geval remt hij niet voor de motor.

Al een aantal keer gehad dat ik 's avonds op een vrijwel lege snelweg rijdt niemand voor achter of naast me en toch begint hij af te remmen. Er is in de omgeving geen aanwijsbare oorzaak voor deze vergissingen.

@Apache Ik ben wel benieuwd welke versie van het systeem ik heb, hoe kan ik dat controleren? Het is een i3s uit April 2018.

Edit: overigens ben ik wel blij met mijn auto: als je zelf rijdt is het rijgedrag geweldig. Traction control werkt fantastisch en hij ligt erg lekker in de bocht, waar ik in het begin gezien het model van de auto een beetje bang voor was. Ik baal alleen dat ik veel betaal voor extra's die nutteloos zijn gebleken omdat ze simpelweg niet werken zoals je op basis van de brochure zou verwachten.

[Reactie gewijzigd door Omega Supreme op 13 februari 2019 16:21]

Nu ook al drie keer gehad dat hij een auto met aanhanger of motor voor mijn niet zag en gewoon vrolijk op volle snelheid probeerde er doorheen te rijden.
Klinkt alsof het systeem prima weet hoe de gemiddelde BMW bestuurder graag rijdt? :+
Misschien hebben mensen wel een verkeerd beeld van BMW rijders en ligt het niet aan de rijder maar aan BMW 8-)
Waarschijnlijk is het huidige systeem 'gewoon' ingekocht bij Bosch of een andere toeleverancier. Daar zit erg veel verschil in de generatie van de systemen, Ik heb twee golf 7's gereden, een uit 2016 en een uit 2018, beide met dezelfde 'opties', maar zowel lane-assist als adaptive-CC waren een stuk verder geëvalueerd in de laatste. Hele files rijdt hij al zelfstandig :)
Dit is een complete alleenstaande software dat nog helemaal niet is geimplenteerd, dit is zelfstandig rijden niet geassisteerd rijden. Je kan deze systemen niet vergelijken met elkaar, ja ze komen van de zelfde fabrikant maar daar blijft het dan ook bij.
Je weet ook niet hoe groot de sample size is, en waar ze die kilometers hebben gereden.

Als ze met het systeem maar 625 mijl gereden hebben, en 1x hebben moeten ingrijpen, dan kom je aan 1,6 ingrepen per 1000 mijl. Statistisch gezien zegt dat weinig.

Als ze dat dan nog eens alleen gedaan hebben op autosnelwegen met weinig op- en afritten is dat ook nog eens een gemakkelijke situatie voor een autonoom systeem.

Met deze statistieken kan je pas goed vergelijken als er genoeg gereden is, en in vergelijkbare omstandigheden. Bij Waymo is er in elk geval al genoeg gereden, dus kan je wel degelijk vermoeden dat er een goede vooruitgang gemaakt is (en dat is ook maar logisch).
En uit welke generatie BMW kom je huidig systeem? E, F, G? doet namelijk al enorm veel, G was on par met tesla's rond begin 2018, sindsdien is de voorsprong bij tesla weer enorm toegenomen tov BMW.
BMW is dan ook eigenlijk meer een ouderwetse fabrikant die zich moet ontwikkelen op dit gebied.

Je ziet namelijk dat bedrijven die met IT bezig zijn of goed zijn in software hier beter in zijn dan een fabrikant met 100 jaar ervaring.

Wat dat betreft is Tesla ook meer een IT bedrijf dan een auto fabrikant en hebben daarom zo een grote voorsprong.
OK, dus op 1600KM is er zelfs bij de beste autonome auto een 9% kans dat ingrijpen nodig is.
Bij welk percentage durven we de auto in zonder bestuurder? Als dit percentage ieder jaar halveert is er dus helaas nog heel wat jaren te gaan voordat autonome auto's productie rijp zijn.
Ligt eraan hoe rap het AI zichzelf ontwikkeld, het is de AI dat ervan leert immers en op dit moment is deze vorm van AI het meest geavanceerd van alle vormen van AI.

Ik vind het van waymo best wel goed eigenlijk.
Tenminste het aantal ingrepen lijkt behoorlijk laag te liggen, maar verder heb ik wat betreft dit soort software en waarom er dan ingegrepen moest worden, geen kaas van gegeten.
Je kan op meerdere manieren dit soort ingrepen verlagen:
- Wegen aanpassen voor autonome voertuigen
- Regulier vervoer vervangen met autonoom vervoer dat afgestemd op elkaar kan worden
- Bepaalde gebieden ontwijken, waardoor de inzittenden i.p.v. een steegje in te rijden gewoon 100-300m eerder wordt afgezet.

En dan gaat het heel snel.
Dat het ingrijpen nodig is is natuurlijk niet gezegd, enkel dat de bijrijder ingegrepen heeft, dit kan ook onnodig geweest zijn. Daarnaast is de definitie van " fout" zoals de computer het registreert ook niet duidelijk.

Buiten de definitie van de disengagement is het natuurlijk ook de vraag waarom deze heeft plaatsgevonden en wat de consequentie was geweest had men dat niet gedaan.
Als het bijvoorbeeld situaties zijn waarbij de auto in de war is door pionnen en netjes aan de kant gaat staan waarna de bestuurder een stukje moet overnemen dan is dit natuurlijk acceptabel.
Als alle situaties tot ernstige ongelukken zouden lijden is het plotseling onacceptabel.

Overall zijn we relatief dichtbij "autonomie" er is immers 1 ingreep op 18000 kilometer waarvan een gedeelte zeer waarschijnlijk onnodig is geweest, en een gedeelte waarschijnlijk zou lijden tot kleine blikschade. Als men nog een aantal (2a4) jaar kan halveren is het wat mij betreft zeer acceptabel.
Het is maar net hoe je het "framed". De cijfers zeggen ook: per 11.000 km één ingreep. En dan wordt ook niet echt duidelijk of dat een ingreep is die nodig was om een ongeluk te vermijden. Er zijn ook situaties waarin je misschien wil ingrijpen, maar waarbij een andere bestuurder je al heeft ontweken. Zoals een baan-wissel op de snelweg.
Het is ook niet duidelijk of het systeem zelf niet net een fractie later actie had ondernomen wanneer er niet zou zijn ingegrepen.
Ik zou best al durven instappen bij 9%.
Als ik zo rond kijk op de wegen en de kranten bekijk, ligt het ongeval-percentage bij "menselijke rijders" hoger dan 9%.
Ik ben vooral benieuwd hoeveel ingrepen terecht waren. Het is niet altijd zo dat een mens altijd gelijk heeft om in te grijpen of dat het beter was
En onder welke omstandigheden. Wanneer Waymo alleen maar op de snelweg zit en Apple rondrijdt in het hard van San Fransisco, dan maakt dat ook wel verschil. Maar goed. Die gegevens moeten nog komen.

[Reactie gewijzigd door pepsiblik op 13 februari 2019 15:47]

De ultieme westerse lokatie waar alles enigszins geregeld is, is Amsterdam. In principe staan overal en nergens borden, maar niemand houd zich er aan.
Mooie tweede is Parijs waar creatief rijden ook een kunst is.


Lakmoesproef zullen metropolen als Istanboel, Mumbay, Mexico-City, Hongkong etc zijn. Lokaties waar gruwelijk veel mensen wonen, waar ook verkeersregels zijn, maar waar niet alles goed is gereigistreerd laat staan dat iedereen aan de regels houd.


Fabrikanten zijn en blijven ook terughoudend mbt claims van autonome auto’s. Het is altijd onder bepaalde omstandigheden en voorlopig lijkt me ook niet meer dan logisch
Ik kan me voor complexe stedelijke scenario's ook nog weinig voorstellen hoe AI daar mee om zal gaan. Bij een gemiddels ritje door binnenstad Amsterdam moet je toch vaak wel even over een stoepje of even assertief ergens tussenknijpen omdat er soms simpelweg geen end komt aan een kruisende verkeersstroom. Maar het moeilijkste is waarschijnlijk de overgangsfase, want wanneer merendeel van de weggebruikers AI zijn, zal er een enorme efficiëntieslag gemaakt kunnen worden.

Ik ben erg benieuwd wat ons te wachten staat komende jaren!
Of waar het fout ging maar de bestuurder inzag dat het geen kwaad kon en besloot niet in te grijpen.
Dat is ook mijn vraag. Het systeem kan sneller reageren wanneer het fout dreigt te gaan en zal daardoor misschien iets langer wachten. Een defensieve rijder zal dan eerder ingrijpen, waardoor het lijkt alsof het systeem een steek laat vallen (maar bij niet ingrijpen iets later had gereageerd), Ook kan een persoon een situatie zodanig inschatten dat hij denkt dat ingrijpen nodig is, terwijl dat niet nodig is.

Eigenlijk zou elke ingreep grondig bestudeerd moeten worden om in te kunnen schatten of de ingreep terecht was. Dat zullen de bedrijven uiteraard ook doen, omdat elke terechte ingreep data oplevert waarmee ze het systeem kunnen verbeteren.
Zonder cijfers over hoe terecht elke ingreep is zou het verschil tussen Apple en Waymo heel goed uit te leggen zijn met erg defensief ingestelde Apple rijders met weinig vertrouwen in het systeem en meer 'agressief' ingestelde Waymo rijders met veel vertrouwen in het systeem. Al is het verschil wel erg groot.
Die menselijke bijrijders worden dus steeds luier, ze hebben steeds minder zin om in te grijpen.
Ik ben wel benieuwd waar de grens ligt.

In hoeverre zijn de auto's die autonoom rijden zelf verantwoordelijk voor wat er mis gaat. Ik kan mij voorstellen dat misschien wel veel van die ingrepen gedaan moesten worden, omdat de tegenligger een automobilist was die geen autonome auto had. Wat je dan krijgt is dat het autonome systeem op de menselijke factor moet handelen, wat per definitie betekent dat dat veelal onvoorspelbaar gedrag zou zijn.

Mij lijkt het echt geweldig als er een test komt in een regio waar tot dan toe alleen maar autonome auto's -mogen- rijden. Of er dan nog steeds ingrepen nodig zijn. De menselijke factor valt dan weg, waardoor het feitelijk dan alleen nog maar systemen zijn die op elkaar moeten reageren/anticiperen.

Voor mij zijn dit soort resultaten nietszeggend, omdat ik de oorzaak en aard van het ingrijpen niet ken..
Of denk ik te simplistisch?
Ik heb de afgelopen jaar 50.000 km gereden met de auto als bestuurder en nul ingrepen nodig gehad.

/edit
@multikoe thanks voor de correctie :)

[Reactie gewijzigd door wica op 13 februari 2019 17:21]

Da's niet helemaal waar, je corrigeert jezelf continu.
Dat doet een autonome toch ook, constant bij sturen en zich aanpassen aan de omgeving.
Da's idd zo - je kan ook kijken naar bv ABS, traction control en automatische lichten/ruitenwissers (met licht/regensensors), daar corrigeert de machine aan zijn kant weer automatisch de mens.
Dat zou ook kunnen betekenen dat andere automobilisten je erg goed weten te ontwijken :)
Of rij je met de trein?
en waren er 114 'disengagements', zoals het DMV het noemt. Dat wil zeggen dat de zelfrijdende technologie een fout ontdekt of de tester het nodig vindt om de controle over te nemen.

dat is wel een norm die erg aan interpretatie onderhevig is; heel plat gezegd is het aan dev om te interpreteren wat 'fout' is. Daarmee kan dev kiezen (zelfstandig of beleid) om bepaalde logging / warnings vrij 'verbose' te zetten vanwege de leer-factor en dat ziet er in dit soort staatjes best scheef uit
Inderdaad, deze statistieken zeggen helemaal niets. Weinig disengagements kan net zo goed betekenen dat ze veel op 'bekend terrein' hebben gereden of weinig nieuwe features hebben getest.

Aantal real world mijlen is een stuk belangrijker en daarbij loopt Tesla verreweg voorop.

Citaat uit de Tesla 2019 Q4 earnings call:
Our - the amount of training that we have - if you add everyone else up combined, they're probably 5%, I'm being generous, of the miles that Tesla has. And this difference is increasing. A year from now, we'll probably go - certainly from 18 months from now, we'll probably have 1 million vehicles on the road with - and every time the customers drive the car, they're training the systems to be better. I'm just not sure how anyone competes with that.
Wat vreemd dat Uber er niet tussen staat. Ben wel benieuwd hoe veel ingrepen per 1000 mijl zij hadden voordat ze er ééntje te weinig hadden. Zij rijden uitsluitend in Arizona?

Waymo blijft de koning. GM is wel opvallend. Dat zijn toch héle grote jongens op autogebied. Verder zie ik nog Nuro. Dat zijn van die kleine karretjes die heel beperkt rondrijden in het centrum van een paar steden met 10Km/h of zo.

[Reactie gewijzigd door BikkelZ op 13 februari 2019 19:51]

'0.09 ingrepen' ... waren die ook allemaal terecht? We gaan voorbij aan het idee dat de A.i. het misschien wel beter weet. :) (Denk bijv. aan een bestuurder die ingrijpt, omdat ie vindt dat de auto te laat remt vooor een bocht, terwijl de A.i. gewoon de preciese en nodige afremming gedaan heeft).

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True