Feit blijft wel dat deze bussen één probleem blijven hebben: ze missen het menselijk denken. Je kan nog zo veel programmeren, maar een mens zal altijd op een "betere" manier denken (meestal, tenzij je emoties verkeerd zijn). Als er iets gebeurt wat "bijna nooit gebeurt", kan een mens in het algemeen beter reageren dan een computer: de programmeur zal deze dingen niet hebben voorzien; of simpelweg afgedaan hebben met "dat komt toch nooit voor".
Voor deze specifieke bussen klopt dit, maar ik ben het niet eens met de implicatie dat mensen fundamenteel "beter" denken.
Computers hebben weer het grote voordeel dat ze zich nooit vervelen. Een mens dat uren lang naar de weg moet staren gaat concentratieproblemen krijgen. Een computer kan dagen door gaan zonder een seconde afgeleid te zijn.
Ook zal een computer die een keer iets geleerd hebben het nooit meer vergeten.
De kans is groot dat je na 20 jaar niks meer weet van je slip cursus, of in ieder geval niet genoeg om het toe te passen als het nodig is. Een computer zal zonder twijfel direct het juiste gedrag vertonen.
Een klein simpel ding, wat misschien wel voorzien is, maar wat bijvoorbeeld over het hoofd kan worden gezien door de programeurs: (even als voorbeeld)
De bus rijdt in een rechte lijn over een weg. Een fietser maakt een hoek van 90 graden (die komt dus van rechts naar de bus toe), en deze fietser let niet goed op. De bus rijdt gewoon door, want die ziet in principe voor zich nog geen obstakel. Totdat er 2 meter voordat de bus komt, de fietser opeens tevoorschijn komt. Dan is die 2 meter te kort om te reageren.
Een menselijk chauffeur zal dan allang hebben gezien dat die persoon probeert over te steken, en dus dat hij even moet opletten of toeteren. Een bus zal dat niet, verwacht ik.
Programmeurs kunnen inderdaad dingen over het hoofd zien. Mensen ook. Maar in een computer programma hoeft het probleem maar een keer opgelost te worden. Mensen moet je allemaal individueel leren verantwoordelijk te rijden.
Verder kunnen sensoren kapot gaan zonder dat iemand het merkt (bijv. bewegingssensoren: die registreren dan geen beweging, mar het kan ook zijn dat er simpelweg geen beweging is, en dat dit logisch is. De computer kan niet zomaar onderscheid maken).
Jawel hoor,
zelfs als het niet mogelijk is om te controleren of een sensor normaal werkt, kun je er altijd nog 3 naast elkaar zetten. Als er dan eentje afwijkt weet je dat ie stuk is.
Natuurlijk blijven er altijd situaties waarin het mis gaat, maar met menselijk bestuurders gaat het ook vaak zat.
Een mens blijft gewoon zien (tenzij ze dronken zijn o.d.)
Zolang de computer gemiddeld genomen een stuk beter rijdt dan een mens (en dat zal niet zo lang meer duren), kun je maar beter de incidentele fouten van de computer voor lief nemen, in plaats van de grote hoeveelheid fouten van mensen.
Als laatste vind ik het eng voor de mensen erin. Vooral in het beginstadium vind ik het toch wel een enge belefenis, simpelweg omdat je niet weet of je de "bestuurder" (computer) wel kan vertrouwen, en of er geen bugs zitten.
Psychologie zal inderdaad de grootste beperking zijn voor de invoering van robot auto's, maar uiteindelijk weet je van mensen vaak ook niet of je ze kan vertrouwen.
Sterker nog, veel mensen van wie je denkt dat je ze kan vertrouwen rijden af en toe toch wel eens met een borrel op.
Verder, als er iets speciaals is, kan je het niet aan de "buschauffeur" vragen of melden, en mensen weten dan ook niet direct wat te doen. Ik denk dat een noodknop/melder noodzakelijk is voor zoiets.
Een grote rode knop lijkt me inderdaad wel een goed idee.
Ik ben vóór het begrenzen van de maximale snelheid, en deze niet al te hoog te zetten. Dan is er toch iets minder risico, en kan een "ongelukkige fiets" makkelijker ontweken worden.
Tuurlijk, maar dat doen ze al lang.