Okay ho effe.
Ik beargumenteer vele malen dat we nog niet kunnen voorspellen op welke wijze een autonome auto problemen gaat veroorzaken. Hier zien we dus een voorbeeld. En wat zeg jij nu? We moeten de auto, waarvan iedereen die voorstander is zegt dat ie beter presteert dan de menselijke bestuurder, leren om onlogische beslissingen te nemen?
Wat is dan nog het voordeel?
1: Mensen maken brokken
2: We vinden een tech uit die het beter kan dan de mens (die discussie is nog een andere)
3: De tech werkt niet naar behoren
4: We passen de tech aan zodat ze meer op ons gedrag lijkt, waarvan we niet vonden dat ie optimaal was.
Ik schrijf vaker dat een heleboel technologie uitvinden die geen wezenlijke verbetering oplevert.
Dus wat jij zegt is in feite dat autonome auto's als mensen moeten reageren en de situatie ter plekke moeten inschatten, iets wat de mens bij uitstek kan. Voeg in de discussie over het woonerf waar kinderen spelen en waar een mens geacht wordt te snappen dat die de snelheid aanpast omdat een kind achter een auto aanrent de bal achterna die de weg op rolt.
Dus als de auto bemerkt, voor zover dat mogelijk is (want ziet de auto de file achter het of alleen de auto achter het) dat er in die straat op dat moment de mensen rijden met een normale toegestane snelheid, dan moet het zich aanpassen aan die situatie om ongelukken te vermijden.
Dus google's auto probeert in dit geval in feite het beste autootje in de rij te zijn en dat levert dus problemen op.
Dat kont omdat verkeer meer is dan regels. Er was van de zomer een amerikaan in Nederland die ons fietsgedrag bestudeerde en die zei in een uitzending van 1V dat er veel ongeschreven regels zijn tussen fietsers en andere verkeer.
En ik meen dat die regels per plaats nog anders zijn, heb ik al gezegd, dat er een wijk of straat kan zijn in je buurt waarvan iedereen weet dat er gevaarlijke situaties ontstaan. Zie ook dat recente bus ongeluk in Zuid Frankrijk met meer dan 40 doden tot gevolg.
Ik denk dat google de auto zo heeft geprogrammeerd om vooral gunstig te lijken in vergelijking met ander wegverkeer door gewoon de snelheid laag te houden. De auto kan dan sneller remmen en het risico percentage gaat daardoor gewoon omlaag.
Maar deze situatie beschrijft en bevestigd mijn argument, dat we niet kunnen voorzien welke problemen een tech veroorzaken gaat. En dat we er dus nu al achter komen dat ook een gehypte must-happen tech ook nadelen kent.
Bijvoorbeeld, stel dat we samen beslissen dat we ons alemaal maar moeten aanpassen en langzamer gaan rijden. Dat is veiliger, maar de samenleving verandert omdat we allemaal langer aan het verkeer deelnemen, dat is de consequentie. Dus langer voordat je op je werk bent, langer voor je thuis bent.
Prima, dat kan. Is dat leuk voor iedereen? Nee, want je hebt nog minder tijd voor je relatie.
Ik vind niet dat de file achter de google auto onlogische beslissingen nam. Wat voor keuze hadden ze? Het is een stuk mechaniek en software dat bepaalde hoe de situatie in de straar er uit zag en niet de mens bepaalde die situatie. Google's auto deed iets onlogisch omdat google bang is voor negatieve publiciteit.
Dus ja, laten we ten koste van alle gezond verstand allemaal aan de auto-auto gaan, die 'veiliger' en 'beter' is dan de mens en dan de software 'menselijker' maken en onlogischer zodat de auto meer op een mens lijkt en via die aanpassing weer onveriliger 'gedrasg' vertoont.
Je voegt dan toe in code, de menselijke neiging tot kuddegedrag. Iedereen rijdt te langzaam of iedereen rijdt te snel. Er ontstaat een dynamiek op de weg die voor files zorgt en ongelukken en dat willen we nu net vermijden.
[Reactie gewijzigd door Verwijderd op 24 juli 2024 14:47]