Zelfrijdende auto Google rijdt voorzichtiger in de buurt van kinderen

Google stelt zijn zelfrijdende auto's te hebben geleerd dat zij zich anders moeten gedragen in de buurt van kinderen. De internetgigant voert trainingen uit om kinderen in 'allerlei soorten en maten' te kunnen herkennen, en om daar het gedrag van de auto op aan te passen.

Dat liet het bedrijf weten in een post die op het sociale netwerk Google+ is geplaatst. In het kader van Halloween liet de internetgigant kinderen in allerlei kostuums langs de zelfrijdende auto van Google lopen, terwijl deze geparkeerd stond. Hierdoor leerde het systeem via zijn sensoren als het ware kinderen in allerlei 'vormen' herkennen. Dat moet ervoor zorgen dat de auto beter wordt in het opmerken van kinderen in het verkeer.

Google heeft een apart detectiesysteem ingebouwd voor kinderen, omdat zij in verkeerssituaties vaker gevaarlijk gedrag vertonen dan volwassen voetgangers. Omdat het gedrag van kinderen voor de auto minder makkelijk is te voorspellen, wordt er met meer voorzichtigheid gereden.

De internetgigant is al enige tijd bezig met het testen van zijn zelfrijdende auto. Het bedrijf stelt dat het na meer dan een miljoen kilometer op de weg nog niet betrokken is geweest in ongelukken waarbij de auto zelf schuld had.

Google zelfrijdende auto

Door RoD

Forum Admin Mobile & FP PowerMod

01-11-2015 • 11:05

297

Reacties (289)

289
285
216
7
0
0
Wijzig sortering
Allemaal heel goed dit, maar als een dergelijke zelfrijdende auto een ongeluk veroorzaakt wie is dan verantwoordelijk?
Is dat eigenlijk al wel uitgezocht?
Google heeft (samen met Volvo en Mercedes) verklaart de volledige verantwoordelijkheid op zich te nemen als er een ongeval met hun auto's gebeurd, zie bijvoorbeeld dit nieuwsbericht.

Dat is dus netjes afgedekt op zich.
Dat is natuurlijk leuk, maar als wettelijk de bestuurder aansprakelijk is dan blijft dit ook gewoon zo, Google kan hooguit de kosten op zich nemen, maar niet de wettelijke verantwoordelijkheid. Met de huidige wetgeving in Nederland zal de bestuurder altijd wettelijk aansprakelijk zijn.
Je gebruikt aansprakelijk en verantwoordelijk door elkaar waar dat erg verwarrend is. De verantwoordelijkheid bij een verkeersongeval met een autonome auto zal ergens gedeeld worden door de fabrikant en de eigenaar. De eerste moet een deugdelijk ontwerp hebben, de tweede moet het voertuig in een behoorlijke staat van onderhoud houden.
In de praktijk is dat voor de eigenaar en berijder allemaal niet zo interessant en gaat het in eerste instantie om wie aansprakelijk is. In Nederland verzekeren we niet de bestuurder van de auto maar het voertuig zelf, dus eigenlijk de eigenaar, en normaal gesproken ook dóór de eigenaar.
Je focust op verzekeringstechnische aansprakelijkheid, die is inderdaad gebonden aan het voertuig, maar die staat los van de (straf-)rechtelijke aansprakelijkheid. Als je door rood licht rijd en een dodelijk ongeluk veroorzaakt kan dit inderdaad netjes door de verzekering gedekt zijn, maar als bestuurder zul je hoogst waarschijnlijk op zijn minst een bezoekje aan de rechtbank mogen brengen.
Voor de rechter wordt het alleen maar makkelijker: Aangezien er geen bestuurder meer is, is er één iemand minder die schuldig kan zijn aan een ongeval. Dit is ineens ook een goede reden om direct stuurwiel en pedalen uit een autonome auto te halen, dan weet je ten minste zeker dat die aangeklede aap in de auto je mooie berekeningen niet gaat verstoren. ;)
Dat zou ik niet zeggen... een bug kan een ongeval veroorzaken, dus zal een rechter in zo'n geval moeten uitzoeken wie verantwoordelijk is voor de bug en of deze personen strafrechtelijk vervolgd moeten worden.
Dat is toch niet anders dan voor andere mogelijke fouten in een auto? Of dat die fout in software of hardware zit, is niet zo relevant.
Je kan heel snel de bestuurder afstrepen, die is er namelijk niet, vrij eenvoudig de eigenaar, als het onderhoudsboekje "bij" is, is hij van de haak en je komt dan dus bij de organisaties terecht: Fabriek of leveranciers, RDW of zusterorganisatie.
Dat is voor een autonome auto echt niet zoveel anders dan voor een niet-autonome auto.
Nee, dat kan niet. Ik heb de Wegenverkeerswet er even op nagelezen. Er is altijd een bestuurder van een auto. Als een auto zelf rijdt, dan is die computer enkel een hulpmiddel voor de bestuurder, maar de bestuurder is volledig verantwoordelijk voor hoe de auto bestuurd wordt en hij moet ook altijd een rijbewijs hebben.

Daarmee is ook de aansprakelijkheidsvraag beantwoord: Degene die de "bestuurder" van de zelfrijdende auto is, en dat waarschijnlijk degene zijn die het contactslot omdraait en de auto vertelt waar hij heen moet rijden, is ook degene die strafrechtelijk vervolgd wordt bij een aanrijding.
Nee, dat kan niet. Ik heb de Wegenverkeerswet er even op nagelezen. Er is altijd een bestuurder van een auto.
Daarom moet de wet (en het verdrag van Wenen waar de wet uit voortkomt) ook veranderen voordat autonome auto's gemeengoed worden.
Daarmee is ook de aansprakelijkheidsvraag beantwoord: Degene die de "bestuurder" van de zelfrijdende auto is, en dat waarschijnlijk degene zijn die het contactslot omdraait en de auto vertelt waar hij heen moet rijden, is ook degene die strafrechtelijk vervolgd wordt bij een aanrijding.
Dat, in combinatie met de huidige wetgeving maakt autonome auto's in principe voorlopig onmogelijk: Je kan iemand niet verantwoordelijk houden voor iets waar hij redelijkerwijs niets aan kan doen. Dus zal een autonome auto (binnen de actuele wetgeving) in theorie niet autonoom zijn (maw: stuur en pedalen bevatten) en in de praktijk niet zo veilig als hij kan zijn, aangezien de aangeklede aap nog steeds de ultieme controle heeft.
Je kan iemand niet verantwoordelijk houden voor iets waar hij redelijkerwijs niets aan kan doen.
Ach, dat geldt in het verkeer nu toch al niet. Als er een fietser zonder licht tegen je auto aan zwabbert ben jij namelijk ook verantwoordelijk. Net als wanneer er een kind tussen twee geparkeerde auto's vlak voor je auto springt, blijkbaar wordt van je verwacht dat je dan altijd stapvoets rijdt.
Als ik even de voorwaarden van 185 WVW doorlees en jurisprudentie valt er bijvoorbeeld voor het onverwachte gedrag van kinderen de volgende regel aan te houden bij het beroep op overmacht:

''Er is vereist dat bestuurder van zijn wijze van rijden rechtens geen enkel verwijt valt te maken. In casu alleen dan sprake van overmacht wanneer bestuurder er bij zijn rijgedrag rekening mee heeft gehouden dat het kind plotseling zal oversteken en hij zijn verkeersgedrag daaraan heeft aangepast.''

En voor fietsers in het algemeen dient het gedrag zo onwaarschijnlijk te zijn dat de bestuurder daar geen rekening mee hoefde te houden. Maar ook dat zijn toch extremen.

In een meerderheid van de gevallen ga je een beroep op overmacht niet halen.
Klopt en het gewoon om de zwakkere verkeersdeelnemers te beschermen. Met het besturen van een auto neem je een flinke portie verantwoordelijkheid dus.
Dit is inderdaad een punt wat vaak over het hoofd gezien wordt; de doorgeslagen verantwoordelijkheid van gemotoriseerde voertuigbestuurders t.o.v. een groep mensen die gewoon een algemeen gebrek aan verantwoordelijkheid tonen.
Treinen kan je in principe geheel autonoom laten rijden. Maar nog altijd is er een machinist verantwoordelijk om een noodstop te maken. Bij auto's zal ook bij autonome auto's hetzelfde zijn. Je hebt altijd genoeg ruimte tov je voorganger om een noodstop te maken. Je ziet het verkeerslicht op tijd oranje worden. Op een voorrangskruising het verkeer in principe ook op tijd (anders ziet de auto het ook niet). Dus voor veel types ongeluk heb je gewoon de mogelijkheid om in te grijpen. De stelling dat je iemand niet verantwoordelijk houden voor iets waar hij redelijkerwijs niets aan kan doen gaat in ieder geval niet op in het geval voor kinderen en huisdieren.
Zo lang die 'aangeklede aap' nog steeds een veel betere chauffeur is dan de computer vind ik dit een vreemde benaming. Dat stuk blik gaat heel vaak weigeren van zijn plaats te komen in meer chaotische verkeerssituaties.
En hoelang duurt het nog dat een computer beter rijdt dan een mens?
Binnen 5 jaar rijden autonome auto's veiliger dan mensen. Ik heb het al eerder aangehaald, mits er een goede analyse van de gemaakte software (bugs) is kan er van elke fout geleerd worden. Mensen leren niet van elkaar en zal een fout keer op keer gemaakt worden. Van vermoeid of met drank op, ziek emotioneel achter het stuur tot verkeerd inschatten van situaties door onervarenheid, leeftijd of andere menselijke factoren. Een computer heeft deze niet. Een fout zal daarom maar in theorie slechts een keer en in de praktijk hooguit slechts enkele keren voorkomen.
Tel daarbij op dat machine learning (tip) deel uit maakt van het leer algoritme en je begrijpt dat het slechts een kwestie van korte tijd is voordat de machine de mens voorbijstreeft.
Geloof me ik ken machine learning en hou de vorderingen op het gebied van AI goed in de gaten. Ik zeg ook niet dat de computer nooit een betere bestuurder dan de mens zal worden. Dat zal hij zeker want daarvoor is alles aanwezig. Ik zeg alleen dat hij dat NU nog niet is. Dus ja wellicht over 5 jaar...

Persoonlijk denk ik wel dat dat heel optimistisch is. Ik denk eerder 50 jaar. Helaas maar de vorderingen op het gebied van AI gaan al die tijd dat ik het onderwerp in de gaten hou (nu zo'n 20 jaar) heel traag. Als datzelfde tempo aangehouden wordt dan halen we 5 jaar zeker niet. Op het moment is het nog vooral 'brute-force' allemaal namelijk. Wat we nodig hebben is een echte doorbraak, en die kan natuurlijk in principe op elk moment komen. Dus waarom niet binnen 5 jaar? Laten we er op hopen!
Ik weet niet welke ontwikkelingen jij in de gaten houdt maar ik zie juist wel vooruitgang. Algortimes voor het herkennen van mensen, omgeving enz. De heilige graal is nog niet ontdekt maar om te stellen dat er weinig veranderd. Daarnaast is het begrip AI rekbaar. Censoren veranderen en zijn inmiddels veel beter. Ik geloof wel dat dit mogelijk is, zeker gezien de huidige stand van zaken.
Tja het ligt er aan waar je naar kijkt. Op gebied van beeldherkenning zijn goede stappen gezet inderdaad. Maar tekstherkenning OCR is eigenlijk vrij simpel. Spraakherkenning is al weer veel moeilijker en van 'begrijpend lezen' bakt de computer nog weinig. Probeer Google Translate maar eens uit bijvoorbeeld. In het besturen van een auto komen allerlei moeilijke zaken bij elkaar
Dan is de volgende vraag, hoe begrijpend moet een AI zijn?
Een AI voor een auto moet de omgeving interpreteren en vervolgens een berekende afweging maken. Dat deze auto AI al ver is bewijst o.m. Google met zijn auto's. Echter, een AI voor een auto hoeft niet filosofisch te zijn.
Daarom ben ik er van overtuigd dat de autonome auto binnen afzienbare tijd gemeengoed gaat worden en dat er een revolutie op transportgebied gaat plaats vinden. Zoals vrachtwagens die op onchristelijke tijden goederen in de binnenstad brengen of welke 's morgens klaar staan met goederen. Dat gebeurd nu ook veelvuldig (mijn toeleveranciers werken bijvoorbeeld zo) maar dit kan fijnmaziger en goedkoper worden.
Toekomst zal leren wie er gelijk heeft :D
Zo lang die 'aangeklede aap' nog steeds een veel betere chauffeur is dan de computer vind ik dit een vreemde benaming. Dat stuk blik gaat heel vaak weigeren van zijn plaats te komen in meer chaotische verkeerssituaties.
Waarom zou een computer meer moeite hebben met chaotisch verkeer dan een mens? Google heeft inmiddels al bewezen dat hun prototype auto's (strikt genomen oneindig veel) minder fouten maken dan de menselijke bestuurders om hen heen.
Google heeft dat helemaal niet bewezen. Hun auto moet nog steeds regelmatig het stuur uit handen geven. Op veel wegen in bijvoorbeeld India zou de auto nauwelijks van zijn plaats komen. Zie bijvoorbeeld de verkeerssituaties waar de bestuurder van Don't Drive Here in terecht komt. Die miljoen km die ze noemen hebben ze voornamelijk op de snelweg en goed georganiseerde wegen van California gereden. Er zijn nog genoeg situaties die de computer niet aan kan, terwijl de mens die wel veilig kan navigeren. Ergo, de mens is nog steeds de superieure bestuurder. Er zijn trouwens genoeg menselijke bestuurders die betere stats hebben dan de Google auto. Vrachtwagenchauffeurs zat met een miljoen km zonder ongelukken veroorzaakt te hebben.
Zoals Bacchus al aangaf, is de huidige wet dus vooralsnog niet van toepassing op een autonome auto. Per definitie bestaat met de huidige wetgeving een autonome auto ook niet nu de bestuurder feitelijk altijd de controle heeft en niet het ''hulpmiddel''. Totdat er een aanpassing plaatsvind blijft het risico dusdanig hoog en is het onaantrekkelijk om met zo'n systeem te rijden. Je loopt immers dubbel risico. Je bent aansprakelijk wanneer de auto een fout maakt en wanneer je zelf een fout maakt.
De redenatie klopt niet helemaal denk ik. Dan zouden er ook meer ongelukken in een vliegtuig gebeuren doordat er een co-piloot is.
Mijn redenatie doelt ook niet op een hogere kans van ongelukken maar een hogere kans van aansprakelijkheid totdat de wetgeving is aangepast. Niemand wil de weg op met meer risico dan nodig is. Zolang de aansprakelijkheid niet wordt aangepast bij autonome auto's is het rijden van voornoemde auto onaantrekkelijk.
Dat is nu nog zo maar dat gaat echt wel veranderen wanneer zelfrijdende auto's mainstream gaan worden.

Gezien het feit dat zelfrijdende auto's in potentie veel veiliger zijn dat een mens achter het stuur zou het me zelfs niks verbazen als het uiteindelijk verplicht word om de auto te laten rijden omwille van de veiligheid.

Mensen zijn gewoon niet geschikt als bestuurder en dat zie je ook bijna elke dag weer in het verkeer terug. Dat belachelijke duwen en trekken zodat je een minuutje eerder thuis bent is een mooi voorbeeld hiervan.

Zal alleen nog wel even duren. Dit is niet iets wat men in een paar jaar kan veranderen hoe goed die auto van google ook zal rijden. Niet alleen de auto zal er klaar voor moeten zijn maar de mens ook.
Nog wel, het is zeker niet uitgesloten dat die wet veranderd wordt voor autonome auto's.
Als het een bug zou betreffen komt de verantwoordelijke hoogstens in aanmerking voor een zelf ingang gezette civiele zaak. Het is vrijwel onmogelijk om opzet of voorwaardelijke opzet te bewijzen op basis van een bug, en dat is een vereiste afhankelijk van welk strafrechtelijk artikel je gebruik natuurlijk.
Nee, bij het veroorzaken van een ongeluk maakt het niet uit of het opzet is of onvoorzichtheid. Een aanrijding is een strafrechtzaak en in de regel is daar geen opzet bij in het spel. Je wordt veroordeeld omdat je onvoorzichtig bent geweest.

De logische vertaling is dan dat een programmeur wordt veroordeeld omdat hij onvoorzichtig is geweest.
Hoewel het beginstuk juist is, dient er, zoals je zegt, wel schuld te worden vastgesteld door onvoorzichtigheid of roekeloosheid en deze zal zeer moeilijk vast te stellen zijn door een rechter als het gaat om een stukje code wat bijvoorbeeld aan de andere kant van de wereld Is geschreven. Daarnaast krijg je met een artikel 6 WVW ook nog problemen indien de betreffende persoon niet eens in Nederland woont of nog erger niet in Europa. Het lijkt mij dat er uiteindelijk alleen nog maar een civiele zaak voor immateriële of materiële schade over blijft om bij de fabrikant van de zelfrijdende auto aanhangig te maken. Er zal dus hier en daar wat wetgeving moeten worden aangepast en daarmee jurisprudentie uitgelokt om dit soort zaken juist te behandelen.
Je verwart straf- en civielrecht. Het gros van de aanrijdingen leidt tot een overeenkomst tussen verzekeraars, zonder dat er uberhaupt een rechtzaak vna komt. Van de zaken die wel voor de rechter komen, is de meerderheid alsnog civielrecht - alleen euro's. Daarbij is opzet meestal irrelevant omdat onvoorzichtigheid makkelijekr te bewijzen is, en even goed tot een civiele veroordeling leidt.

In de zeldzame strafzaken tenslotte is opzet van essentieel belang bij de bepaling van de strafmaat. Iemand opzettelijk aanrijden levert véél hogere straffen op. Onvoorzichtigheid leidt typisch tot boetes en taakstraffen.
Maar de bestuurder is in dit geval strikt gezien Google;)
wat houdt Alphabet (het nieuwe moederbedrijf boven Google) tegen om zelf een verzekering aan te bieden via een nieuw bedrijfje? Zo is paypal een bank geworden om bepaalde diensten te mogen aanbieden.
Ja maar er zit geen stuur in de google auto. Dus kan je ook niet ingrijpen. Tesla auto heeft nog wel een stuur. En moet je ook altijd nog zelf je handen aan het stuur houden.
Daarom zul je voorlopig dan ook niet in Nederland de openbare weg op kunnen met de auto van Google...
Zonder aanpassingen aan de wetgeving, of de auto, zal deze niet goedgekeurd worden door de RDW voor gebruik op de openbare weg.
De Nederlandse overheid heeft verklaard voorop te willen gaan lopen met de ontwikkelingen omtrent zelf rijdende auto's. Ik verwacht hier op korte termijn dus wel veranderingen op gebied van wetgeving.


Daarnaast, als een voetganger of een fietser zich niet aan de verkeersregels houden en er gebeurt een ongeluk, dan ben je alleen verzekeringstechnisch aansprakelijk, niet wettelijk. En om dit soort situaties gaat het hier in het bericht.

Als het ongeluk gebeurt door de schuld van de bestuurder. Dan is de bestuurder verantwoordelijk, de vraag is natuurlijk of de auto zelf als bestuurder wordt gezien, of dat de inzittende als bestuurder wordt gezien. Echter ook hier zit enige nuance als er een ongeluk gebeurt door een technisch mankement aan het voertuig (mits deze niet te voorkomen was door de bestuurder/eigenaar).
Dat is niet helemaal waar. Bij een ongeluk tussen een auto en een fietser of een auto en een voetganger is in eerste instantie altijd de auto bestuurder schuldig (zowel strafrechtelijk als verzekeringstechnisch). Pas bij heel duidelijk bewijs dat de fietser/voetganger zich niet aan de verkeersregels hield is dat niet zo. Maar zelfs dan moet je als bestuurder bewijzen dat je het niet zag aankomen of kon ontwijken. Een simpel: hij fietste door rood is niet voldoende.
Ik neem aan dat een deel van de sensordata van de auto gelogd wordt?? De laatse x minuten ofzo. Dan is er altijd bewijsmateriaal.
Neem aan dat die logs wel te manipuleren zijn. De routines waarmee de politie een auto in de toekomst stil kan zetten wil je ook niet vrij beschikbaar.
Ook dit is niet helemaal waar: Bij een ongeluk tussen auto en fietser is een automobilist aansprakelijk voor ten minste de helft - voor de andere helft is een verdeelsleutel die de rechter toe kan passen - van de door de fietser geleden schade, tenzij de fietser (zo goed als) opzettelijk voor de auto langs schiet - "met aan opzet grenzende roekeloosheid" zoals dat in de jurisprudentie zo mooi heet.

In het geval dat een fietser door rood rijdt op een 80-km weg terwijl het vrij druk is, zal "hij reed door rood" voldoende zijn, maar in bijvoorbeeld het centrum van Utrecht, waar het wemelt van de fietsers die overal heen krioelen niet
Oke dan had ik verkeerd begrepen. klopt. dat het met de huidige wetgeving problemen opleveren.
Als de auto zelfrijdend is, dan is de chauffeur de auto zelf. De personen die meerijden zijn dus passagiers.
Wettelijk gezien is de auto zelf dus verantwoordelijk, wat maakt dat de fabrikant de verantwoordelijkheid draagt. Zoals Wildhagen opmerkt is dit al gecovered. Simpel toch?
Wettelijk gezien is de auto zelf dus verantwoordelijk, wat maakt dat de fabrikant de verantwoordelijkheid draagt.
Wettelijk moet een motorvoertuig een menselijke bestuurder aan boord hebben. Wat dat betreft is het inderdaad gecovered, een volledig autonome auto is met de huidige wetgeving in Nederland niet mogelijk. Simpel toch.
Anoniem: 642623 @Zer01 november 2015 17:21
Vandaar dat ze dus die wet moeten aanpassen.
Ze zullen natuurlijk van de opgeslagen data, in de Black Box, uiteindelijk kunnen concluderen of de fout van de bestuurder is geweest of Google Auto. Reken maar er op dat elk moment van jouw rijgedrag en de van de Google Auto wordt geregistreerd! Zo'n zelfrijdende auto zit vol met sensors en camera's, ik vermoed dat de politie en de verzekering zulke auto's heel graag zien komen! Er is namelijk altijd bewijslast.
Anoniem: 642623 @Fermion1 november 2015 17:20
Dan zullen bijvoorbeeld ook verkeerslichten een datalog moeten hebben zodat de gegevens tegen elkaar kunnen worden gehouden.
Beide datalogs zullen bovendien geijkte klokken moeten hebben.

alleen een blackbox in de auto heeft weinig zin
een videocam kan evt de boel nog filmen maar stel nou dat je zo'n laagstaande zon hebt waarbij je gewoon een verkeerslicht niet meer kunt ontcijferen....

Enz
vul maar aan
Google is de bestuurder.
Niemand in de auto is de bestuurder want er zit geen stuur in.

Vandaar dat ze er nieuwe wetten voor moeten maken, omdat we in situatie's terecht komen waar we nog nooit in zijn gekomen.

[Reactie gewijzigd door churchill9 op 26 juli 2024 01:15]

Officieel gezien bestuur je niet het voertuig dat doet de software van google. Dus ik denk dat google wel degelijk verantwoordelijk is bij een ongeluk
Dat is natuurlijk leuk, maar als wettelijk de bestuurder aansprakelijk is dan blijft dit ook gewoon zo, Google kan hooguit de kosten op zich nemen, maar niet de wettelijke verantwoordelijkheid. Met de huidige wetgeving in Nederland zal de bestuurder altijd wettelijk aansprakelijk zijn.
En wie is de bestuurder van een autonome auto dan? Volgens mij zitten er nml alleen passagiers in en is het systeem van Google de bestuurder.
Oke. De bestuurder is aansprakelijk, hij sluit een aansprakelijkheidsverzekering af. Klaar.
Verzekeringen helpen je geen ene reet als je voor dood door schuld de bak in moet...
Anoniem: 80466 @Zer01 november 2015 17:33
Aansprakelijkheid is iets anders dan schuld
De overheid kan prima de bestuurder wettelijk aansprakelijk maken voor iets ook als die niet schuldig is.
Als je in een normale auto zit en je rijdt iemand dood en dan? Zelfde verhaal denk ik? Wat is je punt? Dood door schuld krijg je alleen als je zelf iets doet wat onverantwoord is hoor. Echt niet als de auto een mankement heeft.

[Reactie gewijzigd door Dabbel op 26 juli 2024 01:15]

Hierboven werd gesteld dat Google aansprakelijk is, en niet de "passagier"...
Ja, lijkt mij logisch. Als een auto mankementen heeft dan is de fabrikant aansprakelijk. Als de bestuurder iets doms doet dan is de bestuurder aansprakelijk. Als er geen bestuurder meer is, dan kan maar 1 de fout in gaan, de auto/fabrikant. In de wet kan wel staan dat er een bestuurder moet zijn, als hij niks fout doet en de auto rijdt iemand aan dan kan hij niet de bak in door dood door schuld. Het laatste geval lijkt een beetje op de auto's van GM waar de remmen niet goed werken. Als bij dit mankement iemand word doodgereden, dan zie ik wel dat GM moet betalen. En niet de bestuurder een paar jaar in de gevangenis. Ik zie daardoor niet waarom je denkt dat het juridisch een kwestie wordt.

[Reactie gewijzigd door Dabbel op 26 juli 2024 01:15]

Volvo pleit voor universele regelgeving omtrent zelfrijdende auto's in de Verenigde Staten. Momenteel is die per staat verschillend, waardoor zelfrijdende auto's niet overal goed getest mogen worden.
Uit datzelfde bericht, helemaal appeltje eitje is het dus nog niet.
Voor die paar testauto`s die nu rijden wil het wel geloven, maar wat als straks dit soort auto`s gemeengoed worden?
Mijn gevoel zegt dat je dan maar beter een rechtsbijstandverzekering kunt hebben.

Voor zover ik weet is er in de nederlandse wet niks geregeld betreffende deze auto`s.
Voor die paar testauto`s die nu rijden wil het wel geloven, maar wat als straks dit soort auto`s gemeengoed worden?
Ze zijn stukken, STUKKEN veiliger dan menselijke chauffeurs, daardoor wordt een polis voor een zelfrijdende auto stukken goedkoper dan die voor een gewone auto/chauffeur. De meest voor de hand liggende constructie, is dat fabrikanten van zelfrijdende auto's zelf een verzekering hebben voor iedereen die hun product gebruikt, net zoals taxi-bedrijven een overkoepelende polis voor al hun chauffeurs afsluiten. Op die manier stralen ze vertrouwen uit naar de consument toe, en kunnen ze natuurlijk ook een goede deal slaan met een verzekeraar.
Ik denk dat je dat niet zo mar kunt stellen. Wat gaat een zelfrijdende auto doen als een sensor verkeerde signalen afgeeft door een defect? Over het algemeen hebben mensen sneller door dat hun instrumenten niet deugen dan computers.

Ook is het zo dat Google schermt dat hun auto's nog nooit schuldig zijn geweest aan een ongeval, maar dat er mensen achterop knallen wegens onverwachte remacties van dit soort auto's... je vragen of dat een verbetering van de veiligheid is. De veiligheidsvraag is een andere dan de schuldvraag.
Mensen doen ook onverwachtse remacties en worden daarom van achter aangereden. Toch zecht de wet dat degene die achterop rijdt schuldig is omdat die te weinig afstand houdt of niet oplet
Ja, en? Dat klop toch ook? Je moet anticiperen onverwachte remacties en gewoon voldoende afstand houden. Feitelijk moet je op elk moment een noodstop van je voorganger kunnen verwachten.
Omdat juist dit punt nu de software van google aangerekend wordt. Dat die soms te voorzichtig is en soms te vaak remt.

Terwijl het probleem eigenlijk is dat de meeste mensen niet fatsoenlijk kunnen autorijden. De meeste Nederlanders zijn al helemaal te achterlijk om het begrip "afstand houden" te snappen.

Ik kan niet wachten tot ik ooit eens in mijn auto kan stappen en lekker achterover kan leunen en wachten tot ik op mijn bestemming ben. Heerlijk!
Ze kunnen er op zijn minst een stikker op plakken: ik rem voor dieren!!
Levensgevaarlijk natuurlijk.

In het verkeer is niet alleen je eigen veiligheid belangrijk maar net zo goed die van je achterliggers natuurlijk.

En ik haaaat bumperklevers..

[Reactie gewijzigd door Sergelwd op 26 juli 2024 01:15]

En hoe meer automatisch rijdende auto's er zijn (die dat ook gewoon doen als het nodig is), hoe beter menselijke bestuurders met die mogelijkheid rekening gaan houden.
Dat is in het begin,maar zodra dit gemeengoed is (wat het nog lang niet is maar je moet naar de toekomst kijken).
Kan je natuurlijk veel ongelukken ver komen.

En als er een bedrijf is bedrijf voor je in kan staan is het google wel aangezien ze rijker zijn dan de gemiddelde verzekeraar.
Mensen en computers hebben elk hun sterke en zwakke punten op veiligheidsgebied. Ik denk dat je veel ongelukken kunt voorkomen door een auto zo te ontwerpen dat ze beiden hun inbreng leveren aan de veiligheid. In het vervangen van mensen door computers in het verkeer zie ik niets.

Ik denk dat we goed naar de luchtvaart kunnen kijken: Een vliegtuig kan zowel op de automatische piloot vliegen waarbij de menselijke piloot kan ingrijpen, of op handbediening vliegen waarbij de automatische piloot op de achtergrond blijft bewaken dat de menselijke piloot geen gevaarlijke handelingen uitvoert. Niemand die er voorstander van is om de menselijke pilo(o)t(en) uit het vliegtuig te halen om de luchtvaart veiliger te maken.
'm nee beide is bijna niet te doen want mensen hebben de neiging om dan helemaal niet meer op te letten als de auto al gedeeltelijk voor hun rijd. Nu al letten mensen niet op door met hun mobiel te gaan spelen als ze auto rijden. Computer is gewoon veel beter in ongeveer alle onderdelen van auto rijden als mensen over normale wegen. En sensor problemen kan je altijd oplossen doordat meerdere sensors met elkaar werken en je de data vergelijkt.
In de luchtvaart werkt het pima. Een bestuurder die met zijn mobiel aan het spelen is, is juist een situatie waar de computer zijn sterkte punten op veiligheidsgebied moet tonen. Als de auto voetgangers op de weg kan zien, dan zal het ook niet zo moeilijk zijn om te detecteren dat de bestuurder andere dingen aan het doen is. Dan alarmsignaal laten klinken en de computer laten beginnen de auto tot stilstand te laten brengen.
Waarom zou je een zelfrijdende auto gaan kopen als je nog moet opletten? Daarnaast, wat denk je dat piloten 90% van de tijd doen als ze in de lucht hangen.... Juist ja, Krant lezen, ouwehoeren, film kijken... en 1x in de zoveel tijd even op de instrumenten kijken...
Daarnaast, wat denk je dat piloten 90% van de tijd doen als ze in de lucht hangen.... Juist ja, Krant lezen, ouwehoeren, film kijken... en 1x in de zoveel tijd even op de instrumenten kijken...
Ja, omdat er op tien kilometer hoogte erg weinig overstekende kinderen zijn, de luchtverkeersleiding zorgt dat er niemand te dicht voor of achter je zit en ook niemand je pad zal kruizen... Niet bepaald vergelijkbaar met de situatie waarin de bestuurder van een zelfrijdende auto zijn werk moet doen.
Ik ben zelf geen piloot, maar misschien kan iemand met verstand van zaken mijn aanname bevestigen: er zullen weinig krantjes gelezen worden in de drukte van vliegvelden en al helemaal niet tijdens starts en landingen.

edit:
Onderstreepte stuk toegevoegd.

[Reactie gewijzigd door robvanwijk op 26 juli 2024 01:15]

Het gaat om het punt dat als "bestuurders" andere dingen aan het doen zijn als de auto op de automatische piloot werkt. Een mens kan niet geconcentreerd blijven als ze niets doen... Dan gaan ze zich vervelen en andere dingen doen....
Ik begrijp je vergelijking niet met de luchtvaart. Je kan een bestuurder van een auto niet vergelijken met een piloot.
Ook zijn de situaties niet gelijk.

En dat je zegt dat ze vliegtuigen niet zonderpiloot willen doen heb je nooit van een drone gehoord.
Ook zijn er plannen (kan het stukje even niet vinden) om (passagiers) vliegtuigen vanaf de grond te besturen, dat is de eerste stap naar helemaal autonoom. Het grootste probleem daarmee is dat mensen (klanten) het nog noet willen/aandurven.

Maar om weer terug te komen bij de auto's.
Ik zie niets bij een systeem dat half menselijke bestuurders heeft en half computer, daar zitten we eigenlijk nu al in met de nieuwe tesla's. Omdat zonder mensen je ook bijna geen files en ongelukken hoeft te hebben.
Waarschijnlijk ben je er niet van op de hoogte dat de meeste drones gewoon een bestuurder hebben. Dat die niet in de drone zit, doet daar niets aan af.
Uhh, ik denk juist dat een zelfrijdende auto eerder door heeft dat niet alle sensoren naar behoren werken. Kijk naar het dagelijkse verkeer en je ziet dat genoeg mensen zelf niet doorhebben dat hun 'sensoren' niet goed werken, ook genoeg mensen met alcohol op of te moe zijn die toch denken dat ze in staat zijn te rijden (naast de velen bellende, smartphone gebruikende bestuurders).
Hadden ze maar meer afstand moeten houden. Je moet gewoon genoeg ruimte open houden tot je voorganger. Ook al maakt ie een noodstop, je moet het kunnen halen.
Over het algemeen hebben mensen sneller door dat hun instrumenten niet deugen dan computers.
Denk je dat serieus? Mensen zijn notoir slecht in dat soort routine-controles. De gemiddelde automobilist zou het echt niet door hebben als de snelheidsindicator 10 km/u te weinig aanwijst. Een computer die ABS data van 4 wielen krijgt, en ook nog GPS data heetf veel eerder door dat een sensor afwijkt van de anderen - al was het alleen maar omdat de sensor zelf een storingssignaal doorgeeft. Dat is millisecoden werk.
Ze zijn veiliger dan de meeste onoplettende chauffeurs.
Wellicht in de toekomst veiliger dan alle menselijke chauffeurs, maar daar zijn we nog lang niet.
Anoniem: 310408 @arbraxas1 november 2015 13:35
Voor die paar testauto`s die nu rijden wil het wel geloven, maar wat als straks dit soort auto`s gemeengoed worden?
Onthou dat de autonoom rijdende auto's die er nu zijn (Tesla S en Mercedes S) gewoon goedgekeurd zijn voor de Nederlandse wegen. Inclusief alle hulpmiddelen. De rijder is in deze modellen altijd verantwoordelijk en zo ik het inzie, zal dat altijd blijven zolang handmatig rijden mogelijk is.

Bij geheel autonome voertuigen zoals die nu op prive terrein rijden is de verantwoordelijkheid bij de beheerder van het terrein. Vreemd genoeg kan je dat wellicht doortrekken naar de openbare weg. Als de staat een autonoom voertuig toestaat op de weg (na een keuring etc) nemen zij daarmee ook een deel van de verantwoordelijkheid.
Ik denk dat het niet per se zo zal zijn dat de bestuurder per definitie verantwoordelijk is als het een auto bestuurd waarbij hij zelf kan ingrijpen. Het zal er dan van af hangen of hij daadwerkelijk heeft ingegrepen en het hoe en waarom en de gevolgen van zijn actie. Dergelijke auto's zullen dus ook van een zwarte doos voorzien moeten worden. Ik denk zelfs dat we daar van uit kunnen gaan dat alle (semi) zelfrijdende auto's met zwarte dozen uitgevoerd zullen worden. Dat moet goed kunnen omdat de diverse sensoren sowieso al aanwezig zijn in het voertuig.
Is het niet zo dat de situatie juist alleen maar kan verbeteren als het aantal zelfrijdende auto's verder toeneemt? Ze rijden efficiënter en letten beter op dan de gewone mens.

Zie bijvoorbeeld dit filmpje, een mens was er waarschijnlijk gewoon bovenop geknalt. Al was het alleen maar omdat veel mensen de rem van hun auto niet eens vol in durven te trappen. Je ziet nu bijvoorbeeld ook bij Google dat vrijwel alle schade die ontstaan is tijdens de testritten, mensen zijn die achter op de auto knallen.

Veel mensen zullen dit filmpje ook wel kennen, en dat is in theorie wel hoe het kan met zelfrijdende auto's.

[Reactie gewijzigd door Tralapo op 26 juli 2024 01:15]

Anoniem: 457607 @arbraxas1 november 2015 21:49
Het lijkt mij dat de eigenaar van de auto (passieve bestuurder) verantwoordelijk is. Deze kan vervolgens proberen verantwoordelijkheid bij de fabrikant te claimen.
Dat kan ook niet anders. De besturing wordt gedaan door hardware/software, welke is ontwikkeld en getest door een bedrijf. Je kunt (als rechter) in zo'n geval niet anders concluderen dat als het ongeluk te wijten is aan de besturing, de hardware/software de schuld geven en dus de fabrikant die dat heeft gemaakt/getest.

Ik blijf wel sceptisch. Ik verwacht dat er mensen gaan nadenken over specifieke bugs. Stel dat: ik bouw een flinke doos op wielen met spiegels op de doos geplakt die de sensoren van de auto misleidt en zal leiden tot een crash. Wat is het risico dat onverlaten deze situatie gaan nabootsen, wat uiteindelijk leidt tot meer ongelukken? En dit kan een heel ingewikkelde discussie worden, denk ik.
Dat soort grapjes probeert men nu al uit te halen met de auto van Google, doen alsof die hen aanrijdt. Voordeel is dat die auto 360 graden camera's heeft en met de beelden daarvan gewoon kan bewijzen dat het om een poging tot oplichting gaat.

Naast efficiëntier en veiliger wordt ook de kwestie bewijslast een stuk makkelijker.

[Reactie gewijzigd door ormagon op 26 juli 2024 01:15]

Dat slaat natuurlijk nergens op jou reactie wie gaat er nou zoiets doen? Mensen die dat doen kunnen nu toch ook al ongelukken veroorzaken op genoeg andere simpelere manieren, nee ik ga een doos met spiegels bouwen en daarmee rondrijden/lopen op straat en niemand die dat ook doorheeft vervolgens.

Leg dan gelijk een boomstam op de treinrails lol stuk eenvoudiger.
Anoniem: 310408 @Nas T1 november 2015 13:37
Ik blijf wel sceptisch. Ik verwacht dat er mensen gaan nadenken over specifieke bugs. Stel dat: ik bouw een flinke doos op wielen met spiegels op de doos geplakt die de sensoren van de auto misleidt en zal leiden tot een crash. Wat is het risico dat onverlaten deze situatie gaan nabootsen, wat uiteindelijk leidt tot meer ongelukken? En dit kan een heel ingewikkelde discussie worden, denk ik.
Dat is een beetje zoals de gekken die bakstenen vanaf een viaduct gooien. Strafbaar en imbiciel. Je kan er je wetgeving niet specifiek op aanpassen.

Overigens kan je nu al de radar gestuurde tempomaten storen. Maar waarom zou iemand dat doen? Waarom zou je daar uberhaupt over nadenken als er zoveel minder complexe middelen zijn om anderen te laten verongelukken?
nog simpeler gezegd
1859 , erg veel zon activiteit. als wat toen gebeurde(en het is zo zeldzaaam niet eens)
nu gebeurt, dan zullen alle google auto's op de snelweg de vangrail in vliegen.
zul jij moeten leven van tulpenbollen, omdat de banken platligt.
slapen we met ze alle onder de brug, ... ik dwaal te ver af.

maargoed alles digitaal ? is dat wel de oplossing ?
Beste reactie uit dat bericht en geheel on topic voor dit artikel:
Over 10 jaar gaan kinderen niet belletjelellen, maar voor zelfrijdende auto's springen. Het moet fantastisch zijn om te zien hoe de argeloze passagiers hun koffie door de hele auto knoeien omdat die vol in de ankers gaat.
Vraag mij af hoe het reageert op fietsers... ze zouden Amsterdam keer mogen proberen.
Weg met persoonlijke verantwoordelijkheid. Waar je nu nog de cel in gaat als je door eigen schuld iemand dood rijdt, krijgt Google straks een boete en is daarmee de kous af. Hoeveel is een mensenleven dan waard? Dat zullen wel niet hele grote bedragen worden, anders is een zelfrijdend systeem bijna onmogelijk in stand te houden. Omdat je nu de verantwoordelijkheid nog in de handen legt van de individuele bestuurder kun je er van uit gaan dat de meeste mensen onder geen beding een ongeluk willen veroorzaken. Het veroorzaken van een ongeval met lichamelijk letsel of de dood door schuld is een bijzonder ingrijpend proces, zowel voor de slachtoffers als verdachten. Waar het nu soms om een misdrijf gaat, zal het straks een simpele overtreding zijn. Voor slachtoffers en nabestaanden geen leuke gedachte.

Ik ben zeker voor de ontwikkeling van zelfrijdend verkeer (met name omdat het minder verkeersdoden oplevert), maar maak me wel zorgen om de aansprakelijkheid van Google in het geval van het veroorzaken van een (dodelijk) ongeluk. In dat geval zijn de consequenties voor een bedrijf een stuk kleiner dan die voor een individu als jij of ik. Uiteindelijk zal zo'n bedrijf berekenen hoeveel ongevallen ze kunnen veroorzaken zonder al te veel schade op te lopen. Dan mag ik toch hopen dat het wettelijk allemaal piekfijn geregeld is voor de consumenten/gebruikers/slachtoffers. Komt nog bij dat het met de TTIP misschien wel uitloopt op jarenlange rechtszaken waar schuld moeilijk te bewijzen is omdat het om een bedrijf gaat en niet om een individu. Dan zijn de regels nogal anders en bedrijven als Google hebben genoeg geld om zelfs het OM kapot te procederen.

[Reactie gewijzigd door Blackice09 op 26 juli 2024 01:15]

Dat lijkt me wel heel kort door de bocht.

Laten we zeggen dat Google op een bepaald moment zo groot is als Samsung is in Zuid-Korea. Stel bovendien dat er een bepaalde politicus is die "in de weg staat". Zou het dan niet handig zijn om even een over-the-air update te doen om de auto van een tegenligger op die persoon te laten crashen?

In de media is het dan "gewoon" een "sensorfoutje" en aangezien zelfrijdende auto's op dat moment al zo ingeburgerd zijn is het ook niet meer zo alsof je een keus hebt.

Je hebt dan een gelegaliseerd middel om een statistische hoeveelheid ruis aan mensen uit de weg te ruimen per jaar voor een bedrag wat je van te voren al op de balans kunt zetten. Handig!

Ik denk dat over-the-air updates van zelfrijdende auto's juridisch een enorm lastig ding is en bovendien dat de controlerende macht niet in staat is om intelligente uitspraken te doen over zelfrijdende auto's. D.w.z, dat de industrie (Google, etc.) erg enthousiast aan het werk is gegaan om iets te bouwen wat misschien wel werkt, maar totaal niet te controleren valt en daarom alleen al zou moeten worden afgekeurd door de RDW (en in het bijzonder zouden wetten wellicht wel aangepast kunnen worden, maar ze zouden wel zeer streng moeten zijn. Strenger dan ze waarschijnlijk nu van plan zijn).
Dus jij stelt voor op geen zelf rijdende auto?
Want er zijn zat andere merken die ook een zelf rijdende auto ontwikkelen die net zo goed fout kunnen gaan doen.
Nee, ik zou graag willen zien dat er geïnvesteerd wordt in automatisch controleerbare en gecertificeerde software.

Buiten zelfrijdende auto's geldt natuurlijk hetzelfde voor andere levensgevaarlijke activiteiten zoals vliegen, naar de ruimte gaan, en het zitten in een achtbaan :)

Op veiligheidsgebied (niet alleen van het type "hackers") zijn genoeg verbeteringen mogelijk en dat zijn allemaal high-tech banen die nut hebben. De ECB pompt zogenaamd honderden miljarden in onze economie via banken, maar als ze dit gewoon direct aan bedrijven zouden geven ten behoeve van subsidies waarbij de resulterende technologie gedeeld zou moeten worden met de rest van de industrie zou het geld denk ik beter gebruikt worden (nog even afgezien van de vraag of het goed is dat geldcreatie bestaat).
Maar dat gaat nog komen natuurlijke...
Toen de eerste auto'sde straat op gingen waren toen ook regels? Apk kwam toen ook jaren later.
Er zijn zelfs veeldingen wat ze nog niet weten en nog moeten ondekken en dat kan alleen als er zelf rijdende auto'sde straat op zijn.
Anoniem: 399807 @raro0071 november 2015 18:16
Helaas klopt dat. Technologie wordt ontwikkelt zonder dat mensen weten waar het voor dient. Dat gaat eigenlijk meestal zo. En de nadelen worden eerst niet gezien en moeten opgelost worden als er crematies en begrafenissen zijn geweest.
Ik begrijp jou reactie niet.
Bedoel je dat straks meer doden gaan vallen Door mankementen van een auto?
https://www.rijksoverheid...n-gelijk-gebleven-in-2014
Er vallen nu juist veel doden en het kan juist minder Door zelf rijdende auto's
Anoniem: 399807 @raro0072 november 2015 21:47
Je kunt niet de bestaande situatie, die historisch momentum heeft, die gedurende een groot aantal jaren zo ontstaan is opzij schuiven ten gunste van een nieuwe ontwikkeling, om dan de mogelijke voordelen van die nieuwe ontwikkeling als argument en uitgangspunt te nemen om de oude situatie te bekritiseren.

Je moet uitgaan van de bestaande situatie en dan kijken of de voordelen opwegen tegen de nadelen. En verkeersdoden is slechts een enkel argument.

Zo hebben deze auto's nogal wat sensoren en camera's. Als ik iets niet wil is dat we na de acceptatie als consument van mobiele telefonie ofwel persoonlijke pocket tracker de auto veranderd in een gadget van groot formaat, vol tracking software, GPS, constant online, volgbaar via GSM masten, die data verzameld over de omgeving (voor je eigen veiligheid en denk aan de kinderen) en die upload naar een google server, die daar een profiel van maakt, dus datamined waar jij rijdt, hoe je rijdt, waarom je rijdt (geef de postcode van uw bestemming op en google maps doet de rest), wanneer je rijdt en waar facebook via foto en gezichtsherkenning ...moet ik doorgaan?


Van die oude situatie zijn voor en nadelen bekend. In de nieuwe moeten we dat nog maar afwachten. Ik verzeker je dat zwaarden meer mensen hebben gedood dan stenen vuist-bijlen en dat er tegenwoordig veel meer mensen sterven in het vlieg-verkeer dan in 1903.

En nee, ik bedoel niet dat er méér doden gaan vallen maar ik weet dat er doden zúllen vallen en wel op een andere manier die we nu niet kunnen voorspellen.

Er zijn veel doden gevallen door walkmans. Kids die vanwege de muziek niet hoorden dat er een vrachtwagen over hen heen reed. Die verlengde bussen met enorme uitzwaai...pakken er ook wel eens een, oeps.

Er zullen méér doden vallen door autonome auto's dan in 2014.

Technologie lost problemen op die ontstaan zijn doordat voorgaande generaties mensen en bedrijven niet konden voorspellen wat het effect zou zijn op de samenleving toen ze hun product de samenleving in ramden.

"That each new method of transporting comodity or information should have to come into existence in a bitter competitive battle against previously existing devices is not surprising. Each innovation is not only commercially disrupting, but socially and psychologically corroding as well."
-- Marshall McLuhan

Dus je bespaart misschien op doden door menselijke fouten, trek af de doden door autonome auto's. Tel er bij de doden door verregaande privacy corrosie. Zelfmoord door mensen die betrapt werden doordat een auto registreerde dat er een passagier was (standaard bestuurder + 1; ID= google account nr. 145874934739 via GPS gebruik APP 'favoriete restaurants om in vreemd te gaan'.). Politici die betrapt werden daar waar ze zeiden niet te zijn door een gezichtsherkenning van sidecam left rear google car nr. 38439458436, GPS locatie 28937492387.).

Tel op...talloze andere mogelijke privacy-schadende datamining en de daaruit volgende maatschappelijke anhedonie en desillusie die leidt tot relletjes, gewonden en doden door hardhandig optreden van de politie in de dictatuur 3.1, Total Informational Awareness.
Natuurlijk is dit uitgezocht. Hij komt elke keer dat er iets over autonome voertuigen gaat weer 20x naar boven. En denk je echt dat bij al die giganten die eraan werken, itt jij helemaal niemand eraan heeft gedacht hoe dat juridisch zou zitten?

Maar waarom wordt uberhaupt verwacht dat dit zo'n groot probleem zou zijn? Hoe is dit anders dan bijvoorbeeld wanneer je remmen ineens weigeren/niet goed functioneren? Zelfde proces: Er zal gekeken worden waarom dat niet goed werkte, als het gewoon onder het noemer is: Productiefout, controles waren correct, maar toch is het erdoorheen geslopen, shit happens, dan betaald een verzekering uit, en dat is het. Is gebleken dat de fabrikant toch wel echt verwijtbaar is, dan is die verantwoordelijk.

Grote voordeel dan van autonome voertuigen: Na dat ongeluk kan alle data worden geanalyseerd, en de volgende versie kan (zover als mogelijk) het in de toekomst voorkomen. Terwijl als een mens weer eens een ongeluk maakt, je niet veel meer kan doen dan hopen dat andere het niet ook doen.
Nee ze zullen er inderdaad veel geld in hebben gestoken om te zorgen dat zij zelf zo min mogelijk schade oplopen wanneer er toch een ongeluk plaatsvindt (wat onvermijdelijk is). Daarom is het toch wel zaak dat niet alleen die giganten er naar kijken maar ook overheden en rechters. Om de gebruikers en slachtoffers te beschermen. Iets waar een gigant zich niet zo druk om maakt zo lang het maar winstgevend is. Waar nu verkeersdeelnemers zelf in de meeste gevallen schuld hebben aan het veroorzaken van een ongeval wordt dat straks een gigant als Google. We leggen de veiligheid volledig in handen van een bedrijf in plaats van een individu. Toch wel een zorgelijke ontwikkeling, ook al zou het uiteindelijk voor minder verkeersdoden zorgen.

[Reactie gewijzigd door Blackice09 op 26 juli 2024 01:15]

Mooier vind ik de vraag dat indien er geen uitwijk mogelijkheid is en er een kind oversteekt met als enige optie het kind of de naastgelegen boom, waar hij voor kiest...
Dit probleem lijkt ingewikkelder dan het is. Een zelfrijdende auto dient altijd de inzittenden van de auto zelf te beschermen. Het zou absurd zijn als de auto mag beslissen over leven en dood voor de inzittenden.
Je eigen uitspraak geeft al aan dat dit wel degelijk ingewikkelder is dan het lijkt....

Inzittenden beschermen is tot daar aan toe. Maar wat nu als het beschermen van één inzittende zou leiden tot tientallen doden? Moet dan nogsteeds de bestuurder beschermd worden?
En wat is in dat geval bescherming; De bestuurder moet leren leven met het feit dat zijn leven ten koste is gegaan van tientallen anderen. Lichamelijk is hij veilig, psychisch waarschijnlijk niet. Wat gaat er dan voor?

Nee, het treinwissel dilemma is in deze net zo groot als het in de filosofie is. Er is geen eenduidig antwoord en dus geen eenduidige oplossing. Daarmee is het dus ook niet te automatiseren.
... maar in de praktijk is er echt geen reden om software te schrijven die de auto tegen een boom laat rijden. Je schrijft software die zorgt dat de auto stopt. De reactietijd van een computer is veel sneller dus dat gaat vrijwel altijd de oplossing zijn: vermijden van een ongeluk. Scenario's als "het is links of rechts, links kind, rechts boom" zijn gewoon niet realistisch en je gaat daar sowieso geen software op schrijven.
Sterker nog, dat soort complexiteit is erg foutgevoelig en leidt juist tot "links tegen een boom, want rechtdoor een schaduw op de weg" bugs. We hebben onze wegen nu al met opzet zo ingericht dat rechtdoor de veilige richting is, en waar we daar van afwijken (kruisingen, scherpe bochten) waarschuwen we de bestuurders. Als dat AI bestuurders worden in plaats van menselijke bestuurders verandert daar niet zoveel aan.
Een auto zou ten allen tijde de inzittenden moeten beschermen. Met de functies die zelfrijdende auto's nu hebben is het al vrijwel onmogelijk om (tientallen) doden te veroorzaken. De auto* zal automatisch stoppen. De auto doet dit ten eerste om de inzittenden te beschermen. Ten tweede zorgt de auto voor zo min mogelijk schade aan alles om de auto heen, echter komt dit allemaal voort uit het beschermen van de inzittenden. Of het nou een gebouw, een andere auto of een stel kinderen is, de auto maakt hier (tot nu toe) geen verschil tussen. En ik denk ook dat de kans bijzonder klein is dat een (goed werkende!) zelfrijdende auto de fout maakt om iemand aan te rijden.
En wat is in dat geval bescherming; De bestuurder moet leren leven met het feit dat zijn leven ten koste is gegaan van tientallen anderen.
Je noemt hier een bestuurder, maar bij een volledig zelfrijdende auto is er geen menselijke bestuurder. De bestuurder is namelijk de auto. Nou zal een inzittende wel degelijk psychische last ondervinden, maar is de inzittende verantwoordelijk? Dat lijkt me niet.

* Ik ga er hier even vanuit dat dit feilloos werkt
volgende punt, je staat wegens redene stil op de weg(invb met drukte)
het verkeer voor je gaat ineens naar de linkerbaan(invoegstrook)
het verkeer achter jouw komt met een noodgang aangescheurt, over de linker baan. maar kan niet optijd stoppen, en moeten dus uitwijken naar rechts.
Googles auto blijft lekker ego staan, boem, achterligger dood, niet google's fout,
terwijl, een mens in de achterspiegel de auto ziet aan komen, en hun fout probeert te ontwijken.

en de situatie die ik hier boven noem gebeurt dagelijks.
Ik hoop echt van harte dat de auto zal kiezen voor het behoud van alle levende mensen buiten de auto. Dit is mij zelfs zo geleerd op rijles (in 1993). Het zijn de inzittenden die er voor kiezen om met een (gevaarlijke) auto te gaan rijden. De voetgangers (lees: spelende kinderen) hebben die keus nooit gehad. De software zou mijns inziens altijd voetgangers moeten ontwijken, zelfs als dat een botsing met een ander object (gebouw, boom) tot gevolg heeft. Daar dienen dan weer de gordels en airbags hun werk te doen.
Anoniem: 399807 @Tk551 november 2015 18:18
Ha! De situatie uit I, Robot met de heer W. Smith. Een auto of robot maakt natuurlijk niets uit.
Veel mooier is dat, doordat de autonome auto zich perfect aan de snelheidslimiet houdt en veel sneller kan reageren, deze keuze veel minder vaak optreedt en de vraag eigenlijk niet zo dramatisch is als hij lijkt. De mens had in alle gevallen waar deze keuze voor de auto optreedt het kind aangereden.

Edit:
Wij kunnen met miljoenen mensen, waaronder deskundigen uit allerlei relevante vakgebieden, weken of maanden discussiëren over wat de auto zou moeten doen, voordat we een keuze maken en dat zo ontwerpen en inbouwen in alle autonome auto's. En uiteindelijk delen we de verantwoordelijkheid voor het resultaat van die keuze ook met al die mensen.
Als menselijk bestuurder zul je dat in een fractie van een seconde moeten bedenken, in je eentje, met een enorm gebrek aan relevante kennis en ervaring en zul je de last van het resultaat van die keuze voor de rest van je leven met je meedragen.

[Reactie gewijzigd door Bacchus op 26 juli 2024 01:15]

Het is ook echt de angst die mensen hebben voor autonome auto's waardoor ze dit soort vragen gaan stellen of dit soort doemscenario's gaan afspelen in hun hoofd maar uiteindelijk gaat het om de cijfers. Met autonome auto's zal het aantal ongevallen per miljoen km dramatisch omlaag gaan en dat is goed voor iedereen zowel in als buiten de auto.
En toch is dit een overweging en een beslissing die ELKE fabrikant van een zelfrijdende auto dan wel de softwareontwerper zal moeten nemen. Mooi, dat dit veel minder vaak voorkomt, maar je kan als ontwikkelaar de ethische consequenties van je beslissing in dit soort zaken niet als triviaal behandelen.
Niemand zegt ook dat ze dat doen het is ook één van de grootste vraagstukken bij zelfrijdende auto's want soms is een ongeluk nou eenmaal onvermijdelijk. Hier staat er een heel stuk over:

http://www.iflscience.com...ers-greater-good-scenario

En dan vooral dit stukje vond ik erg interessant:
self-driving cars themselves are still inherently safer than human drivers – and perhaps that in itself creates a new dilemma. "If fewer people buy self-driving cars because they are programmed to sacrifice their owners, then more people are likely to die because ordinary cars are involved in so many more accidents," the MIT article says. "The result is a Catch-22 situation."
Dus omdat mensen bang zijn dat hun auto een muur kiest ipv een voetganger gaan ze toch maar weer zelf sturen en lopen daardoor nog een veel grotere kans om het leven te komen bij een auto-ongeluk.

Het is puur kansberekening denk ik, hoe groot is de kans dat je met een zelfrijdende auto bij een ongeluk betrokken raakt in vergelijking met een auto waarbij je zelf stuurt, dan is die laatste vele malen groter.

Ik denk ook dat het in de praktijk wel mee gaat vallen als alles zelfrijdend is. Op de snelweg zal alles veel vloeiender gaan en veiliger zijn en in de kom met onvoorspelbare situaties zoals voetgangers en fietsers die ineens oversteken zullen er toch aanpassingen gedaan moeten worden ook aan de weginricthing. Bijv. max 30 km per uur of nog zachter als de situatie dat zelfs niet toelaat. Dat valt wel redelijk goed in te programmeren.

Nu zie je mensen met 60 of harder door 30-zones knallen en als je als voetganger een zebra oversteekt ben je je leven niet zeker. Doe mij dan maar die zelfrijdende auto die wel stopt voor een zebrapad.
Met zelfrijdende auto's zou het toch juist logischer zijn dat je (als iedere auto op termijn zelfrijdend is) de snelheidslimieten kan verhogen. Het aantal ongelukken is niet echt dramatisch hoog op dit moment. En zelfrijdende auto's zouden ook bij hogere snelheden nog tijden moeten kunnen reageren. Natuurlijk kan het altijd beter, maar als je dat probeert te bewerkstelligen door de maximum snelheid steeds verder te verlagen, dan krijg je het zelfde effect als met het programmeren dat de auto bewust de inzittenden kan doden om een ander te redden. Ik ben persoonlijk eerder een voorstander van het Duitse model op de snelwegen. Want itt hier wordt daar gewoon fatsoenlijk afstand gehouden juist omdat er niet echt een maximumsnelheid is. Bovendien is de strikte handhaving van snelheidslimieten in Nederland niet iets wat structureel tot minder snelheidsovertredingen leidt. In Duitsland wordt het bijvoorbeeld veel minder streng en met veel minder permanente controles (zoals trajectcontrole) gehandhaafd en toch hebben zij niet meer verkeersdoden per kilometer dan wij.

[Reactie gewijzigd door Darkstriker op 26 juli 2024 01:15]

Op snelwegen zou dat zeker kunnen ja omdat de situatie in de meeste gevallen redelijk voorspelbaar is. Je zal natuurlijk altijd wel een transitiefase blijven houden waar zelfrijdende auto's zich mengen met het gewone verkeer. Zo kan een vrachtwagen bijv. nog steeds een plotselinge inhaalactie uitvoeren waardoor je als automobilist in de ankers moet maar ook dat zie je vaak wel aankomen dus ook daar kan een computer tot op zekere hoogte wel rekening mee houden.

Maar in de kom is het een heel ander verhaal, daar mag je vrijwel overal 50 en zelfs dat is al te hard op sommige plekken en bijv. op zonnige dagen als er veel kinderen buiten spelen. Daar moet je ook allemaal rekening mee houden. Er zijn stukken in de kom waar ik 50 mag maar het eigenlijk nooit haal omdat het dan al snel te gevaarlijk wordt. Die computer moet dat ook allemaal maar in kunnen schatten en niet denken oh hier mag ik 50 dus rij ik het ook. Zeker in de winter als het bijv. glad is of ijzel ligt is een bocht maken met 5 km/h soms al veel te snel.

En Duitsland is niet echt te vergelijken met NL. Ze hebben daar veel bredere wegen en veel meer ruimte. Bij ons mag je 130 op de snelweg maar wanneer haal je dat nou? Misschien om 3 uur 's nachts maar door de weeks als je woon/werk rijdt toch eigenlijk vrijwel nooit, daar is het veel te druk voor hier.

En zelfs, sinds je 130 mag zie ik dat vrijwel niemand doen hier. De meeste mensen rijden gewoon nog 120 dus ik denk ook niet dat er echt vraag naar hogere snelheden is. En ja die trajectcontroles zijn gewoon cashcows dat weet ook iedereen :)
Anoniem: 399807 @Bacchus1 november 2015 18:18
Jij kunt niet bewijzen dat een mens ongelukken niet kan voorkomen.
Ik kan bewijzen dat een mens niet sneller kan reageren dan een computer, laat staan in die tijd een weloverwogen beslissing kan maken.
In de gegeven situatie: Eén waar een computer de keuze heeft tussen de bestuurder doodrijden tegen een boom of het doodrijden van een kind, daar heeft de mens geen keuze: Vanwege zijn veel lagere reactiesnelheid heeft hij het kind doodgereden voor zijn hersenen überhaupt doorhebben dat het kind er was.

Natuurlijk kan een mens veel ongelukken voorkomen: Door veel langzamer te rijden, door perfect op te letten en rekening te houden met zijn eigen beperkingen. De praktijk is echter dat mensen dat niet doen.
Anoniem: 399807 @Bacchus2 november 2015 21:53
De praktijk is dat mensen dat gemiddeld genomen wel doen, want anders zouden er wel dagelijks 800 doden vallen. het is een wonder dat het niet gebeurt...maar nee, geen wonder, maar miljoenen jaren evolutie van het brein.

Ik denk niet dat de situatieschtes klopt, want er is geen software die de bestuurder laat doodrijden tegen een boom. Ik denk niet dat er programmacode is die zoiets beschrijft.

Dat zou namelijk nogal wat zijn, een programma is namelijk dom. Als je dat er zo in zet dan zou het programma in die situatie dus er voor moeten zorgen dat de bestuurder overlijd, want dat impliceert je. Staat er dan immers in? Kind of bestuurder? Kind gaat voor, dus optie 2, rij tegen boom. Is er geen boom, software failure.

Zo werkt die code dus niet.

Maar mijn stelling staat, jij hebt niet bewezen dat een mens ongelukken niet kan voorkomen.

We praten verder in 2025. Dan gaan we statistieken vergelijken. Ik kan iig meer dan een pc. Ik kan beter inschatten en ik heb een geweten, moraal. Ik kies dat altijd boven de machine.
Uitwijken is sowieso de slechtste optie. Je hebt meestal geen tijd om te kijken of er iemand naast of achter je zit, zodat je iemand raakt die niet de oorzaak van het probleem vormt. Dan draag je zelf de schuld. Ook slaat een voertuig dan vaak om.
Anoniem: 310408 @Alex31 november 2015 13:48
Ook slaat een voertuig dan vaak om.
Als een auto omslaat bij een uitwijkmanoeuvre is het een zeer slecht ontwerp en die zijn uitermate zeldzaam op de westerse wegen. In feite zal het vrijwel niemand lukken om een auto op zijn dak te krijgen zonder een object te raken. Een autonome auto op zijn kop is daarom een idee dat we maar snel vergeten moeten.

Ik hoop niet dat je een rijbewijs hebt want uitwijken is naast remmen een absolute vereiste om ongelukken te voorkomen.
Inderdaad ik heb ook weleens een keer 'op de gok' uit moeten wijken omdat het voor me ineens stilstond. Op de vluchtstrook of naar een andere weghelft toe om een botsting te voorkomen niet wetende wat er naast je zit, iedereen die lang rijdt maakt dat altijd wel een keer mee, zo'n moment van onoplettendheid.
Anoniem: 399807 @mkools241 november 2015 18:24
En nu willen de technofielen die momenten omruilen voor momenten waarin software faalt.

Ik heb al eerder gezegd dat ik liever dood gereden wordt door een mens dan door een autonoom voertuig. De mens kan daarover nog spijt en verdriet voelen. Een auto-auto niet.

En dan worden verkeersslachtoffers een aftrekpost in de boekhouding van de corporatie onder 'ingecalculeerde schadeclaims'.

Het leuke is natuurlijk wel dat je nabestaanden op de website van de begravenis ondernemer google ads zien voor rouwkaarten en als je een google account hebt krijg je een persoonlijke condoleance, automatisch gegenereerd met de spijtbetuiging van de CEO.
Onzin natuurlijk als ik iemand platrij en dan vooral een kind ofzo terwijl ik in een zelfrijdende auto zit hou ik daar een even groot trauma aan over en heb ik evenveel spijt en verdriet dan wanneer ik zelf had gereden. Bovendien word ik liever doodgereden door een zelfrijdende auto met een technisch mankement dan door één of andere zatlap of door iemand die zat te appen achter het stuur of één of andere tokkie die het nodig vond om 100 binnen de bebouwde kom te rijden en mij schept op het zebrapad.

En denk je dat die spijt betuigen? Die gaan naar de rechter zeuren dat ze hun rijbewijs terugwillen want dat hebben ze nodig voor hun werk of om naar hun zieke moeder te gaan. Bijv. die zatlap die een ongeluk veroorzaakte waardoor twee jonge vrouwen levend verbrandden in hun auto, zijn enige doel was z'n RBW zo snel mogelijk terugkrijgen en het lot van die vrouwen interesseerde hem geen flikker.

Laat ik het anders stellen, er vallen nu rond de 800 doden per jaar in het verkeer. Wat heb je liever 800 doden per jaar in het verkeer door de mens veroorzaakt of 100 doden per jaar veroorzaakt door zelfrijdende auto's al dan niet met een automatisch gegenereerde spijtbetuiging van de CEO van Google?

Ik weet niet of je ooit naasten bent verloren in het verkeer, maar als dat zo is zou je het wel weten. Het is altijd makkelijk lullen he want de kans is heel klein dat iemand in jou omgeving of jijzelf bij die 800 per jaar zit maar wacht maar tot één of andere mongool jou zoon of broer of weet ik veel doodrijdt met 20 bier achter z'n kiezen, dan piep je ineens wel anders.
Anoniem: 399807 @mkools242 november 2015 21:20
Nonsens. Jij kunt niet spreken voor anderen.

Ik bekijk dingen wat filosofischer dan de meesten. Jouw verhouding 800:100 is gebaseerd op niets, dat bedenk je gewoon ter plekke.

Je weet niet of de nabestaanden van slachtoffers dood door een mens erger vinden dan door een auto-auto of juist andersom.

Ik denk dat de meeste mensen eerder een probleem zullen hebben dat een auto die hun naaste plat reed gewoon na een update weer de weg op kan dan wanneer een mens probeert zijn rijbewijs terug te krijgen. Dat is een heel vervelend idee en je zult ontiegelijk kwaad kunnen worden, maar je kunt ook snappen dat zo'n gast dat probeert. En dan is het aan de rechter om daarover te oordelen.

Het lijkt mij nogal een probleem om de auto die je dierbare plat reed de volgende dag weer op de weg te zien rijden, nog warm van het bloed van je dierbare, bij wijze van spreken.

Het punt is, dat mensen mensen zijn dat weet je, dat snap je, m.a.w. ze zijn dom, achterlijk, vervelend en crimineel dom en worden daarvoor verantwoordelijk gehouden. Welkom tot het menselijk ras! Dat zul je moeten accepteren.

En ook, als we 800 doden per jaar besparen wil ik dat er 800 minder baby's geboren worden ter compensatie. Je kunt wel levens redden maar de wereld-bevolking stijgt, de fossiele brandstoffen raken op en het klimaat, natuur en milieu raken ook op.

Dus nee, ik piep niet anders. Ik kan heel goed een discussie voeren en afstand nemen.
Die 800:100 is idd nergens op gebasseerd dat was puur een 'stel dat' computers het besturen volledig overnemen dan zal het hoe dan ook slachtoffers gaan schelen. Dat hoeft niet 8x minder te zijn maar kan ook 2x of 32x minder zijn dat weet niemand maar ik gebruikte dat meer om iets duidelijk te maken zonder dat het getal hoeft te kloppen. Het zal iig nooit meer worden ik denk dat we het daar wel over eens kunnen zijn.

En aangereden worden door een auto is maar één van de heel veel manieren om om het leven te komen. Hoeveel mensen komen er wel niet om door andere oorzaken? Bedrijfsongevallen bijvoorbeeld waar mensen tussen de machine komen, die machine wordt ook schoongemaakt en draait de volgende dag weer door en terwijl jou lijk nog warm is zet de baas alweer een vacature in het krantje om jou opvolger te zoeken.

Longkanker nog zo één, nummer 1 doodsoorzaak in Nederland als gevolg van roken. Die sigarettenfabrikant denkt ook alleen maar aan de winst en lacht zich dood vanaf zijn jacht in Monaco. Nee de baas van Philip Morris pinkt elke nacht wel een traantje weg maar niet heus.

Nee laat mij dan maar platgereden worden door een Google auto, die kans is zo klein dat als het mijn dan overkomt ja ach dan wou iemand daarboven mij wel heel erg graag van deze aarde af hebben. En als het dan gebeurt is het niet persoonlijk, die auto kan daar ook niks aan doen. Ik was dan gewoon op de verkeerde tijd op de verkeerde plaats en op zo'n moment vallen 20 toevalligheden samen net als bij een vliegtuigcrash waardoor ik het leven laat, tja shit happens.

Ik haal er iig geen eer uit om door een zatlap platgereden te worden die hem vervolgens smeert, net als die klootzak die in Belgie een kind van 12 schepte en gewoon 100 meter meesleurde tot ze dood was en nu zit ondergedoken. Als we dat toch kunnen voorkomen waar zijn we dan mee bezig om dat niet gewoon te ontarmen?

Ik ben ook ontzettend cynisch zeker als het om Google en andere multinationals gaat maar ergens moet ik toch nog geloven dat ze een zelfrijdende auto maken puur om de wereld te verbeteren en niet alleen maar 100% uit winstbejag en ja dat is misschien heel erg naief maar als je daar al niet meer in gelooft kun je er beter gelijk een eind aan maken.
Anoniem: 399807 @mkools244 november 2015 19:24
Als je met die voorbeelden probeert te zeggen dat we in een harde, kille samenleving zitten, prima. Maar uit je toon maak ik op dat je wel bezwaren voelt bij de houding van de baas van Morris of de manager die een nieuwe arbeidskracht nodig heeft.

Gaat dat gevoel dan ook op voor google?

Ik denk niet dat corporaties enig ander doel hebben dan winst maken en daarover verantwoordelijkheid afleggen aan de aandeelhouders(vergadering). Het bekt natuurlijk lekker om slogans te gebruiken om de wereld te verbeteren.

Ze gebruiken de paradigma's in de samenleving, die welke stellen dat technologie altijd goed is, dat nieuwe beter is dan oud.

De voornaamste reden dat grote bedrijven lang geleden begonnen met klanten panels (inspraak van bijv. huisvrouwtjes over cakemix) was om ze te melken voor informatie op basis waarvan ze hen vervolgens m.b.v. de marketing- en reclame afdeling beter psychologisch konden manipuleren tot aankoop.

Kijk, M$ doet precies hetzelfde. Ze willen de toekomst uitvinden, en hun visie bepaald dan wat wij moeten consumeren. Wie de toekomst bepaald, maakt de grootste winsten.

Dus wordt ons nu verteld dat autonome auto's helemaal geweldig zijn, er worden argumenten aangeleverd waar fanboys dan mee uit de voeten kunnen. Het doet er niet toe of ik het er mee eens ben, het gaat er om dat jij en ik een discussie voeren over google en hun autonome auto's, zodat we binnen de perken van het debat blijven en ons niet langer afvragen óf we überhaupt autonome auto's willen in de samenleving.

Jij wilt helemaal niet plat gereden worden maar als het aan google ligt, liever door een auto van hun in een samenleving die het als vanzelfsprekend beschouwd dat je om kan komen in het verkeer. Zij hebben de winst op de auto gemaakt, zij hebben de concurrentie belemmerd een auto van hen aan te schaffen aan de inzittende of bestuurder. Ze bepalen wat er over de wegen gaat en hoe, ze bepalen mede hoe de infrastructuur er uit gaat zien.

Zo willen gemeenten en de overheid in gesprek met dergelijke corporaties over de integratie van de auto met de weg. Want als we allemaal elektrisch autonoom rijden dan moet het wegennet aangepast worden.

Als het je niet uitmaak door wat je plat gereden wordt, dan is dat in google's voordeel en doe jij het belangrijkste marketing werk al voor ze.

De auto kan er niets aan doen. Niemand houdt van verantwoordelijkheid tegenwoordig. Ik voorspel je dat we nog meer richting een dystopie gaan waarin mensen door machines om het leven komen en hun emoties niet kunnen verwerken omdat een machine nu eenmaal geen ziel heeft en geen gevoel.

Dat gaat leiden tot meer zelfmoord, meer explosieve situaties van flippende mensen. Uiteindelijk kan dat zo uit de hand lopen dat de wet aangepast wordt door bezittingen van mensen beter te beschermen, omdat mensen vaker zich zullen afreageren op machines. Machines worden zo vermenselijkt. Uiteindelijk zal er een tegenbeweging komen die zich verzet tegen de de status van machines en wellicht worden die als terroristen gezien.

Machines kunnen autonome auto's zijn en robots, drones... en wie weet wat nog meer.
het gaat een keer mis, goed mis
Een keer goed mis gaan is te verkiezen boven 500 keer per jaar goed mis. Het is geen vraag of we imperfecte AI moeten accepteren, want we accepteren al lang imperfecte bestuurders. De relevante vraag is of ze beter zijn.
Anoniem: 399807 @MSalters4 november 2015 19:27
Ik denk dat we menselijkheid niet waarderen. Imperfecte bestuurders zijn een symptoom van onze afkeer van onze faalbaarheid.
Helaas voor jou, ik heb mijn rijbewijs sinds 1970 en ik heb nog nooit hoeven uitwijken om een aanrijding te voorkomen. Daarentegen lees ik regelmatig berichten over automobilisten die een boom of een andere weggebruiker aanrijden om een kat o.i.d. te ontwijken, of over omgeslagen vrachtauto's.
ik hoor wel niet vaak op de weg,
als je uitwijkt op de snelweg, en je beland in de zachte berm, dan zit je in de meeste gevallen toch echt in een achtbaan die 8 keer over zijn kop gaat, voor je stilstaat tegen een paal
Maar een computer kan 24/7 in de gaten houden welke objecten zich er naast, onder en boven de auto bevinden. Eventueel kan die dus wel veilig uitwijken.
De naastgelegen boom natuurlijk. Kind is in dit geval vele malen kwetsbaarder dan de bestuurder met zijn kreukelzone en airbags.
Klinkt misschien kut, maar als ik deze keuze moest maken is het kind helaas de klos. Eigen veiligheid eerst. Uiteraard praten we hier over een zeer specifieke situatie. Vermoedelijk kiest de auto voor hetzelfde, namelijk vol op de rem en hopen dat dat voldoende is om ernstig letsel aan kind OF bestuurder te voorkomen. Mag ik er daarnaast bij vermelden dat ik nooit in zo'n situatie terecht hoop te raken? :)
Dat zeg je wel, maar als je in zo'n situatie komt kun je vaak niet meer rationeel denken of heb je geen tijd om die beslissing te nemen. Hoeveel mensen zijn er wel niet verongelukt omdat ze uit probeerden te wijken voor een kat, vogel, hond etc. dat doen ze uit automatisme.

Kijk bijv. dit filmpje eens van een overstekende eendenfamilie. Iedereen wijkt uit met alle gevaren van dien:

https://www.youtube.com/watch?v=JJycLiYqm4U

Een zelfrijdende auto zal die eendenfamilie waarschijnlijk gewoon platrijden zonder dat er ook maar een remlicht gaat branden.
Nou, platrijden zonder remmen... Het zijn gewoon objecten op de weg. Vooral de eend is best groot dus ik vermoed dat de auto wel gaat remmen. Maar wat je zegt klopt, denken in zulke situaties is moeilijk al dan niet onmogelijk in de beschikbare tijd.
als zo'n google auto zonder proberen van uitwijken of remmen een van mijn huisdieren platrijd, dan zul je geen google auto meer durven te rijden bij mij in de buurt.

ze kunnen op zijn m,inst vaart minderen, uitwijken, seinen, remmen etc
Uiteraard remmen ze, al was het alleen maar om schade aan de auto te voorkomen. En natuurlijk seinen ze naar de auto erachter dat die ook op de rem moet (802.11p protocol).

Ik maak me meer zorgen over jouw gebrek aan verantwoordelijkheid voor jouw huisdieren. Jij bent verantwoordelijkheid voor hun veiligheid, niet Google of Tesla. Het zijn jouw huisdieren.
die komen amper buiten dus geen zorgen
maar je hebt gelijk, een auto gaat echt geen super ingewikkelde dingen doen op basis van hoeveel mensen er buiten staan en in zitten en hoe oud ze zijn en wat ze gestudeerd hebben etc etc... De auto probeert te stoppen en, misschien, uit te wijken als daar geen obstakels zijn. Heel simpel...
[...]
Mag ik er daarnaast bij vermelden dat ik nooit in zo'n situatie terecht hoop te raken? :)
Dat mag en is zelfs de zinvolste opmerking van de hele discussie.
Simpel antwoord: wat zou een menselijke bestuurder in zo'n situatie moeten doen? (mits hij tijd genoeg heeft te reageren)
Ik denk dat niet iedere bestuurder gelijk zal reageren. Dus zo makkelijk zwart wit als jij dat schetst is het zeker niet.
Nee, zo simpel is het. Een bestuurder moet proberen uit te wijken en / of te stoppen. Dat is wat de auto hier moet doen. Dus in je dilemma het kind of de boom? De boom, en dat met gierende remmen.

Een kind (of andere voetganger) aanrijden is in geen geval goed.

[Reactie gewijzigd door 90710 op 26 juli 2024 01:15]

In de praktijk is dit toch anders hoor. Helaas. Dan wordt enkel de rem vol in de ABS getrapt, en in een fractie van een seconde hopen op het beste.
Dat klopt, maar je moet het niet vergelijken met wat de bestuurder in de praktijk doet. Een computer kan sneller (direct) reageren dan een mens. Dus de computer moet hier volgen wat er beschreven is in de wet.
Auto's gaan niet geprogrameerd worden om etische beslissingen te maken. Daar hebben ze de informatie niet eens voor - een auto kan niet uitvogelen of het 10 mensen of 10 etalage poppen zijn die op de weg staan.

Als er een botsing aan lijkt te komen gaat de auto op de rem staan. Een geavanceerde auto zou wellicht rond de botsing proberen te rijden om het te voorkomen. Maar er is geen "hoeveel mensen zitten er in mij, hoeveel staan er buiten, zijn ze jong of oud" achtige beslissingen.

En na de botsing vraagt iedereen zich af hoe die voorkomen had kunnen worden. Niet 'wie had de auto dood moeten rijden?' - dat doe je bij mensen toch ook niet?
een auto kan niet uitvogelen of het 10 mensen of 10 etalage poppen zijn die op de weg staan.
De zelfrijder van Google kan dat in veel gevallen WEL uitvogelen omdat ze objecten 'tracken' en de beweging in de tijd projecteren. In het verkeer zijn stilstaande mensen zeldzaam. Op die manier kunnen ze ook voorspellen of er iemand achter een object vandaan kan komen. Onderschat de zeer snelle ontwikkelingen niet.

Zie daarom de problemen die de Google auto had met een fietser die een sur place deed. De systemen detecteerde dat de fietser geen voet op de grond had maar niet voorwaards ging. Een onbekende situatie en de auto weigerde weg te rijden.
Het punt is natuurlijk dat je tijdens keihard remmen niet echt goed kunt sturen. En wanneer moet de auto dan de beslissing maken om jou met volle snelheid tegen de boom aan te zetten? En waarom is het leven van dat kind meer waard dan die van de bestuurder? De wet zegt dat jij je best moet doen om hem niet te raken, maar daarmee is zeker niet bedoelt dat jij van een brug af moet rijden. De zelfrijdende auto reageert idd sneller, maar zo'n situatie kan zich ook daar voordoen.
Het komt allemaal neer op ethische vraagstukken waar we gewoon geen goed antwoord op kunnen geven. Ik zou nooit in een zelfrijdende auto stappen als ik weet dat hij geprogrammeerd is om mij dood te laten gaan om anderen te redden wanneer zij een fout maken. Dan neem ik liever het risico dat ik met mijn eigen geweten moet worstelen nadat ik iemand heb aangereden die voor mijn auto sprong.

[Reactie gewijzigd door Darkstriker op 26 juli 2024 01:15]

het punt wat ik maak is dat een zelf-rijdende auto nooit geprogrammeerd zal worden om jouw of iemand anders dood te rijden. Waarom zou je dat in godsnaam doen? Het KAN de uitkomst van een ongeluk zijn maar de auto zal alles doen om dat te voorkomen - alles wat hij binnen zijn beperkte programmering kan doen. Zie deze conversatie voor wat meer diepgang dan hier bij Tweakers:
https://lwn.net/Articles/662603/
Het stuit me tegen de borst als mensen verklaren dat zij hun eigen leven belangrijker vinden dan dat van een kind.
Dat is jammer voor je, maar verklaar jij eens onomstotelijk waarom het leven van iemand die 3 is belangrijker is dan dat van iemand die 5, 15 of 50 is? Je leven mag dan niet belangrijker zijn dan dat van een kind (dat zeg ik ook nergens). Als jij graag bij voorbaat en ongeacht de situatie je leven voor een willekeurig kind wilt geven, dan zijn er tal van mogelijkheden om dat te bereiken. Ik zie niet hoe het leven van het kind waardevoller is dan dat van de passagier dan wel chauffeur. Ook niet minder waardevol natuurlijk, maar dat verandert er niks aan dat niemand gedwongen moet worden om zijn leven voor iemand anders op te offeren.
De bestuurder van de auto kiest ervoor om in een auto te stappen en te gaan rijden. Hij zal zijn verantwoordelijkheid (en de risico's) moeten nemen. Het kind kiest er niet voor om risico's te nemen, immers hij zit ook niet in een auto.
Dus als ik vlak voor je auto spring is dat jouw risico en verantwoordelijkheid maar? Verzekeringstechnisch? ja. Moreel? Absoluut niet. Het zelfde geld voor een kind (dan wel de verantwoordelijke volwassene). Als jouw kind vlak voor mijn auto springt zodat ik op geen manier kan ontwijken of tijdig remmen dan vind ik dat wel vreselijk, maar je zal me met geen mogelijkheid een slecht geweten kunnen aanpraten tenzij ik ook daadwerkelijk iets verkeerd heb gedaan. Uiteraard zal mijn WA hiervoor moeten dokken, maar het is ethisch zeker niet mijn schuld. Tenzij je het inderdaad doortrekt tot het instappen in de auto, maar dan trek ik het ook door tot het moment dat jij dat kind hebt gemaakt en is het dus net zo goed jouw schuld. Het in de auto stappen is niet anders dan het op straat lopen. En als ik niet oplet tijdens het autorijden of jij niet uitkijkt wanneer jij de straat oploopt, dan kan het inderdaad misgaan. Schuld ligt dan bij degene die de fout maakt. Dat de verantwoordelijkheid voor de schade bij de chauffeur ligt, is puur een wetmatige constructie om niet-rijdende mensen voor de kosten te beschermen. Het heeft met morele verantwoordelijkheid helemaal niks te maken.

[Reactie gewijzigd door Darkstriker op 26 juli 2024 01:15]

Op een snelweg geef ik je gelijk. Maar toch niet op een woonerf. Waar ligt de grens bij het niet ontwijken van een voetganger? Ik neem aan dat ontwijken van een voetganger okee is als er genoeg ruimte is. Blikschade aan de auto zal ook nog wel okee zijn. Maar wat als de auto voorspelt dat de airbag zal afgaan? En natuurlijk, als er geen tijd is om uit te wijken dan is het zeer pijnlijk, maar ook geen verschil met de huidige situatie met menselijke bestuurders.
gebrek aan creativiteit he? Stel de enige mogelijkheid om te ontwijken is door van een brug af te rijden (waardoor de inzittende sterft). Natuurlijk moet de auto eerder blikschade kiezen, maar hoe weeg een gebroken been (door de aanrijding) tegen het risico op een verlamming (door ontwijken en een steviger object raken) oid. Het is al niet makkelijk als je ervan uitgaat, dat of de een of de ander doodgaat, maar als je gradaties van schade aan de personen meeneemt, wordt het allemaal nog ingewikkelder. Wat als ontwijken alleen mogelijk is door een manueel bestuurde auto te reken die naast de zelfrijdende auto zit? In de meeste gevallen zullen mensen op de rem trappen. ontwijken is vaak helemaal geen optie voor een menselijke bestuurder. Maar voor de zelfrijdende auto zou het ontwijken in nagenoeg elke situatie wel een optie zijn. Ik een normale auto is de bestuurder gedwongen deze beslissingen te nemen. Maar geen van ons kan oprecht zeggen te weten wat hij/zij zou dat soort situaties tenzij je het al eens is overkomen (en zou je dan een tweede keer weer hetzelfde doen? was iets anders doen ueberhaupt een mogelijkheid?). Bij een zelfrijdende auto moet je dergelijke reacties institutionaliseren. Maar er is geen samenleven in de wereld die zou beweren in al deze gevallen een definitieve correcte uitspraak te kunnen maken. En daarin ligt juist het probleem.

Maar los van al deze discussies, is het het gewoon goed dat google zijn autos in de buurt van kinderen langzamer laat rijden. Dat doen menselijke chauffeurs immers ook in situaties in die zij een verhoogd risico waarnemen. En kinderen zijn gewoon een risico.
Eens. Het zal lastig worden om de regels in de USA in Nederland te gaan toepassen. Ik mag hopen dat Google voor Nederland speciale software uitbrengt omdat wij het concept vrijliggend fietspad, woonerf en turborotonde kennen. Wat ook erg zou zijn als een grote zakenman zijn software voor elkaar krijgt dat voor hem altijd de veiligheid voor hemzelf voorrang heeft.
Als ik dat moet uitleggen is er iets ernstig mis met je moraliteit.
Ik kan daar op allerlei manieren antwoord op geven, zeg maar hoe.

Biologisch: kinderen zijn genedragers en dienen te overleven, om dat wat jij aan voordelen voor je ras hebt, door te geven. Elke soort op aarde zowat beschermt zijn kindertjes. Mamma beren vechten zich dood tegen elke andere beer die de cubs wil vermoorden.

Evolutionair: kinderen zijn de toekomst en garantie van je ras op voortbestaan.

Psychologisch: kinderen zijn kwetsbaar en dien je te beschermen omdat zij niet de gevolgen goed inschatten kunnen van hun handelen.

Sociologisch: kuddedieren beschermen hun jongen door ze binnen de cirkel te houden zodat de jagende leeuwen er niet bij kunnen.

Moralistisch: onze samenleving heeft normen en waarden en een van die waarden is dat kinderen speciale bescherming verdienen tegen misbruik en willekeur.

Juridisch: kinderen hebben wettelijke beschermingen en er zijn specifieke bepalingen wat betreft hun rechten.

Internationaal: verdragen en wetten die kinderen rechten verlenen, zoals recht op onderwijs en verzorging.

En zo zijn er nog wel andere terreinen waar kinderen een bijzondere status hebben.
blablabla
Ik zal mijn woorden niet vies maken aan al jouw non-argumenten onderuit te halen (hoewel zeker die over biologie en psychologie echt grappig dom waren).

Je hebt geen enkel punt weten te brengen voor het onderscheid tussen een 3 en een 5 jarige. Alle leeftijdsgrenzen zijn verder arbitrair en jouw argumenten zijn dus gebonden aan jouw beperkte visie van de wereld en je moraliteit. Maar dit is geen morele beslissing, het is een ethische beslissing. Maar uit je post wordt wel duidelijk dat dat toch een nuance te ver is voor je.
Ik heb je laten zien dat jouw gebrek aan een morele ruggengraat leidt tot een uiterst infantiele vraag van jou.

Je verschuift bovendien de doelpalen in de discussie. Het gaat er niet om of een kind 3 of 5 jaar is. Een bestuurder van een auto is volwassen. Hij heeft een rijbewijs gehaald en voldoet aan concrete normen.

Een kind is een kind omdat het geen 18 is. Het valt daarmee onder de verantwoordelijkheid van de ouders en heeft een wettelijke status en bescherming als zodanig.

Ik heb je amorele geneuzel ontkracht door je 7 argumenten te geven waarom je een kind ontwijkt als bestuurder en op geen enkele heb je een tegenargument bedacht.

Als jij echt niet snapt dat een kind extra aandacht verdient en extra kansen op overleving op het moment suprême van een verkeersincident dan raad ik je aan professionele hulp te zoeken.

Dat je geen kennis hebt van biologie en psychologie is wel duidelijk. Er blijven dan nog 5 argumenten over waar je wijselijk niet op in gaat.
Het is inderdaad wijs dat ik daar niet op inga. Je speelt al sinds je tweede reactie op de man. Je wist zelf wel dat je argumenten geen stand houden in een fatsoenlijke discussie. De vraag is alleen, waarom je het dan alsnog probeert?
We gaan er in deze discussie van uit dat de auto steeds slimmer gaat worden, dat is niet alleen van toepassing op de AI maar het gaat ook om sensor technologie.

Eigenlijk voorzie ik dat in de toekomst sensor technologie en AI zo krachtig zullen zijn dat de auto, bij wijze van spreken, al eerder weet dat een kind gast oversteken dan het kind zelf.

De auto zal eerder anticiperen op de dynamiek in het verkeer en gevaarlijke situaties voorkomen, nog voordat die situatie actueel wordt.
Maar wat is de prijs van die technologie?

Computers met sensoren die zo krachtig zijn dat ze menselijk gedrag kunnen voorspellen is het einde van democratie.

Maar goed, je kunt wel whatsappen in je auto.
Aandacht van de auto verslapt niet en nu bij kinderen in de buurt is hij dus ook al extra voorzichtig.
Hier een mooi stukje wat precies daar over gaat. Why Self Driving Cars must be Programmed to kill.
Ik hoop echt dat uiteindelijk zulk soort filosofische experimentjes een stille dood sterft en dat niemand ooit bedenkt dat een zelfrijdende auto zo beslissingen moet nemen. Die moet gewoon zo goed als mogelijk een ongeluk voorkomen, en moet niet een vertraagde reactie hebben, en daardoor meer ongelukken en slachtoffers, omdat iemand heeft bedacht dat er een rating systeem moet komen hoeveel een bepaald persoon waard is.

Ik zie het al voor me: Een kind steekt over. De auto ziet dit, en gaat ipv het ongeluk zo goed mogelijk voorkomen, eerst even wachten tot zijn sensoren zeker zijn of het een kind is. Het blijkt een kind, dus wijkt hij vol uit voor de boom. Maar dan, ineens ziet zijn camera baardgroei: Het was geen kind, het was simpelweg een kleine man -> Vol op die man dan maar weer?
Anoniem: 399807 @Sissors1 november 2015 18:30
Death Race 2000. Mensen dood rijden voor punten.
Anoniem: 118226 @XiniX881 november 2015 15:56
Dat is ook een onzin vraag.

Bedenk even wat er nu gebeurt met een menselijke bestuurder.

Je rijdt door een straat, links geparkeerde auto's en er komt je een vrachtwagen tegemoet. Plotseling steekt er een kind over.

Wat doet de menselijke bestuurder? Gaat die een ethische afwegen maken tussen het kind en frontaal op een vrachtauto knallen?

Nee! Wat doet de menselijke bestuurder? Die schrikt, remt voluit (hopelijk) en kijkt naar het kind, terwijl er door zijn hoofd flits, ojee een kind, ojee een kind. En waar ga je heen als je naar het kind kijkt? Precies naar het kind.

Wat moet een autonome auto doen? Kijken of er uitwijkmogelijkheden zijn en zo niet dan maar zo hardmogelijk remmen. Dat is niet meer of minder ethisch dan er nu gebeurd, en waarschijnlijk levert het minder ongelukken op omdat een autonome auto altijd 100% oplet, sneller reageert en wel meteen voluit gaat remmen.
Een autonome auto let niet altijd goed op. Er zitten bugs in de software, er zit een contactje los (en hoewel de auto aangeeft met een rood lampje dat je moet servicen, denken bestuurders 'ach kan volgende week wel.') of de update is niet goed geïnstalleerd omdat de verbinding even wegviel.

Er zijn talloze mogelijkheden waarbij zo'n hardware-software combinatie de list in kan gaan. Microsoft bewijst dat elke dag, hoeveel crashed zijn er in een windows versie per dag over de hele wereld?

Jouw vertrouwen in technologie en software misleid je. Bovendien heb je het fout. Als je een kind voor je hebt dan rem je en geef je het stuur een slinger.

Chaos theorie.
Nop. Je rijdt heen waar je naar kijkt. En je kijkt echt naar het kind.

En natuurlijk bevat software fouten. Maar zelfoverschatting van mensen is veel erger.

Ik heb geen grenzeloos vertrouwen in techniek. Ik weet alleen dat mensen op zijn best matige chauffeurs zijn, maar de meeste hebben een te groot ego om dat toe te geven.
De bestuurder van de auto is en blijft verantwoordelijk. Je moet te allen tijde ook handen aan / bij het stuur houden en ingrijpen wanneer nodig.
Dan heeft dat "zelfrijdend" dus 0 toevoeging. Het werkt zelfs averechts, mensen hebben hun kop niet 100% bij het verkeer in een dergelijke auto.
Als bijrijder let ik ook niet in dezelfde mate op het verkeer als wanneer ik zelf rijd.
Je kan er allicht iets langer over doen om met je autoradio/navigatie te lopen pielen ;) maar de bottom line is dat je altijd moet kunnen ingrijpen als 'het systeem' faalt.

Mja wellicht dat er over 15 jaar andere regels gelden. Dat kan ook natuurlijk. Ik heb ook al redelijk wat jaartjes m'n rijbewijs, pas 1x een totallossje gehad (buiten m'n schuld om; kreeg geen voorrang op een meer dan overduidelijke en compleet overzichtelijke voorrangskruising, iemand die het nodig vond m'n auto 30 centimeter smaller te maken over de gehele lengte). Zelfrijdende auto of niet had daar geen enkel verschil gemaakt vrees ik.

Ik word altijd wél een tikkeltje nerveus als ik in een grote stad rond moet rijden. Weliswaar woon ik in de buurt van Groningen maar als ik voor m'n werk - god verhoedde het - naar Amsterdam moet zet ik m'n auto het liefst in Weesp (gratis P+R!) en pak ik het laatste stukkie de trein. Daar zou een zelfrijdende auto een uitkomst zijn, ook al zou ik op moeten letten op iedereen en z'n moeder die probeert mij overhoop te rijden.
Wie de schuldige is, is eigenlijk alleen maar een verzekeringstechnische vraag. Voor een slachtoffer of omstanders maakt het niet uit wie de schuldige is. Bij dronken menselijke bestuurders kunnen wraakgevoelens parten spelen, maar dat is hier niet van toepassing.

Ik vraag me af hoe het zit met honden of overstekend wild, reageert de auto daar ook anders op? Die zijn zo mogelijk nog onvoorspelbaarder dan kinderen.
Het maakt wel uit wie de schuldige is. Zowel voor slachtoffer als omstanders.

Mensen snappen dat blijkbaar niet. Maar als je technologie verheerlijkt en automatisch beter acht dan mensen, dan is het logisch dat je zo denkt.

Voor mij staat de mens boven de machine. Het idee dat een ding zonder ziel op basis van algoritmen en berekeningen en programmering mij dood rijdt vind ik onoverkoombaar schokkend.

De verantwoordelijkheid wordt niet gedragen in de ziel van een mens die een fout maakte en via zijn emoties mij recht doet en respecteerde als menselijk zelfbewust wezen. Bij een auto is het zoals ik al opmerkte een kostenpost in de boekhouding van de fabrikant, als die verantwoordelijkheid nemen voor technisch falen.

Er is niemand bij een bedrijf die oprecht spijt heeft. Er is misschien een speciale afdeling of 'desk' voor zoiets.

En de samenleving? Die kan haar gevoelens ook niet kwijt, want kwaad worden op een machine is zinloos. Het bevredigd niemands rechtsgevoel wanneer de auto wordt gesloopt, gekeurd en de glitch opgespoord.

Zoals je waarschijnlijk niet zult snappen, is wat er in de maatschappij dan gebeurt fenomenaal. Mensen raken gewend aan de willekeur van dood door machine. Want de machines hebben we nodig, vinden we, voor ons gemak.

Op dat moment staan machines boven de mens.
Ik verheerlijk technologie niet, maar het is een feit dat computers in veel taken beter zijn dan wij mensen. Er zijn uiteraard ook nog veel zaken waar de mens veel beter is dan de computer en dat zal voorlopig ook wel zo blijven.

Als statistisch blijkt dat er significant minder ongelukken gebeuren met zelfrijdende auto's, dan vind ik het onzin om dan een schuldige of verantwoordelijke aan te wijzen hiervoor.

Vergeet niet dat met zelfrijdende auto's één belangrijke factor wordt uitgesloten: De stupiditeiten die wij mensen kunnen uitvoeren zoals stomdronken achter het stuur kruipen. Nog snel even gas bijgeven als het verkeerslicht reeds oranje is geworden om nog snel even de kruising over te steken. Harder rijden dan is toegestaan op de weg. Onnodig inhaalgedrag. Etc. etc. Daarnaast kan een computer veel sneller reageren op een verkeerssituatie dan wij mensen.

Kwaad worden op een persoon (of de ziel hiervan) die een verkeersslachtoffer heeft veroorzaakt, heeft ook weinig nut. Het brengt het slachtoffer niet terug. Als software een fout maakt waardoor een slachtoffer wordt gecreëerd in het verkeer, zal men ongetwijfeld de software slimmer maken. Ik wil mensen die vaker dronken achter het stuur kruipen niet de kost geven.

Als ik mijn leven moet toevertrouwen aan een bewezen techniek (eerder zullen de zelfbesturende auto's echt niet in de handel komen) met bijbehorende algorithmen of een mens met bijbehorend onverantwoordelijk gedrag, dan kies ik voor de techniek.

Ik denk dat met zelfrijdende auto's wij straks heel wat minder auto-ongelukken zullen hebben. Ook zal het aantal files drastisch afnemen doordat er niet onnodig geremd hoeft te worden op de weg.

[Reactie gewijzigd door Anoniem: 22438 op 26 juli 2024 01:15]

"Als statistisch blijkt dat er significant minder ongelukken gebeuren met zelfrijdende auto's, dan vind ik het onzin om dan een schuldige of verantwoordelijke aan te wijzen hiervoor."

Daarom hoop ik dat jij nooit in een machtspositie geraakt waar je met dat idee invloed hebt op de samenleving.

Ik vind dat doodeng. Op de eerste plaats klopt die zin voor geen meter want wat zeg je hier nu precies? Ik ga er van uit dat je bedoelt dat als statistisch blijkt dat er minder ongelukken gebeuren met zelfrijdende auto's , jij het onzin vind om dan iemand de schuld te geven dat er minder doden vallen.

Je voorbeelden zijn onzin. Voor elk voorbeeld waarin de menselijke faalbaarheid als argument gebruikt wordt ten gunste van machines, kan ik een tegen-voorbeeld geven waarin een machine faalt.

Nee, een pc drinkt niet, maar kan wel een software failure krijgen. De programmatuur is door mensen geschreven en mensen zijn faalbaar, dus is de machine faalbaar. Maar filosofie is een moeilijk vak.

Wat jij zegt is dat als een mens een fout maakt en dom is die nooit meer de weg op mag, gestraft moet worden. Maar als een programmeur slecht programmeert, of een afdeling vol coders slordige software bouwt, ze een extra blik coders open mogen trekken om de software te verbeteren. Dus de programmeurs worden niet bestraft?

Zoals dat nu gaat dus, met games. Game kopen als beta en dan maar hopen dat alles goed komt en al spelende ben jij het testlab. En dan komt er een nieuw feature in de auto-software en die breekt dan de rest weer.

Als hedendaags programmeren, qua leveren van kwaliteit (zoals de kwaliteit van beveiliging in thermostaten) de maatstaf is vrees ik het ergste.


Man! Bewezen techniek! LOL! Wat een nonsens! Hoe kom je daar toch bij kerelt. ELKE techniek die OOIT in de samenleving gebracht werd had onvoorspelbare gevolgen. Hoe naïef ben je als je denkt dat tech niet op de markt wordt gebracht zonder fouten. Denk eens aan de eerste tv's. Weet jij hoeveel tv reparateurs omkwamen door elektrocutie van die dingen? Ze stonden er om bekend!

Bovendien rijden er al auto's met software van Tesla. En Tesla zelf zegt dat je je poten op het stuur moet houden. Niettemin kun je er mee rijden!

En je maakt een ENORME denkfout met: "Als ik mijn leven moet toevertrouwen aan een bewezen techniek (eerder zullen de zelfbesturende auto's echt niet in de handel komen) met bijbehorende algorithmen of een mens met bijbehorend onverantwoordelijk gedrag, dan kies ik voor de techniek.".

Dat is een foute voorstelling van zaken! Je plaatst bewezen techniek tegenover onverantwoord gedrag. Dat is misleiding. Want je plaatst goed tegenover fout. Dat is baarlijke nonsens. Dat wint goed altijd!

Als je eerlijk bent plaats je bewezen techniek tegenover bewezen goed gedrag. En machine/software failure tegenover onverantwoord gedrag.

Ook denk ik dat files geen probleem zijn als we minder rijden en meer thuis werken. Autonome auto's zijn geen oplossing die bedoeld is om files te verminderen. Ik heb nog geen reclame gezien waarin men dat gebruikt om de auto bij de consument aan te prijzen.

Als je minder auto ongelukken wilt, dan moet je niet doodsoorzaak omruilen voor een andere doodsoorzaak. Dan moet je de kern van het probleem oplossen. Minder auto's op de weg is minder files. Meer thuis werken, de spits afschaffen door mensen flexibeler te laten werken.

Het is volkomen surrealistisch an krankzinnig om een samenleving uit te vinden waarin mensen om 08:30 beginnen, ze dan een auto te geven zodat ze allemaal tegelijk de weg op moeten, in de file te laten staan omdat ze allemaal op een kantoor moeten komen om dan in de middag de karavaan te herhalen. En om dan als oplossing een autonome auto aan te bieden, waar je dan de files vermijd, terwijl je dan in feite in de auto al op je laptop veel werk kan doen...wat je ook thuis had kunnen doen...en waarom zou je dan nog in een auto naar kantoor moeten?

Dit is geen vooruitgang. de zelfrijdende auto is self-deafeating. Als die de files zou oplossen, dan maakt het zichzelf overbodig. En welke fabrikant wil dat nou? Die wil dat je autonoom in de file staat zodat je het voordeel van je auto kunt gebruiken, whatsapp en laptoppen, mailen met de baas, videogesprek, skype. Vergaderen zelfs.

De meeste technologie is je reinste onzin.
Daarom hoop ik dat jij nooit in een machtspositie geraakt waar je met dat idee invloed hebt op de samenleving.

Te laat, mijn bedrijf Skynet is momenteel bezig met een wereldwijde uitrol van veiligheidsrobots. Het model T1000 zal volgende week geïntroduceerd worden in de Europese markt.

Als je minder auto ongelukken wilt, dan moet je niet doodsoorzaak omruilen voor een andere doodsoorzaak.

Je hebt helemaal gelijk. Stel dat je 90% minder verkeersongevallen zou kunnen krijgen (en volgens mij zijn dat er zelfs nog veel meer minder als elke auto automatisch zou rijden) dan is het inderdaad verstandig om deze techniek niet in te zetten als dit niet 100% van de ongelukken kan voorkomen. Het is dan beter om het aantal verkeersslachtoffers gelijk te laten of zelfs te laten toenemen omdat er steeds meer auto's op de weg komen.

Dat is een foute voorstelling van zaken! Je plaatst bewezen techniek tegenover onverantwoord gedrag. Dat is misleiding. Want je plaatst goed tegenover fout. Dat is baarlijke nonsens. Dat wint goed altijd!

Ik heb nergens de termen goed en fout in mijn tekst gebruikt. Maar ik weet zeker dat jij (als je een rijbewijs hebt) nog nooooit snel nog een rood licht gepakt hebt omdat je gas bijgaf toen het licht al oranje was en je eigenlijk nog genoeg tijd had om te stoppen. Je hebt vast ook nooit te hard gereden.

Dit heeft niets met goed of fout te maken, dit heeft te maken met de aard van de mens. Mensen nemen helaas vaak onnodige risico's. Dat is prima, maar als een derde daarbij gewond raakt, vind ik dat een groot probleem.

Ik ben het met je eens dat er minder auto's op de weg zouden moeten komen door bijvoorbeeld thuis te werken. Het is echter zo dat dit nog lang niet de standaard zal zijn. Voor een deel is het zo dat bepaald werk niet thuis gedaan kan worden. Voor een ander deel is het ook zo dat ik er niet aan zou moeten denken dat ik altijd alleen thuis mijn werk zo moeten doen. Voor mij is contact met collega's erg belangrijk. Ik zou het wel zien zitten om bijvoorbeeld om de dag thuis te werken, op Di en Do bijvoorbeeld, maar veel werkgevers willen dit niet, al helemaal niet hier in Portugal. Auto's zijn dus nog steeds een noodzaak. (voor de duidelijkheid, ik heb zelf geen auto en reis altijd met OV)

Nee, een pc drinkt niet, maar kan wel een software failure krijgen. De programmatuur is door mensen geschreven en mensen zijn faalbaar, dus is de machine faalbaar. Maar filosofie is een moeilijk vak.

Filosofie is inderdaad niet eenvoudig, maar wat heeft dat met dit artikel te maken? Je bent blijkbaar bang voor de technische voortgang, dat is je goed recht. Je zult er echter niet onderuit kunnen.

Dat software fouten bevat is geen geheim. Daarvoor zijn er tests, en ja zodra zelfsturende auto's gemeengoed worden, zullen er ongetwijfeld op den duur betere modellen komen met betere software die nog veiliger is. Software is bij te werken. Maar ik weet zeker dat 99% van de mensen die ooit een boete hebben gehad voor te snel rijden, later gewoon weer te snel rijden. Ze installeren zelfs software op telefoons of kopen apparaatjes die je waarschuwen voor flitsers. The hell, op de radio wordt zelfs omgeroepen waar er flitsers staan. Je zult maar in botsing komen met een auto die 200km per uur rijdt waar 80 is toegestaan (en ja die idioten heb je). De kans dat software die fout maakt, is vele malen kleiner dan dat mensen dat doen.

We gaan vooruit en de techniek helpt ons daarbij. Ook jij doet dat, want jij gebruikt blijkbaar internet, anders zat je niet op deze website. Je gebruikt op het werk mogelijk computers, het lijkt me heel erg sterk dat je een ouderwetse typemachine gebruikt. Ik denk dat er weinig bedrijven zijn die nog een papieren boekhouding hebben. Vele medische ontwikkelingen zouden zonder computers niet mogelijk zijn.

Je voorbeelden zijn onzin. Voor elk voorbeeld waarin de menselijke faalbaarheid als argument gebruikt wordt ten gunste van machines, kan ik een tegen-voorbeeld geven waarin een machine faalt.

Ik denk dat je daar ongelijk in hebt. Als jij in vergelijkbare situaties resultaten vergelijkt, kan het niet zo zijn dat jij voor elke fout gemaakt door mensen, een gelijk aantal fouten door computers er tegenover kunt zetten. Als dat zo was, werden computers al lang niet meer gebruikt, het zou dan namelijk alle voordelen die een computer heeft, teniet doen.

Waar ik meer angst voor heb, is wat mensen met informatie doen die door computers vergaard wordt. Die computers doen niets met je, maar mensen wel. Tegen de tijd dat computers zo autonoom zijn dat ze je persoonlijk wat aan kunnen doen, lig ik gelukkig allang tussen vier planken onder de grond.
Je eerste argument klopt niet. De oplossing van het probleem van verkeersslachtoffers is niet gelegen in slimmere auto's maar om minder te rijden.

Je schrijft: "Het is dan beter om het aantal verkeersslachtoffers gelijk te laten of zelfs te laten toenemen omdat er steeds meer auto's op de weg komen."

Als we minder auto's op de weg laten rijden, dan neemt de veiligheid toe en komen er minder slachtoffers. Of autonome auto-technologie 100% of 80% minder slachtoffers veroorzaakt is dan geen punt. Het verbaast me vaak dat mensen steeds weer in de valkuil trappen van de oplossing met de verkeerde vector.

Oplossingen moet je toedienen aan de bron van het probleem, bottom-up, niet top-down. Wat jij wil is symptoom bestrijding. Dus stapel je technologie op technologie

Kijk, een autonome auto is een nieuw soort veiligheidsgordel voor zowel de inzittende als de andere weggebruiker.

Toen er geen veiligheidsgordels waren, werden die bedacht en in de auto geplaatst. Ze waren niet verplicht. Dat kwam later. En toen zelfs voor achterin. Nu plaats men sensoren en camera's op auto's en 'snoert' men de passant ook in een gordel.

Zo ben je niet actief in het voorkomen van een probleem maar reactief, achteraf nieuwe tech bedenken om de problemen van eerdere tech op te ruimen.

---

Nee je hebt nergens de woorden goed en fout gebruikt, maar is het echt zo moeilijk om de mentale sprong, de associatie te maken?

Als je eerlijke vergelijkingen wil maken moet je een eerlijk spel spelen. Er zijn namelijk voordelen aan bewezen techniek maar er zijn ook heel goede menselijke bestuurders!

Er is falende techniek en er zijn ook falende mensen.

Wat jij doet is bewezen techniek tegenover falende mensen (bestuurders) zetten. En dus zet je automatisch falende techniek tegenover goede bestuurders. Dat zet je er niet bij maar dat moet daaruit dan wel volgen.

"Ik ben het met je eens dat er minder auto's op de weg zouden moeten komen door bijvoorbeeld thuis te werken. Het is echter zo dat dit nog lang niet de standaard zal zijn. "

Nu zie ik een probleem hier, want jij wilt een autonome auto, een geheel NIEUWE standaard invoeren terwijl de standaard om minder te rijden als oplossing nog niet is geprobeerd.

Als de autonome auto dan het excuus vormt om een nog niet bereikte standaard voortijdig uit te rangeren, terwijl we daar nog de winst van het minder aantal slachtoffers kunnen halen, milieu, natuur en klimaatwinst kunnen boeken etc., dan laat je zien dat je inderdaad techno-fanboy bent.

Ik ben niet bang voor technologie. Ik ben een technorealist. Ik denk na over zowel voor en nadelen van technologie en het is me gelukt om voor een groot deel technologie in perspectief te zien, me bewust te zijn van de paradigmatische houding t.a.v. technologie. Ik denk na over de invloed op de samenleving...en dat wordt me hier vaak niet in dank afgenomen.

Bijvoorbeeld, deel van dat paradigma is ALTIJD iets te zeggen over medische technologie en om te laten zien dat ook ik technologie gebruik. Dat suggereert dan dat ik een hypocriet ben. Kijk, dát is het niveau van de discussies.

Ik vraag me dus af wat je bedoeld met dat we vooruit gaan. Waarin gaan we vooruit? Er gaan meer mensen dood in het verkeer dan in het jaar 560. Dat klinkt raar, maar denk er maar over na. Is een auto dan beter ding dat een paard met kar? Nee, het is een geavanceerdere kar. Een die meer doden tot gevolg heeft, bijdraagt aan de destructie van NMK.

Er gaan meer mensen dood door foute medische behandelingen (las laatst nog dat er heel veel verkeerde hulpmiddelen aan ouderen worden gegeven) en medicijnen dat in 560. De medicatie die we nu hebben heelt en helpt veel mensen, maar daardoor groeide de wereldbevolking, NMK problematiek dus weer o.a..

Helpt dus de techniek bij 'vooruitgang' of is 'vooruitgang' iets dat gepaard gaat met minstens net zo veel nadelen? Denk daar aan als jij je pensioen eens onder de loep neemt. Men voorspelt dat we in 2060 als kerels al 90 worden. Gaaf, die medische kennis. Maar vergeet het maar als jij denkt dat je tot je 67ste moet werken. Dat gaat nog wel omhoog. Tot die tijd mag jij het gat vullen van het gebrek aan visie, want iedereen had vergrijzing kunnen zien aankomen.

Je laatste punt vind ik geweldig. Het laat precies je denkfout zien en je naiviteit.

"Als dat zo was, werden computers al lang niet meer gebruikt, het zou dan namelijk alle voordelen die een computer heeft, teniet doen."

Zie mijn voorgaande stuk. NMK gaat onderuit tegenover enorm gebruik van machines. Mensen sterven door fijnstof, in het verkeer, door machines op het werk.

Als jij echt denkt dat wij als mens iets niet meer zouden gebruiken omdat het slecht is, dan zouden we al gestopt zijn met de auto. Misschien wel met de computer, want zie wat uit de computer voortkomt: ICT. En zie wat ICT doet, je mensenrechten afkalven. Ons brengen naar een dictatuur, een panopticum Big Brother samenleving 2.0.

PC's doen je nu al wat aan, maar je ziet het niet. Erger, je hoopt dood te zijn voordat je het voelt. En na jou de zondvloed.
Bij elk artikel over zelfrijdende auto's wordt keer op keer deze vraag gesteld terwijl het antwoord uitgerekend via de website van het genoemde bedrijf zeer uitgebreid is te beantwoorden. Dat de autonome auto allang tot in den treure juridisch is doorgelicht lijkt mij vooral evident.

Ik zit voor mijn werk erg veel op de weg en ik kan niet wachten tot de mens als schakel in het verkeer wordt geëlimineerd!

[Reactie gewijzigd door Anoniem: 55563 op 26 juli 2024 01:15]

Het grappige van alles is dat meestal de ''echte menselijke'' bestuurder vaak de schuldige is bij een ongeluk :) Was zelfs nog op het nieuws in Amerika geweest. Die rijden minder goed dan de zelfrijdende auto van Google.

Maar zijn met verschillende fabrikanten in overleg gegaan als er echt iets de schuld is van de zelfrijdende auto dat hun de schuld ''volledig'' op zich zelf nemen.
Een auto type wordt goed gekeurd door instanties om de weg op te mogen. En als het autonoom rijd dan ook getoetst op rijvaardigheid . En dus een rijbewijs. Dat zal dan per land iets anders ingevuld worden. rokbewijs op naam van automerk of voor de auto.

Ik denk dat de RDW daar ook al langer mee bezig is. Hoe dat ingevuld moet worden.
Anoniem: 145867 @arbraxas1 november 2015 14:49
De persoon of identiteit die fout was. :) duhh Als de zelfrijdende auto een ongeluk veroorzaakt door jezelf ervoor te laten springen. Wie zou dan fout zijn?
Anoniem: 587244 @arbraxas1 november 2015 19:41
Nee nooit uitgezocht. Je bent ook de eerste die dit zich afvraagt onder een bericht over zelfrijdende auto's zover ik mij kan heugen.
Anoniem: 647586 1 november 2015 11:13
Ik vraag me dit atijd af:
Stel dat een groep mensen over straat lopen en dat een zelfrijdende auto een te hoge snelheid heeft om te stoppen.
Gaat deze zelfrijdende auto dan inrijden op deze groep zodat de inzittende overleeft?
Of gaat de zelfrijdende auto tegen de kant rijden met grote kans dat de inzittende het niet overleeft?
Sowieso dat je gaat zeggen "dat hangt van verschillende parameters af".
Oke, goed: we lezen in dit artikel dat de aanwezigheid van kinderen dus een zwaarder doorwegende parameter is. Maar waar trek je de grens qua leeftijd? En stel dat een president of belangrijke voorzitter in deze wagen zit, is dit dan ook een doorwegende factor? Prijs van de auto? Persoonlijke voorkeur?
Een computer werkt met parameters en beslist hieruit wat er gaat gebeuren.
Ik ben echt pro-zelfrijdende auto's, maar dit vraag ik me altijd af.

[Reactie gewijzigd door Anoniem: 647586 op 26 juli 2024 01:15]

Dat is een zeer interessante vraag en voorop gesteld dat ik geen antwoord op jouw vraag heb ga ik er een beetje vanuit dat de auto voor een situatie kiest het aantal slachtoffers te beperken. Dat dit niet altijd gunstig is voor de bestuurder is in mijn optiek van ondergeschikt belang (vraag me dat maar eens als ik in de auto zit). Dit zal natuurlijk wel tot rechtzaken gaan leiden maar ik neem aan dat er allemaal opnameapparatuur in de auto's komt te zitten die aan kunnen tonen dat het de beste keuze is in die situatie is geweest.

In Forbes staat een leuk stukje met dit als een uitspraak: What’s more, even if self-driving cars were unethical monsters it would be a huge improvement. (verbetering ten opzichte van mensen)

http://www.forbes.com/sit...blem-for-driverless-cars/
Maar die zelfrijdende auto heeft die groep mensen allang gezien en zal dus nooit harder dan 30/40 rijden dus die kan makkelijk stoppen en ook al moet hjj voor een boom kiezen dan is er hooguit wat blikschade met die snelheid.

Dit soort vragen is allang over nagedacht. Iedereen denkt dat die auto's srraks met 100 in de kom tussen de mensen gaan rijden maar dat is echt niet zo. Hooguit 30.
Inderdaad, auto's gaan niet geprogrameerd worden om etische beslissingen te maken. Daar hebben ze de informatie niet eens voor - een auto kan niet uitvogelen of het 10 mensen of 10 etalage poppen zijn die op de weg staan.

Als er een botsing aan lijkt te komen gaat de auto op de rem staan. Een geavanceerde auto zou wellicht rond de botsing proberen te rijden om het te voorkomen. Maar er is geen "hoeveel mensen zitten er in mij, hoeveel staan er buiten, zijn ze jong of oud" achtige beslissingen.

En na de botsing vraagt iedereen zich af hoe die voorkomen had kunnen worden. Niet 'wie had de auto dood moeten rijden?' - dat doe je bij mensen toch ook niet?
Een auto kan wel degelijk ondserscheid maken tussen etalagepoppen en mensen. Kwestie van straling meten, zoals warmte.
Maar er is geen "hoeveel mensen zitten er in mij, hoeveel staan er buiten, zijn ze jong of oud" achtige beslissingen.
Lees het artikel nog eens. Of slechts de titel! De google-auto kijkt dus wel degelijk naar jong-oud achtige beslissingen.
En na de botsing vraagt iedereen zich af hoe die voorkomen had kunnen worden. Niet 'wie had de auto dood moeten rijden?' - dat doe je bij mensen toch ook niet?
Ja, dat doe je bij mensen ook.
De Google auto kijkt alleen naar kinderen om te beslissen hoe hard hij rijd - iets voorzichtiger als er kinderen in de buurt zijn.

het punt wat ik maak is dat een zelf-rijdende auto nooit geprogrammeerd zal worden om jouw of iemand anders dood te rijden. Waarom zou je dat in godsnaam doen? Het KAN de uitkomst van een ongeluk zijn maar de auto zal alles doen om dat te voorkomen - alles wat hij binnen zijn beperkte programmering kan doen. Zie deze conversatie voor wat meer diepgang dan hier bij Tweakers:
https://lwn.net/Articles/662603/
In de 2e alinea van dat artikel al direct een foutje:
And they aren't ever going to program the car to hit a fixed object or leave the roadway
Weliswaar niet met opzet, maar wel onopzettelijk. Het is toch echt zo dat het zo geprogrammeerd is.
Recent nog een filmpje gezien waarin een zelfrijdende auto opeens naar de andere weghelft stuurde (in het ene geval) of naar de vangrail stuurde (in het andere geval). Zonder aanwijsbare verkeersreden.
Zelf heb ik meegemaakt dat een Mercedes met een collision-warning systeem weigerde om verder in het parkeervak te gaan dan mogelijk was. Ook zonder duidelijke reden. Da's dan de andere (te veilige) kant op; maar al dat gedrag is wel geprogrammeerd. Er zitten gewoon duidelijk fouten in die programma's.

Ik verwacht dat het soort beslissingen die jij noemt, in de toekomst toch wel door auto's gemaakt zullen worden. Dat een auto bijv. kiest tussen 1 persoon omver rijden i.p.v. 2, als hij die keuze moet maken.

[Reactie gewijzigd door kimborntobewild op 26 juli 2024 01:15]

Het feit dat de auto soms de situatie verkeerd inschat en daardoor van de weg afrijd heeft natuurlijk niets te maken met de uitspraak "they aren't ever going to program the car to hit a fixed object or leave the roadway". Als een auto een persoon op de weg ziet gaat hij remmen en proberen te stoppen. Lukt dat niet, dan lukt dat niet. Uitwijken zal ie wellicht doen als het kan zonder tegen iets anders aan te rijden of van de weg te geraken, maar dat is al heel ingewikkeld en als er dan iets links of rechts staat dan gaat dat waarschijnlijk gewoon niet gebeuren.
Als een auto een persoon op de weg ziet gaat hij remmen en proberen te stoppen. Lukt dat niet, dan lukt dat niet. Uitwijken zal ie wellicht doen als het kan zonder tegen iets anders aan te rijden of van de weg te geraken, maar dat is al heel ingewikkeld en als er dan iets links of rechts staat dan gaat dat waarschijnlijk gewoon niet gebeuren.
...lukt dat niet...
...wellicht...
...heel ingewikkeld..
...als...dan...
...waarschijnlijk...
Allemaal onzekere termen. Des te meer onzekere termen zijn, des te meer verschil in programmeren (onderlinge verschillen, tussen autofabrikanten) wel degelijk voor situaties kan zorgen (de ene programmeur kiest voor andere overwegingen dan de andere) dat een auto ervoor kiest om (als alleen die keuze overlijft) één bejaarde omver te rijden (links uitwijken) i.p.v. twéé kinderen (rechts uitwijken) t.o.v. rechtdoor (drie kinderen platrijden).

[Reactie gewijzigd door kimborntobewild op 26 juli 2024 01:15]

het punt is gewoon dat er geen goede reden is om complexe morele scenario's in te bouwen, en dat gaat dus niet gebeuren.
het punt is gewoon dat er geen goede reden is om complexe morele scenario's in te bouwen, en dat gaat dus niet gebeuren.
Die redenen komen vanzelf; met name als er 'straks' heel veel zelfrijdende auto's zijn. Kan me zelfs voorstellen dat de programmeurs van Google, Nissan, Mercedres, etc. al lang over nadenken en wellicht al deels geïmplementeerd hebben.

[Reactie gewijzigd door kimborntobewild op 26 juli 2024 01:15]

nee, hoe meer zelf-rijdende auto's er zijn, hoe simpeler het wordt. Dat zie je ook in dit artikel: het zijn mensen die dingen lastiger maken. Onvoorspelbaar gedrag enzo. Auto's met een computer erin zijn voorspelbaarder, zeker voor andere auto's met computer, en zeker als er communicatie is. Je hoeft niet raar uit te wijken om te voorkomen dat iemand achter je op je botst terwijl jij probeert te voorkomen een voetganger dood te rijden als je de auto achter je en die daarachter en daar achter kunt vertellen dat je gaat stoppen en erop kan vertrouwen dat ze binnen 100 miliseconden reageren.
nee, hoe meer zelf-rijdende auto's er zijn, hoe simpeler het wordt.
Ik heb ook niet gezegd dat 't dan niet simpeler zou worden.
Als er meer zelfrijdende auto's zijn, komt 't rechtstreeks daardoor ook vaker voor dat er moeilijk te beoordelen situaties zijn.
Stel dat er nu 1000 zelfrijdende auto's zijn. En over 3 jaar 100.000. Dan heb je dus 100x meer te beoordelen situaties, en dus 100x vaker een situatie waarbij geoordeeld kan worden of 't beter is om 1, 2 of meer mensen omver te rijden.
Jij wilt zo te zien direct overstappen naar 'alle auto's zelfrijdend'. Dat kan natuurlijk niet. Auto's onderling zullen dan inderdaad op een aantal gebieden efficïenter met elkaar kunnen communiceren dan dat mensen dat kunnen. Maar je houdt problemen met voetgangers, fietsers, etc. Dus ook als elke auto zelfrijdend is, zal je zien dat het morele vraagstuk in de software terug kan komen.
Maar er is geen "hoeveel mensen zitten er in mij, hoeveel staan er buiten, zijn ze jong of oud" achtige beslissingen.
Exact volgens dit artikel is het gedrag van de auto wel anders als het om kinderen gaat.
Ok, dat is waar, maar dat is niet echt een ethische beslissing - meer een praktisch "als er kinderen zijn, rij langzamer".
ja er vliegt zeker een drone boven de auto, die vooruit om de hoek kan kijken ?
droom lekker verder,
Dat zei ik niet maar ik bedoel als je een blinde hoek omrijdt, dus je ziet niet of er om de hoek iemand op de weg loopt ga je dit niet doen met 60 km/h (alsof je met die snelheid een bocht kan maken trouwens).

Maar als die auto gewoon rustig de bocht maakt met lage snelheid kan hij nog makkelijk remmen wie daar ook loopt. Zeker als er sensoren of camera's voor op de motorkap zitten ziet de auto eerder of er iemand loopt dan jij zelf.

We maken nu toch ook gewoon blinde hoeken met z'n allen zonder dat we daarbij constant mensen platrijden?

En een drone is wel een goed idee trouwens, kun je nog verder vooruit kijken :)
Zou me niks verbazen dat we in de toekomst inderdaad drones gaan inzetten zodat auto's verder vooruit kunnen kijken. Want momenteel lijkt het me zo dat mensen zich er aan ergeren als een zelfrijdende auto heel langzaam de bocht om gaat. Maar ja, misschien maar gedwongen onthaasten...
Ja als mensen nu traag (zondags) rijden dan erger je je omdat je weet dat ze sneller kunnen maar ik denk dat je jezelf er dan wel bij neerlegt. Zelf ga je dan immers ook langzaam de bocht om.

Maar het is zeker een idee, niet eens drones ofzo maar je zou bij een blinde hoek ook camera's of sensoren kunnen installeren in het gebouw die de auto dan vervolgens kan gebruiken als hij op een bepaalde afstand ervan is.
Precies, dit is een non-discussie, want zelfrijdende auto's worden ontworpen om uberhaupt niet in zo'n situatie terecht te komen. Het zal vast gebeuren, maar je gaat er niet speciaal voor programmeren (buiten zo hard mogelijk remmen natuurlijk).
Ik denk dat de auto de inzittende als eerste gaat beschermen, daarnaast zal het vol op zijn rem gaan of uitwijken indien de daarbij komende schade binnen de grenzen valt.

[Reactie gewijzigd door Mic2000 op 26 juli 2024 01:15]

Ik denk dat niet. Als ik zelf die parameters kon ingeven. Maar ik denk dat de kwetsbare weggenruikers prioriteit hebben. De auto heeft wat bots reserves om inzittende voldoende te beschermen op lage legale snelheden. En is blikschade en airbag in gezicht. voor die voetganger wordt uitgeweken.
Ik denk juist niett dat zelfrijdende auto voor poes een eland manoeuvre doet met tegenligger maar op de rem over de kat.
@jouw en Mic2000:
Jullie kunnen allebei geljik hebben.
Het hangt er nl. maar net van af wie de auto geprogrammeerd heeft; er is daar geen standaard in(!).
Je denkt echter wel dat mensen in staat zijn deze beslissing in <1 seconde te nemen? Een mens rijd waarschijnlijk gewoon de gehele groep dood.

Wij zijn zelf helemaal niet zulke goede bestuurders als wij denken. We geven het niet graag toe, maar we zijn gewoon best slecht in voertuigen besturen.

Het mooie is, die zelfrijdende auto had op die weg nooit die hoge snelheid gehad, want hij had allang door gehad dat het daar niet verstandig is.
Wij zijn zelf helemaal niet zulke goede bestuurders als wij denken. We geven het niet graag toe, maar we zijn gewoon best slecht in voertuigen besturen.
Stop eens met dit argument.
a) De zelfrijdende auto is ook door een mens gemaakt, dus kunnen ook fouten in ziiten.
b) Hoe zit het met de beveiliging, van het systeem van de zelfrijdende auto?
b) We hebben maar iets van 400 ongelukken per dag, tegen ruim 10 miljoen voertuigen.
Stop eens met dit argument.
a) De zelfrijdende auto is ook door een mens gemaakt, dus kunnen ook fouten in ziiten.
Dat is ook een beetje een non argument. Er zijn zat dingen gemaakt door mensen die beter zijn in bepaalde taken dan mensen dat zijn. Auto rijden zal hier geen uitzondering op zijn.
Klopt, voornamelijk taken, die constant het zelfde zijn. Hier zijn machines idd beter dan de mens,
En nog steeds klopt het mensen zijn constant afgeleid. En onze reactie is meestal helemaal niet zo snel.
Zonder nieuwe update, kan die niet met nieuwe situatie's om. Hier is de mens toch beter in.
Anoniem: 310408 @wica1 november 2015 13:55
Stop eens met dit argument.
Okay, dan kijken we naar de cijfers. Die zijn voor de huidige autonomen voertuigen die al rijden (Mercedes), in openbare test phase (Tesla) en in gesloten test (alle fabrikanten) gewoon zeer positief. Minder ondelukken waarbij de autonome auto schuldig is, de ongelukken zijn veel minder ernstig en de invloed op het overige verkeer is gunstig.

Natuurlijk zijn er uitdagingen, maar alles lijkt beter dan een menselijke bestuurder op dit moment. We gaan een toekomst tegemoet waarbij verkeersdoden een zeer grote uitzondering worden. Een toekomst waarin autorijden veiliger is dan reizen met vliegtuig of trein. Dat is een enorme stap voorwaards.
A) het maakt gebruik van een AI, iets te kort door de bocht dus
B ) Dat valt nog te bezien, maar bij Google zal dat wel goed zitten
C) en dat vind je weinig? Ik vind dat veel..

[Reactie gewijzigd door calvinturbo op 26 juli 2024 01:15]

Met AI is het de vraag van hoe uitgebreid getest het is.

Maar AI zal consequent reageren. Niet geleid door frustratie en andere emoties. Ook geen haantjes testosteron gedrag. En zal dus niet door Rood rijden maar bij geel op correcte snelheid stoppen. Ook netjes stoppen bij stop board. En altijd bij zebrapad stoppen. En zeker geen voorrang nemen. Heeft ook geen haast.

Wij mensen zijn wel bewuster van de algehele context van de situatie. Zoals minimens met grijs haar is geen kind. Gezien het plaatje houden ze al rekening met Halloween.
a) AI, is door de mens gemaakt en blijft ook zo, hoop ikl
b} Google en beveiliging? Ik kijk eens naar de android.
c) Op 10 miljoen voortuigen is het weinig. Minder is idd wel beter. Maar denk niet dat de zelfrijdende auto dit gaat brengen. Te veel onzekere factoren in het openbaar.
a) maar de AI verbetert zichzelf door "eerdere ervaringen" en wordt steeds slimmer
b} Android is niet onveilig, het probleem ligt bij het niet updaten van toestellen. Kijk ook even naar Chrome OS en Google's cloud diensten. Heel erg goed beveiligd
c) We gaan het zien, ik denk het wel
a) Ik wil geen AI, die zich zelf verbeterd. Te groot risico voor ons, mislukte wezens de mens.
b) Dat zijn diensten die Google zelf in beheer heeft, auto's rijden rond en er zijn genoeg mensen die met het systeem gaan spelen.
c) idd
Maar wat zou je zelf doen in een soortgelijke situatie? Uiteindelijk zal bijna iedereen voor zichzelf kiezen en proberen op tijd te stoppen in combinatie met toeteren om de groep mensen te waarschuwen en moet je maar hopen dat die groep mensen net geen oordopjes in heeft..

Verder zijn kinderen geen zwaarder wegende factor voor de auto, de auto rijdt alleen voorzichter (=langzamer) als er kinderen in de buurt worden waargenomen, want onvoorspelbaar.. De reactie van de auto zal echter hetzelfde zijn als bij een volwassenen. Alleen bij een langzamere snelheid is de kans groter dat de auto op tijd kan stoppen mocht een probleem zich voor doen.

Wij, mensen, weten wel dat we voorzichtig moeten rijden in woonwijken en in de buurt van scholen, maar als we iets te laat van huis zijn gegaan, nemen de meeste het ietsje minder nauw met de regels. Hoeveel automobilisten geven niet extra gas bij het zien van een oranje licht ipv op de rem te trappen?

Maar het is goed dat tech giganten zoals Google en Apple zich bezig houden met zelf rijdende auto's, want daardoor kunnen de traditionele automerken (Telsa, Toyota (Lexus), VAG en Mercedes) niet achter blijven.

Ik zie het ook nog wel gebeuren over 10 jaar, dat auto's verplicht automatisch switchen naar automatische pilot bij plaatsen waar geritst moet worden en bij drukte (files) voor een optimale doorstroming wat uiteindelijk voor iedereen een positief iets is..
Kinderen zijn zwaarder wegende criteria voor diegene die de procedures set voor de autonome auto. Kinderen zijn een risico als zijnde weg deelnemers die makkelijk wat risico nemen. En dus een hogere mate van onvoorspelbaarheid. Wat zelf extremer is bij spelende kinderen.
Dat bepaald de auto niet maar de wetgever per land voor goedkeuring van rijvaardigheid voor autonome auto. Wat de auto ontwikkelaars dan moeten implementeren.

Dus afhankelijk wat veilig verkeer instanties per land bedenken en adviseren en wat goed keuring vereist voor rijvaardigheid bewijs voor groep auto's.

Wat de auto gaat doen wordt dus bepaald waar die instanties de voorkeur voor hebben. En die vele mogelijke situaties worden uiteraard getest eerst in software simulaties en deels op de weg.
Verder zijn kinderen geen zwaarder wegende factor voor de auto
Dat kan wel.
Het hangt van de programmeur(s) af.
Er is geen standaard; dus een programmeur kan best beslissen dat een kind wèl een zwaarder wegende factor is.
Beter vraag is waarom die zelfrijdende auto zo hard rijd dat er een kans op overlijden van de inzittenden is terwijl je in het gebied voetgangers kan verwachten...
In het verkeer rijdt je vaak op aannames; aannames dat anderen zich aan de regels houden. Als je veilig rijdt, neem enige marge in acht voor het geval iemand zich even niet aan de regels houdt, maar in redelijkheid. Een extreem geval is als je op de snelweg rijdt, en je ziet een auto op de vluchtstrook stil staan, dan laat je wellicht even je gas los uit veiligheidsredenen, maar je neemt niet aan dat die auto opeens vol gas van de vluchtstrook naar de linkerbaan van de snelweg koerst. Gebeurt zoiets toch, dan moet je opeens met je volle aandacht proberen een ongeval te voorkomen.

Op de praktijk zijn er tijdens het rijden tal van subtiele aannames, velen terecht. Ook een zelfrijdende auto zal op bepaalde aannames rijden, maar het noodzakelijk gevolg is dat zo'n auto een onverwachte situatie tegen kan komen en daarmee een ongeval zal moeten proberen te voorkomen, of de gevolgen tenminste te beperken.
In de praktijk wordt de rijstrook vaak afgesloten en/of kan de automatische auto hier zijn snelheid op aanpassen. Ten slotte is een stilstaande auto op de snelweg herkennen geen technische uitdaging, helemaal niet met goede machine2machine communicatie.
De auto zal op de langere termijn diverse online bronnen raadplegen om hierover een beslissing te kunnen nemen. Als bijvoorbeeld uit het EPD blijkt dat een kind ongeneeslijk ziek is, maar de bestuurder de CEO van een grote organisatie is, gezond is en werkgelegenheid verschaft, dan zal de computer aan de hand daarvan een beslissing nemen.

Menselijk gezien een compleet ongewenste keuze, maar evolutionair gezien de beste keuze. Jammer dat de opleiding filosofie tegenwoordig als "ongewenst" wordt gezien, terwijl filosofen juist wordt geleerd om dergelijke keuzes te bestuderen.

[Reactie gewijzigd door Trommelrem op 26 juli 2024 01:15]

En hoe weet die auto wie de bestuurder is en wie het kind is wat daar loopt? Gaan we chips inbrengen bij iedereen en geven we die auto en dus iedereen toegang tot alle databases van de overheid en inlichtingendiensten?
Sarcasm on:
Leuk, en dan? Eindelijk de mogelijkhejd om een ubermensch te creeren of hoe bedoel je dat.

Bepaalde groepen zullen de mogelijkheid wel waarderen maar ik betwijvel of we dat als maatschappij moeten willen.

Pil van drion wordt dan ook een alternatief namelijk.
Je kunt er op rekenen dat er speciale edities komen van de software die deze afwegingen maakt. Regeringsleiders zitten nu in gepantserde auto's. Kogelvrij glas. Stalen plaat als bodem.

Men zal dat geheim houden maar het zal blijken dat na een incident, waarbij een regeringsauto door de massa reed met doden en gewonden tot gevolg, de software was aangepast om de leider te beschermen. De oorzaak was dat iemand in de menigte bloemen gooide op de auto.

En net als met het Volkswagen debacle zal men de vraag stellen of alle regeringsauto's die speciale editie hebben. Men zal zich afvragen waarom de regering meent dat de politici belangrijker zijn dan de menigte.

Dan blijkt dat de AIVD op de hoogte was van die software en de regering ook want ze moeten wel weg kunnen komen als er een aanslag is.

Criminelen zullen die edities bemachtigen, net als ultra-rijken want 'ik ben toch niet gek, dat ik de kans op te sterven vanwege het domme kind/hond/paard van een ander dat de weg op rent?'
Minister van democratisch land kan dan meteen zijn job over dragen aan tijdelijke opvolger. Evil leiders zouden dat wel zo laten implementeren. Maar ik denk dat VIP liever een ervaren security driver met uitgebreide opleiding en ervaring achter stuur hebben.
Anoniem: 399807 @SG2 november 2015 21:23
Misschien eerst wel, maar uiteindelijk vertrouwt men op techniek. Zo vertrouwt Mark Rutte op de techniek van zijn auto, zijn GSM, zijn pc, zijn printer. Die kunnen allemaal stuk gaan. Mensen zullen uiteindelijk volkomen vertrouwen op het apparaat. Dat gaat toch met alles zo?
Waarschijnlijk is dit artikel precies wat je zoekt: "Why Self-Driving Cars Must be Programmed to Kill". Is ook een erg interessante paper over geschreven, maar dit artikel vat het dilemma wel erg goed samen naar mijn idee. :)
De inzittende(n) heeft/hebben airbags. De kans dat die een botsing overleven is groter. Bovendien suggereer je dat je in een stad rijdt, waar je al niet hardig kan/mag dan 30. Want je suggereert óók dat er groepen mensen over straat lopen, en die lopen niet over een snelweg. Dus de remweg van de auto zal niet zo groot zijn.

Bovendien zag die auto die menigte mensen al veel eerder dan jijzelf, dus verminderd de snelheid en wellicht stopt de auto al voordat die groep mensen de rijbaan op loopt.
Anoniem: 319464 1 november 2015 12:01
Toch vertrouw ik dat ding niet in de buurt van kinderen, meeste automobilisten uberhaupt ook niet haha. Hoe reageert dat ding op een voetbal die opeens de straat op rolt en waar een kind blindelings achteraan rent.

Men zegt wel dat de mens zo een traag reactiesysteem heeft, maar moet je eens kijken we schieten met straaljagers door de lucht. En tot niet zo lang geleden werden die volledig door een mens zelf bediend.

Ik denk dat ons brein best wel wat kan, uiteraard kan t wat. Want deze systemen worden notabene door mensen bedacht. Maar hoe wil die in Rusland zn werk gaan doen, daar ben ik vorig jaar geweest. Haha die wegen, zitten gaten in de weg zo groot en diep als autobanden. Noem maar een scenario.

Nee dit systeem heeft nog wel even nodig. In de luchtvaart werkt de autopiloot wel. Maar die hoeft dan ook geen rekening te houden met bijvoorbeeld spelende kinderen op de landingsbaan, of gaten zo groot als een autoband om maar iets te noemen.

En wie is er aansprakelijk als er wel wat fout gaat? De computer, tjah veel plezier met die in de cel neer te zetten. Google zal iig niet aansprakelijk zijn te stellen, zelfde als navigatiesystemen.
Vergelijking met een straaljager is een beetje scheef.

De aansprakelijkheid blijft inderdaad een probleem. Is het de software, of de bestuurder die in moet grijpen?
Op gebied van reactievermogen is er niks scheefs aan.
Wel wanneer je je bedenkt dat er veel strengere eisen en keuringen vooraf gaan aan een jarenlange training in tegenstelling tot de (naar verhouding) paar lessen om een auto te mogen rijden. Het reactievermogen van piloten ligt gemiddeld een flink stuk hoger dan dat van een automobilist en dat is ook nodig.
It cuts both ways.

Als de piloot strenger gekeurd wordt voor de parameters van een jet, dan schaalt wat nodig is voor het goed besturen van een auto mee terug met die eisen. Immers hoef je geen piloten keuring en training te ondergaan voor een auto.

Dus je kunt niet de piloten training en het benodigde reactievermogen omgekeerd als argument gebruiken.

Bovendien is de piloot misschien intenser getraind, maar hij is net als een autorijder een mens en heeft dezelfde type hersens.
Dat doet het niet (mag overigens gewoon in het Nederlands). Ik snap je punt dat met het mindere reactie vermogen van de auto ook minder training nodig is.

Echter;
Feit blijft dat het een zeer selectieve groep is en jij de hele mens in je argument mee neemt. Dus zelfde type hersenen? Ja, maar anders ontwikkeld.

Uit ervaring blijkt dat toch niet iedereen zo'n goed reactievermogen heeft in die auto.

We gaan hier nu wel ver van het onderwerp af.

[Reactie gewijzigd door EliteGhost op 26 juli 2024 01:15]

Spelende kinderen denk ik dat het systeem beter in is dan de mens. Als het kind over rend kan die auto in ms reageren terwijl een mens een seconde of meer nodig heeft om het door te krijgen en een reactie te bedenken voordat die pas remt.
Ik juist wel. Eerst de bal dan moet ik nog reageren. Maar een autonoom auto past zijn snelheid al aan. Kans dat mijn snelheid minstens de max snelheid is. Maar de zelfrijdende auto niet en gaat al langzamer en reed al tegen de max aan.
Kind duikt op indien er een obstakel was maar de auto reageert snel.

En zoals de rem afstand formule niet lineair is tov snelheid staat die veel sneller stil. Wat mischien de aanreidng verkomen wordt of de verwonding aanzienlijk beperkt.

Is het 30km zone dan staat die auto zo still. 30km is zo moeilijk om aan te houden voor heel veel mensen. Maar autonoom auto doet dat gewoon.
Anoniem: 703546 1 november 2015 11:14
Prachtige technologie. De Tesla S heeft nog best wat eigenaardig gedrag, ik denk dat Google al een heel stuk verder is. Misschien zal Tesla nog een inhaalslag maken, aangezien ze nu duizenden beta testers op de weg hebben die binnen een maand voor vele miljoenen test kilometers zullen zorgen.
Tesla beweert dan ook op geen enkel moment dat zijn systemen bij elkaar een zelfrijdende auto vormen. Wat de TeslaS doet is een uitbreiding op cruise control, niet meer en niet minder.
De beelden van 'eigenaardig gedrag' die je ziet van Tesla eigenaren, komen ook vrijwel altijd van B- of C-wegen met vreemde bochten e.d. Tesla heeft dan ook meer dan eens benadrukt dat het een publieke bèta is die je vooral alleen op de snelweg moet inzetten.

En rechtdoor rijden op de snelweg kunnen veel automerken al, evenals meegaan met de 'flow' door te remmen en gas bij te geven. Wisselen van baan, zoals de Tesla al wel kan, kunnen veel andere merken op dit moment dan weer niet. Wat dat betreft lopen ze dus weer voor.

Een auto zoals Google nu ontwikkeld is van een compleet andere categorie en is in de basis ontworpen om óveral zelfstandig te kunnen rijden, te parkeren, etc, etc. De AutoPilot in de Tesla is ontworpen om je het saaie snelwegwerk (zeker in de spits) uit handen te nemen.

[Reactie gewijzigd door Tralapo op 26 juli 2024 01:15]

Dus iemand in Minecraft cosplay (zie foto) moet Google auto herkennen als kinderen...

Wat zou men reageren als kind op hoge stokken loopt? Dan komt het overeen als volwassen, vanwege de hoogte. Het zal deels vooral in hoogte herkennen als algemeen regel.
Anoniem: 202103 @MrDummy1 november 2015 15:24
Dit is de eerste reactie waarin lengte als onderscheidend element wordt genoemd. Wilde gedachte: is in een toekomstige maatschappij met deze vorm van autonoom vervoer het een evolutionair voordeel om klein te zijn? :D
Mij lijkt dat als er conflict in herkenning is een mens van 4 meter bij twijfel voor save gaat. Dus past zijn snelheid aan.

Mensen er klopt iets niet zoals geen zicht bij mist plotseling, maar remmen ho maar.
Zelfrijdende auto's mogen dan beduidend minder vaak schuldig zijn aan een botsing, ze worden wel vaker geraakt (door bestuurders). Een mens denkt niet zoals een beperkt computerprogramma, maar zoals een mens. En verwacht van andere auto's ook dat daar bestuurders in zitten. Zelfrijdende auto's reageren anders dan mensen, dus worden ze vaker aangereden. Computerprogramma's zijn oneindig veel minder flexibel dan een mens.
Ik herken een slechte bestuurder beter dan dat een computer momenteel kan. Dus kan ik daar rekening mee houden, en een aanrijding voorkomen (ook als het de schuld van die ander zou zijn). Een computer kan dat niet. Dat is (deels) op te vangen door nog langzamer te rijden. Maar langzaam rijden doen ze nu al.
Mooi betoog dat eigenlijk kant noch wal raakt.

Eerst zeg je dat autonome auto's 'beperkter' zijn in de mogelijkheden rekening te houden met anderen en dat jij (generiek, mensen) daar superieur in bent/zijn. Maar daarna blijken die superieure wezens niet in staat te zijn te voorspellen wat een autonome auto gaat doen, terwijl dat gedrag juist erg simpel is.

Fact of life: de gemiddelde bestuurder rijdt slecht!
Hoeveel kinderen moeten er aangereden worden direct voor een school voordat er hekken, drempels, snelheidsaanpassingen, flitskasten of zelfs een complete herziening van de weg moet plaatsvinden, terwijl een autonome auto direct een veilige snelheid kan aanhouden. Ga maar eens een uurtje bij een school staan en je komt erachter dat potentieel een paar seconden vertraging al genoeg kan zijn om compleet idiote capriolen uit te halen.

En dan kom je direct bij het grootste gevaar van deze auto's, de gemiddelde bestuurder zal gaan proberen deze auto's in te halen (net zoals lesauto's, een L werkt als een rode lap) met alle risico's van dien terwijl de autonome auto juist een gevaarlijke situatie probeert te voorkomen, zal een geïrriteerde bestuurder erachter de situatie verergeren.

De hele verzekeringsdiscussie gaat dan ook nergens over, aangezien uiteindelijk een autonome auto ervoor zal zorgen dat de wegen weer ontdaan kunnen worden van allerlei 'obstakels', borden, stoplichten en zelfs parkeerplaatsen. Allemaal zaken die bestuurders dwingen om veilig te rijden, terwijl juist een open overzichtelijke weg veel veiliger is bij dezelfde snelheid.
Daar zit wel een waarheid in. Maar ik denk ook dat men dit zal interpreteren als mede grbruikers kunnen de regels aan de laars lappen.
Zoals het door rood rijden. Mensen traag van reactie trekken niet al te snel op een autonoom auto wel dus die pakt wel die net door rood rijder mee. Dus bij groen een weg rij vertraging en is dat ook op gelost. Alleen de extreem door rood rijder niet. Maar dat maakt dan ook niet meer uit of je autonoom of zelf rijd je bent de Sjaak.
Ik mag hopen dat de auto niet bestuurd word via het internet? Wil niet in een auto zitten dat gehackt word en dat de hacker mijn leven in handen heeft!
daar hoef je geen zelf-rijdende auto voor te hebben.
er zijn al auto's op de markt geweest die via een mobieltje te hacken waren, daarmee kon dan bijvoorbeeld van honderden kilometers ver je rem uit gezet worden.
die auto's hadden volgens mij niet eens een uitgebreidt "autopilot" systeem.
Ik ben benieuwd hoe de Google auto (of welk ander voertuig zonder stuur dus) zich zal gedragen bij vervuiling op de sensoren/camera's. Niet alleen dat je je auto vaak moet wassen maar wat wanneer de het voertuig onvoldoende zicht heeft gedurende de rit (wat ook op de snelweg kan voorkomen). En hoe gaat hij om met slecht zicht door weersomstandigheden? Wanneer ik zelf het stuur kan overnemen kan ik dit zelf nog bepalen en ingrijpen.

Maar goed, we zullen het vanzelf merken. Wellicht zal de overheid in de nabije toekomst zodra rijden zonder stuur echt een reëel alternatief zal blijken subsidies gaan geven en met bijtelling gaan klooien om e.e.a. aantrekkelijk te maken om over te stappen. Al vraag ik me af waar ze het begrotingstekort van de "misgelopen" inkomsten door boetes dan vandaan moeten halen :X
Dat is best een interessante vraag waar ik nog niet eerder over nagedacht heb! Dat zal ongetwijfeld tot een redelijk gat leiden.. mogelijk kan dat opgevuld worden door een afname van de kosten voor het repareren van wegdelen et cetera door verminderde ongelukken. Tevens zou gedacht kunnen worden aan hoge licentie kosten die jaarlijks betaald moeten worden door leveranciers dan wel door alsnog kilometerheffing in te stellen als tol.
Goed dat de auto leert kinderen te herkennen. Ze zouden deze auto's eigenlijk ook in drukke gebieden met veel chaos zoals Caïro en Bangladesh moeten programmeren met als doel om zo min mogelijk onnodige noodstops te ontwaken. Als ze daar succesvol zijn, is de rest van de wereld een eitje.
Ik denk het niet het is dan eerder een complex geval van Multi flocking en geen verkeer regels maar gewoon woelen in non verkeer.
Daar heb je hier in NL dus niks aan.

Een auto met internationale levering van naar dunbevolkte tot wereld steden. Zou die parameters en protocollen wel kennen ook al rij je er hier mee de mergelland route.
Kan je hem mee verschepen naar vakantie bestemming.
Misschien een rare vraag...
Maar waarom alleen in de buurt van kinderen?
Omdat kinderen speels zijn en vaker wel meer risico nemen en ongeduldiger zijn.
Of en om ethische redenen kinderen vrouwen eerst mentaliteit.

Op dit item kan niet meer gereageerd worden.