Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 126, views: 27.524 •

Automaker Cadillac is bezig met het testen van auto's die zichzelf kunnen besturen. Het bedrijf denkt de benodigde technologie, die het Super Cruise noemt, vanaf 2015 in te kunnen zetten op de openbare weg. Ook Google test autonome auto's.

Volgens Cadillac wordt veel van de benodigde technologie om auto's zelfstandig te laten rijden vanaf volgend jaar al gebruikt in nieuwe modellen. Met een zogenaamd Driver Assist Package krijgen bestuurders toegang tot verscheidene waarschuwingssystemen en sensoren, die onder andere detecteren wanneer de auto buiten de rijbaan belandt of wanneer gevaar voor een botsing dreigt. Hiervoor wordt onder meer gebruikgemaakt van camera's en gps-data.

De komende jaren gaat Cadillac, dat onderdeel is van General Motors, zijn Super Cruise-systeem met name testen op veiligheid. Er zijn al testritten gemaakt, al werden daar geen concrete resultaten van bekendgemaakt. De autofabrikant hoopt tevens met de technologie voor autonome auto's het verkeer veiliger te maken: veiligheidssystemen zouden een ongeluk al kunnen voorkomen nog voordat de bestuurder de situatie heeft kunnen inschatten.

Internetgigant Google doet al enige tijd testritten met autonome auto's. Onlangs maakte het bedrijf bekend dat er al 200.000 testmijlen zijn gereden zonder ongelukken. Google heeft in de Amerikaanse staten Californië en Nevada toestemming gekregen om met zijn testauto's de openbare weg op te gaan.

Cadillac Super Cruise Cadillac Super Cruise

Reacties (126)

Reactiefilter:-11260126+169+27+30
En als en een ongeluk gemaakt wordt met zo'n auto waar ligt dan de verantwoordelijkheid? Bij de bestuurder?
Maakt dat iets uit? Verzekering is verzekering.
Kijk eens aan, tegenwoordig zit zelfs onsterfelijkheid in de polis. _/-\o_
Kijk eens aan, tegenwoordig zit zelfs onsterfelijkheid in de polis.
Wat heeft de verantwoordelijk te maken met de sterfelijkheid van mensen?

[Reactie gewijzigd door Patriot op 22 april 2012 19:09]

Ja dat maakt uit, de verzekering zal die schuld wellicht naar Cadillac proberen af te schuiven. Als Cadillac schuldig wordt bevonden is dat erg slecht voor hun Imago.

[Reactie gewijzigd door klonic op 22 april 2012 12:24]

Hoe kan de schuld nu bij Cadillac liggen? Enkel de mens is in staat tot het maken van fouten(*) dus Cadillac zal er wel alles aan doen om te bewijzen dat het een menselijke fout was ;)


* sarcasme
Dat is ook zo, computers maken geen fouten. Die doen enkel wat hun is verteld dat ze moeten doen. En ze doen dat perfect.

Alleen zit er nog steeds een menselijke factor in. Iemand moet de computer namelijk zeggen wat hij moet doen (software) en dat is gewoon een persoon, welke een fout kan maken. Iemand moet de computer ontwerpen (elektronica), en dat is gewoon een persoon, welke een fout kan maken.

Nu zit de menselijke fout meestal bij de bestuurder. En is er 1 persoon in duizenden auto die iets mis kan doen. Als die menselijke fout bij de software ontwikkelaar zit, zijn er potentieel duizenden auto's die in de fout kunnen gaan.

Ja het risico komt minder vaak voor, omdat bij duizenden bestuurders de kans op fouten groter is, echter is de impact van die ene fout van die ontwikkelaar vele male groter.

Laatst zei iemand dat tegen 2025 er geen verkeersslachtoffers zullen zijn door al die beveiligingen. Ik zeg, die dag zal nooit komen.

@kevinwalter; heb je mijn verhaal wel verder als de eerste regel gelezen?

[Reactie gewijzigd door kluyze op 22 april 2012 14:11]

Rare conclusie dat computers geen fouten maken.
Computers zijn namelijk gemaakt door mensen.
Mensen maken fouten. Dus dan maken computers ook fouten? (Bugs oid)


ot:

Lijkt mij best wel fijn! Cruisen zonder ook maar iets te doen.
In het begin lijkt t me ook wel eng.
Dan maakt de computer toch geen fout. Deze voert gewoon zijn opdracht uit wat die opgedragen heeft gekregen.

Als jij naar rechts stuurt op een fiets en hij gaat naar links, heeft je fiets gewoon goed gehandeld alleen jij hebt de fout gemaakt. Je fietst luisterde perfect
Je begrijpt het punt niet helemaal volgens mij. Het boeit helemaal niet of een computer een fout kan maken, het gaat om het geheel. Als het systeem een foute beslissing maakt doet het er niet toe of dat een programmeerfout, een virus of een vastgelopen systeem is door thermische problemen: de fout wordt door Cadillac veroorzaakt, want zij hebben het systeem gemaakt zoals het is. De bestuurder is nml de computer van Cadillac, niet de eigenaar van de auto of wie er dan ook maar links voorin de auto zit :P
Neehoor, weet je nog vroeger?

Intel bracht een processor uit die alles verkeerd berekende!

Ook het probleem met die sandy-bridge processoren (Sata) was niet goed. Allemaal corrupte files etc!


Allemaal menselijke fouten. Denk maar niet dat een computer alles goed doet hoor.
Neehoor, weet je nog vroeger?

Intel bracht een processor uit die alles verkeerd berekende!

Ook het probleem met die sandy-bridge processoren (Sata) was niet goed. Allemaal corrupte files etc!


Allemaal menselijke fouten. Denk maar niet dat een computer alles goed doet hoor.
Je snapt het volgens mij niet helemaal. Een computer gedraagt zich gewoon zoals hij wordt ontworpen. Als hij foutief is ontworpen voldoet hij weliswaar niet aan de verwachting, maar hij maakt in feite geen fout.

[Reactie gewijzigd door Patriot op 22 april 2012 19:13]

geef de computer maar eens een powerdip of spike. Reken maar dat ie fouten maakt.
Hoe komt iedereen er bij dat dit alle ongelukken zal voorkomen. Het bericht meldt duidelijk dat het de bestuurder 'assists' oftewel helpt.
en dan is het 5 (of 15?) jaar later human assisted automatic driving, en dan zit er een fout in? wat dan nog, zou de mens niet in kunnen grijpen?

ik snap ook al die spookverhalen van hierboven niet, net alsof mensen nooit in de problemen raken, je hersenen zijn ook net computers en ja die crashen ook wel eens pas nog een 13 jarig jongetje die een bus veilig aan de kant moest zetten (buschauffeur een of ander infarct)... en dan hebben we het dus nog niet over dronkenschap, bellen achter het stuur en al die andere fouten die bewust of onbewust worden gemaakt.

FEIT: computers reageren sneller, en zouden dus in principe sneller en nauwkeuriger moeten kunnen reageren op gevaarlijke situaties,
FEIT: computers raken niet in paniek,

ik weet niet hoor maar afhankelijk van de programmeurs stap ik liever bij een computer in de auto dan bij sommige menselijke bestuurders... (slechtse bestuurder van nl anyone)
Natuurlijk maakt het iets uit. Als jou auto iemand doodrijd is dat misschien verzekeringswerk maar of je zelf dan zo blij moet zijn.

De vraag is hoe neemt de auto een beslissing en hoe verantwoord deze dat.

Als voorbeeld een auto komt op je afrijden je kan uitwijken maar daarbij schep je een fietser of voetganger of je gaat de botsing aan. Rij je de voetganger dood c.q beslist de auto dat dan heb je een probleem. misschien week de andere bestuurder op het laatste moment wel uit.

Dit soort systemen vindt ik zijn puur ter ondersteuning. De camera's gaan bij wegwerkzaamheden vaak de mist al in waarbij er witte en gele lijnen op de weg staan. Volg je de witte dan komt het niet goed. Zo zijn er heel veel andere voorbeelden.

Ik kan me wel voorstellen dat in amerika op de highway met tempo 100 het heel goed zou kunnen werken.
Natuurlijk maakt het iets uit. Als jou auto iemand doodrijd is dat misschien verzekeringswerk maar of je zelf dan zo blij moet zijn.

De vraag is hoe neemt de auto een beslissing en hoe verantwoord deze dat.

Als voorbeeld een auto komt op je afrijden je kan uitwijken maar daarbij schep je een fietser of voetganger of je gaat de botsing aan. Rij je de voetganger dood c.q beslist de auto dat dan heb je een probleem. misschien week de andere bestuurder op het laatste moment wel uit.
In die situatie maakt het toch niet uit of een computer of een mens achter het stuur zit? Het beantwoordt in ieder geval de vraag hoe de auto de beslissingen neemt en verantwoordt niet.
Dit soort systemen vindt ik zijn puur ter ondersteuning. De camera's gaan bij wegwerkzaamheden vaak de mist al in waarbij er witte en gele lijnen op de weg staan. Volg je de witte dan komt het niet goed. Zo zijn er heel veel andere voorbeelden.
Kun je dit onderbouwen, of ben je hier maar wat aan het blaten? Het is misschien een leuk onderbuikgevoel, dat die dingen daar geen onderscheid in kunnen maken, maar is het ook waar? Verder is 'heel veel andere voorbeelden' en beetje een dooddoener, nietwaar, zeker als je maar één voorbeeld hebt genoemd (en die niet eens hebt onderbouwd).
Maakt dat iets uit? Verzekering is verzekering.
Ga je die verzekering ook in de gevangenis zetten dan?
Als die auto ineens een andere auto van de snelweg af duwt speelt er meer dan alleen materiele schade.
[...]

Ga je die verzekering ook in de gevangenis zetten dan?
Als die auto ineens een andere auto van de snelweg af duwt speelt er meer dan alleen materiele schade.
Wat speelt er dan nog meer? Als er nu door mechanisch falen een ongeluk ontstaat dan is het toch ook niet ineens dood door schuld van de bestuurder? Hooguit als die persoon had kunnen verwachten dat er een probleem zou zijn ontstaan met dergelijke gevolgen.

Als zo'n autonoom systeem gedurende lange tijd succesvol is getest, en tegen die tijd ook gewoon goedkeuring heeft om de weg op te mogen, dan wordt de bestuurder echt niet aansprakelijk gehouden voor eventuele fouten van dat ding. Dan mag je gewoon verwachten dat het goed werkt, en daar houdt iedereen rekening mee.
Volgens mij wel,want als bestuurder ben je toch wel verantwoordelijk voor het verkeer,en dus ook als je een ongeluk maakt?
Of zit ik ergens verkeerd?
Maar dat is juist het punt, wie is de bestuurder bij een autonome auto. Je moet dus te alle tijden goed blijven opletten. En dat is lastig als je niets hoeft te doen. Mag je in een autonome auto dan wel bellen?
Een pilot is en blijft volgens mij ook verantwoordelijk ook al staat het vliegtuig op de automatisch piloot.
De auto is het eigendom van de bestuurder, eventuele ongelukken welke hierdoor ontstaan komen voor de risicoaansprakelijkheid van de bestuurder. Er is sprake van een kwalitatieve aansprakelijkheid. Omdat de eigenaar een bepaalde 'kwaliteit' heeft, namelijk het eigendom van de zaak, is hij aansprakelijk voor deze. Dit geldt bijvoorbeeld ook voor houders van huisdieren welke aansprakelijk zijn voor hun dier, ouders welke aansprakelijk zijn voor de handelingen van hun kinderen en een werkgever die tot op zekere hoogte het risico van zijn werknemers draagt.

In beginsel zul je dus als eigenaar van de auto aansprakelijk zijn voor eventuele schade. Vervolgens kun je als eigenaar van de auto de schade proberen te verhalen op Cadillac.
Toch is dit niet zo makkelijk als jij het hier verteld. In de USA zijn hier al veel discussies over gevoerd. Door de zgn "sue-cultuur" waarin iedereen elkaar maar voor alles aansprakelijk stelt is dat daar een stuk lastiger.

Er zijn ook al aardige artikelen over geschreven, zoals dit artikel in Wired waarin heel duidelijk de mogelijke rechten-issues met autonomous vehicles worden toegelicht. Technologie ligt hier (net als in veel andere gebieden zoals auteursrechtenbescherming), flink voor op de wet & regelgeving. En zolang dat niet goed afgedekt kan worden zullen veel automakers dit soort systemen alleen nog in hun eigen proeftuinen houden of zelfs inperken om te zorgen dat de bestuurder verantwoordelijk blijft.
Imagine another scenario: What if a driver in a car that uses lane markings to maintain its position goes off the road on a section where the markings have worn away? Is the local department of transportation at fault? Or the manufacturer of the road striping paint whose product didn’t last as long as promised? Or the automaker for not having a more robust backup system? Or the driver for failing to maintain the necessary vigilance? As der Heijden and van Wees write, “under fault-liability regimes drivers and vehicle owners will not be liable if they acted as a careful person.” But what’s the definition of a careful person in an autonomous vehicle? How could we prove ex post facto they were monitoring the car’s performance and not simply daydreaming?
(Zijn overigens NL onderzoekers die hier gequote worden in het artikel)
Volgens mij is de eigenaar aansprakelijk: je bent verzekerd als met jouw toestemming iemand van je auto gebruik maakt.
En vervolgens klaag je de autofabrikant aan omdat ie een ondeugdelijke product heeft geleverd: oud vrouwtje aangereden ... ;)
How could we prove ex post facto they were monitoring the car’s performance and not simply daydreaming?
Steeds meer auto's (en zeker degene die autonoom kunnen rijden, lijkt mij) hebben systemen die de bestuurder in de gaten houden. Aangezien die systemen er door de fabrikant ingestopt worden (de partij die er alle baat bij heeft om de schuld bij de bestuurder te kunnen leggen!) neem ik aan dat die de "driver awareness data" van de laatste x minuten cyclisch loggen (net zoals de voice en data recorders van vliegtuigen de laatste x minuten van een vlucht loggen).

Dan is de vraag alleen, zelfs als mensen weten dat ze persoonlijk verantwoordelijk zijn voor ongevallen als ze zitten te slapen, kunnen ze dan toch hun aandacht de hele rit bij het verkeer houden. En, vooral, kunnen ze dat nog als ze al jaren in een autonome auto hebben gereden en in al die tijd nooit het stuur hebben hoeven aanraken...?
Dus als je vergeet je handrem aan te zetten en je auto rijd alleen een helling af en knalt tegen een andere denk je dat JIJ niet aansprakelijk bent omdat je er niet inzat?

Dit veranderd niks, dit is niks meer dan veredelde cruise control die je ook toelaat je wagen zonder enige handeling van jou verder te laten rijden .
volgens mij mis je wel het een en ander in je denkweize... het is namelijk maar de vraag of je nog wel mag verwachten dat iemand in een autonome auto rijvaardig is ...

of ben ik soms ook verantwoordelijk als de trein waar ik in zit ergens tegen aan rijdt? toevallig omdat ik een mens ben en dus potentieel de kabine in had kunnen strormen en de trein had kunnen doen stoppen...? ik ben volgens jouw logica dus op zijn minst nalatig geweest... ook al ben ik niet eens machinist of heb ik ooit de binnekant van een loco gezien... GOED punt... helder ook, maar erg realitisch nee..
Dat is helemaal niet de vraag, jij verzint erbij dat een bestuurder van een autonome auto niet rijvaardig hoeft te zijn. De vraag is of de bestuurder aansprakelijk is bij een ongeluk in een autonome auto, het antwoord is ja.
Wat jij je afvraagt is of de passagier aansprakelijk is bij een ongeluk met een autonome auto, het antwoord is nee.
Wat je je zou moeten afvragen is of een autonome auto zonder bestuurder zou kunnen/mogen rijden en wie er dan aansprakelijk is. Ik denk dat dit voorlopig niet zal kunnen/mogen en dus is altijd de bestuurder aansprakelijk.
Ik denk dat zeker in het begin gewoon de eigenaar aansprakelijk blijft, maar als dit heel erg populair word er wellicht andere regels komen.
Ik denk dat het helemaal aan de situatie ligt, als er een ongeluk is ontstaan door een software fout dan kan de "bestuurder" nooit aansprakelijk worden gesteld als het dat niet had kunnen voorkomen. De fabrikant is dan aansprakelijk, waarschijnlijk hebben ze daar ook een verzekering voor om zulke schades te dekken.

Ik vermoed dat Google ook eerst een verzekering heeft moeten regelen voor softwarefouten voordat ze in die 2 staten de openbare weg op mochten.

Bij vliegtuigen is dat hetzelfde, een piloot is niet aansprakelijk als de besturing hapert (denk aan de fouten met boing laatst) de piloot was echter wel deels aansprakelijk omdat deze zelf de fout had kunnen constateren omdat verschillende meters tegenstrijdigheden aanwezen (daar hebben ze immers een opleiding voor).

Ik kan me niet voorstellen dat je voor zo'n auto een complete opleiding moet hebben gevolgd om alle fouten te kunnen constateren.
Die opleiding heet 'rijles' en het diploma wat je krijgt heet 'rijbewijs'.

Tijdens je rijles leer je zelf uitkijken, waarschuwingslampjes serieus te nemen en adequaat te reageren op de signalen uit de omgeving en van de auto. Dat 80% van de automobilisten dat niet lijkt te doen wil niet zeggen dat ze dat ook niet hoeven te doen...
tot je op een punt komt waarbij autonoom rijden een equivilent wordt voor het huidige openbaar vervoer, "call a taxi, get a robotcar "
Lijkt me stug dat Google een verzekering heeft moeten regelen, alleen een document ondertekenen dat ze de schade betalen (google zit op een berg geld hoger dan de gemiddelde verzekeringsmaatschappij)
Ach zie het zo,
autonoom voertuig gereed in 2015.
Nederlandse wetgeving voor toelating, gereed in 2019..
De verantwoordelijkheid ligt sowieso altijd bij de bestuurder. In wat voor omstandigheden dan ook zul je altijd oplettend moeten blijven in een auto.
Wat is dan het voordeel van dit systeem?
Stel je hebt een drukke dag gehad en je bent passief aanwezig achter het stuur, dan kunnen er gevaarlijke situaties ontstaan. Enige hulp met reactievermogen zou vast en zeker ongelukken kunnen voorkomen. Ik zie persoonlijk wel wat in dit systeem en ik denk dat het kan bijdragen.

Over de verantwoordelijkheid is het eenvoudig. De wet geeft aan dat degene die achter het stuur zit, verantwoordelijk is voor alle inzittende en voor de eventuele schade die het aanricht. Kortom, het maakt in principe niet uit, want je blijft achter het stuur zitten. Het is net als een automatisch licht op de fiets: die gaat aan als het donker is, maar als hij niet aangaat, ben jij alsnog verantwoordelijk en niet die lamp.
Stel je hebt een drukke dag gehad en je bent passief aanwezig achter het stuur, dan kunnen er gevaarlijke situaties ontstaan. Enige hulp met reactievermogen zou vast en zeker ongelukken kunnen voorkomen. Ik zie persoonlijk wel wat in dit systeem en ik denk dat het kan bijdragen.
Tja, gewoon niet achter het stuur kruipen als je oververmoeid bent? Er schuilt namelijk ook een groot gevaar in dit soort systemen en dat is de bestuurder zelf. Die gaat teveel vertrouwen op al zijn hulpmiddeltjes en is dus sowieso sneller afgeleid in de auto... want als je van de baan raakt krijg je een waarschuwing en remmen en afstand houden doet de cruisecontrol ook al automatisch. Ik ben voorstander van systemen die een bestuurder alert houden, maar ik ben een absolute tegenstander van systemen die belangrijke taken van de bestuurder proberen over te nemen... zoiets als simpelweg opletten.

En daar zijn al praktijkvoorbeelden genoeg van; geen bestuurder die vaker zijn achterbumper kapot rijdt dan een bestuurder met zo'n 'handig' piepje die verteld hoever je nog kan gaan... gewoon blind achteruit en wachten op de piepjes, laten die dingen nou ook eens wat over het hoofd zien.
Ik denk dat dat een tijdelijk probleem is.

Enerzijds ontbreekt het veel mensen de kennis om goed met de piepjes om te gaan. De auto verkoper deed het allemaal zo mooi voorkomen en tijdens de rijles is het niet aan bod gekomen. Vervolgens vertrouwd men teveel op het piepje.

Daarnaast is het piepjes systeem alweer achterhaald. De betere auto's tegenwoordig hebben een videobeeld met hulplijnen. Dit is alweer een stuk eenvoudiger te interpreteren dan die piepjes. Ongetwijfeld zal het systeem nog verder evolueren.
Ik vind dat een stomme redenatie... Je verteld dus in jou reactie dat je niet moet vertrouwen op techniek omdat dit jou als persoon laks maakt? Als iedereen zo zou redeneren dan leefden we nu nog in de steentijd. Waarom zou je immers een telrek willen als er een computer is?

Dagelijks vertrouwen miljoenen mensen op techniek welke cruciaal zijn voor allerhande taken en leven instandhouding. Dit maakt de personen niet laks welke hier op vertrouwen, maar deze kunnen dan hun energie in andere dingen steken. Zo gaat het altijd met technische ontwikkelingen; er zijn altijd nieuwe dingen die voortkomen uit dingen waarin je dan je energie kan steken.

[Reactie gewijzigd door Fjerpje op 22 april 2012 14:58]

Volgens mij ligt de verantwoordelijkheid letterlijk bij de bestuurder en taalkundig gezien is dat een striktere definitie dan degene die achter het stuur zit. Een bestuurder bestuurt namelijk (behalve als het Geert Wilders is) en bij een autonome auto is dat de autonome installatie.

En:
au·to·noom bn, bw zelfstandig, onafhankelijk: -nomen benaming voor verschillende anarchistisch getinte groeperingen van vnl. jongeren

Dat is dus zonder input van iemand die op de bestuurdersstoel zit. Zo bezien kan je bij een ongeluk veroorzaakt door jouw autonome auto de fabrikant aansprakelijk stellen.
Ik denk dat dat nog een hele kluif gaat worden. Bij een lesauto is het bij mijn weten ook zo dat als je die tegen een stadsbus parkeert, de instructeur juridisch gezien bestuurder is, en niet de leerling. Ik denk dat je bij autonome auto's een soortgelijke constructie zult gaan zien - de auto mag dan fysiek bestuurder zijn, maar jij bent er uiteindelijk toch nog zelf verantwoordelijk voor dat dat ding niet ineens Carmageddon gaat spelen.
Ik denk dat in principe het "autonoom rijden" in twee manieren uitgevoerd kan worden.

Zoals aangegeven in dit artikel, "Assisted Driver package," aldus sensoren en dergelijke die waarschuwingen geven en eventueel helpen met het voorkomen van botsingen zal de eerste optie zijn waarbij de bestuurder in principe altijd nog zelf bepaalde handelingen moet uitvoeren, zoals wellicht het sturen van de auto of indrukken van gaspedaal.

Ik geloof dat het echte autonome rijden pas ingezet kan worden als meteen alle auto's die op de openbare weg voorkomen, "Autonoom-Ready" zijn. Dan zijn we al weer een jaar of 10 verder lijkt mij.

Ps.: Vraag me wel af of er dan ook autonome motor's komen, en hoe reageren deze auto's met situaties die niet voor te programmeren zijn, zoals een hond die plotseling de weg op rent of fietsers die niet opletten bij het passeren over de weg dwars over haaientanden heen aan hun kant?

[Reactie gewijzigd door Arcticwolfx op 22 april 2012 11:51]

Je moet natuurlijk niet specifiek op een hond programmeren. "Gewoon" programmeren op alles dat de uitgezette koers van de auto bedreigt moet voldoende zijn. Enige kritieke punt is dat de computer alle mogelijke scenarios correct en accuraat moet beoordelen: uitwijken naar de andere rijbaan is bij voorbeeld geen optie als daar al iets rijdt.

Ik denk dat het ook een illusie is dat ongelukken niet meer voorkomen met autonome auto's. Als er geen uitwijkmogelijkheid is dan is deze er ook echt niet, zelfs niet met een autonome computer.
Als het systeem veiliger dan een mens aan het stuur zetten (wat zeker niet onwaarschijnlijk is). Dan is het autonoom laten rijden van je auto misschien juist verantwoordelijk gedrag.

Dat je zelf altijd op moet letten is niet per se waar. Het gaat erom dat jij verantwoordelijk bent, en dus zorgt dat je veilige software en hardware gebruikt. Uiteraard kan niet verwacht worden dat als een fabrikant zegt een veilige autonome auto te hebben, dat jij opdraait voor een ongeluk die door een bug in de software komt.
Maar als je ziet dat de laatste tijd, onder invloed van de economische situatie, men zijn auto steeds later en slechter onderhoudt, kan het net zo goed een sensortje zijn dat vuil geworden is en niet goed meer functioneert. Of er is ergens stof in gekomen omdat je met de auto op een iets minder ideale weg rijdt dan de snelweg, schone stadsweg of testtrack van de fabrikant.

Er zijn erg veel factoren van invloed op het gedrag van het systeem, fouten hoeven niet direct door een bug in de software te komen, maar ze kunnen ook door foute input van een sensor komen, wat ook een miljoen oorzaken kan hebben, die buiten bereik van de fabrikant liggen.

En wiens probleem is dat dan? Mijns inziens kun je iemand niet verantwoordelijk stellen voor iets waar hij geen invloed op kan hebben.
De eigenaar naar aller waarschijnlijkheid. De eigenaar kan de bestuurder en de fabrikant weer aansprakelijk stellen maar in eerste instantie de eigenaar van het voertuig denk ik.
http://925.nl/archief/201...gaat-autorijden-verbieden

Het is dus de bestuurder die de schuld krijgt. Niet het programma.
Ja ik denk dat we alles kunnen geloven wat dit artikel voorspiegelt.
De testpiloot zal toch maar goed moeten oppassen, ik zie op die 2e foto duidelijk 'AIRBAG REMOVED' op het dashboard :p

Eigenlijk is dit een evolutie van het automatische remmen en het monitoren van de wegmarkeringen van Volvo. Deze Cadillac zet dezelfde info om naar een gemotoriseerd stuur et voila.
Het hele idee van deze auto's is dat de auto voorkomt dat er een ongeluk gemaakt wordt. Dus als iedereen een autonome auto zal hebben zullen er enkel nog ongelukken kunnen zijn met fietsers die ineens voor een auto schieten En zelfs dán kan de auto nog sneller reageren dan een menselijke bestuurder ooit heeft gekund.
er van uit gaande dat je nog steeds in bezit van rijbewijs zult moeten zijn voor de wet zal de verantwoording ook bij de bestuurder liggen.
Dit zal hetzelfde afgehandeld worden als vliegtuig ongelukken (die vliegen ook bijna helemaal automatisch) verwacht ik. Na een onderzoek kan het probleem bijvoorbeeld in onderhoud (schuld bestuurder) of software (fabrikant) liggen. Net zoals die auto's waar het electronische gaspedaal bleef 'steken' zal er nog wel wat gezeur over zijn.
Zo'n saaie vraag. Die stellen ze al toen de eerste auto met parkeercensoren uitkwam: wat als het onjuiste info weergeeft en je botst toch. Of automatische inparkeren zoals de pasat al een tijd kan.
Ligt de fout bij de fabrikant dan betalen hun. Ligt de fout niet bij de fabrikant dan ligt die bij jezelf of de tegenrijder.. Zo simpel is dat en zo word dat via verzekeringen geregelt.

Ik neem dus aan dat je vraag sarcasme was of je had geen zin om zelf na te denken?

Oja edit: de pasat is een voorbeeld voordat jullie met een vw flame beginnen. Mercedes, lancia en etc hebben dat ook allemaal in bepaalde uitvoeringen.

Ik heb wel een leuker vraagje, ik weet niet of die al beantwoord is: heb je dan nog een rijbewijs nodig wanneer de auto geen menselijke bestuurder nosig heeft?

[Reactie gewijzigd door JeroenC op 22 april 2012 21:17]

Bij de menselijke bestuurder van de andere auto.
Bij Cadillac, mits het een fout in hun software was. Als er een ongeluk gebeurt is wanneer manuele sturing aanstond dan ligt te verantwoordelijkheid bij de bestuurder.
Dat Driver Assist Package klinkt erg bekend.... Volgens mij is er al zoiets op de markt?
Edit: bij meerdere autos inderdaad al verkrijgbaar als optie, zoals bij deze: http://www.automobilemag....ass/packages_options.html

"Hiervoor wordt onder meer gebruikgemaakt van camera's en gps-data. '
Ik wist niet dat gps-data nauwkeurig genoeg is om dat ook te gebruiken, of zouden ze die data gebruiken om komende afslagen te detecteren, dus jouw veranderen van rijbaan goed te keuren?

[Reactie gewijzigd door ADQ op 22 april 2012 10:38]

GPS is om dit ogenblik nog niet nauwkeurig omdat we nog altijd het systeem van het Amerikaanse leger gebruiken.

Vanaf het ogenblik dat we het systeem Galileo gaan gebruiken/overschakelen, dan is het dit wel zeer nauwkeurig. Je zal met Galileo bijvoorbeeld kunnen zien op welk baanvak je rijdt. Dat kan met GPS niet.

edit: vanaf 2014 zal Galileo werkbaar zijn met genoeg satellieten.

[Reactie gewijzigd door bert170881 op 22 april 2012 10:51]

"air bag removed"

Zouden ze daar extra electronica in hebben zitten ofzo?
Misschien wil de testrijder niet om elke hoek waarin het fout gaat en de auto met matige snelheid crasht elke keer een airbag in z'n gezicht? ;)

En ja, ik begrijp dat de gevolgen van het niet hebben van een airbag ook rot kunnen zijn ;)
Dat was ook het eerste dat me opviel. Ik dacht juist dat ze zo overtuigd waren dat de auto geen fouten zou maken, dat 'ie ook geen botsing meer kon krijgen. :+
Afgezien van dat het technisch onmogelijk is om een autonome auto te ontwikkelen, daar zijn menselijke eigenschappen als 'world knowledge' en common sense voor nodig, kopen consumenten merken als BMW, Mercedes, AUDI of Cadillac om de rijeigenschappen en niet om passief in mee te rijden. Dit gaat niks worden.
Als iedereen zou denken zoals jij zouden we nooit op de maan zijn geland.

Ooit riepen we ook dat het technisch onmogelijk was om treinen sneller dan 50KM/u te laten rijden.
Mensen die de echt dure Audi's of Mercedes Benz'en kopen hebben een chauffeur. Degene die geen chauffeur hebben kopen die auto's voor het comfort. Die willen geen rijwind, harde vering waarmee je elk hobbeltje voelt of dat soort ongein. Die willen luxe en gemak.
Dit is dan ook het begin van het einde van de auto in eigendom. Je roept gewoon een wagen op via je smartphone, voor 1 , 2 of meerdere passagiers. Die wagen staat enkele kilometers verder geparkeerd en pikt je binnen de 3 minuten op. Via het centraal verkeers systeem word er dan een route gepland en wordt je afgezet voor de deur van waar je zijn moet. Autos gaan zelf naar de carwash en de garage. Filles bestaan niet meer en parkeren is ook niet meer nodig. Waarom zou je dan nog in hemelsnaam zelf zo'n ding willen bezitten. Dit is zoals carsharing nu , enkel op grotere schaal en zonder dat je steeds aan elkaar door moet geven waar de wagens zijn.
Zoals je zegt: dit is het begin daarom wilt iedereennhet kopen..

Je beantwoord je eigen vraag met je eerste zin hahaha
Veel mensen willen hun auto toch graag personaliseren, en willen ook gewoon kunnen doen wat ze willen met hun auto.

Waarschijnlijk hebben niet veel mensen zin om continu zuinig te zijn met hun auto omdat hij nog door moet naar de volgende eigenaar... daarom zullen heel veel mensen echt nog wel hun eigen auto komen, en zullen shared autonome auto's gewoon als autonome taxi's dienen.
Want world knowledge en common sense kunnen natuurlijk wel door menselijke hersenen gemanifesteerd worden, maar niet door een ander neuraal netwerk. Zoiets? :{
Die vraag is juist één van de grootste struikelblokken voor deze technologie. Ik zou mijzelf zonder problemen laten rijden door een geautomatiseerde auto maar om 2 redenen zal het nog heel lang duren voordat dat gemeengoed is:
- Mensen vinden het eng, moeten de controle weggeven (ook al is het aantoonbaar veiliger)
- Wie krijgt de schuld bij een ongeluk?
Een volledig autonome wagen komt er niet in de eerste 20 jaar.

Ooit al eens in België gereden? In van die dorpjes waar je zelf niet weet of het nu een rotonde moet voorstellen of een kruispunt dat raar is aangelegd. Of waar je drie rijvakken ziet en niet weet of je rechts of in het midden moet rijden (het was dus het midden)?
Banen zonder wegmarkering. Banen zo smal dat als je een tegenligger tegenkomt, je 100 meter in achteruit moet rijden om ergens veilig naast de rijbaan te kunnen staan om de andere door te laten?
En verder: een van de belangrijkste 'verkeersregels' is oogcontact.
Een voetganger die staat te wachten en oogcontact maakt wil oversteken, terwijl een voetganger die staat te keuvelen met zijn vrienden niet wil oversteken, maar daar gewoon staat. Een fietser die zijn hand uitsteekt wil aanduiden dat hij wil oversteken. De fieters kijkt even achteruit, maakt oogcontact met de autobestuurder, hoort en ziet dat de auto hem eerst wil laten oversteken en steekt over. Een oude dame steekt gewoon over met de fiets, maar als autobestuurder zie je aan de manier waarop ze zigzaggend rijdt, dat dit een gevaar is dat je best voorzichtig benadert.

Verkeersregels zijn misschien wel wiskundig en logisch uit te leggen, maar het gedrag van mensen niet. En daarom komt er nooit een volledig autonome auto zolang er geen échte AI (en dat duurt nog 'eeuwen') is. Tenzij voor afgesloten projecten zoals op de autostrade waar dan ook iedereen met een autonoom voertuig rijdt.

Een bal vliegt over de straat. De computer in je auto gaat het verschil niet zien tussen een vogel, een hond, een kat of een bal. Wat betekent een bal: spelende kinderen. Wat doet een mens: vertragen. Wat doet een computer: niks, want het voorwerp dat over straat ging is intussen weg. De computer zal geen link maken zoals wij dat doen. Natuurlijk valt zoiets te programmeren, maar dan moet je dat voor alles programmeren en dat is onbegonnen werk.

Ken je ook de Belgische (Nederlandse?) politiek?
1 persoon koopt een jachtgeweer en schiet een aantal mensen neer. Gevolg: een wet die de vrije verkoop van jachtgeweren verbiedt. 't Is maar een voorbeeld. Maar stel je voor dat er een aantal doden vallen door zo'n auto. Direct staat het land op z'n kop en wordt zo'n wagen verboden. Trouwens kan ik me niet inbeelden dat zoiets in Amerika zal gebeuren. Daar zullen de autoconstructeurs failliet gaan na een eerste rechtzaak?

Wat ze natuurlijk wel mogen (en moeten doen) is het uitrusten van elke vrachtwagen en auto met een radarsysteem dat altijd een correcte stopafstand aanhoudt tegen de voorligger. Dat zou al veel ongevallen vermijden. Trouwens zou een computer ook dronken rijden kunnen detecteren: teveel zigzag: dronken: wagen parkeert zich en weigert nog te starten. Enz.

[Reactie gewijzigd door Randmr op 22 april 2012 10:57]

Waarom is er toch altijd de eis dat een autonome auto perfect moet zijn? En dezelfde eis wordt eigenlijk bij alle autonome systemen gesteld. Zon autonome auto zal inderdaad zeer waarschijnlijk soms de fout in gaan waarbij een mens niet de fout in was gegaan. Als daarbij doden te betreuren zijn, is dat natuurlijk niet leuk.

Maar een mens is ook niet perfect. Als een door een mens bestuurde auto gemiddelde x doden per 1M km veroorzaakt, en een autonome auto de helft daarvan, dan moeten we nog steeds geen autonome autos gebruiken omdat hij in sommige situaties minder goed is dan een mens?
Je leest zijn argumenten toch wel? Dit systeem kan alleen werken op de snelwegen omdat die overzichtelijk zijn. Dat helpt de doorstroming mits iedereen t heeft... De doorstroming wordt geholpen door afstand houden en constante snelheid...

Sterker... staat in het originele bericht:
"it calls “Super Cruise” that is capable of fully automatic steering, braking and lane-centering in highway driving under certain optimal conditions. "
Ik heb zijn argumenten gelezen ja, en dat is vooral dat het op geen enkele manier ook maar ietsjes minder dan een menselijke bestuurder mag zijn.

Ook is er geen enkele reden om aan te nemen dat een autonome auto enkel op snelwegen kan rijden, google laat toch duidelijk zien dat dat onzin is.

Dat ze het beste daar zullen opereren is duidelijk, en dat eerste commerciele systemen enkel daar werken is ook niet vreemd. Maar het is gewoon onzinnig om alvast vast te stellen dat het niet buiten een snelweg kan werken...
Het gevaar zou wel eens kunnen schuilen in de communicatie (PR, Marketing, Sales) van een autobedrijf die een 'autonome' auto op de markt introduceert.
Stel je jezelf al eens de reclame voor, de stunts op de autobeurs,.. Er zal niet veel voor nodig zijn dat velen onder ons overtuigd zullen worden van de 'autonomiteit' van deze auto's. Al dan niet bewust zal die gedachte meewegen terwijl je met die auto rijdt. Als je weet dat die auto op zich kan rijden, waarom zou je dan nog opletten? Daarbij, aangezien het risico op falen heel laag zal zijn - anders zouden deze auto's niet op de markt mogen - zal men dit risico ook al vlug van de kaart vegen met een reactie van "och, maar de kans dat dat gebeurt is quasi onbestaande...".

Het is menselijk van zo min mogelijk te willen denken voor alledaagse taken. Het is net daarom dat de mens zoveel gereedschappen maakt om zijn alledaags leven gemakkelijker te maken, zodat men zich meer kan focussen op activiteiten die niet essentieel zijn om te overleven (= cultuur, hobbies, sociale activitieiten,...).

De technologie mag zo geavanceerd zijn als ze wil, zolang de mens er iets mee te maken heeft - zowel bij ontwerp als gebruik - zal de zwakste schakel ook de mens blijven. Geen technology is fool-proof. Behalve als er misschien een alwetend niet-menselijk wezen onze technologie begon te maken... dan misschien is het fool-proof voor mensen... mischien.. ;)

Kortom. Ja, als een autonome auto minder doden per kilometer veroorzaakt, is het dom hier niet voor te kiezen. Niettemin, moet men er bewust van blijven dat de mens de zwakste schakel blijft, hoe goed ook de technologie lijkt te zijn.
Waarom is er toch altijd de eis dat een autonome auto perfect moet zijn?
Ga jij euro 20.000,- neertellen voor een auto die zichzelf aan barrels rijdt?
Om vervolgens de verzekering te mogen uitleggen dat je nooit gelijktijdig "iets anders doet" tijdens het autorijden, maar "toevallig" vandaag, deze ene minuut wel?
Want verzekeringen zullen zich er echt wel onderuit proberen te draaien.

Precies, daarom moet ie perfect zijn, schat ik in, wil ie verkoopbaar zijn.

[Reactie gewijzigd door Xubby op 22 april 2012 11:48]

Waarom zou ik het niet doen als het nog steeds een kleinere kans is dan dat ik hem zelf aan barrels rij?
Echt intelligenter dan mensen en beter in het inschatten van situaties zullen robots de komende tijd inderdaad wel niet worden. Echter, robots hebben een heel groot voordeel, ze zijn een stuk sneller. Een autonome auto hoeft niet eerst na te denken of er ingegrepen moet worden, zijn voet van het gaspedaal te halen en dan het rempedaal in te drukken. Hier gaat kostbare tijd verloren.

Op het moment dat het algoritme van de besturing bepaalt dat er een noodstop gemaakt moet worden kan de auto binnen .001 seconden maximaal gaan remmen. Bovendien zijn er mogelijkheden deze acties te communiceren naar autonome weggebruikers in de omgeving, zodat deze hier ook op kunnen anticiperen. Dus zelfs als autonome auto's minder goed de situatie in kunnen schatten, wil dat nog niet zeggen dat ze meteen ook minder veilig zijn. Andere verkeersdeelnemers leren waarschijnlijk ook hoe ze om moeten gaan met autonome auto's zodat ze opgemgemerkt worden als dat nodig is. Zoals de fietser nu eerst oogcontact maakt en zijn hand uitsteekt heeft hij straks misschien wel een knopje op zijn fiets dat een signaaltje uitstuurt dat hij af gaat slaan.

Zeker op de snelweg zouden autonome auto's best op vrij korte termijn ingevoerd kunnen worden. Check ook dit: http://www.youtube.com/watch?v=-hZ4X81IrCY Het gebeurt ook al in Nederland.
Een volledig autonome wagen komt er niet in de eerste 20 jaar.
En daarom komt er nooit een volledig autonome auto zolang er geen échte AI (en dat duurt nog 'eeuwen') is.
Dit soort wild uit elkaar lopende en ongefundeerde voorspellingen doen je relaas geen goed.

Google's zelfrijdende auto uit 2011 had jij in 2010 niet kunnen voorspellen. Waarom denk je wel te kunnen voorspellen dat...

- het nog 20 jaar duurt voordat er een volledig autonome wagen bestaat
- het nog 100 jaar duurt voordat er een volledig autonome wagen bestaat
- er een 'echte' AI nodig is om de volledig autonome wagen te realiseren

... ?

Bovendien zie ik in je verhaal geen uitleg van waarom Google's autonome wagen niet volledig autonoom is.
Autonome auto's gaan de weg op als ervoor verzekerd kan worden. Verzekeringen zullen voertuigen verzekeren wanneer ze het vertrouwen hebben dat problemen binnen een acceptabel nivo zich manifesteren, en snel kunnen verholpen. Overheden zullen verzekeringen voor autonome auto's toelaten als de risicofactor gelijkwaardig of lager ligt dan mensen die auto's besturen.

In het begin zal de toepassing vooral defensief/conservatief zijn, dus bijvoorbeeld alleen bepaalde routes. Daar kan het risiconivo immers omlaag worden gebracht. Een computer zal ook prima kunnen bepalen elke wegen veilig genoeg zijn. Door de winkelstraat zal niet sel gebeuren.
Verkeersregels zijn misschien wel wiskundig en logisch uit te leggen, maar het gedrag van mensen niet.
Is ook niet nodig voor een computer. Als de computer maar snapt wat hij moet doen.
De computer in je auto gaat het verschil niet zien tussen een vogel, een hond, een kat of een bal.
Nonsens. Een computer gaat het verschil prima zien. De huidige Google auto doet dit al.
En verder: een van de belangrijkste 'verkeersregels' is oogcontact.
Ook dit kan de computer prima decoderen van mensen. Andersom kan natuurlijk niet, maar denk bijvoorbeeld aan een uitbreiding van signalelampen/schermen. Niet alleen links/rechts/remmen, maar bijvoorbeeld "verleen voorrang". Blauw lampje op de auto, klaar.
Jammer is dat je verhaal vooral gebaseerd is op uit de lucht gegrepen aannames. De problemen die je schetst zijn namelijk interresant.
Ik denk dat jij het te pessimistisch inschat. Een van de doelen van al die honderduizenden testkilometers is het systeem voeden met informatie. Als je maar genoeg testkilometers maakt en "statische" data voert zal dat het autonome systeem prima in staat zijn om zo goed als alle situaties goed in te schatten.

Klein voorbeeldje: Mercedes is ook bezig met een autonoom systeem en voedt dat systeem met méér dan 1.5 miljoen video's, animaties en real-life kilometers alleen al om voetgangers te herkennen. Daar zit dus een énorme database met situaties in die het systeem kan gebruiken in het nemen van beslissingen. Je hoeft niet al die situaties te programmeren en die zelf-lerende systemen zijn al best ver gevorderd. Alle grote spelers in die markt en Google zijn er mee bezig.

Wat mij betreft mag er snel veel meer intelligentie komen ter ondersteuning van de bestuurders. Vooral om mensen tegen zichzelf (en andere weggebruikers) te beschermen.

Als ik op de snelweg om me heen kijk zie ik ontzettend veel bestuurders die afgeleid, vermoeid of lui zijn (waarom zou ik naar rechts gaan als daar ruimte zat is, de middelse baan rijdt prima en mensen kunnen er links langs) of gewoon niet verder kijken dan hun voorbumper. Autorijden op de snelweg iets wat maar weinig mensen 'leuk' vinden, dus waarom dat niet automatiseren?

De reactietijd van zo een systeem in drukke gebieden zal ook korter zijn dan dat van een mens (nooit verrast in de stad door een fietser die langs komt schieten terwijl je die nooit gezien had?). Als je 500.000 km door (drukke) steden en rustige dorpjes en alles daar tussenin in verschillende landen rijdt om dat systeem te voeden, dan verwacht ik niet dat er veel situaties kunnen voorkomen die dat systeem niet al 'kent'. En dan is er altijd nog de ingebouwde logica die de onbekende situatie analyseert en een beslissing neemt op basis van een 360 graden plaatje.
Jij projecteert je eigen zwakheden op andere verkeersdeelnemers. Dat is een slecht uitgangspunt.
Nee, ik rijd (vrijwel) altijd geconcentreerd, kijk ver vooruit en probeer te anticiperen waardoor ik niet of zelden mijn rem aan hoef te raken op de snelweg. Speelt zeker mee dat ik ook veel motor rij en daarom juist heel goed het weggedrag van anderen moet inschatten vanwege geringere zichtbaarheid (ondanks reflecterend veiligheidsvest) en grotere kwetsbaarheid.

Heeft totaal niets met projecteren te maken maar alles met observeren. Je aanname raakt dus kant noch wal.
Een volledig autonome wagen komt er niet in de eerste 20 jaar.
Mijn gokje: mogelijk binnen 5 jaar en zeker binnen 10 jaar. Waarom? De A.I.-moeilijkheden die je beschrijft zijn zeker niet moeilijker dan spraaktechnologie. Google is waarschijnlijk al bezig met volgende zaken:
1) Google Street View: Werknemers opleiden tot verkeersspecialisten die de wegcode van verschillende landen tot in de puntjes van buiten kennen. Die specialisten zullen op elk Google streetview-beeld alle mogelijke gevaren en regels beschrijven en aanduiden. Uit die enorme databank kan een A.I. leren waarmee overal rekening moet gehouden worden.
2) Testritten: Wanneer de meerijder merkt dat de A.I. onvoldoende reageert op een bepaalde situatie of moet ingrijpen, dan zal deze aan de A.I. meedelen waarom er anders ingegrepen moet worden.
3) Ongevallen: Google zal waarschijnlijk ook ongevallen (willen) bestuderen: wat had elke bestuurder moeten doen om de schade zoveel mogelijk te beperken (bv. uitwijken naar pechstrook als er net voor jou een ongeval gebeurd....iets wat nu weinig mensen doen).
En ziet zo'n auto ook kleine kruipende kinderen over de weg? En als er sensoren uitvallen kan je dan nog steeds de auto zelf laten rijden of schakelt dat zich dan volledig uit?
In de 15 jaar dat ik auto rijd heb ik nog nooit kruipende kinderen over de weg gezien.

Maar je hebt wel een punt. Maar aan wie stel je deze vraag?
Als je niet zelf zou kunnen rijden, waarom zou er dan een stuur en pedalen in zitten?
Nou mijn vraag is meer gericht aan de personen die hier meer kennis van hebben. Ik bedoel hoe maakt zo'n auto onderscheid tussen een drempel en een kind? Welke sensoren zou je hiervoor moeten gebruiken? Ik neem aan een combinatie van infrarood sensoren en een radar systeem? Vervolgens moet een computer hier een berekening op maken en handelen? Hoe accuraat zijn deze sensoren om "veilig" mee te rijden.

Deze technische innovaties moeten natuurlijk eerst als goede basis neergezet worden en hierop verder borduren maar als je ziet met hoeveel factoren je rekening moet houden dan lijkt me dit een flink uitdaging. Als je ziet hoe lang de luchtvaart al bestaat en hoeveel vliegtuigen nog altijd naar beneden komen, waarbij het gaat om mensen levens, dan zijn dit toch niet van die "dit doen we wel even" projecten.

[Reactie gewijzigd door Fjerpje op 22 april 2012 15:04]

Lijkt me wel bijzonder onwaaarschijnlijk als zon auto niet een kruipend kind zou detecteren. De kans zal in iedergeval niet groter zijn dan de kans dat een mens een kruipend kind over het hoofd ziet.

Als er sensoren uitvallen zal het eraan liggen hoeveel redundantie er is. Maar als de auto gewoon blind is in een bepaald gebied zal hij uiteraard niet verder rijden. Kom op het ligt redelijk voor de hand als zijn cameras die vooruit staan uitvallen dat hij niet vol gas geeft omdat er toch alleen maar zwart voor hem is.

Sorry maar dit is allemaal redelijk voor de hand liggend.
Ik denk dat de betrouwbaarheid en nauwkeurigheid van de huidige elektronica beter is dan van de doorsnee bestuurder....
Om volledig betrouwbaar genoeg autonoom te kunnen rijden moeten er diverse 'fail-save' systemen in zitten. Dus als er een camera uitvalt, dan moet een andere camera het meteen overnemen. Ook de computer moet minimaal dubbel zijn uitgevoerd, liefts 3 voudig. Als er dan een computer andere berekeningen laat zien aan de hand van de ontvangen signalen van de sensoren, dan moeten de de andere 2 computers die wel gelijke berekeningen maken de 'slechte' computer uitschakelen.

Tevens moet de bestuurder het ten alle tijden kunnen overnemen. Dit gaat zeker problemen geven als straks iedereen autonoom rijdt. Dan kan de bestuurder door het wegvallen van rijervaring waarschijnlijk niet meer fatsoenlijk deelnemen aan het verkeer. Temeer omdat de autonome auto's waarschijnlijk 'bumperklevers' zullen worden.

Dan is het aan de bestuurder om direct de weg te verlaten, en hopen dat de overige autonome auto's jouw slechte rijeigenschappen kunnen analyseren en een botsing voorkomen.
Waarom zouden autonome autos in hemelsnaam bumperklevers worden? Juist een autonome auto kan een veilige afstand bewaren omdat die accuraat zijn remweg kan voorspellen.

Ja hij kan korter op zijn voorligger veilig rijden dan een gemiddelde mens vanwege zijn betere reactietijd, maar dat betekend niet dat hij gaat bumperkleven, je hebt nog steeds een flinke remweg nodig.
Zo kan er meer verkeer op de wegen. De reactietijd in zeer klein, dus als een auto voor je plotseling hard remt, dan doet de 'bumperklever' dat ook direct. Alleen bij een crash zal de remweg nog ter sprake komen, echter zal er in principe geen crash meer ontstaan. Is de kans op crashes wel aanwezig, dan is het nog geen tijd voor autonome auto's.

Dat 'bumperkleven' is ook alleen maar nodig bij hele drukke wegen. Automatisch gaat dan de snelheid omlaag, wat het risico op een crash ook weer verkleint. Nogmaals een crash zal alleen nog maar voorkomen als er een volkomen onverwachte situatie voordoet. Bijvoorbeeld overstekend wild. Maar als er 'gebumperkleefd' wordt, dan zal er echt geen wild het in zijn hoofd halen om over te steken. De weg is immers ondoordringbaar gevuld met auto's.
[...]
Maar als er 'gebumperkleefd' wordt, dan zal er echt geen wild het in zijn hoofd halen om over te steken. De weg is immers ondoordringbaar gevuld met auto's.
Zo slim schat ik een hert niet in: die steekt gewoon over, en klapt tegen de zijkant van je auto, i.p.v. de voorkant ...
Als autonomen auto's met elkaar communiceren, maakt het in principe niet uit hoe ver ze van elkaar vandaan rijden. Als de remmende auto aangeeft "ik vertraag over 0.1 seconde en wel met x m/s" dan kan de achterliggende auto precies hetzelfde doen. De afstand zal dan gelijk blijven, of dat nu 50cm is of 10 meter of 100 meter. Dus waarom dan geen heel korte afstand zodat de capaciteit van de weg maximaal gebruikt wordt?

Tussenafstand is alleen maar bedoeld om reactietijd van de bestuurder en eventueel verschil in remkracht te compenseren. Daarom ook de 2-seconden afstand houden vuistregel.

Ik versimpel het een beetje, maar dat is wel het idee. Uiteraard zijn we daar nog lang niet, hoewel adaptive cruise control, die een vergelijkbare functionaliteit kent maar dan minder ver doorgevoerd en zonder auto-auto communicatie, al redelijk gebruikelijjk is in het hogere segment.
Zo iets zo perfect zijn voor op de snelweg. Voor de lange stukken kan je besturing aan de auto overlaten. Minder files, auto kunnen dichter op elkaar rijden. Ik denk dat je het moet zien als een geavanceerde cruisecontrole.
Op de overige wegen zie ik nog niet zo snel het nut, want over het algemeen zijn dat kortere stukken. Ook komt daar veel meer bij kijken door overige weggebruikers zoals fietsers etc.
Volgens mij neemt Cadillac duidelijk nog geen eindverantwoordelijkheid door het DRIVER ASSIST te noemen leggen ze die nog duidelijk bij de bestuurder. De bestuurder is en blijft dus de "fail-safe" in dit geval :)

Logisch dat veel mensen nog sceptisch tegen zelfrijdende autos aankijken (doe ik ook), je wil het toch eerst zien of het werkt. Maar als je soms ziet wat er op de weg zit, dan vraag ik me niet eens meer af of een automatisch systeem beter zou zijn! :P
En wat nou bij wegversperringen, nieuwe wegen, etc?...
deze zitten niet gelijk in de software, en met alleen cameradata kom je er niet volgens mij..

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Smartphones Processors Sony Microsoft Games Apple Consoles Politiek en recht Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013