[...]
Mag ik hier een bronvermelding bij zien? Een mens heeft ogen met 576 megapixels en diepte perspectief
https://www.google.com/#q=human+eye+megapixels en kan in miliseconden reageren op unieke situaties. Wat dacht je van een hert dat op de weg springt, een gat in de weg, een dronken bestuurder in de buurt. Sneeuw, ijzel, zandstormen.
Dat een autopilot een auto op de weg kan houden tijdens zonnige conditites betekend nog niet dat het systeem beter is als een mens. Zelfs treinen rijden nog niet autonoom om klaar te zijn voor de 0,001% kans dat er iets nieuws gebeurd. Het statement dat de mens de zwakke schakel is vind ik op dit moment nog niet goed onderbouwd.
Jullie hebben allebei gelijk en ook weer niet.
Inderdaad heeft het oog een ongelofelijk hoge resolutie. Als je 576 megapixel noemt, dan zal dat wel zo zijn. Ik heb ook wel gehoord dat dat de f-waarde van het oog onder de 1 zit dus de scherptediepte is ook erg goed. Er zit echter een probleem aan deze zeer goede lens: de achterliggende processor is matig te noemen. Het oog registreert alleen het binnenkomend licht. De hersenen moeten hiervan chocolade maken. ALs je de literatuur erop naleest, dan komt daarin naar voren dat het brein veel te veel informatie binnen krijgt. Het kan onmogelijk al deze informatie verwerken en doet wat iedere processor doet die het te druk krijgt: filteren. Je "ziet" wat je denkt dat belangrijk is en de rest wordt weggelaten. Alsof het niet bestaat. Download eens een paar zoek en vind spelletjes en je krijgt het idee. Sommige zaken staan recht voor je neus en als je ze eenmaal ziet, dan vraag je je af waarom je er zo lang overheen hebt gekeken. Hetzelfde geldt voor camouflage: als je eenmaal de gecamoufleerde soldaat of het gecamoufleerde dier gezien hebt, vraag je je af hoe je het kon missen. Zeker bij dingen, die je niet verwacht en waar je niet actief voor kijkt, zul je merken dat je een grote kans loopt dat je het niet gezien hebt. Bovendien is je oog in de gele vlek gevoelig voor kleur en perifeer alleen voor zwart-wit overgangen. Hoewel je juist daarmee in donkere omstandigheden meer kunt zien, is het een techniek die je moet leren.
De camera in de auto is misschien wat minder qua resolutie en scherptediepte, maar de processor kan wel deze resolutie aan, dus heeft hij minder last van het over het hoofd zien van dingen. Bovendien verslapt zijn aandacht niet, of is hij met zijn aandacht bij een detail, terwijl een ander detail juist het probleem wordt. Hij kan beide details zien en zich met beide details bezig houden. En bij de camera kan gemakkelijk de gain worden aangepast, zodat de camera zich sneller aanpast aan donkere omstandigheden. Het oog heeft 45 minuten nodig om volledig aan de duisternis te wennen. De camera kan er zelfs voor kiezen om filters te plaatsen, zodat bijvoorbeeld 's nachts voornamelijk in infrarood wordt gekeken. Van die camera verwacht ik niet de grootste problemen.
Het grootste probleem is tevens de grootste zegen van de zelf rijdende auto: de auto interpreteert niet. Interpreteren is iets wat wij mensen doen en wij hebben het ook de hele dag nodig om uit de stroom van informatie die wij ontvangen, datgene te halen wat we nodig hebben. Helaas gaat dat nogal eens mis en dan komt er narigheid van. De een zegt iets en de ander interpreteert dit geheel anders. Dat heeft al tot oorlogen geleid. In de auto interpreteren wij ook maar raak. De zelf rijdende auto doet dit eigenlijk ook, maar op objectief meetbare factoren. Als ik met snelheid x mijn voorganger nader, dan moet ik remmen als ik op y meter genaderd ben. Waar ik als bestuurder mij misschien verkijk op de afstand, of deze bewust kleiner laat worden, om als het vrij is te kunnen inhalen, zal de auto dit risico niet nemen. Ook zal de auto sneller reageren dan ik. De auto zou het dus beter moeten doen dan ik. Het probleem is echter dat deze auto niet zelf denkt, maar wel zelf rijdt. Hij kan de weg afspeuren naar zaken die hij kent en daarop reageren. Maar hoe gaat hij om met onbekende situaties, met situaties die net anders zijn dan in geprogrammeerd of met situaties, waarin de overige weggebruikers totaal anders reageren dan verwacht. Het voorbeeld van een van de ervaringsdekundigen hierboven, waarbij de auto afremde, omdat hij een kind detecteerde is daar een voorbeeld van. Tesla heeft het kind als zo'n grote onbekende factor gezien, dan de auto ervan uit gaat dat het niet uitkijkt en de straat op stapt. De auto is dus geleerd dat het kind zal gaan oversteken en daar rekening mee te houden. Wij zouden als we het kind zien een afweging maken en daar onze snelheid aan aanpassen. Ik vraag me trouwens af, wat voor de auto de parameter kind is? Is een volwassene die erg klein is, ook een kind in de ogen van de auto?
Een ander voorbeeld: in Duitsland worden tijdelijke strepen nogal eens niet geverfd, maar zijn het plakstrips. Die laten weleens los. Hoe gaat de auto hiermee om? Voor ons is het duidelijk wat we moeten doen, maar ik kan me zomaar voorstellen dat de auto andere beslissingen neemt.
En ik vraag me af wat de auto doet, met de niet logische manier van borden plaatsen op de weg. Ik noem hier bijvoorbeeld de A4 tussen Utrecht en Den Haag (voor de aanpassingen van afgelopen jaar). Daar heeft men een hele tijd een rebus geplaatst, in plaats van goede borden. Je mocht daar op een gegeven moment 130, tenzij tussen 6 en 19 uur (120), tenzij de spitsstrook open was (100) en tenzij nat wegdek (90). Dat men het zelf niet begrepen had, was te zien aan het bord einde 90 wat een eindje verder geplaatst was. Als je dus 90 moest rijden en dat bord tegen kwam, dan gold dus feitelijk daarna 130, want dat mag je op de autosnelweg en ik hoef niet te onthouden wat er voor het bord 90 stond. Het volgende beperkende bord kwam pas na 4 km. Ik ben dan zelf wel intelligent genoeg om te bedenken dat men wil dat ik 100 ga rijden, maar ik kan me zomaar voorstellen dat de auto vrolijk naar 130 gaat, want dat vertellen de borden.
Hoewel het misschien anders klinkt, denk ik dat de zelf rijdende auto er zeker gaat komen. Inderdaad denk ook ik dat onze kinderen en kleinkinderen zichzelf afvragen hoe wij het ooit hebben toegestaan dat wij zelf het stuur van zo'n moordmachine ter hand hebben genomen. Echter moeten er nog een aantal generaties zelf rijdende auto's aan te pas komen, voordat het stuur definitief uit de auto verdwijnt. Het zal helpen als auto's met elkaar gaan praten en mijn auto al weet dat mijn voorligger over 10 km af gaat slaan. En ook dat hij via Internet of sensoren in de weg informatie krijgt over de weg en over de route die de auto gaat nemen. Ik denk hierbij aan een uitbreiding van de verkeersinformatie, waarbij niet alleen gekeken wordt naar waar files staan, maar ook welke route auto's gaan nemen, zodat ook goed kan worden voorspelt waar over een uur een file gaat staan. Misschien kan de auto zelfs al kijken hoe ver ik nog met mijn accu kan rijden en kan hij voor mij een plekje reserveren bij een laadpaal waar ik lang kom en eventueel een andere route nemen als op mijn route geen vrij is.
We live in interesting times.
@Edit:
Trouwens zelfrijdende treinen bestaan al. In London is bijvoorbeeld de Jubily line "driverless". Dit is echter een metro lijn, waarbij de platforms met deuren gescheiden worden van de rails en waar dus een aantal variabelen beperkt is en dus te overzien.
[Reactie gewijzigd door feuniks op 29 augustus 2016 20:03]