Tesla is om diverse redenen een aparte autofabrikant. Het merk is altijd zeer vooruitstrevend geweest met software-updates en het achteraf toevoegen van nieuwe functionaliteit, het verbeteren van de energie-efficiëntie en technische innovaties als het voorverwarmen van de accucellen voor het snelladen, zodat de wagen, ook tijdens een koude winter, meteen op volle snelheid kan laden. Ook op andere vlakken is Tesla vooruitstrevend, en niet altijd direct in het voordeel van de klant. Zo schrapte het in het verleden vaak bepaalde hardware om het gemis later met software op te vangen, maar tijdens de overgangsperiode waren deze functies dan niet of niet optimaal beschikbaar.
Na het verwijderen van de regensensor en onlangs de radar is Tesla van plan om ook de parkeersensors van toekomstige wagens te schrappen en de functie daarvan te laten overnemen door camera's en software. Dat roept de vraag op wat voor risico's het oplevert als alleen op de input van camerabeelden vertrouwd wordt en wat voor gevolgen dit heeft voor de gebruikservaring. De vraag kunnen we gedeeltelijk beantwoorden op basis van hoe Tesla Vision op dit moment in de praktijk werkt.
Autopilot
Achteraf gezien betrad Tesla al in 2014 het Vision-tijdperk. Toen kondigde het zijn Autopilot-functionaliteit aan, waarbij bestuurders bij wijze van spreken het stuur konden loslaten en de wagen zichzelf tussen de lijnen laat rijden én een veilige afstand houdt tot de voorganger. Tesla gebruikte hiervoor ultrasone sensors rondom, een radarunit en een camera achter de voorruit, ter hoogte van de binnenspiegel. De gebruikte camera en het bijbehorende semiautonome systeem waren afkomstig van het Israëlische Mobileye en het systeem werd aangestuurd door diens EyeQ chip.
:strip_exif()/i/2005423932.jpeg?f=imagearticlefull)
Toen de eerste wagens met deze functionaliteit op de weg kwamen, leverde dat veel publiciteit op. Bestuurders konden hun handen enkele minuten van het stuur houden, terwijl het systeem de besturing overnam. Na enige tijd werd de rijder gevraagd het stuur licht aan te raken om aan te geven dat hij of zij nog steeds aanwezig was. Het leek alsof er een nieuw tijdperk was aangebroken, het begin van een kleine revolutie naar autonoom rijdende auto's.
Tegelijk was er ook kritiek, want bestuurders gingen heel verschillend om met deze nieuwe functionaliteit. Waar de een terughoudend was en zeer alert bleef, ging de ander rustig naar een film kijken of werken, terwijl hij volledig op het semiautonome systeem vertrouwde voor de veiligheid. Ook werd het systeem uitgedaagd. Wat gebeurt er als je op de achterstoel gaat zitten tijdens het rijden en met welke hulpmiddelen, zoals gewichten, kan het verplicht aanraken van het stuur worden omzeild? Tesla was daarbij zeer vooruitstrevend met het uitrollen van nieuwe functies via over-the-airfirmware-updates, waarmee steeds meer mogelijk werd.
Het leidde tot enkele dodelijke ongelukken, mede doordat mensen te veel op de werking van het systeem vertrouwden. Zo had de camera soms last van tegenlicht, waardoor hij, in bijzondere situaties, bepaalde objecten niet goed herkende. Een berucht voorbeeld is een ongeluk in juni 2016 waarbij een Tesla Model S op een snelwegkruising een overstekende witte truck over het hoofd zag. De bestuurder lette ook niet op de weg en zat naar verluidt naar een film te kijken op een dvd-speler.
:strip_exif()/i/2005423938.jpeg?f=imagenormal)
Tesla rolde een software-update uit waarbij voortaan de radar als primair systeem voor waarneming zou worden gebruikt in plaats van de camera. Ruim een jaar later werden ook beperkingen voor AutoPilot toegevoegd waarbij gebruikers vaker het stuur moesten aanraken; tegenwoordig is dat ongeveer iedere vijftien seconden. Later werd er een camera aan de binnenkant toegevoegd die in de gaten kan houden of de bestuurder op de weg let.
Voor Mobileye was dat niet voldoende. In juli 2016 kwam het tot een breuk tussen Tesla en Mobileye. De cto van het bedrijf stelde dat Tesla te vooruitstrevend was met het uitrollen van nieuwe functionaliteit en dat het systeem puur bedoeld was ter assistentie en niet voor een volledig autonoom rijdende auto. Het Mobileye-systeem zou ook nog niet geschikt zijn om ongelukken, zoals met die vrachtwagen, te voorkomen.
Tesla Vision
De filosofie van Tesla is veel hardware te vervangen door camera's plus slimme software. Dat geldt niet alleen voor de regensensor, radar en parkeersensors, maar ook voor zoiets als lidar, waarvan Tesla altijd heeft gezegd dat het onnodig is voor autonoom rijden. Het systeem leunt momenteel op acht camera's rondom de wagens, in combinatie met zelfontwikkelde hardware en een neuraal netwerk. Het camerasysteem heeft ook tot extra functies geleid, zoals een dashcam en beveiliging tegen (on)bewust vandalisme, waarbij incidenten rondom worden opgenomen.
Nieuw camerasysteem
Na het conflict met Mobileye deed Tesla iets wat het wel vaker deed. Het besloot het heft in eigen hand te nemen en voortaan alles zelf te ontwikkelen. En dan niet op basis van een enkele camera achter de voorruit, maar een toekomstvast systeem van acht camera's rondom: drie achter de voorruit, met verschillende brandpuntsafstanden, een aan de achterkant en twee paar aan de zijkanten, in een zijpaneel tussen de deuren en op het spatbord voor de zijspiegel. De camera's in de zijpanelen kijken naar voren en die in het spatbord naar achteren, voor een zo compleet mogelijk beeld. Tegenwoordig zijn nieuwe auto's met een 360-gradencamerasysteem vrij gebruikelijk, maar op dat moment was een dergelijk concept nog vrij uniek. Ook wordt de functionaliteit tot op de dag van vandaag nog uitgebreid. Zo verscheen er eind vorig jaar een update waarbij het beeld van de camera op het scherm wordt getoond zodra het knipperlicht wordt gebruikt, een handige aanvulling op de spiegels.
De implementatie van het nieuwe AutoPilot-systeem verliep echter niet zonder slag of sloot. Het nieuwe AutoPilot2-systeem (AP2), met nieuwe camera's, Nvidia PX2-hardware en nieuwe software, kwam niet in de buurt van de eerste versie van Autopiliot (AP1). De auto zwalkte tussen de lijnen, haalde op de snelweg rechts in en reageerde allesbehalve vloeiend op voorliggers. Het kwam vooral doordat de software flink achterliep op die van Mobileye; het wiel moest immers opnieuw worden uitgevonden. Langzaam kwamen er nieuwe updates met verbeteringen, maar het duurde al met al een jaar of twee voordat het systeem op hetzelfde niveau kwam als AP1, terwijl een overgangsperiode van drie maanden beloofd was. Uiteindelijk werd het systeem beter dan AP1 en kwam er ook nieuwe functionaliteit beschikbaar op basis van de extra camera's, zoals de mogelijkheid om de auto op de snelweg zelf van rijbaan te laten wisselen en zelfs automatisch afritten te laten nemen.
:strip_exif()/i/2005423942.jpeg?f=imagenormal)
Regensensor
Hetzelfde herhaalde zich toen Elon Musk besloot Tesla's niet meer te voorzien van een regensensor. Dat scheelde kosten en componenten, die vroeg of laat kapot konden gaan. Die functie zou net zo goed door de ingebouwde camera's kunnen worden overgenomen, maar ook in dat geval werd er een tijdelijk offer van klanten gevraagd. In eerste instantie kregen ze een auto zonder automatische ruitenwisserfunctie, terwijl dat in die prijsklasse wel zeer gangbaar was, zeker bij de Model S en X.
Pas eind 2019 verscheen er een software-update die in staat was de hardwarematige functionaliteit van de sensor over te nemen. Dat werkte echter niet altijd vlekkeloos. Het kwam voor dat de ruitenwissers stoïcijns bleven tijdens een regenbui of juist continu bleven wissen terwijl de voorruit kurkdroog was. Momenteel werkt het beter, dankzij diverse nieuwe software-updates. Daarbij wordt onder andere de input van andere camera's meegenomen om te bepalen of het regent, maar of het net zo goed is als mét speciale ruitenwissersensor, daarover zijn de meningen verdeeld. De functie is overigens nog steeds in bèta.
Radar
Ook de radar moest eraan geloven. Vrijwel alle moderne auto's hebben een radarunit in de voorbumper zitten. Deze wordt gebruikt om een noodstop uit te voeren als er een botsing dreigt en maakt ook adaptive cruise control mogelijk, waarbij automatisch een veilige afstand tot een voorligger wordt aangehouden.
Radar, ofwel radio detection and ranging, werkt op basis van radiogolven, oftewel elektromagnetische straling. Objecten reflecteren deze radiostraling, resulterend in een echo, waardoor de afstand te berekenen is. Ook de grootte, hoogte en snelheid kunnen in principe bepaald worden. Normaal werkt radar op basis van twee antennes, een zender en een ontvanger, maar tegenwoordig is het ook mogelijk met een enkele antenne.
Het probleem van een objectdetectiesysteem op basis van zowel radar als camerabeelden is de prioritering. Als de camera een object ziet, maar de radar niet of andersom, welk systeem geloof je dan? Het leidde bij Tesla regelmatig tot conflicten, zoals phantom brakes. Dat zijn false positives waarbij de auto een noodstop maakt omdat een van de systemen een botsing vreest, terwijl er in werkelijkheid niets aan de hand is. Denk bijvoorbeeld aan een auto op de snelweg voor je, die vaart mindert op een afrit. De radar kan denken dat hij op dezelfde rijbaan rijdt. Een radar ziet geen kleuren en kan geen objecten of lijnen herkennen zoals dat met beeld kan.
In maart 2021 maakte Musk op Twitter kenbaar dat Tesla voortaan gebruik zou maken van camera's en AI in plaats van een radarunit. Volgens hem konden camera's dit net zo goed en was het dé manier voor Full Self Driving voor de toekomst. FSD moet het mogelijk maken om helemaal autonoom te rijden. Op dit moment loopt er in de VS een FSD-bèta met enkele duizenden gebruikers.
Ook het weglaten van de radar heeft gevolgen voor Tesla-bezitters. In mei 2021 begon Tesla met de Model 3 en Y in de fabrieken in de VS, waarna de fabriek in China en die in Berlijn volgden. Bij modellen die nog wel een radar aan boord hebben en uitgerust zijn met de nieuwste Autopilot-hardware (HW3), wordt deze intussen softwarematig genegeerd en vertrouwt het systeem alleen nog op de camera's, Tesla Vision. Sindsdien is een langere volgafstand nodig, waardoor de minimale afstand tot de voorganger is vergroot - vooral in files is dit vervelend. Wat rijgedrag betreft lijkt Tesla er intussen in de praktijk in te zijn geslaagd om Autopilot goed werkend te krijgen, inclusief het afstand houden van de voorligger op basis van de camerabeelden, althans overdag.
's Nachts is dat een ander verhaal. Nu er geen radar meer is om op terug te vallen, zijn goed zicht en beeld van essentieel belang. Als gevolg daarvan heeft Tesla dit jaar vanaf een bepaalde update toegevoegd dat de auto voortaan helemaal zelf bepaalt wanneer de ruitenwisser gebruikt wordt en wanneer het groot licht aangaat. Dat lijkt niet onlogisch, want in Autopilot-modus rijdt de auto semiautonoom en heeft hij natuurlijk goed zicht nodig. Het updatebeleid van Tesla was echter zo frequent dat de werking per week kon verschillen. Het ene moment ging de ruitenwisser aan als dit niet nodig was en het andere moment gebeurde er juist niets. En dit was niet meer handmatig te overrulen, wat voorheen nog wel kon.
Datzelfde geldt voor het groot licht. In eerste instantie had de auto de neiging om continu het groot licht aan te doen als het schemerig werd. Ook als er voldoende licht was om de weg te zien. De nieuwe matrixkoplampen geven zoveel licht dat verkeersborden ook zonder groot licht al honderden meters verderop worden uitgelicht. Ook bij een goed verlichte weg vol lantarenpalen had de software de neiging om continu het groot licht te activeren. Totdat er, vrij laat, een tegenligger werd gesignaleerd. Dan ging het weer uit en weer aan enzovoort.
De software van de auto is in staat om tegenliggers en voorliggers te herkennen, maar dat werkte bij de eerste updates niet goed. Op dit moment, na diverse updates, werkt het beter dan enkele maanden terug, maar nog steeds worden automobilisten in de omgeving verblind en vragen medeweggebruikers zich af wat de Tesla-rijder bedoelt met die lichtsignalen. Er zijn trucs om het groot licht alsnog uit te schakelen, bijvoorbeeld door handmatig het licht uit te zetten met de desbetreffende hendel, maar dit kan alleen tijdelijk. Na iedere inhaalmanoeuvre wordt Autopilot gedeactiveerd en gaat het automatische systeem weer aan. Ongetwijfeld wordt dit in de toekomst verder verbeterd met over-the-airsoftware-updates, maar totdat het vlekkeloos werkt, is het behelpen voor Tesla-rijders, én de medeweggebruikers.
Parkeersensors
Deze maand werd bekend dat Tesla ook stopt met het toevoegen van ultrasone sensors in de Model 3 en Y en later ook de S en X. Parkeersensors zitten op zes plekken rondom op de bumper en meten afstanden met behulp van ultrageluid. De huidige Tesla's geven de afstand rondom zelfs visueel én in centimeters weer.
Ook hier is de gedachte dat de camera's deze functie kunnen overnemen, al is het nog de vraag hoe. De camera aan de achterkant heeft een voldoende grote hoek om alles te overzien, maar het kan een uitdaging worden om de afstand in de uiterste hoeken tot objecten in de omgeving te meten, zeker als de vorm daarvan vrij afwijkend is. Denk bijvoorbeeld aan lage paaltjes. Voor de voorkant is dit nog een grotere uitdaging. Steeds meer auto's hebben ook een camera in de neus zitten, wat tijdens het parkeren erg handig is. Bij Tesla's zitten er echter drie camera's bovenin achter de voorruit en het zicht daarvan is slechts marginaal beter dan wat de bestuurder ziet. Die positie is verre van ideaal - laag bij de grond zal er altijd een deel buiten het zicht van de camera's zitten.
:strip_exif()/i/2005424078.jpeg?f=imagemedium)
Het verwijderen van de ultrasone sensors zal volgens Tesla net als voorheen betekenen dat de parkeerassistentie, waarbij gewaarschuwd wordt voor objecten, tijdelijk beperkt of helemaal niet beschikbaar zal zijn. Dat geldt ook voor de automatische parkeerfunctie, de optie om de auto naar voren of achteren te bewegen via de Tesla-app en de Smart Summon-optie, waarmee de auto zelf naar de locatie van de eigenaar kan rijden. Volgens Tesla worden deze features in de toekomst weer via software-updates hersteld zodra ze op vergelijkbaar niveau presteren als de auto's met ultrasone sensors.
Tesla leunt hierbij sterk op AI in combinatie met zijn neurale netwerk, waarbij de software op basis van data van Tesla-rijders steeds beter wordt in het herkennen van objecten. Door objecten, zoals verkeersborden en paaltjes, te herkennen op basis van hun voorkomen en de locatie, kan ook de omvang ervan - en dat van de omgeving - ingeschat worden. Voor het parkeren in een vak zal het systeem waarschijnlijk proberen van te voren de omgeving op objecten te scannen en hun omvang te bepalen, min of meer vergelijkbaar hoe mensen dat op zicht zouden doen in een auto zonder parkeersensoren. Op die manier zou geanticipeerd kunnen worden op de dode hoek. Tesla Vision wordt ook al jaren gebruikt om andere verkeersdeelnemers te herkennen, naast auto's ook fietsers en voetgangers, die allemaal grafisch worden weergegeven op het scherm. Ook stoplichten, verkeersborden, pionnen en vuilniscontainers verschijnen op het scherm. Het systeem is indrukwekkend, maar werkt nog niet helemaal vlekkeloos.
:strip_exif()/i/2005424084.jpeg?f=imagenormal)
Beperkingen van camera's
Waren camera's tot voor kort puur complementaire hulpmiddelen voor auto's, bij Tesla worden ze essentieel voor steeds meer primaire functies. Nu de afhankelijkheid toeneemt, roept dat vragen op over de betrouwbaarheid in uiteenlopende omstandigheden. Modder en vuil verstoren de werking en ook fel zonlicht en regendruppels kunnen hinderlijk zijn. Meldingen dat een bepaalde camera 'verblind' is, komen vrij vaak voor en dan kan de werking verstoord zijn. Nu is dat vooral nog tijdens het gebruik van Autopilot, wat optioneel is, maar het is ook denkbaar tijdens het inparkeren.
Bovendien zijn er omstandigheden waarbij camera's in het nadeel zijn, zoals bij mist. Een radar en ultrasone sensors kunnen dan complementair van nut zijn dankzij de radiogolven. Tijdens de winter kan een laag ijs of sneeuw op de auto ook het zicht beperken, hoewel Tesla daar al verwarmingselementen voor gebruikt en de auto voor gebruik voor te verwarmen is, waardoor krabben niet nodig is. Desondanks zou enige mate van redundantie een systeem dat volledig afhankelijk is van goed zicht, veiliger maken. Aan de voor- en zijkanten is daar in bepaalde mate al in voorzien, maar voor de achterkant geldt dat niet. Ook een camera in de neus zou nuttig zijn tijdens het parkeren, maar daar lijken voor zover bekend geen plannen voor te zijn.
:strip_exif()/i/2005423944.jpeg?f=imagenormal)
Tot slot
Tesla stelde in het verleden meermaals dat mensen alles doen op basis van zicht en interpretatie, dus dat een systeem op basis van camera's en slimme software voor auto's ook voldoende moet zijn. Het gaat daarbij wat tegen de stroom in door het schrappen van de radar, het afwijzen van lidar en nu ook het schrappen van de parkeersensors. Als het bedrijf hier succesvol in is, zullen andere autofabrikanten waarschijnlijk volgen, want het scheelt componenten en kosten. Deels gebeurt dit al, want in april dit jaar stelde Toyota dat het zelfrijdende auto's wil gaan ontwikkelen op basis van camera's in plaats van lidar. Het bedrijf claimde dat zo'n systeem tot wel 90 procent goedkoper is dan de sensors die het eerder gebruikte en het zou ook goedkoop en eenvoudig zijn om in grote aantallen personenauto's te worden geïmplementeerd.
Het schrappen van de regensensor, radar en parkeersensors scheelt componenten en kosten en vermindert de complexiteit van de assemblage. Tegelijk groeit de afhankelijkheid van camera's en is de rol daarvan ook vele malen groter dan in 2016. Ook de rol van software wordt groter en groter, inclusief het gebruik van kunstmatige intelligentie, neurale netwerken en algoritmen. En dat vereist weer regelmatige updates, maar het liefst wel van een dermate niveau dat de werking voldoende getest is.
Enerzijds bewijst Tesla dat een regensensor en radar vervangen kunnen worden door camera's en software, maar anderzijds levert dat merkbare hobbels en bobbels op, waar zowel de Tesla-rijder als andere medeweggebruikers last van kunnen hebben. Het weglaten van de parkeersensors past in het rijtje en zal ook, al dan niet tijdelijk, tot beperkingen leiden. Het is de vraag welk volgend onderdeel op de nominatie staat om te worden geschrapt.