Redactieblog #18 - Tesla FSD in februari 2026 is zéér ambitieus – of naïef

'Tesla verwacht handenvrij rijden in februari 2026 in Nederland te kunnen uitbrengen', schreef ik zondag. De RDW temperde een dag later de verwachtingen, maar de ambities en plannen van Tesla zijn duidelijk. Ik vraag me echter af in hoeverre die ambities realistisch zijn.

"De toekomst van vervoer. Als deze functie is ingeschakeld, brengt uw voertuig u, onder uw actieve toezicht, bijna overal naartoe, waarbij minimale tussenkomst nodig is." Full Self-Driving is een belangrijke stap op Tesla's autonomeroutekaart, waarbij de auto zelfstandig van A naar B rijdt, de route van het navigatiesysteem volgt en ook zelf inhaalacties op de snelweg uitvoert. Full Self-Driving is niet volledig zelfrijdend: de bestuurder moet altijd kunnen ingrijpen en mag dus niet op de achterbank liggen en in slaap vallen, in tegenstelling tot wat je wellicht op Reddit hebt gezien. Formeel heet het systeem dan ook Full Self-Driving (Supervised).

Het systeem is al een tijdje beschikbaar, onder meer in de Verenigde Staten. Tesla wil al jaren dat FSD ook in Europa beschikbaar komt, maar loopt hier tegen een probleem aan. In tegenstelling tot in bijvoorbeeld de VS, waar toezicht op autonome systemen achteraf gebeurt, komt dat toezicht in Europa vooraf. Met andere woorden: in de VS mag je een systeem op de markt brengen en hoef je pas achteraf te kunnen verantwoorden dat het veilig is en alle regels volgt. In Europa moet je eerst toezichthouders van lidstaten ervan zien te overtuigen dat je systeem veilig is en alle regeltjes volgt, voordat je het aan klanten mag leveren.

Artikel 39

Het lastige is dat autofabrikanten nu wat sneller innoveren dan de EU kan bijbenen, waardoor er nog geen duidelijke regels zijn voor geavanceerde zelfrijdende systemen. Voor die systemen heeft de EU inmiddels wel iets bedacht: richtlijnen voor de vrijstellingsprocedure voor EU-toestemming van geautomatiseerde voertuigen, ofwel Artikel 39 van Verordening 2018-858.

Met deze procedure kunnen toezichthouders geavanceerde, autonome rijsystemen alsnog goedgekeurd krijgen binnen de EU, mits ze kunnen aantonen dat hun systeem net zo veilig is voor de bestuurder en de omgeving als vergelijkbare rijsystemen. Een systeem waarbij je de handen aan het stuur moet houden, moet dus net zo veilig zijn als een systeem waarbij dat niet hoeft. Eerst moet een toezichthouder van een lidstaat het systeem goedkeuren, waarna andere lidstaten in een stemming aangeven of dat systeem ook in de gehele Europese Unie gebruikt mag worden.

Tesla hoopt met die procedure FSD (Supervised) toch beschikbaar te krijgen in Nederland en later de EU. Daarom klopt de autofabrikant bij de RDW aan, de Nederlandse typegoedkeuringsautoriteit. Ford doorliep een jaar geleden dat proces al voor hun BlueCruise-systeem, maar dan in Duitsland. Daarmee mag je zonder je handen aan het stuur te houden op de snelweg rijden: een zogenaamd hands-off-eyes-onsysteem. Je moet je ogen dus wél op de weg houden, wat met een camera achter het stuur wordt gecontroleerd.

Ford BlueCruise
Ford BlueCruise in een Mustang Mach-E

Tesla wil Ford inhalen

Hier komt de titel van dit bericht om de hoek kijken. Waar BlueCruise je op de snelweg zonder handen aan het stuur laat rijden, is FSD (Supervised) in de Verenigde Staten veel meer dan dat. FSD laat de auto bijvoorbeeld ook inhalen, zonder dat bestuurders hiervoor toestemming hoeven te geven. Het systeem werkt in de VS ook buiten de snelweg en stopt dan zelf voor verkeersborden en stoplichten. BlueCruise kan beide punten in Europa niet. Sterker nog, Ford wil het mogelijk maken dat BlueCruise kan inhalen ná toestemming van de bestuurder, maar heeft hiervoor nog geen toestemming gekregen.

Het gebruiken van FSD buiten de snelweg is ook nog wel 'een dingetje', zeker in de EU. Europese wegen en verkeersregels zijn natuurlijk volstrekt anders dan Amerikaanse, waardoor de wegen zelf er ook wat anders uit kunnen zien. Neem een 60-weg in Nederland met fietsstroken aan weerszijden. Zal FSD wel hiermee om kunnen gaan? In ieder individueel EU-land verschillen de regels bovendien subtiel (en minder subtiel); zal FSD in ieder EU-land wel even goed werken? FSD op de snelweg is wat mij betreft niet eens het grootste struikelblok; juist buiten de snelweg wordt de wegsituatie significant complexer.

Met andere woorden: Tesla's huidige Autopilot, dat wél in de EU gebruikt mag worden en waarbij de handen aan het stuur gehouden moeten worden, is minder geavanceerd dan wat Ford met BlueCruise nu aanbiedt. In plaats van dat Tesla eerst hetzelfde niveau wil bereiken als BlueCruise, wil de Amerikaanse autofabrikant met FSD in één stap een ontzettend geavanceerd autonoom pakket beschikbaar stellen in Europa.

Dan hebben we het nog niet eens gehad over het technische nadeel dat Tesla inherent heeft door alleen gebruik te maken van camera's. Vrijwel elke andere concurrent, zoals Ford, gebruikt daarnaast bijvoorbeeld radar. Dergelijke sensors vullen camera's aan als ze bijvoorbeeld door een laaghangende zon of in het donker niets zien. Hoe goed Tesla's software ook moge zijn, tegen een verblinde camera valt niet op te programmeren.

Kale kop

Daarom vraag ik me hardop af of de goedkeuring die Tesla verwacht te krijgen, in februari 2026 gegeven gaat worden. Het is ook niet duidelijk waarom Tesla FSD niet in kleinere stukjes naar Europeanen wil brengen, maar het hele pakket in één keer – althans, als ze het hele pakket eigenlijk wel in één keer naar Europeanen wíllen brengen. Tesla's bericht blinkt niet uit in duidelijkheid en het bedrijf wil het tegenover Tweakers ook niet verduidelijken. Het zegt wel 'de veiligheid van een bewezen systeem of de bruikbaarheid voor klanten' niet 'te willen opofferen', waardoor het erop lijkt dat FSD (Supervised) inderdaad als één groot pakket direct beschikbaar moet komen voor EU-inwoners. Het is bovendien absurd dat ze gebruikers oproepen de RDW een berichtje te sturen om 'je enthousiasme te uiten en ze te bedanken dat ze dit zo snel mogelijk beschikbaar willen maken'. Om koning T'Challa te citeren: "We don't do that here." Of, nou ja, kennelijk toch wel.

Natuurlijk heeft Tesla wel een geschiedenis van naysayers tóch verrassen. Het feit dat de autofabrikant op zulke grote schaal EV's heeft kunnen bouwen, zal altijd bewonderenswaardig en historisch zijn, maar of dat deze keer weer zal lukken? Dan scheert deze naysayer zijn kop kaal.

Door Hayte Hugo

Redacteur

28-11-2025 • 16:00

75

Reacties (74)

Sorteer op:

Weergave:

Waar BlueCruise je op de snelweg zonder handen aan het stuur laat rijden, is FSD (Supervised) in de Verenigde Staten veel meer dan dat. FSD laat de auto bijvoorbeeld ook inhalen, zonder dat bestuurders hiervoor toestemming hoeven te geven. Het systeem werkt in de VS ook buiten de snelweg en stopt dan zelf voor verkeersborden en stoplichten. BlueCruise kan beide punten in Europa niet. Sterker nog, Ford wil het mogelijk maken dat BlueCruise kan inhalen ná toestemming van de bestuurder, maar heeft hiervoor nog geen toestemming gekregen.
Het artikel benadrukt terecht dat Tesla met FSD (Supervised) een ongewoon ambitieuze stap zet: niet een klein, afgekaderd hands-off-systeem zoals BlueCruise, maar een volledig pakket dat in de VS al complexe manoeuvres uitvoert, inclusief inhalen en reageren op verkeerslichten. Dat verschil in scope zorgt vanzelf voor veel meer vragen en voorzichtigheid in Europa, want juist "off-highway" verkeer geeft het vaakst nare ongelukken. Toch is dat maar één kant van het verhaal.

Wat onderbelicht blijft, is dat Tesla al meer dan een jaar bezig is met precies het traject dat Ford eerder in Duitsland doorliep. Ze hebben FSD aan toezichthouders van vrijwel alle EU-landen gedemonstreerd, ze draaien pilots, verzamelen data en werken direct met de RDW aan een Artikel-39-exemptie. Dat proces ís nieuw, en daarom voelt het alsof Tesla “een sprong in het duister” vraagt, maar feitelijk is het juist het beoogde spoor dat de EU ontworpen heeft voor geavanceerde systemen die buiten de huidige regelgeving vallen. Ford heeft bewezen dat het werkt; Tesla volgt dezelfde route, alleen met een systeem dat veel breder is.

Ford zegt zelf het volgende:
This unlocks access to more than 133,000 kilometers (82,744 miles) of designated highways across Europe, called Blue Zones, allowing customers to take a road trip across multiple countries. For example, a customer can use BlueCruise across six countries travelling from Sweden down to Italy, covering almost 3,000 kilometers (1,864 miles) and spending 25+ hours driving hands-free.
En dat klinkt als veel, maar Tesla gaat gelijk voor het gehele europese wegennetwerk. Die 133.000 km is dan leuk, maar zet het even uit tegen het totale wegennetwerk en je zit naar procentjes (2%) te kijken:
The European road network consists of 5.5 million km mainly managed under local and regional responsibility.
Daarnaast wordt vaak benadrukt dat Europa anders rijdt dan Amerika, en dat klopt. Maar waar traditionele rule-based systemen vastlopen bij zulke verschillen, is een end-to-end AI-model juist getraind op uiteenlopende rijcontexten. In de VS moest FSD bijvoorbeeld leren omgaan met vierwegsstops, onduidelijke lane markings en wegen die totaal niet lijken op Europese geometrie. Dat Tesla een unified model heeft dat internationaal werkt, maakt het niet automatisch goedgekeurd—maar wél beter schaalbaar en aanpasbaar dan oudere generaties ADAS. In combinatie met hoge volumes echte rijdata vergroot dat de kans dat het systeem binnen Europese kaders te valideren is.

Ook wordt vaak aangehaald dat Tesla door uitsluitend vision te gebruiken op een achterstand zou staan ten opzichte van systemen die lidar en radar combineren. Alleen blijkt in de praktijk dat juist die mix van sensoren voor regelgevende instanties een extra uitdaging vormt: conflicterende inputs, onverwachte ruis en moeilijk uitlegbare beslisbomen maken het systeem lastiger voorspelbaar. Tesla’s keuze voor één consistente sensorstack, die bovendien past bij hoe wetgevers menselijk rijden beoordelen, kan dit approval-proces ironisch genoeg eenvoudiger maken. Minder variabelen betekent minder kans op onverwacht gedrag en een duidelijkere veiligheidsbeoordeling.

Dat alles wil niet zeggen dat februari 2026 gegarandeerd is. De RDW heeft terecht op de rem getrapt, omdat er simpelweg geen publiek-duidelijke statusupdate bestaat. Maar het betekent ook niet dat Tesla naïef is. Als je kijkt naar de snelheid waarmee Ford BlueCruise een Artikel-39-goedkeuring kreeg, en naar het feit dat Tesla al ruim een jaar in dit proces zit met tientallen demos aan Europese instanties, is het niet onredelijk om te denken dat de afronding daadwerkelijk binnen enkele maanden kan plaatsvinden. Het verschil is vooral dat Tesla het volledige pakket wil aanbieden en niet alleen een highway-variant. En als dat lukt, is het in één klap het meest capabele hands-off-systeem dat Europa ooit heeft toegelaten.

Het artikel schetst daarom vooral de risico’s en onzekerheden, maar het andere perspectief is dat de EU eindelijk een toetsingsmechanisme heeft dat past bij moderne AI-gestuurde systemen, Tesla precies dat pad bewandelt, en alle signalen erop wijzen dat de besluitvorming niet gehinderd wordt door technologische tekortkomingen maar door de complexiteit van het proces. Met wat we nu weten, is februari 2026 ambitieus, maar niet buitensporig optimistisch en zeker niet onmogelijk.

Ik heb zelf een 5-tal jaar ervaring met een Model 3 met normale autopilot en alleen dat systeem al is voor mij echt een bron van vreugde, althans, minder haat aan anderen. De auto regelt het lekker en ik hoef niet voor 0.02 km/u verschil te gaan zitten mierenneuken op de A2. Heerlijk. En dan gaat het niet eens zozeer om het "andere dingen" kunnen doen, want dat mag niet en hoef ook niet van mij, maar het maakt rijden zoveel simpeler. Veel minder vermoeiend.
Ik heb zelf een 5-tal jaar ervaring met een Model 3 met normale autopilot en alleen dat systeem al is voor mij echt een bron van vreugde, althans, minder haat aan anderen. De auto regelt het lekker en ik hoef niet voor 0.02 km/u verschil te gaan zitten mierenneuken op de A2. Heerlijk. En dan gaat het niet eens zozeer om het "andere dingen" kunnen doen, want dat mag niet en hoef ook niet van mij, maar het maakt rijden zoveel simpeler. Veel minder vermoeiend.
Ik vind het juist vermoeiender om met de autopilot te rijden, je moet eigenlijk beter opletten omdat er iets onverwachts kan gebeuren zoals een spontane remactie. Dan kan je beter gewoon zelf rijden, ik zou niet weten waarom je moeilijk zou moeten doen om een klein snelheidsverschil op de snelweg. Dat komt meestal ook alleen van mensen die perse op de cruisecontrol willen rijden. Ik denk dat ik het laatste jaar zowel autopilot als de cruisecontrol helemaal niet meer gebruikt heb.

De "autopilot" van andere merken is in 9/10 gevallen beter en betrouwbaarder. Misschien dat het na deze update met de "echte" FSD wel enigszins bruikbaar is.
Dat komt meestal ook alleen van mensen die perse op de cruisecontrol willen rijden.
ja ik ga niet de A2 in zonder. dat is vragen om een boete.
je moet eigenlijk beter opletten omdat er iets onverwachts kan gebeuren zoals een spontane remactie.
Welgeteld misschien 4 keer gehad in die 5 jaar.

Maar je moet nog steeds gewoon normaal opletten. Alleen nu niet per se om te remmen, maar om gas bij te geven.
De "autopilot" van andere merken is in 9/10 gevallen beter en betrouwbaarder.
Ik heb er weinig van gemerkt de afgelopen jaren. Ik kan ook genoeg voorbeelden online vinden waar dat niet uit blijkt. De daadwerkelijke hands-off systemen werken op nog geen 2% van de Europese wegen.
Ik denk dat ik het laatste jaar zowel autopilot als de cruisecontrol helemaal niet meer gebruikt heb.
tsja dat moet je zelf weten hoor, maar het is wel zo dat beide systemen over het algemeen zuiniger rijden en beter zijn voor de doorstroming.
Dan hebben we het nog niet eens gehad over het technische nadeel dat Tesla inherent heeft door alleen gebruik te maken van camera's. Vrijwel elke andere concurrent, zoals Ford, gebruikt daarnaast bijvoorbeeld radar. Dergelijke sensors vullen camera's aan als ze bijvoorbeeld door een laaghangende zon of in het donker niets zien. Hoe goed Tesla's software ook moge zijn, tegen een verblinde camera valt niet op te programmeren.
Bluecruise met radar werkt ook niet meer als de camera's verblind zijn. De radar detecteert namelijk wel dat er iets ligt, maar kan niet zien wat, hoe en waarom. Ook niet of de weg rechtdoor gaat of whatever.

Radar voegt dus weinig toe anders dan obstakel detectie en nauwkeurige afstandsmetingen.

Sowieso gaat Tesla niet zomaar meer Radar implementeren, want dat hebben ze juit uit de auto's gehaald omdat het vaak voor conflicten zorgde. Als je ene sensor zegt "hee is iets", en je andere sensor zegt "nee hoor", wat kies je dan?
Als je ene sensor zegt "hee is iets", en je andere sensor zegt "nee hoor", wat kies je dan?
Dan geef je een duidelijke melding aan de bestuurder dat die het stuur direct over moet nemen.
Mja het klinkt logisch om te zeggen: “Als twee sensoren elkaar tegenspreken, dan geef je gewoon een waarschuwing en laat je de bestuurder overnemen.”
Maar dat is precies wat in de praktijk leidt tot phantom braking en onvoorspelbaar gedrag.

Een autonoom systeem moet namelijk continu beslissingen nemen op basis van sensorfusie. Als radar zegt “er is iets” en vision zegt “er is niets”, kun je niet elke keer de auto abrupt laten remmen of piepen dat de bestuurder moet ingrijpen, dan wordt het systeem onbruikbaar. Dat is geen uitzonderingssituatie: het gebeurt aan de lopende band door ruis, reflecties, staande objecten, laaghangende zon, bermmeubilair, etc.

Het punt is:
Twee sensoren die elkaar tegenspreken lossen elkaar niet op, ze vermenigvuldigen de foutkans. De auto moet kiezen welke sensor hij vertrouwt, en juist dát is de oorzaak geweest van het veelbesproken phantom-brake-probleem. Vision zegt “vrij”, radar zegt “object” -> de software kiest voor zekerheid -> remmen -> negatieve gebruikerservaring -> afkeuring door toezichthouders.

Daarom heeft Tesla radar uitgezet: niet omdat radar slecht is, maar omdat inconsistente inputs méér fouten veroorzaken dan ze oplossen. Eén consistente stack die altijd dezelfde waarheid levert is voor ADAS/AD meer voorspelbaar en betrouwbaarder dan twee strijdende bronnen die je constant moet reconciliëren.
  • Meer sensoren ≠ meer veiligheid, tenzij ze perfecte overlap en consistentie leveren.
  • Conflicterende sensoren = meer false positives -> meer phantom brakes -> minder bruikbaar systeem.
En dat is precies het issue waar Tesla vanaf wilde. En andere fabrikanten ook:
Volvo, a leading specialist in road safety, has just made a surprising decision: to abandon lidar technology, which assists in the driving of semi-autonomous vehicles. This mainly affects the EX90 and ES90 2026 electric models, which can be found in the ALBI Volvo showroom.
Volvo Cars had previously made the decision to make lidar optional on these vehicles starting 2026. The termination of the agreement with Luminar means lidar will no longer be offered on any EX90 or ES90 car from Model Year 2026 onwards.
Het voegt gewoon niks toe en maakt het alleen maar complexer.
De auto moet kiezen welke sensor hij vertrouwt, en juist dát is de oorzaak geweest van het veelbesproken phantom-brake-probleem.
Klinks mooi. Maar waarom blijft phantom-braking dan in Tesla's bestaan bij schaduwen op de weg, terwijl ze keihard tegen een stuk staal aanrijden?
Twee sensoren die elkaar tegenspreken lossen elkaar niet op, ze vermenigvuldigen de foutkans.
Zegt wie? Elmo Musk? Het logische zou zijn de sensor te vertrouwen die het erg zeker weet (stuk staal op de weg bv., waar radar zeer zeker iets kritisch ziet, of schaduw, waar radar helemaal niks ziet). Vermenigvuldigen zou het doen wanneer de andere sensor het ALTIJD mis heeft. Is dat nou echt realistisch? Zou een systeem wat de voorzichtige middenweg kiest niet veel logischer zijn?
Maar waarom blijft phantom-braking dan in Tesla's bestaan bij schaduwen op de weg,
Weet ik niet. ik weet ook niet of dat nog een ding is om eerlijk te zijn? Ik heb het na het uitschakelen van de radar eigenlijk niet meer gehad en daarvoor was het ook op 1 hand te tellen.
Zegt wie? Elmo Musk? Het logische zou zijn de sensor te vertrouwen die het erg zeker weet (stuk staal op de weg bv., waar radar zeer zeker iets kritisch ziet, of schaduw, waar radar helemaal niks ziet). Vermenigvuldigen zou het doen wanneer de andere sensor het ALTIJD mis heeft. Is dat nou echt realistisch? Zou een systeem wat de voorzichtige middenweg kiest niet veel logischer zijn?
ik snap eigenlijk niet zo goed wat je hier nu probeert te zeggen, ik denk dat er ook een typefout in zit?
Zegt wie? Elmo Musk?
Dit komt niet uit Tesla. Dit is gewoon standaard ADAS-literatuur.
Iedereen die sensorfusie werkt kent dit fenomeen: Inconsistente inputs vergroten de kans op een verkeerde beslissing, tenzij je een kaart-gestuurd of statistisch prioriteitsmodel hebt. Zonder HD-maps moet je realtime fuseren en daar gaat het fout.

Dit is waarom:
  • SuperCruise: HD maps
  • BlueCruise: HD maps
  • Drive Pilot: HD maps
  • Waymo: HD maps
  • Cruise: HD maps
  • Mobileye SuperVision: kaartgestuurd
Maar al deze systemen kunnen niet overweg met dynamische aanpassingen. ze zijn maar beperkt bruikbaar en binnen een zeer klein domein. Zo kun je blueCruise alleen gebruiken in Blue Zones, dat is 2% van het Europese wegennet. Terwijl deze goedkeuring van Tesla juist gaat over 99%
Het logische zou zijn de sensor te vertrouwen die het erg zeker weet (stuk staal op de weg bv.,
Maar welke sensor gaat dat dan zijn? En als je er meerdere hebt, hoe bepaal je welke sensor er dan op dat moment "het zeker weet"? Dit is precies het fusion probleem.
Met die logica kun je best géén sensoren gebruiken, want dan is er geen foute informatie en dus ook geen probleem. Dat is natuurlijk pure onzin.

Het is zeker mogelijk om verschillende bronnen van informatie te combineren tot een geheel dat minder fouten bevat dan al de bronnen apart. We doen het elke dag met onze zintuigen. GPS en andere positiesystemen maken er ook gebruik van.
Het is zeker mogelijk om verschillende bronnen van informatie te combineren tot een geheel dat minder fouten bevat dan al de bronnen apart.
Ja, maar momenteel zien we dat eigenlijk nergens terugkomen op een manier die ook echt betrouwbaar werkt. Sensor fusion is echt wel een lastig probleem omdat ook de rekenkracht die er voor nodig is om het goed te doen niet per se triviaal is.
We doen het elke dag met onze zintuigen
Leuk voorbeeld ja, maar zelfs bij ons gaat het fout. Ook mensen hebben sensorfusie-fouten: wagenziekte (ogen vs evenwicht), VR-simulatorziekte, vertigo, roltrapfouten, dieptefouten in mist, skiërs die omvallen door foutief fuseren van zicht en evenwicht… Extra sensoren betekenen niet automatisch meer zekerheid.
GPS en andere positiesystemen maken er ook gebruik van.
Niet helemaal. GPS ed maken gebruik van meer signalen van exact dezelfde modaliteit.
  • meerdere satellieten
  • dezelfde frequentieband (of een paar vaste banden)
  • dezelfde fysica
  • dezelfde signaalsoort (radio-timing)
  • met exact hetzelfde doel (positie bepalen)
Dus dat is niet “verschillende sensoren combineren”, maar: meerdere metingen binnen één en dezelfde sensorfamilie gemiddeld gebruiken om ruis te verlagen. Net als Tesla dus door middel van meer camera’s. GPS-verfijning werkt goed omdat alle satellieten precies hetzelfde soort informatie leveren: ze zenden een tijdsignaal uit, en het GPS-systeem berekent op basis daarvan de afstand tot elke satelliet. Tien satellieten geven dus niet tien verschillende interpretaties van de omgeving, maar tien identieke meetmethodes van één en dezelfde fysische grootheid. Als één satelliet tijdelijk een slechte meting geeft, kan die zonder gevolgen worden weggefilterd omdat hij geen unieke semantiek toevoegt. Alle andere satellieten meten hetzelfde principe. Daardoor blijft de rekensom consistent: elke input past binnen hetzelfde model van tijd -> afstand -> positie. Er is geen sprake van tegenstrijdige of context-afhankelijke sensorinformatie, zoals bij camera’s en radar of lidar, waar de sensoren totaal verschillende fenomenen meten en daardoor elkaar tegenspreken.
Een computer die beslissingen neemt op basis van sensoren, met gevolgen voor de veiligheid MOET de betrouwbaarheid van zijn sensoren toetsen. Dit is één van de basisbeginselen die je op een informaticaopleiding geleerd krijgt.

Wat Tesla stelt is totale kolder, fantoomremmen is een kwestie van slechte implementatie. Er kan veel gedaan worden om bij een dergelijke situatie op een fatsoenlijke manier de besturing aan de mens over te dragen.
Een computer die beslissingen neemt op basis van sensoren, met gevolgen voor de veiligheid MOET de betrouwbaarheid van zijn sensoren toetsen. Dit is één van de basisbeginselen die je op een informaticaopleiding geleerd krijgt.
Ja uiteraard wordt dat ook gewoon gedaan, maar dat zegt natuurlijk jack-shit als de context ontbreekt

Conflicten tussen camera en radar komen continu voor (schaduwen, regen, borden, portalen, reflecties, staande objecten).

Als je bij élk conflict “Hands on, take over!” doet, wordt het systeem onnuttig, irritant en uiteindelijk gevaarlijk.
Er kan veel gedaan worden om bij een dergelijke situatie op een fatsoenlijke manier de besturing aan de mens over te dragen.
Regulators accepteren dat ook niet. Een Level-2 systeem dat om de 90 seconden afhaakt is niet bruikbaar, en wordt daarom niet goedgekeurd.
Wat Tesla stelt is totale kolder, fantoomremmen is een kwestie van slechte implementatie.
Daar zou ik graag wat uitleg over zien dan. Want tot op heden zijn ook de Waymo's en Fords van deze wereld het niet zomaar met je eens.

Waymo en Cruise rijden tienduizenden km’s per dag zonder phantom braking, omdat hun basislijn altijd de HD-map is.
Niet omdat ze meer sensoren hebben, maar omdat ze een stabiel referentiekader hebben.

Maar daar ga je dus nooit zelf mee kunnen rijden, dat is hoogstens binnen de ODD een beetje rondjes rijden om het even zo te zeggen.
Wellicht is het het makkelijkst om het andersom uit te leggen:
  • De computer reconstrueert een 3D-beeld van de omgeving.
  • De computer moet op elk moment in de tijd berekenen wat de betrouwbaarheid van die reconstructie is.
  • Extra sensoren, zoals radar, zoals lidar, kunnen dienen ter bevestiging van die reconstructie.
  • Indien een reconstructie op basis van camera's bevestigd kan worden met radar of lidar, stijgt de betrouwbaarheid.
  • Er zullen situaties zijn waar de betrouwbaarheid van de reconstructie zonder de gegevens van de extra sensoren niet betrouwbaar genoeg is om de computer de auto te laten besturen, maar na toetsing met de extra sensoren wél betrouwbaar genoeg is.
  • Derhalve kan het aantal fantoomremacties juist verminderd worden.
Ja oke ik snap wat je bedoelt. Maar in de praktijk zit je met het probleem dat sensoren gewoon verschillende waarheden meten waardoor ze elkaar zelden bevestigen. Dit werkt alleen als je een ground truth hebt in de vorm van gescande HD maps.

Even als voorbeeld. Je rijdt op de snelweg, er valt een sterke schaduw over de weg.
Camera twijfelt even -> radar ziet niks -> lidar ziet een vlakke vorm.
Moet je remmen of niet? De sensoren “bevestigen” elkaar niet, omdat ze verschillende dingen meten.

Dit soort conflicten komen constant voor: borden, bruggen, vangrails, signaalportalen, reflecties, stilstaande objecten naast de weg… voor radar en lidar zijn dat allemaal “objecten”, maar ze zeggen niks over of jij moet remmen. Zonder HD-maps heb je geen basislijn om vast te stellen: dit hoort hier of dit hoort hier niet.

Daarom leveren extra sensoren zonder kaartinformatie in de praktijk niet méér zekerheid op, maar juist méér ambiguïteit, en dus méér phantom braking. Vision-only is niet goedkoper, maar consistenter: één waarheidsbron in plaats van drie die elkaar continu tegenspreken.

Wil je dan een systeem maken dat altijd werkt dan kun je dat niet baseren op een HD-maps systeem. Dat werkt namelijk niet in alle omstandigheden. Het werkt al niet eens in de meeste omstandigheden (huidige dekking is net iets van 2% in europa).

De systemen met HD-maps kunnen totaal niet omgaan met veranderde situaties (wegwerkzaamheden). ze geven de controle of terug, of rijden er met een boog omheen. Waymo moet je dan een support call doen en dan zet iemand er een andere route in. Hier een voorbeeldje van een jaar terug: Driverless Car Confused by Construction Zone | Waymo Ride Along #14
Een strijdigheid zal vaker voorkomen, maar dat moet je aanpakken met je oordelen over je betrouwbaarheid van je sensoren. Als je in de mist rijdt zijn je camera's onbetrouwbaar, als je in de regen rijdt is je lidar onbetrouwbaar.

Als je in de mist rijdt en je lidar wel betrouwbaar genoeg is, dan is een conflict met de camera's niet direct reden voor een plotselinge remactie. Op het moment dat het systeem denkt dat zowel de camera als de lidar betrouwbaar is, dan wordt dat natuurlijk een ander verhaal, dat is wel een situatie dat het systeem niet veilig door kan rijden. En op die manier kan met een fatsoenlijke implementatie een beter systeem gemaakt worden dat niet om de haverklap op de rem trapt.
Als je in de mist rijdt en je lidar wel betrouwbaar genoeg is
Maar dat is dus een foutieve aanname. Lidar meet iets heel anders. Lidar kan jou nooit vertellen of de weg rechtdoor loopt of naar links gaat bijvoorbeeld. Het kan ook geen verkeersborden lezen.

Lidar heeft een significant lagere resolutie en kan alleen gebruikt worden voor boolean objectherkenning.
Op het moment dat het systeem denkt dat zowel de camera als de lidar 'on'betrouwbaar is, dan wordt dat natuurlijk een ander verhaal, dat is wel een situatie dat het systeem niet veilig door kan rijden.
Ik neem aan dat je daar een "on" mist?
En op die manier kan met een fatsoenlijke implementatie een beter systeem gemaakt worden dat niet om de haverklap op de rem trapt.
Het uitschakelen van de extra sensoren ook. En dat verlaagd niet de safety scope. Ik heb zelf 125.000 km op Nederlandse en engelse wegen gereden, zelfs met heftige regen in Engeland werkte Vision oke. Pas als het echt heftig werd niet meer, maar dan zag je hoogstens 20 meter, dat is echt niet veilig rijden daar. Lidar gaat daar overigens geen klap helpen met die hoeveelheid water.

Toen Tesla radar uitzette was phantombreaking vrijwel geen issue meer. Volvo is ook gestopt met Lidar en is over naar Vision only. Mercedes zit met Drivepilot 2.0 op 905nm en met 95km/h op het randje van wat haalbaar is met die techniek. Zij gaan testen met 1550nm en dan voor DP 3.0 waarschijnlijk tot dezelfde conclusie komen als Volvo, Lidar voegt weinig toe anders dan grofweg €1K aan hardware.
[...]
Maar dat is dus een foutieve aanname. Lidar meet iets heel anders. Lidar kan jou nooit vertellen of de weg rechtdoor loopt of naar links gaat bijvoorbeeld. Het kan ook geen verkeersborden lezen.
Nee, maar het bespaar wel het gebruik van KI om van 2D-beelden naar een 3D-representatie te gaan en dus die bron van interpretatiefouten. Het genereert direct 3D-gegevens en kan dus een hogere betrouwbaarheid 3D-omgeving creeëren.

Die 3D-omgeving moet vervolgens ook weer geïnterpreteerd worden. Daarbij kunnen kaarten helpen, maar ook hier is gebruik van kunstmatige intelligentie mogelijk.
Ik neem aan dat je daar een "on" mist?
Nee, als zowel camera's als lidar door het systeem als betrouwbaar beoordeeld worden en er is een strijdigheid, dan moet er wel sprake zijn van een interpretatiefout en moet het systeem concluderen dat het in deze situatie niet veilig kan rijden.
Het uitschakelen van de extra sensoren ook. En dat verlaagd niet de safety scope. Ik heb zelf 125.000 km op Nederlandse en engelse wegen gereden, zelfs met heftige regen in Engeland werkte Vision oke.
Nou ja, dit is nu net het omstreden deel van het Tesla-systeem. Je voorkomt het fantoomremmen, maar de vraag is of je nog voldoende betrouwbaarheid overhoudt om veilig te rijden. De vele filmpjes waar Tesla's botsingen veroorzaken zijn terug te voeren op dat het systeem niet op tijd signaleert dat het in die situatie niet kan rijden.
Pas als het echt heftig werd niet meer, maar dan zag je hoogstens 20 meter, dat is echt niet veilig rijden daar. Lidar gaat daar overigens geen klap helpen met die hoeveelheid water.
Nee, lidar is niet behulpzaam bij zware regen, maar er is ook nog radar en ultrasoon als derde en vierde systeem. Als geen enkel systeem een betrouwbaar beeld kan creëren kan het systeem niet veilig rijden en het lijkt me dat de kans dan groot is dat ook een mens de auto dan stil zal moeten zetten.
Toen Tesla radar uitzette was phantombreaking vrijwel geen issue meer. Volvo is ook gestopt met Lidar en is over naar Vision only. Mercedes zit met Drivepilot 2.0 op 905nm en met 95km/h op het randje van wat haalbaar is met die techniek. Zij gaan testen met 1550nm en dan voor DP 3.0 waarschijnlijk tot dezelfde conclusie komen als Volvo, Lidar voegt weinig toe anders dan grofweg €1K aan hardware.
Ja, Volvo heeft de lidar verwijderd, maar de radar en ultrasone sensoren niet, dus ik denk dat het te vroeg is om te stellen dat Volvo nu op de lijn van Tesla zit.
Ik vind het interessant dit hoor, maar ik merk dat ik ook niet volledig overtuigend kan zeggen dat het echt niet zo is. Ik voel echter wel wat tegenstrijdigheden in deze dingen.
maar het bespaar wel het gebruik van KI om van 2D-beelden naar een 3D-representatie te gaan en dus die bron van interpretatiefouten
Zoals hier oorzaak/gevolg, causaliteit/correlatie. Ís dit ook daadwerkelijk de bron van interpretatiefouten? Ga je die daadwerkelijk 100% wegnemen met het toevoegen van Lidar?
De vele filmpjes waar Tesla's botsingen veroorzaken zijn terug te voeren op dat het systeem niet op tijd signaleert dat het in die situatie niet kan rijden
Maar datzelfde kan ook gezegd worden over de honderden Waymo crashes en alle BlueCruise crashes. Het ding is alleen, Tesla heeft zo gigantisch veel meer voertuigen op de weg dat dat soort statistieken echt geen klap zeggen zolang je ze niet normaliseert naar per X km. Absolute getallen van crashes (waarbij tesla er slechts 5 keer zoveel had als waymo volgens NHTSA data), kun je niet vergelijken als je de context niet meeneemt. Zo werkt een mercedes alleen op de autobahn met maximaal 95 km/u.

Daarmee ga je geen ongeluk veroorzaken waar jij schuldig aan bent. Ongelukken op de autobahn zijn maar iets van 6% van alle ongelukken volgens ADAC:
Are there more accidents on autobahns? Of the 264,000 accidents a year, 15,000 occur on German motorways, but not all of them have unlimited speed limits. In other words, less than 6% occur on this type of road, and not all of them occur on roads with no speed limits. In fact, only 12% of the 2,700 fatalities occurred on motorways.
Dus dat systeem wat in een hele gecontroleerde omgeving werkt vergelijken is niet helemaal eerlijk. Ford BlueCruise werkt maar op 2% van de Europese wegen en dan hoofdzakelijk op vooraf ingelezen wegen. En zelfs die maken serieuze crashes: https://eletric-vehicles.com/ford/ntsb-confirms-use-of-fords-blue-cruise-self-driving-tech-in-fatal-crash/
A car was sitting in the middle of the road in the middle of the night with no lights on in Texas where the speed limits are 75-80 mph.
Radar zou dit gezien moeten hebben. Radar geeft niet om licht of donker. Zichtbaar licht is irrelevant voor Radar. Waar dit dus voor mensen wel als problematisch wordt ervaren had Radar dit Juist moeten zien als een probleem en direct in moeten grijpen. Maar dat heeft het niet gedaan. Ford gebruikt HD-maps die met Lidar zijn ingelezen om de blue zones te maken.

een vergelijkbaar systeem van GM wat ook in Supercruise wordt gebruikt maar dan met Lidar is nu ook bruikbaar als Waymo achtige dienst GM Cruise. dat bedrijf is nu vol in onderzoek vanwege een crash waar het een voetganger 6 meter meegesleurd heeft over de weg:
NHTSA said Cruise submitted several incomplete reports for crashes involving automated driving systems including two tied to the October crash.

It discovered Cruise omitted details from the October 2023 crash reports after viewing video it requested from Cruise, which has also amended four other reports to provide additional detail on other crashes, the agency said.

NHTSA's investigation into whether Cruise is taking sufficient precautions with its autonomous robotaxis to safeguard pedestrians remains open.

In August, Cruise recalled 1,200 robotaxis over hard braking issues following a NHTSA probe into the safety of their autonomous driving systems.

GM said in July it would indefinitely suspend plans to use its self-driving Origin vehicle that does not have a steering wheel.

In response to the October accident and subsequent investigations, Cruise's CEO resigned last year and General Motors subsequently announced plans to scale back spending on the self-driving unit.
Het is dus allemaal niet zo simpel als: ja maar even meer sensoren erbij dan komt het wel goed.

Je ziet gewoon in de praktijk dat het niet zo is. Dat sensorfusion problemen ook de verkeerde kant op kunnen werken en dat dit niet per se betekent dat de gebruiker dit op kan lossen. Die crash van die Ford, no way dat een bestuurder dat 1.tijdig genoeg gezien had en 2, ook nog in had kunnen grijpen. Zo eerlijk moeten we ook wel zijn. Maar Radar en/of Lidar doet dit dus niet per se beter.

Cruise is uiteindelijk ook gestopt dit jaar:

https://www.reddit.com/r/SelfDrivingCars/comments/1ihnho2/a_farewell_from_cruise/

maar Waymo gaat ook niet vrijuit. Hun iPace auto's hebben voor 10K aan sensoren hangen en dan rijden ze alsnog tegen elkaar aan: https://www.reddit.com/r/SelfDrivingCars/comments/1mdl5zn/two_waymo_cars_collided_in_phoenix_today/

En dat was niet op highway speeds, maar gewoon max 30.
Nee, lidar is niet behulpzaam bij zware regen, maar er is ook nog radar en ultrasoon als derde en vierde systeem. Als geen enkel systeem een betrouwbaar beeld kan creëren kan het systeem niet veilig rijden en het lijkt me dat de kans dan groot is dat ook een mens de auto dan stil zal moeten zetten.
Ultrasoon is voor ultra korte afstand, veel verder dan 5 meter werkt dat helemaal niet. ook zijn de sensoren over het algemeen vrij traag. Mbt de radar, ik weet niet of dat in het self driving systeem wordt gebruikt. Ik weet dat Volvo het normaal gebruikt voor AEB, ACC en Blind Spot monitoring, maar of het ook onderdeel is van de verdere suite weet ik niet. Daar kan ik weinig informatie over vinden.
Als je ene sensor zegt "hee is iets", en je andere sensor zegt "nee hoor", wat kies je dan?
Lijkt mij een goed moment om die "(Supervised)" aan het werk te zetten.
ja en dat is dus ook exact wat alle systemen doen. Radar en lidar zijn gewoon totaal niet betrouwbaar en zelfs als extra maar matig inzetbaar. Volvo heeft ze niet voor niks volledige uit z'n ex90 geschrapt.
Of het nu februari, maart of april wordt maakt niet zoveel uit.

Het gaat een hele grote impact hebben niet alleen voor prive autos, maar vooral Taxi's en straksnook vracht verkeer.

Tesla staat er goed voor.
Dat het, als het eindelijk veilig kan, een grote impact zal hebben staat niet ter discussie, dat Tesla zichzelf overhyped volgens mij ook niet. Ik zie/lees voldoende horror verhalen over ongelukken.

Het zal ook wel mijn (Tesla-sceptische) information bubble kunnen zijn, maar volgens mij is het systeem nog lang niet op het niveau wat we in de EU (moeten) willen hebben.

Ik denk dan ook niet dat de vraag "februari, maart of april" is, maar "2026, 2027 of misschien zelfs 2030 (of nog later)".

Ik bedoel, wat denk je van de punten die in dit artikel aangehaald worden: alleen camera's, het grote verschil in weginrichting in Europa etc?
Juist de weg inrichting is wat het in Europa nog geschikter maakt dan in Amerika. Als het al soepel werkt in Beijing , Hangzhou en Shanghai, en in Parijs zonder problemen de Arc de triomf en in Amsterdam door het centrum kan navigeren denk ik dat we er klaar voor zijn.

Al dat geneuzel over sensoren en camera's is natuurlijk onzin. Wij als mensen hebben maar twee camera's in ons hoofd en voor veel mensen werken die ook maar matig.

Een AI zal ook veel beter kunnen omgaan met slecht zicht en rare omstandigheden en reageert in milliseconden waar wij als vlees machines vooral ongelukken veroorzaken.

Nu met versie 14.3 en de vele miljoenen kilometers die steeds weer terug ingevoerd worden in het leer model zijn we al op het punt dat een mens aan het stuur alleen maar een risico is.
Wat ik zeg, misschien is het mijn info bubbel, maar de sensoren 'geneuzel' noemen en dat miljoenen kilometer terug ingevoerd worden zijn nu niet echt argumenten die mij overtuigen - als je iets in een slecht algoritme invoert komt er ook gewoon net zo hard troep uit?

Dat een mens achter het stuur een risico is staat voor mij als een paal boven water, zeker als ik zie wat voor idioten er in NL rondrijden - met name in de Randstad. (Hier in Spanje gaat het een heel stuk rustiger en relaxter aan toe) Maar dat wil niet zeggen dat 'geen mens' automatisch beter is? Achter die twee camera's (ogen) van ons gaat toch een behoorlijk sterke biologische supercomputer schuil.
Het is aan Tesla om te bewijzen dat hun oplossing veilig genoeg is.
Ik denk persoonlijk van wel aangezien ik het al zeker 10 jaar in detail volg en zelf ook al 6 jaar tesla rij en ook de verbetering zelf meemaak.

Maar goed 2026 wordt een belangrijke en bepalend jaar om te zien hoe de toekomst zich gaan ontvouwen.
Als ze nu beginnen met het weghalen van die woord inflatie. Lijkt steeds meer op die "unlimited" bundels van de telco's, die niet "unlimited" zijn. Worden na X GB afgekapt of onwerkbaar traag gemaakt.

Als ik "full self driving" zie, verwacht ik dat ik hoogstens het sleuteltje hoef om te draaien, aan te geven waar ik naar toe wil, de auto rijdt zelfstandig. Als er dan in de kleine lettertjes allerlei mitsen en maren staan, is het niet "full". Dan is het gewoon "Assisted Driving". Ongeacht wat die PR/sales mensen zeggen.
Nou die sleutel omdraaien is iig niet nodig ;)
Langs de ene kant is het vergelijkbaar met havermelk, wat natuurlijk iedereen snapt maar nu toch verboden is geworden zonder dat daar ooit iemand om vroeg. Bij Tesla's product staat ook in de titel dat het supervised is en het spreekt zichzelf tegen, net als "xyzmelk" zonder melk eigenlijk zelftegenspraak is.

Toch voelt het anders. Misschien omdat te vermoeden valt dat Tesla het helemaal niet erg vindt als iedereen ernaar refereert als "FSD" zonder "-S" (het "maar niet heus" gedeelte), terwijl een melkalternatief-fabrikant die bedoeling niet kan hebben? Niemand die melk wíl kopen gaat tevreden zijn als ze er thuis achterkomen dat het helemaal geen melk bevat. Er valt dus geen misleidende opzet te vermoeden in dat geval.

Ik vind het lastig om het precieze verschil tussen de termen aan te wijzen, maar deze uitleg zou ook opgaan voor bijvoorbeeld zo'n "unlimited" mobiel abonnement dus misschien dat dit het is?

[Reactie gewijzigd door baseoa op 30 november 2025 16:13]

Volgens mij.. Omdat het niet een regulier, rules based, geprogrammeerd systeem is, is het niet mogelijk om het systeem te "beperken".

Er zit dus niet een "if this = snelweg do x" in... FSD is getraind om te rijden als een echt persoon. Erg succesvol ook op dit moment in Amerika:

YouTube: Tesla AI cooked. V14 feels ALIVE

[Reactie gewijzigd door Devian op 28 november 2025 16:08]

Ze kunnen wel op de snelweg met een andere softwarestack rijden (waar snelweg Autopilot was en alles daarbuiten FSD), hebben ze in de US ook nog enige tijd gedaan tot alles overging op 1 stack.
Ik denk ook dat dat het grootste probleem is bij de toelating.
De huidige wetten zijn allemaal gebaseerd op lineare software, idd de ITTT/PLC aansturing.
En de wetgevers en toetsingsinstanties worden nu geconfronteerd met een door neural-net getraind AI model.
Een soort blackbox als het ware, welke je niet zo maar kan analyseren, maar daadwerkelijk in de praktijk (via simulaties of realworld ritten) moet controleren op compliance.
Volgens mij maakt het niet zoveel uit hoe goed dit Supervised systeem van Tesla het eigenlijk doet. Zolang je je aandacht er voordurend bij dient te houden zie ik de meerwaarde tov 'TACC met autosteer' niet eerlijk gezegd. Met deze laatste kun je al beperkt automatisch filerijden, maar moet je het stuur regelmatig vast houden.

Deze versie van Supervised FSD is de overtreffende trap daarvan, met fancy inhalen en al, maar de crux blijft: je moet continu alert blijven. Dit is de 'super kinder oppas'...die je door de ruit heen een beetje in de gaten moet houden. Kun je nog niet van huis weg.

Zolang het geen level 4 of 5 autonoom rijden is, zie ik de meerwaarde niet echt. Indrukwekkend, dat wel, but not quite there yet.
Je kan het ook omgekeerd zien. Zolang het level 2 is, en de gebruiker dus moet opletten, is het misschien veel makkelijk om goedkeuring te krijgen van de verschillende instanties. Als het goed werkt, en dat kunnen ze bewijzen, dan is het waarschijnlijk ook veel makkelijker om goedkeuring naar level 3,4 of 5 te krijgen.
Ik ben juist bang voor een ander effect; dat mensen dit level 2 systeem als een level 3 of 4 systeem gaan gebruiken, omdat ze het stuur niet meer regelmatig vast hoeven te houden.

In de vaak aangehaalde Zembla aflevering was dàt nl. de voornaamste oorzaak van dodelijke ongevallen: het level 2 systeem faalde (as to be expected), maar de bestuurders waren met andere dingen bezig dan 'opletten op het verkeer'.
Ik mis het aller belangrijkste.

Tesla werkt in tegenstelling tot andere merken niet in een afgebakend gebied, maar gewoon overal. Check de video's van een uit Amerika geïmporteerde cyber truck die doodleuk zonder problemen in Praag rond rijd.

Check gewoon de duizenden en duizenden videos van de laatste versie's in de VS of Australië of gelijk waar het mag. Het is gewoon klaar en werkt. Nu is het gewoon wachten op een keuring dienst in Europa die niet naar de politiek kijkt maar beseft dat een systeem die veiliger rijdt dan mensen heel veel ongevallen voorkomt. Tis puur statistiek.
Ik verwacht dat FSD eerst alleen beschikbaar komen voor belijnde wegen en eventueel ook voor gescheiden banen / eenrichtingverkeer zonder belijningen.

Ik zie echter voorlopig niet de Tesla of andere EV door een oude krappe Nederlandse stad navigeren met fietsers
https://npo.nl/start/serie/zembla/afleveringen/seizoen-25/zembla_121

Black box Tesla

Afl. 8•Zo 1 jun•42m•

Elon Musk belooft al jaren zelfrijdende auto's die veiliger rijden dan mensen. Met de introductie van het Autopilot-systeem zette Tesla tien jaar geleden de eerste stap. De auto's golden als groen en innovatief, maar raakten betrokken bij zware ongelukken in de Verenigde Staten en Europa. Dat leidde tot scherpe kritiek, onderzoeken en rechtzaken. Toch zet Musk door en hij hoopt dit jaar nog goedkeuring te krijgen voor de introductie van Full Self Driving in Europa. Zembla onderzoekt hoe het kan dat Tesla's Autopilot-systeem al jaren wordt gelinkt aan ongelukken, en welke rol de Nederlandse Rijksdienst voor het Wegverkeer daarbij speelt.
Menselijke bestuurders zijn ook betrokken bij zware ongelukken, moet je dan niet ook de menselijke bestuurders gaan verbieden?

Uiteindelijk moet je voor de bestuurder gaan die de minste ongelukken veroorzaakt, dat er 0 ongelukken zullen zijn is een illusie.
Jij geeft gewoon maar een reactie waar je denkt dat de aflevering over gaat?
Als íets rijhulpsystemen onveilig maakt, zijn het de regels. Laat ze dáár een aflevering over maken
Die hele uitzending was vooral kritisch en selectief en erg sturend. Het valt me sowieso op met al die linkse "documentaires" en "nieuws items" dat ze niet erg objectief zijn en vaak altijd maar 1 kant van het verhaal laten zien. Sensatie en sturing.

Gelukkig ben ik al 20 jaar opgehouden met TV kijken en ik doe mijn eigen onderzoek wel in plaats van een eenzijdig verhaal voorkauwt te krijgen.
En wat zegt dit allemaal? Leuk zo'n link dump, maar wat wil je er mee zeggen?

Aantal incidenten per fabrikant:

https://www.craftlawfirm.com/autonomous-vehicle-accidents-2019-2024-crash-data/

Tesla 2,146
Waymo 415
General Motors 219
Cruise 187

Dan zou je zeggen "goh wat doet Tesla het slecht"

Totdat je dus gaat normaliseren voor het aantal gereden kilometers met de systemen aan. Tesla heeft miljarden kilometers achter de rug met een significant grotere vloot dan bijvoorbeeld een waymo, die net zijn 100 Miljoen miles driven milestone heeft gehaald dit jaar. Terwijl Teslas met FSD dit kennelijk binnen 3 weken doen:
Collectively, the Tesla fleet has driven more than 3.6 billion miles on FSD – first Beta, then Supervised

2.16 billion miles in 2024 alone
En nee, dan kun je dus niet 3600/2146 doen om een hoger getal te krijgen dan bij Waymo, want die crash statistics zijn per merk en voor Tesla dus inclusief kilometers waarbij Autopilot of FSD niet aan stond.
Tesla has over 5 million vehicles fitted with FSD hardware and software on the road today, driving an estimated 50 billion miles per year — 100,000 miles per minute. This on-going data collection gives Tesla a massive advantage over competitors developing an end-to-end neural net self-driving stack.
En dan zijn de cijfers ineens heel anders. Waar Waymo al zijn gehele levensduur over doet, doet Tesla ieder minuut. Nogal wiedes dat je dan vaker in een ongeluk terecht komt.

Maar dit zijn natuurlijk wereldwijde cijfers dus ook dat is zeker niet helemaal eerlijk. Maar de US market is normaliter ongeveer 50%, dus dan is het 2 minuten.

Dus heel leuk al deze artikelen, maar wat wil je er eigenlijk mee zeggen?
Ik wil er helemaal niets mee zeggen. Ik wil dat mensen het kunnen lezen. Grappig dat je daar je comment mee begint en eindigt, ga maar gewoon lezen. En zoveel miles, en nog steeds phantom breaking? Wat is jouw punt van aangeven hoeveel miles er gereden zijn? En dat je uberhaupt Tesla FSD met waymo vergelijkt vind ik verrassend. Een camera gebaseerd system, kwetsbaar voor bijv. al schaduwen op de weg en een systeem van cameras lidar en radar? Beetje appels met peren vergelijken. En als je leest, en of kijkt dan lees je dat de Tesla de autopilot vaak uit heeft gezet vlak voor een ongeluk, en de bestuurder dat niet doorheeft, lekker op zijn mobieltje zit, of die banaan onder uit de tas haalt van de passagiers stoel en zo frontaal op een ander klapt, dood. Die persoon is dood, en dat is omdat een merk het idee geeft dat de auto geheel zelf kan rijden, en er niet meer hoeft opgelet te worden. Lees die studies nou maar eens. Het gaat om meer dan jouw geliefde automerk bashen.
En zoveel miles, en nog steeds phantom breaking?
Ten eerste is het braking. En ten tweede hoe kom je erbij dat het nog steeds zo is? Ik heb het hoogstens 4 keer gehad in het begin toen de radar nog actief was. Radar uit, nooit meer wat van gehoord.
Een camera gebaseerd system, kwetsbaar voor bijv. al schaduwen op de weg en een systeem van cameras lidar en radar? Beetje appels met peren vergelijken
Nee dat is niet appels met peren vergelijken. Waymo is primair een vision based system. Waymo maakt gebruik van Lidar om dat aan te kunnen vullen. Echter zien we dat systemen die zoiets doen ook nog steeds vergelijkbare ongelukken maken. Ook radar systemen zoals ford blue cruise. Die zijn nu op het punt waar tesla vijf jaar geleden stond met radar. Radar zei hee daar staat iets, vision zei “nee hoor” gevolg, hele boel naar getver. En bij waymo zie je het ook met lidar systeem. Laatst twee waymos die tegen elkaar waren gereden. Heb je gecombineerd $20.000 aan sensoren, rijd je tegen elkaar aan 8)7
Wat is jouw punt van aangeven hoeveel miles er gereden zijn?
Omdat het statistisch relevant is hoeveel je rijd voor het aantal ongelukken wat je krijgt statistisch gezien heeft de gemiddelde amerikaan namelijk iedere 150k-200k miles ofzo een licht ongeval. Als je dan dus 10 miljoen miles rijd is het helemaal niet gek dat je ~50x betrokken raakt bij een ongeval. Accidents per million miles driven is gewoon een standaard daarvoor. Je kunt dus helemaal niet zeggen dat andere systemen beter zijn als je die statistieken niet het. In absolute aantallen kan een andere oplossing dan 2x minder ongelukken hebben, maar als er 10x minder mee gereden wordt is er dus effectief een gevaarlijker systeem. Dat is niet handig.
En als je leest, en of kijkt dan lees je dat de Tesla de autopilot vaak uit heeft gezet vlak voor een ongeluk
Ja dat is de bedoeling en verplicht. De hele auto schiet in panic mode. Als je dat mist dan lig je echt te slapen.
en de bestuurder dat niet doorheeft, lekker op zijn mobieltje zit, of die banaan onder uit de tas haalt van de passagiers stoel en zo frontaal op een ander klapt, dood. Die persoon is dood
Door eigen toedoen ja. Het systeem geeft op verschillende manieren aan dat jij verantwoordelijk bent, dat jij moet opletten en dat jij nog steeds de chauffeur bent. Het is aan jou om een hulpmiddel veilig te gebruiken. Als jij op een moment een banaan uit een tas gaat halen en twee tellen later er. Iet meer bent, dan heb je echt niet gekeken of dat het beste moment was om die banaan te pakken. En dat doen mensen ook in auto’s die helemaal dit soort systemen niet hebben.
en dat is omdat een merk het idee geeft dat de auto geheel zelf kan rijden, en er niet meer hoeft opgelet te worden.
Alleen gebaseerd op de naam is dat echt een kansloze aanname. Je kunt wel zien dat je zelf nooit met dergelijke systemen in aanraking bent gekomen. je wordt doodgegooid met het feit dat je zelf op moet letten.
Het gaat om meer dan jouw geliefde automerk bashen.
Maar maak dan een fatsoenlijke post en geen linkdump waar niemand tijd voor heeft. Dus vandaar de vraag. Wat wil je er mee zeggen? dat specifiek tesla een slecht systeem heeft of dat alle systemen slecht zijn.
Nee veel simpeler. Autopilot (alle merken, echter weet ik alleen van tesla dat ze er ook hun best op doen valse advertenties hier over te maken) is er nog lang niet, en mensen kunnen helemaal niet omgaan met dit soort features. De meeste automobilisten zijn al geen wonder op de weg, en dit maakt ze imho alleen nog maar slechter. Te veel mensen hebben de illusie dat het een wonder systeem is. Dat is ook wat je als je gewoon de links leest ziet wat onderzoeken aantonen.

En phantom braking gebeurd nog steeds, zoek maar op reddit in de teslalounge, zal je niet vervelen met links die je toch niet gaat lezen. Sommige mensen melden het minder te ervaren, andere onveranderd. :+

Tevens vraag ik ook niet jou specifiek om een reply te maken, en sowieso raar dat je erop reageert als je niet de tijd hebt om deze onderzoeken te lezen. 8)7
Tevens vraag ik ook niet jou specifiek om een reply te maken, en sowieso raar dat je erop reageert als je niet de tijd hebt om deze onderzoeken te lezen.
het idee is hier dat je een post maakt en die staaft met onderzoeken als bewijs. Zomaar random een onderzoek droppen zonder te vertellen waarom je dat doet en wat we er in moeten kunnen lezen is ongewenst. Daarom reageerde ik met de vraag, wat wil je nu zeggen. Waarom specifiek alleen deze links?
En phantom braking gebeurd nog steeds, zoek maar op reddit in de teslalounge, zal je niet vervelen met links die je toch niet gaat lezen.
Als je mij wat quotes geeft en pointers naar wat ik moet zoeken zeker op een kort iets als een reddit post dan klik ik daar zeker wel op.

Maar ik ga geen 22 wetenschappelijke artikelen zitten lezen zonder een idee waar ik naar op zoek ben. Dat is toch niet zo gek? Hoe wil je van mij zo'n investering in effort verwachten als je zelf niet eens je eigen punt kunt verwoorden?
Autopilot (alle merken) is er nog lang niet
Kijk oke, dat is een fair statement waar ik dan wat mee kan. Als je dat eerder had gezegd dan was ik inderdaad niet over de failures van een Waymo of BlueCruise begonnen.

Heel eerlijk denk ik dat we al wel een eind zijn, maar dat het vooral een kwestie is van de beperkingen erkennen. Zo rijd ik nu dus ook met mijn voet boven het gas ipv de rem, want de kans dat ik gas bij moet geven was toen significant groter. Ondertussen is het systeem weer vervangen en zal ik bij de volgende wagen weer moeten gaan leren hoe het systeem daarin reageert. Maar dat is en blijft mijn eigen verantwoordelijkheid.

Maar laten we vooral niet de Amerikaanse psyche en denken gaan projecteren op hoe we in Europa omgaan met dergelijke zaken, want dat is ook wel hoe veel ongelukken daar heel makkelijk ook wel terug te voeren zijn naar "denk even na."

Ook een compleet gebrek aan rij opleiding in veel staten is een probleem.

maar om even op dat stukje psychologie in te gaan bij je onderzoeken, ik zie daar wel een aantal dingen die het niet per se representatief maken en waar je nu een conclusie aan hangt die mogelijk te voorbarig is. even wat anaylses van mijn kant.

Veiligheidsanalyse Tesla Autopilot (overzichtsstudie / ResearchGate): Onzekere peer-reviewstatus en grotendeels gebaseerd op oudere data en secundaire bronnen. Handig als literatuur-samenvatting, maar niet geschikt als harde basis voor conclusies over de huidige FSD-implementatie.

Interviews over (mis)gebruik van Autopilot/FSD (Frontiers): Laat typen misbruik en over-reliance zien in een zelfgekozen groep enthousiaste gebruikers. geeft geen representatieve incidentie of statistiek voor alle rijders en dus geen direct beeld van hoe vaak dit nu (bij v14) voorkomt in de hele vloot.

Kwetsbaarheden in ADAS-systemen (arXiv 2204.06768): Toont kwetsbaarheden in een anoniem ADAS-systeem onder kunstmatige aanvallen. Illustreert een klasse risico’s, maar niet per se dat Tesla’s huidige FSD precies zo kwetsbaar is of hoe vaak zulke scenario’s in het echt voorkomen. Ik zag schema's over de can interface en hoe daar ingeprikt kon worden, Dergelijke dingen zijn al 30 jaar over the air mogelijk om voertuigen van allerlei merken gewoon uit te zetten. Dit is daarom meer een security bulletin wat automakers toch nooit echt op gaan lossen.

MIT-studie: gedrag van bestuurders met Autopilot-achtige systemen (1711.06976): Gebaseerd op data van oudere Autopilot-generaties en verschillende systemen; toont algemene gedragspatronen, maar geen versie-specifieke cijfers of harde uitspraken over hoe bestuurders zich precies gedragen met FSD v14.

Analyse van nieuwe FSD-crashdata (Forbes / Templeton): Goed geïnformeerde opinie over Tesla’s eigen, nieuw gepresenteerde cijfers die meerdere softwaregeneraties door elkaar mixt, legt bias in de rapportage bloot, maar levert geen onafhankelijke, wetenschappelijke meting van hoe veilig de huidige FSD-implementatie objectief is. Wel blijkt uit deze cijfers dat rijden in een tesla (met of zonder autopilot) over het algemeen een stuk veiliger is.


Dit soort analyses plus een daadwerkelijk punt wat de onderzoeken volgens jou zouden moeten aantonen, is wat ik had verwacht van jou.
taxi chauffeur zeker :*)

Het gaat sowieso snel komen. En niet alleen Tesla, maar ook andere merken..
En de meeste van de links die je aandraagt zijn of alweer sterk veroudert of erg misleidend en sturend.

Technologie hou je niet tegen. Niet voor AI die banen gaan overnemen en niet voor FSD die al het verkeer gaan veranderen en veel veiliger maken.
Ik zat in de dataset van gestolen emailadressen ( waar zembla dankbaar gebruik van maakte) werd benadert met zeer suggestieve vragen. Er is best eea aan te merken op Tesla, maar wat ik in veel bekende media zie is zeer aanmatigend.

Om te kunnen reageren moet je ingelogd zijn