Tesla start beperkte test met zelfrijdende Model Y-robotaxi's in Austin - update

Tesla begint in de Amerikaanse stad Austin met een beperkte test van zijn robotaxiservice op basis van Model Y-voertuigen. Voor zover bekend gaat het om grofweg twintig Tesla's. De dienst is vooralsnog alleen beschikbaar voor genodigden.

Verschillende media, waaronder Reuters, melden dat de beperkte test officieel op zondag lokale tijd in Austin van start gaat. Tesla zelf heeft hier officieel nog niets over gecommuniceerd. De test gebeurt met Tesla Model Y-voertuigen en in ieder voertuig is een medewerker van het bedrijf aanwezig. Het is niet duidelijk of dat alleen tijdens de eerste testperiode onder genodigden geldt of dat dit voorlopig het geval blijft.

Volgens een uitgenodigde gebruiker kunnen mensen de dienst tussen 6.00 uur en middernacht gebruiken. De dienst is in een digitaal afgezonderd gebied beschikbaar en kan volgens de gebruikersvoorwaarden binnen die regio overal gebruikt worden, behalve om van en naar de lokale luchthavens te rijden. Onder bepaalde omstandigheden, zoals bij slecht weer, kan het zijn dat de test wordt afgebroken.

Vooralsnog gebruikt Tesla zijn bestaande Model Y-auto's om de robotaxidienst te testen. Eind 2024 kondigde het bedrijf een andere EV aan die speciaal ontworpen is als taxi, namelijk de Cybercab. Deze auto beschikt niet over een stuur of pedalen. Het voertuig moet ergens in 2026 of 2027 in productie gaan.

Austin, in de Amerikaanse staat Texas, is een van de weinige plekken in de Verenigde Staten waar voertuigen volledig autonoom mogen rijden. Waymo is tot dusver de grootste dienst voor zelfrijdende taxi's.

Update, maandagochtend: Intussen hebben Tesla en ceo Elon Musk de test bevestigd. Testers betalen volgens Musk een standaardbedrag van 4,20 dollar per rit.

Door Yannick Spinner

Redacteur

22-06-2025 • 12:02

402

Reacties (402)

402
383
208
4
0
118
Wijzig sortering
Laatst kwam ik een interessante Zembla docu tegen over de schaduwzijde van Tesla's Autopilot:
YouTube: Dit is hoe Tesla Europese regels omzeilde met Autopilot | Zembla (41:28)

Ben dan ook heel benieuwd hoe succesvol dit gaat zijn.
Is er een samenvatting voor degene die niet drie kwartier eraan willen besteden zonder iets van een idee te hebben over de inhoud?
Tesla houdt er niet van als problemen benoemd worden. Dus worden ze niet opgelost. Met alleen camera's kan je niet veilig rijden. Er gebeuren ongelukken door "autopilot", ook dodelijke ongelukken in Nederland.
Waarom kun je met alleen camera’s niet veilig rijden? Mensen rijden ook puur op zicht. En wij hebben maar 2 camera’s (ogen) die ook nog eens allebei dezelfde kant op kijken. Dit terwijl Tesla camera’s rondom heeft waar alle beelden continu tegelijk van worden verwerkt. Ik denk dat uiteindelijk een computer veiliger zal rijden dan een mens om deze reden.

En wat ook meehelpt is dat een computer geen emotie heeft. Scheelt een hoop verkeersruzies met bijbehorende gevaren.
Wij hebben twee ogen en dus stereoscopisch beeld waarmee we diepte zien en afstanden goed kunnen inschatten. Daarnaast kunnen we bij zonlicht de ogen dichtknijpen of een zonnebril opzetten. Ook zien wij in een veel hogere resolutie en framerate dan de goedkope 1.3 megapixel camera op het voorraam van een Tesla.

Maar het belangrijkste; Wij kunnen hetgeen dat we zien veel beter interpreteren dan de huidige computers in die auto's.

Bij mijn auto zijn de extra sensoren een paar jaar geleden uitgeschakeld waardoor Autopilot ook alleen op de camera's leunt. Resultaat; Een auto die zo nu en dan vol in de ankers gaat bij bruggen.

Ik gebruik het daarom niet meer en gek genoeg is het zonder digitale brokkenpiloot aan het stuur veel relaxter rijden. Autopilot moet je voortdurend in de gaten houden, je moet aan je stuur trekken om het systeem actief te houden en bij het wisselen van baan of het nemen van afslagen zit je elke keer te rommelen.

En ja; De auto kan automatisch van rijbaan wisselen en afslagen nemen op basis van de route in je navi, maar dat gaat allemaal zo knullig dat het overige verkeer niet goed op kan anticiperen wat ook gevaar oplevert.

Dus leuke gimmick, maar ik hou hem lekker uit.
Ik heb geen stereoscopisch zicht en mag daar gewoon mee autorijden. Sterker nog, ongeveer 10% van de mensen heeft geen stereoscopisch zicht en de meesten zitten gewoon op de weg. Dus dat geeft al wel aan dat het echt niet nodig is.

Mijn ervaring met FSD in de Model 3 was een stuk beter dan de jouwe (maar inmiddels heb ik geen Model 3 meer). Maar dan nog, als het nu niet goed werkt, kan dat altijd in de toekomst nog wel gebeuren. Er wordt nog steeds druk aan ontwikkeld.

En daarnaast is het een groot voordeel dat de auto camera’s rondom heeft en alles tegelijk interpreteert, wat als mens simpelweg onmogelijk is. Alleen daardoor al acht ik de kans erg groot dat we dit decennium nog gaan meemaken dat auto’s veiliger kunnen rijden dan mensen. Het zal nooit perfect zijn, maar elk verkeersslachtoffer minder is mooi meegenomen.
YouTube: Can You Fool A Self Driving Car?

In deze vide leggen ze de issues van Autopilot op basis van camera’s goed uit. In bepaalde situaties hebben camera’s dezelfde gebreken als ogen.

Dan juist Lidar hebben zodat je door mist en heftige regen kan kijken doet enorm veel voor de veiligheid. De auto’s met lidar hallucineren ook veel minder waardoor dus ook veel minder spontaan op de rem wordt gedrukt.

Daarnaast dat hele gedoe van het onder de pet drukken van ongelukken, het uitschakelen van autopilot net voor de crash, de wetgeving die musk nu aangepast wil hebben zodat dodelijke ongelukken met autopilot niet meer publiekelijk gedeeld hoeven te worden. Idk. Ik geloof best in zelf rijdende auto’s, maar volgens mij moet je er dan ook voor zorgen dat ze betere sensoren hebben dan mensen.
Die video heeft inderdaad een goede uitleg maar ik wil wel opmerken dat in veel van zijn tests in de Tesla hij de autopilot laat aan zette / te vroeg uitschakelde waardoor zn tests onbetrouwbaar zijn.

Zie: YouTube: Exposing Mark Rober’s Tesla Crash Story
Oh goed punt. Dat wist ik niet
Musk doet er alles aan om ongevalleninformatie geheim te houden. Zou dat zo zijn als het veiliger is? Nee.
FSD zal ooit wel komen, maar Musk is te dom, hij dacht dat het jaren geleden al in productie zou zijn. Wat ik al een jaar of 15 roep: 'nú' FSD invoeren is alleen mogelijk als je op afstand de auto overneemt op het moment dat de auto of het niet meer weet of kan (al is dat feitelijk nog niet echt FSD, maar je kan auto's dan wel laten rijden zonder persoon met rijbewijs ín de auto). En naar ik begrepen heb, is dat precies wat Musk van plan is met de robotaxi's. En als hij die in 2026/2027 massaal wil produceren, zal hij snel duizenden remote operators moeten inhuren, en een brede repatriëringsdienst moeten opzetten.
Ik verwacht geen massaproductie vóór 2035.
Kijk ook naar zijn robots en zonne-dakpannen: is ook nog niets van terecht gekomen, qua zijn beloftes. Maar - zeker in de conservatieve USA - wordt het zeer gewaardeerd als je alles bijelkaar liegt

[Reactie gewijzigd door kimborntobewild op 23 juni 2025 02:42]

Mag ik aannemen dat je een Tesla-enthousiast bent en hun aanpak volledig accepteert als de enige juiste, zonder ruimte voor andere inzichten?

Er is een reden waarom de meeste fabrikanten radar/lidar gebruiken naast camera's. Voor Europese bedrijven blijft veiligheid een prioriteit, zelfs boven extra kostenbesparingen.

Werkt het met alleen camera's? Zeker. Werkt het beter met extra sensoren? Absoluut. Het is uiteindelijk een bedrijfsbeslissing wanneer iets 'goed genoeg' is.

Bij slechte zichtbaarheid heeft een camera net zoveel zicht als jij: weinig. Radar heeft daar minder/geen last van. In nieuwe, onbekende situaties ziet de camera minder dan jij. Het systeem begrijpt het gewoon niet, soms met ernstige gevolgen.
Ik heb zelf eveneens geen stereoscopisch beeld en kan je vertellen, naast autorijden kan je ook gewoon vliegen.

MAAR, ondanks dat je misschien geen actieve diepte ziet, zijn je hersens wel dusdanig getrained dat ze diepte kunnen inschatten op basis van het platte beeld. En dat is voor een een computer wel heel erg lastig. Niet onmogelijk, maar nog niet binnen de huidige technische mogelijkheden. Je hebt dan wel een serieus getrained AI modelletje nodig.

Vorige week toevallig met iemand meegereden die een (nieuwere) Tesla met autopilot heeft. Hij gebruikt het absoluut niet vanwege de redenen hierboven genoemd. Mij viel eveneens op dat de Tesla toch wel heel veel moeite had met de beeldverwerking. Eenvoudige zaken als twee stoplichten naast elkaar leken al voor problemen te zorgen (op het scherm stond 1 stoplicht dat elke seconden van kleur wisselde).
Europa heeft geen fsd maar autopilot die weinig updates krijgt. Het is niet te vergelijken.
De Autopilot die we hier in Europa hebben loopt jaren achter op de VS dus kunnen we daar niet echt de state-of-the-art vanaf leiden. Proefrijders met FSD beta in de VS laten zien dat het al een stuk verder is dan wij hier kunnen ervaren. Toch is het een enorm probleem met een "long tail", waarbij ik me afvraag hoeveel training erin zal moeten gaan voordat het beter functioneert als een mens.
Resultaat; Een auto die zo nu en dan vol in de ankers gaat bij bruggen.
Ik herken het. Niet alleen bij bruggen. De Tesla gaat ook met regelmaat in de ankers als je van een linkerbaan naar een rechterbaan wisselt in de richting van een vrachtwagen, die een baan verder rechts netjes binnen de lijnen rijdt. Sowieso wel vaker last van harde rem-ingrepen bij het passeren van vrachtwagens. En bij het passeren van auto's die lichtjes links van hun baan rijden. De mate waarin geremd wordt is simpelweg gevaarlijk.

Toch heeft het systeem zijn nut bij goed gebruik. De toegevoegde waarde van autopilot vind ik dat het voor het gros van de kilometers veel werk uit handen neemt; energie die je juist kunt stoppen in het anticiperen op het verkeer om je heen en zo nog veiliger kunt rijden.

Dus nee, ik geloof niet dat nu de juiste techniek in stelling is gebracht om zelfrijdend (Full Self Driving, niks meer hoeven doen) veiliger mogelijk te maken dan menselijke aansturing. En dat waar we nu staan de bestuurder wel een veiliger rijder kan worden, mits goed gebruikt.

Autopilot levert me veel ontspanning en veiligheid op tijdens lange ritten, die hou ik lekker aan, maar Full Self Driving laat ik per definitie nog even een paar jaar uit :)
Bij mijn vorige Tesla was dat zeker het geval. Maar rijd nu ruim een jaar de nieuwe Model 3, en letterlijk nog geen een keer last van gehad. Enige lastige blijft nog wel combinatie open spitsstrook met verdrijfvak, dan wil de auto van rijstrook wisselen omdat hij een doorgetrokken lijn ziet.
Wij rijden met veel meer dan alleen onze twee ogen. Al onze zintuigen doen mee. En wij kunnen ons hoofd draaien en bewegen. Een centimetertje naar links zodat de zon achter de A-stijl valt, bijvoorbeeld. Of iets langs de vrachtwagen voor mij zodat ik zie wanneer het licht op groen springt (wanneer mijn Tesla het stoplicht dus niet meer kan zien)

Ik wil daarmee niet zeggen dat het met alleen camera’s niet zou lukken. Dat laat ik verder in het midden. Maar het argument dat wij enkel en alleen twee ogen gebruiken is onzin
Welke zintuigen doen er verder mee tijdens het rijden? Ik ben echt geen objecten aan het ontwijken op basis van tast, reuk, smaak of gehoor. Ik rijd volgens mij puur op zicht.

Dat we ons hoofd kunnen bewegen is inderdaad wel een groot voordeel. Maar niet iets dat niet op te lossen is met techniek.
Je hele sensorische bestaan doet mee, of hoef jij het niet te horen wanneer er een hulpdienst met sirene aan komt? En gevoel in het stuur in een bocht, samen met evenwicht en gevoel van G krachten is dan ook niet belangrijk? Jij knalt gewoon met 140 door een haarspeldbocht want je zicht denkt dat het wel kan?

Dacht het niet. Of je hebt geen rijbewijs of je bent zelf een gevaar op de weg.
De hulpdiensten zie ik aankomen, door de zwaailichten. Meestal luister ik muziek in de auto. Tegen de tijd dat ik ze hoor zitten ze praktisch naast me. Maar ik kijk vaak genoeg in m’n spiegels en om mij heen om ze op tijd te zien.

En in veel auto’s heb je door het comfort echt niet zoveel stuurgevoel dat je dat allemaal voelt. Niet met 140 een haakse bocht nemen is vooral wijsheid. Gewoon een rustige rijstijl aanhouden is altijd slim. En als je in een slip komt is ieders advies altijd: kijk waar je naartoe wilt sturen. Dat is geen gevoel, dat is ook gewoon zicht. Elke slipcursus zal je dat uitleggen.
Dus wanneer ik 4 camera's op jouw auto plak en je een afstandsbediening geef waar jij op 10km afstand zonder andere zintuigen te kunnen gebruiken, rij jij net zo goed als normaal?

Sorry maar ik geloof er echt helemaal niets van.
Dan zal het onbewust zijn maar alles telt mee als je het mij vraagt.

Het zogenaamde kijken waar je heen wil i.p.v. kijken naar waar je juist niet heen wil kan ik beamen maar is dan ook juist om je zintuigen te sturen.

Zeker als je met een Tesla vertrouwt om voor jou te rijden en je zit niet op te letten ben je je niet bewust van de omgeving. Je ogen zijn dan niet de enige die tot bezinning moeten komen voordat je door hebt wat er gebeurd, laat staan voor je kan reageren.

[Reactie gewijzigd door sanscorp op 22 juni 2025 22:13]

Over 140 door een haarspelbocht knallen gesproken; Als de auto afrijdt op een wegdeel waar Autopilot niet word ondersteund gaat hij vol (en veel te laat) op de rem, of knalt hij gewoon door.

Dat is vooral op provinciale wegen (80) met rotondes.. "interessant". Je moet op voorhand echt weten dat Autopilot daar niet werkt en/of hem op voorhand uitschakelen.

Hoe dan ook; Wat mij betreft kost het monitoren en actief houden van het systeem gewoon te veel energie. Gelukkig ben ik nog steeds gek van de auto ('18 Model X 100D) en is elk ritje nog steeds een feestje. Helemaal prima dus.
Nee, maar als je aan het rijden bent is objecten ontwijken toch ook niet alles wat je doet?

Gehoor gebruik je bijvoorbeeld om hulpdiensten te horen. Reuk bijvoorbeeld om te ontdekken dat er iets mis is met jouw auto of de auto voor je. Gevoel gebruik je ook steeds, hoe beweegt de auto en hoe is het wegdek etc.

kan zo nog meer voorbeelden verzinnen. Maar het punt blijft. Alléén onze twee ogen en verder niets is onzin.
Ik herken me daar eigenlijk maar heel beperkt in. Misschien als ik een sportieve bui heb in een goed sturende auto dat ik gevoel gebruik, maar in de gemiddelde auto van tegenwoordig zorgt het comfort voor zo weinig gevoel met de weg, daar doe ik niks mee. Geluid doe ik ook weinig mee, behalve dan dat ik vaak muziek luister in de auto (wat de meeste andere geluiden al overstemt). En geur doe ik alleen wat mee dat als het stinkt, ik de luchtreiniging inschakel in de auto.

Over het algemeen herken ik hulpvoertuigen ook aan zicht. Tegen de tijd dat je ze hoort moeten ze al heel dichtbij zijn. Maar de zwaailichten en dat ze vaak met groot licht knipperen continu, zorgt ervoor dat ze juist snel zichtbaar zijn.

Maar goed, misschien dat andere mensen wel meer met die zintuigen doen tijdens het rijden. En hoewel ook dat vervangbaar is door techniek (sensoren voor G krachten voor gevoel en microfoons voor geluid) is het dan niet meer puur op camera’s/zicht inderdaad.
Er zijn wegen met ribbels erin of wegmarkering met ribbels om je iets duidelijk te maken en die voel je dan toch echt. Rij je even te hard over een hobbel omdat je die op zicht toch wat lager inschatte dan voel je die toch ook en anticipeer je daar bij de volgende hobbel toch ook op, of rij je dan stug even hard door :?
Remmen zelf doe je toch ook deels op gevoel?

En duidelijk dat je geen last hebt van wagenziekte want dan weet je ook als bestuurder dat je genoeg voelt en daar op rijd :X
Daarom zitten er ook cameras aan de zijkanten, achterkant, etc.
Gehoor zeer zeker! Tast ook wel om te voelen wat je auto/stuur/remmen doen. In mindere mate doet reuk ook wel mee (brand bijvoorbeeld). Smaak gelukkig bijna nooit!
Smaak "bijna" nooit? Ik ben toch wel benieuwd naar de uitzondering dat je smaak toch wel gebruikt tijdens het autorijden :+
Als je volkswagen zegt: 'kuhlmittel prufen'
Ik was een keer onderweg in Rusland, we reden met 2 auto's. Ik kwam zonder benzine dus moest een beetje lenen uit de tank van de andere auto. Hevelen ging niet helemaal goed ;(
We gebruiken inderdaad vooral onze ogen bij autorijden. Maar daar zit een heel brein achter dat nog niet met AI te vergelijken is. Dat zorgt er bv voor dat bij een situatie die we niet begrijpen of kennen onmiddelijk voorzichtig zijn. Iets waar Tesla kennelijk soms moeite mee heeft. Maar het is nog veel meer, hoe we een 3D ruimte waarneme , op verschillende niveaus beslissingen nemen, contextueel kunnen redeneren, vooruit kunnen denken, etc. Zover is AI in de auto's echt nog lang niet.
Je hebt belijning op de snelweg met ribbels die geluid maken en die je kan voelen wanneer je dus perongeluk de vluchtstrook op rijdt. Er zit dus vaak haptische feedback ingebouwd in de weg.

Heb zelf ooit een ongeluk zien gebeuren met een vrachtwagen, het enige wat ik kon zien in de verte was een grote stofwolk en een lage zon die vol over de lengte van de weg het zicht belemmerde.

Ik denk niet dat een camerasysteem met 1.3 megapixel dat zou hebben gezien of daar kundig op zou kunnen hebben reageren.
Maargoed, volgens Melon husk is FSD al om de hoek sinds 2014(!!!) 'ja volgend jaar is het er echt!' dus die robot taxi zal zeker weten gaan rijden in 2028....not

Die man is koning marketing, meer niet.
Ik hoor wel sirenes van de ambulance voordat ik hem zie.
Ik denk ook dat geheugen (memory) ook een rol speelt. Als je net een auto op de inrit van een snelweg zag rijden, en "even kwijt bent". Denk je wel even waar is die auto gebleven? Bijvoorbeeld voor de vrachtwagen ingevoegd.

Ik vraag me dan ook af of Tesla dit onthoud.
Alleen als ik paddo's op heb, gebruik ik de andere zintuigen. Dan ruik je wat je ziet e.d.
Heb jij het dynamische bereik van een camera wel eens bekeken?

Maak met je telefoon eens een foto op een stralende dag van een stuk zon en schaduw en probeer beide tegelijkertijd en in 1 foto maar eens goed belicht te krijgen.

Met je ogen zie je wel zowel de details in zon en schaduw, camera maakt schaduw helemaal zwart als je focust op het zonnige deel of het zonnige deel compleet overbelicht wanneer je focust (lichtmeting doet) op het schaduwdeel.

Nog los van fotograferen in slechte omstandigheden zoals regen, sneeuw, mist of whatever.

Camera + laser + LIDAR zou een stuk beter zijn om in situaties waar het ene systeem zijn tekortkomingen heeft de ander het aan te laten vullen.

Bij twijfel audiovisueel signaal wat niet te missen is en auto-pilot uitschakelen.

[Reactie gewijzigd door sanscorp op 22 juni 2025 21:12]

En jij denkt dat Tesla dit probleem niet 7 jaar geleden heeft opgelost?
Ik zou je toch even aanraden om de video's op youtube te kijken hoe FSD en het camerasysteem werkt, ze hebben over alles goed nagedacht. Belichting is in de praktijk nagenoeg nooit een probleem, zelfs met de zon recht voor je neus werkt het systeem verassend goed.
Bijvoorbeeld: YouTube: Andrej Karpathy - AI for Full-Self Driving at Tesla

Dat de camera's slechts 1.3 megapixel is, was een bewuste keuze en een feature, geen nadeel. Je wilt namelijk grote pixels hebben die veel licht opvangen, je hebt geen 4K resolutie nodig. Even los van het feit dat 8 camera's op 4K@60Hz tegelijkertijd processen niet te doen is.

[Reactie gewijzigd door mohf op 23 juni 2025 01:07]

Ik heb het nergens over die 1,3MP en stel ook zeker niet dat het 4K moet zijn. Dat dat niet realtime te verwerken is lijkt mij ook nogal wiedes.
Interpreteren van die camerabeelden is een stuk lastiger voor een computer dan voor een mens, vooral bij slecht zicht, in regen of mist bijvoorbeeld. Verkeersborden goed lezen gaat ook niet altijd goed, ik zie weleens dat onze werkbussen verkeersborden op een parallelweg lezen en die dan als maximumsnelheid weergeven in het dashboard, om maar iets te noemen.
Ik weet 100% zeker dat je geen Tesla rijdt. Ik wel, gebruik Autopilot heel vaak. Ondanks dat het 90% van de tijd goed gaat, zijn er ook heel wat momentjes waardoor ik soms een mini hartaanval krijg

1. Spookremmen. Dit gebeurt soms bij een brug/viaduct. Of als je naast een auto rijdt (voornamelijk vrachtwagens, dat hij ineens bang is dat hij te dichtbij komt en dan vol in de ankers gaat.
2. Automatisch aanpassen van snelheid. Rij je op een 80 weg en uit het niets springt hij naar 50km per uur, vol in de rem. Geen bordjes, wegwerkzaamheden. Niets..
3. Op een spitsstrook heb je soms diagonale lijnen die naar een andere baan gaan. Tesla denkt dat hij deze moet pakken waardoor ik soms moet 'vechten' om hem op de spitsstrook te houden.
4. Geen autopilot irritatie, maar geeft toch een duidelijk probleem aan. We hebben veel wegen waarbij je aan beide kanten van de weg een fietspad hebt en in het midden 1 rij baan. 2 auto's moeten dan op ieder zijn kant op het fietspad rijden. Wanneer je dat moet doen, wordt de auto helemaal gek. Gaat ie piepen, probeert hij stuur correcties toe te passen. Echt heel irritant.

Zolang ze dit soort simpele dingen niet fixen, hou ik mijn hart vast met "alleen op zicht rijden".
We gaan het zien als er straks tientallen lidar-loze Model Y's door Austin rijden. Tesla is zich er wel bewust van wat voor shirtstorm er in de media komt als er doden zouden vallen.

Welke dodelijke ongelukken in Nederland waren dat dan precies waarin het bewezen is dat autosteer de veroorzaker is? Ook Zembla kwam niet verder dan suggestieve ideeën.

Overigens is de Nederlandse Autosteer beta stack iets heel anders als FSD in de VS. Het is momenteel puur UNECE regelgeving wat ervoor zorgt dat LKAS systemen (van ieder merk) niet goed om kunnen gaan met de bekende rode fietsstroken in Nederland. Gelukkig wordt FSD actief getest in de EU, echter duurt de goedkeuringsprocedure jaren. Tot die tijd zullen rijhulpsystemen helaas niet altijd veilig zijn.
Quote van Zemblal "Dat is van belang om te weten, omdat het nogal uitmaakt of Tesla degene is die hier zo'n ernstig ongeval heeft veroorzaakt of niet. Want als dat zo is, dan moet Tesla natuurlijk ook de verantwoordelijkheid nemen", zegt Baan Hofman in het tv-programma Zembla."

Nee, de persoon achter het stuur is verantwoordlijk. Hij moet altijd opletten en zijn handen aan het stuur houden.
Maar die stelling kun je natuurlijk niet volhouden bij Tesla Taxi's, dan ben je de passagier, niet de bestuurder. Ik vraag me af of die dingen op termijn wel te verzekeren zijn.
Er zal eerst wetgeving omtrent de aansprakelijkheid veroorzaakt door ernstige software fouten gemaakt moeten worden.

Nu is een bestuurder zelf aansprakelijk bij roekeloos en gevaarlijk rijgedrag. Maar als er geen bestuurders is, wie is dan verantwoordelijk bij bijvoorbeeld een onterechte noodstop op de snelweg resulterend in een ernstige aanrijding?

[Reactie gewijzigd door wiseger op 22 juni 2025 16:49]

Bij het Level 3 systeem van Mercedes nemen zij de verantwoordelijkheid op zich.

In Austin is Tesla dus verantwoordelijk, indien er geen bestuurder is. Lijkt me duidelijk, tenzij er wat speciale regels zijn tijdens zo een pilot.

Tesla heeft geen backup systemen voor alle cameras. Dan kan je gewoon geen level 4 of 5 autonomie aanbieden, klaar.
Maar wat houdt die verantwoordelijkheid dan in als de auto een strafbaar feit pleegt? Gevangenisstraf voor directie leden? Voor de programmeurs?

De wetgeving moet echt aangepast worden als bedrijven verantwoordelijk worden voor ernstige verkeersovertredingen.
Wetgeving hiervoor is er al lang. Bij medische apparatuur is dit gewoon geregeld. Kijk maar naar de aansprakelijkheid bij Philips en hun fouten bij apneu apparaten. Ook bij vliegtuigen en veiligheid is dit al geregeld.

Men doet alsof autonoom rijden zo spannend is, maar juridisch gezien valt dat m.i. wel mee. Gewoon aansprakelijkheid, en nee dat is niet direct strafrecht.
Juridisch valt het helemaal niet mee, we hebben in Nederland een significante overlap tussen het verkeersrecht en het strafrecht. Als die wetgeving niet aangepast wordt, dan is die gewoon geldig.

Strafrecht komt om de hoek krijgen zodra er sprake is van een ernstige verkeersovertreding.
Maar volgens mij is er één groot verschil. Als ik me goed herinner heeft Mercedes dit ook aangegeven, maar Tesla niet. Ik zie Tesla dit ook niet doen, aangezien het een bedrijf onder de Musk paraplu is en die nergens verantwoordelijkheid voor wenst te nemen.
Tesla heeft geen backup systemen voor alle cameras. Dan kan je gewoon geen level 4 of 5 autonomie aanbieden, klaar.
Op welke regelgeving is deze opmerking gebaseerd?
En dat is nu precies het probleem wat er speelt. Een bestuurder kan nauwelijks ingrijpen als die zelf niet aan het rijden was. De situation awereness ontbreekt, waardoor de bestuurder te lang nodig heeft om te begrijpen wat er gaande is en zo een ongeluk niet kan vermijden.
En dit is precies wat ik al meermaals meegemaakt heb met Tesla rijders. Totaal idiote beslissingen nemen waardoor anderen (ik in dit geval) bijna verongelukken in een situatie waar dat absoluut niet nodig was indien ze zelf al die "situation awareness" hadden gehad. Dan hadden ze geen snelheid opgevoerd waardoor ik volledig afgesneden werd.

Je ziet dit zo duidelijk aan het rijgedrag en is levensgevaarlijk, vooral voor andere weggebruikers. Het is te belachelijk voor woorden dat ze hiermee anderen in gevaar brengen.
Hoe is dat anders dan bij aiudi BMW etc die zij net zo gevaarlijk terwijl ze wel opletten.

Nee je kunt geen hokjes maken en alleen full autonoom verplichten maakt het veiliger ja meschien nogg steeds verkeer doden maar iig een heel stkminder dan de malloot piloot achter het atuur
Sorry? Wat begrijp je er niet van?

Legio "bestuurders" van een Tesla zitten helemaal niet meer op te letten omdat ze denken dat die auto zelf wel kan rijden. Ze hebben dus nul komma nul besef van wat er gaande is om hun heen. Dat is wat het zo gevaarlijk maakt, die Tesla rijders.

Die andere auto's die je noemt heb ik nog niet op deze wijze problemen mee gehad. Ja, alle bestuurders kunnen hufterig rijgedrag vertonen, maar dat is anders dan "situation awareness" vanwege niet opletten omdat een Tesla zelf wel kan rijden.

Maloten achter het stuur moeten ze gewoon het rijbewijs en de auto afpakken, probleem opgelost. En nee, dat hoeft dus niet bij iedereen die een keer een fout maakt. Maar dat verschil is echt wel duidelijk.
Die stelling kan je ook lastig verklaren naar nabestaanden.
“ Het ongeluk kán door een fout van de bestuurder zijn veroorzaakt, maar Baan Hofman houdt ook rekening met een ander scenario. "Het kan zijn dat de autopilot eerder ingeschakeld is geweest en dat-ie uitgeschakeld is, al dan niet handmatig of automatisch. Als de bestuurder dat niet goed door heeft, dan kan het zijn dat deze zou verwachten dat de auto stuurt, terwijl-ie dat niet doet. En als er dan iets geks gebeurt, dan ben je te laat om in te grijpen."”

Tja, kan. Zo lust ik er ook nog een paar
Wanneer Tesla alle gegevens altijd bij de hand heeft maar nu per ongeluk bij dit ongeval ineens niets meer in de cloud heeft staan gaan er bij mij wel wat alarmbellen rinkelen en stinkt deze zaak.

Hoe het met de rest zit weet ik niet want ik rij geen Tesla.
Het zou een gigantisch privacyschandaal zijn als Tesla alle voertuig gegevens naar de cloud zit te uploaden, toch?
Wanneer Tesla alle gegevens altijd bij de hand heeft
Waar baseer je dit op?

Tesla haalt gewoon info uit de black box zoals vliegtuigen (en auto's van andere fabrikanten) dit ook hebben. Als dat deel vergaat, dan is het einde verhaal. Net als bij vliegtuigen en auto's van andere fabrikanten.
Telemetrie staat standaard anders wel "aan". Is uit te zetten, maar ik denk dat de minderheid dat ook echt doet. Is keurig in de privacy voorwaarden afgedekt. Dus ja, ik denk dat er aardig wat data naar de cloud gaat. In het privacy statement staat o.a. "We aim to collect the minimum level of diagnostic" wat betekent dat er geen rem op zit aangezien er geen definitie staat wat "minimum" exact betekent.

Ergo, zolang Tesla geen openheid van zaken geeft ga ik er van uit dat er heel, heel veel data beschikbaar is.
  1. Diagnostic Data

    Tesla uses diagnostic logs to keep our products and services up to date, troubleshoot or debug problems, and make continuous improvements. We aim to collect the minimum level of diagnostic data necessary to help keep your vehicle or energy product reliable, secure, and operating normally. Diagnostics may include details about vehicle configuration, firmware, energy use, electronic systems state, and other system-to-system data used to identify bugs and conduct technical evaluations. On specific events, we use diagnostic logs as basic error information to help determine whether the problems experienced can be addressed by an immediate or future software release.
https://www.tesla.com/legal/privacy

[Reactie gewijzigd door Houtenklaas op 22 juni 2025 23:03]

Ik ben hiermee bekend, al heb ik dit meer geïnterpreteerd als het bijhouden van logging. Bijvoorbeeld als het multimedia systeem crashed. De beschrijving spreekt niet over het wel/niet ingeschakeld hebben van Autopilot, stuurhoeken of snelheden, wat ik bedoel met telemetrie.

Hoe dan ook, we weten niet of de desbetreffende bestuurder dit ingeschakeld had. En we weten ook niet de interval. Stel dit is elke 5 minuten en 1 minuut voor het fatale incident was er data gepushed. Dan is er simpelweg letterlijk niks.

Begrijp me goed, ik ben het geheel met je eens dat dat getoetst moet worden door onafhankelijke instanties. Maar ik vind het niet gek dat er geen informatie is in een situatie waarbij het in een split second voorbij is.
Mogelijk is een sleutelwoord, daarnaast is de full self driving van Tesla helemaal niet in NL beschikbaar toch?

De ‘autopilot’ in NL is lane assist die, als ik het goed heb, wel van baan kan wisselen maar alleen op instructie van de bestuurder?
Klopt, FSD is niet in de EU beschikbaar.
Alleen een lane assist met lane change mogelijkheid en adaptive cruise control.

Ik gebruik beiden erg veel maar vanwege gebrekkige data is de snelheid soms verkeerd en gaat hij ongewild remmen.

Verder nooit issues gehad maar een ongeluk zit in een klein hoekje dus ik blijf alert. Ik vind het wel veel relaxter rijden met lane assist op de snelweg.
Dit artikel is pure speculatie, ze sluiten af met
Wat er precies is gebeurd op de provinciale weg bij Schalkhaar, is niet meer te achterhalen: de autopilot-computer is bij het ongeval volledig verwoest.
Dus mogelijk stond de autopilot aan maar het kan ook zo zijn dat de bestuurder een black-out had, niet zat op te letten of iets anders... Maar dan is het niet sensationeel en anti Tesla.
Geen toeval, het artikel bestaat alleen maar omdat de Zembla aflevering dit ongeval benoemde. Het ongeluk is van maanden terug en was nooit in het nieuws bemeten.

Men komt niet verder dan "mogelijk", het is dus niet bewezen. Sterker nog, de uitleg die Zembla er zelf bij gaf is dat het "mogelijk" is gebeurd dat de desbetreffende bestuurder 'dacht dat Autopilot was ingeschakeld terwijl dit niet zo was' en men dus vertrouwde op een systeem wat niet aan stond.

Bovenal natuurlijk verschrikkelijk, en mogelijk een goede extra vereiste voor zelfsturende systemen. Maar feitelijk stelt niemand dat Autopilot zelf voor een ongeval zou hebben gezorgd.
Bovenal natuurlijk verschrikkelijk, en mogelijk een goede extra vereiste voor zelfsturende systemen. Maar feitelijk stelt niemand dat Autopilot zelf voor een ongeval zou hebben gezorgd.
Feitelijk stelt ook niemand dat Autopilot zelf niet voor een ongeval zou hebben gezorgd. M.a.w. dit wil je toch met zoveel zekerheid uitsluiten mbt mogelijke toekomstige risico's?

Bij mij roept vooral dit vragen op :
"De autopilot-computer is bij het ongeval volledig verwoest." En dan reactie Tesla : Tesla zegt tegen Zembla "in dit geval geen data hierover in de cloud te hebben opgeslagen."

Wie controleert dit? Wordt dat normaal gesproken wel opgeslagen in de cloud. Als dat zo is, waarom nu niet? En waarom hebben onderzoekers niet direct toegang tot deze informatie na een dodelijk ongeluk? Dit is toch noodzakelijk voor een volledig onderzoek?
Als Tesla stelt geen info te hebben opgeslagen over het ongeluk in haar Cloud, dan houdt het op voor de onderzoekers. Ze kunnen niet controleren of dit wel of niet waar is, alleen Tesla kan bepalen of er data beschikbaar is en in welk data center die data opgeslagen is.
Aangezien Autopilot (mede-) verantwoordelijk kan zijn voor een ongeval, lijkt me dat daar dan zo snel mogelijk verandering moet komen als dat zo is. Via wetgeving als dat nodig is. Anders is het iets te makkelijk voor Tesla om verantwoordelijkheid te ontlopen.

Maar ook als de schuld niet bij Autopilot ligt, dan kan die informatie nog altijd van belang zijn bij de schuldvraag bij een ongeluk in andere gevallen waarbij een Tesla met autopilot-computer is betrokken.
En dan zou je dus moeten zorgen dat het vooraf klip en klaar is wat er opgeslagen wordt, op welke manier, intervallen etcetera. Of sta dan op zijn minst een due diligence toe waar een onafhankelijke partij kan vaststellen wat er wel of niet is. Zolang je dat niet doet mag je van mij het nadeel van de twijfel krijgen. Nu moet je een commercieel bedrijf vertrouwen op de blauwe ogen. Vertrouwen is goed, contoleren is heel veel beter.
Auto's sturen natuurlijk niet non stop telemetrie in de cloud. Dat zou een privacy schandaal zijn waar Zembla dan wel een probleem van had kunnen maken ;)

Er crashen ook wel eens vliegtuigen waarbij de zwarte doos vergaat, toch is Boeing nog nooit gevraagd direct toegang te geven tot de cloudopslag, hoe kan dat nou...
Als het op feiten niet gewonnen kan worden, blijft de argumentum ad hominem over.
Nee, jij wil het gewoon niet zien. Als ik nu echt het idee had dat het je om de feiten te doen waren dan had ik het niet gepost.

Er zijn zoveel voorbeelden uit de VS bijvoorbeeld waar een oplegger niet gespot wordt of dat een Tesla gewoon doorrijdt als het niet kan. Erger nog, die rommel zorgt voor het slechtste van beide werelden, het geeft mensen een vals gevoel van veiligheid waardoor hun aandacht afneemt en als ze dan ineens bij moeten springen want computer says oops, kunnen ze het niet op tijd.
De voorbeelden van 5-10 jaar geleden blijven tot in de eeuwigheid natuurlijk aan het merk kleven helaas. Gelukkig staat de techniek niet stil.

Het gedeelde treurige nieuwsartikel komt oprecht niks verder dan 'het is een Tesla en het zou misschien wel mogelijk kunnen zijn dat Autosteer aanstond' zonder enige onderbouwing daarvoor.

Dit artikel gaat over level 4 voertuigen waarbij überhaupt niemand het stuur meer kan overnemen omdat daar niemand meer zit. Tesla is volledig verantwoordelijk. Zie jij dat eigenlijk wel in?
Het gedeelde treurige nieuwsartikel komt oprecht niks verder dan 'het is een Tesla en het zou misschien wel mogelijk kunnen zijn dat Autosteer aanstond' zonder enige onderbouwing daarvoor.
Zolang Tesla geen 500% openheid geeft over data, toelaat dat een onafhankelijke partij werkelijk overal kan kijken, hebben ze dat aan zichzelf te danken. En als ze werkelijk niets opslaan, is het zaak dat dat wijzigt, zodat het WEL duidelijk is wat er aan de hand is. Het komt voor Tesla wel extreem goed uit dat bij ongevallen er geen data is om onderzoek mee te doen. Dan mag je van mij het nadeel van de twijfel krijgen. Waar een auto (deels) zelf kan rijden, ligt een enorme verantwoordelijkheid bij de fabrikant. En dat lijkt Tesla in te vullen op dezelfde manier in als met zijn SpaceX. Trial and error. En dat kan simpelweg niet op de weg.
Wat een onzin, moet je voorstellen als particuliere auto's nonstop telemetrie naar de cloud pushen. Het zou een privacy schandaal van hier tot Tokio zijn.

Het is makkelijk om aannames te doen.
Dat is exact het probleem. Zolang Tesla geen onafhankelijk onderzoek toestaat naar wat ze nu precies opslaan en uit jouw auto trekken staan ze simpelweg met 5-0 achter. Ik doe geen enkele aanname zolang er niets bewezen na te zoeken is. En zolang Tesla de boot afhoudt heb je simpelweg de schijn tegen.

O ja, ik geloof er op voorhand werkelijk he-le-maal niets van dat alle data van elke Tesla in de auto blijft. En dat is wel een aanname. Laat een onafhankelijke club het maar onderzoeken, dan is het feitelijk.

[Reactie gewijzigd door Houtenklaas op 22 juni 2025 21:57]

Ik denk dat er wel wat anders aan Tesla blijft kleven dan hun FSD debacle.

Als het een evolutie is van hun bestaande FSD techniek (any day now) is mijn punt nog steeds terecht, het level maakt natuurlijk geen moer uit: ik kan mijn auto ook wel bestempelen als L4 self driving, betekend niets over hoe goed dat dan daadwerkelijk gaat.
Dat laatste klopt natuurlijk, maar Tesla verbind er wel zijn merk aan. Als volgende week alle Robotaxi's van dit artikel in de prak liggen, zal dat gigantische financiële impact op Tesla hebben. Laat staan als er gewonden vallen.

Het is overigens inderdaad een evolutie van de bestaande FSD techniek die nu zo'n 2 jaar in de VS wordt toegepast. Dat is dus wel een compleet andere stack dan wat we in de EU hebben (helaas).
De test gebeurt met Tesla Model Y-voertuigen en in ieder voertuig is een medewerker van het bedrijf aanwezig.
Dat laatste is niet correct, er rijden er ook rond zonder medewerkers.
Nee er zit altijd een medewerker in de passagiersstoel. Het gaat ook maar om iets van 20 auto`s voorlopig. Ritten zijn beperkt tot een beperkt servicegebied dat complexe en lastige straten en kruispunten vermijdt.
Beide klopt niet, schijnt niet bij alle taxis te zijn, al heb ik idd nog geen video gezien zonder. Het servicegebied is groter dan die van Waymo en er worden geen straten ontweken zoals Waymo doet.
Dat lijkt me een risico dat tesla wel durft nemen. Kunnen degene met insider knowledge nog eens een paar mooie trades maken op de beurs. Uiteindelijk het enige bestaansrecht van tesla atm.
Haha :P das natuurlijk niet wat e2e AI inhoudt.
Mijn Model 3 weegt overigens ongeveer de helft van 3 ton.
Beetje flauw om iemand fanboyisme te verwijten en dan zelf met dit soort ongefundeerde kreten aan te komen.
En toch horen Tesla's in de VS bij de auto's met de minste ongelukken per kilometer.
Met alleen de optimistische data meegenomen wel ja. Iets zegt mij dat je het filmpje niet hebt bekeken.
Leuke poging.

Niets meer waard door je eerdere "fiere" postje.

Well done!
Die wegbelijning is achterlijk duidelijk. Daar heeft Tesla echt geen moeite mee. Ik denk eerder dat autopilot niet aan stond en de bestuurder dacht van wel. Dat heb ik ook wel eens, is best schrikken.
Is natuurlijk misleidend. Van full self driving was geen sprake en de bestuurder moet zelf handen op het stuur houden en opletten ten alle tijden.

Het is ook helemaal niet duidelijk wat er gebeurd is en of de bestuurder zelf bijvoorbeeld tegen zijn stuur heeft aangetikt.

Ik rij al jaren met autosteer en kan beamen dat het een stuk beter en veiliger rijd dan als ik zelf aktief alles moet doen. En het gaat ook niet lang meer duren voordat zelf rijden verboden gaat worden omdat het veelst te gevaarlijk is.
Autopilot is ook echt verre van “zelf rijden”. Het is simpele lane keeping assist. Zulke headlines geven echt een heel fout beeld van Autopilot… voelt eerder clickbait.

De naam Autopilot is echter niet heel handig voor wat het nu kan, al moet je wel een waarschuwing scherm door voordat je het kun het gebruiken.
Autopilot is niet "zelfrijdend". Titel van het artikel gaat al de mist in.
Is een lidar dan echt zo een gigantische uitgave? Lijkt mij toch gewoon een off the shelf onderdeel wat je gewoon kan kopen. Veel handiger dan alles met een camera te doen zou ik denken?
Een LIDAR is ook geen onderdeel wat je 'gewoon' vertelt wat voor verkeer er in de buurt is. De resultaten daarvan moeten geïntegreerd worden met de andere inputs van het zelfrijdende systeem wat niet per se eenvoudiger wordt en daardoor ook weer kans op fouten oplevert.
Toen de Model 3 kwam ging dit om tienduizenden dollars. Tegenwoordig lijkt het om zon duizend dollar te gaan, de geruchten zijn overigens ook dat de Tesla Cybercab met een radar wordt uitgerust.

Verder heb ik geen idee waarom Tesla keuzes maakt, begrijp me goed :)
1 van de dingen die me wel is bijgebleven is een stuk van Amerikaanse media, ik dacht WSJ, waarin men van enkele ongelukken de beelden en informatie had kunnen bekomen van wat de Tesla effectief zag, en hoe het geinterpreteerd werd door het systeem. En dat jaagt me echt wel schrik aan. Op een gegeven moment had men een T kruispunt waarbij een vrachtwagen van rechts kwam en dus gewoon door reed. Die had ook gewoon voorrang. De camera aan de rechterkant van de wagen zag de vrachtwagen wel, maar die dat de linkerkant in het oog moest houden niet. Die 2 worden blijkbaar niet op elkaar uitgelijnd. Resultaat, de Tesla zag geen probleem ...

En daarnaast hebben we genoeg voorbeelden gezien van Tesla's die op onverwachte obstakels inrijden. Wanneer er iets op de weg staat dat ze niet herkennen, beslissen ze veel te vaak van gewoon door te rijden. En ook daar waren voorbeelden van, en spijtig genoeg gaat het dan vaak net om ongevallen of gewoon staandehoudingen naast de weg waarbij de Tesla recht inrijdt op het ongeval of de politievoertuigen die een ander voertuig tot stand hebben gebracht.

Rijhulpsystemen zijn net dat: hulpsystemen. Ze helpen je bij het rijden, maar jij, de bestuurder, blijft altijd verantwoordelijk, jij moet opletten en anticiperen. Het kan niet zijn dat je op die hulpsystemen gaat vertrouwen om ongevallen te voorkomen en dat je denkt dat je daardoor de andacht op iets anders mag vestigen ipv het verkeer rondom je in het oog te houden.

Ik heb dus geen enkel probleem met het feit dat hulpsystemen niet perfect zijn. Dat is ook het doel niet. Ik heb veel meer schrik voor een systeem dat blijft bewijzen dat het niet veilig is, maar waarvan de fans blijven zweren bij hoog en laag dat het dat wel is en dat minder informatie beter is. 1 van de eerste dodelijke ongevallen met een Tesla had destijds kunnen voorkomen worden had die Tesla meer prioriteit gegeven aan de radar die de vrachtwagen wel zag ipv de camera die door de laagstaande zon verblind werd en de vrachtwagen niet kon zien staan. Dat voorbeeld alleen is al voldoende om aan te tonen dat meer informatie beter is en dat vision only problemen heeft.
1 van de dingen die me wel is bijgebleven is een stuk van Amerikaanse media, ik dacht WSJ, waarin men van enkele ongelukken de beelden en informatie had kunnen bekomen van wat de Tesla effectief zag, en hoe het geinterpreteerd werd door het systeem. En dat jaagt me echt wel schrik aan. Op een gegeven moment had men een T kruispunt waarbij een vrachtwagen van rechts kwam en dus gewoon door reed. Die had ook gewoon voorrang. De camera aan de rechterkant van de wagen zag de vrachtwagen wel, maar die dat de linkerkant in het oog moest houden niet. Die 2 worden blijkbaar niet op elkaar uitgelijnd. Resultaat, de Tesla zag geen probleem ...
Dat moet wel heel oud zijn, want dergelijke info deelt Tesla al heel lang niet meer en wijkt ook af tov hoe end to end AI nu FSD aanstuurt.
Dat voorbeeld alleen is al voldoende om aan te tonen dat meer informatie beter is en dat vision only problemen heeft.
Even voor de duidelijkheid, ik ben zeker niet 'anti LiDAR' en ja ik vind het ook discutabel of vision only beter zou zijn.
Echter is het net zo goed discutabel of je met LiDAR en de systemen van andere fabrikanten eigenlijk wel zoveel beter af zou zijn. LiDAR is niet per definitie de heilige graal.

Feit is echter wel dat Tesla nu voertuigen met Vision Only als autonoom level 4 voertuigen laat rondrijden (overigens in een groter gebied in Austin dan Waymo doet) - iets wat door critici al jaren als onmogelijk wordt bestempeld. Daarmee is het dus ook geen 'rijhulpsysteem' meer.

[Reactie gewijzigd door Richh op 22 juni 2025 14:19]

Mercedes rijdt al een jaar level 4 autonoom in Being. Niemand bestempeld dat als onmogelijk.

De stap naar level 5 is echter gigantisch. Dat is wat momenteel onmogelijk lijkt.
Dat camera only goed niet genoeg zou zijn voor level 4, daarvoor hoef je maar een paar maanden terug in de Tweakers conmentsectie :)

Mercedes doet dit op zeer beperkte, volledig uitgemapte gebieden waar niks aan de hand mag zijn op beperkte snelheden.
Dat is iets een heel andere aanpak dan Tesla kiest.
Camera's alleen kan nimmer genoeg zijn voor level 5. Dan zal er toch echt een ander systeem bij moeten komen om in onverwachte omstandigheden toch nog te kunnen functioneren.

Bij level 4 kan je het traject gewoon zodanig inperken dat het wel kan met alleen camera's.
Dat Tesla informatie niet meer deelt is natuurlijk wel kenmerkend in enerzijds het vertrouwen in hun eigen systeem en anderzijds hoe ze het opzettelijk moeilijk maken om onderzoek te doen. Let wel, Tesla weet donders goed dankzij alle data die ze verzamelen hoe hun auto's presteren. En dan is het toch wel eng dat Tesla ervoor kiest om deze informatie niet publiekelijk te maken.

Bij ons komt geen Tesla meer binnen, we hadden een X en een Y specifiek de X zag tot twee keer met cruise control aan een obstakel niet. Een keer een afzetting, een andere keer een truck die pal naast ons reed.

Met betrekking tot techniek, het is een feit dat camera's alleen niet genoeg zijn. Daar zijn talloze wetenschappelijke artikels over hoe slecht deze kunnen presteren zeker vergeleken met Lidar. Dat een amateur als Musk daar een uitgesproken mening over heeft om zo goedkoper auto's te kunnen maken die niet presteren is dan verder ook niet relevant.

Last but not least, als het geen "rijhulpsysteem" meer is, waarom neemt Tesla dan ook geen verantwoording indien een ongeluk gebeurd? Het is van de zotte dat Tesla tot vandaag aan toe mensen met beta software rond laat rijden met alle gevolgen, inclusief dodelijke auto ongelukken van dien. Het is geen vraag of Tesla hier ooit voor gaat betalen, het is enkel de vraag wanneer en hoeveel.
Hetgeen je niet meeweegt is dat techniek evalueert. Je schrijft toch ook geen nieuwe Golf 8 af omdat de Golf 6 niet comfortabel genoeg zou zijn?
Bij ons komt geen Tesla meer binnen, we hadden een X en een Y specifiek de X zag tot twee keer met cruise control aan een obstakel niet. Een keer een afzetting, een andere keer een truck die pal naast ons reed.
Welke auto heb je daarna gekocht die dit wel kan op het Europese continent?
Last but not least, als het geen "rijhulpsysteem" meer is, waarom neemt Tesla dan ook geen verantwoording indien een ongeluk gebeurd?
Omdat de techniek er nog niet klaar voor was. Bij deze Robotaxi's doet Tesla dit dus wel.
Je hebt waarschijnlijk het gedeelte in het artikel overgeslagen dat als het slecht weer is, dat de test wordt opgeschort. Wat Tesla onder slecht weer verstaat, wordt er niet bij gezegd, maar dit zegt veel over hoe Tesla de nabije toekomst ziet. Heel zonnig.
Waymo's rijden ook niet als het extreem slecht weer is. De tijd zal uitwijzen tot welk niveau Tesla durft te gaan.
Waymo's rijden ook niet als het extreem slecht weer is.
In het artikel wordt het woord extreem niet gebezigd, daar wordt gesproken over slecht weer. Dat maakt het natuurlijk wel spannend.
All i'm saying:
- Ik weet niet precies welk niveau Tesla als 'slecht' bestempeld
- Ik weet niet precies welk niveau Waymo als 'slecht' bestempeld

Zolang dat beide niet duidelijk is, zijn conclusies voorbarig.
Zolang dat beide niet duidelijk is, zijn conclusies voorbarig.
Ik heb ze in geen van mijn reacties getrokken. We'll see.
dit is dus gewoon de tesla verklaring. net voor het ongeluk gaat fsd uit, dan kan het ook geen ongeluk veroozaken. Dat het net voor het ongeluk het stuur ineens op 90 graden zet staat natuurlijk gewoon los van tesla.
dit is dus gewoon de tesla verklaring. net voor het ongeluk gaat fsd uit, dan kan het ook geen ongeluk veroozaken. Dat het net voor het ongeluk het stuur ineens op 90 graden zet staat natuurlijk gewoon los van tesla.
Dit is enkel gebaseerd op je eigen ideeën, bij analyses over crashes wordt natuurlijk niet alleen het crashmoment onderzocht maar ook de seconden (of minuten) daarvoor.
ik zou eens kijken naar wat tesla hier van vind...
Goed plan voor jou om eens te doen inderdaad :)
Zembla kiest eieren voor zijn geld. Iemand in Nederland houd een lijstje bij van dodelijke slachtoffers en Tesla:

Het is bizar, twee of drie ingevallen met een bepaald type Citroen en iedereen moet zijn auto laten staan, tientallen slachtoffers (ook in Nedereland) en de auto mag geqoon blijven rijden.

Zeer veel voorkomende problemen:
  • de auto wijkt plotseling uit en raakt een vangrail of te water
  • de auto rijd met volle vaart achterop een vrachtauto in
  • de auto vliegt in brand, soms al bij een kleine bodsing en het is onmogelijk voor de bestuurder om uit de auto te komen
  • de auto ziet een voetganger of fietser niet die door de aanrijding dodelijk verongelukt
https://docs.google.com/s...pubhtml?gid=0&single=true
Het is bizar, twee of drie ingevallen met een bepaald type Citroen en iedereen moet zijn auto laten staan,
Je mag ook gewoon met een Citroen blijven rijden. Het wordt alleen afgeraden als je niet het risico wil lopen dat je airbag ontploft in plaats van opblaast. Dat is niet vrij te kiezen. Bij Autopilot kies je er wel zelf voor en moet je een reeks voorwaarden accepteren dat je de risico's kent en toch het wil gebruiken. Dat lijkt me toch wel iets andere koek?
Waardeloze lijst zonder bronvermelding en datums. Hoe betrouwbaar is dit? Hoe zeker is het dat Autopilot geactiveerd was?
Ik heb totaal geen behoefte aan het geven van bescherming, ik zeg alleen maar dat letterlijk iedereen (bijvoorbeeld partijen die short zijn op Tesla) een openbaar lijstje kan opstellen met vermeende fouten.

Autopilot en zelfs FSD is niet foutloos. Dat claim ik ook nergens.
Wel is het ongelofelijk populair om Tesla te bashen. Dat is prima, zolang er maar een fatsoenlijke onderbouwing is. Helaas ontbreekt die regelmatig.

Ook jij stelt "frauduleus"; wat betekent dat voor jou precies? Welke aantoonbare fraude heeft Tesla gepleegd?
Is Rockstar Games ook frauduleus voor het niet behalen van hun voorspelde time to market van verschillende GTA games?

De tweet over Tesla privaat nemen is geloof ik ook voor de rechter geweest toch? Oké, dat was fraude, 7 jaar terug.

De claim over de "Tesla Semi Truck" gaat over Nikola, een startup wat inderdaad puur fraude was. Gaat helemaal niet over Tesla 8)7 misschien dan ook even je eigen bron lezen.
Politiek/Doge is al helemaal offtopic, geen idee of het bewezen is of dat het je onderbuik is.

Nogmaals, ik heb geen aandelen en die kant van het verhaal interesseert mij bijzonder weinig, daar doe ik ook bewust niet aan mee. Ik vind de techniek interessant. En daarop is Tesla geen frauduleus bedrijf, ondanks dat veel mensen dit heel graag willen beweren, komt men nooit verder dan de onderbuik.
Tesla's frauduleuze claim omtrent de semi truck, heeft weer voor een langere periode de aandeelprijs omhoog gedreven, terwijl ook dit gewoon leugens zijn, nergens is namelijk nog een spoor te bekennen van plannen om iets met de semi truck te doen. Waarom? omdat het fraude is
Die Semi's rijden gewoon rond in de VS, Pepsi heeft er een paar. Afhankelijk van hoe je efficiency definieert is een elektromotor ook al snel zuiniger dan iets op diesel, dus die claim lijkt me niet onjuist. Wat is er nu precies frauduleus?
Ik zie oprecht de relatie tot Nikola hierin niet.
Ik snap dat je graag zou willen dat politiek/DOGE offtopic is, maar dat is simpelweg niet de wereld waar we in leven met z'n alle
Ik wil je best gelijk geven dat Musk een gekkie is die vanalles doet wat wellicht in sommige zaken bestraft had moeten worden. Dat betwijfel ik nergens.

Dat geeft echter geen vrijbrief om allerlei andere ongefundeerde beweringen te verspreiden en die direct voor waarheid aan te nemen, zoals in de commentsectie herhaaldelijk gebeurd. "Omdat Tesla" of "omdat Musk", is nooit een goed argument.
De vergelijking met Rockstar games slaat trouwens echt helemaal nergens op, dat snap je zelf ook wel.
Eigenlijk snap ik dat niet. Talloze bedrijven doen beloftes, voorspellingen en forecasts en die worden regelmatig niet behaald. Tja. Als je dan het vertrouwen verliest, moet je er niet in investeren :P
Gut het is 8 jaar te laat, maar er rijden nu Tesla's zonder bestuurder rond. Is gewoon een feit.
Samenvatting mist een belangrijk element. De juiste samenvatting: Tesla ligt in bed met de NL overheid. NL is de keurende instantie voor Tesla's in de EU (Tesla heeft EU-HQ in NL) en de RDW kijkt niet echt naar alarmerende berichten over autopilot en de ongelukken die daarmee gebeuren.

[Reactie gewijzigd door pa2ra op 22 juni 2025 21:07]

Onzin, als dat zo was hadden we inmiddels wel FSD gehad in Nederland op dezelfde stack als de EU. Helaas...

De dude van de RDW spreekt gewoon de waarheid, en toetst aan regelgeving van oa UNECE. Autosteer deed geen dingen die destijds verboden waren (muv System Initiated Manouvres, welke 2 jaar na introductie zijn verwijderd, waardoor rijbaanwissels op de snelweg niet meer automatisch zijn).

De RDW is nooit ingericht als instantie dat rijhulpsystemen doorlopend toetst, die opdracht is nooit beschreven. Instanties zoals de Duitse tegenhanger doen dit ook niet.
Dat is overigens best een terechte vraag van Zembla, maar eerder een vraag voor de Europese politiek dan voor de RDW. Een keuringsinstantie verzint simpelweg niet zelf haar takenpakket.

Tesla produceert auto's in Berlijn, Duitsland. En ligt dus zeker niet 'in bed' met Nederland, een HQ zit hier natuurlijk ook om belasting redenen.
Geen onzin, want ik vatte de uitzending samen. En daar werd zeker wel gesuggereerd dat NL met Tesla in bed ligt. Bekijk de scene's rondom de opening van Tesla in Tilburg (voor Berlijn!), Henk Kamp etc. Ik verwoord niet mijn mening, ik geef gewoon weer wat er gezegd is.

[Reactie gewijzigd door pa2ra op 23 juni 2025 12:48]

En daar werd zeker wel gesuggereerd dat NL met Tesla in bed ligt.
Het wordt gesuggereerd inderdaad, maar ik vind de argumentatie bijzonder zwak en totaal niet concreet. Vandaar dat ik de claim als onzin bestempel.

Het klopt inderdaad wel dat het gesuggereerd wordt in de uitzending :)
ik kwam ergens statistieken tegen dat Tesla's relatief veel meer dodelijke ongelukken hebben dan elk andere EV.
Vanwege verkeerde vergrendeling etc. Na dat is autonoom rijden geen fijne gedachte.

Ik geloof wel in zelfrijdende auto's, maar wel met een zekere mate van veiligheidsgaranties. Is tesla betrouwbaar genoeg.

*spelvouten gecorrigeerd*

[Reactie gewijzigd door eboellie op 22 juni 2025 14:02]

Waarom zou je met camera’s niet veilig kunnen rijden? De menslijke bestuurder heeft er in het beste geval 2 (goede).
De mens is een stuk handiger in het krijgen van beeld als de ruit bijvoorbeeld vies is. En beter in diepere interpretaties, meer kennis van "de wereld", en het aanpassen naar omstandigheden.
Met alleen camera's kun je wel veilig rijden, met extra sensoren kun je het wel nog veiliger naken in bepaalde situaties. Of ben je vergeten dat wij mensen zo'n auto rijden met maar 2 camera's terwijl de mens lang niet zo goed kan opletten als dat een geautomatiseerd systeem kan. We staan nog steeds maar in de kinderschoenen, en de rekenkracht om de vele camera's af te handelen wordt steeds beter inclusief de software om om te gaan met al die situaties.
Lidar is bv ook niet zaligmakend, ja, als je de enige bent, maar lidar stoort ook andere lidar systemen, en je moet eens kijken wat er met je telefooncamera gebeurd als je toevallig in de goede hoek op het lidar systeem gericht hebt, bye bye cmos...
Een onafhankelijke studie (2023) concludeerde dat Waymo minder ongelukken per gereden kilometer veroorzaakt dan een gemiddelde menselijke bestuurder in de VS.

Liever minder ongelukken.
En was daarbij dan ook meegerekend dat Waymo alleen bij mooi weer rijd en alleen in een beperkt gebied met "makkelijke" wegen en kruisingen?
Nee he? Dat word nooit meegenomen.
Lijkt mij wel. Uiteindelijk wordt autonoom rijden veiliger dan niet autonoom rijden. Ergens moeten we een start maken.

Zou een slecht onafhankelijk onderzoek zijn. Maar goed, dan start je toch in rustige gebieden.

[Reactie gewijzigd door Is_ Y_ Serious? op 23 juni 2025 16:10]

De meeste van die onderzoeken zijn ook heel slecht.

Maar in de praktijk is het praktisch onmogelijk om een eerlijke vergelijking te doen.
De gemiddelde bestuurder rijd niet alleen in een beperkt gebied met alleen makkelijke wegen en kruisingen. Dus dat verschil is sowieso al onmogelijk om mee te nemen in de vergelijking.
En daarmee klopt het aantal ongelukken per gereden kilometer ook niet meer.

Het is maar de vraag of de wegomstandigheden bij een ongeluk centraal geregistreerd worden, zodat je bij dat cijfer van de gemiddelde bestuurder in de VS alleen de cijfers kan selecteren bij mooi weer.

Ik heb in ieder geval nog nooit een vergelijking gezien waarbij dat gedaan was.
Ik denk dat het absoluut veiliger kan met autonoom rijden. Ieder zijn mening.
Ik heb een tijdje bij de Recherche (plaats delict verkeer) gewerkt. De menselijke fout is aanzienlijk.
Waarom doe je de aanname dat ik dat niet denk?

Ooit kan het veiliger met autonoom rijden. En zeker als je technieken als radar gebruikt kan het ooit veiliger.
Maar op dit moment kan een Tesla niet het onderscheid maken tussen een schaduw onder een viaduct of een object. En de oplossing van Tesla is om die mogelijke objecten maar te negeren.
Andere merken hebben dat probleem niet, want die hebben radar om een schaduw van een daadwerkelijk voorwerp te onderscheiden.

De menselijke fout is aanzienlijk ja. Maar de geaccepteerde fouten in de Tesla software zijn ook aanzienlijk. Net zoals de phantom braking ook aanzienlijk is. Allemaal bewijzen dat de FSD een situatie niet kan inschatten waar een mens dat wel doet.
Die shortcuts om gebreken van FSD "op te lossen" zijn de reden waarom een Tesla volle snelheid naar een gekantelde vrachtwagen blijft rijden, terwijl een mens het al van verre kan zien.

En ooit in een zeer verre toekomst zal een autonome Tesla in Amsterdam kunnen rijden. Waar alle fietsers en voetgangers voorrang nemen omdat ze weten dat die Tesla toch altijd voor ze zal stoppen.
Ik hoop dat die toekomst dichterbij is dan jij denkt. Mensen mogen soms wel wat meer gedwongen worden. Daarmee zeg ik niet dat Tesla goed bezig is. Ik heb Waymo meerdere keren zien rijden. Een fantastisch concept als je het mij vraagt.
Het is een suggestief stuk zonder enig nieuws.

Alle ontwikkelingen die Tesla de laatste 2-3 jaar in de VS doorvoert, zijn totaal niet aan bord gekomen (in de EU is FSD niet toegestaan, de stack die Nederlandse Tesla's is al ruim 4 jaar niet noemenswaardig geupdate en werkt heel anders).
Het is inderdaad zeker geen nieuws dat Tesla's camera-only modellen voor significant meer problemen zorgen dan de lidar versies deden en dat Tesla nog bij lange na niet überhaupt op het pad zit om ooit globaal autonoom rijden uit te rollen.
Deze kleine testjes in slecht gereguleerde gebieden zijn leuk, maar als je ziet wat de echte autofabrikanten inmiddels aan zelfrijdende features hebben is het duidelijk dat dit tech-first experiment niet sneller het doel behaald heeft, en dan zit je nog met een auto waar tot vandaag de dag allerlei andere kwaliteitsissues spelen ook.
Het is inderdaad zeker geen nieuws dat Tesla's camera-only modellen voor significant meer problemen zorgen dan de lidar versies deden
Waar heb je het over? Tesla heeft nooit modellen met LiDAR gehad.
en dat Tesla nog bij lange na niet überhaupt op het pad zit om ooit globaal autonoom rijden uit te rollen.
Globaal? Geen enkele fabrikant is dat - voorlopig zal supervised de enige weg zijn. Wel is Tesla de enige fabrikant die end to end AI toepast (ipv losse regio's mappen en lineair programmeren) en over data beschikt over de hele wereld. Supervised FSD is beschikbaar door de gehele VS en sinds kort ook in China. Tesla doet tests in de EU.
maar als je ziet wat de echte autofabrikanten inmiddels aan zelfrijdende features hebben
Je doelt op de systemen die alleen werken op geselecteerde wegen zolang er niks bijzonders aan de hand is waarmee je max 90km/u op de snelweg mag, zoals Mercedes?
is het duidelijk dat dit tech-first experiment niet sneller het doel behaald heeft
"Het doel" kan op verschillende manieren gedefinieerd worden. Bijvoorbeeld: waar moet het allemaal werken? En wat zijn de maximale kosten van een voertuig?
en dan zit je nog met een auto waar tot vandaag de dag allerlei andere kwaliteitsissues spelen ook.
Discutabel, dubieus en offtopic.

[Reactie gewijzigd door Richh op 22 juni 2025 13:39]

Waar heb je het over? Tesla heeft nooit modellen met LiDAR gehad.
Geen LiDAR, maar wel radar.
https://www.tesla.com/support/transitioning-tesla-vision
Correct, al is dat wel wat anders. Sowieso in een tijd waarin de autos waren uitgerust met <1mp cameras en aanzienlijk minder rekenkracht.

Ik ben vooral geïnteresseerd in de onderbouwing van de niet gefundeerde stelling "dat Tesla's camera-only modellen voor significant meer problemen zorgen". Wat voor problemen precies? Er rijden inmiddels miljoenen van die auto's rond, hoe kan dat dan als er zoveel issues zouden zijn...
Het aantal megapixels en rekenkracht zijn irrelevant.

Er zijn simpelweg dingen waar camera's en rekenkracht alleen geen rekening mee kunnen houden.
Hoe kan een camera het verschil zien tussen een auto die een kilometer verderop rijdt, of een motor die 50 meter verderop rijdt als het alleen maar de achterlamp kan zien?
Twee lampen op een kilometer afstand zien er hetzelfde uit als 1 lamp dichtbij.

De switch naar een volledig camera-gebaseerd systeem is niets anders dan kostenbesparing en winstmarge verhoging.
Dat moet ook wel, want Tesla is een bedrijf dat onmogelijk uit zichzelf rendabel is zonder de enorme hoeveelheden geld dat erin wordt gepompt.
Het is meer waard dan de grootste autobedrijven ter wereld bij elkaar, terwijl het maar een fractie van het aantal auto's verkoopt.

[Reactie gewijzigd door Exhonor op 22 juni 2025 14:31]

Het aantal megapixels en rekenkracht zijn irrelevant.

Er zijn simpelweg dingen waar camera's en rekenkracht alleen geen rekening mee kunnen houden.
Hoe kan een camera het verschil zien tussen een auto die een kilometer verderop rijdt, of een motor die 50 meter verderop rijdt als het alleen maar de achterlamp kan zien?
Met 2 cameras kan je diepte zien. De resolutie van die cameras bepaalt hoe 'scherp' de diepte is. Als je systeem krachtig genoeg is om ook zaken zoals rijsnelheid mee te nemen, helpt dat ook weer. Bovenal is het voor FSD niet relevant hoe ver een voertuig op de centimeter nauwkeurig is, als het >50 meter verderop is. Als de polling interval maar hoog genoeg is kan je over 3 frames veel meer relevantere informatie trekken, dan in 1 frame, als het over bewegende voertuigen gaat.
De switch naar een volledig camera-gebaseerd systeem is niets anders dan kostenbesparing en winstmarge verhoging.
Deels, natuurlijk.

Echter kan je je afvragen of Tesla de prijspunten die ze willen behalen, konden bereiken als er LiDARs van duizenden dollars op ieder voertuig hadden gezeten. Dan had men minder data input voor hun AI model gehad. Ook hebben LiDARs effect op het uiterlijk en efficiency, wat ongetwijfeld ook impact had gehad op Tesla's groei als men die weg in was geslagen.

Begrijp me goed hoor, ik wil zeker niet 'tegen' lidar opteren... Maar ik vind het ook te kort door de bocht dat het puur en alleen kostenbesparing is.
Bor Coördinator Frontpage Admins / FP Powermod @Richh22 juni 2025 14:48
Met 2 cameras kan je diepte zien. De resolutie van die cameras bepaalt hoe 'scherp' de diepte is
Klopt, met als nadeel dat het verwerken en analyseren van beeld nogal intensief kan zijn en 'zicht' gevoelig is voor bv weer (regen, sneeuw, luchtverontreiniging, zon).
Totdat er een camera geblokkerd wordt door een blaadje of opgespat vuil .
Tesla behaalt sowieso de beloofde prijzen al niet, zie cybertcuck van 30k bijv
Ook zijn de kosten van lidar gigantisch gedaald in de laatste 15 jaar, dat is gewoon een kwestie van opschalen om het betaalbaar te maken.
Dat mobieltje wat je nu in je hand hebt heeft ook biljoenen gekost om zo goed en goedkoop te krijgen.
Er zijn simpelweg dingen waar camera's en rekenkracht alleen geen rekening mee kunnen houden.
Hoe kan een camera het verschil zien tussen een auto die een kilometer verderop rijdt, of een motor die 50 meter verderop rijdt als het alleen maar de achterlamp kan zien?
Twee lampen op een kilometer afstand zien er hetzelfde uit als 1 lamp dichtbij.
Als twee autolampen één lijken, dan zijn ze wel heel ver weg en bovendien stralen ze dan toch echt, zelfs samen, veel minder licht uit dan één lamp dichterbij (iets met kwadratische afname met de afstand).
Dit is werkelijk nooit een realistisch scenario. Dit is dus een onzin-voorbeeld.
De switch naar een volledig camera-gebaseerd systeem is niets anders dan kostenbesparing en winstmarge verhoging
Dit is onzin. Voornamelijk dat "niets anders". Tuurlijk kijkt elke automerk naar de kosten en zoekt een systeem dat zo goedkoop mogelijk is. Maar je kunt geen systeem introduceren dat niet veilig is, je auto wordt dan simpelweg niet verkocht want de auto zal de vele veiligheidstesten niet doorkomen.
Dat moet ook wel, want Tesla is een bedrijf dat onmogelijk uit zichzelf rendabel is zonder de enorme hoeveelheden geld dat erin wordt gepompt.
Hoe is Tesla daarin anders dan andere automerken? Tesla ontwerpt en bouwt ondertussen ook al 12 jaar en vele modellen verder. Qua research en de daaraan verbonden kosten zullen ze niet veel afwijken van andere grote merken, die ondertussen ook enorm veel energie stoppen in het ontwikkelen van EV's en autonome technieken. Ook dit argument is dus onzin.
Het is meer waard dan de grootste autobedrijven ter wereld bij elkaar, terwijl het maar een fractie van het aantal auto's verkoopt.
Dat is helemaal waar, maar dat argument zegt op zich helemaal niets over de kwaliteit. Het is een feit dat veel mensen enorm ergert, maar dat is pure emotie.
Bor Coördinator Frontpage Admins / FP Powermod @multikoe22 juni 2025 19:50
Als twee autolampen één lijken, dan zijn ze wel heel ver weg en bovendien stralen ze dan toch echt, zelfs samen, veel minder licht uit dan één lamp dichterbij (iets met kwadratische afname met de afstand).
Dit is werkelijk nooit een realistisch scenario. Dit is dus een onzin-voorbeeld.
Is dat zo? Ik denk bv aan een oldtimer vs een auto met led of Xenon verlichting? Wat te denken van een auto met een defecte lamp; is dat dan ineens een 2 wieler?
De kern van onze discussie gaat over de vraag of mensen beter zijn in het interpreteren van dit soort scenario's. En het is grappig dat je over old-timer lichten begint, want die kleine pitjes zijn exact de reden waarom er allerlei wetgeving is gekomen die precies voorschrijft hoeveel licht achterlichten moeten uitstralen en in welke kleur en op welke hoogte ze gemonteerd moeten worden. Dat is allemaal gedaan omdat mensen erg slecht in staat bleken om met die kleine pitjes afstanden goed in te schatten.
Ik durf wel te stellen dat camera's in combinatie met goede software beter (en vooral sneller) in staat is om een situatie te interpreteren en ernaar te handelen.
Multikoe 22 juni 2025 16:00
Dat is helemaal waar, maar dat argument zegt op zich helemaal niets over de kwaliteit. Het is een feit dat veel mensen enorm ergert, maar dat is pure emotie
Nee, het is geen pure emotie. Vooral in het vrachtverkeer wordt reikhalzend uitgekeken naar échte FSD, als je maar 1 chauffeur nodig hebt om een kolonne van 5-10 vrachtwagens te leiden ben je al compleet binnen. Laat staan wanneer je het geheel driverless kan maken en dus veel fijnmaziger te werk kunt gaan in je distributieketen.

Alle systemen die op dit moment in ontwikkeling zijn, bij letterlijk alle concurrenten voor semi trucks, zijn multimodaal en hebben camera's, LiDAR en RADAR. Een chauffeur die nooit moe wordt en zelfs bij mist/sneeuw/regen nog kan zien, die geen salaris nodig heeft, daar krijgen alle bonentellers in de industrie een enorme adrenalinsestoot van. Ik vertrouw in dit geval meer op het collectief dan op de (vaak) geniale inzichten van Elon Musk.

Vanuit bovenstaande bron vind je de merken/initiatieven, vanuit daar kun je checken dat ze allemaal LiDAR en RADAR hebben, met uitzondering van uiteraard weer Tesla met hun semi truck. Het lijkt me overbodig hier een linkje naar iedere spec pagina te posten, maar middels bovenstaande bron is het in ieder geval te controleren. Dat is dus een feit.

Elon Musk is heel koppig en weet altijd zeker dat zijn oplossing de beste is, en dat heeft hem geen windeieren gelegd. Hij heeft zelfs heel veel gedaan voor de wereld met Tesla, die hele evolutie had zonder Tesla minstens 10 jaar later gestart. Maar in dit geval zit hij 100% fout, en het feit dat vooral in de semi-truck industrie niemand het probeert als hij spreekt boekdelen, want daar is het meeste geld mee te verdienen op de korte en middellange termijn.
edit:

typefouten, layout, grammatica, kleine toevoeging.

[Reactie gewijzigd door TV_NERD op 22 juni 2025 22:40]

Meer problemen is relatief, maar de camera-only modellen presteren veel slechter in bijvoorbeeld slecht weer dan concurrerende modellen met radar/lidar. En dan is er nog deze absolute grap waarbij een Tesla zich letterlijk in een muur boort omdat er een getekende weg voor hangt. Deed me gelijk denken aan de roadrunner cartoons. Camera only gaat het gewoon nooit worden.
Bekende video waar ook al extreem veel geschreven is. Wie zelf wel eens in een Tesla rijdt ziet hoe de desbetreffende YouTuber (met bepaalde financiële belangen) Autopilot uitstuurt. Ook is de test nagedaan door anderen en FSD4 auto's stoppen wel degelijk.
maar de camera-only modellen presteren veel slechter in bijvoorbeeld slecht weer dan concurrerende modellen met radar/lidar
Ik denk dat geen enkele fabrikant op dit moment kan wat Tesla met FSD supervised in de VS doet. Bij zeer slecht weer zou ik überhaupt voorlopig nog even adviseren zelf te sturen :)
De 2022 Model Y kan het zelfs in deze debunk-video niet: YouTube: Mark Rober Debunked - You can't fool a HW4 Tesla using FSD! (timed link)

Dat HW4 met het laatste OS hier dan misschien wel mee om kan gaan is leuk, maar helpt nog steeds geen sikkepit in sneeuw/zware regen/zware mist. Daar heb je toch écht een combinatie van Lidar, Radar en camera's voor nodig. En wil je ooit naar een gehele zelfrijdende vloot, vooral voor vrachtverkeer, dan is dat gewoon nodig. Je kan niet een uur midden op de snelweg stil gaan staan als je geen visueel zicht meer hebt.
In deze context een interessante paper waarin 5 ADS methoden experimenteel worden onderzocht voor het rijden in slecht weer. Alleen camera's zijn niet de oplossing.
Klopt, hoe gaaf ik tesla ook vind, zolang er niet als losse opzit en het camera only is, doen ze zichzelf te kort en zal t niet veilig genoeg zijn. Ja mensen hebben ook alleen “camera’s”, zo’n auto kan dus veel beter worden dan mensen met die technieken juist er wel in
Ja mensen hebben ook alleen “camera’s”
Volgens mij gebruiken mensen, ook in het verkeer, meer zintuigen. Als we pas op het laatste moment een politiewagen met lichtsignalen en sirene door rood zien rijden op een kruising, dan is de kans groot dat we te laat zijn.
Ik dacht hetzelfde, maar heb die tijd zonder probleem uitgezeten. Zeer de moeite waard om "even" te kijken//luisteren.
Over hoe autopilot is toegelaten op de europese markt door de RDW.
En dat Tesla rijders proefkonijnen zijn als het gaat over gebruik van autopilot.
In het kort: koop geen Tesla.
Deze is helemaal niet representatief. Ten eerste hebben we het over heel andere software, autopilot is niet gelijk aan fsd. De autopilot is gratis en niet veel meer dan lane-assist en adaptive cruise control, terwijl de Amerikaanse FSD van deur tot deur rijdt.

Er zijn heel veel statistieken van de Tesla autopilot en fsd. Zolang het supervised is, rijdt deze toch echt vele malen veiliger dan de ice.

De hele aanpak is nu voorzichtig met kleinschalige test en voor de zekerheid een Tesla medewerker op de passagiersstoel, maar er moet wel altijd wat te klagen zijn natuurlijk.

Ik rij al 6 jaar Tesla, geen enkel ongeluk mee veroorzaakt. Phantom breaking bestaat nog, maar is maar een fractie van wat het was en heeft bij mij nooit tot iets gevaarlijks geleid. Het is altijd een preventieve actie, die bovendien als je je aan de regels houdt meteen door de bestuurder gecorrigeerd kan worden. Als je zoals in de meeste video’s doet alsof autopilot fsd is en niet oplet, dan moet je het vergelijken met een andere auto waar je een baksteen op het gaspedaal legt en kijken hoe lang dat goed gaat, dan heb je een eerlijke vergelijking.
De achterliggende software van autopilot is toch niet anders dan van FSD? Het bepaalt alleen welke features wel en niet aan staan. Zo stopt basic autopilot niet voor stoplichten, wat FSD wel doet. Maar de software is voor zover ik weet gelijk.
Klopt. In Europa is dat zo. En daarom relevant voor ons. Dat er dan geroepen wordt dat het elders anders is, is voor ons nu niet relevant. En dat het slechte gedrag goedgepraat wordt door te zeggen dat het hier al jaren niet geüpdatet wordt maakt het voor mij juist nog erger.
Tesla kan er niet veel aan doen dat er UNECE regels zijn die vertellen hoe bepaalde zaken moeten werken. Neem de bekende Nederlanderse rode fietsstroken. De regels van een LKAS systeem vereisen dat je tussen de rijstroken blijft rijden, terwijl je bij een tegenligger wel degelijk naar rechts moet.

Als je een documentaire wil maken over zelfrijdende systemen, en een compleet beeld wil geven, zijn dat relevante vragen. Evenals vergelijkingen met de concurrentie bijvoorbeeld.

Dat je daar momenteel niet veel aan hebt als particulier staat inderdaad als een paal boven water.
Tesla kan nog heel veel doen met de geldende regels. Dat het systeem slecht werkt en ongewenst gedrag vertoont ligt ook bij Tesla en die kunnen dat gewoon verbeteren. Afschuiven op de wetgever is dan gek. Het systeem kan veel meer communiceren en grenzen aangeven dan wat het nu doet.

Bij een wat scherpere bocht is mijn Tesla nu ook aan het communiceren dat je paraat moet staan over te nemen omdat het automatisch sturen beperkt is. Dat is al een stap in de goede richting, daarmee geef je duidelijk de grenzen aan en weet je wat je kunt verwachten.

op zo’n weg met fiets- of suggestiestroken, waar zo’n systeem eigenlijk niet goed kan werken, zou dat dus ook gecommuniceerd moeten worden en niet beschikbaar gemaakt worden. Of anders bij een tegemoetkomende auto aangeven dat de bestuurder moet overnemen en de weerstand van het stuur verlagen zodat je dat makkelijk kunt doen. Ik verzin hier maar wat, mijn voorkeur zou zelf uit gaan naar het onmogelijk maken zaken als AutoPilot aan te zetten op wegen waar dit ongeschikt voor is.

en of dat nu komt door gebrek van het systeem, hardware of regelgeving is voor mij dan verder irrelevant. Ik wil gewoon weten wat wel en niet kan en waar de grenzen liggen. Kom er liever achter met communicatie vooraf dat het niet goed werkt dan met schade en letsel achteraf.
Een aantal zaken, zoals de fietsstroken, is oprecht binnen de kaders van UNECE niet mogelijk. De zogenaamde System Initiated Manouvres, waar een level 3 systeem op moet acteren, zijn niet toegestaan. Wie een Tesla had met het middelste Autopilot pakket, weet dat lane change op de snelweg 3 jaar geleden is verslechterd. Dat deed Tesla omdat het moest, niet omdat het er veiliger of beter van werd.

Sommige experts verwachten dan ook dat het makkelijker is om level 4 / unsupervised FSD te lanceren binnen Europa, dan de level 2.5 wat supervised FSD is, wat Tesla poogt.

FSD is ontworpen in het kader van wat technisch kan, niet obv regelgeving. Want kortgezegd, de regelgeving is er praktisch nog niet. Het idee wat je voorstelt mbt wat er indicatief in beeld is, hoe je moet uitsturen etc - daar wordt al jaren over gesproken door allerlei lidstaten (binnen en buiten Europa), door fabrikanten en zelfs door organisaties als de FIA, maar men is het nog niet met elkaar eens.

Uiteindelijk is nu de taak aan Tesla om te overtuigen, vandaar dat er getest wordt en deze video's zie je op het internet ook staan.

Het is in niemands belang dat er letsel ontstaat.
Nou ik hoop dat het ze lukt om de boel te verbeteren. Ik heb het EAP-pakket waar je het over hebt en de rijstrookwissels zijn inderdaad behoorlijk beroerd. Ik ben overigens wel blij dat hij nu vooraf vraagt om te bevestigen want hij maakt best wel vaak verkeerde keuzes wanneer je navigate on autopilot aan hebt staan. Als dat niet met bevestiging zou zijn dan zou ik dikwijls verkeerd zijn gereden.
De achterliggende software van autopilot is toch niet anders dan van FSD?
Zeker wel. Kort door de bocht is Autopilot een machine learning interpretatie van de camerabeelden (wat is een auto, wat is een rijbaan, wat is een stoplicht) met honderdduizenden regels code hoe hier mee om te gaan.

FSD is end to end AI, getraind op data gebaseerd op de video's van de voertuigen die al jaren rondrijden.

Waar jij op doelt zijn de optiepakketten. Achterliggend zit daar inderdaad per pakket hetzelfde systeem achter (Autosteer in de EU, FSD in de VS). Het punt waar het om draait is dat de software in de VS iets anders is dan in de EU.
De software in de VS is inderdaad anders dan de EU. Maar als je in de EU autopilot neemt, is dat dezelfde software als FSD. Ik had FSD op m’n vorige Model 3 namelijk en toen ik die upgrade nam kwam er geen andere software op.

Ik weet niet hoe ik het beter kan uitleggen dan dit, maar wat je zegt klopt echt niet, behalve als je het hebt over de verschillende continenten.
Dat kan niet, FSD is wettelijk verboden in de EU.

Wat jij bedoelt heet Autopilot beta :) en dat is idd dezelfde stack als wat Autosteer is.

Je kan FSD al wel kopen, maar dat is niks meer dan een reservering totdat het beschikbaar komt. Tot die tijd krijg je Autopilot beta.

[Reactie gewijzigd door Richh op 22 juni 2025 17:04]

We wordt weinig bekendgemaakt over de versies van Autopilot maar volgens mij is dit echt wel oude software.
Voordat ik deze docu zag was ik relatief positief over zelfrijdende auto's.

Moet zeggen dat dit nogal het enthousiasme heeft laten verdwijnen.
Dan zou ik ook nog even deze video kijken van Mark Rober over de Tesla en hoe “goed” hun camera systeem werkt.
En dat is natuurlijk wel zorgelijk. Eén slecht opgebouwde suggestieve documentaire heeft veel te veel invloed.
Voor de minder geïnformeerde consument is en dan een hele toer om uit te vogelen hoe de documentaire gewogen moet worden. Dat doen mensen niet en dus is het daarmee waarheid geworden.


Overigens ook even on topic: ik ben heel benieuwd naar de resultaten van de testen. FSD in de VS ziet er al echt indrukwekkend uit. De vertaling naar Europa zal nog wel even op zich laten wachten, al was dat filmpje uit Amsterdam al wel hoopgevend.
Laatst kwam ik een interessante Zembla docu tegen over de schaduwzijde van Tesla's Autopilot:
YouTube: Dit is hoe Tesla Europese regels omzeilde met Autopilot | Zembla (41:28)

Ben dan ook heel benieuwd hoe succesvol dit gaat zijn.
Tesla zit niet meer in de luxe positie om het te verpesten. Alhoewel het dus in de praktijk nog steeds fout kan gaan, nemen ze nu wel een zeer groot risico.
Dit gaat over autopilot, wat een veredelde lane assist is met adaptive cruis controle. Hier is footage van waar het wel om gaat: First ever Robotaxi ride
Is een waardeloze suggestieve documentaire met weinig concreet bewijs en gebaseerd op zaken die inmiddels bijna 10 jaar geleden zijn.
Ik heb de aflevering ook gezien. Als dit het niveau is van Zembla anno 2025 dan is het echt triest gesteld met de journalistiek. De uitzending komt 5 jaar te laat, in 2020 had deze prima gepast.

De hele insteek/opbouw was al vreemd. Die Noorse jongeman die terecht veiligheidsproblemen in de fabriek aankaartte: prima. Als een bedrijf onethisch management voert dan moet je ze daarop aanpakken. Maar ook dat incident gebeurde al jaren terug. Vervolgens werd daar in 't geheel niet meer over gesproken en verschoof de focus naar de autopilot functie.

Ik miste vooral details rondom die in handen gekregen Tesla (klant?) data. Hoe is die data tot stand gekomen? Die Duitse krant beschikt over een mooie Excel, ok. Maak daar eens een draaitabel/grafiek van zou ik zeggen. Hoeveel procent van die klachten bestond uit relatief eenvoudige phantom breaks? Wanneer speelden die klachten zich af? Welke zijn er in de laatste 3 jaar gemeld? Over hoeveel ongelukken hebben we het nou echt?

In het stukje over phantom breaking wordt dan een video van een Amerikaans Model S ongeluk uit 2016 (!!!) aangehaald waar de auto echt volledig tot 0 remt op de snelweg. Nu heb ik zo rond 2020 nog wel eens een phantom break gehad, maar dat ging nooit verder dan van 103 tot 95 afremmen of iets dergelijks.

Zo werd het europese autopilot ook nog op een hoop gegooid met de Amerikaanse full self drive.... (videootje van de parkeerplaats). De vragen richting de RDW man kwamen ook niet verder dan het niveau suggestief. 'Waarom hebben jullie dit.... waarom niet dat... ' Zo ontbrak er echt van álles in die uitzending. Goede, open vragen. Data. Tijdslijnen. Een verhaal eigenlijk, een hook.

Dan nog even eindigen met lekker sensatieverhaal over een arme dame die haar vader verloor omdat de Model S in kwestie dácht op de autopilot te rijden. Pure onkunde van de chauffeur in kwestie dus, daar kan het merk Tesla weinig aan doen.

Zembla/journalistiek onwaardig.
Ik zat in dat datalek en ben door Zembla benaderd.

Alleen maar suggestieve vragen.

Zeer gedateerd item waar van alles op aan te merken is. Zij vonden het gerechtigd van het datalek gebruik te maken bezitters te benaderen.

De robotaxi is en heel ander verhaal. Vanwege de liability is het afbreukrisico zeer groot. Dit zorgt er automatisch voor dat ze extreem voorzichtig opereren.

Ik zie best risico's maar met 50 kmp/h hobbelen door de binnenstad is daar geen van.
Door de binnenstad van Austin niet. In Nederland zou ik het niet proberen met fietsers, wandelaars en het ergste van alles: toeristen.
Precies lage snelheid door drukke/ rommelige situaties is geen enkel probleem. Dat is wat mij betreft overtuigend opgelost. Smalle doorgangen, voetgangers, werkzaamheden etc dit is gewoon getackeld.
Bor Coördinator Frontpage Admins / FP Powermod @dijkmans9322 juni 2025 14:45
Ik zie dat in de praktijk toch vaak niet optimaal verlopen. Het anticiperen is veel moeilijker dan bv op een snelweg waar de situatie veel voorspelbaarder is. De filmpjes die ik online zie waar het fout gaat is meer dan eens binnen de bebouwde kom..
De snelweg staat buiten kijf.

Ik bedoel binnenstad vs landweggetjes, gevaarlijke kruisingen etc. Doe mij dan die stad maar. T-bone op hoge snelheid zie ik als grootste gevaar
Waarom niet? In tegenstelling tot iedere mens van vlees en bloed heeft een AI gestuurde wagen namelijk wél ogen op de rug.
Het probleem met jouw buikgevoel is dat je er van uitgaat dat iedereen een prima chauffeur is. Helaas is dat totaal niet het geval. Vroeger moest je bvb niet eens een rijexamen afleggen, en daarnaast speelt ouderdom, slechtziendheid, alcohol etc ook een zeer negatieve rol.
Bor Coördinator Frontpage Admins / FP Powermod @dijkmans9322 juni 2025 12:56
Ik zie best risico's maar met 50 kmp/h hobbelen door de binnenstad is daar geen van.
Terwijl de binnenstad juist door zijn onvoorspelbaarheid moeilijk is voor self driving. We is niet altijd duidelijke belijning, je hebt zwakke verkeersdeelnemers zoals voetgangers en fietsers, het verkeer gaat soms alle kanten op en dan hebben we het nog niet over bijzondere kruispunten etc. Juist in de binnenstad ligt een grote uitdaging.
Als je goed kijkt naar de vele filmpjes op youtube is dat juist wat met AI heel goed gaat.

Ik ben meer bevreesd voor gevaarlijke kruisingen met hoge snelheden.
Dubbelparkeerders (of staan ze nou voor het verkeerslicht), of is dat een laad/losactie? Wat gebaart die voetganger nou, gaat die nou oversteken of niet. Waarom zwabbert die fietser.
Zij vonden het gerechtigd .... Zij negeerden dus gewoon de wetgeven, Zembla moest beter weten.

Maar dat is strafbaar volgens de wetgeving het is schending van de Algemene Verordening Gegevensbescherming (AVG), onder de AVG (de Europese privacywet) is het:

onwettig om persoonsgegevens te verwerken die onrechtmatig zijn verkregen;
verboden om mensen te benaderen zonder een rechtmatige grondslag (zoals toestemming, een contractuele verplichting, of een gerechtvaardigd belang dat zorgvuldig is afgewogen).
Een datalek betekent dat de betrokkenen géén toestemming hebben gegeven voor dit gebruik, en het is dus onrechtmatig.
Ik denk dat het best te beargumenteren valt dat de journalisten hier een gerechtvaardigd belang hebben. Het onderzoek is m.i. in ieder geval in het algemeen belang.
Ik ga ervan uit dat er zorgvuldig een afweging is gemaakt door de redactie, want ze steken ook niet onder stoelen of banken dat ze deze gegevens hebben gebruikt.
Maar dat Autopilot uit wordt gezet zonder dat de bestuurder dat door heeft en dat het aantoonbaar tot dodelijk ongelukken heeft geleid. Dat had natuurlijk nooit mogen gebeuren, ronduit schandalig. Leg dat maar uit aan de nabestaanden. En als dat 5 jaar te laat komt, dat is dan maar zo. Maar wel een waarschuwing voor bedrijven dat "gedoe" vroeg of laat naar boven komt. Maar ja, aandeelhouders en waarde creatie is natuurlijk óók belangrijk.
Met 50 km/u door de stad heen rijden is veel gevaarlijker dan met 30 km/u. Daarom is 30 km/u de snelheid in grote delen van Utrecht en Amsterdam. Een voetganger heeft veel meer kans om de klap te overleven als de snelheid lager ligt.
Veel van dit soort programma's hebben suggestieve vragen, ook consumentenprogramma's zoals Radar. Dat is heel vervelend omdat je als kijker er op moet kunnen vertrouwen dat wat je ziet niet op de een of andere manier gemanipuleerd is.
Dan weet je ook hoe je naar andere Zembla programma’s moet kijken
Ik heb anderhalf jaar en highland gereden. Ik kan je exact aanwijzen waar op de A9 hij steevast naar 30kph afremt als je enige vorm van cruiser control aan hebt staan. Op de A2 idem.

De tesla het geen flauw idee hoe om te gaan met overlappende wegen of met tankstation afritten. Remt dan gewoon vol, ook al heb je aan gegeven dat ie met z'n klauwen van de snelgroeiende af moet blijven.

En levens gevaarlijke big in het systeem waarbij Tesla zegt "eigen schuld, had je maar op moeten letten". Ik kan je vertellen, dat gaat helemaal niet met de snelheid waarmee dit mis gaat.

Ja, andere merken hebben exact ditzelfde issue. Ook Volkswagens en renaults doen dit. Echter luisteren die wel naar de instelling dat ik de snelheid bepaal en niet de auto.
Dit is zeker een probleem maar dit is 2018 techniek. Denk je echt dat dit nu nog in Amerika gebeurd?
Gezien het feit dat men nu meer op AI in zet denk ik inderdaad van niet. Gegarandeerd dat het vol in de remmen op de snelweg nogsteeds gebeurt maar het zal zeker niet meer zo voorspelbaar zijn.
Ik blijf het grappig vinden. Maar de standaard autopilot heeft NIETS maar ook werkelijk NIETS met FSD te maken zoals tesla het aanbied. De FSD firmware is vele malen accurater en kan veel beter omgaan met duizenden situaties. Autopilot los kan je auto binnen de lijntjes houden en afstand bewaren, maar object detectie zoals FSD het kent is niet aanwezig.

Daarnaast is en blijft FSD supervised, dus je bent zelf verantwoordelijk als er iets gebeurt en moet altijd kunnen ingrijpen.

Ik ben wel van mening dat je met enkel camera's nooit volledige autonomie zult bereiken waarbij je zonder zelf op te letten autonoom kunt rijden. Bij erg slecht zicht is het gewoon onmogelijk voor een auto. Zonder Lidar gaat dat echt niet veranderen en tesla weet dit dondersgoed.

[Reactie gewijzigd door Luchtbakker op 22 juni 2025 14:22]

Wat je dus beweert is eigenlijk dat iemand die alleen op zijn biologische camera's vertrouwd nooit autonoom kan rijden.
Sterker nog: we laten iemand die maar één biologische camera heeft gewoon rijden. Sterker nog: we controleren maar heel oppervlakkig of het brein achter die biologische camera's wel geschikt is om te rijden. En we ontwerpen auto's die zo lastig te bedienen zijn dat je dat niet meer op de tast kunt doen. Zit je dan met 130km/h op de snelweg, met je ene oog, en wil je de snelheid van je ruitenwissers aanpassen....
Beetje onzin wat je hier verkondigt, die biologische camera's samen met de hersenen zijn niet 1 op 1 te vergelijken met camera's met een computer.
Je roept dit wel steeds, maar je onderbouwt dat niet. Wat jij zegt is een beetje: je kunt een fiets niet met een motor vergelijken. Dat hangt er maar helemaal van af waar je het over hebt. Je kunt met een fiets heel veel dingen doen die je met een motor ook kan en daar kun je die twee prima onderling vergelijken. We hebben het over een manier om informatie van je omgeving te gebruiken om beslissingen te nemen. In dat scenario kun je ogen, brein, camera's en software heel goed vergelijken.

Bovendien lijkt je niet in de gaten te hebben dat ogen en brein maar heel, heel langzaam evolueren, terwijl camera's en AI enorm snel veranderen. Alles wat je nu zegt heeft betrekking op het nu en je bent kennelijk niet in staat om ontwikkelingen te extrapoleren en te voorspellen waar het naar toe gaat.
Je kunt het ook niet met elkaar vergelijken, dat is juist het punt. Het zal vast wel beter worden, maar een mens doet het op dit moment gewoon nog steeds beter dan een auto die alleen met camera's is uitgerust.
Je kunt het ook niet met elkaar vergelijken, dat is juist het punt.
Je blijft dit maar zeggen en gaat voorbij aan het argument dat beide worden ingezet om een auto te besturen en je ze dus wel *moet* vergelijken. Bij die vergelijking moet je aspecten pakken die van belang zijn:
- Wat kunnen ze registreren (resolutie, dynamisch bereik, registratiesnelheid)
- Hoe gevoelig zijn ze voor verstoringen (regen, mist, modder)
- Verwerkingssnelheid (hoe snel komen ze tot een beslissing)
- Percentage fouten

Op al deze aspecten kun je techniek (camera's + AI) prima vergelijken met de mens (oog en brein)
Op alle punten hierboven is naar mijn idee de techniek beter of op z'n minst vergelijkbaar met de mens. Zeker vergelijkbaar met een groot deel van de automobilisten die een veelvoud van lichamelijke tekortkomingen heeft die in de weg zitten bij het autorijden.
Het is niet te vergelijken. Een honderdduizenden jaren geëvolueerd systeem is niet zomaar even na te bouwen met twee camera's en een computer. De vergelijking houdt zo ongeveer op bij de camera (ogen) en de computer (hersenen). Als het zo makkelijk zou zijn als je zegt, waren we er al geweest, maar keer op keer blijkt dat computers met camera's gewoon niet hetzelfde kunnen ondanks dat de sensoren overeenkomen.

[Reactie gewijzigd door Peenutzz op 23 juni 2025 09:06]

Iets wat je vaak herhaalt is nog niet waar. Je brengt inhoudelijk niets in.
Een honderdduizenden jaren geëvolueerd systeem is niet zomaar even na te bouwen met twee camera's en een computer.
Dat doen we allemaal al: Elk onderdeel van ons lichaam is al miljoenen jaren in ontwikkeling en toch zijn bijna alle onderdelen ervan technisch al verbeterd: we hebben camera's die in het donker en bij andere golflengtes kunnen zien. We hebben robots met armen die sterker zijn dan die van de mens, tegen hogere temperaturen kunnen beweeglijker zijn. We hebben microfoons die onze oren ver, maar dan ook ver voorbijstreven. Ons brein is op allerlei onderdelen al voorbij gelopen. ChatGPT doet dingen die geen mens kan nadoen om over opslagcapaciteit maar niet te spreken.
Ons lichaam is helemaal niet zo perfect als we graag willen geloven. Het kan niet tegen hitte, niet tegen kou, het verouderd vrij snel, breekt gemakkelijk en beschadigd nog sneller. Ons brein is lek, traag en heeft een beperkte capaciteit. Ons brein is ook nog eens erg gevoelig voor verstoringen en bijzonder onbetrouwbaar. Het is vrij eenvoudig om mensen zover te krijgen dat ze andere mensen neersteken of doodschieten. Bovendien is het in veel gevallen zelf-destructief. Dat is het resultaat van miljoenen jaren evolutie?
Jouw evolutie-argument is dus onzin.
Ik zeg nergens dat ons lichaam perfect is, maar toch krijgt een mens in een auto meer voor elkaar dan een computer met twee camera's, ondanks al die technische vooruitgang die je noemt. Waar ligt dat volgens jou dan aan? Domme programmeurs?

[Reactie gewijzigd door Peenutzz op 23 juni 2025 10:49]

Dit is een drogreden. Je verzint een observatie ("toch krijgt de mens meer voor elkaar dan een computer") en bouwt daar op voort.
Twee problemen met jouw redenatie.
1. Gemiddeld geldt dat hoe meer van het autorijden wordt weggehaald bij de mens, hoe veiliger. Dat is gewoon een ontwikkeling met o.a. ABS, ESP, obstacle detection en daaraan gekoppeld noodstop-acties, rijbaandetectie etc. FSD is gewoon een doorontwikkeling daarvan. Dus: al die systemen presteren al beter dan de mens.
2. Ik heb geen idee wie of wat jij als referentie neemt voor "de mens". Wie is dat? Wat kan hij? Het enige dat telt is het ongevallenpercentage en daarin presteren autonome auto's al minimaal even goed als de mens.
Dat laatste zie ik graag een bron van, want het klinkt als iets wat Musk heeft gezegd. De problemen met camera vs mens zit hem niet alleen in het zien van dingen, maar ook in het interpreteren ervan, zie https://medium.com/@p4pri...an-cognition-433c43c9ae2e
Where the Vision-Only System Falls Short

1. Poor Weather Conditions
Cameras, like human eyes, struggle in fog, heavy rain, or snow. But humans adjust behavior based on context. An AI might misinterpret a lane or miss a stop sign entirely if visibility is compromised.

2. Visual Illusions and False Positives
If a wall is painted like a road, a human can tell it’s fake. An AI system might drive straight into it. Vision-only systems, without reasoning or depth-sensing support, are vulnerable to such illusions.

3. Limited Depth Perception
Humans intuitively gauge distances and speeds. AI systems using monocular vision must infer depth, often with less accuracy than systems using LiDAR or radar.

4. Rare or Edge Cases
A human can instantly react to a ball rolling into the road by expecting a child might follow. AI needs thousands of similar examples to learn that behavior. It lacks the kind of situational inference that humans excel at.

Human Cognition: More Than Just Vision
Tesla draws parallels between its camera-based system and the human visual system. But the human brain offers capabilities far beyond what current AI can achieve:

Common Sense Reasoning
We don’t just see — we understand. We apply logic to what we see. A neural network sees pixels and patterns, but doesn’t truly grasp meaning.

Abstract Thinking
We can recognize new signs or unexpected road changes with little to no prior exposure. AI often requires massive retraining to adapt to novel inputs.

Reflexive Consciousness
Humans can say, “I’m unsure” and slow down. AI systems don’t possess self-awareness or reflective decision-making unless explicitly coded.

Ethical Reasoning
Humans might sacrifice themselves to avoid harming others. Tesla Vision executes actions based on mathematical models of safety and utility, not moral judgment.

Learning from Few Examples
Humans are capable of one-shot learning. Neural networks, on the other hand, rely heavily on labeled data and struggle with generalization from minimal examples.
Allemaal dingen die voortkomen uit honderdduizenden jaren evolutie die je niet zomaar even namaakt met een computer en een camera.
Ik heb gezocht naar de data, maar die blijkt er niet te zijn....
Er is om te beginnen Tesla's eigen rapportage, die ze elk kwartaal uitbrengen. Daarin vergelijken ze ongelukken per km. Dat rapport heeft een image-probleem, want van Tesla zelf. Overigens vindt ik nergens een goede analyse waaruit blijkt dat die data niet klopt. Het rapport kan dus gewoon goede data en goede conclusies bevatten, of niet.
Dan zijn er allerlei artikelen die hier over gaan, maar die gebruiken allemaal andere waardes, maar vooral absolute aantallen, want die klinken lekker. Ik heb nog geen duidelijk en onafhankelijk overzicht gezien van het aantal ongelukken per kilometer, per wegtype, per van alles.

Dus kortom: mijn opmerking kan ik niet onderbouwen, maar ik geloof ook dat die data er gewoon niet is.

Dan even naar jouw lijstje. Super vaag. Ik pik er een paar uit:
Humans can say, “I’m unsure” and slow down. AI systems don’t possess self-awareness or reflective decision-making unless explicitly coded
Hoezo is dit niet onderdeel van de beslisboom in een Tesla? Dat is zo verschrikkelijk voor de hand liggend dat je het bijna bewust uit je logica moet peuteren. Ook hier weer geen onderbouwing van mijn kant, maar dit is een erg vage aanname.
Humans intuitively gauge distances and speeds. AI systems using monocular vision must infer depth, often with less accuracy than systems using LiDAR or radar
Ook dat is een drogreden. We hebben helemaal geen nauwkeurigheid van centimeters nodig om een afstand tot een auto in te schatten. Mensen zijn daar ook ongelooflijk slecht in, onze ogen staan veel te dicht bij elkaar om dieptes te berekenen verder dan een paar meter. Ik ben daar zelf een voorbeeld van: ik heb (werkelijk) maar één bruikbaar oog, maar ik kan heel prima autorijden. Ik onderscheid me niet van andere automobilisten.
A human can instantly react to a ball rolling into the road by expecting a child might follow. AI needs thousands of similar examples to learn that behavior. It lacks the kind of situational inference that humans excel at.
Tesla's FSD kan ook al voorspellen wat er gebeurt en ziet bovendien al heel veel meer dan een mens. Mensen hebben geen 360 graden zicht en voorspellen situaties uit wat er zich direct voor hen afspeelt.
En nogmaals, er is niets, maar dan ook niets dat verdere ontwikkelingen op dit vlak tegenhoudt.
Ik zeg ook nergens dat er iets is wat ontwikkelingen tegenhoudt, ik zeg dat het gewoon te kort door de bocht is om te stellen dat omdat een mens met alleen zijn ogen kan rijden, een auto dat ook kan. Dat is gewoon niet zo.
Hoezo is dit niet onderdeel van de beslisboom in een Tesla? Dat is zo verschrikkelijk voor de hand liggend dat je het bijna bewust uit je logica moet peuteren. Ook hier weer geen onderbouwing van mijn kant, maar dit is een erg vage aanname.
Een beslisboom is niet hetzelfde als bewustzijn en reflectieve besluiten nemen. Als jij regelmatig ergens rijdt en het gaat regelmatig bijna mis vanwege overstekende (vul hier maar wat in), dan ga jij rustiger rijden. Een auto "denkt": "Ik ben in deze straat, ik moet naar die straat, ben binnen de bebouwde kom, dus max 50, rijden maar", om vervolgens op elk overstekend ding weer apart te reageren.
Ook dat is een drogreden. We hebben helemaal geen nauwkeurigheid van centimeters nodig om een afstand tot een auto in te schatten. Mensen zijn daar ook ongelooflijk slecht in, onze ogen staan veel te dicht bij elkaar om dieptes te berekenen verder dan een paar meter. Ik ben daar zelf een voorbeeld van: ik heb (werkelijk) maar één bruikbaar oog, maar ik kan heel prima autorijden. Ik onderscheid me niet van andere automobilisten.
Een paar meter? Ik kan niet voor anderen spreken, maar ik kan prima inschatten of iets 1, 10, 20, 50, 100 meter of meer van me verwijderd is en ik geloof niet dat ik heel bijzonder ben daarin. Diepte zien en afstanden schatten met 1 oog is niet zo moeilijk als veel mensen denken dat het is. Autorijden is inderdaad prima te doen.
Tesla's FSD kan ook al voorspellen wat er gebeurt en ziet bovendien al heel veel meer dan een mens. Mensen hebben geen 360 graden zicht en voorspellen situaties uit wat er zich direct voor hen afspeelt.
En nogmaals, er is niets, maar dan ook niets dat verdere ontwikkelingen op dit vlak tegenhoudt.
In beeld hebben en zien is niet echt hetzelfde. Wat ik al eerder zei, er zijn meer dan genoeg meldingen van verkeerd geplaatste auto's, vrachtwagens die verward worden met verkeerslichten, Tesla's die de verkeerde weghelft op sturen, noem maar op.
Een beslisboom is niet hetzelfde als bewustzijn en reflectieve besluiten nemen. Als jij regelmatig ergens rijdt en het gaat regelmatig bijna mis vanwege overstekende (vul hier maar wat in), dan ga jij rustiger rijden. Een auto "denkt": "Ik ben in deze straat, ik moet naar die straat, ben binnen de bebouwde kom, dus max 50, rijden maar", om vervolgens op elk overstekend ding weer apart te reageren.
Dat heeft weinig met bewustzijn te maken, maar met geheugen. Het zal helemaal niet zo ingewikkeld zijn om een AI locatiegeheugen te geven, waarbij exact dezelfde beslisboom gebruikt kan worden: regelmatig moeten remmen op locatie x? Dan langzamer rijden.
Mooier nog: een AI zal dat dus *altijd* doen, terwijl jij als mens die situatie nog wel eens zou kunnen vergeten.
Een paar meter? Ik kan niet voor anderen spreken, maar ik kan prima inschatten of iets 1, 10, 20, 50, 100 meter of meer van me verwijderd is en ik geloof niet dat ik heel bijzonder ben daarin.
Het verschil tussen 50 en 100 meter wordt al lastig als je geen referentiepunten zoals kilometerpaaltjes of parkeervlakken hebt. Maar daar gaat het niet om: mensen schatten die afstand wel in, maar niet op de meter nauwkeurig. Die nauwkeurigheid heb je *dus* ook niet nodig bij een camera met AI als bestuurder.
Diepte zien en afstanden schatten met 1 oog is niet zo moeilijk als veel mensen denken dat het is. Autorijden is inderdaad prima te doen.
Dat klopt en dus kan een camera met AI dat ook. En doet dat ook, want dat is waarom Tesla's niet massaal achterop andere auto's rijden. Voor zover ik weet zijn ongelukken met Tesla's nooit te wijten aan het niet goed inschatten van afstanden, dus dat "limited depth perception" is helemaal geen probleem.
In beeld hebben en zien is niet echt hetzelfde. Wat ik al eerder zei, er zijn meer dan genoeg meldingen van verkeerd geplaatste auto's, vrachtwagens die verward worden met verkeerslichten, Tesla's die de verkeerde weghelft op sturen, noem maar op.
Allemaal valide voorbeelden, maar ze zeggen niets over de veiligheid. Ook mensen rijden tegen vrachtwagens op, rijden verkeerslichten omver, rijden tegen de rijrichting in en pletten voetgangers. Waar het om gaat is of een AI dat minder doet. En wat ik al zei: er is (kennelijk) geen data waarmee je conclusies kunt onderbouwen.
Dit is een drogreden. Je verzint een observatie ("toch krijgt de mens meer voor elkaar dan een computer") en bouwt daar op voort.
Twee problemen met jouw redenatie.
1. Gemiddeld geldt dat hoe meer van het autorijden wordt weggehaald bij de mens, hoe veiliger. Dat is gewoon een ontwikkeling met o.a. ABS, ESP, obstacle detection en daaraan gekoppeld noodstop-acties, rijbaandetectie etc. FSD is gewoon een doorontwikkeling daarvan. Dus: al die systemen presteren al beter dan de mens.
2. Ik heb geen idee wie of wat jij als referentie neemt voor "de mens". Wie is dat? Wat kan hij? Het enige dat telt is het ongevallenpercentage en daarin presteren autonome auto's al minimaal even goed als de mens.
Ik weet niet hoor, als ik de lane keeping van de werkbus aanzet slingert hij heen en weer tussen de lijnen, ik kan tussen de lijnen rijden zonder te slingeren, dat doe ik toch echt beter. Obstakels detecteren lukt me ook prima, terwijl de genoemde werkbus tijdens achteruit inparkeren letterlijk voor een grassprietje vol in de ankers gaat. Je weet best wat ik bedoel met mens, niet zo flauw. Die ongevallencijfers zijn 9,1 ongelukken per miljoen mijl voor autonome auto's en 4,1 ongelukken per miljoen mijl voor menselijke bestuurders. Niet eens in de buurt van minimaal even goed als de mens.
Lane keeping is heel wat anders dan FSD. Lane keeping is simpelweg een mechanisme om te voorkomen dat je over de lijnen gaat.
Obstakels detecteren gaat de meeste mensen erg slecht af, getuige het aantal ongelukken met stilstaande objecten.... Vrijwel elk ongeluk is het gevolg van een verkeerde inschatting van de menselijke bestuurder.

En deze zag je natuurlijk aankomen :) : Waar komen jouw ongevallen-cijfers vandaan?
Gewoon van Google. Ik lees ook net dat er bij 2146 van de 3979 ongevallen met autonome auto's tussen juni '21 en juni '24, een Tesla betrokken was. Vijf keer zo vaak als de nummer 2 in de lijst. Valt wel een beetje op.
Google geeft altijd een bronvermelding. Ik zie jouw resultaten niet terug als ik er naar vraag, dus wat is de bron?

En oei: hoeveel procent van de autonome auto's is een Tesla? Toevallig ongeveer 85%? Dat verklaart perfect waarom ze vijf keer zo vaak bij een ongeluk betrokken raken.....
Zonder lidar! AI verzint 3d objecten en daar ben je aan overgeleverd, terwijl de techniek om stereobeelden te maken al honderden jaren bestaat.
Dat geeft Tesla al lang gedemonstreerd adhv camerabeelden op de AI dagen.

https://x.com/Tesla/status/1120815737654767616

[Reactie gewijzigd door jip_86 op 22 juni 2025 17:23]

Als iemand die sinds 2013 werkt aan multi-view technieken (algemeen, niet specifiek op self-driving toepassingen) vind ik dit eigenlijk geen impressionant resultaat, en toont het eigenlijk mooi aan waarom ikzelf niet snel in een zelfrijdende auto zal stappen die enkel camera's gebruikt.

Met multi-view (en dus ook stereo) kan je alleen met hoge zekerheid diepte bepalen voor regio's die duidelijke texturen bevatten. Hier vallen typisch ook randen van objecten of kleurovergangen onder omdat deze (vaak) gepaard gaan met veranderingen in het beeld. Je hebt dit nodig om overeenkomsten te kunnen bepalen tussen de beelden. Zonder textuur kan je geen stabiele overeenkomsten vinden, en dus ook geen goede diepte schatten. Een wegdek heeft vrijwel geen geschikte textuur (veelal uniform en repetitief - dus kans op mismatches, dus ongeschikt.) en voertuigen hebben in het algemeen ook niet veel textuur.

In het filmpje zie je dat ook terug: het wegdek wordt niet gereconstrueerd, behalve daar waar er kleurovergangen zijn (bvb wegmarkeringen). Ook voertuigen worden slechts deels gereconstrueerd (veelal de randen en het op FedEx voertuig de letters).

Wat veel commerciële stereocamera's (zoals Intel RealSense) doen is een patroon projecteren (vaak in Infrarood) om zo textuur toe te voegen aan de scene. Dit is niet te verwarren met een LiDAR die ook licht uitstuurt, maar een ander type meting gebruikt. Zover ik weet stuurt een Tesla geen patronen uit, en dat zien we ook terug in die reconstructie: anders hadden we het wegdek gezien.

Vaak heb je ook nog te maken met reflecties. Reflecties staan niet vast op een object maar veranderen/verschuiven afhankelijk van hoe je op het object kijkt. Bij stereo/multi-view betekent dit dat je correspondenties kan vinden op overgangen in reflecties, maar dat ook die diepteschatting fout zal zijn. Dit kan je wel deels aanpakken door een polarisatiefilter te gebruiken, maar dit lost nog niet alle problemen op ermee.

Het resultaat wat getoond wordt lijkt ook geen live resultaat te zijn: de temporele inconsistenties (bewegende weggebruikers en ruis) zijn immers weggefilterd. In de praktijk wil je live beelden gebruiken om obstakels te detecteren. Live stereo-diepte is veelal een pak ruiziger dan het getoonde eindresultaat.

Ik weet dat dit een video is van 2019, maar de problemen die ik hierboven beschrijf zijn fundamenteel voor stereo/multi-view en krijg je niet zomaar opgelost. Je kan eventueel een neuraal netwerk trainen om ontbrekende info in te vullen of om moeilijke situaties af te handelen. Je kan ook een netwerk trainen om diepte uit één enkel beeld te halen. Maar je blijft het probleem hebben dat je altijd hebt met AI: bij dingen die het vaak genoeg gezien zal het meestal goed werken, bij situaties die het niet kent is de uitvoer onvoorspelbaar.

Bij LiDAR spelen die problemen in het algemeen minder omdat het metingen betreft met lichtpulsen over een oppervlakte: een wegdek zal meestal mooi gereconstrueerd worden en moderne LiDARs kunnen ook overweg met speculaire objecten (zoals wagens). Vermits het geen ML betreft is het dus ook niet afhankelijk van eerder opgedane kennis. Een LiDAR geeft in het algemeen een vollediger en accurater beeld dan stereo (hangt natuurlijk af van de resolutie. Met oude goedkope mechanische LiDARs die slechts 16 lijnen hebben is dat uiteraard niet het geval. Tegenwoordig zijn er ook goedkope solid-state LiDARs die beginnen met resoluties vanaf 640x480 (meer dan voldoende voor deze toepassing). Sommige materialen kunnen de pulsen wel absorberen of volledig wegreflecteren, maar dit kan je dan met bijvoorbeeld een camera en object-detectie trachten op te vangen. Dan heb je voor elk een backup die fundamenteel anders werkt.

Persoonlijk, en de meesten in mijn veld waarmee ik spreek hebben een gelijkaardige mening, zie ik voor de veiligheid momenteel liever een combinatie van sensoren dan enkel te vertrouwen op cameras.
Zembla heeft een paar weken geleden een aflevering gemaakt over Autopilot. Een aantal van jou punten worden hier ook in besproken. Zeker het kijken waard. Autopilot is ook nog steeds in beta en er is een reden waarom.europese auto bedrijven zelfrijdende auto's nog niet laten rijden in het openbaar.

YouTube: Dit is hoe Tesla Europese regels omzeilde met Autopilot | Zembla
Totaal niet het kijken waard, want het is een zeer suggestief stuk gebaseerd op oude informatie, puur omdat het nu heel populair is geworden om "anti-Tesla" te zijn.

Er wordt slechts zeer beperkt gekeken naar wat Autopilot nou precies is en hoe essentieel een radar of LiDAR nou precies zou zijn, de posts van Jerrison is aanzienlijk diepgaander dan de gehele documentaire. Er wordt in de aflevering totaal geen aandacht besteed aan de FSD-software welke in de VS is uitgerold en de basis betreft van deze Robotaxi's.
Autopilot gaat nooit uit beta, de stack wordt niet meer doorontwikkeld, in de VS is men al jaren over op de FSD-stack welke e2e AI toepast. Deze stack wordt tegengehouden door regelgeving.

Men komt in de aflevering niet verder dan dat ergens "mogelijk" autopilot geactiveerd "zou kunnen zijn", omdat de optie op een auto zit. Men vraagt aan de RDW waarom er een goedkeuring is gegeven terwijl de RDW gewoon toetst obv regelgeving, maar is nooit concreet over wat de RDW nou precies verkeerd zou hebben gedaan. Het blijft bij suggesties dat Henk Kamp graag Tesla wou aantrekken; het is onduidelijk in hoeverre de Nederlandse politiek de RDW heeft aangestuurd.
De aantoonbare voorbeelden waarin het fout gaan speelden zich af in de VS en zijn meer dan 8 jaar oud, met oude hardware en software.

Het is een zeer interessant ethisch vraagstuk, evenals een technisch vraagstuk. Daar kan je heel veel over zeggen en schrijven. Maar Zembla komt niet verder dan vingerwijzen en "zou kunnen".
en er is een reden waarom.europese auto bedrijven zelfrijdende auto's nog niet laten rijden in het openbaar.
Ja, die reden is dat ze minstens 10 jaar achter lopen op de Amerikanen.

De rest is goedpraterij gebaseerd op vage aannames en onzin van hoe FSD er jaren geleden voor stond.

Wordt ff wakker: er rijden NU Tesla taxis rond zonder chauffeur. Het gebeurd al. Dus al die speculatie over dat het nooit (in Europa) kan en nooit gaat werken en onveiliger zou zijn dan menselijke chauffeurs kan de prullenbak in.

Er is maar 1 reden waarom self driving in Europa (nog) niet mag: om de eigen auto markt te beschermen die heeeeeeeeel ver achter loopt op Tesla.
Jij hebt denk ik niet goed gelezen voor je reageerde. Telsa is degene die achterloopt (overigens niet alleen op autonoom rijden) en weigert dit toe te geven. In Europa is de veilige(re) optie nog niet goedgekeurd omdat wij gelukkig strengere eisen stellen voor zo'n homp staal zelf mag beslissen hoe het rijdt
Je kan nog zoveel software updates doorvoeren, je blijft als databron alleen camera's hebben. Dat is het probleem.
Ik volg deze discussie niet van dichtbij genoeg, maar heb je ergens bewijs dat Tesla heeeeeeeel ver voorloopt? Ik heb begrepen dat andere partijen al langer zelfrijdend rondrijden of een hogere 'status' krijgen toebedeeld. Dit verhaal klinkt ook niet zo overtuigend (medewerker continu aanwezig). Maar misschien mis ik iets waaruit blijkt dat Tesla de partij heeft die zo ver voorop loopt.
Eeeeuhm. Neen. Er is bij Tesla nog altijd een safety monitor aanwezig. Persoonlijk of via remote.

Je vergist je met Waymo, Baidu en WeRide. Dewelke ook in EU actief zijn. We hebben de VW buzz binnenkort, Wayve, enz.

En bijna allemaal gebruiken ze LiDAR en/of radar samen met camera's en US. Enkel Tesler blijft zweren bij camera's. Altijd leuk bij regen, mist of sneeuw. 😉
Ja Mercedes heeft een level 3 systeem wat dus beter is in autonoom rijden dan FSD
Wordt ff wakker: er rijden NU Tesla taxis rond zonder chauffeur. Het gebeurd al. Dus al die speculatie over dat het nooit (in Europa) kan en nooit gaat werken en onveiliger zou zijn dan menselijke chauffeurs kan de prullenbak in.
Een correctie: Tesla durft het nog niet aan dat er zonder chauffeurs wordt gereden in hun Robotaxi. Ze hebben allemaal een 'bestuurder' aan boord, want Elon moest zijn beloofde deadline halen met zijn zelfrijdende taxi's.
https://electrek.co/2025/...erous-game-smoke-mirrors/
En ook nog geofenced voor een stuk terrein wat tot in het naadje gemapped is. Daarbuiten is het te onbetrouwbaar. Het zijn inderdaad zelfrijdende taxi's, maar toch niet helemaal.
Waymo heeft wel taxi's zonder chauffeurs, al worden ook daar op afstand soms ingegrepen door een mens, omdat de software het even niet meer begrijpt.

[Reactie gewijzigd door Fireshade op 23 juni 2025 17:17]

Totaal irrelevant omdat de Autopilot stack niet te vergelijken is met de FSD stack die wordt gebruikt en in Europa nog verboden is.
Want mensen hebben ook ingebouwde lidar?
Ja met onze 2 ogen zien we uiteindelijk diepte.
Je ogen zijn de cameras en je brein is AI. Lidar kan geen objecten zien alleen detecteren
Mensen gaan ook lang niet altijd goed in het verkeer ;)

Het verschil tussen zien en detecteren lijkt me trouwens een beetje gezocht: licht kaatst ergens tegenaan en wordt opgevangen door een oog, een camera of een lidar. Wanneer hebben we het over zien en wanneer over detecteren volgens jou?
Mensen zijn emotioneel en je hebt uitstekende middel en slechte chauffeurs.
Het systeem wordt alleen door beelden van uitstekende chauffeurs getrainde.

De discussie is allang passe. Tesla heeft die keuze al jaren geleden gemaakt. Er zijn genoeg andere concurrenten die wel lidar gebruiken en de toekomst zal het uitwijzen.
Is het niet zo dat Lidar juist licht uitzend en dat detecteert en je ogen die ontvangen alleen maar?
Lidar is trouwens ook heel makkelijk in de war te brengen en ook erg gevaarlijk als je er in kijkt en voor camera's en zo.
Klopt
Het idee dat AI de wereld ziet zoals wij ook zien
Het is een plastic tas ipv een steen. Lidar kan dat niet onderscheiden. Die registreert alleen een object.
Voor de context. Tesla had camera en radar. Vanwege de inconsistentie (wie heeft uiteindelijk gelijk?) hebben ze gekozen voor camera alleen.
Je bedoelt: vanwege kostenbesparingen hebben ze gekozen voor camera alleen.

Edit: dit zal waarschijnlijk nog wel gepost worden, maar dit duidt volgens mij toch goed aan hoe 'geweldig veel 3D detail' Tesla met hun camera's kan waarnemen:
https://youtu.be/IQJL3htsDyQ?si=1VgtS2YCwEGiKG-c

[Reactie gewijzigd door humpus op 23 juni 2025 14:04]

Dat is al lang ontkracht die YouTube filmpje. En trouwens een mens in het donker zal er zeker doorheen rijden.
Daarnaast beetje mist en je lidar denkt al dat ie een muur ziet. Dan moet je radar en camera's er bij doen die allemaal tegenstrijdige sensor meldingen geven

We gaan zien hoe goed die RoboTaxi werkt van Tesla nu het eindelijk gelanceerd is.
De potentie is zeer groot en het kan het landschap van hoe we nu auto rijden totaal veranderen.
Fair enough, we zullen zien.

En natuurlijk heeft lidar ook beperkingen. De bedoeling was dat beide systemen complementair waren, niet dat ze elkaar in de war brachten.

Ik snap de strategie van Tesla / SpaceX etc wel hoor. Normaal gezien zijn we heel terughoudend als het over technologie en mensenlevens gaat. Musk - en zijn volgens - slaan dat allemaal in de wind en willen zo snel mogelijk implementaties in de echte wereld om zo hun modellen beter te trainen.
En het werkt. Maar onze perceptie over wat aanvaardbaar is, is ook mee opgeschoven. Volgens mij zou niemand het binnen 2 jaar nog vreemd vinden als er een Starship ontploft met een aantal bemanningsleden of passagiers erin. Wilt niet zeggen dat er bij NASA geen doden zijn gevallen in het verleden, maar SpaceX komt met zoiets gewoon sneller weg. De perceptie is anders. Zo ook bij Tesla.

Daarnaast vind ik het wel verontrustend dat de argumentatie van velen stopt bij: een mens heeft toch ook geen lidar en 2 camera's in zijn hoofd? Strict genomen is dat niet fout, alleen negeren we wel enorm veel andere factoren :)
Ik denk dat we beter kritisch en nieuwsgierig zouden zijn, in plaats van iets blind te vertrouwen. Dat laatste is totaal geen kritiek op jou, maar een tendens die ik de laatste tijd opmerk ivm technologie en statements van big tech bedrijven in het algemeen.
Het is een andere manier van werken: itteratief in plaats van waterfall methode.
Of dat Tesla of SpaceX minder betrouwbaar maakt, denk ik niet.

Natuurlijk ontploft er wel wat en gaan er dingen mis, maar dat is ook juist de bedoeling in de bouwfase. Die Falcon 9 van SpaceX heeft al 491 keer gevlogen, waarvan er maar twee mislukt zijn. Drie jaar geleden was de Falcon 9 al betrouwbaarder dan welke andere raket ooit tevoren.
https://arstechnica.com/s...st-consecutive-successes/
https://www.guinnessworld...ommercial-rocket-launcher

En Tesla is de veiligste auto ooit. Vandaar ook dat de Model Y de bestverkopende auto ter wereld is.

Nu gaan we een nieuw hoofdstuk in met robotaxi, wat echt een gigantische impact kan en gaat hebben op hoe wij de auto gebruiken. Nog maar niet te spreken over wanneer dit straks in vrachtwagens gebruikt gaat worden.

[Reactie gewijzigd door dutchruler op 23 juni 2025 17:28]

En Tesla is de veiligste auto ooit. Vandaar ook dat de Model Y de bestverkopende auto ter wereld is.
Waaruit blijkt dat de veiligheid van de Model Y de reden is waarom deze auto zo goed verkoopt?

Er zijn 50 miljoen Toyota’s Corollas verkocht (véél meer dan er Model Ys verkocht zijn), was dat ook omdat ze zo veilig zijn?

Volgens mij worden Ys vooral verkocht omdat het grotere moderne elektrische auto’s zijn, die in het budget van veel mensen passen. Dat ze ook relatief veilig zijn, is een toevallige bijkomstigheid van vrijwel alle moderne EVs. Want de batterij is groot en zwaar, en zit dicht bij de grond. Jammer alleen voor rest van de bestuurders op de weg.
Helemaal niet jammer voor de rest van de bestuurders.
Iedereen zal over moeten gaan op elektrisch en binnenkort mag je ook zelf niet meer reden.

Jij zult het wellicht jammer vinden, maar het maakt het maakt het wel voor iedereen veiliger.
En de generatie na jouw zal het maar vreemd vinden dat er van die waaghalzen zijn die zelf rijden ;-)
Dat was niet het voornaamste reden. Camera only maakt het systeem minder complex

De videoclip is allang gedebunked
YouTube: Mark Rober Debunked - You can't fool a HW4 Tesla using FSD!
Neen, maar mensen hun brein kunnen ongekende obstakels wel een stuk beter processen dan dat enkel stereo zonder textuurprojectie of zelfs stereo + AI dat momenteel kan.

Ik zeg ook niet dat dat in de toekomst niet net zo goed als een mens kan zijn. Maar voor nu: nee bedankt.

Anderzijds vind ik het ook een gek idee om enkel camera's te gebruiken omdat dit is hoe een mens auto rijdt. Waarom geen bijkomende sensoren gebruiken als blijkt die superieur zijn voor een bepaalde toepassing?

Vleermuizen vliegen aan hoge snelheden in het donker en gebruiken echolocatie om te navigeren ipv zicht. Een mens is biologisch nooit ontwikkeld om aan hoge snelheden te bewegen: onze ogen en brein hebben zich ontwikkeld voor wandelen en lopen. In de latere millenia komt daar wat paardrijden bij en in de laatste eeuw pas autorijden. Hierbij rekening houdend kan je je de vraag stellen of een auto laten navigeren puur gebaseerd op "omdat de mens het ook zo doet" wel slim is.
Dat mensen ongekende obstakels beter zouden kunnen processen dan AI is een fabeltje.
AI is al zo veel beter en sneller dan mensen op patronen, afwijkingen te kunnen detecteren en daarbij de juiste acties aan te koppelen. Dit gaat alleen nog maar sneller en meer worden.

Uitgaande dat de auto goed zal functioneren in Austin zie ik dit heel snel verspreiden en binnen een paar maanden ook Uber in Amerika voorbij gaan. Het is een kwestie van tijd (paar jaar max) en dan zal hier in Europa het ook normaal zijn
Zullen we eens een "AI" loslaten op een reeks foto's en tellen hoe vaak het een auto of voetganger mist? En diezelfde taak laten doen door een mens?

Een state-of-the-art object-detectie netwerk zoals Yolo11 haalt op dit ogenblik een recall rate van 0.85. Dus 85% van de objecten die het moet herkennen ziet het, en voor 15% herkent het niets. Ik ben vrij zeker dat een mens beter doet dan dat.

Ongekende objecten detecteren gaat nog moeilijker met deze aanpak. Daarvoor kan je beter een systeem hebben dat de diepte registreert - onafhankelijk van wat er ligt - en het systeem laten reageren als uit die diepte blijkt dat er een probleem is. Dat is een bewezen aanpak die zonder problemen werkt.
Foto's?! Yolo11?

Wat heeft dat met de AI te maken die tesla gebruikt. Ten eerste gebruikt die geen foto's maar gewoon streaming video input van alle camera's die rechtstreeks het neurale netwerk ingaan

Yolo11 is een vision model van Ultralytics en is al weer ingehaald door RF-DETR’s en beide heeft niks te maken met wat tesla doet. Totaal andere techniek, en orde van grote.
Beiden werken op real-time video. Dat maakt amper verschil in de uitvoering, tenzij je wilt dat je resultaat temporeel achterloopt.

Dat een andere architectuur gebruikt wordt is van geen belang als de resultaten niet veel beter zijn.

RF-DETR haalt een recall rate van 88%. Wat nog steeds laag is naar menselijke normen.
(Enige fout die ik gemaakt heb: YOLO12 - over het hoofd gezien - haalt een recall van 90%)

Nog steeds niet Tesla's algoritme, maar die hun data zullen we niet snel zien. Het model dat jij aanlevert is ook state-of-the-art maar niet state-of-practice. Zeer onwaarschijnlijk dat Tesla hun werk hierop gebaseerd heeft.
De insteek van Elon is volgens mij niet camera's omdat mensen het ook op zicht doen, maar: De wereld is ingericht op zicht omdat mensen het op zicht doen, dus onze auto's/robots moeten het ook op zicht gaan doen.
Het is niet voor niks dat LIdar verplicht is bij veel apparaten, dit puur ivm het iets is dat constant is, ivm zelf ir licht verzend en ontvangt. Dus niet afhankelijk van de licht buiten de sensor
Hoe zit het met het licht dat LIDAR uitzendt? Er zijn gevallen gemeld dat camerasensors ervan kapot zijn gegaan. Zelfs wanneer het licht buiten het menselijke spectrum zit, zegt nog niet meteen dat we er helemaal geen last van zullen hebben.
Volgens mij hangt dat af van de gebruikte technologie, frequentie, lichtsterkte. Wij hebben bij ons een straffe mechanische LiDAR die inzetbaar is in omgevingen waar mensen aanwezig zijn. En ik film die LiDAR regelmatig als die in werking is. Tot op heden heb ik daar nog geen problemen mee ondervonden.

Ik dacht wel dat er recent problemen waren met een LiDAR van Volvo die de iPhone camera verbrandde. Mogelijk was die té straf? Of is de filter van de iPhone camera onvoldoende voor sterkere lichtbronnen (dan zou ik ook extra voorzichtig zijn met de zon).

Maar dit is inderdaad wel een terechte opmerking waar rekening mee gehouden moet worden bij de keuze sensor.
Destijds (2019) was het inderdaad niet goed genoeg voor Full Autonomous Vehicles en was LiDAR/Radar nog noodzakelijk (bv. Waymo). Maar de tijd heeft niet stil gestaan qua Hardware, Camera's en AI. Er zijn zonder twijfel omgevingen waar nu nog steeds meer multi-view nodig is, maar het grote voordeel voor AV's is dat deze zich in omgevingen bevinden die geoptimaliseerd zijn voor visueel gebruik.
De resultaten die ik tegenwoordig zie zijn voor mij nog steeds niet overtuigend. Nog steeds veel false positives en negatives, hetgeen je liefst zo laag mogelijk houdt. Goed voor in een gecontrolleerde omgeving, maar de openbare weg is slechts semi-gecontrolleerd: zolang er niks gebeurd gaat alles goed, maar zodra er iets op de weg ligt, of er een ongeval gebeurd is, is het ongecontrolleerd.
Onthoud dat er momenteel in de VS al enkele honderden miljoenen miles aan autonoom rijden (supervised) is uitgevoerd en dat het zonder fouten is verlopen. Het zijn de enkele situaties die uitgelicht worden door de media waarin het fout gaat.

Maar een mens is ook verre van foutloos. En ik durf zelfs te beweren dat het minder vaak fout gaat met FSD dan iemand dat zelf rijdt
Dat is denk ik prima uit te leggen aan een nabestaande als een Tesla per ongeluk iemand doodrijdt, dat het gemiddeld beter is. Wat ik overigens betwijfel omdat dat nog nooit vastgesteld is door een partij buiten Tesla.
Dat is denk ik prima uit te leggen aan een nabestaande als een Tesla per ongeluk iemand doodrijdt, dat het gemiddeld beter is.
Met zo'n houding zou technologische revolutie nooit een kans maken. Een mens of een systeem zijn nooit 100% foutloos. De kans alleen dat een auto de fout in gaat moet kleiner zijn dan dat van een mens.
En dat ben ik met je eens, laat ik dat voorop stellen. Maar waar ik moeite mee heb, is dat er geen onafhankelijke instantie is die controleert wat er aan data is van Tesla's, wat er exact wordt opgeslagen en die bij onderzoeken data beschikbaar kan stellen, los van wat Tesla denkt of doet. Daar heb ik grote moeite mee. Tweede is dat met gemiddelde foutkansen je ook niks kan. Als elke autorit qua foutkans in het voordeel van een zelfsturende auto uitpakt heb je een punt. Met mensenlevens kan je niet aankomen met gemiddelden, dan moet je heel veel beter zijn dan het gemiddelde.
Draai het eens om.

Is het uit te leggen aan de nabestaanden van menselijke chauffeurs, dat het met een AI 99% zeker niet zo ver was gekomen?

Erg gemakkelijk de ene kant op te roepen, maar de andere kant is wellicht nog meer waar.

De èchte vraag is, waarmee beperk je de risico's het meest? Menselijke chauffeurs, of AI?
Daarnaast de vraag welk type auto/techniek/AI het veiligst is.
Waar haal je die 99% vandaan? En geldt dat voor elke autorit? Zolang dat niet verdedigbaar is met feiten die onafhankelijk zijn vastgesteld is dat een discussie gebaseerd op drijfzand.
Arbitrair getal. Lees het verhaal in zn geheel, dan snap je het punt waar het over gaat.
AI is én 99% veiliger én 'wellicht veiliger'?

Dat kan toch niet beide waar zijn? Keuzes, keuzes...

[Reactie gewijzigd door Baserk op 23 juni 2025 11:47]

Waymo rijdt al autonoom.

Feiten en cijfers:

Waymo publiceerde in 2023 een veiligheidsrapport waarin stond dat hun voertuigen in 1,27 miljoen autonome kilometers geen enkele dodelijke of ernstig verwondende crash veroorzaakten.

Een onafhankelijke studie (2023) concludeerde dat Waymo minder ongelukken per gereden kilometer veroorzaakt dan een gemiddelde menselijke bestuurder in de VS.

Aangezien we inmiddels in 2025 zitten zou het systeem wel eens nog veiliger kunnen zijn dan voorheen.

[Reactie gewijzigd door Is_ Y_ Serious? op 23 juni 2025 12:16]

Waymo lijkt ook een heel stuk opener wat hun data betreft en er is bij Waymo ook onafhankelijk onderzoek beschikbaar die dat inderdaad lijkt te onderschrijven. Dat geeft heel veel meer vertrouwen dan bij Tesla op dit moment, die hebben echt nog wel een weg te gaan ...
Ik heb een Tesla met EAP en zelfs dat is erg buggy en onbetrouwbaar. Zal FSD van Tesla niet vertrouwen op basis daarvan.

[Reactie gewijzigd door ELD op 23 juni 2025 11:28]

Komt omdat we in de EU geen FSD maps hebben. Objectherkenning is dus een stuk slechter en onbetrouwbaarder dan in de VS.

Wij (ik heb ook EAP) hebben helaas wel functionaliteiten die niet zo goed werken als in de VS. Ik heb in de VS 1x met iemand mogen meerijden dat FSD heeft, en dat is echt een wereld van verschil.
Voorkomen die “maps” ook fantoomremmen….. Volgens de berichten uit de VS die ik heb gelezen is het daar ook een groot probleem. Het is gewoon nog steeds onbetrouwbaar nu.
Nou, zonder fouten is het zeker niet verlopen: er zijn talloze voorbeelden van disengagements en noodzakelijke ingrepen door bestuurders om ongelukken te voorkomen. Onlangs nog een gezien van FSD laatste versie die doodleuk ging spookrijden.

Er zijn best veel ongelukken gebeurd met Tesla's in Autopilot waar de bestuurder zat te 'slapen' (soms ook letterlijk). Er zijn er ook geweest waar de autonomie vlak voor een crash uitschakelde. Bijvoorbeeld als je op de remt trapt omdat de auto iets mist. Stel dat je auto op een object af rijdt en je zelf remt, maar het object toch nog raakt. Tesla telt dat niet als een Autopilot fout, maar dat was het natuurlijk wel (want AP had ruim op tijd moeten stoppen).

Het punt met Tesla is dat ze het nu willen doen zonder dat er een bestuurder is die de verantwoordelijkheid kan overnemen.

De oproep voor publieke data is dus niet gek. Wat mij betreft dan ook voor alle auto's, want iedere fabrikant heeft tegenwoordig soortgelijke systemen als Autopilot (adaptive cruise control en lane centering). Sommigen hebben ook al verdergaande autonomie.

Ik denk wel dat Vision Only ver kan komen. Radar en Lidar zijn ook niet perfect. Maar ik denk ook dat een bedrijf als MobilEye alternatieven biedt die meer redundant zijn.

Bij Tesla neem ik tegenwoordig alles met een grotere korrel zout. Ik heb zelf een Tesla uit 2022. Toen was nog de vraag of ik niet alvast FSD moest kopen, want dat zat er toch snel aan te komen. Blij dat ik het niet gedaan heb, want voorlopig zien we dat hier niet terug. Beloftes van Musk zijn niet zoveel waard...

Zo ook deze 'lancering': alleen op uitnodiging en voor bewezen Musk fanboys. Geofenced, waaarover Musk zelf heeft gezegd dat een 'geofenced systeem niet echt autonoom' is.
Nou, zonder fouten is het zeker niet verlopen: er zijn talloze voorbeelden van disengagements en noodzakelijke ingrepen door bestuurders om ongelukken te voorkomen. Onlangs nog een gezien van FSD laatste versie die doodleuk ging spookrijden.
En hoeveel honderden miljoenen kilometers ging het wél goed? Want daar wordt niet over gesproken. Het is mooi om de losse situaties erbij te pakken, maar volledig foutloos is het nooit, evenals niet die van een bestuurder. Ik denk dat je van een level 5 auto ook niet kan verwachten dat het foutloos zal zijn. Als de foutmarge kleiner is dan die van een mens, is het al goed.
Er zijn best veel ongelukken gebeurd met Tesla's in Autopilot waar de bestuurder zat te 'slapen' (soms ook letterlijk). Er zijn er ook geweest waar de autonomie vlak voor een crash uitschakelde. Bijvoorbeeld als je op de remt trapt omdat de auto iets mist. Stel dat je auto op een object af rijdt en je zelf remt, maar het object toch nog raakt. Tesla telt dat niet als een Autopilot fout, maar dat was het natuurlijk wel (want AP had ruim op tijd moeten stoppen).
De enige die je echt de schuld kan geven is de bestuurder. Maar deels moet ik je gelijk geven, want autopilot had moeten zien dat de ogen gesloten waren, terwijl dit noodzakelijk is conform de supervised FSD regels momenteel. Gelukkig is daar in HW4 een verandering in gekomen.
In mijn persoonlijke ervaring met de AP heb ik diverse keren moeten ingrijpen. Phantom brakes, maar ook wel ernstiger zoals opeens van een afrit weer naar links gaan rijden door een doorgetrokken streep.

Voor een ADAS is dat allemaal nog af te schuiven op de bestuurder, maar wat als er geen bestuurder meer zit?

En het tweede punt is dat die cijfers van Tesla over veiligheid van AP/FSD niet extern geverifieerd zijn. En we weten dus niet wat Tesla wel of niet meetelt als fouten van het systeem.

Ik ben ook niet tegen autonomie en ik snap dat je met mensen achter het stuur ook risico loopt. Maar of het risico met die systemen van een bepaalde fabrikant groter of kleiner is zou degelijk en onafhankelijk moeten worden vastgesteld.
Hoe kom je er bij dat AI beelden "verzint"? Kun je dat uitleggen?
Artificial als in kunstmatig, dus niet echt. Wat je ogen en hersenen verwerken is wel echt.
Dus de AI achter de camera's in een Tesla "verzint" auto's? Auto's die er niet zijn?

En wat je ogen registreren, wordt door je hersenen ook geinterpreteerd en bewerkt. Er zijn meer dan genoeg optische truukjes die aantonen dat de hersenen beelden uit je ogen volstrekt verkeerd interpreteren. Diezelfde truukjes kunnen een camera en software niet voor de gek houden.
Ik snap dus even niet waar je heen wil met dit argument.
Han_Solo verwoordt het misschien wat slecht, maar onjuist is het zeker niet. (Al moet ik er ook vanuit gaan dat hij mogelijk iets totaal anders bedoelt.)

Objectdetectie algoritmes (of het nu AI is of niet) hebben immers last van False Positives (het detecteert een object waar er geen is) en False Negatives (het detecteert geen object waar er wel een is.)

Die False Positives zijn het equivalent van objecten (auto's) bijverzinnen.

Wat betreft die truukjes: als je de typische truukjes bedoelt met "is deze lijn even lang als deze", of "zijn er zwarte punten tussen de vierkanten": klopt, daarmee hou je AI niet voor de gek.

Aan de andere kant kunnen we wel heel eenvoudig afbeeldingen maken die AI (detectoren) voor de gek houden, maar een mens niet. Je kan dat opvallend doen, door de eigenschappen waarop de detector reageert af te dekken. Maar je kan dat ook subtiel doen. Je kan starten met een afbeelding van een auto (als we wagens willen detecteren) en de afbeelding subtiel aan te blijven passen totdat de auto niet meer herkend wordt door de detector. In de meeste gevallen zal een mens de auto herkennen (en weinig of geen verschil zien met het oorspronkelijke beeld) maar elk systeem dat de detector gebruikt zal erop falen.

In de praktijk zal dat truukje niet veel voorkomen, maar de truukjes die op mensen werken evenmin.
En dan zijn we weer terug bij mijn stelling dat een camera met AI niet slechter is dan het menselijk oog met een brein erachter. Beide maken fouten, beide zijn in bepaalde situaties beter. Het grote verschil: camera's en AI zijn nog steeds in ontwikkeling en maken enorme (echt enorme) sprongen in techniek (sensoren van nu zijn bijna ongevergelijkbaar met de sensoren van 10 jaar geleden) en in verwerking. Camera's van nu zijn al zo lichtgevoelig dat we foto's uit de hand van de sterrenhemel kunnen nemen. Bovendien hebben we met meerdere camera's een veel groter "field of view" (weet even zo snel geen nederlandse vertaling).

Natuurlijk, camera's in combinatie met Lidar/radar zijn altijd beter, maar ook zonder die backup zijn camera's nu en zeer zeker in de toekomst, gewoon een prima oplossing die beter gaat presteren dan de mens.
Camera's alleen zijn nu nog absoluut géén prima oplossing. Dat camera's lichtgevoeliger zijn of een grotere FOV hebben is helemaal niet zo interessant. Er zijn genoeg manieren om dat te compenseren.

De mogelijkheid om objecten te detecteren en de scene te interpreteren daarentegen wel. En die is bij huidige AI héél sterk afhankelijk van eerdere voorbeelden. Van zaken die in de verte niet lijken op wat het eerder gezien kunnen we niet weten hoe het ermee om zal gaan. Een mens zal bij een ongekende situatie deze meestal (er zijn altijd uitzonderingen) voorzichtig benaderen. De menselijke hersennen werken heel anders dan AI en kunnen in het algemeen beter overweg met ongekende situaties.

En op zich is het AI detectie deel ook niet interessant om obstakels te detecteren. Een goede diepteschatting is veel nuttiger omdat die een schatting van veel meer zaken kan doen. Stereo-matching is daar een optie voor, maar zoals ik een eerdere - veel te lange post - aangeef is de uitvoer van stereo-matching eerder beperkt t.o.v. een LiDAR. Het ontbreken van enige interpretatiesysteem (mens of AI) om een correcte diepteschatting te krijgen is net een groot voordeel.

Ik zeg niet dat camera-only niet kan in de toekomst. Maar voor nu zou ik er geen onverwachte situaties mee willen tegenkomen. Ik zie ook weinig (technisch en tegenwoordig finacieel) voordeel om iets als een LiDAR weg te laten. De prijzen zijn sterk verlaagd (en kunnen nog lager bij massaproductie), en de modules zien eruit zoals een gewone camera (dus esthetisch ook geen probleem). Ik vraag me dus vooral af waarom men zo hard focust op het weglaten van LiDAR ipv dat op een degelijke manier te integreren.
Over dat laatste: simpeler is vrijwel altijd beter. Lidar voegt een complexe technologie toe, niet alleen aan de voorkant in de vorm van het Lidar system zelf, maar ook aan de achterkant. Je zult al die data toch moeten combineren en dat vergt extra rekenkracht.

Kijk, ik snap ook wel dat het hebben van meerdere systemen de foutenmarge omlaag gaat brengen, maar ik ben van mening dat dat een noodgreep is, die al snel niet meer nodig gaat zijn. Camera's in combinatie met AI zijn nu al goed genoeg (hoewel we daarover van mening verschillen), dat extra niveau van veiligheid dat Lidar zou bieden is volgens mij alleen maar nodig om de angst die wij kennelijk hebben voor nieuwe technologieen te sussen.

En over die onbekende situaties: net zoals de mens wordt ook AI getraind a.d.h.v. eerdere ervaringen. En daar vervolgens uit extrapoleert. Ik heb voorbeelden gezien van reacties van FSD op situaties die absoluut nog niet eerder precies zo zijn aangeleerd, dus ook de AI achter FSD kan flexibel reageren op onbekende situaties.

Maar wat me opvalt is dat iedereen (jij incluis) zo ontzettend graag een scherpe scheiding wil zien tussen AI en de mens. Terwijl alle "problemen" die nu worden opgeworpen rond AI ook gewoon bij de mens optreden.
AI (of FSD, net wat je wil) bevindt zich nu naar mijn idee op het niveau van "de" oudere automobilist. Ook daar zie je foute inschattingen, langzaam rijden omdat de verwerkingssnelheid niet hoog genoeg meer is. Ouderen die niet meer in de stad durven rijden omdat het "allemaal veel te snel gaat". Ouderen die hun omgeving niet meer "zien" en dus situaties ook niet meer zien aankomen. Ouderen die door slecht zicht bijvoorbeeld in het donker gewoon bijna niets meer zien.
En toch laten we dat allemaal toe op de weg. En AI niet.
Als je mijn analogie volgt, dan reizen we met AI dus achteruit: van bejaard naar jong. Over een aantal jaren zullen AI's op het niveau van een dertig-jarige zitten en waarschijnlijk daar al ver boven.
Lidar is te complex om toe te voegen, o.a. vanwege rekenkracht. Maar dat argument gaat niet op voor 'AI' achter camera's?
Waarom argumenteer je voor een slechtere, 'minder complexe' oplossing? En moeten we maar een risico'tje meer nemen omdat jij het graag alleen met camera's doet en niet met allerhande sensoren die gewoon voorhanden en bewezen zijn?

Ik wil de argumentatie graag snappen.
Lidar is te complex om toe te voegen, o.a. vanwege rekenkracht. Maar dat argument gaat niet op voor 'AI' achter camera's?
Ik heb het over toevoegen. AI's en camera's zijn complex, zeker. Maar als je daar Lidar en extra capaciteit om die data te verwerken aan toevoegt, verhoog je de complexiteit van het hele systeem. Technisch gezien zeker.
Waarom argumenteer je voor een slechtere, 'minder complexe' oplossing?
Dat is flauw. Gegeven de vraag is een simpele oplossing altijd te verkiezen boven een complexere oplossing. De vraag is heel simpel: een systeem dat de omgeving waarneemt, interpreteert en acties initieeert, waarbij er eisen worden gesteld aan veiligheid en comfort.
Ik zeg dat camera's aan die vraag kunnen voldoen. Jij zegt dat ze dat niet kunnen zonder ondersteuning van andere technieken (Lidar).
En moeten we maar een risico'tje meer nemen omdat jij het graag alleen met camera's doet en niet met allerhande sensoren die gewoon voorhanden en bewezen zijn?
Ik wil de argumentatie graag snappen.
In werkelijk alles wat we doen of bedenken wegen we risico's af tegen de energie die we er in stoppen. Dat kun je hier ook gewoon doen. Als alleen met camera's rijden een verhoogd risico geeft t.o.v. met camera's en Lidar rijden, dan is dat een gegeven dat je mee kunt nemen in die beslissing. Dat is niet gek, vreemd of stom, dat is gewoon dagelijkse praktijk.

Hoe simpeler hoe beter is dus inderdaad een argument. Daarbij komt dat ik erg gecharmeerd ben van de eigenschap van camera's dat ze multispectraal kunnen zijn (dus ook infrarood bijvoorbeeld), dat ze ook voor andere zaken gebruikt kunnen worden (dashcam) en dat ze zo verschrikkelijk goedkoop zijn dat je er meerdere op je auto kunt zetten. Ze in, in het kort, veel veelzijdiger en flexibeler. En daar hou ik wel van.
De softwarekant erachter, daar maken we enorme sprongen in en daar zie ik dus geen enkele belemmering.
Simpeler = beter ben ik in het algemeen niet tegen.

Mij lijkt het bezuinigen op sensoren die bepaalde waarnemingen veel beter kunnen doen (daarbij ga ik af op wat ik hier lees, ik ben zeker geen expert), zoals diepte, in bepaalde weersomstandigheden, etc en dat (in software) oplossen met minder geschikte sensoren eerlijk gezegd een schoolvoorbeeld van penny-wise-pound-foolish.

Drie systemen (cam, lidar, verwerking) hoeven daarbij niet complexer te zijn dan twee (cam + verwerking) als de verwerking allerhande gebreken moet rechtbreien van de camera.
Daarbij lijkt me in zo'n systeem een beetje redundantie ook geen overbodige luxe voor geval er iets faalt.
Als alleen met camera's rijden een verhoogd risico geeft t.o.v. met camera's en Lidar rijden, dan is dat een gegeven dat je mee kunt nemen in die beslissing.
Ik denk dat je dan verdomd goede argumenten moet hebben waarom je dan niet voor de Lidar variant gaat, aangezien je het hier waarschijnlijk hebt over een aantal mensen die door jouw keuze meer of minder worden geschept of anderszins verongelukken...

Eerlijk gezegd zou ik niet snappen dat een fabrikant bereid is dat risico te nemen. Zodra er iets gebeurt, komt het wat-als scenario om de hoek kijken. Waarschijnlijk omdat een bestuurder prima zo'n risico'tje kan nemen tbv van het economisch gewin en er achteraf geen consequenties zullen volgen.
Ik denk dat je dan verdomd goede argumenten moet hebben waarom je dan niet voor de Lidar variant gaat, aangezien je het hier waarschijnlijk hebt over een aantal mensen die door jouw keuze meer of minder worden geschept of anderszins verongelukken...
Dat is geen blokkerend argument. "Het zal je kind maar zijn" is dat bijvoorbeeld ook niet. Als je elk mogelijk risico op een dodelijk ongeluk zou willen uitsluiten, dan worden auto's astronomisch duur. Nogmaals: we accepteren die risico's altijd al. Alleen al bij het toestaan van hogere snelheden op de snelweg...... Of het toelaten van ouderen die lichamelijk en geestelijk eigenlijk niet meer in staat zijn te rijden. Nogmaals: het is een overweging die je gewoon mag maken. We hebben wetten en voorschriften om die keuze in te perken.

Een fabrikant heeft constant te maken met die "bedreigingen". Waarom zat er geen druksensor in de wielen? Waarom is er geen airbag voor de achterpassagiers? Waarom maken we een groot scherm met schermbediening zodat we van de weg weg moeten kijken? Waarom zitten er geen ruitewissers op de zijspiegels? Waarom zijn die niet standaard verwarmd?
Zeker dat we risico's accepteren. Er zijn echter ook genoeg voorbeelden van risico's die we niet accepteren. Zonder rijbewijs of beschonken achter het stuur bijvoorbeeld. Je neemt dan een onaanvaardbaar risico dat je jezelf en (vooral) anderen iets aandoet, ook al kun je zelf best nog denken dat je dan prima kan rijden.

De vraag is dus inderdaad welke risico's je moet accepteren. Ruitenwissers lijken me redelijk verplicht, anders zie je niets wanneer het regent (en de kans daarop is best reëel). Waarom zou je dan wel willen gokken op sensoren die mogelijk niet goed werken in de regen? Hoeveel astronomisch duurder wordt die auto van wat extra sensoren eigenlijk? En is dat het waard gezien de tijd die je terugkrijgt om te slapen of te werken tijdens het rijden?

Dat van die ouderen, hoewel ik niet zal ontkennen dat ze een gevaar op de weg zijn, lijkt me nou niet echt een goede graadmeter om je doelstellingen aan op te hangen. Hoewel met de komst van 'AI' een foutmarge van tientallen procenten tegenwoordig breed en lachend geaccepteerd wordt natuurlijk :)
---
Even los van alle argumentatie voor en tegen... want je hebt prima punten, blijft vooral de vraag over; op basis waarvan kun jij (in dit vroege stadium) concluderen dat het wel met camera's af kan en dat we met dergelijke technologie niet het zekere voor het onzekere zouden moeten nemen. En waarom uitgaan van een huidig kostenniveau van een bepaalde sensor, wanneer je ook zou kunnen kiezen om dat ding op schaal en goedkoper te gaan produceren. Is dat op basis van testresultaten, empirisch bewijs of vanwege een keuze/voorkeur van bepaalde bedrijven/organisaties? Leg het me uit, want het voelt heel erg als een geloofsovertuiging of persoonlijke voorkeur.
Waarom zou je dan wel willen gokken op sensoren die mogelijk niet goed werken in de regen?
Er wordt niet "gegokt". Er gaat een enorm complex R&D traject aan vooraf, waarbij ook nog eens uitgebreid getest wordt. Het ontwikkelen van een auto is ongelooflijk kostbaar en niemand is gek genoeg om het risico (haha) te lopen dat je model niet werkt. Ga er dus maar van uit dat hier echt goed over is nagedacht en/of dat men mogelijkheden ziet om het goed te krijgen.
blijft vooral de vraag over; op basis waarvan kun jij (in dit vroege stadium) concluderen dat het wel met camera's af kan en dat we met dergelijke technologie niet het zekere voor het onzekere zouden moeten nemen
Ik probeer vooral naar trends te kijken. De trend is dat we met AI ongelooflijk veel zaken op aan het lossen zijn die we "vroeger" technisch moesten oplossen (lees: alles voorprogrammeren). Ik heb er dus vertrouwen in dat we de technieken hebben (multispectrale camera's) en de software (AI) om uit iets simpels als een paar camera's een volledig beeld van de omgeving te verkrijgen, te verwerken en te gebruiken. Je kunt twisten over de vraag hoe ver we nu zijn, maar ik vind dat je niet kunt twisten over waar we over een tijdje zijn. Ik heb een rotsvast vertrouwen in flexibele en simpele oplossingen voor complexe problemen en AI biedt dat. Of biedt in ieder geval dat perspectief.

Als Lidar net zo goedkoop wordt als een sensor met een lens ervoor, dan ben ik ook niet de beroerdste om dat als mede-oplossing te gaan zien. Maar gezien het feit dat Lidar een actief systeem is, dat ook nog eens uit bewegende onderdelen bestaat, denk ik niet dat we die kant op gaan.
De trend is dat we met AI ongelooflijk veel zaken op aan het lossen zijn die we "vroeger" technisch moesten oplossen (lees: alles voorprogrammeren).
Dit vind ik een interessante observatie, maar ik ben wel benieuwd waar je hier op doelt. Als je het hebt over strontvervelend dingen aan elkaar knopen en 'middleware' is het een zegen als je het niet zelf hoeft te programmeren.
maar ik vind dat je niet kunt twisten over waar we over een tijdje zijn
Daar ben ik het mee eens, maar om een andere reden dan jij denk ik. Ik denk dat dat moeilijk voor te stellen is waar we over een tijdje zijn, maar houd ook rekening met het feit dat dat best wel eens 'tegen zou kunnen vallen'.
Ik heb een rotsvast vertrouwen in flexibele en simpele oplossingen voor complexe problemen en AI biedt dat.
Complexe problemen zijn niet voor niks complex. Al zou 'AI' daar een 'simpele' oplossing voor kunnen bieden/vinden/maken... weet je dan nog wel of, hoe (goed) en hoe lang het gaat werken. En zou je niet meer zekerheid willen hebben over wat je (in dit geval letterlijk) de straat op stuurt.
Dit vind ik een interessante observatie, maar ik ben wel benieuwd waar je hier op doelt. Als je het hebt over strontvervelend dingen aan elkaar knopen en 'middleware' is het een zegen als je het niet zelf hoeft te programmeren.
Ik moest even zoeken naar een voorbeeld, maar zelfrijdende auto's zijn meteen een mooi voorbeeld. We hebben op dit moment Lane-keep, ABS, ESP, emergency braking, Adaptive cruise control, automatische ruitenwissers, automatisch dimmende koplampen etc in onze auto's. Dat zijn allemaal aparte systemen, met hun eigen logica, dat keihard geprogrammeerd is. Ze communiceren soms met elkaar, maar ook dat volgens strikte regels.
Met een AI hebben we de logica en de software voor Lane-Keep, emergency braking, adaptive cruiscontrol gecombineerd, waarbij al die systemen centraal, flexibel en intelligent aangestuurd worden. Ik moet even een scenario verzinnen, maar AI zou bijvoorbeeld de afstand tot je voorganger kunnen varieren op basis van de situatie (langere afstand bij veel afslagen/stoplichten, kortere afstand op de snelweg). Hij zou kunnen reageren op het gedrag van je voorganger, op het voorspelde gedrag van andere auto's. Hij zou ook de snelheid kunnen aanpassen op basis van de breedte van de weg, informatie die uit de camera's wordt gehaald. Punt is: je hebt dan dus niet meer individuele systemen, maar een geintegreerd systeem dat reageert op de omgeving.
Complexe problemen zijn niet voor niks complex. Al zou 'AI' daar een 'simpele' oplossing voor kunnen bieden/vinden/maken... weet je dan nog wel of, hoe (goed) en hoe lang het gaat werken. En zou je niet meer zekerheid willen hebben over wat je (in dit geval letterlijk) de straat op stuurt.
Die zekerheid krijgen we nu door elk individueel subsysteem helemaal dicht te kitten, waarmee flexibiliteit wordt ingeleverd en ook ontwikkelingen moeilijker worden. En die zekerheid: het risico ontzettend graag terug willen brengen naar nul is precies wat de huidige auto's allemaal zwaarder maakt dan een ton... We moeten daar van af. Maar dat is een andere discussie :)

Interessant leesvoer: https://arstechnica.com/google/2025/06/google-releases-first-cloud-free-ai-robotics-model/

[Reactie gewijzigd door multikoe op 25 juni 2025 13:43]

LiDAR maakt het geheel net minder complex. Ik denk dat je niet goed begrijpt hoeveel parameters en onbekenden er komen kijken bij stereomatching. Bij een solid-state LiDAR voor voertuigen heb je veelal de intensiteit van de puls en exposure time die je moet instellen, heel misschien een paar extra parameters maar dan heb je het gehad. Om het beetje ruis dat er is te verwijderen kan je nog een filter toepassen.

Bij stereo heb je zo een 20-tal parameters. Een groot deel betreft de traditionele camerasettings, je hebt een hoop parameters voor de diepteschatting. Wil je veel detail maar meer ruis, gebruik een kleinere kernel. Wil je minder detail, en minder ruis, gebruik een grote kernel. Hoeveel dieptelagen wil je doorlopen om correspondenties te zoeken? 10, 20, 100? Dat moet je voor iedere pixel in je beeld doen en vergt redelijk wat processing time (maar kan real-time). Welke threshold gebruik je voor confidence? Doe je kostaggregatie en op welk window? Neem je de laagste kost of ga je een afweging maken tussen lage matchingkost en bvb beperkte variaties? Vervolgens moet je nog filteren en kan je je dieptes nog verfijnen.

Bij stereo heb je ook nog eens minstens twee sensoren nodig terwijl dat bij een solid state lidar 1 sensor is.

En de uitvoer is in beide gevallen een dieptemap met een redelijk beperkte resolutie. Dus die LiDAR voegt ook geen massa data toe t.o.v. stereomatching, maar geeft algemeen wel betrouwbaardere resultaten.

Jij zegt dat ik en velen anderen graag een harde lijn zijn tussen mens en AI. Neen, maar we mogen ook niet vergeten dat de werking van beiden effectief verschillend is. Niet alleen op biologisch vlak (cellen vs electronica) maar ook in de vorm van de netwerken.

Bijkomend: waarom zouden ze hetzelfde moeten werken of op elkaar moeten lijken? Omdat we onszelf ermee moeten kunnen vergelijken? Omdat we schrik hebben dat een machine het beter doet dan ons omdat het invoersystemen heeft die wij niet hebben? Als we systemen beter kunnen maken door andere technieken of sensoren te introduceren, waarom zouden we dat dan niet gewoon doen.

Ik weet ook niet of het vermelden van ouderen veel goed doet aan je betoog. Daar wordt steeds vaker over gesuggereerd of een 80 of 90+er nog wel in het verkeer mag rijden. Deze mensen kunnen bij een ongeval ook rijongeschikt verklaard worden (zelf in de familie meegemaakt).

Mijn probleem is ook niet AI. Mijn probleem is het niet gebruiken van technieken die net helpen om de blinde vlekken van AI op te vangen. Tot 3 maanden terug had ik een wagen van 19 jaar oud zonder enkele sensor. Nu heb ik ene die vol staat met ondersteuning voor als de bestuurder het even laat afweten. Lijkt me logisch dit ook te doen voor een zelfrijdend voertuig. En eigenlijk neem je zo ook de scheiding tussen mens en AI die je benoemt ook ergens net weg.
Er wordt door Tesla geen stereo-vision gebruikt.
Ze analyseren de beelden van de camera's kennelijk individueel en stellen daar een omgevingsbeeld van op waarbij ze spatiele informatie uit de beelden extraheren zonder daar stereoscopische analyses op toe te passen.

Dat Lidar complexiteit toevoegt verzin ik natuurlijk niet zelf. Ik las op verschillende plekken dat de dataverwerking met Lidar data erbij behoorlijk wat complexer is omdat je die data moet consolideren met de camera-data. Dat klinkt super logisch en dus ga ik er van uit dat het klopt.
Bijkomend: waarom zouden ze hetzelfde moeten werken of op elkaar moeten lijken? Omdat we onszelf ermee moeten kunnen vergelijken? Omdat we schrik hebben dat een machine het beter doet dan ons omdat het invoersystemen heeft die wij niet hebben? Als we systemen beter kunnen maken door andere technieken of sensoren te introduceren, waarom zouden we dat dan niet gewoon doen.
Helemaal waar, maar daar gaat de discussie ook niet over. Het gaat om de vraag of Lidar noodzakelijk is om het systeem veilig te maken. Ergens anders voer ik al een discussie over de balans veilig<>kosten, die ga ik hier niet nog eens voeren.
Ik weet ook niet of het vermelden van ouderen veel goed doet aan je betoog. Daar wordt steeds vaker over gesuggereerd of een 80 of 90+er nog wel in het verkeer mag rijden. Deze mensen kunnen bij een ongeval ook rijongeschikt verklaard worden (zelf in de familie meegemaakt).
Dat is wel degelijk een belangrijk punt: er wordt steeds gezegd dat veiligheid zo belangrijk is en dat deze systemen niet op de weg toegelaten mogen worden. Dat zeggen en ondertussen wel mensen op de weg toelaten waarvan duidelijk is dat ze een verhoogd risico vormen is hypocriet. Ouderen vormen statistisch een groter risico (net zoals jong volwassenen onder de 25 dat doen). We weten dus dat ze een risico vormen en toch accepteren we dat. En iemand afkeuren na een ongeluk?

Ik ben het met je eens dat we zoveel mogelijk moeten doen om de weg veilig te houden, maar merk op dat ik zeg "zoveel mogelijk" in plaats van het onmogelijke "alles".
Het enige dat ik momenteel kan vinden is deze video: YouTube: How Tesla trains neural networks to perceive depth (Andrej Karpathy)

Daarin wordt echt wel gesteld dat Teslas gebruik maken van multi-view stereo (meer camera's en vrijere plaatsing, eventueel met uitbreiding naar temporeel), hetgeen een uitbreiding is op gewone stereo maar ook dezelfde issues heeft als gewone stereo mbt matching.

Goed, de video is 5 jaar oud en mogelijk verouderd. De overige vermeldde zaken waren op dat ogenblik slechts tests. Individuele camera's kan je overigens ook perfect gebruiken voor multiview stereo: een camera die beweegt en waar je meerdere frames van hebt is ook gewoon multi-view en er bruikbaar voor.

Enkele reddit posts geven nog aan dat er tegenwoordig netwerken voor monoculaire diepteschatting gebruikt worden. Dat werkt redelijk ok, maar is in het algemeen ruizig en de schaal is vaak niet correct. Uiteindelijk zal daar een combinatie gebruikt worden van beide aanpakken.

Wat het consolideren van camera en LiDAR: dat is echt geen complex probleem. Stap 1 is kalibratieprocedure waarvoor standaardprocedures zijn: een LiDAR is ook een IR camera, en je kan dat beeld gebruiken om correspondenties te zoeken met een andere camera. Dat is kennis van de jaren 90, en krijg je met OpenCV in max een uur voor elkaar. (Voor zelfrijdende voertuigen wil je de code misschien wel nog optimaliseren, maar dat is ook rocket science) Stap 2 is de LiDAR data warpen naar het standpunt van de andere camera: McMillan's warping equation van 1995 als je het efficient wilt doen en klaar. Nu heb je je data gefused en kan je het verder gebruiken...

Ja, als je nog andere bronnen hebt (bvb AI detectie) ga je dit nog moeten afstemmen met deze getransformeerde data. Maar dat geldt ook als je 8 camera's hebt die individueel diepte gaan bepalen en objectdetectie gaan doen.

Dit is eigenlijk kinderlijk eenvoudig, en ineens ook een reden waarom andere fabrikanten dit verkiezen.
Heel makkelijk, want je kan een camera niet vergelijk met een oog (zelfs een enkel oog) en de verwerking door je hersenen kan je niet vergelijken met AI. Ik snap dus niet de vergelijking die wordt gemaakt om mijn argument onderuit te halen.

Verder zijn er al meerdere onderzoeken en test die aangeven dat een mix van camera's en lidar/radar wenselijk is, omdat een enkel system kan falen, waarbij een systeem met een enkele camera per zijde de slechts mogelijke keuze is.
Verzinnen misschien niet, maar zijn genoeg meldingen van verkeerde objectdetectie door Tesla's. Auto's die niet gedetecteerd worden, of steeds van plek veranderen,, vrachtwagens die verward worden met verkeerslichten, dat soort ongein.
Laten we weer terug gaan naar de reden achter mijn originele reactie.

FSD is geen level 3 systeem, waarmee het achterloopt op vele andere merken. Waarom niet daaraan voldoen voordat je een taxi op de weg zet. Hoeveel jaar geleden beloofde Musk ook alweer volledig autonoom rijden?
Als we Elon nu gewoon even uit de discussie laten, die wordt er alleen maar ingebracht om de emotie (extreme ergernis) er in te brengen.

Tesla mag doen wat ze willen, zo lang ze zich maar aan de regels houden. En er zijn meer dan genoeg organisaties die als een havik elke beweging volgen en zullen aanvatten. Als de autonome taxi al deze hordes weet te nemen, dan is het feit of ze aan Level 3 voldoen een papieren tijger.

Ja, Tesla neemt risico's, misschien/waarschijnlijk/zeker meer dan andere bedrijven. Maar zonder het nemen van risico's is voortuitgang vrijwel onmogelijk.
Klopt.
Met EU wetgeving had dit minstens 10/15 jaar langer geduurd. FSD beta op de weg testen door gebruikers? No way. Maar over 5 jaar wel klagen waarom Tesla zo een voorsprong heeft.
Dit is een heel andere discussie, maar er zijn twee landen waar technologische ontwikkelingen sneller gaan dan elders op de wereld: Amerika en China. Twee totaal verschillende oorzaken voor die ontwikkeling. Amerika geeft geld de ruimte, vaak ten koste van het milieu en klimaat. China heeft een centrale visie en stuurt technologische ontwikkelingen centraal aan, vaak ten koste van hun burgers. In Europa willen we de kool en de geit sparen en we komen daardoor nooit aan de andere kant van de sloot :)
Het raakt wel het groter geheel
Zonder risico zal je nooit voorop lopen.
ASML heeft een grote gok genomen.
NL politiek moet ASML op zijn knietjes bedanken. Je hebt op geo politiek wat melk te brokkelen vanwege ASML.
Uhm, nee dus, ook dot soort systemen werken standaard met 2 camera's, maar heeft ook nog extra de mogelijkheid om van 1 camera, met bewegend beeld, een 3d object te maken. Iemand met maar 1 (goed) oog kan dat dus al helemaal niet en zal dus ook zelf obv wat die met dat 1ne oog ziet in 3D moeten omzetten.
Iemand met 1 oog kan prima 3d zien, je hersenen passen zich aan en gebruiken beweging om het om te zetten. Je moet voor de gein maar eens wat dingen uitproberen met een oog dicht, het went verbazend snel. Het enige nadeel is dat je blikveld smaller is.
En jij denkt sat een computer dat niet kan? Think again...
Jij zegt dat een mens dat niet kan, ik zeg van wel, heb het niet over een computer gehad.
helaas, onze hersenen construeren een beeld. Onze ogen zijn geen camera's die pixels ontvangen en 1 op 1 doorsturen naar de hersenen. In die zin hallucineren wij net zoveel (zo niet meer) dan een AI ;-)
Maar wij laten hallucinerende mensen gemiddeld genomen niet een rijbewijs halen, toch ? :)
juist wel. Iedereen doet dit. En ik heb het niet over bepaalde middelen. Dit is simpelweg hoe de hersenen werken. Jij "ziet" niet wat op je netvlies valt. Zelfde geld voor gehoor trouwens, of tastzin, etc. Het geheel wat je ervaart is een "hallucinatie" vanuit de hersenen, die zorgt dat alles in sync loopt. Wat dus betekent dat je de werkelijkheid altijd met een kleine vertraging 'ervaart' ;-)
Dat is meer een filosofische beschouwing. Waar ik op doelde was dat van AI en LLM's wel bekend is dat ze van alles bijelkaar hallucineren
Van mensen dus ook. Niets filosofisch, biologisch. Dat niet onderkennen geeft ons een vals idee dat wij conceptueel anders zijn. Misschien valt dat dus wel mee ?
Wij mensen rijden ook op die manier rond. Sterker nog, ikzelf zie niet eens goed diepte, want ik heb geen stereoscopisch zicht. Maar uiteindelijk rijden we puur op zicht en interpreteren we alles in onze hersenen. Wat ook niet 100% foutloos gaat trouwens, het is niet abnormaal bij mensen dat je een object verkeerd herkent.
Vraag me af, zelfs al rijdt die tesla helemaal zelfstandig. Wie sluit er straks de laadkabel aan indien de tesla moet worden opgeladen? Maar goed, daar zal tesla vast over nagedacht hebben.
De cybertaxi gaat draadloos opgeladen worden.

De model y's denk ik eerder met een laadkabel aan een robotarm. Misschien kunnen ze later ook een upgrade krijgen voor draadloos laden.
Daar huiver ik persoonlijk toch van. Draadloos opladen is gigantisch inefficiënt. Dit trekt een deel van de argumentatie dat elektrische wagens zijn efficiënter dan hydrogen toch ook voor een stuk onderuit.
Met correcte alignment van de coils lijkt het toch een stuk beter te kunnen. "Qi2 wireless charging achieves up to 95% efficiency", en ook in andere toepassingen lijkt het goed mogelijk om 90%+ efficiëntie te krijgen.
En reken daarbij dat dit vaak DC -> DC kan
AC naar DC heeft ook een efficiency van maar 95% - 97%.
Zonde dat mijn laadpaal niet direct aan de DC van mijn zonnepanelen kunnen of iets in die trent. Nu is het bvb 10.000 W van de panelen DC, dat wordt dan met 95% efficiency 9500 W AC en als de auto het terug DC maakt dus maar 9025W dat finaal in de auto geraakt. Solar direct aan een coil of laadstekker bespaart dus wel wat...
DC wireless charging? :?
Niet het wireless laden :+ ; gewoon het begrip "laden". Het komt nog niet vaak voor, maar je hebt DC -> DC home chargers.
Of je nu loss hebt van Wireless laden, AC laden van het net, AC laden van zonnepanelen, etc....
Het beste blijft op zich DC -> DC.
Gelukkig.
Anders zou de laad-cyclus vrij lang zijn. :X

Ben wel benieuwd of dat laden ook voor particulieren komt (is?)
Wel handig in de garage.
Ik neem aan dat je doelt op de wireless charging voor in de garage?
Daar zijn denk ik betere manieren voor.
- De robot-snake-arm-charger (waar Elon nog over grapte dat het nog beta was en je best nog niet bukte met je rug naar de arm)
- Ipv de hardware-change waar je spoelen in de auto steekt, een hardware change waar je 2 grote pads maakt onderin de auto waaraan gehaakt kan worden als je op een "mat" in de garage rijdt.
- Gewoon in steken in de stekker - duurt op zich amper 5 seconden (enkel het loskoppelen bij mijn model Y is lastig gezien ik geen knopje heb; nu hebben ze wel de '3 seconden het deur-'handvat' open houden bij de deur aan de laadkabel geintroduceert, maar dan moet je de deur weer dicht doen nadien :-))
De efficiency ligt volgens Tesla wel boven de 90%.

Naar mijn weten is dat veel efficiënter dan de elektrolyse van water naar waterstof wat ook niet erg efficient is. Daarbij moet het bij waterstof ook nog weer worden omgezet worden tot elektriciteit..
De Cab zal (waarschijnlijk) naar een centraal punt van tesla rijden waar een medewerker deze zal aansluiten op een lader. Sterker nog, in het begin zal er zelfs een medewerker van tesla op de passagiersstoel zitten om de boel in de gaten te houden. Het is onduidelijk hoe lang dit het geval zal zijn, want dit model schaalt zich natuurlijk niet echt…..
Nou, Tesla heeft al vaker die robotslang voor laden getoond in het verleden, naast gewoon draadloos laden, wat IMHO de standaard moet worden. Maar voorlopig zijn de tests nog met een veiligheidsbestuurder.
In een land zonder minimumloon kun je prima een paar kids inhuren die die laadkabels aansluiten. Is geen dure oplossing a la draadloos laden of een robotarm voor nodig.
De VS heeft een federaal minimumloon en veel staten hebben ook nog een eigen minimumloon. In het geval van Texas zijn beide hetzelfde (7.75 dollar).
Californië kent een hoger minimum loon dan Nederland.Als je wilt afgeven op een land, zorg dan eerst dat je de feiten kent.
24 uur per dag.
op meerdere lokaties.

ook is een dergelijke lader waarschijnlijk hufter proof.
Als de hele wereld op Lidar gaat en Tesla op camera's, dan heeft Tesla een probleem.
Alleen op camera's vertrouwen is een slechte zaak. Mist, vuil voor de lens etc.

Kijk hier eens voor meer uitleg:
https://www.autovisie.nl/...tesla-voor-de-gek-houden/
En Lidar heeft die beperkingen niet? Ik vond ook een linkje:
Daarin één van de problemen (er zijn er meer): "weather conditions".
Als je even naar het artikel kijkt, kun je lezen dat het om: "een mix van camera’s, radar en lidar" gaat, en niet alleen om om gebruik van enkel en alleen lidar. Het gebruik van meerdere (3) systemen tegelijk is wenselijk.
Citaat uit het gelinkte artikel: "De meeste fabrikanten gebruiken een mix van camera’s, radar en lidar".
Alledrie die systemen hebben dezelfde problemen met mist, hevige regen, sneeuw en rommel op de "lens". Ze vormen in die zin dus geen backup voor elkaar.
Bovendien wijken we af van de opmerking waarop ik reageerde: "Als de hele wereld op Lidar gaat en Tesla op camera's, dan heeft Tesla een probleem.", van @lkruijsw. Die overigens nog niet heeft gereageerd.
Ik bedoelde meer, dat het erg lastig wordt voor een bedrijf op een technology te mikken die anders is als de mainstream. De anderen, met meer resources, ontwikkelen sneller.
Dat is een argument, maar daar tegenover zou je kunnen zeggen dat wat de massa doet, niet per definitie beter is. Dit is mijn eigen theorie, maar: hoe meer een technologie geaccepteerd is (of: hoe ouder een technologie is), hoe langzamer de ontwikkelingen gaan. Veel erg succesvolle technische ontwikkelingen zijn juist gestart door mensen die zich niets aantrokken van de bestaande techniek, maar iets nieuws begonnen. Alle technologische ontwikkelingen zijn klein begonnen. Dus grootte is geen maat voor succes.
Toetsenbord of pennen voor smartphones was ook mainstream.
Mensen doen het redelijk goed met 2 camera's.
De lens vooraan wordt al schoongehouden door de ruitenwissers.

De anderen zijn verwarmd maar zou je eventueel nog kunnen voorzien van een hogedruk sproei systeem met de ruitensproeiervloeistof. Beetje zoiets als verplicht was bij Xenon koplampen.
Nee, juist niet, want teveel lidarsystemen storen elkaar, en weet je wat er met de camera van je telefoon gebeurd als die toevallig gericht is op de lidarsensor? Bye bye camerasensor.. dus denk niet dat je graag nog meer lidarsystemen op de weg wilt. Enuh, mensen rijden maar met 2 camera's inclusief een hoop afleiding, auto's rijden met tich camera's zonder afleiding....
Wat zal de taxi prijs zijn en hoe verhoudt dit zich tot de traditionele taxi?
De prijs zal in het begin ongetwijfeld veel lager zijn dan traditionele taxi's. Totdat de traditionele taxi's weggeconcurreerd zijn, dan zullen de prijzen hoogstwaarschijnlijk juist hoger worden dan nu. Dit zie je in de VS bijvoorbeeld ook gebeuren met de prijzen van Uber taxi's.
De prijs zal in het begin ongetwijfeld veel lager zijn dan traditionele taxi's. Totdat de traditionele taxi's weggeconcurreerd zijn, dan zullen de prijzen hoogstwaarschijnlijk juist hoger worden dan nu. Dit zie je in de VS bijvoorbeeld ook gebeuren met de prijzen van Uber taxi's.
Het kan ook kansen bieden als taxi chauffeur door er juist een ander soort ervaring van te proberen te maken die waarde toevoegt ten opzichte van een autonome taxi. Ja, veel zullen wel vervangen worden. Maar ik geloof dat er altijd een markt zal bestaan voor ambacht, alleen de invulling anders gedaan moet worden.
Ik verwacht een permanente laag prijs
Starlink is ook niet absurd duur voor de consument.
Prima om zo'n taxi te nemen, behalve als je je vlucht moet halen.

https://www.rtl.nl/nieuws...-taxi-blijft-maar-rondjes
Paniekzaaierij, dit gaat niet over tesla.
In de taxi dienst van tesla zit een noodknop op het scherm.
Briljant zeg dat ze niet aan een noodrem gedacht hebben.
Ohjee, het gast een keertje fout met iets dat nog in de kinderschoenen staat en dagelijks dankzij deze real-world situaties verbeterd worden. En in verhouding dat het nog in de kinderschoenen staat werkt het al heel goed, over toen jaar is het 100% veiliger dan een menselijke bestuurder, die op dit moment nog steeds vele malen meer ongelukken maken.
Ter aanvulling: ik begreep dat de medewerker op de bijrijdersstoel zou zitten.
Dat is niet altijd het geval, passagiers kunnen juist zelf ook op die positie zitten.
Ik kan dit alleen maar toejuichen. Mensen rijden vaak niet veilig en het is gewoon tijd voor zelfrijdende auto’s. Veel mensen willen zich ook helemaal niet bezighouden met autorijden. Steeds meer mensen rijden met alcohol of drugs op, zijn bezig op hun telefoon, doen hun make up tijdens het rijden (ja, dat zie ik serieus vaak gebeuren), zijn druk met de kinderen op de achterbank, laten zich verleiden tot verkeersruzies. Allemaal problemen die tot het verleden gaan horen als auto’s zelf kunnen rijden.

En neem me niet verkeerd, ik ben echt groot fan van zelf sturen. Maar een auto met veel camera’s kan veel meer tegelijk zien en interpreteren dan ik met m’n twee ogen. Die camera’s hebben bijvoorbeeld ook geen last van geblokkeerd zicht door de A-stijl. Misschien is de software nog niet goed genoeg momenteel, maar dat gaat wel komen verwacht ik.
Veel reageerders die nav het artikel reageren terwijl Tesla al 5 jaar met fsd op de weg test.
Een relaxte nachtrit, ook in het donker werkt het prima.
Tuurlijk, het is een stuk rustiger op de weg. Ik zie dit eerlijk gezegd wel slagen.
Je ziet hem op een gegeven moment de kruising niet overgaan, ook al staan de verkeerslichten op groen, omdat er verderop een voetganger oversteekt. Pas daarna gaat die.

https://x.com/i/status/1936997202880081950

Op dit item kan niet meer gereageerd worden.