Samsung gaat AI6-chips maken voor Tesla met contract van 14 miljard euro

Samsung gaat AI-chips maken voor Tesla, zo heeft Elon Musk bevestigd na een artikel van financieel persbureau Bloomberg. Het Zuid-Koreaanse bedrijf maakt al de AI4 en gaat in de toekomst de AI6 maken.

De AI5 komt van TSMC, dat hem gaat maken in Taiwan en later in Arizona, zegt Musk. Vervolgens maakt Samsung de AI6 in de Amerikaanse staat Texas niet al te ver van het huis van Musk, die vervolgens daarop kan toezien. Het contract is ruim 14 miljard euro waard. "Het strategisch belang hiervan is moeilijk te overdrijven", aldus Musk.

De deal is belangrijk voor Samsung, omdat de chipdivisie de afgelopen jaren niet zo goed draait en dit een grote overeenkomst is. De locatie in de Texaanse stad Taylor moet in 2026 klaar zijn. De AI-chips in Tesla's zijn verantwoordelijk voor beeldverwerking en functies zoals Autopilot en Full Self Driving.

Chipfabriek Samsung in Taylor, Texas
Chipfabriek Samsung in Taylor, Texas

Door Arnoud Wokke

Redacteur Tweakers

28-07-2025 • 09:43

162

Reacties (162)

Sorteer op:

Weergave:

Ik vind het mooi om te zien hoe Tesla zoveel vooruitgang boekt qua ‘’autonoom’’ rijden, en dat hun systemen meer rekenkracht krijgen om alle acties te calculeren. Echter hoop ik toch dat ze zich ook realiseren dat Vision-only niet de toekomst is.

De camera’s worden bijna volledig onbruikbaar als het regent. Dan stel ik me de vraag hoe een systeem met onbruikbare camera’s bepaalde keuzes moet maken…


Groeten van een tevreden Tesla Model 3 HW4 bestuurder, dus geen Tesla hater oid.
Mja, wij hebben ook alleen maar ogen en kunnen het prima als het regent. Voordeel is wel dat je Tesla meerdere overlappende camera's heeft die elkaar kunnen aanvullen als ze gedeeltelijk slecht zicht hebben.
Nee, wij hebben niet alleen maar ogen.We hebben ook oren waarmee we dingen kunnen waarnemen die om de auto gebeuren en gebruiken ook ons evenwichtsorgaan en gevoel tijdens het rijden.

Belangrijk is ook dat ondanks dat onze ogen technisch misschien zelfs wel infeieur zijn aan die camera's, ons visuele systeem veel geavanceerde is dan dat van kunstmatige intelligentie: Wij halen meer informatie uit minder.

Tot slot is ons redeneervermogen hoger dan dat van kunstmatige intelligentie: Als wij een bal op de weg zien rollen, dan weten wij dat er een kind in de buurt is, zonder dat wij dat kind kunnen zien.
Als wij een bal op de weg zien rollen, dan weten wij dat er een kind in de buurt is, zonder dat wij dat kind kunnen zien
Dit is dus precies een relatie die AI ook kan leggen, heel goed zelfs met de juiste parameters (woonwijk + bord woonerf etc).

Overigens snap ik niet zo goed waarom mensen zo hameren op de techniek en dat dan te reflecteren op hoe 'wij' (mensen) werken. Dit doet er allemaal niet toe. Nu is er een systeem nodig waarom we overbruggen naar autonoom rijden. Daarvoor is de mens óók nodig. Het zou alleen maar beter zijn als de mens als variabele uit het verkeer gaat. Sterker nog; mensen in 'domme' auto's zijn vaak nog veel gevaarlijker wanneer zij afgeleid zijn/raken. Niemand kan 100% aandacht hebben voor auto rijden - soms dwaal je weg in een gedachte etc.

De dingen die het apparaat al kan met 'simpele' camera's is zeer goed en consequent. Daar zet je geen mens tegenover. Sterker nog, de mens in het verkeer is de meest onbetrouwbare schakel. Want iets dat een auto niet heeft is emotie.

[Reactie gewijzigd door D0phoofd op 28 juli 2025 17:30]

Overigens snap ik niet zo goed waarom mensen zo hameren op de techniek en dat dan te reflecteren op hoe 'wij' (mensen) werken.
Dat is noodzakelijk om het argument dat wij mensen ook rijden met onze ogen te pareren. Een KI kan bij de huidige stand van de KI niet zoveel met visuele informatie doen als wij.
[...]
Dit is dus precies een relatie die AI ook kan leggen, heel goed zelfs met de juiste parameters (woonwijk + bord woonerf etc).
Niet zonder expliciete training. Mensen kunnen op dit moment veel beter rationeel redeneren in situaties waar ze niet op getraind zijn en dat zijn nu net de situaties die cruciaal zijn om ongelukken te voorkomen.

[Reactie gewijzigd door dmantione op 28 juli 2025 17:35]

Ik heb deze discussie al vaak gehoord en ik weet niet of het over gaat komen. Inderdaad niet zonder expliciete training. Hoe werken mensen? Ze hebben ten minste 16 maar vaker al 18 jaar levenservaring, met 'explicitiete training' we hebben zelf met een bal gespeeld aangeraakt, heel vaak kinderen en mensen zien spelen.

Voor een auto gaat het vooral om hoe dat uiteindelijk invloed heeft op het verkeer. Maar als je die jaren ervaring in verkeerd situaties ombouwt heb je effectief hetzelfde. Al is het bij mensen niet zo absoluut en is het bij een auto systeem beter bekend waar het op getraind is en is het relatief makkelijk te verbeteren.
Uiteindelijk zijn wij inderdaad ook getraind, maar we zijn ook intelligenter. Wij kunnen ons rijbewijs halen met veel minder trainingsdata dan die KI's, omdat we slimmer zijn en ons visuele systeem geavanceerder is. We zijn niet op het punt van AGI, laat staan dat het in een boordcomputer ingebouwd kan worden.

Nu wil ik niet zeggen dat veilig rijden noodzakelijk AGI betekent, maar het helpt wel om veilig te rijden. Een KI zal zijn gebrek aan algehele intelligentie op een bepaalde manier moeten compenseren. Achtelijk veel trainingsdata is een manier, maar ik ben van mening dat het met louter opschalen van rekenkracht en trainingsdata niet mogelijk is om adequaat veilige L3-autonomie te doen, laat staan L5.
De Tesla Robotaxi heeft ook oren. Hij gebruikt de microfoon voor het luisteren naar sirenes. En een versnellingssensor, gyroscoop en inclinometer, dus denk dat het gevoel wel goed zit

[Reactie gewijzigd door pdidi op 28 juli 2025 16:03]

Gevoel is iets dat getriggerd wordt zonder sensor. Bij een computer noemen we dat een bug.
Prachtig voorbeeld van misinterpreratie zoals je een AI ook wel ziet doen.

Het ging hier om sensorische input: gevoel in de zin van acceleratie, vibratie, helling, rotatie, etc. Niet om emotioneel gevoel.

Zelfs als je hierin semantisch (technisch) gelijk hebt sla je de plank dus mis. Leuk voorbeeld dus.
Dove mensen mogen anders ook autorijden..?

[Reactie gewijzigd door Menesis op 28 juli 2025 22:37]

Tesla heeft nier meerdere overlappende camera's. Alle camera's werken op zichzelf en er is geen uitlijning op de overlap als die er is. Dat heeft ook al voor ongevallen gezorgd. Bijkomend is de overlap tussen camera's relatief klein. Als er 1 uitvalt, is de wagen blind in die hoek.

Wij hebben primair onze ogen, maar ook onze andere zintuigen spelen mee tijdens het autorijden. Daarnaast hebben onze ogen een veel groter dynamisch bereik en zien we veel meer detail dan de camera's op een Tesla. En als wij bijvoorbeeld verblind worden, dan passen we onze zithouding aan en gebruiken we hulpmiddelen om dat tegen te gaan. Allemaal dingen wat een vast gemonteerde camera op een Tesla niet kan.

Maar ondanks dat een Tesla meer ziet, ontbeert het de mogelijkheid om alles goed te interpreteren. Ik sta soms versteld van hoe goed Tesla's FSD het doet om dan ineens verbaasd te worden door de idiote fouten die soms nog gemaakt worden.
Tesla heeft nier meerdere overlappende camera's. Alle camera's werken op zichzelf en er is geen uitlijning op de overlap als die er is.
Er zitten twee camera's die naar voren wijzen, een breedlenscamera en een camera met normaal zicht. Deze hebben wel overlap.

De andere camera's hebben inderdaad geen overlap.
Zelfs in overlap is gebleken dat Tesla's niet in staat zijn om dezelfde waarnemingen te doen. Met andere woorden in dezelfde positie ziet de ene camera een object en de ander niet. Ook is Tesla nog steeds niet goed in staat objecten van camera naar camera waar te nemen. Iets kan zichtbaar zijn maar voren en wegvallen langs de auto.
Tesla heeft nier meerdere overlappende camera's. Alle camera's werken op zichzelf en er is geen uitlijning op de overlap als die er is.
Raar, ik heb een 2022 model Y HW3 en daar zitten 3 camera's vooraan. Elke Tesla sinds 2021 heeft meerdere camera's vooraan. Een snelle Google leert me dat ze overlappen.
Ik denk dat jouw verbazing al aangeeft dat het probleem niet in de camera's zit als je beseft hoeveel informatie nog uit een slechte RAW foto kan worden gehaald. Het probleem van de idiote fouten is het trainings model. Als er maar genoeg getraind wordt zullen ook die fouten verdwijnen. Beetje net als een mens: een beginnend bestuurder maakt ook meer idiote fouten dan een ervaren bestuurder
Op onze ogen blijven natuurlijk geen druppels hangen ;)
Wij hebben oogleden.
De auto heeft een voorruit die door de rijwind continue wordt schoon geblazen geholpen door ruitenwissers.

Als je zegt dat dat onvoldoende is voor "zicht" dan zeg je eigenlijk dat jij, met jouw menselijke ogen ook niet in staat bent in de regen te rijden. :)

[Reactie gewijzigd door procyon op 28 juli 2025 10:48]

Maar onze ogen en oogleden bevinden zich pakweg 80 centimeter van de voorruit. Dat maakt dat eventuele vuiligheid die zich daarop vestigt niet zo'n groot probleem is.

Een voltreffer van een overvliegende vogel recht op de camera maakt het hele ding in één keer nutteloos.

Mijn vorige auto had zo'n achteruitkijkspiegel die met een camera werkte, was immers een bus met een dichte opbouw. Dat ding was vrijwel altijd onbruikbaar door troep op de lens.
Maar onze ogen en oogleden bevinden zich pakweg 80 centimeter van de voorruit. Dat maakt dat eventuele vuiligheid die zich daarop vestigt niet zo'n groot probleem is.

Een voltreffer van een overvliegende vogel recht op de camera maakt het hele ding in één keer nutteloos
Dat klopt, dat is een verschil. Gelukkig zijn er twee camera's naast elkaar die elkaar overlappen. Wanneer ze beiden volledig zijn bedekt (iemand gooit bijvoorbeeld een chocolade milkshake op je voorruit) dan zal FSD direct vragen of je de besturing over wil nemen en zal de ruitenwisser als een bezetene gaan boenen :)
Mijn auto heeft ook een radar aan boord, die op sommige momenten toch al eerder kon ingrijpen. Nu was het zo dat ik zelf al van plan was net de rem in te trappen, maar de radar het toch 0,5 a 1 seconde eerder doorhad, wat precies overeenkomt met de verwerkingssnelheid van onze hersenen.

Daarnaast maak ik bij parkeren ook handig gebruik van mijn parkeersensoren.

Ik geloof er heilig in dat Camera’s flink gaan ondersteunen bij autonome auto’s. Maar in mijn optiek zouden deze toch echt aangevuld moeten worden met LiDAR, radar en andere sensoren.

In de verre toekomst verwacht ik dat auto’s ook onderling zullen communiceren en dat ook stoplichten hierop afgestemd zullen worden. Dat zal de verkeersveiligheid en doorstroming helemaal ten goede gaan komen.
Mijn ervaring is dat mijn Tesla snel en doeltreffend zelfstandig kan parkeren op alleen vision. Ook geeft ie op het scherm correct afstandsmeldingen en piepjes bij het inparkeren alsof er sensors opzitten.
Zeg ik natuurlijk niet, wel dat de analogie onvolledig is. :)
Als alle noodzakelijke cameras voor FSD een schoonmaakmechanisme hebben zoals onze ogen dan is het prima.
En wij hebben geen spray van de voorganger in/op de ogen inclusief modder, olie, koelvloeistof en andere zut dat op de weg opbouwt tot het gaat regenen. Is natuurlijk niet voor niets dat na een lange periode van droogte er een schuimlaag op de weg ligt bij de eerste flinke regenbui.
Nee daar zit een soort kapje voor, die het oog steeds even bevochtigd en schoonmaakt..

Net als de ruitenwisser doet bij de frontcamera van Tesla.

Enkel de zijcamera's hebben zoiets nog niet, ze zijn wel verwarmd dacht ik, maar een simpel systeempje met luchtdruk en een sproeiertje is goed te doen en wordt bv ook gebruikt op bepaalde robotmaaiers die met camera's werken.
Het is hetzelfde argument dat Musk aanvoert, maar dat is niet geheel waar. Met een zelfde zicht nemen wij als mens meer waar vergeleken met Tesla. Je mag je ook afvragen of Musk überhaupt de waarheid spreekt, hij verkoopt een leuke marketing pitch maar vergeet niet dat Musk er nogal een handje naar heeft om te liegen als het in het voordeel van Tesla/zichzelf is.

Zelf snap ik niet waarom we niet meer verwachten, as een auto autonoom op termijn rijdt wil je afhankelijk zijn van beperkte tech? (Ook snap ik niet dat er nog geen regels zijn omtrend minimale waarnemingen van systemen als het op onze veiligheid aankomt, zowel als rijder maar ook als potentiëel slachtoffer).
Volgens mij heb je geen flauw idee van de enorme nadelen van het toevoegen van extra sensoren/hardware. As dit een goed idee is, dan staat het de concurrentie vrij dit pad te bewandelen.

Ik ben 100% overtuigd dat uitsluitend vision voldoende gaat zijn in de toekomst.
Welke enorme nadelen????

Ik ken er maar één: Het kost extra geld. Maar de hoeveelheid geld valt nogal mee, dus dat nadeel is zeker niet "enorm".
Welke enorme nadelen???
Tegengestelde sensorische input, met een A.I. die moet bepalen welke informatie betrouwbaar is.
Verkeerde keuze? Verkeerde beslissing.
Ik vind dat een bar slecht argument: Twee camera's kunnen ook tegenstrijdige informatie geven. Of informatie die de camera's interpreteren kan strijdig zijn met andere meetinstrumenten in de auto, bijvoorbeeld de snelheidsmeter. Een systeem dat in de praktijk moet kunnen werken moet daar gewoon mee om kunnen gaan. Ja, een computer moet bepalen welke informatie betrouwbaar is (met of zonder KI). Dat is zo'n beetje een grondbeginsel van veiligheid in de informatica.
Ik vind dat een bar slecht argument: Twee camera's kunnen ook tegenstrijdige informatie geven. Of informatie die de camera's interpreteren kan strijdig zijn met andere meetinstrumenten in de auto, bijvoorbeeld de snelheidsmeter.
Als uit de camerabeelden blijkt dat de auto andere bewegingen maakt dan dat de GPS meet, zal ook dat onherroepelijk leiden tot conflicten. Goed voorbeeld.

Wanneer camera's die tot ongeveer dezelfde input zouden moeten leiden (bijvoorbeeld de drie camera's die naar voren kijken bij moderne Tesla's) conflicterende beelden zouden geven, komt er direct een trigger tot het wassen van die camera's met een waterstraal en de ruitenwisser.

Conflicterende input is nou eenmaal wel een issue dat vermeden moet worden waar kan.

Dus goed voorbeeld, dank. :)
Juist aanvullende sensorische input die het makkelijker maakt voor de AI om de juiste beslissing te maken.
Kon het niet snel vinden, was een robotica startup dat afgezien heeft van extra sensoren. Volgens hun was hoeveelheid werk om extra input correct te verwerken te groot, en winst vaak niet eens minimaal. Dit was welliswaar over humanoid robots, maar het geeft idee waarom extra sensors niet altijd betekent beter. Er werd o.a. genoemd dat snelheid van verschillende sensoren anders werk / wordt verwerkt, dat sensoren ook false informatie sturen die je dan in code op moet vangen en dat het gehele stack enorm complexer maakt.


En ik heb het alleen in hoofdlijnen, kan mij voorstellen als je dieper zoekt dat het alleen maar exponentieel complexer wordt.
Met een zelfde zicht nemen wij als mens meer waar vergeleken met Tesla.
Dat kan al niet waar zijn. Een mens kan geen 360 graden zien, een auto wel.
Een vreemde redenering, aangezien onze ogen beperkt zijn als het heel hard regent of er veel mist is. We hebben ook andere beperkingen, zoals geen night vision, niet 360 graden kijken en niet kunnen inzoomen.

Techniek is er al jaren die veel verder gaat dan onze ogen, toch heeft Tesla ervoor gekozen om het niet te gebruiken om kosten te besparen.
De vele ongelukken die gebeuren in de regen halen je hele argument al onderuit…
Ik ben het niet eens met 'prima', we kunnen het wel, maar gaat meer fout tijdens regen dan dat als het droog/mooier weer is.

"Op rurale wegen en autosnelwegen zijn er tijdens regen meer ongevallen en vallen er meer slachtoffers dan als het droog is"

https://swov.nl/nl/fact/weer-3-wat-het-effect-van-regen
Vision-only systemen bieden auto's voldoende input om goed te functioneren en meer dan dat. Zelfs een eenvoudige camera zoals die in oudere Tesla-modellen presteert verrassend goed onder slechte lichtomstandigheden.

De beelden die deze camera’s onder zulke omstandigheden vastleggen, zien er voor het menselijk oog misschien niet fraai uit. Maar wanneer je de ruwe data gebruikt puur gebaseerd op het tellen van fotonen blijken die 1,3 megapixel camera’s onder slechte lichtomstandigheden véél beter te presteren dan het menselijk oog.

Het simpele feit dat mensen al decennia in staat om een auto te besturen met slechts twee ogen, geeft eigenlijk ook aan dat daar de beperkende factor niet zit. :)

Een Tesla daarentegen heeft ogen rondom en knippert nooit.

Lidar is een indrukwekkende technologie met unieke voordelen ten opzichte van camera’s, maar ook lidar kent zijn beperkingen. Zo kan het (ook) verblind worden en is het gevoelig voor ruis bij zware regenval e.d.. Het grote voordeel van lidar is dat het zijn eigen lichtbron gebruikt, terwijl camera’s afhankelijk zijn van externe verlichting. Dat betekent echter ook: zodra je Full Self-Driving (FSD) inschakelt, draag je automatisch ook de controle over je koplampen over aan het systeem.

Hieronder zie je een voorbeeld van hoeveel ruis een lidar-sensor kan ondervinden bij neerslag:

YouTube: Lidar and Camera Data in Heavy Rain from Waymo (1)

Maargoed, ik kan van alles beweren, zie hier een direct vergelijk tussen verschillende systemen. Sommige zijn vision only en sommige hebben een geheel apparatus aan (dus soms conflicterende) sensoren.

TLDW: Een Chinese test, met o.a. CHinese merken en Vision only blijkt hier zeer goed te presteren: https://x.com/SawyerMerritt/status/1948055082467004544

Een kleine impressie over hoe FSD 'ziet' in regenschtige omstandigheden:

YouTube: Tesla FSD vs. Rainy Chaos: The Results Are Insane!

[Reactie gewijzigd door procyon op 28 juli 2025 10:21]

En mens is vision only, en kan het inderdaad ook. Dit omdat de mens misschien wel "minder" ziet, voor vol automatisch het juiste ziet. Je onthoudt details en kunt bepaalde elementen zelf invullen zonder dat je ze werkelijk pixel voor pixel verwerkt. Je ziet ook eigenlijk een soort gevoel en vult details verder in op ervaringen uit het verleden. Met de huidige techniek is lidar, radar en vision bij elkaar het beste om dit te evenaren. Alle technieken hebben voor- en nadelen. Maar bij elkaar vult het elkaar aan. Als AI zover komt dat het werkt als een menselijk brein. Zo je verwachten dat deze het ook kan. Maar tot op dit moment verwacht ik niet dat dit op het moment op hetzelfde niveau zit als het menselijk brein. Wel kan een computer veel meer, en sneller onthouden, sneller rekenen, en dus ook meer informatie verwerken tegelijkertijd. Dus een computer dan met behulp van AI heel veel "compenseren" en soms de mens in bepaalde delen overtreffen.
En mens is vision only, en kan het inderdaad ook. Dit omdat de mens misschien wel "minder" ziet, voor vol automatisch het juiste ziet. Je onthoudt details en kunt bepaalde elementen zelf invullen zonder dat je ze werkelijk pixel voor pixel verwerkt. Je ziet ook eigenlijk een soort gevoel en vult details verder in op ervaringen uit het verleden. Met de huidige techniek is lidar, radar en vision bij elkaar het beste om dit te evenaren. Alle technieken hebben voor- en nadelen. Maar bij elkaar vult het elkaar aan. Als AI zover komt dat het werkt als een menselijk brein. Zo je verwachten dat deze het ook kan. Maar tot op dit moment verwacht ik niet dat dit op het moment op hetzelfde niveau zit als het menselijk brein. Wel kan een computer veel meer, en sneller onthouden, sneller rekenen, en dus ook meer informatie verwerken tegelijkertijd. Dus een computer dan met behulp van AI heel veel "compenseren" en soms de mens in bepaalde delen overtreffen.
Ons brein blijft voorlopig nog superieur aan de huidige AI-modellen (al kent het op zijn beurt weer heel andere beperkingen die in het verkeer vaak tot ongelukken leiden, maar dat terzijde.)

Je punt dat AI nog de fijne nuances mist om volledig op visuele input te kunnen vertrouwen, kan ik niet weerleggen.

Tegelijkertijd stel ik dat diezelfde beperkingen ervoor zorgen dat AI momenteel ook nog niet goed kan omgaan met onvermijdelijke conflicterende signalen tussen sensoren. Het ontbreekt simpelweg aan iets wat wij wél hebben: een "gevoel" en de rijkdom van opgedane "ervaring".

Overdag zijn camera’s qua resolutie en latency absoluut superieur. In andere omstandigheden biedt Lidar soms voordelen ten opzichte van alleen vision. Maar is de huidige AI werkelijk in staat om steeds de juiste set inputdata te kiezen, afhankelijk van de situatie?

Als dat niet het geval is, creëer je een systeem dat soms de foute keuzes zal maken en daarmee inherent ook onveilig kan zijn.

Tot nog toe zijn er nog tal van ongelukken te vinden van ongelukken (veroorzaakt) door systemen met Lidar en Radar als ondersteuning. Druk je dat uit in een relatief getal; aantal ongelukken in 2024/2025 gedeeld door het aantal gereden KM's, dan zie je dat vision only het eigenlijk erg goed doet.
Maar is de huidige AI werkelijk in staat om steeds de juiste set inputdata te kiezen, afhankelijk van de situatie?
Daarbij maak je de onjuiste aanname dat er conflicterende inputdata is waartussen de AI moet kiezen.
Maar zo zit het niet. De inputdata vullen elkaar juist aan om een beter beeld te schetsen.

Een camerasysteem moet een object kunnen herkennen om er iets nuttig mee te doen. Het moet dus kunnen vaststellen of iets een getekende fiets op de weg is, of een echte fietser. Maar in eerste instantie ziet het gewoon een voorwerp dat op een fiets lijkt.

Een lidar of radar hoeft dat niet. Die kijkt alleen of er een 3D voorwerp op de weg staat.

De combinatie van datasets geeft aan: Er is een 3D voorwerp en het lijkt op een fiets. conclusie: Er staat een 3D fiets op de weg.
Tot nog toe zijn er nog tal van ongelukken te vinden van ongelukken (veroorzaakt) door systemen met Lidar en Radar als ondersteuning.
Heb je een linkje?
En kwam dat dan doordat de camera met lidar en radar een object niet herkenden? Of werd het object wel herkent maar nam de systeem de verkeerde beslissing.
Ik zie een recall over tegen een auto paal rijden, maar het lijkt er niet op dat de paal niet herkent was. Evenals een recall over een auto die achterwaarts getrokken werd, maar ook daar werd de wagen wel herkend, maar omdat ie achterwaarts ging dat het systeem dat ie de andere kant op zou rijden dan ie daadwerkelijk deed.
De rest van de ongelukken die ik vond waren allemaal waarbij de waymo werd aangereden. Dat maakt het moeilijk de ongelukken er tussen te vinden die werkelijk door de zelfrijdende wagen kwamen.
[...]

Daarbij maak je de onjuiste aanname dat er conflicterende inputdata is waartussen de AI moet kiezen.
Maar zo zit het niet. De inputdata vullen elkaar juist aan om een beter beeld te schetsen.

Een camerasysteem moet een object kunnen herkennen om er iets nuttig mee te doen. Het moet dus kunnen vaststellen of iets een getekende fiets op de weg is, of een echte fietser. Maar in eerste instantie ziet het gewoon een voorwerp dat op een fiets lijkt.

Een lidar of radar hoeft dat niet. Die kijkt alleen of er een 3D voorwerp op de weg staat.
Natuurlijk wel. De computer genereert een beeld van de omgeving, opgebouwd uit gegevens van sensoren. In het geval van Waymo gaat het bijvoorbeeld om twee verschillende sensoren die soms tegenstrijdige informatie geven.

Kijk naar dit voorbeeld: de enige (witte) auto in beeld wordt door beide sensoren waargenomen.
De optische camera ziet de witte auto duidelijk en in hoge resolutie.
De lidar registreert de auto ook, maar detecteert daarnaast veel ruis achter de auto, het lijkt alsof er een muur van water achter zit.
De optische camera levert hier de meest betrouwbare informatie: er is niets achter de witte auto.

Waymo beschouwt in dit geval de input van de optische camera als leidend.

Dat afwegen of het toekennen van gewicht aan verschillende sensorische inputs is een complexe uitdaging.
Je snapt niet hoe het systeem werkt. De computer maakt geen keuze welke van de sensoren het beste werkt en negeert dan de andere.
De informatie is aanvullend. Het gebruikt zowel de lidar informatie als de camera informatie en combineert dat tot dataset die betrouwbaarder is dan elk van de twee datasets op zichzelf.
Je snapt niet hoe het systeem werkt.
De director of artificial intelligence bij Tesla, die weet het denk ik beter dan jij en ik.

Geloof je die wel of denk je het ook beter te weten dan hem?

YouTube: Why Tesla removed Radar and Ultrasonic sensors? | Andrej Karpathy and Lex Fridman
Die director moet uitleggen waarom een kostenbesparing geen probleem is. Denk je nou echt dat die het meest betrouwbare antwoord geeft, wanneer werkelijk elk ander bedrijf ter wereld, dat zich met zelfrijdende autos bezig houd, het met ze oneens is?
Die director moet uitleggen waarom een kostenbesparing geen probleem is.
Nergens heeft Tesla geclaimed dat het een kostenbesparende oplossing is.
Het is gewoon niet nodig.

Dat de aanname is dat het uit kostenoverwegingen gedaan is, is een aanname.
Dat gebruiken om een volkomen valide uitleg weg te serveren als nonsens is iets willen geloven.
Het word in die video continu verteld dat het een kostenbesparing is.
5 minuten van die 7 minuten video gaat over beperking van kosten.

Heb je zelf de video wel goed beluisterd?
Beperking van kosten is belangrijk. Dat doet elke autofabrikant.

Een sensor deleten die niet nodig is, is bijvangst in de algehele zoektocht naar efficiëntieverbetering.

De vraag was, was dat de enige rationale of was dat een logische beslissing, daar extra dure sensoren het systeem niet beter maken maar soms zelfs verslechteren doordat ze conflicterende input geven.
Op geen enkel moment word in die video beweert dat ze de zaak verslechteren of conflicterende input geven.
Op het moment dat het daar over lijkt te gaan: distraction, geeft die persoon aan dat het een 'distraction' in je bedrijfsvoering kan zijn. Dat is dus heel wat anders.
Op geen enkel moment word in die video beweert dat ze de zaak verslechteren of conflicterende input geven.
Additional sensors introduce more data streams, which create complexity and "entropy" in the form of redundant or conflicting information. This increases the challenge of processing and integrating data effectively. By focusing solely on vision (cameras), Tesla minimizes this noise, simplifying the data pipeline and allowing the AI to process cleaner, more consistent inputs, which improves efficiency and performance in their autonomous driving system.
Ik heb net die hele 7 minuten opnieuw geluisterd. Maar die zin komt er niet in voor.
Ik heb een transcript gemaakt en gezocht, maar er is niks te vinden wat in de buurt komt van die zin die jij geeft.
Wellicht heb je dat uit een andere video?

Wat ie wel aangeeft is dat het in je bedrijfsvoering voor extra complexiteit en entropy zorgt. Als je alleen maar budget en developers inzet op Vision, dan is dat natuurlijk makkelijker dan het geld verdelen tussen radar en vision.
En ja, meer informatie geeft extra complexiteit uiteraard. Maar ook extra nauwkeurigheid.

Maar hij geeft aan dat het geen gigantische verbetering gaf.
En dat is goed voor te stellen in de huidige systemen die bedoelt (en geschikt zijn) voor gunstige omstandigheden (mooi weer). Het huidige is goed genoeg voor dat. Radar toevoegen was positief, maar de verbetering was niet groot genoeg.
once you consider the full cost of a sensor it actually is potentially a liability and you need to be really sure that it's giving you extremely useful information in this case we looked at using it or not using it and the Delta was not massive and so it's not useful
En nogmaals de liability waar hij het hier over heeft (vanaf 1:38) is een kosten liability en niet dat de auto minder goed weet wat ie moet doen.
En ook weer bedenken dat ie een kostenbesparing zit te verdedigen. Dus neem er een kilootje zout bij.

Voor de huidige level 2 autonomie is het goed genoeg.
Maar als mensen aangeven dat je zowel camera als radar nodig hebt, dan kijken ze naar wat nodig is voor level 5. (wat we volgens Musk al 10 jaar geleden zouden krijgen)

Als je kosten wil besparen voor een huidige level 2 auto, dan is het te begrijpen dat je andere sensoren weg laat. Want we zijn nog lang niet op level 5 en je kan het ook gaan toevoegen over 5 jaar in een nieuwe model 3 wanneer de toekomst van Tesla zekerder is.
Vergeet niet dat de Model 3 een groot success moest worden en dat de toekomst van Tesla er vanaf hing. Dan is kostenbesparen en zorgen dat je bedrijf blijft bestaan belangrijker dan een toekomst visie over zelfrijdende autos. Want die toekomstvisie is waardeloos als Tesla failliet was gegaan.
Je vergeet dat veel LiDAR systemen met een uitgebreide abstractie laag komen van de kant van de leverancier. Je krijgt als ontwikkelaar geen ruwe data, maar geïnterpreteerde data. Succes met het bepalen welke sensor dan het beste is
Radar heeft ook erg grote nadelen. Waar ik zie dat er in de verte (hard) geremd wordt, blijft mijn 2024 Volvo gewoon achter de personenauto aan denderen tot die naar links gaat omdat het op de rechterbaan zo goed als stil staat. Oftewel radar kijkt maar 1 bewegend object vooruit.

Noot: Uiteraard heb ik voorkomen dat ik vol achterin mijn voorganger zou klappen maar soms wil je eens kijken wat er gebeurt.
Deze heb je vast al eens gezien; ik post hem toch nog maar even.

YouTube: Can You Fool A Self Driving Car?

Hoewel er natuurlijk wat aan/opmerkingen te maken zijn op deze "test" zijn er wel een aantal goede punten die je hieruit kan halen in het camera vs lidar debat.

Mist? Camera klapt vol op een object. LiDAR stopt op tijd.
Mega regen? Camera klapt vol op een object. LiDAR stopt op tijd.

De grootste pro voor camera systemen is gewoon kosten. Radar/LiDAR is gewoon duurder.

[Reactie gewijzigd door Captain Jorg op 28 juli 2025 11:02]

Haha ja klopt. De auto wist dus heel zeker dat de weg daar liep (want google maps).
De kans dat iemand een "roadrunner" muur bouwt op een bestaande weg en die schildert alsof de weg nog gewoon doorloopt is natuurlijk wel echt de randjes opzoeken op een leuke manier :)


In deze publicatie is er echter bewust alleen gebruik gemaakt van een Tesla met oudere HW3. (2022 model). De huidige modellen kan je daar al niet meer voor strikken :)

Zie: YouTube: Mark Rober Debunked - You can't fool a HW4 Tesla using FSD!
Ik bleef juist weg van de "fake wall" test. De resultaten van de test zijn namelijk te wisselend.
Dat ligt er natuurlijk ook aan hoe "echt" je de muur maakt - die van Mark Rober lijkt een stuk realistischer dan uit de video die jij linkt.
Blijkbaar kan het ook aan de tijd van de dag liggen of die de muur wel/niet ziet. Te veel factoren om rekening mee te houden ;)

En wat je zegt: de kans dat je een fake wall tegenkomt - bijna nihil.

De kans dat je een plaatselijke mistbank of wolkbreuk tegen komt? Stuk groter! Ook lastig te testen, en valt wat te zeggen om in zulke condities dan ook niet te gaan rijden. Maar dat radar/LiDAR makkelijker door mist heen kan kijken lijkt me duidelijk.

[Reactie gewijzigd door Captain Jorg op 28 juli 2025 11:19]

Ja klopt veel variabelen.

Toch zie je dat die HW3 auto in de link die ik net deelde, ook exact dezelfde fout maakte als die in de productie van Mark Rober, dus de conclusie van Mark Rober was valide.

Alleen de nieuwere HW4 maakte die fout niet. Speculatie is dat het een combinatie is van betere signaalverwerking icm betere camera's.

Een plaatselijke mistbank of wolkenbreuk is inderdaad veel reëler. Gelukkig is frontaal op de rem dan vaak juist een zeer ongewenste reactie, maar snelheid minderen en als het echt te erg wordt, besturing uit handen geven aan de mens een betere oplossing. :)
Het is mooi dat HW4 updates heeft tov HW3, ik ben benieuwd welke stappen er nog gemaakt worden in LiDAR, zo eens researchen ;) .

En helemaal eens, ik ben ook niet pro het ene of het andere - ze hebben beide voor- en nadelen.

LiDAR sensor data interpreteren of combineren schijnt extreem lastig te zijn...

Ik zie alleen auto's met alleen vision niet snel level 3 autonoom worden. Level 2(+) is misschien ook wel genoeg...

[Reactie gewijzigd door Captain Jorg op 28 juli 2025 11:31]

Ja en zo te zien deed Mark Rober het niet met behulp van met AutoPilot of FSD maar reed hij zelf.
De grootste pro voor camera systemen is gewoon kosten. Radar/LiDAR is gewoon duurder
Radar/lidar zien ook geen wegmarkeringen, borden, gebaren van een agent etc. Ons hele wegennet is gebouwd op zicht. Radar/Lidar is ook duurder omdat je naast die system ook een geheel camara systeem moet hebben.
Er is helemaal niemand die beweert dat je alleen op radar/lidar kunt vertrouwen.
Het is altijd een combinatie. Lidar/radar geeft je extra informatie in de situaties waarin een camera tekort schiet en vice versa.

Denk aan de phantom brakes die een Tesla heeft bij schaduwen op de weg. Simpelweg omdat de camera niet in staat is om te bepalen of het een voorwerp op de weg is, of een schaduw.
Dan heb je twee opties om dat op te lossen:
1. Negeer onherkenbare voorwerpen op een weg, vooral bij bruggen. Dat is de methode die Tesla op dit moment gebruikt en die dan lijdt tot die aanrijding met een gekantelde vrachtwagen die totaal genegeerd werd.
2. Gebruik naast de camera een radar/lidar om te bepalen of er daadwerkelijk een voorwerp is, of dat het een schaduw is.

Wat de beste methode is lijkt me overduidelijk. Zeker omdat radar niet extreem kostbaar is.
Vrijwel alle autos met adaptive cruise control hebben al een radar aan boord.
Lidar/radar geeft je extra informatie in de situaties waarin een camera tekort schiet en vice versa.
Ik zou het niet zo omschrijven. Bij camera's maakt een computer een driedimensionale situatie zoals de KI van de computer denkt zoals de situatie is. Bij lidar is dat niet nodig: De lidar maakt een betrouwbare opname van de driedimensionale situatie rond een voertuig. Met een camera kan iets dat zichtbaar is verkeerd geïnterpreteerd worden als een voorwerp dichtbij of ver weg, bij lidar is dat met (bijna) zekerheid te bepalen.

Ik zou het daarom niet zozeer extra informatie noemen, maar dat de computer zich voor zijn beslissingen kan baseren op betrouwbare data in plaats van interpretatie.
Ik snap je punt, en je hebt gelijk dat lidar heel goed is in het bepalen van de afstand tot een voorwerp.
Maar ook lidar moet aan interpretatie doen.

Want je wilt niet alleen weten of er een object is, je wilt ook weten wat dat object dan is. Is dat object een voetganger die elk moment de straat over kan steken, of is het een lantaarnpaal?
Dat is belangrijke informatie voor een zelfrijdende auto.
Een camera kan die aanvullende informatie veel makkelijker verschaffen.
Absoluut waar, visuele informatie is nodig om een voorwerp nader te kunnen classificeren.
Hieronder zie je een voorbeeld van hoeveel ruis een lidar-sensor kan ondervinden bij neerslag:
Ik vooral in dat voorbeeld hoe de lidar sensor er geen enkele moeite mee heeft de andere wagens op de weg te herkennen.
Zelfs bij de auto die direct achter de auto met lidar rijd en waar het rode blokje in eerste instantie verkeerd lijkt te zijn, blijkt als je even wacht dat het blokje correct is wanneer de auto uit de spray vandaan komt en van baan wisselt.
Dus ik vind je voorbeeld niet bepaald overtuigend.
Het ging dan ook niet om het kunnen herkennen van grote objecten. Dat kon de camera ook.

Het ging om de ruis die water veroorzaakt, zie bijvoorbeeld het opwaaiende water achter elke auto. Dat triggered veel false positives, het zijn namelijk geen objecten, het zijn waterspetters.

In sneeuw of zeer zware regen is dat nog veel erger.

Wil dus niet zeggen dat het daarmee grote objecten niet meer kan herkennen, dat kan het wel. Maar dat kunnen optische kamera's ook :)
Je maakt aannames die je niet kunt onderbouwen.
Je suggereert dat lidar erg gevoelig is voor ruis en doet alsof er bij regen zoveel ruis is dat de lidar sensor onbetrouwbaar word. Maar zoals je in de video kunt zien is daar geen sprake van.
Het displayen van opwaaiend water is geen false positive. Als de auto zou denken dat de waterspray een auto is, DAN is het een false positive. Daarom noemde ik juist die auto die in de spray verborgen zit. Kijk je puur naar de display dan lijkt het alsof je die auto dichterbij kan zien dat het rode blokje die de auto aangeeft. Maar even later blijkt dat blokje juist te kloppen. Dus het lidar systeem heeft het beeld beter geinterpreteerd dan wij op basis van deze beelden konden.

Je doet alsof cameras prima voorwerpen kunnen herkennen, maar de gebrekkige herkenning van objecten is juist waar al die phantom brakes van de Tesla's vandaan komen. Dat hebben ze ondervangen door een heleboel niet herkende objecten gewoon te negeren.

Nou is lidar ook niet specifiek bedoeld om tekortkomingen van zichtbaar licht cameras te ondervangen die te maken hebben met de golflengte van het licht. Uiteindelijk is het maar gewoon een laser in de range van normale camera sensors. (Vandaar dat het ook de camera sensors van een telefoon kan beschadigen)

Lidar is een techniek om makkelijk te afstand tot kleine objecten te detecteren, zonder dat je een object visueel hoeft te herkennen.

Radar doet hetzelfde maar doordat het een andere golflengte gebruikt heeft het minder invloed van de weeromstandigheden maar het is wat meer op grotere objecten gericht.
Als je een stoeprand wil herkennen voor inparkeren dan is dat waarschijnlijk makkelijker met lidar.

De eindconclusie blijft heel simpel: Een combinatie van sensortechnieken is het beste omdat ze elkaars sensordata kunnen aanvullen en gaten opvullen.
Het blijft bijzonder hoe mensen die open deur proberen te ontkennen.

Bij lidar kun je nog roepen dat het duur is. Maar radar zit al in de meeste autos voor adaptive cruise control. Kosten is daar echt niet het probleem.
Je maakt aannames die je niet kunt onderbouwen.
Je suggereert dat lidar erg gevoelig is voor ruis en doet alsof er bij regen zoveel ruis is dat de lidar sensor onbetrouwbaar word.
Nergens suggereer ik dat lidar erg gevoelig is voor ruis en daarmee onbetrouwbaar wordt, wat een nonsens.. Lees anders mijn reactie gewoon nog een keer goed.

Ik geef aan dat de hoeveelheid ruis bij slecht weer ook bij Lidar toeneemt, net zoals bij optische camera's.

Dit was mijn exacte quote:

"Lidar is een indrukwekkende technologie met unieke voordelen ten opzichte van camera’s, maar ook lidar kent zijn beperkingen. Zo kan het (ook) verblind worden en is het gevoelig voor ruis bij zware regenval e.d.."
De eindconclusie blijft heel simpel: Een combinatie van sensortechnieken is het beste omdat ze elkaars sensordata kunnen aanvullen en gaten opvullen.

Het blijft bijzonder hoe mensen die open deur proberen te ontkennen.
Dat is een onjuiste conclusie, want helaas ligt het toch complexer dan het lijkt. Door gebruik te maken van verschillende sensoren (elk met hun eigen sterke en zwakke punten), leg je een ingewikkelde taak bij het systeem: bepalen welke sensor in welke situatie leidend moet zijn.

Als de achterliggende intelligentie dit verkeerd inschat, kan het systeem op het verkeerde moment de verkeerde input gebruiken. Dat kan resulteren in een verkeerde beslissing, met in het ergste geval een ongeluk tot gevolg.

Je kunt dit deels compenseren door het systeem bij twijfel automatisch vaart te laten minderen, in de hoop dat de sensoren in de daaropvolgende momenten eenduidigere metingen geven zonder onderlinge tegenstrijdigheid.

Dit kan zich dan uiten in zogenoemd phantom braking (plotseling en onterecht afremmen) hoewel dat niet de enige oorzaak is. Mijn Model 3 uit 2019 had hier in het begin vaak last van, totdat Tesla in latere software-updates besloot de radarinput tijdens Autopilot-ritten niet langer te gebruiken.

Terzijde, over je opmerking rond false positives:

Wat ik bedoelde, is dat individuele lidar-pulsen kunnen reflecteren op opspattende waterdruppels. Voor de sensor lijkt het dan alsof er zich een massieve watermassa bevindt achter de auto’s, terwijl het in werkelijkheid slechts een wolk van fijne druppels is met een lage dichtheid. Voor de Lidar lijkt het een muur van water omdat de resolutie zo laag is vergeleken met optische camera's.

Een optische camera kan daar grotendeels doorheen kijken, maar voor lidar vormt dit een ogenschijnlijke muur of object. Dit wordt erger naarmate het weer verslechterd.
Lidar is een indrukwekkende technologie met unieke voordelen ten opzichte van camera’s, maar ook lidar kent zijn beperkingen. Zo kan het (ook) verblind worden en is het gevoelig voor ruis bij zware regenval e.d..
Nee, dit suggereert niks.
Gevoelig voor ruis bij zware regenval suggereert helemaal niks.
Wie denk je nou voor de gek te houden?
Dat is een onjuiste conclusie, want helaas ligt het toch complexer dan het lijkt. Door gebruik te maken van verschillende sensoren (elk met hun eigen sterke en zwakke punten), leg je een ingewikkelde taak bij het systeem: bepalen welke sensor in welke situatie leidend moet zijn.
Nee, daar maak je een grote fout dat die systemen concurenten van elkaar zijn en dat het systeem moet bepalen wie gelijk heeft.
Ze zijn aanvullend aan elkaar waardoor het makkelijker word voor het systeem om te bepalen wat er aan de hand is.
Voor de Lidar lijkt het een muur van water omdat de resolutie zo laag is vergeleken met optische camera's.
Precies andersom :). Het lijkt een muur van water doordat de resolutie te hoog is. De reden dat radar door de spray heen kijkt is omdat de resolutie van radar nog lager is. En omdat het radar golven zijn gaan die dwars door de spray zonder het op te merken.
Maar bovendien was er helemaal geen sprake van een muur van water. Je kon duidelijk zien dat ondanks de zichtbare spray de auto er achter wel degelijk gedecteerd werd.
Dus net zoals bij een camera of je ogen waar je tussen de spray nog steeds de auto ziet, was dat ook hier het geval.
(Of boven de spray, want wat je op die beelden niet kan zien is dat die laser niet alleen rond gaat, maar ook op verschillende hoogtes rond gaat om zodoende lage en hoge objecten ook te zien).
De resolutie van Lidar verschilt niet zoveel van de camera. (uiteindelijk gewoon laserlicht in dezelfde infrarood golflengte die o.a. ook gebruikt word door Tesla Vision)
Mijn radar sensoren aan de zijkant en voorkant geven anders bij heftige regenval of sneeuw een foutmelding.
Weet je zeker dat het radar sensoren zijn, of zijn het ultrasone sensoren?
(Meeste sensoren aan de zijkant zijn parkeersensoren en die gebruiken zelden radar)
De auto zelf noemt het radar. En aan de voorkant weet ik het zeker omdat ik erbij was dat ze die calibreerden omdat hij niet goed werkte.

Oh, we hebben het over een vrachtwagen die auto's naast me detecteert. Daar zit ook een waarschuwing aan vast die bromt als ik de richtingaanwijzer aanzet wanneer er iemand naast me of schuin achter me rijdt. Die staat dus uit, want als ik mijn richtingaanwijzer niet aanzet komt er nooit een gaatje om in te halen.

[Reactie gewijzigd door Miglow op 28 juli 2025 17:48]

Dat is een onjuiste conclusie, want helaas ligt het toch complexer dan het lijkt. Door gebruik te maken van verschillende sensoren (elk met hun eigen sterke en zwakke punten), leg je een ingewikkelde taak bij het systeem: bepalen welke sensor in welke situatie leidend moet zijn.
Ja doh... uiteraard moet het dat. Zo'n beetje het eerste wat een computer moet doen als hij beslissingen neemt waar veiligheid van afhangt is, is toetsen of de sensoren waarop hij de beslissing neemt betrouwbaar zijn. Dat heeft niets met KI of zelfrijdende auto's te maken, maar is gewoon een basisbeginsel in de informatica: Als Boeing dit beginsel bij de 737 Max geëerbiedigd had, dan waren er twee dodelijke vliegrampen minder geweest.

Dus ja, het systeem moet de betrouwbaarheid van zijn sensoren controleren en onafhankelijk sensoren zijn dat punt een voordeel: De kans dat je een fout in de interpretatie van camerabeeld kan ontdekken is veel groter als je die kunt toetsen aan een lidarbeeld, dan als je het camerabeeld alleen moet toetsen.

[Reactie gewijzigd door dmantione op 28 juli 2025 17:38]

dubbel

[Reactie gewijzigd door procyon op 28 juli 2025 17:37]

[...]

De kans dat je een fout in de interpretatie van camerabeeld kan ontdekken is veel groter als je die kunt toetsen aan een lidarbeeld, dan als je het camerabeeld alleen moet toetsen.
Dat klopt. Met het risico dat je Lidar meer gewicht geeft in sommige situaties terwijl vision het wellicht bij het rechte eind heeft.
Vision-only systemen bieden auto's voldoende input om goed te functioneren en meer dan dat. Zelfs een eenvoudige camera zoals die in oudere Tesla-modellen presteert verrassend goed onder slechte lichtomstandigheden.

De beelden die deze camera’s onder zulke omstandigheden vastleggen, zien er voor het menselijk oog misschien niet fraai uit. Maar wanneer je de ruwe data gebruikt puur gebaseerd op het tellen van fotonen blijken die 1,3 megapixel camera’s onder slechte lichtomstandigheden véél beter te presteren dan het menselijk oog.

Het simpele feit dat mensen al decennia in staat om een auto te besturen met slechts twee ogen, geeft eigenlijk ook aan dat daar de beperkende factor niet zit. :)
Alleen al in Nederland 70 gewonden en een aantal doden elke dag in het verkeer (bron SWOV) geeft al aan dat het voor autonoom rijden zeker niet voldoende is.

(Gemakshalver er vanuitgaan dat camera's en mensen dezelfde soort ongelukken kunnen voorkomen, wat in praktijk dus ook niet zo is.)

Daarom vereist de EU ook minimaal 2 verschillende systemen (bijv. camera + lidar of camera + radar) voor autonoom rijden.
[...]

Alleen al in Nederland 70 gewonden en een aantal doden elke dag in het verkeer (bron SWOV) geeft al aan dat het voor autonoom rijden zeker niet voldoende is.
Ik weet even niet precies waar je op doelt, ik zie in elk geval geen enkele publicatie van het SWOV waarin cijfers worden gegeven over doden of gewonden als gevolg van autonome systemen.

Dat terzijde: als een autonoom systeem een ongeluk veroorzaakt (dus niet alleen slachtoffer is van het handelen van anderen), dan is dat natuurlijk geen direct bewijs dat een ‘vision only’ aanpak de boosdoener is. Het kan net zo goed liggen aan het achterliggende AI-model dat een verkeerde beslissing neemt of aan een andere hardwarematige oorzaak.

Ik raad je aan om even naar de Chinese test te kijken die ik hierboven heb gedeeld, dan zie je hoe effectief vision only-systemen kunnen zijn.

Natuurlijk is de eerste reflex: laten we alle sensoren gebruiken, zodat ze elkaars zwakke plekken kunnen compenseren. Maar in de praktijk moet de onderliggende intelligentie heel goed kunnen bepalen welke sensor in welke situatie gelijk heeft. Dáár zit een enorme uitdaging. En als je daarin een fout maakt, dan neem je een verkeerde beslissing.

[Reactie gewijzigd door procyon op 28 juli 2025 10:52]

Dit betrof het stukje dat mensen auto's besturen met 2 ogen en dat dit voldoende zou moeten zijn. Dat is het helaas dus niet.

In hoeverre autonome systemen ongevallen voorkomen of veroorzaken, wordt zover mij bekend niet bijgehouden.

NB Ik merk wel in het dagelijkse verkeer dat mensen (te veel) op de automatisering (van auto's) vertrouwen. Hoe vaak je in de regen of mist mensen tegenkomt met alleen dagrijverlichting (voor) ingeschakeld ...
Daarom vereist de EU ook minimaal 2 verschillende systemen (bijv. camera + lidar of camera + radar) voor autonoom rijden.
Zover ik me heb kunnen inlezen klopt dat niet. Ze eisen wel functionele veiligheid en redundantie. Hoe je die redundantie invult is aan de fabrikant. Je moet kunnen bewijzen dat je een fallback hebt die veilig is.

De fallback van camera’s kan ook een andere camera zijn met een chipdesign die een falende chip kan overnemen.

Het zou maar straf zijn dat wetgeving zich aan technologie koppelt.
Je hebt gelijk, fall-back staat niet verder gedefinieerd, zou dus inderdaad ook een (tweede) camera systeem kunnen zijn.

EUR-Lex - 42025X0003 - EN - EUR-Lex

Aan technologie koppelen gebeurd overigens wel degelijk, bekendste voorbeeld is misschien wel USB-C.


(Edit) Ik had het uit dit stuk:

Tesla’s aanpak is gebaseerd op ‘vision only’: acht camera’s, zonder LiDAR en (deels) zonder radar. Dat is in Europa juridisch simpelweg niet toegestaan voor autonoom rijden boven Level 2. Amerikaanse regelgeving is op dit moment veel soepeler en decentraler geregeld. Verschillende staten (zoals Texas) mogen hun eigen regels stellen. Daardoor kunnen bedrijven daar sneller testen en uitrollen zonder aan de strengste internationale normen te voldoen. Dat is een keuze, maar die heeft wel risico’s.

[Reactie gewijzigd door wjn op 30 juli 2025 10:37]

Idd.

Mijn reply is niet specifiek op u gericht maar het valt me op dat iedereen hier losjes vanuit gaat dat zonder Lidar je niet geen autonoom kan rijden. Die stelling is volgens mij enkel waar als Europa Lidar zou verplichten als primaire of secundaire sensor. Lidar is een soort tussenstap tot er meer AI modellen uitkomen die niet meer via een 3D punten map moeten gaan, maar al hun informatie uit een beeld kunne halen.

De meeste mensen gaan compleet voorbij aan het feit dat AI een beetje werkt zoals ons brein en er dus geen complexe wiskundige berekeningen plaatsvinden die exacte 3D punten nodig hebben. Onze hersenen rijden ook zonder die zware wiskundige berekeningen of 3D map maar kunnen een inschatting maken. Dat is een fundamenteel andere aanpak.

Een 3D puntenwolk helpt vooral fabrikanten snel een autonoom systeem op poten te zetten zodat ze hard coded routes kunnen uitstippelen in gekende gebieden. Mercedes scant bijvoorbeeld bepaalde snelwegen milimeter precies in. Ze maklen een complete 3D map van een omgeving en met lidar en GPS positioneren ze het voertuig op die 3D kaart. Dat is een compleet andere aanpak en dan heb je natuurlijk Lidar nodig omdat je dan exact weer waar je rijdt.

Wij mensen weten niet exact waar we rijden, we schatten dat in op basis van ervaring. Dat is een compleet andere aanpak. Het is moeilijker om te ontwerpen maar eens het werkt is het wel belachelijk kostenefficient want je kan meer omstandigheden aan en je moet geen heel land in kaart brengen tot op de mililmeter.

Ik ben er echt zeker van dat Lidar maximaal een secundaire technologie gaat worden en camera's een primaire technologie omdat de wereld nu eenmaal gemaakt is voor ogen. Secundair wil zeggen dat het niet wordt opgenomen in de sensorfusion maar dienst doet als fall back.

Lidar is wat mij betreft gewoon een tussenfase. Zodra neurale netwerken zelf begrijpen waar hun positie in de ruimte is en ruwe objecten kan detecteren op basis van 2D inschatting en beeld is er geen tussenstap van die 3D puntenwolk nodig. Dat wil zeggen dat uw systeem veel krachtiger wordt en minder complex en bijgevolg goedkoper. Je wil immers +- 100x per seconde een idee krijgen van de situatie. Bijv 100x per seconde 'intentie voetganger in de volgende 10 miliseconde'.

Lidar werkt met sensor fusion en sensor fusion is complex. (je hebt camera's nodig om uw lidar beeld om bijv de wegmarketing te zien) Ook de redundancie die je moet ontwerpen is complex omdat je met meerder sensoren zit die 1 beeld vormen voor de AI. Dus je moet multi sensor fall back voorzien. Het kan wel, en het werkt wel maar het is gewoon niet efficient.

Lidar is zoals een Jet engine op een go-card. Super krachtig maar niet schaalbaar.

Ik vermoed dat de hele wereld gaat overschakelen op die zogenaamde Vision Based Occupancy Networks met een end-to-end transformer. Dus directe Camera-stuurinput. De vraag is gewoon op welk camera based model de industrie gaat overnemen. Mogelijk op dat van Nvidia maar als je enkel afgaat op het aantal papers dan zullen het Chinese systemen zijn want ze zijn et veel en scoren goed: zie: https://opendrivelab.com/challenge2023/#overview

Je ziet ook dat bedrijven zoals Mobileye, XPeng en Baidu minder en minder inzetten op Lidar.

Ik vermoed dat Imaging radar het van Lidar zal winnen om vision netwerken bij te staan in mist, zware regen, totale duisternis of laagstaande zon etc. Lidar werkt bij niet in mist en heeft ook last van zware regen dus het is niet 100% complementair met vision.

Samenvatting: Veel mensen denken dat autonoom rijden onmogelijk is zonder LiDAR, maar dat klopt alleen als wetgeving het zou verplicht stellen. En dat is niet het geval. Vision-based AI werkt eerder zoals het menselijk brein: via visuele inschatting, niet via exacte 3D-puntenwolken. LiDAR is vooral nuttig voor systemen met vooraf gescande routes, maar niet schaalbaar of efficiënt voor algemene toepassingen. Vision-first netwerken met imaging radar als back-up zijn goedkoper, eenvoudiger en flexibeler dan Camera + Lidar. Daarom schuift de industrie steeds meer richting camera-centrische oplossingen zoals Occupancy Networks en end-to-end modellen.
Hier een Tesla Model Y HW3 bestuurder met FSD pakket

Ik ben totaal niet onder de indruk van de self driving functionaliteit van mijn Tesla, maar ben bang dat dit voornamelijk door de hardware en software komt. Niet door het gebruik van alleen maar camera's.
  • Bij een rotonde moet ik de autopilot uitzetten van een rotonde snapt hij niet
  • Een baan die zich splits in twee banen is soms een probleem, weet hij niet welke te kiezen
  • Werken aan de weg met gele lijnen geeft soms raar gedrag
  • Onverwachts hard op de rem terwijl er niets aan de hand is
  • Onverwachte snelle stuurcorrecties
  • ....
  • En ok... heel soms de melding dat een van de camera's het even niet doet door verblinding van de zon
Als ik daarentegen de FSD filmpjes op YouTube zie van Tesla gebruikers uit USA dan ben ik zeer onder de indruk en kan ik niet wachten tot het hier is toegestaan.

[Reactie gewijzigd door HansRemmerswaal op 28 juli 2025 13:26]

Ik ben totaal niet onder de indruk van de self driving functionaliteit van mijn Tesla
Verscheep uw Tesla eens naar de VS en selecteer daar FSD supervised en je zal zien dat wel onder de indruk zal zijn. De software van Tesla mag in Europa NIETS. Hij mag zelfs niet 'redeneren'.

Ik heb ook HW3 en rij dagelijks autonoom. In 2021 nam hij nog zelf de afrit nu gaat dar allemaal niet meer. Europa heeft Tesla tegengehouden om Europese bedrijven een kans te geven. Einde 2025 zou de Europese wetgeving klaar zijn en dan moet elk land nog hun wetgeving aanpassen. De goedkeuring gaat in stappen. Eerst gewoon autosnelweg op het rechter baanvak aan 90km/h dus het gaat in Europa niet spectaculair worden.

Tesla heeft 500-1000 Tflops aan rekenkracht nodig. HW3 heeft er misschien 60. Dus HW3 gaat nooit echt wat worden. Wel zou er sprake zijn van een gratis upgrade voor Full FSD klanten. Ik heb enhanced FSD, niet de full.
Ik heb enhanced FSD, niet de full.
Ik gok enhanced autopilot, of is de naamgeving door de jaren heen veranderd?

Ik heb dat duurste pakket van Full Self Driving en ik geloof ook niet dat dit ooit gaat werken met HW3. Ook al was dit belooft. Die upgrade gaan ze denk ik niet doen, ik denk eerder dat ze de kleine groep klanten met dat pakket gaan afkopen.
FSD is een licentie dus ik vermoed dat ze ook de optie gaan aanbieden om die licentie over te zetten naar de nieuwe tesla’s omdat elke Tesla met alle hardware en camera’s komt voor full FSD. Zo moeten ze achteraf geen duizenden euro’s terugstorten.

Ik heb de enhanced dus ik hoop die optie ooit nog te kunnen overzetten naar een nieuwe Tesla model Y.

Een andere denkpiste is dat de full FSD als abbo aanbieden. Bijv €200/maand. Als je dan de full hebt betaal je niets en €100/maand voor enhanced.

Hardware retrofit is volgens mij maar een smoes om niet ge moeten toegeven dat HW3 en HW4 ondermaats zijn van AI chip betreft. De tech is nog niet daar. AI chips zijn extreem duur en er is een tekort dus het zal nog wel even duren alvorens de 1000Tflops kunnen aanbieden. (Dat is zowat het getal waarvan men vermoed dat auto’s op level 3-4 kunnen rijden.)


Edit: sorry, ik dacht dat mijn reactie niet verzonden was. Wel dus:) 2x het zelfd mey wat extra nuance 🤣

[Reactie gewijzigd door Coolstart op 28 juli 2025 21:34]

AP is wel heel (Domme) andere software dan fsd. AP is ook enkel voor op de snelweg waar je normaliter geen rotondes hebt. Heb het idee dat t met AP nooit goed komt op de nederlandse snelwegen , korte invoegstrookjes, spitsstroken met vage afslagbeleiningen erop dat soort situaties weet je al dat t mis kan gaan
Volgens mij valt die vooruitgang wel wat mee. Andere merken schijnen het tegenwoordig beter te doen.

Vision only werkt inderdaad niet. Niet alleen bij regen, ook niet bij te grijs weer, laaghangende zon, te vieze camera's, mist, etc, etc. Ik rij nu tijdelijk een BMW ipv Tesla en alleen de regensensor is al een verademing. Man wat mis ik die.
We zitten hier op oude software helaas, die niet te vergelijking is met FSD in USA. Dus het is wachten op approval in de EU en dan kunnen we eindelijk los.
Die is inderdaad niet te vergelijken met FSD in de VS met mooi weer.
Maar de beperkingen die Tozz noemde blijven gewoon bestaan bij slecht weer. Daar verandert FSD in de VS helemaal niks aan.
Verwacht je nou dat ik je antwoord serieus neem?
Als het regent en de weg is nog goed te zien dan maakt het uiteraard niet uit.
En het probleem bij dit soort situaties is niet dat ie volledig stopt met werken, maar dat ie veel minder betrouwbaar is. En dat verschil zie je niet. (tot het te laat is)
Ja neem het eens serieus, laat eens een real world video zien waar het merkbaar slechter gaat.
Maar de beperkingen die Tozz noemde blijven gewoon bestaan bij slecht weer.
Ook lidar heeft last van regen. Net zoals camera’s is zal de resolutie en maximale afstand afnemen. Lidar moet bijv actief alle regendruppels wegfilteren want veel laserpunten landen op die druppels.

Er is geen systeem dat beter door regen kan kijken net zoals we geen systeem hebben om door mist of een wolk te kijken.

Het enige wat AI kan doen is trager rijden en rekening houden met de zichtbaarheid in geval van zware mistbanken of regenval.

[Reactie gewijzigd door Coolstart op 28 juli 2025 21:51]

Er is geen systeem dat beter door regen kan kijken net zoals we geen systeem hebben om door mist of een wolk te kijken.
Wel eens van radar gehoord?
Datgene wat vrijwel alle autos met adaptive cruise control al aan boord hebben.
Ja, ik ken heus wel het verschil maar met radar kan je geen beeld vormen dat noodzakelijk is voor autonoom rijden. Dat bedoelde ik met kijken.

Je kan enkel de afstand meten met uw voorligger en dat is simpelweg onvoldoende. Het werkt idd goed voor adaptieve cruiscontrole.
Ik heb gewoon een handel bij mijn stuur. Werkt feilloos :+
Andere merken schijnen het tegenwoordig beter te doen.
Alleen buiten de VS. Je mag 2x raden waarom. Camera’s hebben niet meer of minder last van regen dan Lidar. En elke lidar heeft een camera nodig!

Er is geen enkele andere autofabrikant die zoals Tesla in de stad kan rijden. Enkel in de VS. Dus niet in Europa. Europa laat zo’n systemen nog niet toe. Enkel Mercedes heeft een systeem maar dat zit vol harde code en werkt niet in de stad omdat je dat niet kan programmeren. Tesla is volledig AI. Dus geen voorgeprogrammeerde code voor enkel de A12.
Niet mijn ervaring. Ik heb AutoPilot wel eens aangezet tijdens een hoosbui (uiteraard goed stuur vastgehouden) en reed zekerder dan mij terwijl het hard genoeg regende om langzamer te gaan rijden.
Als ik je opmerking lees stel ik me dan de vraag als AutoPilot effectief zekerder reed, of gewoon de weersomstandigheden niet juist kon inschatten en eigenlijk te snel reed?
Jullie halen auto pilot en de nu nieuwe FSD door elkaar. Auto pilot is niks meer dan lane assist en adaptieve cruiscontrol. FSD is volledig zelfrijdende AI die alle camera's als ogen gebruikt. Het is bakstenen met slagroomtaart vergelijken.

YouTube: Tesla FSD Supervised in The Netherlands, Amsterdam (first time in Europe)
Wat ik bedoelde is dat je kan voelen aan het stuur of hij aan het zoeken is naar lijnen of gewoon zeker is van zijn pad. Ik voelde geen enkele aarzeling.

De snelheid weet ik niet meer exact, we reden sowieso al langzamer ivm overig verkeer.
Ja whatever dat heb ik allemaal gelezen. Ik ben me volledig bewust van waar je het het beste wel/niet kan gebruiken, maar als Tweaker blijft het interessant om van tijd tot tijd eens wat edge cases te testen. Vandaar dat ik ook al had gezegd dat ik het stuur extra goed vast had.
Ben je je er ook van bewust dat de conclusies die jij trekt op basis van die tests op verkeerde aannames gebaseerd zijn? "De auto lijkt niet nerveus, dus het ziet de situatie beter dan ik"

En jij bent je er wellicht volledig van bewust waar je het beter niet kan gebruiken, maar als je zo stellig roept dat het beter rijd dan jij zelf zou doen, dan beinvloed je daarmee mensen die zich niet bewust zijn van waar je het beste wel/niet kan gebruiken.
(Naast gezond verstand dat een camera voor zichtbaar licht niet meer kan zien dan jouw ogen)
Tesla camera's zijn gemodificeerd om meer infrarood licht op te vangen en zien dus meer dan je eigen ogen. Als het zo donker is dat ik zelf niets meer zie, dan kan ik op de zijcamera's van mijn auto nog steeds iets zien.

Ook penetreert infrarood licht (780nm tot 1mm)mist en regen beter dan zichtbaar licht (380-700nm). En radar is er nog weer iets beter in met golflengtes van rond de 4mm.

Overigens: als je een nieuwere iPhone hebt, dan zul je ook zien dat deze in het donker meer ziet dan je eigen ogen.
En radar is er nog weer iets beter in met golflengtes van rond de 4mm.
"iets beter"? Zeg maar gerust het verschil tussen dag en nacht.

Dat kleine beetje meer infrarood dat een Tesla camera ziet is in de praktijk niet merkbaar bij mist.
Wat is precies de reden dat ze Vision-only willen dan?
Kostenbesparing, een 5MP camera en handjevol 3(?)MP camera’s kosten vrijwel niets tov een dure LiDAR sensor.

Ook zal het vermoedelijk een ego kwestie van Musk zijn om eerst te claimen dat camera’s goed genoeg zijn, en om te vermijden dat hij dan achteraf zijn uitspraken terug moet nemen.
Kosten. Heb je al een auto(die iedereen kan kopen) gezien met lidar? Zodra lidar goedkoop wordt kan het zijn dat ze dat integeren. Lidar heeft ook gewoon camera’s nodig dus het start altijd bij vision.
Het chinese kanaal @dcarstudio heeft een zeer uitvoerige serie tests gedaan van ADAS systemen in allerlei ongebruikelijke situaties en omstandigheden (veel zwaarder dan die van Euro NCAP). Allerlei auto's deden mee inclusief modellen met lidar, van zowel Chinese als westerse merken. Tesla scoort consistent erg goed, onder allerlei omstandigheden. De rest is eigenlijk nog het best te omschrijven als een gevaar op wielen en bewijst vooral dat de verwerking van de data momenteel belangrijker is dan de bron van de data.

De enige beperking van de test is misschien dat er niet met regen getest is.

https://www.youtube.com/@DCARSTUDIO

[Reactie gewijzigd door Aidix op 28 juli 2025 10:32]

Dit zijn misschien ook geen vergelijkbare systemen. De systemen voor "noodstop" geven je ook vaak eerst 2 sec om zelf te reageren, dan ben je ook best wel "te laat " zeg maar.
Zelfrijdend of een "goedkoop" noodstop systeem is natuurlijk wel iets anders en Tesla gebruikt een uitgekleed zelfrijdend systeem. Verder weet ik ook niet hoe een Rader systeem reageert op een plastic auto. Misschien reageert deze wel meer op volume dan op zicht.
Zolang Tesla alleen camera's gebruikt voor autonoom rijden is het systeem kwetsbaar en gemakkelijk te foppen. Mist, regen, sneeuw, en tegenlicht maken het systeem onbruikbaar. Een vrachtwagen die toevallig veel op de achtergrond lijkt wordt domweg niet gezien.

Ik heb een Tesla gehad, maar de autopilot was (in Nieuw Zeeland) domweg onbruikbaar. Ik heb het één keer gebruikt op een redelijk grote weg, maar tot twee keer toe stuurde de autopilot onverwacht de berm in. Gelukkig kon ik nog op tijd ingrijpen. Onder goede omstandigheden gebruiken vrienden de autopilot van hun model 3 wel, maar alleen op de snelweg. Die wonen echter op het Noorder eiland. Ik woon op het Zuidereiland en daar zijn slechts een paar kleine stukjes die op een snelweg lijken.
De camera’s worden bijna volledig onbruikbaar als het regent.
Dat is dus klinkklare onzin. Zowel Camera's, Lidar en Radar blijft werken in de regen. Vroeger werkte lidar niet in de mist door de 'fog artifacts'. Maar moderne systemen kunnen die artefacten negeren. Er kan spraken zijn van een degradatie in performance. De resolutie kan dalen maar 'onbruikbaar' is het zeker niet. Ook hangt het er vanaf hoe het systeem getrained is. Vaak starten ze met goed weer en gaan dan pas hun model trainen voor slecht weer, ook is daar minder trainingsdata van.
Echter hoop ik toch dat ze zich ook realiseren dat Vision-only niet de toekomst is.
En dat zeg je met welke kennis? Alsof ze dat besef niet zouden hebben. Alsof ze niet voor het 'beste' zouden kiezen als dat er is.

Ik denk dat niet iedereen begrijpt wat er gaande is. Als je nu Lidar gebruikt heb je nog altijd vision nodig. Lidar gebruiken is nu nog duurder maar je zet dev teams snel op weg om 3D beelden te krijgen. Die zelfde info uit vision halen kan ook maar is moeilijker. De grote uitdaging is effectief Vision omdat de wereld rondom ons gemaakt is voor vision. Verkeersborden, wegmarkeringen, een persoon die je doorlaat met een zwaai etc zijn enkel en alleen op te merken met camera's. Ook de staat van de weg, detecteren van ijs of het verschil zien tussen een plastieken zak, kartonnen doos of een rotsblok gata niet met Lidar of Radar.

Het zou dus best kunnen dat Tesla zijn voldoende diepteinfo uit camerabeelden kan halen zonder nood voor een 2de soort sensor.
Check de post The Overlooked Engineering Reality of the LiDAR Debate van de ex-Rivian Tech Team Founder over de complexiteit vanuit developer perspectief.

TL;DR De moeizame afstemming tussen de diverse sensor dev teams tijdens testing en integration. En hoe om te gaan met produktie failures: welk team moet het asap fixen. En dat LiDAR data vaak door 3rd party vendor niet RAW wordt aangeleverd.

[Reactie gewijzigd door pdidi op 28 juli 2025 10:23]

Dat lijkt mij niet echt ter zake doen voor de vraag of camera's alleen een adequaat systeem oplevert.
Hoe meer verschillende sensoren, hoe complexer qua development. Dat zal altijd zo blijven. Met een steeds krachtiger wordend end-to-end NN zullen camera's only een steeds adequater systeem opleveren. We zijn nog niet op SAE Level 5, maar ik denk dat FSD Unsupervised al laat zien hoe snel de ontwikkeling gaat. En dat is nog met hardware wat alweer meer dan 2 jaar oud is.
... volgens de Tesla-propaganda ja. Dat is niet de algemene visie binnen de wereld van autonome voertuigen. Op dit moment doet het enige toegestane systeem op de openbare weg, Mercedes Drive Pilot, dat met een Lidar. Complexiteit is iets waar ingenieurs mee om kunnen gaan.
Ik weet niet of je de post hebt gelezen, maar het is niet zozeer een ingenieurs probleem. Het is een proces probleem waarbij de beschermende proprietaire rol die LiDAR bedrijven spelen de boel nog moeilijker maken. En nee, de poster werkte niet bij Tesla maar Rivian

[Reactie gewijzigd door pdidi op 28 juli 2025 13:13]

Dat is een ranzig slecht argument, vind je niet? Een apparaat is technisch van grote waarde, maar we gaan het niet gebruiken omdat we niet goed met de fabrikant overweg kunnen... |:(

Tesla kon niet goed met de processorfabrikanten overweg... wat deden ze... een eigen processor.

Volgens mij is de meerderheid van de spelers op dit gebied van mening dat Lidar zinnig is, kennelijk kunnen ze met de Lidar-bedrijven overweg.
Xpeng heeft inmiddels dezelfde overweging gemaakt en LiDAR overboord gezet. Enig idee waarom de Volvo ex90 zoveel vertraging had opgelopen qua levering? Ik snap jouw standpunt wel, maar die is vooral gedreven door conventioneel denken waarin al heel lang heel veel geld is gestoken. Het is voor bedrijven dan heel moeilijk om daar dan nog op terug te komen. De wereld is echter volledig veranderd sinds Waymo/Google begon met autonomous driving

[Reactie gewijzigd door pdidi op 28 juli 2025 13:51]

Wat ik er van lees, niet omdat die Lidar niet werkt, omdat Volvo het gedrag probeert te perfectioneren, iets waar Tesla al meer dan 10 jaar niet lukt, dus wat dat betreft is dat denk ik geen argument voor of tegen. Autonoom rijden blijft een enorm complex iets, met of zonder Lidar.

Ik denk dat de wereld helemaal niet volledig veranderd is: Wat veranderd is zwaardere processoren, grotere neurale netwerken en meer data. Er is niet zoveel veranderd wat betreft fundamentele vooruitgang.

Een mens die een bal op de weg ziet, weet dat er een kind in de buurt is en hoeft daar niet op getraind te worden. Een KI zal die bal alleen herkennen met trainingsdata en moet daarna geprogrammeerd worden om daarop te handelen. De KI moet een driedimentionaal beeld rond de auto reconstrueren uit tweedimensionale plaatjes, een Lidar weet het zeker. Dat is fundamenteel minder risico op fouten, hoe intelligent je je KI ook maakt.
Bewaar je post goed en lees deze over 2 jaar maar terug
Laat ik een voorspelling maken voor de komende 2 jaar:
  • Mercedes verhoogt de max. snelheid waarop hun Drive Pilot werkt verder, mogelijk al in 2026, tot 120km/u of hoger
  • Tesla krijgt in de V.S. toestemming om FSD breder beschikbaar te maken, maar heeft over 2 jaar nog steeds geen algehele toestemming.
  • FSD is over 2 jaar in Europa nog steeds niet toegestaan.
  • Een klein aantal van de andere spelers, ik verwacht max. 2, zal ook toestemming krijgen voor de openbare weg.
... en ja, hier wil ik over 2 jaar wel op terug kijken.
Ik neem aan dat je FSD Unsupervised bedoeld, wat op alle wegtypen, weersomstandigheden en 's nachts dan gebruikt kan worden zonder bestuurder input/verantwoordelijkheid? Dat denk ik ook in VS, maar nog niet in EU (eerst later dit jaar maar FSD Supervised goedgekeurd krijgen door RDW). En dat Mercedes Drive Pilot over 2 jaar alleen geofenced op snelwegen 120km/u mag, bij daglicht zonder regen? Dat denk ik ook
L3-certificering daarvan. Dus de bestuurder heeft zijn handen van het stuur, let niet op de weg, maar moet wel de besturing kunnen overnemen als de auto daarom vraagt.
De half bakken L3 certificering waarbij je als bestuurder alsnog verantwoordelijk kunt blijven (zoals bij Mercedes als je niet binnen 10 seconden het stuur hebt overgenomen terwijl je lekker een dutje ligt te doen) zal door Tesla worden overgeslagen. Er zal meteen voor Level 4 worden gegaan. Niet voor niks dat de CyberCab al geen stuur meer heeft

[Reactie gewijzigd door pdidi op 28 juli 2025 19:25]

Leuk, maar voor L4 liggen de eisen nog veel hoger. Waymo wil inderdaad L3 overslaan, had ik van Tesla nog niet gehoord. In ieder geval is Tesla nog vele jaren verwijderd van L4-certificatie.
De Supervisor die nu nog in de Robotaxi aan de passagierkant zit kan al nauwelijks ingrijpen. Zodra deze persoon over een paar maanden niet meer nodig is, wordt er feitelijk al op L4 gereden
Jaja, illegaal. Misschien dat Musk met zijn politieke invloed kan omkopen, maar als de regels gevolgd worden, no way.
Niet alles geloven wat op bright staat. In Texas gelden andere regels. https://www.austintexas.gov/department/autonomous-vehicles
Dat is pure wetgeving en het feit dat ze niet ver genoeg staan met vision only. Lidar is niet slecht maar nu nog duur. Lidar heeft camera’s nodig om level 4 te bereiken. Dus vision is en blijft koning. Lidar kan een extra laag toevoegen maar lidar only rijden is niet mogelijk.

Vision evolueert ook net zoals lidar dat doet. Het is aannemelijk dat er Lidar ooit zo goedkoop wordt dat het standaard in elke auto zit. Net zoals vision en radar.
Dat is niet de algemene visie binnen de wereld van autonome voertuigen.
Eigenlijk wel. Zoals ik al zei, geen level 4 of 5 zonder vision. Lidar is blind voor verkeersborden, handgebaren, wegmarkeringen, verkeerslichten. Lidar kan net zoals vision niet door mist zien en heeft ook wat last van sneeuw en regen.

Lidar bestaat omdat het direct een 3D map kan genereren. Vision kan dat ook maar niet by design. Tesla doet dat wel. Ze zijn dus 100% vision en indien de 0,01% zich voordoet kunnen ze zich mss beroepen op (tegen dan goedkope) Lidar om toch nog een beeld te vormen indien de camera’s falen.

Maar dat is een grote ‘if’ het kan ook zij dat ze een camera ontwerpen die wel perfect tegen de zon kan zien. Regen en sneeuw zijn dan eerder een Lidar ding. Lidar = laser en lasers geven foutjes bij regen en sneeuwval. Dus bij zwaar weer heb je geenenkel voordeel met lidar.
De wetgeving is voor allen gelijk: Nergens zegt de wet dat lidar nodig is. Dus als jij met camera's alleen kan aantonen dat jouw systeem goed genoeg is, mag je daarmee de weg op. Als ik het zo lees (ben ook nog aan het leren) wordt door autoriteiten bekeken of het voertuig voldoet aan UN-R157. Een standaard van de Verenigde Naties, zien we niet vaak. Mercedes is de enige speler tot nog toe die daarvoor geslaagd is en deed dat met een lidar.

Niemand beweert dat je uitsluitend op lidars kan rijden, er is geen enkele speler die erover denkt om de camera's te verwijderen. Ik denk dat het wel onmogelijk is om met alleen visuele informatie een 3D-representatie van de omgeving te bouwen, maar dat is niet noodzakelijk, het is voldoende te weten welke andere bewegende objecten zich om de auto bevinden. Dat is dan ook wat Tesla probeert.

Zo'n 3D-represenatie op basis van beelden bouwen vereist enorme inzet van kunstmatige intelligentie en risico op interpretatiefouten, een kans die met lidar kleiner is.

Foutjes bij regen en sneeuwal betekenen niet dat lidar bij die weersomstandigheden onbruikbaar is, dat is pas het geval als die foutjes leiden tot verkeerde interpretaties. Slechte weersomstandigheden worden juist genoemd als situaties wanneer lidar een duidelijke meerwaarde biedt.
Maar lidar werkt ook niet in de mist en regen omdat de laserstralen dan wordt versplintert.
Lidar en vision zijn daar gelijk.in het begin was dat idd zo. Lidar werkte niet bij regen of mist. Maar nu kunnen ze die regenerrors negeren. Er zijn altijd wel laserstralen die terugkomen. De performantie is dan gedegradeerd.

Het klopt idd niet dat lidar beter werkt bij mist of regen tegenover camera’s.
Voor parkeren denk ik dat de sensoren wel beter zijn, vind dan ook jammer dat ze die weggehaald hebben bij de nieuwe tesla's. Ben eigenlijk best wel tevreden over hoe goed die kan inschatten waar de auto's zijn als het regent. De auto gaat pas langzamer rijden als ik ook denk van goh moet toch wat langzamer gaan rijden want ik zie echt helemaal niks meer.

Wind wel dat de navigate on autopilot het snel begeeft in de regen. Als het maar een beetje regent dan stopt die er al snel mee. En de laatste tijd gaat die soms geen eens aan :/
Wat niemand schijnt te weten is dat de radar systemen het ook slechter doen als het regent. ook slechter presenteren als ze vuil zijn.
De autonome strategie van Tesla met alleen camera's is controversieel, maar de vooruitgang die ze afgelopen jaar geboekt hebben is indrukwekkend. Het maakt nog teveel fouten om echt zonder toezicht te kunnen rijden, maar het lijkt erop dat ze het limiet van de huidige chips (AI4) nog niet bereikt hebben. Ze gaan dit jaar nog een nieuw AI model uitbrengen met 4x meer parameters dan het huidige model, op dezelfde hardware. Ik ben benieuwd wat ze uit de volgende iteratie (AI5) kunnen halen. AI6 zal nog wel lang duren voordat ze dit daadwerkelijk gaan inzetten. In ieder geval iets om naar uit te kijken, hoe je ook naar Elon/Tesla kijkt.
De autonome strategie van Tesla met alleen camera's is controversieel, maar de vooruitgang die ze afgelopen jaar geboekt hebben is indrukwekkend.
Gewoon omdat ik dit een interessante discussie vind:
Als je iemand met een blinddoek achter het stuur zet en hij weet 9 van de tien keer zonder ongelukken van het centrum van Amsterdam naar het centrum van Utrecht te rijden, dan is dat ook indrukwekkend. En een slecht idee. Als de concurrentie met radar en lidar een veel veiligere autonome auto kan maken dan is het weinig relevant of Tesla met hun zelfopgelegde beperkingen goede prestaties boekt, ze zullen de wedstrijd verliezen.

Ik kan met veel regen of laagstaande zon slecht rijden door beperkt zicht. Ik wil geen auto die net zo goed kan rijden dan ik, ik wil dat een auto het beter doet dan ik.
Ik kan met veel regen of laagstaande zon slecht rijden door beperkt zicht. Ik wil geen auto die net zo goed kan rijden dan ik, ik wil dat een auto het beter doet dan ik.
Hier kan ik mij goed in vinden. Een systeem wat redelijk goed werkt met mooi weer, is handig, maar om dan met slecht weersomstandigheden het compleet aan de bestuurder overlaten is jammer. Juist dan zijn goed werkende hulpsystemen nodig en komen ze goed van pas.
Als de concurrentie met radar en lidar een veel veiligere autonome auto kan maken dan is het weinig relevant of Tesla met hun zelfopgelegde beperkingen goede prestaties boekt,
En wat nu als blijkt dat Tesla een veiligere autonome auto kan maar met alleen vision? Ik heb geen statistieken dus geen weet niet welk systeem vandaag de dag het beste is.

Uiteindelijk is het belangrijkste dat het systeem veilig is en minder ongelukken maakt dan menselijke bestuurders. Of dit nu met alleen vision is of met radar en lidar...
Ik begrijp niet goed waar je naartoe wil. Natuurlijk wil ik dat de auto het beter doet als ik. Maar de 'concurentie' doet het slechter. Ik tel nu even taxibedrijven die autonoom rijden niet meer omdat Tesla nog geen taxidienst heeft maar ik heb het over de autopilot die in uw auto zit. Er is geen enkel merk dat dichtbij Tesla komt. En dan heb ik het over de Dull Self-Driving (Supervised) v13.2.9 in de VS niet de dichtgeknepen Europese versie.
met hun zelfopgelegde beperkingen
Die beperking heeft hun een voorsprong gegeven. Hoeveel auto's zie jij met Lidar rijden? Geen enkele. En dat is omdat Lidar niet schaalbaar is op dit moment. het werkt nu enkel als je uw auto volledig laat opbouwen. Tesla loopt dus jaren voor. En als blijkt dat ze ooit voor €100 een Lidar kunne inbouwen dan zullen ze dat doen. Besef dat ook Lidar nood heeft aan camera's om beelden te interpreren.

Dus de kans dat Lidar + Camera de komende 10 jaar de markt gaat veroveren is eerder klein. De kans dat camera only de mart zal veroveren is eerder groot.
Jij vergelijkt iets wat er nog niet is. FSD word nu nog alleen getest door een selecte groep mensen en daar doet die het goed. Wat er nu wordt verkocht is geen FSD dat is gewoon nog een begin versie en ja die is nog niet goed.


En ik heb meerdere Tesla's met beide het volledige pakket erop gekocht, dus weet waar ik over praat. Maar kijk de FSD test video's maar eens dan zie je het verschil.
FSD (wel supervised) wordt al door 100den zo niet duizenden mensen gebruikt in de US. Daarnaast draaien de robotaxis in Austin ermee. Dus aangeven dat het alleen door een selecte groep wordt gebruikt is niet juist, die groep is al behoorlijk groot.

In NL (en heel EU) heb je nog niets aan het pakket, dus wat dat betreft kunnen wij aan deze kant van de plas nog niet de potentie van FSD zien/ervaren.
Zolang jij denkt dat die waarheid is dan succes. Dit is namelijk niet het geval, er is namelijk maar een kleine groep.die FSD test.
Noem me dan een autofabrikant die met lidar een auto verkoopt die in de stad kan rijden. Dus een auto die je kan kopen als gewone mens. Geen. En daar ligt uw antwoord.

Elk bedrijf dat Lidar gebruikt zet vol in op vision. Dat is het sluitstuk van autonoom rijden. Niet lidar aan zich. Lidar is ‘maar’ een 3D puntenwolk. Het lees geen wegmarkeringen of handgebaren. Het ziet niet of kartonnen doos een betonblok is of niet.

Ik sluit niet uit dat tesla Lidar in elke auto zal integeren als het goedkoper wordt. Maar nu zie je die tech enkel en alleen bij hele dure proefprojecten of autonome (en niet vrij te kopen) taxi’s in bepaalde afgebakende gebieden in de VS.
Sorry maar was deze vraag voor mij? Vanwaar deze vraag aan mij? Ik heb het niet eens over eventueel lidar of iets, dus snap jouw vraagstuk aan mij niet helemaal.
Zolang jij denkt dat die waarheid is dan succes.
Over wat gaat dit dan? Toch over het gebrek aan Lidar? Of ben ik mis?
Niet in onze discussie! Daar gaat het over wel of niet Full self drive groot wordt gebruikt of klein getest wordt.


Misschien eerst lezen voor je zomaar uit het niets op mij reageert.
Kleine groep is natuurlijk vrij voor interpretatie,

"roughly 400,000 Tesla owners in the U.S. use FSD"

https://www.barrons.com/articles/tesla-stock-price-tsla-fsd-1148ec6b#:~:text=roughly%20400%2C000%20Tesla%20owners%20in%20the%20U.S.%20use%20FSD

400 000 vind ik zelf niet zo select. Het gaat over heel wat km per dag die er bij komen.

Een beetje beginnen over die waarheid en iemand anders afschilderen als een combi zonder zelf met feiten te komen is natuurlijk niet zo fraai.


Verder is deze bron zelfs van een jaar geleden dus ik denk dat het nog een stuk meer zijn.

[Reactie gewijzigd door PaulHelper op 29 juli 2025 04:18]

Nou dat is het hem juist, dit is juist niet geval, Tesla zelf heeft geen cijfers vrij gegeven en dit is nog steeds "FSD" supervised and niet de FSD, FSD wordt namelijk nu pas getest onder het selecte groep die ik noemde.

Tesla is op hun vingers getikt omdat ze het vanaf het begin al FSD noemde terwijl dit totaal niet zo is en genoemd kan worden omdat er helemaal niets zelf gedaan wordt, en in de bèta test groep wel.


Maar goed roep maar wat jullie willen, I don't care, ik weet hoe het zit en als mensen dit niet willen aannemen so be it.
Wat is er tegen op camera's en lidar?

Het zal wat meer kosten, op de kosten van een auto bouwen zijn het enkele procenten.

Onbegrijpelijk dat Tesla geen gebruikt maakt van lidar.

Musk predicted that LiDAR-based systems will make cars “expensive, ugly and unnecessary,” adding: “I think they will find themselves at a competitive disadvantage.” The truth is that size, weight, power, and cost are decreasing for vehicle navigation grade LiDAR. And they will fall further.

O wacht Elon Musk vindt het lelijk,onnodig en te duur.
De nadelen van Lidar worden nooit benoemd, zoals meerdere lidarsystemen die elkaar storen, de camera van je telefoon slopen als je toevallig er op gericht hebt (en dan dus feitelijk ook invloed hebben op andere camera's zoals die van andere auto's. En werken ook niet fatsoenlijk in regen of als er veel glas is.
En mensen rijden toch ook in doorsnee met maar 2 camera's in hun kop (sommigen zelfs maar met 1), en die camera's letten niet continue op.
Enkele procenten? Waar heb je dit vandaan. Volgens mij kosten lidar systemen nog steeds in de ordegrootte van 10 000 euro per unit. Stel je wil 4 units per auto gaat dat over 40 000. Voor nu ga ik ervan uit dat 1 vooraan genoeg is. Wat ongeveer 25% is van de Tesla model 3. Een paar procent denk ik meer an 1-5. Maargoed met 25% duurdere autos heb je wel een andere markt en denk ik dat de keuze voor Tesla minder makkelijk zou zijn.

[Reactie gewijzigd door PaulHelper op 29 juli 2025 04:22]

Gaat dit dan om inhouse design 'ai asics'?
Dat zijn de vorige versies van de FSD computer ook dus ga er van uit dat deze dat ook is.
Let wel, er zit nog een extra restrictie op het contract met Samsung, dat Musk zelf ook mee mag kijken met de productie en eventuele productielijn verbeteringen/optimalisatues kan aandragen/laten doorvoeren.
De opening van de fabriek was anders uitgesteld omdat Samsung moeite had met afnemers te vinden, en nu is Tesla dan dus zo goed als de exclusieve afnemer van die Texas fabriek.
Maken is bij chips nogal ambigue..gaan ze alleen produceren of ook designen?
Ik denk dat die divisie van Intel dit graag had willen doen. Want die hadden net een grote klant nodig.

[Reactie gewijzigd door Xfade op 28 juli 2025 17:47]

Mag die naam “A16” voor een chip eigenlijk wel? Doet me namelijk nogal denken aan Apples A-chips.
A16? Er staat AI6 (ai6). ;)
O, dan zal het aan mijn lettertype liggen. :P

Op dit item kan niet meer gereageerd worden.