Toyota wil zelfrijdende auto's ontwikkelen met camera's in plaats van lidar

Toyota's Woven Planet-divisie werkt aan het ontwikkelen van een systeem voor autonome auto's zonder dure sensoren, zoals lidar. In plaats daarvan moet de techniek gebruikmaken van camera's, zoals ook Tesla dat doet.

Woven Planet, een dochteronderneming van Toyota die nieuwe technologie ontwikkelt, vertelt aan persbureau Reuters dat het relatief goedkope camera's kan gebruiken om data te verzamelen over zaken als verkeerssituaties. Die data kan vervolgens ingezet worden om een systeem voor autonoom rijden te ontwikkelen. Het bedrijf zegt dat dergelijke data cruciaal is voor het ontwikkelen van dergelijke systemen, maar dat het te duur en niet schaalbaar is om data te vergaren met een vloot auto's met duurdere lidarsensoren.

Het bedrijf claimt dat het nieuwe systeem met camera's tot 90 procent goedkoper is dan de sensoren die het eerder gebruikte en zegt daarbij dat het relatief gemakkelijk geïnstalleerd kan worden in grote hoeveelheden personenauto's.

Tesla hanteert een soortgelijke werkwijze, waarbij het bedrijf data verzamelt op basis van camerabeelden van Tesla-voertuigen. De Full Self-Driving-optie van Tesla wordt momenteel al aangeboden in abonnementsvorm, maar zit nog in een bètafase. Topman Elon Musk zei dat Tesla dit jaar nog volledig autonoom rijden met camera's kan bereiken. Het bedrijf heeft eerder echter deadlines daarvoor gemist die door Musk werden voorspeld.

De Toyota-divisie geeft wel aan dat ze voorlopig nog wel zelfrijdende auto's zal uitbrengen met lidar- en andere sensoren, aangezien dat volgens het bedrijf vooralsnog de beste en veiligste manier is om robottaxi's en andere zelfrijdende auto's in te zetten op de weg. Woven Planet geeft daarbij aan dat autonome systemen op basis van camera's op de langere termijn een inhaalslag kunnen maken, maar zegt daarbij dat het niet weet hoelang dat zou duren.

Door Daan van Monsjou

Nieuwsredacteur

07-04-2022 • 16:30

153

Lees meer

Reacties (153)

Sorteer op:

Weergave:

Waarom een keuze maken tussen 2 technieken die elkaar misschien ontzettend goed kunnen aanvullen?

Sure kosten zijn een ding, maar er zullen genoeg mensen zijn die bereid zijn te betalen voor een extra stukje veiligheid.
Helemaal in de Tesla markt is €2000-3000 verschil maar een klein bedrag op de gehele aankoop.

Ik vermoed dat een combinatie tussen deze 2 technieken veel kunnen opleveren op het gebied van veiligheid.

Ps dit betreft een aanname, ik heb zelf weinig kennis in dit gebied.
Tesla's AI chef geeft aan dat die verschillende systemen soms tegenstrijdige informatie opleveren op basis waarvan je dan niet kunt bepalen welke de juiste is. Soms is simpel beter. Zie https://venturebeat.com/2...ing-cars-dont-need-lidar/
daarnaast was de redenatie van Tesla ook, mensen beoordelen het verkeer voornamelijk ook op zicht, dus vandaar dat men ook camera's verkiest.
Maar er zijn vele situaties waarin je het beeld verkeerd inschat. 1 van de eerste dodelijke ongelukken met Tesla's systeem kwam net doordat het systeem de voorkeur gaf aan de camera ipv de LIDAR. Die laatste had wel gezien dat er een vrachtwagen dwars over de weg stond, maar de camera werd verblind door de laagstaande zon die onder de last door kon schijnen.
Lidar heeft nooit in een Tesla gezeten. Dus dit lijkt me uit maar iets dat je uit je duim hebt gezogen.
Bron: https://venturebeat.com/2...ing-cars-dont-need-lidar/
Previously, the company’s cars used a combination of radar and cameras for self-driving. But it has recently started shipping cars without radars.

“We deleted the radar and are driving on vision alone in these cars,” Karpathy said, adding that the reason is that Tesla’s deep learning system has reached the point where it is a hundred times better than the radar, and now the radar is starting to hold things back and is “starting to contribute noise.”
Dus?
Zoek eerst maar eens een wikipedia artikel met het verschil tussen camera's, lidar en radar.
Mijn excuses, u hebt gelijk. _/-\o_
Uit dat zelfde artikel.
Tesla does not use lidars and high-definition maps in its self-driving stack. “Everything that happens, happens for the first time, in the car, based on the videos from the eight cameras that surround the car,” Karpathy said.
Radar is iets anders dan lidar.
Er zijn helemaal geen "vele" situaties waarin het beeld verkeerd werd ingeschat. Ja, er zijn ongelukken gebeurd doordat de auto een situatie verkeerd interpreteerde, maar op het totaal aantal kilometers dat met Autopilot is gereden is dat aantal ongelukken verwaarloosbaar. Mensen veroorzaken nog altijd meer ongelukken per gereden kilometer.
Dat ene ongeluk dat jij nu noemt kwam vet in het nieuws omdat het zo vreselijk spectaculair was. Exact hetzelfde type ongeluk vindt vaker plaats als gevolg van menselijk falen. Het zou veel beter zijn als we die ongelukken zouden gebruiken om de huidige AI achter het stuur van de meeste auto's (de mens....) als probleem zouden aanwijzen.
Ik zou graag willen dat autonome auto's significant beter zijn dan menselijke bestuurders. Dat is niet alleen nodig voor de adoptie van autonome auto's. Het is ook een mooie gelegenheid om het verkeer weer een stuk veiliger te maken voor iedereen.

In Nederland sterven er elk jaar ongeveer 600 mensen in het verkeer. (bron)
Zou mooi zijn als dat cijfer flink omlaag gaat doordat autonome auto's veiliger blijken te zijn dan menselijke bestuurders.
Op termijn is dat zeker haalbaar. Met een paar relatief simpele ingrepen op de wegen kan je autonoom rijden al een stuk eenvoudiger maken. Als je vanaf nu bij nieuwe wegen direct begint met een opstaand randje tussen fietsstrook en rijbaan wordt het al heel makkelijk om veilig autonoom te rijden. En zo zijn er nog veel meer dingen te bedenken die het veiliger maken. Zo'n randje maakt het overigens ook direct veiliger voor niet-autonoom rijdend verkeer.
Dat randje maakt een auto en een fiets gelijk onbestuurbaar bij een aanraking.
Fiets maar eens zijwaarts net tegen zo'n randje aan, lig je met je hoofd op de rijbaan..
Lekker een opstaand randje, vooral als je uit moet wijken is dat een goed idee. Misschien moeten we onze wereld niet in willen richten als een rubber tegel maatschappij en accepteren dat dood een onderdeel is van het leven. Hoe cru ook.
Dat vind ik zo'n rare conclusie? Dan hadden we net zo goed kunnen stoppen voordat kreukelzones en veiligheidsgordels uitgevonden waren. En ja, ook die letterlijke rubberen tegels op speelplaatsen hebben veel leed voorkomen. Tuurlijk is er een grens waarbij de moeite/investering niet meer opweegt tegen de mogelijke reductie in slachtoffers maar waarom trek je die grens specifiek nu?
Ik trek die grens niet specifiek nu. Ik had de grens al getrokken voor veiligheidsgordels en kreukelzones.
Wacht heel even...
Een menselijke oog verwerkt informatie compleet anders dan een camera.
Zo'n vergelijking komt bij mij over als de benzinetank vergelijken met de maag van een koe.
Een camera verwerkt sowieso geen informatie. Dat doet de software er achter. En die kan je best zo maken dat het de relevante zaken voor autonoom rijden herkent zoals een mens dat doet. Mensen kunnen nog veel meer informatie verwerken maar veel daarvan is niet nodig voor autorijden. Sterker nog, het is vaak de oorzaak van ongevallen. Een autonoomrijdende auto kan je zo ontwerpen dat die niet wordt afgeleid door een paar lange benen onder een minirokje bijvoorbeeld.
"autonoomrijdende auto kan je zo ontwerpen dat die niet wordt afgeleid door een paar lange benen onder een minirokje bijvoorbeeld". Volgens mij moet je zelfs extra ontwerptijd reserveren om de autonome auto duidelijjk te maken dat hij even niet naar de rest van de weg moet kijken.
Het mooie van de huidige ontwikkelingen is dat de AI op dit moment getraind wordt om precies dat te doen. De sensoren van een autonome auto zien alles (in tegenstelling tot een mens) en als je de AI maar voldoende traint en voorziet van rekenkracht, dan leert die uiteindelijk om de relevante informatie eruit te vissen. Het verschil tussen een autonome auto en een mens is dat een autonome auto dus kan putten uit heel veel meer informatie en dus ook minder risico loopt iets te missen.
Een menselijke oog verwerkt informatie compleet anders dan een camera
Wat is het verschil dan? En hoe/waar is dat van belang?
Er zijn iets te veel details om op in te zoomen (ha! pun intended) dus ik verwijs je naar Wikipedia ;)
Het punt is dat de vergelijking scheef is.

https://en.wikipedia.org/wiki/Eye
https://en.wikipedia.org/wiki/Camera
Ik ging er van uit dat je dat zelf al had gedaan, want je conclusie was dat die twee niet te vergelijken zijn ("compleet anders").
Maar goed, ik kan het niet laten en lees het eerste Wikipedia-artikel over het oog en wat staat er in de eerste alinea?
Eyes detect light and convert it into electro-chemical impulses in neurons. In higher organisms, the eye is a complex optical system which collects light from the surrounding environment, regulates its intensity through a diaphragm, focuses it through an adjustable assembly of lenses to form an image, converts this image into a set of electrical signals, and transmits these signals to the brain through complex neural pathways that connect the eye via the optic nerve to the visual cortex and other areas of the brain
Hoe is dat anders dan bij een camera-sensor?
En belangrijker nog: gegeven het feit dat beide systemen een stroom aan data opleveren die door een "brein" verwerkt moeten worden, hoe verschillen beide systemen dan vanuit het gezichtspunt (hah!) van dat brein?
Ik laat de hersens er buiten gezien dat het alleen maar meer verschillen introduceert en het is ook geen onderdeel van de claim.

Een camera-sensor zit een analoog signaal (kleur is een golflengte) om in een digitaal signaal (binair). Maar veel belangrijker, onze ogen werken niet met pixels (en al helemaal niet in een Bayer arrangement grid). Het zou wat anders zijn als de camera's werkte met een chemisch proces (zoals foto rolletjes), maar ik denk niet dat de camera's in auto's daarmee werken :+

Wat betreft de hoe-vraag: Mijn argument is niet dat camera's het menselijk oog kunnen vervangen. Wel dat de techniek anders is en dat die uitspraak op zichzelf onjuist is.
Ook ogen werken met pixels, ons netvlies bestaat uit individuele kegeltjes en staafjes. Hoe een signaal vervolgens wordt gecodeerd is niet van belang, waarschijnlijk wordt ook de informatie uit ons netvlies gecodeerd, gecomprimeerd en zelfs misschien al voorbewerkt voordat het bij het brein aankomt. Doet er allemaal niet zoveel toe: ja, ze zijn verschillend, maar dat is voor het verhaal rond het gebruik van camera's voor autonome auto's totaal niet relevant.
Aan de andere kant zijn mensen notoir slecht in het verkeer beoordelen op zicht. Sommige dieren hebben andere sensoren (al zijn dat meestal geen verkeersdeelnemers).
De mens gebruikt ook zijn evenwichtssensoren en bezit ook over een rudimentair inertieel navigatiesysteem. Een mens is niet notoir slecht in het verkeer beoordelen op zicht. Een mens is notoir slecht in het continu in het oog houden van iets saai.
20000 doden per jaar alleen al in de EU duiden er toch op dat goed verkeerssituaties inschatten niet tot de kerncompetenties van mensen kan worden gerekend (en dan doet de EU het nog zo'n 4 a 5 keer beter dan het gemiddelde van de hele wereld). Ieder ander systeem dat voor zoveel doden zou zorgen zou per direct worden verboden.
Misschien moet je die 20000 afzetten tegen de enorme hoeveelheid verplaatsingen in het verkeer op dagelijkse basis.

De mens is er juist heel goed in.

20000 op zichzelf is een nietszeggend getal.
Dat is helemaal waar, absolute aantallen worden voornamelijk gebruikt om argumenten kracht bij te zetten, waarbij wordt aangenomen dat de gesprekspartner die getallen niet relatief kan "plaatsen".
Dat gezegd hebbende: vrijwel alle ongelukken die met auto's gebeuren zijn te wijten aan menselijk falen. Dat kan betekenen dat hoe meer functionaliteit je uit handen van de mens haalt, hoe veiliger het wordt.
Dat is waar.

Maar hoeveel ongelukken worden er nu voorkomen door de mens vanwege falende automatsering? Nu heb je nog mensen achter het stuur die ingrijpen als de automatsering domme dingen doet. En dat komt vaak voor: mijn auto probeert met enige regelmaat een lijntje te volgen die zeker niet gevolg moet worden. Denk aan de lijnen van afritten die dwars door spitsstroken lopen. En ik weet dat dit een issue is dat bij veel merken voorkomt.

Mijn vermoeden is dat de automatsering momenteel heel vaak gecorrigeerd wordt door de bestuurder en dat auto's met een sterke mate van automatsering simpelweg veiliger zijn door het combineren voor 'best of both worlds'.
Ik denk dat je niet in de gaten hebt dat die automatisering al decennia lang in auto's wordt ingebouwd en dat die ook al heel veel ongelukken heeft voorkomen. ABS is een voorbeeld. ESP een andere. Brake Assist in de duurdere modellen (waarmee de reactietijd wordt bekort). Als je het heel strikt bekijkt zijn zelfs koplampen en remlichten systemen die de tekortkomingen van de mens moeten opvangen.
Hehe, volgens mij gaat dit artikel meer over rijhulpsystemen die actief helpen met sturen en remmen. Systemen die dus echt beslissingen nemen.

ABS, ESP en de andere systemen die je noemt zijn geen systemen die beslissingen nemen.
Daar kun je een aardige boom over opzetten, maar waar het mij om ging is dat ook bij de introductie van ABS (ik kan me dat nog goed herinneren) discussies ontstonden van mensen die al die systemen maar kwalijk vonden. Ze kwamen ook toen met voorbeelden waarbij ABS niet goed werkte, misschien zelfs ongelukken veroorzaakte. Ze stelden dat ABS systemen konden falen (want extra onderdelen die stuk kunnen gaan), dat ABS systemen voor luie automobilisten zouden zorgen. Kortom: weinig geloof in het eindresultaat: minder ongelukken, minder doden. Je ziet exact, maar dan ook exact hetzelfde gebeuren rond FSD-systemen. En ik denk dat het eindresultaat exact hetzelfde zal zijn: over tien, twintig jaar willen we niet meer terug.
Ja en nee. Een computer/AI kan heel slecht menselijk handelen inschatten. Ze kunnen prima andere auto's inschatten, maar voetgangers en fietsers vinden ze erg lastig. En als ze het kunnen, dan kunnen ze het ms wel veilig, maar zeker niet efficiënt zoals de mens wel kan. Dan sta je straks uren te wachten op verkeerssituaties die lijken op deze
Hier mogen volgens mij geen auto's komen, maar het illustreert het concept volgens mij heel goed, wat een mens heel goed kan (chaos) en een computer/algoritme/AI, niet. Die werken o.b.v. regels, regels impliceren orde.

Dus mijn stelling is; hoe chaotischer de situatie, hoe beter een mens het af kan handelen. En vice versa, hoe meer structuur, hoe makkelijker te automatiseren.
Opletten is moeilijk voor een mens, zeker wanneer het iets monotoon is.
Er is een reden waarom er campagnes gemaakt worden tegen telefoneren achter het stuur, tegen dronken achter het stuur kruipen etc...

De capaciteiten van een mens in het verkeer zijn best impressionant om eerlijk te zijn. Wil niet zeggen dat mensen die capaciteiten altijd inzetten...
In oorlog gebeurde voorheen ook alles op zicht, je ziet hoeveel toegevoegde waarde IR, nachtkijkers en radar gestuurde projectielen hebben.
Ze kunnen een spectrum zien wat wij als mensen niet kunnen zien. Waarom zou je je dan beperken tot alleen zicht?
Bovendien heeft een mens 'situational awareness' en kan het daardoor al beslissingen nemen voordat ze geregistreerd zijn door zicht.
Maar als je conflicterende data krijgt, is het dan niet belangrijker om te leren waar het conflict vandaan komt en daar een oplossing voor te zoeken in plaats van voor de eenvoudige oplossing te kiezen waarbij je het conflict uit de weg gaat maar dus mogelijks sneller de foute keuze maakt?
Dat conflict is misschien wel systematisch, het gevolg van de verschillende technieken waarmee data wordt verzameld. Ik vermoed dat de slimmerikken bij Tesla en Toyota lang nagedacht hebben en een oplossingsrichting hebben gekozen die in hun ogen de meeste kans op succes biedt. Kosten zullen meespelen, maar je maakt zo'n ingrijpende beslissing niet alleen op basis van kosten.
Ik denk zelf dat het gebruiken van camera's veel en veel meer flexibiliteit biedt. Je kunt camera's bijplaatsen en daardoor meer informatie krijgen. Je kunt camera's bijplaatsen die op andere golflengtes opereren. Je kunt profiteren van de enorme hoeveelheid mensen die werken aan beeldherkenning. En dat allemaal met relatief goedkope hardware die ook nog eens verbetert terwijl je staat toe te kijken. Ik snap het wel.
Tegenstrijdige informatie. Een van de twee is dus foutief en je weet niet welke. De Tesla oplossing: gooi één bron weg en doe net of de foutieve informatie wel ok is en laat de rest aan de bestuurder over.
Dan snap je gelijk waarom Full Self Driving nog steeds niet full self driving is.
Waarom 2 systemen verder uitwerken tot ze beide (bijna) 100% betrouwbaar zijn? Want tot zo lang blijf je conflicten hebben. Dus het zal sneller, goedkoper en efficiënter zijn om te focussen op 1 systeem.
Denkt Tesla.
Mar inmiddels heeft Elon Musk zijn mooie beloftes in de koelkast gelegd.
En ze komen er voorlopig niet meer uit. Hij heeft een nieuwe hobby.
Het is hierboven ook al gedeeld, dit artikel geeft veel uitleg op je vraag
Tesla gebruikt ook al geen Lidar meer. Die hebben inmiddels zo veel werkende algoritmes en data om alles te bepalen dat ze van mening zijn dat dit niet meer nodig is.

Hier de toelichting van de AI chef van Tesla:
https://venturebeat.com/2021/07/03/tesla-ai-chief-explains-why-self-driving-cars-dont-need-lidar/
De vraag is alleen, net als veel zaken die Tesla al heeft/doet, hoe lang het duurt voor een 'echte/traditionele' autofabrikant (let's be honest Tesla is een techbedrijf die auto's maakt en dat zie je, zowel op goede als minder goede manieren) die catch-up kunnen doen om een dergelijk systeem te maken want de 'echte/traditionele' autobouwer loopt op de high-tech snufjes toch echt flink achterop
Er is berekend dat Tesla per auto 3000 dollar aan R&D spendeert.
Dat is mede mogelijk omdat ze niks aan marketing uitgeven. Maar natuurlijk ook flink aan AI/software spenderen.
Das een zeer slechte berekening. Als je 1 miljoen wagens maakt en 1 miljard uitgeeft aan R&D of je maakt 5 miljoen wagens en spendeerd 2,5 miljard aan R&D ga je bij die eerste een hoger bedrag per wagen krijgen, maar die tweede investeert toch echt een pak meer in R&D en kan mogelijks veel meer vorderingen maken.
Wat wil je beweren?
Dat ze minder R&D uitgeven dan de bestaande producenten? kan je gewoon googlen mnar prima. Van mij krijg jij die lolly.
Tesla adverteert niet, dat is wat anders dan niks aan marketing uitgeven.
Goh. Een taal purist.
Marketing en adverteren zijn verschillende dingen. Tesla geeft wel degelijk geld uit aan marketing, maar niet aan advertenties en TV spotjes.
https://online.csp.edu/re...marketing-vs-advertising/
Een techbedrijf die auto's bouwt? Wat een vreemde zin. Als je dat nog zou zeggen van Apple als die met een auto komen, ok. Maar Tesla motors was opgericht om een electrische sport auto te maken. Dat ze inmiddels veel beter in de techniek zijn dan in het bouwen van een carrosserie, ja, daar hebben ze een achterstand wat betreft de traditionele auto industrie. Verkoop model is ook totaal anders, interieur is vaak afwijkend (moet je van houden).
Tesla bouwt autos, batterij technologie (voor in de auto, thuis en zelf ‘grid niveau’)), zonnepanelen voor op daken (reguliere en die dakpannen) en ontwikkeld software (oa self driving ai-software die je kan licenseren?. Ze zijn ooit begonnen als ‘modder’ van de Lotus Elise maar om te claimen dat het Tesla meer te vergelijken is met Volkswagen, skoda, hyundai etc dan met Apple, Google en dergelijke big tech vind ik zelf bijzonder :)
Ik ben altijd sceptisch over Tesla en volle autonomie. De heer Musk roept al jaren maar echt al jaren het er bijna is. Vervolgens zie ik effectief weinig tot geen verbetering.

Dan draaien ze een bèta bij gebruikers die niet geschikt zijn als bèta testers want het is toch wel iets anders dan een appje proberen. En rijdt een tesla binnen een paar seconde een fietser bijna van zijn fiets af.

https://mobile.twitter.co...tatus/1491487543455465472

Ga het internet af en er zijn zo best veel filmpjes. Ik ben dan ook benieuwd hoe vaak gebeurt maar niet bekend is omdat het net goed gaat om wat voor reden dan ook.
Hoe vaak het gebeurd in Nederland zonder zelfrijdende software is wel bekend
Mensen die dronken zijn, zitten ook in die statistieken
Mensen die oververmoeid zijn, zitten ook in die statistieken.

De statistieken over de mogelijkheden van een mens komen er behoorlijk slecht uit vanwege mensen die wettelijk gezien niet op de weg mogen rijden.

Wat de Tesla statistieken aantonen is dat ze onder gecontroleerde omstandigheden in relatief eenvoudige situaties (high-way is moeilijk moeilijk te noemen) beter presteren dan dronken en vermoeide mensen. De standaard voor een automaat moet zijn dat deze op zijn minst beter presteert dan een mens die legaal op de baan is.

We gaan de rij-examens voor mensen toch ook niet makkelijker maken omdat er dronken mensen rondrijden, waarom zouden we dat voor een robot dan wel doen?
Ik ken geen Tesla statistieken, maar als jij wat links hebt, hou ik me aanbevolen :)
Vreemd, wat jij beweerd is niet wat in het artikel staat.
De standaard voor een automaat moet zijn dat deze op zijn minst beter presteert dan een mens die legaal op de baan is.
Is dat niet precies wat de data toont die jij hier deelt?

Je haalt ook dronken en vermoeide rijders. Die heb je toch in elke categorie? Of je nou Tesla rijder met of zonder autopilot of in een andere auto.

Ik snap dus niet helemaal wat je wilt overbrengen met jou post :?
Autopilot neemt de rol van bestuurder over, de staat van de bestuurder met autopilot geactiveerd doet er echt niet toe als je zoekt om de bestuurder te vervangen.

AutoPiloet doet het nu gemiddeld 'beter' dan een gemiddelde mens. Dat de cijfers van die 'gemiddelde mens' naar beneden gehaald worden vanwege uitschieters die niet op de weg mogen rijden, gaan ze los aan voorbij.

De km's waarin AutoPilot geactiveerd zijn, zijn ook niet hetzelfde types kilometers als die waarin ze uitgeschakeld zijn.

Wat ik wil overbrengen is dat zolang Tesla geen appels met appels vergelijkt, hun systeem niet als veiliger kan bestempeld worden dan een dronken mens. Ze zijn serieus misleidend bezig over de capaciteiten van hun systeem en dat is gewoon gevaarlijk.
Ah, ik snap je nu. Wat jij dus wilt is dat er een soort gemiddelde, niet dronken, niet oververmoeid.... Misschien ook de mensen eruit halen die bezig zijn met hun telefoon. Hoogbejaarde mensen misschien ook? Ik ken ook mensen die heel agressief zijn in het verkeer en hun auto als een soort wapen gebruiken en ongelukken veroorzaken. Die moeten we dan ook eruit halen want is niet gemiddeld. Ook de mensen die te hard rijden, want dat mag niet en zijn zeker niet de gemiddelde bestuurder. Laten we ook niet de mensen vergeten die net hun rijbewijs hebben een beduidend meer ongelukken veroorzaken. Ook die zijn dan niet de gemiddelde rijder.

Ik ben nu aan het overdrijven, maar ik denk dat je wel snapt waar ik heen wil. Er bestaat geen verkeer zonder rand gevallen. Ook in Teslas rijden mensen die teveel hebben gedronken, oververmoeid zijn en meer dan gemiddeld afgeleid zijn door hun telefoon.

Puur kijken naar het aantal gereden kilometers en ongelukken is denk ik het meest zuivere en niet misleidend.

Ook Max Verstappen kan een ongeluk veroorzaken als hij om welke reden dan ook afgeleid wordt (of verblind door een tegenligger, om maar een voorbeeld te noemen)

Edit:typos

[Reactie gewijzigd door david-v op 23 juli 2024 08:14]

Het is toch jammer dat er zoveel mensen zijn die tijdens de statistiek lessen zaten te slapen. Leuk dat je die filmpjes noemt, maar het gaat toch om de grote aantallen? Stel dat de Tesla Autopilot 1 fietser per 1.000.000 gereden km aanrijdt, dan is dat een stuk minder erg dan wanneer de gemiddelde menselijke automobilist er 1 per 100.000 km aanrijdt?

Dezelfde foute argumentatie wordt trouwens ook vaak gebruikt bij roken en longkanker (mijn opa rookte 10 sigaretten per dag en werd 100 jaar), bij klimaatverandering (het was hartstikke koud vandaag en zo zie je dat de opwarming van de aarde onzin is), etc.
Goed voorbeeld van hoe ver het systeem al is.
Die alarmen gaan af op het moment dat de Tesla verward is en even niet weet wat het moet doen.

Dat het systeem zo snel het doorheeft dat er iets niet klopt en de "rijinstructeur" het moet overnemen geeft vertrouwen dat het alleen maar beter wordt.
Nope. Het weglaten van lidar is gewoon bezuinigen. De Full Self Driving beloftes van Elon (klaar in 2018, 2019, 2020 en 2021) is inmiddels in de ijskast verdwenen.
Level 2 is het. Het zal heel misschien ooit 3 worden. In Amerikaanse steden met mooie brede straten zonder fietsers.
Een camera is inderdaad goedkoper dan een long-range lidar. Een lidar signaal is echter veel gemakkelijker te verwerken. Je krijgt immers alleen afstanden terug. Bij gebruik van camera's is veel rekenkracht nodig om de afstanden van alle elementen te berekenen uit minimaal twee overlappende beelden.
Of je daarmee 90% van de kosten kan besparen klinkt wat overdreven, maar rekenkracht in combinatie met een aantal camera's is nu zeker goedkoper dan een lidar-systeem.
Maar alleen afstanden is nu net het probleem. Want is het een fietser, auto, voetganger. Dat is dan wat lastig te achterhalen. Daarom wordt LIDAR vaak gecombineerd met camera's maar dan moet de data wel heeeel netjes uitgelijnd zijn en het schijnt dat daar nu juist de moeilijkheid zit. En met camera's kun je die info ook achterhalen, maar dat kost idd meer rekenwerk.
Ook met Lidar is goed te zien om wat voor object het gaat. Wat voor label er aan gehangen wordt doet er niet zoveel toe, maar grootte en de snelheid van een object zijn prima te bepalen. Dat kost niet eens veel rekenkracht.
Het beeld van een LIDAR bestaat gewoon uit een enorme wolk puntjes die elk een afstand hebben. Een camerabeeld bestaat ook uit een enorme wolk puntjes (maar wel met een veel hogere resolutie), maar dan heeft elk puntje een kleur. Er moeten twee beelden gecombineerd worden om de afstanden te berekenen.
Juist die resolutie maakt, dat object herkening van lidar onvoldoende is. Ja een auto kun je vast nog wel herkennen, maar voor niveau 5, moet die herkening een heel stuk beter. Je wilt het verschil weten tussen een45km karretje en een auto die 45 rijd om het gedrag te kunnen inschatten. En dit voorbeeld verzin ik nu even snel, maar er zijn veel meer voorbeelden te verzinnen. Het verschil tussen kinderen en volwassenen b.v. Als je echt goed autonoom wilt kunnen rijden zal de auto het gedrag van medeweggebruikers goed moeten kunnen inschatten. Dus je wilt echt het verschil tussen verkeersdeelnemers weten en met enkel een (relatieve lage resolutie) afstand wolk, zonder kleur informatie red je dat niet.

Volgens mij had tesla hier een filmpje over gepost op youtube, zal ff kijken of ik die kan vinden. (Google ook trouwens) Gevonden. Het is een lange film, maar hier leggen ze heel goed uit waarom ze geen lidar meer gebruiken en wat die camera's allemaal moeten herkennen (en hoe ze dat doen ,maar dat valt buiten deze discussie) https://www.youtube.com/watch?v=j0z4FweCy4M&t=2814s

edit: Overigens heeft enkel camera ook wel nadelen, Musk had het erover dat ie een tesla kan laten stopen door rond te lopen met een shirt met een afbeelding van een stopbord erop. Maar uiteindelijk kun je dat met software vast wel afvangen.

[Reactie gewijzigd door air2 op 23 juli 2024 08:14]

Ik werk zelf met Lidars. De resolutie is lager dan bij een camera, maar dat is helemaal geen beperking. Een lidar heeft geen last van zaken waar camera's wel last van hebben. Een camera heeft bijvoorbeeld ontzettend veel moeite met tegenlicht. Ook vervuilde lenzen zijn na verloop van tijd een probleem. 's Nachts heeft een camera het ook een stuk lastiger en ontbreekt de kleurinformatie ook. Camera's gebruiken de kleurinformatie vooral om de beelden perfect op elkaar te kunnen leggen en er dan een puntenwolk met afstanden uit te kunnen berekenen. Die puntenwolken hebben gemiddeld een hogere resolutie, maar je krijgt wel te maken met objecten die een minder dichte puntenwolk hebben. De objecten worden vervolgens met dezelfde routine gevolgd als waar de lidar gebruik van maakt.

Het grote voordeel van camera's boven een lidar is dat camera's ook verkeersborden kunnen herkennen. Als de software dat ondersteunt kan de auto daar ook netjes op reageren. Met een lidar is dat onmogelijk.

Aan het herkennen van objecten hecht jij veel waarde. Een lidar kan objecten bijna net zo goed herkennen als een camera. Het plakken van het juiste label kost wat meer moeite, maar is in de praktijk helemaal niet belangrijk. Een lidar is heel goed in staat om een object te volgen. Of dat een wandelaar, spelend kind of een tiener op een skateboard is doet er niet toe. De software kan heel snel het object markeren en blijven volgen. Ook de baan van het object kan worden voorspeld. Door het gedrag van een object krijgt dat meer of minder onzekerheid. Het object "spelend kind" zal door zijn wat grillige gedrag zelfs extra goed in de gaten gehouden worden en ook een veel grotere baan krijgen waarbinnen het zich mogelijk gaat bewegen Een personenauto of een 45 km karretje verschillen in gedrag niet zoveel. Binnen de bebouwde kom is het gedrag nagenoeg gelijk. Buiten de bebouwde kom is vooral de snelheid verschillend. Kruisende of tegemoetkomende 45km karretjes zijn ook voor camera's moeilijk tot niet van een kleine auto te herkennen. Er rijdt hier in de omgeving een 45 km karretje rond die uiterlijk volledig gelijk is aan een Fiat panda. Het enige uiterlijke verschil is het 45 km bordje op de achterkant.
Het labelen van een object kan ook gevaarlijk zijn. Als je van een volwassen fietser standaard niet verwacht dat hij plotseling linksaf slaat, kan de auto best eens te laat reageren als dat wel gebeurt. Uber weet daar inmiddels alles van.

Zelf heb ik als test ooit eens een lidar gebruikt voor gebarenherkenning. Op een afstand tot een meter of drie/vier werkt dat eigenlijk best goed, mits de gebaren vrij traag zijn. Ik heb dat ook met een camera gedaan, maar die liet het in het donker volledig afweten. Een hand met een handschoen werd niet eens meer herkend, ook niet met goed licht. De lidar werkt in het pikkedonker net zo goed. De handschoen maakte het voor gebaren met de vingers erg moeilijk (<20% herkenning), maar gebaren met de volle hand(schoen) waren geen probleem. Zelfs met een ovenwant werd de helft van de gebaren nog herkend.
Hoe onderscheid je met Lidar een ongevaarlijk voorwerp (overwaaiend papier / berg bladeren etc) van werkelijke obstakels? (Kinderfietsjes, dieren, brokken steen etc)

Zonder labeling lijkt mij dat enorm lastig. Is de data nog wel waardevol genoeg om de koers op te bepalen?
Klein overwaaiend spul ga je met een lidar missen, brokken steen zijn afhankelijk van grootte en snelheid. Dieren als katten en honden vormen geen probleem, konijnen zag ik niet, maar de lidar systemen die in auto's worden gebruikt kunnen die wel zien. Fietsen zijn lastige dingen (het is voornamelijk gat), maar als er iemand op zit, is het probleem verholpen.
Voor al die zaken geldt dat ze als statisch object worden gelabeld zolang ze stilzitten of staan. Een lidar systeem kan de grootte van een object goed in schatten en kan zo geprogrammeerd worden dat daarbij rekening moet worden gehouden met een meer onvoorspelbaar gedrag. Wat het dan precies is doet er eigenlijk niet toe.

Een camera systeem heeft met de genoemde zaken ook moeite. De gebruikte camera's hebben namelijk een beperkte resolutie. Een hogere resolutie maakt dat de benodigde rekenkracht meer dan exponentieel toeneemt. Bij slechte lichtomstandigheden wordt het beeld ook nog eens slechter (meer ruis). In het donker is er geen kleur informatie (alleen grijswaarden). Kleur waarden tussen twee camera's verschillen altijd iets, maar kunnen door verschillen in lichtinval zelfs behoorlijk verschillen.

Meestal worden voor dit soort systemen 2 tot 4 megapixel camera's gebruikt. Voor een systeem dat ook de zijkanten van de weg in de gaten houdt zijn minimaal 4 camera's nodig. De sample rate van een compleet dieptebeeld is beperkt (20 tot 50 beelden per seconden).
Hetzelfde kan met één lidar 50 tot 100 keer per seconden een compleet dieptebeeld maken met een fractie van de verwerkingskracht. Er is dus meer rekentijd om bewegingen in de toekomst te voorspellen en aan te passen.
Het beste systeem combineert een lidar gecombineerd met een (fish-eye) camera.

Helaas is een professionele roterende lidar gewoon erg duur (richting € 1000), terwijl camera's met een lage resolutie samen maar een paar tientjes kosten. Daar komt nog wel geld voor extra rekenkracht bij, maar dat is niet zo duur.
Optische camera's werken minder goed bij plensbuien. Radar en laser werken ook veel beter in het donker.
Radar werkt ook niet goed in de regen. Meerdere keren gehad dat adaptive cruise control in de remmen ging bij het passeren van een vrachtwagen in de regen.
Radar (geluid) werkt bij regen ook prima, LIDAR (licht) heeft wel wat problemen. Een enorme wolk opspattend water van een vrachtwagen zal ook een radar wel iets kunnen verstoren, maar die verstoring is niet zo groot dat een auto daar gelijk last van zou moeten hebben.
De nightvision van de camera's die voor dit soort toepassingen gebruikt worden zijn ruim voldoende om 's nachts goed te kunnen functioneren. Plensbuien, opspattend water en sneeuw zijn wel een beperkende factor. Door meerdere opeenvolgende beelden te combineren kan een camera-systeem nog wel (redelijk) blijven functioneren, maar de benodigde rekenkracht neemt dan wel snel toe.
Zoveel rekenkracht heb je ook weer niet nodig. Veel mobieltjes kunnen dit al doen zonder en dieptesensor.
Verder heb je aan lidar alleen niet genoeg want je hebt dan wel een mooi puntenwolk maar deze moet weer aan elkaar gesticht worden. Ook mis je kleur wat betekend dat je ook een camera moet hebben.
Het grote voordeel van cameras te nemen is dat je het makkelijker in huidige auto's kan verwerken en daarmee dus meer auto's hebt rijden om data te verzamelen om je model te trainen. De auto's hoeven niet eens autonoom te zijn, camera's hebben en een manier om het te uploaden naar Toyota/Woven Planet is genoeg.
Veel mobieltjes kunnen dit al doen zonder en dieptesensor.
Heb je hier voorbeelden van? Kan me niet indenken dat er veel mobieltjes zijn die accuraat de dieptes van tig camera's kunnen berekenen.
Je kan op een iPhone of iPad met een app via de camera in een soort AR-omgeving dingen opmeten
AR core van google kan je een puntenwolk geven. De techniek erachter heet structure from motion er zijn al papers uit 2016 die uitleggen hoe je dat op een mobieltje goed kan doen. https://www.researchgate....augmented_reality_systems

Probleem met een mobieltje is toch wel dat de camera best wel slecht is. Met een betere camera krijg je betere precisie.

Tesla doet al hun diepteprocessing op de grafische chip (niet meer via structure for motion maar met een neurale netwerk die ervoor getraind is), die chip gebruiken ze ook voor de rest van hun autopilot software. Die chip heb je dus sowieso nodig als je autonoom rijden wil bereiken. Ik kan best wel inzien dat camera's 90% goedkoper zijn. Vooral als in 2021 nog werd gezegd dat de lidar systeem van waymo 7500 kost per unit (https://www.theverge.com/...utonomous-cars-laser-bear) en meestal heb je meerdere lidar camera's op een auto.
Sorry, maar ik laat me niet rijden door een auto die qua besturing afhankelijk is van een dataverbinding met een cloud. Gaat hem ook niet worden qua foutmarge.
Waar haal je dat nou weer vandaan? De dataverbinding met de cloud is nodig om data te verzamelen voor het leren. Autonoom rijden gebuurt op de chip in de auto. Geen internetverbinding voor nodig.
Je schrijft "De auto's hoeven niet eens autonoom te zijn,"

Hoe moet ik dat dan opvatten?
1. Neem nu bestaande auto
2. Plak camera's op auto
3. Stuur data naar server
4. Train auto
5. Breng autonome auto op de markt die al meteen getraind is
Ze hoeven niet autonoom te zijn maar ze zijn wel autonoom en al getraind?
De gemiddelde bestuurder is onbetrouwbaarder.
Hoe kun je dat echt weten als er nog geen autonome auto's rondrijden? Ja, er zijn een paar proefprojecten geweest, maar op beperkte schaal. Ik rij ook beter dan 'gemiddeld' met 27 schadevrije jaren op de bonus-malus ladder.
Dit is niet helemaal waar zoals @laptopleon al opmerkt.
Dit wordt namelijk meestal gemeten door te kijken naar gemiddelde afgelegde kilometers per ongeluk. Dus je neemt het aantal gereden kilometers per jaar over alle bestuurders en dat deel je door het aantal ongelukken in dat jaar. Het zelfde doe je met de autonome auto's
Maar er zit wel een enorme bias in deze statistieken want autonome auto's worden op beperkte schaal getest, zijn vaak geolocked en de functionaliteit is soms niet beschikbaar als men verwacht dat er complicaties kunnen komen. Waymo neemt bijvoorbeeld op dit moment nog de controle remote over als de auto iets niet snapt. Bij Tesla is de functionaliteit van hun autopilot alleen inzetbaar op snelwegen en hun FSB beta is bijvoorbeeld tijdelijk uitgeschakeld in Toronto. Ook kan het zijn dat Tesla gebruikers hun autopilot uitzetten op trajecten waarvan zij weten dat deze problematisch zijn. Daarom vallen dit soort statistieken altijd in het voordeel van de autonome software uit, de statistieken die je nu hoort zijn nu dus een soort van een marketingtruc.
cc @Frame164 Je kunt er pas iets zinnigs over zeggen als een significant aantal autonome auto’s een tijdje ‘in het wild’ heeft rondgereden. En niet alleen op de strak omkaderde snelweg of in één aangeharkte Amerikaanse wijk die als proeftraject is aangewezen.

Maar dat durven de autoriteiten nog steeds niet aan, ondanks jaren aan onderzoek en miljarden aan investeringen. Daar is uiteraard een reden voor.

Verkeer is complex en regels worden massaal genegeerd. Op papier zou het makkelijk haalbaar moeten zijn maar dat is de theorie. Hoeveel fietsers steken hun hand uit voor ze afslaan? Kinderen fietsen op de stoep en vrouwen met kinderwagens gaan juist weer op de straat lopen terwijl er een stoep is, want die vinden ze te smal of zo. Voor een auto wordt het er niet duidelijker op.
en wat doet de rekenkracht en de daarbij behorende prijs?
Rekenkracht kost relatief weinig.
Probleem bij lidarsystemen is blijkbaar wel andere lidarsystemen. Het signaal kan elkaar storen.
Ik denk dat voor de meeste automerken self driving toch meer als een 3rd party service gezien zal gaan worden. Dus autofabrikant maakt 'm compatible, plakt de camera's op de juiste plek. Maar vervolgens installeer je iets van een ander bedrijf voor de verwerking en de besturing.

Denk aan hoe Carplay en Android auto nu werken.

Zie ook Openpiilot: https://comma.ai/

Dat kun je nu al o.a. op een Toyota Corolla installeren...
Ow wow, die comma.ai was toch van die jongen met die grote mond die zei dat het veel makkelijker en simpeler kon? Dat leek niet uit te komen, maar het bestaat nu wel?
Mag je hier dan wel mee rijden? Hebben ze het vergeleken met huidige af-fabriek oplossingen?
George Hotz (de jongen met grote mond?) is zeer slim en ook een goed gevoel voor humor. De Lex Fridman podcast met George Hotz is het luisteren waard.

[Reactie gewijzigd door MacWolf op 23 juli 2024 08:14]

Ja die, mss heb ik een verkeerd beeld van hem, maar zo werd hij wel online beschreven.
Ik ben het comma.ai project een tijdje terug ook tegen gekomen en was toen ook benieuwd of je hiermee in Nederland de weg op mag. Ik kwam toen het volgende filmpje tegen https://youtu.be/EQsitSe7_eY (wordt iemand van het RDW geïnterviewd met vragen over het comma.ai project). Is wel een filmpje van 20 min. Als ik het mij goed herinner kwam het er in het kort op neer dat dit nu niet door de keuring zou komen, ook omdat het een opensource project is en er dus zo iets toegevoegd kan worden wat de auto volledig onveilig maakt. Al kan je natuurlijk ook zeggen dat dit bij bijvoorbeeld een Tesla met over the air updates ook zou kunnen?
Zo eindelijk komen ze er achter. dit is de eerste more to follow....
Grootste probleem met camera's is geen zicht door verblinden (zon, tegenliggers, vuiligheid, het weer, etc. . Mensen kunnen hun hoofd nog bewegen en om nu gelijk backupcamera's voor elke camera te gebruiken lijkt me ook duur.

Ik geloof meer in een combinatie van (goedkope) sensoren en camera's of LIDAR die elkaar aanvullen. Totnogtoe rijdt WeyMo beter dan Tesla. Tesla is op zijn hoogst op 50% van de route assisted drive, nog geen full self drive alhoewel Tesla dat je graag wil doen geloven. Tesla kan nog niet eens goed parkeren in de kleinere parkeerplekken in NL.

Ik hoop dat Toyota het wel voor elkaar krijgt, het zal heel wat doden en ongelukken schelen!
De lichtgevoeligheid van de "pixels" van het menselijk oog zijn individueel aan te passen.

Dat kan bij een camera niet. Alle pixels van een digitale camera hebben dezelfde gevoeligheid en dus krijg je bij sommige situaties overbelichting en bij andere weer onderbelichting.

Maar los daarvan vermoed ik dat als er regendruppels op de camera of ruit vallen dat de AI helemaal niets meer kan detecteren en gewoon de sloot inrijdt.
cameras zijn er veel beter in hoor, die hebben diafragmas en slutiertijden om mee te spelen. en dat kunnen ze dusdansig snel dat ze hdr beelden kunnen maken en verwerken waardoor een "foto" keurig belicht is om verder te verwerken.
Het dynamisch bereik van camera-sensoren neemt al jaren toe en er is niets dat die ontwikkeling tegenhoudt. Het is daarom helemaal niet noodzakelijk om individuele pixels aan te sturen.
In m’n Model 3 krijg ik regelmatig meldingen over camera’s de tijdelijk geen zicht hebben. Laagstaande zon, regen, vuil. Ik kan me niet voorstellen dat dit geen effect zou hebben op het zelfrijdende vermogen. Een combinatie van beide technieken zou m.i. beter zijn.
Die dingen worden vanzelf beter en op den duur gaan de auto's ook onderling communiceren. Hoeven ze in theorie helemaal niets meer te zien. Er zijn zoveel oplossingen mogelijk anders dan lidar. beetje creatief en je komt een heel eind. Zal niet morgen zijn, maar komt vanzelf en mogelijk niet in jou model 3 maar in je model 4
Zelfs de beste camera’s hebben een beperkte dynamic range. Die zien echt die voetganger niet meer als ze net tegen de laagstaande zon inkijken. Het lijkt me erg lastig om dat zonder technieken als lidar/radar/sonar op te lossen. Zeker niet iets dat je met een beetje creativiteit oplost, want dan was dat al lang gedaan.

Als auto’s echt goed kunnen samenwerken ontstaan er zeker nieuwe mogelijkheden, maar het gaat nog heel veel jaren duren voordat een andere auto mijn auto waarschuwt dat ik tegen die voetganger aan ga rijden.
Anders was dat al lang gedaan?

De eerste auto's waren electrisch, maar loodaccus bleken niet echt praktisch.

Dat beetje creativiteit komt niet altijd zo makkelijk. Het nam 100 jaar voordat auto's weer electrisch gingen rijden. Zo niet anders voor autonoom rijden. Als wij het kunnen met de cameras in ons hoofd en zonder lidar en radar ingebouwd dan moet een computer dat ook kunnen. Zo niet vandaag dan wel in de toekomst
Wij kunnen spdat ook niet, wij doen de zonneklep naar benenden of zetten een zonnebril op, en dan nog gebeuren er jaarlijks heel veel ongelukken door de laagstaande zon.

Ik zeg niet dat het technisch onmogelijk is, maar wel enorm moeilijk. Alle grote camerafabrikanten (Canon, Nikon, Sony, etc) zouden goud geld overhebben voor een significant grotere dynamic range. En dat gaat dan nog om véél betere en véél duurdere camera’s dan er in auto’s zitten.
Hou op! Ik wil geen zelfrijdende auto..
Hou op! Ik wil geen zelfrijdende auto..
Maar als medeweggebruiker wil ik op een dag waarschijnlijk wel dat jij een zelfrijdende auto hebt.
Zodra een auto 100% zelfstandig kan rijden misschien. Zolang dat nog niet zo is heb ik liever dat mijn mede weggebruikers de volledige focus op het rijden hebben.
Het probleem is dat die medeweggebruikers die focus dus niet hebben.
Een zelfrijdende auto hoeft niet beter te zijn dan de beste bestuurder, maar beter dan de gemiddelde bestuurder om het aantal ongelukken te laten dalen.
Logisch gezien is dat zo, maar ik denk dat het zo niet werkt. Bij een ernstig ongeluk zou het voor mij een heel verschil maken of het de schuld is van een natuurlijk persoon of een computer waar per ongeluk nog een bug in de software zat.
Voor jou voelt dat misschien anders. Maar ik heb liever een kans van 1:1000 000 op een ongeluk met een automaat dan een kans van 1:500 000 op hetzelfde ongeluk met een menselijke bestuurder.

Wat jij zegt is dat je liever een kleine kans hebt om dood te gaan door een menselijke fout dan om een hele kleine kans te hebben om dood te gaan door een sensor fout.

[Reactie gewijzigd door Ortep op 23 juli 2024 08:14]

En dan gaan skydiven, parachutespringen en ongezond eten zeker?
Als iemand gaat skydiven en hij maakt een ernstige fout is dat helemaal het probleem van die persoon.

Bij auto rijden ligt dat iets anders.
Als iemand gaat skydiven en hij maakt een ernstige fout is dat helemaal het probleem van die persoon.
Afhankelijk van waar die persoon neer valt, natuurlijk. :+
Medeweggebruikers willen ook dat hun digitale camera's niet kapot gaan:
geek: Fotograaf klaagt dat lidar op CES-beurs zijn systeemcamera heeft verwoest
En ik niet dat jij er 1 hebt :*)
[...]

Maar als medeweggebruiker wil ik op een dag waarschijnlijk wel dat jij een zelfrijdende auto hebt.
mij goed, koop jij mij er eentje ??
Nee ? dan beslis ik wel wat ik koop.
Nee ? dan beslis ik wel wat ik koop.
Serieus?
ik kan niet wachten, de auto vind de fijnste middel van transport (deur to deur op grote afstand en in je eigen bubbel) maar de dag dat ik gewoon achterover kan zitten en samen met mijn vrouw/kind een filmpje kan kijken op weg naar de dierentuin (uurtje+ rijden) kan mij niet snel genoeg zijn!

Of dat mijn weg naar het werk gewoon kan tellen als werkuren omdat ik de laptop alvast openklap en mijn mails behandel, code klop etc. (al werken wij al >50% thuis)
Echt niet? Lijkt mij fantastisch.
Staat genoteerd. @Nolimit89 wil geen zelfrijdende auto.
Das fijn, maar wat moeten wij met die info?
Tesla word al jaren overal aangevallen omdat ze geen Lidar gebruiken en Elon meer maals gezegd heeft dat dit overbodig is. Wel een beetje bizar dat als vervolgens Toyota het eindelijk ook weet dat het ineens acceptabel is. En dan is dat Tesla het ook doet een "footnote"
Yeps, staat straks in NL de helft van het wagenpark stil vanwege mist, sneeuw en regen :)
Denk zelf niet dat je er alleen met camera's gaat zijn. Daar zal echt iets van radar ter ondersteuning moeten zijn (en zelfs die geven het vaak al op bij heftige regen of sneeuwbuien)
En u denkt dat de testers niet in regen sneeuw en mist rijden?
De cameras werken in het donker en hebben hoge resolutie.
Tesla moet handmatig aardig wat akties uitvoeren om de camera's de juiste zaken te laten mappen in heftige regen en mist.
Weinig licht scenario's zijn heel wat anders dan heftige mist of regen. Bij het eerste heb je nog diepte, die is bij regen, sneew en mist bijna volledig weg of vertekend.
Vergeet ook niet dat ik als bestuurder een volledig raam heb om door te kijken en dat 4 sneeuwvlokjes niet zo'n probleem zijn. 4 sneeuwvlokken op een camera blokkeren echter het volledige zicht, hoe hoog de resolutie van de camera's ook is.

[Reactie gewijzigd door SunnieNL op 23 juli 2024 08:14]

En daar hebben ze allemaal niet aan gedacht. Een raket lanceren en weer op aarde laten landen. Idd Musk kan er niks van. De beste AI ontwikkelaars bij elkaar en miljarden investeringen. En jij heb het allemaal goed uitgevogeld dat het nooit kan werken. Misschien moet jij eens een eigen fsd ontwikkelen en aan Musk laten zien hoe het wel moet.

[Reactie gewijzigd door lighting_ op 23 juli 2024 08:14]

ik kan je tig YT filmpjes geven waar FSD niet werkt. Of zelf denk hoe in godsnaam fsd in parijs of in NL met al die fietsers moet rijden? Het probleem met jou is dat je het meteen afbrand en geen kans geeft. Zegt beta niks? Faalt het dan faalt het. Maar je zit in je eigen tunnelvisie. Gelukkig hebben vele andere uitvinders dat niet gedaan en doorgezet.

[Reactie gewijzigd door lighting_ op 23 juli 2024 08:14]

Man, man, man, wat brand ik af? FSD in de sneeuw werkt nog niet. Prima, zal wel een keer lukken. Misschien toch met wat ondersteuning radar of lidar.
Zoals ik al zei. Geef het een kans. En in de loop der tijd zien we wel of geen resultaat.
Alle data wordt door het AI team bestudeerd. Misschien is het oplossen van rijden in sneeuw geen prio of hebben ze te weinig real life data. Er zijn nog genoeg issues. We kunnen niet in de keuken kijken. Ze weten zelf ook wel waar de fouten zitten. Dat hoef jij niet te benadrukken.

[Reactie gewijzigd door lighting_ op 23 juli 2024 08:14]

Mensen hebben ook geen lidar of rader en toch komen we gemiddeld genomen veilig door mist en sneeuw. Ik zie geen reden waarom een automatisch systeem het dan niet ook zou moeten kunnen. Minstens net zo goed als wij. Ja met die extreme omstandigheden maken mensen meer ongelukken, maar miljoenen rijden er zonder ongelukken door. En de reactie snelheid van een computer is vaak zeer veel hoger.
Je weet toch dat mensen die reageren op internetfora veel meer weten dan mensen die echt dingen ontwikkelen?
Dat weerhoudt mij niet hen van repliek te voorzien.
Tja, die diepte, die is ontzettend belangrijk. Ik vraag me dan ook minstens ieder decennium af hoe ik kan rijden zonder diepte. Ik heb maar één oog, zie absoluut geen diepte, maar kan wel gewoon autorijden. Of al die Noren en Zweden tijdens de winter. (Edit: met dat vertekende dieptebeeld uit jouw verhaal).

Na zo'n kleine 60 jaar in Nederland gewoond te hebben, wil ik best verklaren dat die regenbuien of zelfs die zuidwester stormen, nauwelijks te vergelijken zijn met een tyfoon. En zelfs tijdens een tyfoon bleef geen regendruppel één seconde liggen op mijn auto liggen. Dus 4 sneeuwvlokken die een camera blokkeren?

Er zullen best scenario's te bedenken zijn waarbij een camera tekort schiet. En bij al die scenario's vraag ik me af of een normaal persoon wel in die situatie zou moeten/willen rijden. En in alle gevallen pas je jouw snelheid aan. Wat een AI uiteraard niet zal doen 8)7 Die blijft rustig 130 rijden bij 0 meter zicht.

[Reactie gewijzigd door Het.Draakje op 23 juli 2024 08:14]

Ik sluit me aan bij @Het.Draakje : ook ik heb praktisch gezien maar 1 oog dat scherp ziet en ik heb daar tijdens het autorijden absoluut geen last van. Mijn brein (en dat van @Het.Draakje ) compenseert voor het verlies van dat ene oog door andere informatie te gebruiken. Voorbeeldje: heb je ooit een rij-examenboekje ingekeken? Daar worden verkeerssituaties uitgelegd aan de hand van foto's. Die zijn niet 3D en toch kun je daar heel goed afstanden uit afleiden.

Regen en sneeuw zijn een probleem, maar daar zijn redelijk eenvoudige oplossingen voor. Er zitten er twee op je voorruit. De andere camera's hebben vaak een vorm of zitten op een plek die het opbouwen van sneeuw voorkomt. En voor de sneeuwvlokken in de lucht die je zicht belemmeren: gewoon je snelheid verlagen. Is zowiezo verstandig als het sneeuwt....
En dat fsd werkt dan ook top...not.
Het heet fsd beta. Sommige lezen "beta" bewust niet. En welke concurrent zit op hetzelfde niveau zonder geo fencing.
FSD werkt in veel situaties inderdaad top. In veel andere situaties minder top. Maar dat gaat voorbij aan het feit dat iedereen weet dat FSD in ontwikkeling is. Je moet kijken naar de potentie, niet naar de huidige situatie.
Incoming!: "Maar Tesla zegt.....!". Dat weten we nu wel.
Toyota full self Driving: Copy Paste
Toyota full self Driving: Copy Paste
Vergeet niet dat Toyota in de zakelijke wereld ( intern transport, heftrucks en ordercarriages ) al enorm lang hiermee werkt.
Het is niet zo dat er iemand ergens uit een raampje keek, afgelopen maandag, en bedacht "hé dat wil ik ook"
Ik kom in faciliteiten waar er (semi) autonoom gereden wordt door dit soort wagentjes, van transport tussen A en B, tot aan productielijnen waar één persoon tientallen apparaten gebruikt die over de hele dag vele kilometers afleggen.
Het enige verschil is dat deze apparaten in een (beter) gecontroleerde omgeving rijden.
Het is duidelijk WIE voorrang heeft, en WAAR er mogelijk een probleem kan ontstaan, zoals kruising met operators of andere apparaten

Op dit item kan niet meer gereageerd worden.