VS: Tesla neemt onvoldoende maatregelen om misbruik van Autopilot te voorkomen

De werking van Tesla's Autopilot-software heeft geleid tot 'voorzienbaar misbruik en vermijdbare ongelukken'. Zo luidt de conclusie van een Amerikaans onderzoek naar dit systeem. Het is niet duidelijk of de Autopilot-update van afgelopen december de problemen heeft verholpen.

De Amerikaanse verkeerstoezichthouder National Highway Traffic Safety Administration heeft de resultaten van zijn onderzoek naar de werking van Tesla's Autopilot-functie gedeeld. Daarvoor zijn in drie jaar tijd 956 ongelukken geanalyseerd. Uit deze analyse bleek dat de Autopilot-functie bij 467 van die ongelukken een rol heeft gespeeld. In dertien gevallen ging het om een fataal ongeluk.

Volgens de Nhtsa werden die ongelukken veroorzaakt doordat de bestuurders het systeem misbruikten. Wel neemt de toezichthouder het Tesla kwalijk dat de fabrikant niet genoeg veiligheidsmaatregelen heeft geïmplementeerd om dergelijk misbruik te voorkomen. De toezichthouder zegt dat het Autopilot-systeem er 'onder bepaalde omstandigheden' niet voldoende voor zorgt dat bestuurders de aandacht erbij houden en de functie correct gebruiken.

Bestuurders verwachten dat het Autopilot-systeem veel minder toezicht vereist dan in werkelijkheid het geval is, en dat leidt tot een 'kritieke veiligheidskloof', aldus de Nhtsa. Volgens de toezichthouder moet Tesla de effectiviteit van de Autopilot-waarschuwingen verbeteren, en ervoor zorgen dat gebruikers beter weten waar dit systeem wel, en niet voor gebruikt kan worden.

De toezichthouder maakt zich onder meer zorgen over de naam 'Autopilot'. Die naam zou namelijk suggereren dat deze modus de wagen autonoom laat rijden, terwijl een naam met 'assist' of 'team' erin de lading beter dekt, claimt het overheidsorgaan. Ook zouden pogingen om tijdens Autopilot bij te sturen, ervoor zorgen dat het systeem volledig wordt gedeactiveerd. Daardoor kunnen bestuurders worden ontmoedigd om zich bezig te houden met het rijden, schrijft de Nhtsa.

Afgelopen december bracht Tesla een software-update voor een onderdeel van Autopilot uit, namelijk de zelfsturende Autosteer-functie. Dat deed het bedrijf omdat de Nhtsa aan Tesla liet weten dat de fabrikant onvoldoende controleerde of bestuurders hun stuur wel vasthielden. De geanalyseerde ongelukken van het huidige onderzoek vonden allemaal plaats voordat deze update werd uitgebracht. Het is dus niet duidelijk of de update de zorgen van de toezichthouder wegneemt. De Nhtsa is een nieuw onderzoek gestart om daarachter te komen.

Wel laat het overheidsorgaan al weten dat de update waarschijnlijk niet voldoende is om de problemen op te lossen, aangezien er sindsdien meerdere nieuwe meldingen naar buiten zijn gekomen over ongelukken met betrekking tot Autopilot. Bovendien kunnen bestuurders er zelf voor kiezen of ze de update willen binnenhalen en is het eveneens mogelijk om deze ongedaan te maken.

Door Kevin Krikhaar

Redacteur

28-04-2024 • 12:00

244

Reacties (244)

244
238
117
9
0
80

Sorteer op:

Weergave:

Tja.. als de functie misbruikt wordt kan je tesla dan nog aanrekenen? Ik heb zelf een jaar in een model 3 gereden en irriteerde me enorm aan hoe snel het systeem mopperde dat je het stuur moest bewegen of aandacht op de weg moest hebben (terwijl ik dat gewoon had). Als je moedwillig een gewichtje oid aan je stuur installeert en dan een ongeval veroorzaakt dan ben je wat mij betreft ook schuldig.

Rij nu vooral Renault en Toyota en merk dat de adaptive cruise control plus lane center/keeping assistant eigenlijk net zo goed of zelfs beter zijn als de standaard auto pilot in Tesla’s en veel minder snel moeilijk doen.
Zelf gebruikte we autopilot (ik zit niet in Nederland). Ten eerste is de functie verkocht als full auto nav, je drukt een knopje en je komt thuis. Het is niet zo geavanceerd uiteindelijk maar de sales reps geven een hele slechte impressie. Daarnaast waarom is Tesla niet verantwoordelijk, ze verzamelen bergen data, zien dat veel (dodelijke) ongelukken met autopilot gebeuren en doen vervolgens hier weinig mee. Ik ben eerder verbaast dat Tesla geen class action ziet voor honderden onnodige ongelukken.

Uiteindelijk hebben we een CEO die jaren Tesla verkocht en nog steeds als het volgende wereldwonder, een ongekend product dat alles kan. Dat de software uiteindelijk achterloopt op de concurrentie en de hardware steeds belabberder wordt kun je Tesla toch zeker wel aanrekenen zeker als de concurrentie niet dit soort problemen kent.
Bij mij staat er duidelijk “auto steer (*beta*)” als ik het aanvink en standaard staat het ook uit. Dus ja als mensen dat misbruiken wie is er dan schuldig?
En hoezo “veel” doden? Waar vergelijk je dat dan mee?
Autopilot is ook in NL beschikbaar dus vanwaar die nuance? FSD niet.

Ik heb de concurrenten nog niet door drukke straten zien rijden zoals de nieuwe FSD dat doet, behalve waymo.
Dat laatste dus. Ik lees hier in de commentsectie (en op andere websites) zeer regelmatig dat andere fabrikanten het inmiddels al veel beter zouden doen etc etc.
Toch zie ik daar in de praktijk maar heel weinig voorbeelden van.

Als er überhaupt al iets over te vinden is, dan zijn het journalisten die op een specifiek afgeschermd gebied mee mogen spelen.

Niks ten nadele van Waymo overigens, wat zij doen is net zo indrukwekkend - maar als in de EU levende particulier heb ik daar wat minder aan.
Volgens mij, maar correct me if I am wrong, heeft alleen Mercedes gecertificeerd level 3 (tot 60km/h) alleen op snelweg (dus file gezien de 60 cap) en sinds vorige maand BMw tot 110km/h, ook alleen snelweg.
Volgens mij klopt dat, echter is het dan ook weer geo restricted / niet overal. Plus dat je je af kan vragen of een hogere certificering ook daadwerkelijk beter is.

Ik mis in ieder geval de onafhankelijke YouTube dudes die kilometers afleggen en de keuzes uitlichten, ofwel vanuit de autojournalistiek een diepgaande review.
Klopt, en ik zou graag willen benadrukken dat de level 3 certificering inhoudt dat de autobouwer aansprakelijk is voor schade en niet de bestuurder.
Dit is best een gedurfde stap en geeft ook wel aan hoeveel vertrouwen ze hebben in hun systeem
Mja... Tot 60km/u op een beperkt aantal snelwegen. Dat kan je dus eigenlijk nooit gebruiken, tenzij je gaat filerijden. Mijn vorige auto, een 8 jaar oude Hyundai, kon dat eigenlijk al prima.

De optie kost al met al €10.000 op een sowieso al knap dure EQS. Stel je rijd eens een auto in de prak, dan heb je je eigen verzekering al betaald. Ja, ik snap wel dat Mercedes in zo'n geval de aansprakelijkheid op zich durft te nemen.
Wat Waymo doet is véél indrukwekkender dan wat Tesla doet. Waymo heeft een level 4 systeem met mogelijkheid tot interventie vanaf afstand. Als je in een Waymo (mee)rijdt, ben je niet verantwoordelijk voor het functioneren van de auto.

Tesla verkoopt een niet gecertificeerd level 2 systeem, waarbij de bestuurder volledig verantwoordelijk is voor het falen van het systeem.

Geen enkele andere autofabrikant is gek genoeg om hun klanten dusdanig te misleiden als Tesla in de VS met de sprookjes over FSD. De realiteit is dat de auto continue in de gaten gehouden moet worden om te voorkomen dat je auto je plotseling en willekeurig vermoord. Het probleem is dat het systeem 99.99% van de tijd verdomd goed werkt, alleen die 0.01% van de tijd (als je niet oplet) je dood kan betekenen.
Wat ik van Waymo gezien heb vond ik niet zo indrukwekkend.
Het werkt heel goed, maar alleen zolang het in het beperkte gebied zit dat helemaal tot in detail in kaart is gebracht, alle dure sensors op de auto goed werken, en er niks onverwachts gebeurt.

De Tesla systemen lijken veel beter om te gaan met onverwachte situaties, en zonder dat het hele gebied van te voren in detail in kaart is gebracht en met veel goedkopere en simpelere sensoren.

Maar ik heb het niet in detail bestudeerd, alleen filmpjes op Youtube van mensen die beide systemen uit proberen in de VS en VK.
Ik heb beide mogen ervaren in de VS.

Tesla heeft bewust gekozen om hun auto's zo goedkoop mogelijk te maken, niet zo goed mogelijk.
Waymo (en andere fabrikanten) lijken veiligheid belangrijker te vinden dan kostenbesparing, en lijken daarom voor meer en duurdere sensoren te gaan.

Daarnaast vereist FSD in een Tesla een continue actief optellende bestuurder.
Een Waymo taxi vereist dat niet.

Nogal een verschil.
Wat Waymo doet is véél indrukwekkender dan wat Tesla doet. Waymo heeft een level 4 systeem met mogelijkheid tot interventie vanaf afstand. Als je in een Waymo (mee)rijdt, ben je niet verantwoordelijk voor het functioneren van de auto.
Dat de verantwoordelijkheid letterlijk anders ligt, en dat er een ander level van certificering is doorgezet, betekent niet per definitie dat het ene systeem "beter" is dan de ander.
Wellicht niet het meest treffende voorbeeld, maar OnePlus heeft ook jarenlang toestellen verkocht zonder IP-rating, die wel degelijk waterdicht waren.

Verder is 'indrukwekkend' ook enigszins afhankelijk van schaal en kosten. Waymo heeft er meerdere lidars voor nodig en laat voertuigen van meer dan een ton rondrijden om het voor elkaar te krijgen. Tesla probeert het met inmiddels 5 jaar oude hardware op honderdduizenden voertuigen met vision only. Dat is ook best indrukwekkend. Zij het dat ze daar inderdaad een ander niveau van zelfstandigheid mee bereiken, dan met de rijdende supercomputers van Waymo die met een veelvoud van geavanceerde sensoren rondrijden - wat desalniettemin voor die aanpak óók zeer indrukwekkend is.
Geen enkele andere autofabrikant is gek genoeg om hun klanten dusdanig te misleiden als Tesla in de VS met de sprookjes over FSD. De realiteit is dat de auto continue in de gaten gehouden
Dat laatste is gewoon overduidelijk en staat zelfs letterlijk in de interface in de auto. Waar zit het 'misleiden'?
Dat de verantwoordelijkheid letterlijk anders ligt, en dat er een ander level van certificering is doorgezet, betekent niet per definitie dat het ene systeem "beter" is dan de ander.
Wellicht niet het meest treffende voorbeeld, maar OnePlus heeft ook jarenlang toestellen verkocht zonder IP-rating, die wel degelijk waterdicht waren.
Nee het is een perfect voorbeeld. Zo hoeft OnePlus waterschade niet te vergoeden.
En zo wordt Tesla ook niet verantwoordelijk gehouden voor de doden die Autopilot / FSD veroorzaakt hebben.
Waymo heeft er meerdere lidars voor nodig en laat voertuigen van meer dan een ton rondrijden om het voor elkaar te krijgen.
Waymo heeft inderdaad luxe auto's gekozen als basis voor hun taxi dienst. Ik snap dat het interieur van een Tesla niet diezelfde ervaring biedt. Daarnaast, Tesla is tot dusver niet in staat om een vergelijkbaar 'level 4' systeem aan te bieden. Waymo wèl.

De keuze om voor meer en duurdere sensoren te gaan, laat zien dat Waymo de "self driving" toch wat serieuzer neemt dan Tesla.

Tesla noemt het "Full Self Driving", Waymo doet het.
Dat laatste is gewoon overduidelijk en staat zelfs letterlijk in de interface in de auto. Waar zit het 'misleiden'?
Door het "Full Self Driving" te noemen, en de manier waarop het vermarkt wordt.
De naamgeving staat haaks op de functionaliteit en gestelde eisen: Full Self-Driving.

Het systeem wordt letterlijk "volledig zelfrijdend" genoemd, maar is (1) niet volledig, en (2) niet zelfrijdend.
Het heeft continue actieve supervisie nodig om te voorkomen dat het crasht, en inzittenden of andere weggebruikers doodt.

Alsof je een hamburger verkoopt met "100% vlees", om vervolgens achter op de verpakking te lezen: "Bevat geen vlees. Zelf vlees toevoegen."
[...]

Nee het is een perfect voorbeeld. Zo hoeft OnePlus waterschade niet te vergoeden.
Dat zal inderdaad, maargoed; als je zo'n OnePlus én een IP67-gecertificeerd toestel een half uur in een bak water legt, dan houden ze het allebei prima vol. Dat de een gecertificeerd heeft, maakt 'm dus niet per sé beter.

Of een bedrijf wél of niet vergoed, is zeker een zeer relevante discussie, begrijp me goed. Maar het is geen graadmeter of het per sé 'beter' werkt. Sterker nog: het kan maar zo dat een OnePlus het 45 minuten volhoud in een bak water terwijl het toestel met IP-rating het maar 30 minuten volhoudt.
Overigens krijg je in beide gevallen, ondanks de rating, geen garantie op waterschade ;) vandaar dat ik het zelf niet per sé een perfect voorbeeld vind.

De discussie rondom de naamgeving is meermaals gevoerd, denk weinig nuttig om die nogmaals te houden. Ik deel daarin overigens ook best de mening die jij hebt, tot voor kort zou Tesla het geen 'full self driving' moeten noemen, ware het dat er meer dan voldoende kanttekeningen bij geplaatst worden, óók in de link die je deelt.
Maar nogmaals, dat soort vormvragen zijn niet per definitie een bepaler van wat "beter" is.
Haha wat een onzin.

Waymo is onlangs zijn vergunning kwijtgeraakt in San Francisco, nadat zo'n auto een voetganger aanreed en vervolgens nog eens achteruit over die persoon reed.

Uit het onderzoek bleek ook dat er bij Wayno nog steeds menselijk toezicht (vanuit een centrale) was. Ook werkt het obv zeer nauwkeurige kaarten en dat maakt het minder makkelijk schaalbaar.

Goed dat ze die veiligheidsmaatregelen met toezicht namen hoor, en het blijft erg indrukwekkend. Maar klakkeloos het ene systeem beter dan het andere noemen gaat mij te ver.
Haha wat een onzin.

Waymo is onlangs zijn vergunning kwijtgeraakt in San Francisco, nadat zo'n auto een voetganger aanreed en vervolgens nog eens achteruit over die persoon reed.
Bron graag.
Ik heb ze 3 weken geleden zelf rond zien rijden in San Francisco, en collega's van me zijn er mee rond gereden.

Ik kan alleen maar nieuws vinden over méér Waymo in San Francisco:
https://www.axios.com/loc...lifornia-freeway-approval
Uit het onderzoek bleek ook dat er bij Wayno nog steeds menselijk toezicht (vanuit een centrale) was. Ook werkt het obv zeer nauwkeurige kaarten en dat maakt het minder makkelijk schaalbaar.
Toezicht is er inderdaad, maar de auto's rijden in principe zelfstandig. Wanneer er situaties zijn die door de auto als onbekend worden geacht, wordt er inderdaad op afstand controle over de auto genomen.
Maar klakkeloos het ene systeem beter dan het andere noemen gaat mij te ver.
Mij ook. En daarom noem ik het indrukwekkender, niet beter. Zoals je kunt lezen in mijn originele reactie.
Bron?
Ik zie iets in 2021, maar dat noem ik niet onlangs, en ik vind niets dat ze hun vergunning kwijt zijn.
Helemaal eens.
Volgens mij is het meer dat in theorie er andere fabrikanten/platforms beter zijn maar gewoon niet zoveel vlieguren maken in het echte leven maar meer virtueel rijden.
Heel leuk maar dan moet je dus zelf bedenken wat er in het echt kan gebeuren. Tesla heeft vaak laten zien dat er scenarios zijn waarvan je nooit zou kunnen bedenken dat ze er zijn. En dan elke mogelijke combinatie van situaties.
Volgens mij heb ik van Nvidia ook hele goede dingen gezien maar zie ik ook niet algemeen toegepast worden, alleen hele speciale aangepaste autos die met heel veel lidar werken volgens mij.
Het totaal van Tesla en pure vision is gewoon speciaal hoeveel anderen het ook willen wegmaken als gimmick.
Het is illegaal om met alcohol op of wanneer je te moe bent om achter het stuur te kruipen, elke self driving systeem moet dan ook met de gemiddelde mens die nuchter en uitgeslapen is vergeleken worden, of gaan we self driving systemen een rijbewijs geven als het minder kan dan wat we van een mens verwachten.

De concurrentie heeft gewoon effectief middelen om te detecteren of een gebruiker oplet. Als je het relaas van Mmore leest levert het 'chauffeur detectiesysteem' van Tesla zoveel false positives op terwijl het zo goed is dat veel mensen die achter het stuur zitten het full self driving systeem vertrouwen, dat er statistisch significant veel Tesla gebruikers het systeem omzeilen.

Andere fabrikanten lijken er wel in te slagen om hun level 2 systeem gebruikers te laten opletten. Het licht dan wel degelijk aan Tesla dat het specifiek Tesla gebruikers zijn die het 'veiligheidsssyteem' omzeilen, omdat ze toelaten dat het omzeild kan worden...
Laten we ook gelijk even realistisch zijn, alles beta, alpha of whatever wat nog in een test fase zit, hoort ABSOLUUT niet thuis op de openbare weg met super strikte uitzonderingen waarbij er andere autos in de buurt horen te rijden die per direct in kunnen stappen, weg blokkeren, auto uitschakelen etc etc.
Ik heb de concurrenten nog niet door drukke straten zien rijden zoals de nieuwe FSD dat doet, behalve waymo.
Nou bij deze dan,

YouTube: DRIVEN: Mercedes-Benz Drive Pilot | Level 3 Autonomous Driving | Are...
YouTube: Testing Mercedes Drive Pilot level 3 autonomy in traffic

YouTube: bmw driving assistant standard in rush hour
YouTube: BMW iX: traffic jam & highway assist. Driving Assistant Professional...

Tesla's zie je meer op youtube want het is gewoon populairder. En de cult van personality er om heen zorgt er voor dat mensen enthousiast blijven en dus content blijven maken over die autos.
Heel leuk, inderdaad ze kunnen ook het 1 en ander. het verschil zit hem in de limitaties of niet. Tesla werkt in de regen, de sneeuw, voor zover ik weet elk soort terrein inclusief unmapped, parkeerplaatsen etc. Topsnelheid durf ik niet te zeggen maar in ieder geval ook de snelweg op.
Allerlei kleine dingen die in de andere systemen (nog) niet kunnen. Of dat safety marge is of daadwerkelijk niet kunnen durf ik dan niet te zeggen maar het is wel degelijk een verschil.
Zeker met de nieuwste Tesla FSD supervised versie die nog meer gebaseerd is op direct driving input naar driving output in plaats van puur classification network en dan op basis van classificaties (input) naar driving output geeft dit een zeer robuuste ervaring en breed inzetbaar.
Moet wel zeggen ik zie inderdaad minder van de andere platforms en dat heeft denk ik ook een reden maar dat laat ik aan de lezer.
Tesla mag zich nog achter mooie kreten verbergen maar de rechter hier heeft daar duidelijk een andere gedachte over. Het verandert ook niets aan mijn eerdere statement, Tesla verkoopt een product wat bij lange na niet af is, wat we hier zien duidelijk onveilig is (zonder erop in te gaan hoe slecht het presteerd en hoeveel ongelukken daardoor gebeuren) en heeft een CEO die constant een product staat aan te prijzen wat gewoon pruts is. En zoals ik al aangaf ondanks bergen data, doen ze gewoon veelste weinig, niet mijn woorden maar die van de rechter.
Welke rechter? Waar doel je nu precies op?
In het artikel staat duidelijk dat de meeste ongelukken gebeuren door misbruik van de autopilot functie.
Ik heb zelf een kia die in adaptive CC ook bijzonder vervelende trekjes heeft. Weliswaar ook daar een duidelijke waarschuwing als je het stuur los laat, net als bij Tesla. Maar soms is het systeem best wel in de war bij onverwachte belijning wijzigingen.
De Teslas waar ik mee reed deden het daar veel beter.
Dat Tesla te weinig doet om misbruik te voorkomen kan best zo zijn. Of dat ze meer zouden moeten doen. Maar misbruik is iets wat de chauffeur zelf doet. En ik prefereer nog steeds een auto die doet wat ik wil.
De toezichthouder gebruikt de term misbruik niet zoals wij het nu mogelijk opvatten om de bestuurder verantwoordelijk te houden. De toezichthouder omschrijft dat er situaties zijn waar niet alleen onwetendheid in het spel was. Dat is wat anders dan dat de bestuurder perse maar opzettelijk misbruik van de situatie maakt. En dat lijken de rechtzaken en rechters waarop de toezichthouder zich baseerd dus ook niet zomaar te stellen. Nu is de toezichthouder geen rechter zoals we die kennen, maar men geeft wel rechtsgeldige uitspraken die belanghebbenden niet zomaar mogen negeren. Natuurlijk kan men het aanvechten bij hogere rechtwijzing, maar dat doet niet zomaar af aan de oordelen.
De bekende dodelijke ongelukken die het nieuws haalden waren allemaal terug te voeren op bestuurders die letterlijk "rare dingen" deden.
Dat het misschien te gemakkelijk is om rare dingen te doen laat onverlet de verantwoordelijkheid van de bestuurder zelf.
Er wordt misbruik gemaakt omdat systeem niet zo werkt als mensen willen of “ verwachten”.kortom met kleine tweak en beetje risico omdat het niet is toegestaan.Levert het een prettige rij ervaring op. Het moet niet zo zijn dat je gek wordt van je auto omdat je heel de tijd gewaarschuwd wordt. Een goede auto doet wat jij verwacht.
Het moet niet zo zijn dat je gek wordt van je auto omdat je heel de tijd gewaarschuwd wordt.
Het grappige daaraan is dat het meest vervelende alarm die volstrekt nutteloze melding is als je ook maar eventjes en slechts een paar km (volgens mij vanaf 3km/h) over de (volgens de auto) geldende snelheidslimiet heengaat. Strontvervelend. Wordt bij elke rit opnieuw ingeschakeld vanwege enorm onzinnige wetgeving vanuit de EU waar totaal niet over nagedacht is. Als er een functie is waarvan ik denk dat die nog eens ongelukken gaat veroorzaken omdat je afgeleid wordt en een actie moet ondernemen om het op te heffen: dan is dat het wel.
zien dat veel (dodelijke) ongelukken met autopilot gebeuren
is dat zo? of is dat slechts uw onderbuikgevoel?
Federal authorities say a “critical safety gap” in Tesla's Autopilot system contributed to at least 467 collisions, 13 resulting in fatalities and “many others” resulting in serious injuries.
Dat is de helft van het verhaal. Hoeveel ongelukken heeft het voorkomen? Dat is de andere helft, die lees ik nergens terug, maar is wel zeer relevant om een oordeel over het geheel te vellen.
Klinkt alsof je het over FSD hebt. Autopilot is echt niet een knopje en je komt thuis.
Dat is dan weer zo'n vage grens omdat men steeds moet spreken in relatieve termen. Maar in de regel is het zo dat als de fabrikant kennis had van en er niks aan deed dat ze zeker wel aansprakelijk zijn.

Gezien de vele filmpjes op social media en ook de filmpjes dat mensen worden staande gehouden door de politie terwijl ze een sinaasappel tussen hun stuur hadden, kan je denk ik niet meer zeggen dat Tesla niet wist dat het kon en ook niet wist dat het werd gebruikt. Het is dus aan hun om er iets aan te doen, omdat het gaat om een ongewenste ontwerpfout.

Het kan met software worden verholpen, dat blijkt uit de software van afgelopen december, maar ze hebben daar wel echt lang over gedaan.
Maar in de regel is het zo dat als de fabrikant kennis had van en er niks aan deed dat ze zeker wel aansprakelijk zijn.
Forseeable misuse wordt dat genoemd in regelgeving termen. Dit moet vaak (in de medische hoek althans) alsnog afgedekt worden bij risico analyses door de fabrikant.
In automotive ook, in ieder geval in Europa. Ik verwacht niet dat dat anders is in de US.
Tsja, maar waarom zit er dan geen alcoholslot op alle auto's? Beetje zelfde verhaal toch? Hoeveel doden vallen er in een jaar door alcoholgebruik, in de VS? Ik heb de data niet, maar mijn onderbuik zegt: iets meer dan 13.
Dat moet je aan de RDW of road authority vragen.
Alleen mag je niet vergeten dat de regelgeving in de VS en de EU anders is waardoor AP hier anders is ingesteld om na te gaan of jij je stuur nog vast hebt. In de EU zijn we daar een stuk strenger op.
Inderdaad Tesla ‘piept’ in de EU iedere 15 sec om het stuur te ‘verdraaien’
... en in nieuwere auto's ook elke 5 seconden als je even naar je navigatiescherm kijkt om te zien hoe je moet rijden. Reageer je niet meteen, heb je geen autopilot meer tot je de auto in z'n P zet.

Wat wel aardig zou zijn is als de detectie 'torsie' 2 kanten op zou eisen, niet alleen een beetje kracht. Maar eigenlijk denk en vind ik dat de intereurcamera al het werk zou moeten doen - het gebeurt me namelijk best af en toe dat mijn stuur-wiggle niet genoeg is, en dan doe je het wat harder en schiet hij uit de autosteer - ofwel, verander je ineens van je lijn. Nice :(
Om eerlijk te zijn ben ik niet bekend met echt specifieke regelgeving wat dat betreft, misschien een eis vanuit de nationale of Europese instanties, maar echt iets wat door de EU goedgekeurd is heb ik nooit gezien.

Het rare is dat je dat niet alleen bij Tesla, maar bij een hoop andere merken en andere industrieën tegenkomt.

Ik heb dat altijd gegooid op het feit dat de mentaliteit hier totaal anders is en dat wij wel een werkend apparaat hebben. In Amerika kunnen ze een keer de schouders ophalen en de boel afkopen, in Europa kom je daar echt niet mee weg en als er doden zijn gevallen dan kan je zeker wel celstraffen verwachten. Zelfs de heilige Duitse auto-industrie bleek ineens niet zo heilig te zijn. Hoog geplaatste pieven verdwenen ineens achter de tralies.

Als voorbeeld kan je de massaclaim van de consumentenbond tegen Facebook nemen, daar gaat het waarschijnlijk gebeuren dat Meta tot 1500 per geval moet betalen. Dat soort bedragen kunnen ze in de VS van dromen.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 00:48]

Weet niet of het nu echt met regelgeving te maken heeft. Want bij skoda bijvoorbeeld heb je Traffic Jam assist. Hier kun je tot 60km/u gewoon je sinasappeltje pellen en eten zonder dat er maar een piepje te horen is. Althans dat was mijn ervaring in een opzettelijke (korte) file rit in de overweging weer een skoda te nemen.

Ik rij regelmatig en heb over het algemeen mijn handen "10 voor twee". Zelfs dan piept de tesla dat ik mijn handen aan het stuur moet houden. De autopilot is echt een beetje knullig hoor, ik hoop dat ze dit uiteindelijk een beetje gaan verbeteren want met een hand aan stuur chillend cruisen hoor je niks omdat je dan "aan het stuur trekt". in mijn ogen is dat een stuk onveiliger.
Het ligt er inderdaad aan wat voor systeem ze gebruiken.
Je hebt systemen die kijken of er een kleine draaiende beweging aan het stuur is. Of ze draaien het stuur zelf iets en kijken of er tegendruk is omdat er een hand aan het stuur is. In de handgreep van het stuur zitten geen sensors.
Andere systemen detecteren daadwerkelijk of er een hand op het stuur zit.

Maar in beiden gevallen betekent een hand op het stuur nog niet dat je ook oplet.
Vandaar dat er nu systemen zijn die je ogen in de gaten houden, omdat dat veel belangrijker is.

Zelf schakel ik daarom de lane assist systemen uit, omdat ik weet dat ik minder goed oplet als ik ze aan heb staan.
En aangezien je niet moe word van je handen aan het stuur houden leveren ze ook geen voordeel op.
Dit in tegenstelling tot automatische cruise control dat daadwerkelijk een voordeel oplevert.
Het k had hiervoor een Octavia (zonder lane assist) en nu ik het in de tesla heb echt een N.V. erademing met lange ritten.

Elektrische rijden is echt fantastisch en de handeling van de auto over het algemeen ook erg goed. Buiten de piepjes en onzin waarschuwingen elke keer.

Eerlijk: het werkt juist zo’n tool op stuur in de hand om te voorkomen dat je telkens verteld wordt je handen aan het stuur te hebben terwijl ik goed oplet met beide handen aan het stuur.

Wat de technische reden ook is interesseert me niet. Het moet gewoon niet de bestuurder irriteren.
Het wordt verwacht dat als bepaalde methoden worden gebruikt om een systeem te misbruiken waarbij anderen gevaar lopen dat een fabrikant een redelijke inspanning levert om het gebruik van dergelijke methoden zinloos te maken of minimaal minder effectief.

Als is gebleken dat Tesla onvoldoende inspanning heeft geleverd om misbruik tegen te gaan dan gaan ze uiteindelijk niet vrijuit.
Het doel van het maken van auto's is niet alleen functionaliteiten verkopen maar ook zorgen voor genoeg veiligheid van medeweggebruikers bij die functionaliteiten.
Het valt een fabrikant dus zeker te verwijten als die voorkeur heeft voor het verkopen. Zeker als deze de functionaliteit mooier voor doet dan het is en zelfs belangrijke zaken liever niet vermeld die de veiligheid beïnvloeden.
Inderdaad. Ik heb nu een MY een half jaartje. het is echt een grote piep en waarschuwing festijn.

Soms phantom braking., en flink op de klippen dan ook. Soms redelijk voorspelbare situaties zoals auto/vrachtwagen komt dichterbij aan linker of rechter kant. Heel af en toe niet te achterhalen.

Wisselen van rijbaan gaat autopilot (met rijbaan assistent) niet automatisch weer aan. Is gewoon basis functionaliteit in zowat alle auto's die ACC hebben.

Ook vooral dat "hou je handen aan het stuur" ik rij 90% van de tijd "tien voor twee" dat ziet de auto dus niet. Als ik Cruise met een hand om het stuur dan voelt hij dat wel. Vraag me af wat veiliger is.....

Een week een MYP gehad met full auto pilot. Wat een draak. Gelukkig had ik daar niet voor betaald.

Er is nog echt wel werk aan de winkel om het een beetje gebruikersvriendelijk te maken. Ik begrijp dat je als auto fabrikant wil voorkomen dat er misbruik van wordt gemaakt, maar dat mag niet ten koste gaan van de rijkkwaliteit/ervaring. Gelukkig kan heel veel middels software updates. Die matrix (adaptive) grootlicht is echt super fijn bijvoorbeeld.
Wisselen van rijbaan gaat autopilot (met rijbaan assistent) niet automatisch weer aan. Is gewoon basis functionaliteit in zowat alle auto's die ACC hebben.
Dan heb je gewoon niet betaald voor Enhanced autopilot (die kan rijbaanwissels doen).
Ook vooral dat "hou je handen aan het stuur" ik rij 90% van de tijd "tien voor twee" dat ziet de auto dus niet. Als ik Cruise met een hand om het stuur dan voelt hij dat wel. Vraag me af wat veiliger is.....
Tesla heeft inderdaad geen capacitieve sensors in het stuur dus ze meten weerstand/onbalans. Gewoon vasthouden is dus niet voldoende.
Een week een MYP gehad met full auto pilot. Wat een draak. Gelukkig had ik daar niet voor betaald.
Een groot deel van de frustraties met dat systeem in de EU komt door hele starre regelgeving. Bijvoorbeeld als een rijbaanwissel niet binnen x seconden na richtingaangeven uitgevoerd is moet deze geannuleerd worden. Super onhandig als dat gebeurt als autopilot net begonnen is met opzij bewegen maar er is helaas niet veel aan te doen. Neem contact op met je vertegenwoordiger in de EU/UN en vraag om betere regelgeving. Als je eenmaal bekend bent met de grenzen van het systeem kan je een stuk beter anticiperen waar de grenzen liggen en is het prima bruikbaar.
Dan heb je gewoon niet betaald voor Enhanced autopilot (die kan rijbaanwissels doen).
Daar heeft hij het niet over.
Waar jij het over hebt is dat de auto de rijbaanwissel uitvoert.
Waar phoenix2149 het over heeft is dat hij zelf een rijbaanwissel kan doen zonder dat de assistent uit gaat.
Bij mijn auto met adaptive cruise control en lane assist kan ik gewoon een rijbaanwissel uitvoeren en zodra ik in de nieuwe baan ben, zorgt lane assist er meteen weer voor dat ik netjes in die baan blijf. Zonder dat je de lane assist en adaptive cruise control weer moet activeren.

En wat betreft je klacht over vermeende starre regelgeving moet je even wat verder nadenken over wat er staat.
Als jij zelf een rijbaanwissel uitvoert dan ga je eerst kijken of er ruimte is, dan zet je je richtingaanwijzer aan en dan voer je vlot je wissel uit.
Je kan niet oeverloos je richtingaanwijzer aan laten staan om te wachten tot een gaatje.
Dus wat de "starre regelgeving" vereist, is niks anders dan wat je geleerd krijgt voor je rijbewijs.
Iets meer inlezen nog, want de regelgeving is echt ridicuul streng - in Nederland is er volgens de regels echt nooit een gaatje om in te halen: een achterligger moet zonder snelheid te verminderen gedurende de gehele inhaalactie tenminste 2 seconden afstand tot je houden.

Ja, dan kan je inderdaad een tijdje wachten! Wat volgens de regeltjes weer niet mag, want je voorwiel moet binnen meen ik 5 seconden na het initieren, de streep over zijn.

Dus ja, de regeltjes zijn te star, komen niet overeen met de dagelijkse praktijk van wat human drivers doen.
Sorry hoor, maar de dagelijkse praktijk van human drivers is dat ze wel degelijk binnen 5 seconden na het initieren de streep over zijn.
Klopt, maar ook dat ze a) geen 2 seconden afstand houden en b) er niet voor zorgen dat de achterligger altijd meer dan 2 seconden afstand tot jou heeft. Dat maakt het makkelijker.
Volgens de huidige regels moet de bestuurder ZELF inschatten of binnen de komende plusminus 2 seconden aan die 2 regels voldaan is, omdat anders het initieren (via de richtingaanwijzer) zinloos is.
Als je zou mogen aangeven aan de auto van 'ik wil', en dat de auto dan ZELF zou gaan monitoren voor de legaalheid van de move (volgens de regels) - OOK als dat langer dan 5 seconden duurt; en het knipperlicht zou mogen aanzetten als het daadwerkelijk mag en gaat gebeuren, ja dan zou het werken. Maar nee. De mens moet zelf alles inschatten, zodat hij zelf geen kleine draaibeweging aan het stuur hoeft te maken voor de baanwissel... (wat je trouwens volgens de regels ALSNOG moet - een duwtje tegen het stuur EN richting aangeven op precies het goede moment).
Nog een mooie regel: als de auto achter jou (dus op de baan waar je vandaan komt) tegelijkertijd OOK naar links beweegt, EN deze geen 2 seconden afstand heeft, dan moet de auto de actie annuleren, en een onverwachte, snelle beweging terug naar z'n baan maken. Hoe verzinnen ze dat dat een goed en veilig idee is.

Nee, geef mij Tesla's US approach maar: LAAT EEN ZELFRIJDENDE AUTO GEWOON VERSTAND RIJDENDE ECHTE MENSEN IMITEREN!

Maar het gaat denk ik nog 10 jaar duren hier - niet omdat het technisch niet kan binnen niet al te lange tijd, maar omdat het hier in de EU tegengehouden gaat worden. De grote EU merken, die nog altijd op 'sensors en regeltjes' implenteren modus zitten, gaan daar voor zorgen.
Het probleem is niet dat het systeem niet een gaatje kan vinden maar dat tussen het aangeven van "ik wil van rijbaan wisselen" en de daadwerkelijke wissel niet meer dan 5 seconden mag zitten en die hele tijd de richtingaanwijzer aan moet staan. Het zou al veel beter zijn als je als eindgebruiker je intentie eerder kan aangeven en het systeem dan zelf een gaatje kiest en de richtingaanwijzer aanzet. En zoals @BoekaBart ook al aangeeft is de definitie van een veilige ruimte om naartoe te wisselen zodanig opgesteld dat het systeem alleen bruikbaar is op zeer rustige momenten.
Als je als gebruiker niet zelf meer op zoek wilt naar een gaatje, maar de auto dat wilt laten doen, dan is het dus een gebrek van het systeem in de auto dat die continue de richtingaanwijzer aan zet. Want zo hoor je niet te rijden.
Dat is dan niet een probleem van starre Europes regels, maar een slecht implementatie van Tesla.
Dat is het dus niet, in de VS was de vergelijkbare Autopilot versie (v11) prima in staat om dit te doen. Dit word alleen in de EU beperkt vanwege regelgeving.
Dan heb je gewoon niet betaald voor Enhanced autopilot (die kan rijbaanwissels doen).
Ik wil helemaal niet zelfstandig laten wisselen. Ik zou zeggen dat met normale lane assist bij 90% van de auto’s de lijn van de baan waar je naartoe gaat even uit gaat als je knipperlicht aan gaat. Eenmaal gewisseld gaat de lane assist weer aan.

Bij tesla weer aanzetten en piepjes met uitgaan en aanzetten. Ook het uitgaan gebeurd niet altijd dus moet je eerst met je stuur forceren. Het is krakkemikkig.
Tesla heeft inderdaad geen capacitieve sensors in het stuur dus ze meten weerstand/onbalans. Gewoon vasthouden is dus niet voldoende.
De technische rede maakt mij niet uit. Het is irritant en eigenlijk dus meer onveilig dan veilig en werkt het gebruik van tools juist in de hand.

Ze willen zo graag voorloper zijn maar eigenlijk blijven ze zo best ver achter de competitie.
Een groot deel van de frustraties met dat systeem in de EU komt door hele starre regelgeving. Bijvoorbeeld als een rijbaanwissel niet binnen x seconden na richtingaangeven uitgevoerd is moet deze geannuleerd worden. Super onhandig als dat gebeurt als autopilot net begonnen is met opzij bewegen maar er is helaas niet veel aan te doen. Neem contact op met je vertegenwoordiger in de EU/UN en vraag om betere regelgeving. Als je eenmaal bekend bent met de grenzen van het systeem kan je een stuk beter anticiperen waar de grenzen liggen en is het prima bruikbaar.
Nogmaals ik wil niet dat de auto automatisch wisselt. Dus die regelgeving is niet van toepassing. Veel te langzaam en een gedoe vond ik toen ik een leenauto had. Alsof je als een oud omaatje van baan wisselt.
Probeer het maar eens met een Highland Model 3 - daar moet je met precies de juiste interval dubbelklikken op het rechter scroll wieltje om de autosteer weer aan te zetten na de baanwissel. Kies je de juiste frequentie, piepjes en ok. Maar kies je net de verkeerde (te snel of te langzaam) - dan zet je de TACC uit. Wat niet handig is nadat je net naar links bent gegaan :( En correct dubbelklikken op een best zwaar scrollwieltje zonder te scrollen is echt best lastig!
Wat knullig. Is toch gewoon suf van zo’n tech bedrijf?
Als je moedwillig een gewichtje oid aan je stuur installeert en dan een ongeval veroorzaakt dan ben je wat mij betreft ook schuldig.
Die mening had ik ook altijd, maar begin nu steeds meer te neigen naar zoiets.
Niet omdat ik handsfree wil rijden, maar om de vele waarschuwingen te voorkomen.

Want ik heb altijd mijn handen aan het stuur, maar met net niet genoeg kracht om het systeem dat te laten merken.
Dat is toch een kwestie van gewenning? In mijn Hyundai werkte het niet anders: het gaat niet om vasthouden (er zitten geen sensoren in het stuur daarvoor), maar om 'weerstand bieden' aan het draaien.
Dat dacht ik ook, maar sinds de laatste aanpassing blijft hij nu constant aangeven dat ik mijn stuur moet vasthouden. Het jaar ervoor zelden een melding, nu relatief vaak.

Of ik ben het verleerd, of de hoeveelheid weerstand is aangepast.
Nee hoor ligt niet aan jou. De huidige implementatie is verschrikkelijk en veel te streng. Adaptive cruise control in mijn Mazda is een stuk fijner en zeurt veel minder snel.

Op het moment dat tesla begint te zeuren moet ik soms ook zo hard trekken dat het eerder gevaarlijk is dan veilig. Eigenlijk zouden alle sturen capactitieve sensoren moeten hebben waarmee ze kunnen meten of je hem aanraakt.

[Reactie gewijzigd door Isniedood op 23 juli 2024 00:48]

Bij de meer premium merken zitten er inderdaad capacitieve oppervlakken in het stuur.

Maar voor Tesla is een parkeer- of regensensor al te duur dus ik snap wel waarom het niet in hun visie van de zelfrijdende auto past. Ook al wordt dat niet bereikt met de huidige modellen.
Welk premium merk heeft dat? Bron?
Mercedes en schijnbaar Volkswagen, onder andere, maar er zullen er vast veel meer zijn, het werkt gewoon beter. Zie ook https://iee-sensing.com/a...riving/handsoffdetection/ en https://ams-osram.com/new.../as8579-capacitive-sensor bijvoorbeeld, maar er zijn meer aanbieders.

Overigens is dat een heel simpele search op Google, dan heb je je resultaat sneller dan hier om een bron te vragen.

[Reactie gewijzigd door Grrrrrene op 23 juli 2024 00:48]

Volgens zijn de meeste fabrikanten begonnen met draaidetectie en gaan de meeste nu over naar een capactieve detectie. Ook de niet-premium merken.
Wat ook makkelijk de faken is (nog makkelijker zelfs), door een geleidend bandje met draadje van pols naar stuur. Tevens nog onveiliger.
Het gaat niet om faken, want met al deze systemen blijft de bestuurder verantwoordelijk. Diegene die het systeem omzeilt misleidt dus alleen zichzelf door het systeem te gebruiken waar het niet voor bedoeld is.

Waar het om gaat is dat mensen die wel hun hand aan het stuur hebben met capacitieve detectie nu niet alsnog geprompt worden om een extra stuurinput te geven, alleen om te laten zien dat ze nog aanwezig zijn.
Dan doe je er een temperatuursensor bij in 8)7 Alles is te faken, maar capacitief werkt veel betrouwbaarder. Het lijkt mij heel irritant om van tijd tot tijd bewust een slingering van mijn auto te moeten veroorzaken, omdat het adaptive cruise/lane keeping systeem anders niet weet dat ik het stuur gewoon vast heb.

Dat polsbandje met draadje naar het stuur, voor zover dat werkelijk werkt als ze op 2 plekken detecteren, lijkt me vooral heel vervelend omdat je het steeds opnieuw moet aansluiten. Zo'n gewichtje laat je permanent zitten en hoef je dus niet meer achteraan. De kans is groter dat mensen zo'n systeem gaan omzeilen.
Geen idee, ik heb pas 2 wk een Tesla, dus ik ben denk ik niet anders gewend. Vind hoe het nu werkt in ieder geval redelijk overeen komen met hoe het in mijn Hyundai werkte.
Ik merk een groot verschil. In onze Sante Fé kan ik van rijbaan wisselen zonder dat de lane assist uit gaat, in mijn Model 3 bekend een baan wissel dat de auto pilot uit gaat. Zeer irritant.
Richting aanwijzer gebruiken en dan wisselt de auto pilot van rijbaan.
Het is nooit de bedoeling geweest dat je dit met het stuur gaat doen.
Tesla zit in de gedachte dat het stuur er op een gegeven moment helemaal uit moet.
Ehhh met FSD misschien als je voor die upgrade betaalt hebt, maar met het standaardpakket weigert de Tesla dat te doen. (Althans: hier wisselt ie niet :P) Je kan je knipperlicht aanzetten, maar de auto zal gewoon in dezelfde baan blijven en AutoPilot onmiddellijk uitschakelen zodra je daadwerkelijk (noodgedwongen handmatig dus ;)) van baan gaat wisselen.

Ik vind het ook irritant. Dat hij niet zelf van baan wil wisselen is prima, maar dat ie dan AP meteen uitschakelt en je die daarna weer in moet schakelen is waardeloos - had op z'n minst kunnen begrijpen dat je van baan gaat wisselen met het knipperlicht aan en AP dan ingeschakeld blijft terwijl je handmatig van baan wisselt. Als je fatsoenlijk rechts wil houden, wat hopelijk iedereen zoveel mogelijk doet, dan ben je op een wat drukkere dag constant AP aan het aan- en uitzetten. Resultaat: dan maar enkel TACC. (Al heb ik daar ook moeite mee omdat die veel en veel te vroeg, zelfs op de minimale afstand, begint met snelheid te minderen. Overweeg het uit te zetten zodat ie niet meer zelf gaat remmen. Jammer in de file waar het wel fijn is.)

[Reactie gewijzigd door WhatsappHack op 23 juli 2024 00:48]

Ik vindt het raar dat iedereen over eens is dat mensen die mobiel bellen in de auto stokslagen moeten krijgen maar Tesla een autopilot functie kan introduceren zonder de minste oversight.
Ja dit kan je Tesla aanrekenen als ze niet al wat mogelijk is doen om dat misbruik te voorkomen... Feit dat iemand het systeem misbruikt (en zo een ongeval veroorzaakt) is wel degelijk een groot probleem inzake dat hij bv mogelijk een kind van het zebrapad maait... (het moest jouw kind maar eens zijn...) -- Wat er met de bestuurder / misbruiker zelf gebeurt in een ongeval zal me worst wezen (laat dat duidelijk zijn)
De detectie zelf saboteren is natuurlijk een probleem.
Maar dat de detectie makkelijk te omzeilen is, dat is ook een probleem. Het een sluit het ander niet uit.
Tja.. als de functie misbruikt wordt kan je tesla dan nog aanrekenen? Ik heb zelf een jaar in een model 3 gereden en irriteerde me enorm aan hoe snel het systeem mopperde dat je het stuur moest bewegen of aandacht op de weg moest hebben (terwijl ik dat gewoon had). Als je moedwillig een gewichtje oid aan je stuur installeert en dan een ongeval veroorzaakt dan ben je wat mij betreft ook schuldig.
In principe mee eens, maar Tesla bezuinigt op de sensoren en de detectie van je handen aan het stuur. Als ik het goed begrijp gebruikt Tesla (als enige) geen capacitieve detectie van je handen, waardoor je kleine rukjes aan het stuur moet geven om aan te geven dat je nog je handen aan het stuur hebt.

Ik zag toevallig gisteren een demo van een Tesla Model 3 (geloof ik) die door nauwe straatjes in Philadelphia reed. Volledig op autopilot, deed hij zonder schade te rijden, maar hij reed echt eng hard vlak langs de geparkeerde auto's. Er zal maar een kind of een hond tussen die auto's vandaan komen. De chauffeur die de demo gaf had het zichtbaar moeilijk met de snelheid waarmee de Tesla zich door de nauwe straatjes baande, maar kwam op het eind wel met "wow, wat werkt dit systeem goed". Nee, als jij doodsangsten uitstaat achter het stuur omdat Tesla autopilot hard door een smal straatje stuurt, doet het systeem het niet goed. Het geeft aan dat het systeem bepaalde gevaren niet goed inschat en jij met je menselijke ervaring wel.
Rij nu vooral Renault en Toyota en merk dat de adaptive cruise control plus lane center/keeping assistant eigenlijk net zo goed of zelfs beter zijn als de standaard auto pilot in Tesla’s en veel minder snel moeilijk doen.
...en met dat soort auto's ga je dus niet op zoek naar trucs om het systeem te omzeilen. Bovendien pretendeert lane centering/keeping of adaptive cruise control niet dat het voor jou gaat rijden. Ik vind nog steeds de term "autopilot" niet correct voor zo'n openbare beta waar je zelf de aandacht er nog bij moet houden, omdat het niet 100% werkt. Ergens te gek voor woorden dat het op de openbare weg mag, maar goed.

[Reactie gewijzigd door Grrrrrene op 23 juli 2024 00:48]

gebruikt Tesla (als enige) geen capacitieve detectie
Er zijn heel veel merken die de detectie uitvoeren op het draaien van het stuur. Hetzij detecteren ze dat jij kleine bewegingen maakt, (die je zelf niet in de gaten hebt) of dat ze zelf een kleine beweging maken en detecteren dat jouw handen aan het stuur die beweging enigzins tegen gaan. (ook weer zonder dat je het in de gaten hebt)

Maar dat vertellen ze niet omdat mensen dan nog sneller misbruik gaan maken van die kennis.

Verder helemaal eens met je reactie.
Bij de recente luxere rangerover modellen waar semi-full self driving in zit, zitten camera's in het stuur die opletten of de bestuurder nog wel vooruit kijkt, en niet naar zijn telefoon of iets anders. Dit werkt met een strike systeem. Als er 3x is geconstateerd dat je iets anders doet dan op de weg letten werkt het systeem gedurende de dag niet meer.

Dit soort harde veiligheidsmaatregelen moet je gewoon inbouwen, want mensen gaan het anders misbruiken.
Eens. Dat strike systeem kent Tesla niet, maar je rijgedrag wordt wel via camera gemonitord en wijst je meteen terecht op moment je je aandacht verlegt van de weg naar iets anders.
Dit is onjuist, Tesla kent al zeker 4 jaar een dergelijk systeem.
Schijnbaar werkt het niet of onvoldoende, aangezien de NTSHA er duidelijk niet tevreden over is.
De NTSHA laat zich niet uit over specifieke modelgeneraties. Wellicht vinden ze dit wel alleen een probleem voor de modelgeneraties die dit nog niet deden?

Hoe dan ook, het enige wat ik stel is dat de opmerking "dat strike systeem kent Tesla niet" aantoonbaar onjuist is de afgelopen jaren.
Wat de NTSHA ervan vind, is een andere discussie.
Het klopt dat in 2021 (3 jaar geleden) Tesla terug camera's geïntroduceerd heeft om te detecteren of de chauffeurs wel opletten. Elon Musk heeft persoonlijk een eerdere initiatief van Tesla om dat te doen bewust gesloopt vanwege te duur. Dat wil zegge' dat er nog relatief veel auto' s met gebrekkige detectiesystemen op de baan rijden. De gebruiker die het 'veiligheidsshsteem omzeilt is verantwoordelijk, maar de fabrikant die de software maakt die geen betere resultaten dan een nuchtere wakkere mens als piloot kan voorleggen, heeft ook zijn deel va' de verantwoordelijkheid, zeker daar de concurrentie er wel in slaagt om dit soort veiligheidsproblemen te vermijden.

[Reactie gewijzigd door Terracotta op 23 juli 2024 00:48]

Onjuist. Dat zit ook al in mijn 2019 model 3. Waarschijnlijk ook al.eerdere modellen.
De 2019 3 was de eerste Tesla hier in de EU met interieurcamera. De S en X hebben die pas bij de refresh in 2022 gekregen.
Inderdaad 5 strikes and your out. Dan ben je je bèta zelfsturen kwijt.
Tesla heeft sinds een tijdje wel degelijk een strike systeem waarbij je een week zonder autopilot zit. In EU kan je er voor kiezen om de interieur camera af te plakken, maar in de VS is dit of gaat dit ook niet mogen.
Tesla werkt ook met een 5-strike systeem waarbij je Autopilot of FSD kwijt raakt voor een week.
Zolang auto's niet 100% autonoom zijn en bestuurders niet voor de volle 90% hun aandacht bij het autorijden houden (want zeg nu eerlijk wie heeft er nu echt 100% zijn aandacht bij "routinewerk" als autorijden?) zal dat nodig zijn.
Inderdaad. Ofwel rijdt je zelf ofwel rijdt de auto autonoom. Iets tussen de 2 is niet lang vol te houden.

We zitten momenteel in de experimentele fase.

De toezichthouders doen hun werk, de autofabrikanten moeten daarmee aan de slag om het systeem beter te maken.
5-strikes betekent een week kwijt? Ik dacht dat 5 strikes betekende dat je de functie helemaal niet meer mag gebruiken.
Dat zou wat gek zijn voor een functie die duizenden Dollars kost.
Maar je kan het wel een week kwijtraken. Dan moet je het wel aardig bont maken.
Dat is misschien het verschil dan tussen FSD en AutoSteer. Die laatste zit in het standaard AutoPilot-pakket als béta en daar staat in wat chiquere bewoording dat 5x betekent dat je uit de beta geknikkerd wordt; de bewoording lijkt daar niet te suggereren dat dit slechts een weekje is maar echt permanent. :X
Het gaat om een week. Staat ook bij de waarschuwing als je het menu opent. Ik zit nu op 2 van de 5 strikes. Die strikes lijken nooit meer vergeten te worden.

Het het probleem gepatched met een pleister over de camera
Zoiets heeft tesla tegenwoordig ook
Dit soort berichten zou ik graag een +2 geven, maar dan moet er wel enige onderbouwing bijzitten. Welk systeem doel je op, en in hoeverre is het vergelijkbaar met het genoemde systeem?

[Reactie gewijzigd door uiltje op 23 juli 2024 00:48]

Enkel de modellen van de laatste drie jaar. Er rijden dus nog een hoop Tesla's rond waarbij dit niet het geval is, en het was ee' bewuste keuze van Musk dat het niet nodig was terwijl alle wetenschappelijke studies duidelijk maken dat mensen echt slecht, maar dan ook rotslecht, zijn in een systeem dat voor 99% van de tijd goed werkt, continu te monitoren.

Waymo is vanwege die reden direct naar completely self driving gegaan met betaalde chauffeurs die moeten monitoren, van hen kan je verwachten dat ze doen wat de firma voorschrijft. Van een beta tester verwacht je net dat die net niet doet wat de fabrikant verwacht dat je er mee doet, net om de edge cases en verkeerd gebruik te detecteren, identificeren en indien het een probleem is. Op te lossen...
Dat de beta tester hierdoor een risico met zijn leven neemt tot daar aan toe, maar de andere weggebruikers hebben niet gekozen om bèta tester van Tesla te zijn en worden er ook niet voor vergoed.

[Reactie gewijzigd door Terracotta op 23 juli 2024 00:48]

terwijl alle wetenschappelijke studies duidelijk maken dat mensen echt slecht, maar dan ook rotslecht, zijn in een systeem dat voor 99% van de tijd goed werkt, continu te monitoren.
Daar heb je geen wetenschappelijke studies voor nodig. Een klein beetje gezond verstand is daar ook voldoende voor.
van hen kan je verwachten dat ze doen wat de firma voorschrijft.
Nee, die mensen zijn net zo slecht in het monitoren van een systeem dat 99% van de tijd goed werkt.
Kijk maar naar het dodelijke ongeluk met die Uber waar een mens mee reed die moest monitoren en ingrijpen.
Dat lag aan Uber die zonder screening eender wie inzette.
Een professional kan je wel degelijk verantwoordelijk houden bij het niet opvolgen van de voorziene procedures.
er zijn genoeg mensen die infrastructuur moeten bewaken of permanente monitoring moeten doen van kritieke infrastructuur.
Het verschil tussen een professional waar in de jobdescription staat dat die moet opletten omdat die er ook voor vergoed wordt, of een bèta gebruiker die een lap tekst voorgeschoteld krijgt, vind ik best wel groot.
Waymo heeft op dat vlak geen problemen gehad met haar betaalde chauffeurs.
Het verschil is niet zo groot als je denkt. Het zijn namelijk menselijke eigenschappen dat je vanzelf minder goed oplet als iets vrijwel altijd goed gaat. Dat heeft niks met betaling of jobdescription of opleiding te maken.

Vandaar dat bij mensen die infrastructuur moeten bewaken er gekeken word hoe je de kwetsbaarheid van die menselijke eigenschap kan verminderen.
Dus bv een bewaker niet voor 20 schermen plaatsen waar niks gebeurt, maar alleen de schermen tonen waar beweging is. (erg simpel voorbeeld, maar je snapt het idee)
Het verschil is dat van een professional verwacht kan worden dat die anders omgaat met zijn natuurlijke instincten, dat is net het professioneel gedeelte in professional. Waymo heeft enkel professionele controleurs en heeft geen enkel issue gehad zoals Uber (een notoire tegenstander van professionele bestuurders, het zijn allemaal jobstudenten bij hen).

In het geval van Tesla is het nog erger. Daar gebeurt de 'screening' of ze er mee om kunnen op basis van hoeveel geld ze zelf op tafel leggen in combinatie met ze corrigeren wel als het foutloopt. Dat de gewone weggebruiker zich niet kandidaat gesteld heeft om in Tesla's beta programma te zitten.
OK goed punt, komt ie:
Autosteer is unavailable due to driver attentiveness. How do I turn it back on?
If you repeatedly ignore the inattentive driver warnings, Autosteer will be disengaged for that trip. If you receive several ‘Forced Autopilot Disengagements’ (three times for vehicles without a cabin camera and five times for vehicles with a cabin camera), Autosteer and all features that use Autosteer will be temporarily removed for approximately one week.
There is no way to manually clear a Forced Autopilot Disengagement or suspension. After approximately one week, you will be able to use Autosteer again.
bron (onderaan, tekst moet je uitvouwen)


Daarnaast kwam ik dit bericht nog tegen, er lijkt ook een "5 strikes out!" te zijn voor Full Self Drive. Deze gebruiker zou wel 80 dagen FSD kwijt zijn geraakt.

[Reactie gewijzigd door Menesis op 23 juli 2024 00:48]

Serieuze vraag, hoeveel kans denk je dat je maakt?

In eerste instantie is de bestuurder verantwoordelijk voor de controle van een voertuig. Dat daarbij hulpmiddelen zijn, betekend niet dat je een sudoko kunt gaan oplossen. In de transitie naar level 5 zullen it soort hobbels nog wel vaker tegenkomen. Je moet het trouwens echt bont maken voordat autopilot niet werkt. Het is mij nog niet overkomen. Ook niet op langere ritten in NL (heb mijn Tesla nog niet zo lang, dus de vakantie zullen we straks wel zien).

Die laatste vraag: dan leen je hem toch niet uit, of aan iemand die je vertrouwd.
Ik zou de fabrikant aanklagen als het systeem mij dat flikt. Ik bepaal zelf in hoeverre ik mijn aandacht bij de weg hou.
besef je dat je dit reageert op een artikel wat juist zegt dat de wetgever méér van dit wil. maw: nee, jij bepaalt dat niet zelf...
De Fisker Ocean laat je exact 500 keer launch control gebruiken, daarna is het "op".
Een aantal sportauto's beperkt de RPM de eerste X kilometers omdat de motor moet inlopen.
Tesla autopilot heeft bij aflevering een aantal kilometers kalibratie nodig voordat deze actief word.
Het geheugen in je telefoon/laptop/etc heeft een beperkt aantal writes, daarna is het versleten.

Elk product heeft wel beperkingen en randvoorwaarden. Bij Autopilot is dat duidelijk in de handleiding en op de website te vinden. Dat kan je niet willen pikken maar een rechtzaak heeft echt 0 kans van slagen. Als je dat een probleem vind koop je maar een ander product.

En ja, als je andere bestuurders je auto laat gebruiken kunnen ze ook die 5 strikes halen (ik ken iemand die dat in de 3 van zijn vrouw heeft geflikt). Het zou wel heel makkelijk zijn als je dat kan ontlopen door een nieuw bestuurdersprofiel aan te maken.

[Reactie gewijzigd door Tassadar32 op 23 juli 2024 00:48]

Ik snap de intentie,maar vind het meer zeggen: ons systeem is zo slecht, je kunt beter zelf rijden.

Juist als iemand dus blijkbaar niet oplet, kun je toch beter het systeem gebruiken zou je denken.
BMW heeft dat ook, maar zonder de 3 strikes. Die begint te piepen als je niet oplet en zet daarna het systeem uit. Je kunt het zelf weer aanzetten, geen limiet op hoe vaak je dat kunt doen.
Het nadeel van dit soort cijfers is dat je wel de ongevallen ziet waar Autopilot een rol speelde maar niet de ongevallen die voorkomen zijn omdat Autopilot er een rol speelde.

Nu wordt er vaak aangehaald dat Tesla rijders statistisch vaker schade rijden maar dat hoeft dan weer niets met Autopilot te maken te hebben.
Volgens LendingTree doen Tesla chauffeurs het bijzonder slecht...
Tesla drivers have the highest accident rate. From Nov. 14, 2022, through Nov. 14, 2023, Tesla drivers had 23.54 accidents per 1,000 drivers.
Dat hoge percentage komt niet omdat Autopilot zo goed is. Want als het wel zo goed zou zijn, zouden de chauffeurs er méér gebruik van maken en juist minder betrokken raken bij ongevallen.
Dat is letterlijk niet hoe statistiek werkt. Het kunnen in theorie allemaal parkeerschades zijn en dan heeft het niets te maken met Autopilot. In de praktijk zijn het natuurlijk niet allemaal parkeerschades maar je kan kan er ook niet uit concluderen dat het aan Autopilot ligt.
Niemand die beweert dat het dóór Autopilot komt. Je kunt alleen wel het omgekeerde met 100% zekerheid vaststellen, Autopilot voorkomt de ongevallen niet.

Tesla staat gewoon op de negatieve nummer één, Tesla chauffeurs veroorzaken de meeste ongevallen. Kun je heel simpel controleren door per merk het aantal chauffeurs en het aantal ongevallen bij te houden. Omzetten naar het aantal ongevallen per 1000 chauffeurs en je hebt je uitkomst. In dit geval staat Tesla op nummer één. Dus koop een Tesla en je betaalt een hogere verzekeringspremie.
Maar nogmaals, dat kan je Autopilot niet zomaar aanrekenen, sowieso is op heel veel plekken niet eens ingeschakeld. Je kan een mooi verhaal houden maar het sluit niet.
Maar nogmaals, dat kan je Autopilot niet zomaar aanrekenen, sowieso is op heel veel plekken niet eens ingeschakeld.
Ik reken het Autopilot ook niet aan, omdat ik niet weet of het nou wel of niet was ingeschakeld.

Echter heeft de National Highway Traffic Safety Administration 956 ongelukken geanalyseerd. Uit deze analyse bleek dat de Autopilot-functie bij 467 van die ongelukken een rol heeft gespeeld. Dat is een 50% van de ongevallen. Waarom probeer jij het werk van de NHTSA te ontkennen? Zonder dat jij de data kent.

De cijfers van LendingTree laten je gewoon een percentage zien, waarbij Tesla chauffeurs betrokken zijn bij de meeste ongevallen. Net zoals dat BMW chauffeurs de meeste DUI's scoren.
Dat is dus niet een juiste interpretatie van deze statistiek.

NHTSA has now closed that engineering analysis, which examined 956 crashes. After excluding crashes where the other car was at fault, where Autopilot wasn't operating, or where there was insufficient data to make a determination, it found 467 Autopilot crashes that fell into three distinct categories.

First, 221 were frontal crashes in which the Tesla hit a car or obstacle despite "adequate time for an attentive driver to respond to avoid or mitigate the crash." Another 111 Autopilot crashes occurred when the system was inadvertently disengaged by the driver, and the remaining 145 Autopilot crashes happened under low grip conditions, such as on a wet road.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Conclussie ... veel mensen zijn lui en dom en willen gewoon niet opletten in het verkeer want dan missen ze waarschijnlijk elke piep op hun smartphone.

Want ja ... verkeer ... das alleen maar lastig.

Blijkbaar is je "volgers" laten weten wat je doet belangrijker dan je leven...

[/sarcasme]

[Reactie gewijzigd door Sicos op 23 juli 2024 00:48]

Conclusie ... Tesla heeft de Autopilot veel beter laten klinken dan het eigenlijk is. Ze hebben zelfs jaren geleden al de term "Full Self Driving" gebruikt, wat nogal misleidend is.
Het duurt nog minimaal 25 jaar voor dat we enig zins klaar zijn voor "Full Self driving",
er zijn genoeg knappe koppen die denken dat het zelfs nog wel langer gaat duren.
wel een beetje bijblijven, FSD 12 is inmiddels prima in staat om je van A naar B te brengen, weliswaar alleen in de USA maar toch.
Van A naar B is ansich het probleem niet maar wel alle variabelen die tijdens een autorit
kunnen voorkomen, als voorbeeld niet het verschil kunnen detecteren tussen een pilon
die op de weg staat of een kind die oversteekt, daar schort het behoorlijk aan tot nu toe.
En het is nog altijd geen FSD. Je blijft als besturuder verantwoordelijk en je moet je handen aan het stuur houden. FSD is uit beta, en net zoals AP is het een benaming die de lading dus niet dekt en niet doet wat Tesla en Musk jaren terug beloofd hebben.
Het noemt nu FSD supervised. Lijkt me perfect de lading te dekken. Je krijgt ook vele meldingen dat je verantwoordelijk blijft en dat je niet zelfgenoegzaamheid (complacent) mag worden. Bovendien is het een van de weinige merken die de bestuurder zo in het oog houd tov de concurrenten.
FSD supervised dekt natuurlijk de lading niet. Das net zo'n onzin als "deels volledig manueel automatisch" - een contradictio in terminis.

Of het is FULL-SELF driving of het is supervised driving. Iets kan niet full self driving supervised zijn waar je "steeds" moet ingrijpen, dan is het niet full self.

"Vele meldingen" dat je zelf verantwoordelijk blijft is natuurlijk prachtig boilerplate-praat maar in de kern "zit het fout": Je kunt van mensen simpelweg niet verwachten dat ze 100% hun aandacht bij het rijden houden als de insteek is dat de auto 100% van het werk doet.
De NTSHA zegt nochtans letterlijk dat Tesla de outlier is in het slecht in het oog houden van de gebruiker, waar haal jij dan vandaan dat Tesla dat beter doet? Tesla marketing?
neemt Tesla de verantwoordelijkheid en aansprakelijkheid op zich als het toch misgaat? Dan is het ook geen FSD. Dan is het geautomatiseerd rijden onder supervisie. Met alle gevolgen van dien.
Ondertussen zijn er in de USA honderdduizenden auto's die tot het volgende in staat zijn.

YouTube: There’s a HUMAN inside Tesla FSD 12.3
Klopt. Het is nog niet perfect maar Waymo heeft alle reden om zich zorgen te maken. Waymo bouwt speciaal auto's voor heel veel geld om met camera's, Lidar en radar, brengt "geofenced" gebieden in kaart voor hun auto's. En dat terwijl Tesla dit wat je hier ziet allemaal al kan met 8 camera's en een vlot stuk hardware. Waymo is niet "supervised" in de gebieden waar het mag opereren maar Tesla zal niet geofenced zijn zodra het er klaar voor is, FSD heeft zelfs geen wegbelijning nodig, het werkt op ieder stuk weg, verhard of onverhard.
Zie ik die FSD nu tegen de enkele richting van de drive-in inrijden in het begin?
Dat zie ik dan weer niet? Daar rept de bestuurder die dit al jaren aan het reviewen is op zijn kanaal, ook niet over.

Er zijn een paar situaties waarin nog wordt ingegrepen, vooral rondom een wegafsluiting.
Als dat alles is...

Er zitten wel meer suboptimale dingen in. Net als dat mensen dat ook doen.
Gast, wat had jij als mens gedaan daar? Een kei scherpe links-rechts chicane genomen!? Ik had echt precies hetzelfde gedaan, en ik denk met mij 98% van de mensen.
Ik vermoed dat het niet de bedoeling is daar je langs die kant van de drive-in wegrijdt? Het viel mij op omdat ik toevallig onlangs in die situatie ben terechtgekomen.
Met respect voor de engineering tot op heden, is dit “assisted driving” nog lang niet af. Maar het lijkt voornamelijk te komen door vage pijlen (oude tegengestelde) prullenbakken op de weg, en hij verplaats van rijbaan over getrokken strepen. Weg afsluiting bijzonder opgelost. Vlaggetje, paar pionnetjes en bordje. Ga er maar aanstaan om in de hele wereld echt land specifieke vormen van afsluitingen te programmeren. Toch zie je zo de uitdaging dat fsd nooit de bestuurder kan vervangen. Auto zonder stuur zou met deze hardware en software nog niet werken zo te zien.
Het duurt nog minimaal 25 jaar voor dat we enig zins klaar zijn voor "Full Self driving",
er zijn genoeg knappe koppen die denken dat het zelfs nog wel langer gaat duren.
Ik weet het niet meer, ik heb lang gedacht dat het dichtbij was. Ik zie al 20 jaar indrukwekkende demo's van auto's/robots die zich uit complexe situaties weten te redden. Ik heb zelf robots gebouwd die al heel aardige konden navigeren. Omgaan met het onverwachtte was en is altijd het probleem, maar in heel veel situaties kan het nu al heel goed werken.,

<SPOILERS>
En toen zag ik gisteren de eerste race van A2RL, de Abudhabi Autonomous Racing League, en verloor ik alle vertrouwen. Zoveel als daar mis ging... de helft van de auto's heeft de startstreep niet eens gehaald en bij het minste of geringste gingen ze van de baan af of ging ze gewoon stil staan.
Ik snap dat deze auto's zijn geprogrammeerd door studenten en wetenschappers, niet door de autofabrikanten die pronken met zelfrijdende auto's. Ik snap dat racen op de limiet iets heel anders is dan door het normale verkeer tuffen. Toch was het geen goede reclame.

Het concept vind ik geweldig. Haal die mensen uit de auto zodat er geen slachtoffers kunnen vallen en dan kun je het gewicht halveren omdat je minder veiligheidsmaatregelen nodig hebt. Lijkt mij top.
Als ontwikkelsport heeft het meer bestaansrecht dan F1. De ontwikkelingen die daar uit voort vloeien zijn zo high tech dat het enorm lang duurt voor er iets van doordringt naar normale auto's en de verbeteringen zijn marginaal. Op het gebied van AI kun je enorme stappen maken die onmiddelijk bruikbaar zijn in andere voertuigen. Ik hoop dus dat alle grote autofabrikanten snel instappen en dit soort races gebruiken om hun eigen zelfrijdende auto's te showen. Dat gaan ze niet doen als ze voor paal staan omdat een stel studenten een betere auto heeft gemaakt, maar dat is duidelijk niet de stand van zaken. Ik weet vrij zeker dat iedere gewone straatauto deze race had kunnen winnen door gewoon stug met 30 km/h door te rijden en niet onnodig te stoppen. Je hebt niks aan een auto die 300km/h kan als je bocht mist.
Als ik de vorderingen zie van V12.3.x dan duurt het echt geen 25 jaar meer. Eerder 5 jaar.

Ook het feit dat Tesla op 8 augustus hun Robotaxi gaat onthullen, is een teken dat ze stappen zetten. Daarmee wil ik niet zeggen dat het in een jaar gedaan is maar de hoeveelheid compute breidt dit jaar uit van zo'n 38.000 H100's (equivalent aan rekenkracht) naar 85.000 H100's en ook het aantal gereden kilometers (en de hoeveelheid data) groeit exponentieel.

Als Tesla FSD niet kraakt in de komende 5 jaar, dan lukt het ze over 25 jaar ook niet.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Ook het feit dat Tesla op 8 augustus hun Robotaxi gaat onthullen, is een teken dat ze stappen zetten.
Ik denk dat dit soort product announces pas een feit zijn als ze echt gebeurd zijn. Daarnaast is volstrekt onduidelijk wat Robotaxi is, maar het is in ieder geval niet een volledig autonome auto die een klein kind zelfstandig van kan oppikken en brengen naar een gekozen locatie waar het over publieke wegen moet. Dát gaat in ieder geval niet gebeuren.

En zelfs als de technologie zo ver is, of dat nou in 5 of 25 jaar is, moet het juridisch ook afgebakend worden. Wie is verantwoordelijk wanneer een ongeluk toch gebeurt ?
[...]


Ik denk dat dit soort product announces pas een feit zijn als ze echt gebeurd zijn. Daarnaast is volstrekt onduidelijk wat Robotaxi is, maar het is in ieder geval niet een volledig autonome auto die een klein kind zelfstandig van kan oppikken en brengen naar een gekozen locatie waar het over publieke wegen moet. Dát gaat in ieder geval niet gebeuren.
Als een Robotaxi level 5 kan rijden, dan kan het prima een kind oppikken en naar school brengen.
En zelfs als de technologie zo ver is, of dat nou in 5 of 25 jaar is, moet het juridisch ook afgebakend worden. Wie is verantwoordelijk wanneer een ongeluk toch gebeurt ?
Dat wordt ook juridisch afgebakend, daar hoef je niet bang voor te zijn.
De schuld ligt waar de schuld ligt, dat hangt af van het incident. Als het de robotaxi is, dan ligt de aansprakelijkheid bij Tesla.
Die Robotaxi kan geen level 5 zijn als die over ruwweg 3 maanden - dus de naamgeving is tendentieus, maar zal zeker niet van dat niveau zijn.

Dat je denkt dat dat juridisch al is afgebakend is prima, maar dat is nu nog niet zo (in Nederland). In Nederland zou de bestuurder aansprakelijk zijn, maar zonder bestuurder heb je dan dus een probleem. Ik geloof er niks van dat een automobiel-bedrijf in Nederland dat zondermeer aan durft, zeker niet omdat we hier een wetgeving hebben die de zwakkere weggebruikers beschermt.
Die Robotaxi kan geen level 5 zijn als die over ruwweg 3 maanden - dus de naamgeving is tendentieus, maar zal zeker niet van dat niveau zijn.
Ik stel ook nergens dat het over 3 maanden level 5 is.

- ik stel dat Tesla 8 augustus zijn robotaxi aankondigt
- ik stel dat als het level 5 is, je prima een kind er mee kan vervoeren

Voor de rest vul je zelf dingen in die ik niet gezegd heb.
Dat je denkt dat dat juridisch al is afgebakend is prima, maar dat is nu nog niet zo (in Nederland). In Nederland zou de bestuurder aansprakelijk zijn, maar zonder bestuurder heb je dan dus een probleem. Ik geloof er niks van dat een automobiel-bedrijf in Nederland dat zondermeer aan durft, zeker niet omdat we hier een wetgeving hebben die de zwakkere weggebruikers beschermt.
Als autonoom rijden in Europa wordt toegelaten, wordt dat juridisch ook anders.
Je kijkt naar de situatie van nu en houdt er geen enkele rekening mee dat er op de achtergrond allang aan gewerkt wordt.

https://www.ietl.net/news...d-by-autonomous-cars.html
Ik stel ook nergens dat het over 3 maanden level 5 is.

- ik stel dat Tesla 8 augustus zijn robotaxi aankondigt
- ik stel dat als het level 5 is, je prima een kind er mee kan vervoeren

Voor de rest vul je zelf dingen in die ik niet gezegd heb.
Wat een vervelende manier van discussiëren heb jij (dan). Ik stel dat het onduidelijk is wat Robotaxi is, maar dat het zéér zeker niet volledig autonoom een klein kind kan taxi'en. Jij zegt dat dat prima kan als het level 5 is. Ik zeg dat het geen level 5 op 8 augustus is en dan zeg je dat je dat niet gezegd hebt.

Formeel heb je gelijk, maar het is zo vermoeiend om op die "juridisch ingedekte manier" te discussiëren dat dat normaliter niet de stijl is die we hier hanteren.

Daar komt bij: Robotaxi SUGGEREERT omdat het een samentrekking is van robot en taxi dat het een (autonome) taxi is. Dat is het dus niet: Het is én geen robot én geen taxi. Het is eigenlijk gewoon een flop en borderline-misleiding om het in deze vorm Robotaxi te noemen.
Als autonoom rijden in Europa wordt toegelaten, wordt dat juridisch ook anders.
Je kijkt naar de situatie van nu en houdt er geen enkele rekening mee dat er op de achtergrond allang aan gewerkt wordt.

https://www.ietl.net/news...d-by-autonomous-cars.html
Heb je dat artikel gelezen? Het beschrijft nl. precies het proces waar ik mijn twijfels bij heb: Geen enkel automotive-fabrikant zal full-liability accepteren zoals daarin wordt beschreven, zeker niet in de mix die onze verkeerswet in Nederland is, waar zwakkere weggebruikers beschermd worden en de auto altijd (deels) aansprakelijk is voor alle geleden schade.

Nog even afgezien dat als je het "zelf rijden" zou kunnen uitschakelen je in die situatie feitelijk geeneens een autoverzekering (meer) nodig hebt, want dan zou het "per definitie" de schuld van de AI zijn (en dus op de fabrikant vallen).
Als zelfs een basis functie, bij regen lampen aan, al niet werkt. Hoe betrouwbaar zijn de andere systemen dan?
Ja Tesla is niet de enige die dit kunstje niet kan. Maar over die andere merken hebben we het nu niet.
Ook het feit dat Tesla op 8 augustus hun Robotaxi gaat onthullen, is een teken dat ze stappen zetten.
De enige stap die wordt gezet, is dat er een product met de naam "Robotaxi" op de markt komt. Buiten Tesla is er niemand die weet wat dit product kan en doet.

De kans dat ze een level 5 autonoom voertuig op de markt brengen, is nihil. De huidige FSD zit op level 2 en niet meer dan dat.

En zoals dat Full Self-Driving een marketing term is die niets zegt over de capaciteit, verwacht ik dit ook van Robotaxi. Dat zal géén robot taxi zijn die jou voor de deur komt ophalen en vervolgens volledig zelfstandig naar je bestemming rijdt. Dat iemand zonder rijbewijs, of niet in staat om te rijden, een Robotaxi kan laten voorrijden en naar de bestemming laten brengen, dat is level 5 en heeft Tesla niet. Forget it, this is not going to happen in August '24.

Marketing. Dat is alles.
het is technisch al opgelost.
Het is nu trainen van het model. En elke week komt een nieuwe release uit.
Intern lopen ze maanden voor wat ze vrijgegeven hebben.
Dat is wel zo, intern wordt 12.4 en 12.5 al getest, heb ik begrepen.
Ik denk dat veel mensen geen idee hebben van hoe ver FSD momenteel al is. Nee, het is niet "af" maar de ritten worden steeds indrukwekkender en "menselijk" op de goede manier. Het robotachtige rijgedrag zoals in V11 nog aanwezig was, is er echt wel uit nu.
Precies. De marketing van Tesla is fenomenaal. Veel mensen denken dat de autopilot ver voorloopt op de concurrentie. Het omgekeerde is waar. De gerenommeerde merken hebben fatsoenlijk werkende ‘drive assistant’. Zo hoort het mijns inziens ook te heten.
Nou, ik heb een Volkswagen en een Telsa, die Tesla ligt echt mijlen ver voor op de Volkswagen als het gaat om de ondersteuning.

Neemt niet weg dat de termen die Tesla gebruikt wel verwarrend zijn en niet echt de werkelijkheid zijn. Dus daar mogen ze wel op aangepakt worden wat mij betreft.

Verder wel jammer dat de mensen die het wel goed gebruiken weer eens flink genaaid worden door de tokkies die het allemaal zelf beter denken te weten en denken boven de wet te staan.. zoals zo vaak tegenwoordig :(
Echt? Mijn ervaring is het omgekeerde… heb je wel het volledige assistentiepakket op de VW? Veel betrouwbaarder en beter te voorspellen wat de VW gaat doen vergeleken met de Tesla.

Vergeleken met een auto van +- 15 jaar geleden zijn ze beide fantastisch.
Tesla had geen marketing afdeling....ze zijn vorig ofzo jaar begonnen met reclame....en nu schijnt de marketing afdeling alweer te zijn opgeheven.
Wat betreft AUTOPILOT werkt het verreweg "betrouwbaarder of vertrouwenswekkender "dan audi...nissan ...volvo .. bmw en mercedes werken wel redelijk op de snelweg maar die optie zit maar op enkele duurdere modellen(zelf getest)... probleem is dat het zo "goed" werkt dat mensen het misbruiken met gewichtjes aan het stuur of echt slapen/telefoon spelen tijdens rijden. Fullselfdrive term is wel misleidend.
Uiteraard doet Tesla wèl aan marketing. Hun communicatie en positionering is uitgekiende marketing, die erop gericht is hun klanten de marketing te laten doen - een beetje naar het model van Apple.
Apple verdienmodel is masterfull...los van de miljarden die ze jaarlijks investeren in marketing is het gewoon knap hoe ze Applesheep hebben "gekweekt"en die gewoon klakkeloos aannemen en zelfs applaudiseren dat weglaten headphonejack/beperkte opslag in hardware en niet vervangbare onderdelen en gesloten eco systeem in het belang van de gebruiker is en gewoon zeggen dat het dapper of vooruitstrevend is...
Tesla wel een paar miljoen gebruikt in marketing....maar het simpele interieur van de model 3/y en geen headupdisplay, kilometerteller/scherm, geen geluidsisolatie onder de vloermat,zwakke onderstel mbt tot gewicht en vermogen en weg laten knipperlicht hendels en ultrasoon sensors uit pure kostenbesparing is niet iets waar Tesla fanboys zelfs blij mee zijn
Ik zie weinig verschil tussen de Applesheep van inmiddels grotendeels vroeger en de Tesla-fanboys van vandaag.

En je kan discussiëren over sommige keuzes, maar Apple is over het algemeen erg kwalitatief - en vaak rechtuit premium. Van Tesla kan je dat niet echt zeggen.
Tesla is nooit premium geweest.... en zal het voorlopig niet worden. Vrijwel alle keuzes die tesla maakt heeft met kostenbesparing te maken...en geen enkele teslafanboy zal dat als premium beschrijven... laatste model 3 refresh is gelukkig iets beter....maar tesla is de meeste bang4buck kwa kosten,range,vermogen,formaat en features....en is de enige reden waarom de hele wereld nu aan de EV bezig is... Apple daarentegen haalt dingen weg zoals headphone jack,oplader, de mogelijkheid om opslag vervangen, low refreshrate schermen,reparatie mogelijkheid etc. en gebruikt dan als excuus milieu of veiligheid terwijl het uiteindelijk gaat om maximale winst...en hangt er een "premium"prijskaartje aan...Apple is marketing masterclass
Alsof het Tesla niet om maximale winst te doen is?! Meer nog, Tesla is groot geworden op winstbeloftes die nog steeds niet waargemaakt zijn.

En ook Tesla haalt allerlei dingen weg. Net zoals bij Apple soms terecht maar ook vaak onterecht en met bedenkelijke excuses.

En er zijn wel degelijk heel wat Tesla boys die denken dat Tesla premium is.
Mwah, er zijn ook veel trolls online te vinden die enkel op Tesla nieuwsberichten reageren om degenen die wel waarderen wat ze doen, uit de tent te lokken...

https://tweakers.net/reac...earchString%5D=Scientific
Ja, als je kritisch bent tov Tesla, heb je altijd wel een fanboy die je een trol noemt. Quod erat demonstrandum: het kritisch vermogen van sommigen is duidelijk aangetast.
Tesla heeft al heel lang een marketing afdeling. Alleen bestond deze maar uit 1 persoon: Elon Musk.
Wat het nog gevaarlijker maakte was dat zijn volgelingen meededen in de praatjes en o.a. op social media verspreidde hoe zelfstandig autopilot wel niet was.
Ik zat ook al te kijken, er is nu een beta van "autosteer" terwijl ze al jaren "full self driving" verkopen. Maar die kon (en kan) kennelijk niet sturen?
Tesla heeft nooit (!) de term "Full Self Driving" gebruikt voor Autopilot. Full Self Driving (sinds kort "Full Supervised Driving") is een ander product, op een compleet andere softwarestack, dat in Bèta is en uiteindelijk geheel autonoom autorijden mogelijk moet maken. Er zijn zo'n 400.000 bèta testers actief (in de US), deze maand wat meer omdat Tesla een maand op proef heeft gegeven. Autopilot is niet meer dan een "active cruise control met lane-assist en wat trucjes.
Toen Tesla voor het eerst AP introduceerde was de belofte dat men binnen enkele jaren met AP autonoom zou kunnen rijden, toen bleek dat het nooit zou lukken met de AP hardware kwam EAP met dezelde belofte. Binnen enkele jaren autonoom rijden. Enkele jaren later kwam FSD met opnieuw als belofte dat de wagen autonoom zou kunnen rijden. Jaren later komt FSD uit beta en moet men het hernoemen want het systeem kan niet autonoom rijden.

Tesla belooft al meer dan 10 jaar zelfrijdende wagens, belooft ook al bijna 10 jaar robotaxis, en het was altijd maar 1 of 2 jaar verwijderd.
Of Tesla beloofde dat AP autonoom zou worden en of het daarbij ook Autopilot zou blijven heten, daar heb ik zo snel geen bewijs voor of tegen kunnen vinden. Het is niet ongewoon dat een bedrijf een koers bijstelt, Tesla produceerde in 2014 (want dat is 10 jaar terug) maar 35.000 auto's en was vooral aan het overleven aangezien het geld op raakte. Dat is verder ook niet de discussie. Het ging me om de verwarring die Nozmordre creëerde met zijn opmerking.

Tesla introduceerde de term FSD in 2016 en levert sinds oktober 2016 de hardware daarvoor standaard in iedere geproduceerde auto. Autopilot heeft dus nooit FSD geheten, daar ging het om. FSD is echt een gescheiden product.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Tesla introduceerde de term FSD in 2016 en levert sinds oktober 2016 de hardware daarvoor standaard in iedere geproduceerde auto. Autopilot heeft dus nooit FSD geheten, daar ging het om. FSD is echt een gescheiden product.
Je hebt vast gelijk maar geen mens die dat begrijpt. Zelfs na jouw uitleg snap ik nog niet wat het verschil is.

Tesla heeft steeds het beeld gepresenteerd dat hun auto's zelfstandig van A naar B kunnen rijden, of dat het bij de volgende softrwareupdate zou komen. Tesla/Musk is/zijn slim genoeg om het zo te formuleren dat je ze er niet op kan pakken, maar dat is de booschap die het grote publiek heeft gehad, dat idee bestaat bij velen en ik heb een hoop verhalen van Tweakers gehoord die diep leken geloven in de vermogens van hun auto. En ja, meestal gaat het goed, net als dat motorrijden zonder helm meestal goed gaat. Het gaat om die laatste 0.1% waarin om wat voor reden dan ook het wel fout gaat.

In de media heb ik ook nooit een correctie gezien en, van wat ik van anderen hoor, ze geven de chauffeur de meeste vrijheid om het stuur los te laten in situaties waar andere auto's dat niet veilig vinden.

De verwarring lijkt vooral van Tesla te komen en niet van @Nozmordre .
Autopilot -> adaptieve cruise control met lane assist en wat trucjes, zoals meerdere automerken hebben
FSD Bèta -> een project van Tesla om auto's (uiteindelijk) volledig autonoom te laten rijden

Veel ingewikkelder is het niet. Maar in de media wordt het te pas en te onpas door elkaar gehaald.
Autopilot werd origineel aangekondigd zoals fsd aangekondigd werd en dat het alles ging kunnen war een paar jaar later ineens fsd was.
Bij de introductie van FSD hardware hebben ze gewoon de ambitie van autopilot verlaagd, opdat ze exact hetzelfde introductie verhaal als voor autopilot konden gebruiken voor de introductie van FSD. Tesla was wel degelijk misleidend en is het nog altijd.
Ik wil daar op zich wel aan maar kom dan wel even met een duidelijke bron. Ik kan weinig vinden daarover uit 2014. Ik zie alleen dat Tesla in dat jaar maar 35.000 auto's heeft verkocht.
Strikt genomen kan "A Tesla car next year will probably be 90 percent capable of autopilot. Like, so 90 percent of your miles can be on auto. For sure highway travel" wel door de beugel, Autopilot op de highway (waar je de meeste kilometers / mijlen rijdt) gaan toch echt wel comfortabel met Autopilot. Maar ik begrijp je punt, het kan geïnterpreteerd worden als FSD.

Hoe dan ook, oktober 2016 was wel echt het startsein voor FSD zoals het nu nog aan het ontwikkelen is, met alle benodigde hardware.
Dat autopilot in 2024 deftig op de autostrade kan rijden geloof ik wel, maar dat werd in 2014 beloofd met de hardware van 2014 wat nooit geleverd is geweest.

In 2016 zat de nieuwe hardware in de Tesla's die toeliet om de 'enhanced autopilot' optie te nemen. Wat meer functies had zoals oa 'navigate on autopilot'..

De FSD hardware is pas in 2020, waar ook weer de optie 'navigate with autopilot' één van de grote verschillen is tussen autopilot en fsd (waar nog andere trucjes inzitten). Deze keer lijken ze wel te spreken over 'non highway' wegen, de ambitie is blijkbaar wel lichtjes gewijzigd.

Maar het grote verschil waar iedereen op wijst (het zelf rijden) zit hem in het hebben van de optie 'navigate with autopilot' wat niet standaard in autopilot zit...
Het is de fout van Tesla, en niet van de media, dat FSD en Autopilot door elkaar worden gehaald - in het bijzonder in Europa. Immers, Tesla verkoopt FSD in Europa - voor zomaar eventjes 7500€, maar uiteindelijk krijg je gewoon (enhanced) Autopilot 8)7

Ik vind het overigens vreemd dat hier in Europa nooit is tegen opgetreden. Dit is gewoon schandalig bedrog - andere bedrijven kregen voor dit soort bedrieglijke praktijken gigantische boetes.

[Reactie gewijzigd door Scientific op 23 juli 2024 00:48]

Ik weet niet hoe je erbij komt dat je FSD kan kopen in Europa. Het maximale wat je kan kopen is Enhanced autopilot en daar staat redelijk duidelijk bij wat het kan. Dat was bijna 5 jaar geleden zo toen ik een Tesla kocht en nu ik naar een nieuwe kijk staat er nog steeds geen FSD optie, alleen Enhanced autopilot met toelichting.
Omdat de media niet helder is betekent niet automatisch dat dit bij de aankoop niet zo is.

Ik vind trouwens die zogenaamde extra veiligheidsmaatregelen echt onzin. Voor mensen die niet opletten is het uitschakelen van het systeem gewoon levensgevaarlijk en voor de bewuste gebruiker is het enorm irritant. De verplichte cameramonitoring van de bestuurder vind ik ook een politiek gedrocht. Wat denk je dat er gebeurt zodra de meeste ongelukken alleen nog maar gebeuren door auto’s zonder autopilot? Dan zit er dus in elke auto videoopname van de bestuurder. Ik krijg dan het gevoel van een heel andere agenda dan van veilig rijden met een autopilot, terwijl daar nu al naar verhouding minder ongelukken mee zijn.

Edit: Ik zie dat het aanbod nu idd is gewijzigd naar fsd. Dat is naar verwachting eind dit jaar op zijn vroegst in Nederland beschikbaar. Daar was een wijziging in wetgeving voor nodig en dit is pas dit jaar gebeurt.

[Reactie gewijzigd door jprommen op 23 juli 2024 00:48]

Hoe duidelijk kan het zijn? FSD is gewoon een optie op de website van Tesla en kost 7500€. Dat je daarvoor maar Autopilot krijgt is gewoonweg bedrog.

Bovendien is Autopilot maar matig - veel merken doen het inmiddels beter.

Ik ben erg blij dat de wetgever het allemaal wat binnen de perken houdt. En dat er met rijhulpsystemen minder ongelukken gebeuren, dat geloof ik best. Maar dat is eerder ondanks dan dankzij Tesla.
Nee hoor, ik heb echt jaaaaaaren geleden al de geweldige beslissing (not) genomen om bij EAP te upgraden naar 'FSD (binnenkort)'. Daar is niks nieuws aan.
Maar dan heet het ook echt "FSD", staat er letterlijk bij. En er staat "Aanstaande: Automatisch sturen op straten binnen de bebouwde kom". En nee, in Europa heb je nog geen FSD capaciteit, ook niet als bèta, dus zou ik het nu ook niet kopen.
Full Self Driving (sinds kort "Full Supervised Driving") is een ander product, op een compleet andere softwarestack, dat in Bèta is en uiteindelijk geheel autonoom autorijden mogelijk moet maken.
Sinds kort? Dit is klinklare onzin, ze noemen het "Full Self-Driving Capability". Dat het supervised moet zijn, dat kun je elders terugvinden, maar niet in de naam.
The currently enabled features require active driver supervision and do not make the vehicle autonomous.
Is gewoon een level 2 auto, niks "self driving". Het feit dat bij een 50% van alle ongevallen met een Tesla, autopilot is betrokken, helpt niet om vertrouwen te krijgen in de capaciteiten van de Tesla. En als ik zo hier om me heen kijk, Los Angeles, rijden ook maar vrij weinig mensen met Autopilot of FSD geactiveerd rond: In de spits zijn ook zij vaak betrokken bij kop-staart botsingen, met de Tesla aan de voorkant in de kreukels. Of Autopilot/FSD kan geen afstand houden, of de bestuurder wil het systeem niet gebruiken. En hier rijden veel Teslas rond.

Overigens rijden Amerikanen imho zeer slecht, koffie en telefoon zijn belangrijker dan autorijden.
Ja, sinds kort. Het heet sinds kort "Full Supervised Driving". Dat is geen onzin, dat is letterlijk 3 weken geleden aangekondigd. Voorheen was het "Full Self Driving Bèta".

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Dus jij wilt beweren dat wat ik een paar minuten geleden met copy/paste van de Tesla website heb gehaald, niet waar is? Hier even het hele stuk, waarvan jij nu stelt dat ik uit m'n nek klets:
Full Self-Driving Capability
$8,000
Receive a 30 day trial of Full Self-Driving Capability with a new vehicle purchase.
Your car will be able to drive itself almost anywhere with minimal driver intervention and will continuously improve
Navigate on Autopilot
Auto Lane Change
Autopark
Summon
Smart Summon
Autosteer on city streets
Traffic Light and Stop Sign Control
The currently enabled features require active driver supervision and do not make the vehicle autonomous. The activation and use of these features are dependent on achieving reliability far in excess of human drivers as demonstrated by billions of miles of experience, as well as regulatory approval, which may take longer in some jurisdictions. As these self-driving features evolve, your car will be continuously upgraded through over-the-air software updates.
Het zal aan mij en mijn computer liggen, maar de term "Full Supervised Driving" zie ik niet staan.

Dat je een fanboy bent, prima, maar je kunt het overdrijven...
Website is daar nog niet bijgewerkt blijkbaar. Ik zie inmiddels wel weer een andere benaming voorbij komen dan gebruikt werd in het interview, blijkbaar is het nu omschreven als Full Self Driving (Supervised). https://www.tesla.com/support/articles/30-day-fsd-trial

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

ah, geloofwaardig. Dus Tesla noemt een product anders, maar gaan dat product niet anders noemen op hun website. De website waar je het product kunt kopen. Ik kan daar nu een auto bestellen, maar blijkbaar met de verkeerde naam.

Right.

Ps. De link die je nu geeft, verwijst naar een pagina waar de term "Full Supervised Driving" geen enkele keer voorkomt. Ik kom wel "Full Self-Driving (Supervised)" tegen.
Doe niet zo lullig, ik zei net (boven die link die ik je gaf) al dat het nu omschreven wordt als "Full Self Driving (Supervised)".

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

En nu doe ik ineens lullig... :X

Jij staat hier een autonoom rijdende auto te verkopen alsof je leven er van af hangt, ondanks dat deze auto niet meer is dan een level 2 die niet in de buurt komt van wat level 5 vereist. "Full Self Driving", het staat in de naam, maar de werkelijkheid is dat je 100% van de tijd klaar moet zitten om in te grijpen. En dat gaat fout.

Dat is imho overigens een menselijk probleem, niet een technisch probleem. Ik zie niet hoe je veilig van level 2 naar level 5 kunt gaan. Mensen gaan niet opletten, dat hele "supervised" gaat niet werken zolang er mensen bij betrokken zijn. Hier in Los Angeles zijn chauffeurs met twee dingen bezig: Koffie drinken en hun telefoon. Dat is ze ook nog moeten autorijden, dat is lastig want niet wat ze willen. Ze willen koffie drinken, bellen en chatten. En dat doen ze dan ook. Een level 2 auto zoals een Tesla, wordt daarmee een gevaar op de weg. De marketing van Tesla helpt dan niet, want die zeggen "Full Self Driving"
Ik volg al jaren de progressie van FSD Bèta (tegenwoordig Supervised) bij diverse YouTube kanalen en ik zie juist dat die mensen heel voorzichtig zijn.
Dat is wat jij ziet, dat is waar jij op selecteert. Ga voor de grap op een dinsdagochtend in de spits eens een uurtje langs de 405 staan en dan het verkeer observeren. Dan krijg je een hele andere indruk! Road rage, ook met Tesla's, is hier dagelijkse kost. Dat soort videos plaatsen mensen niet op YT.
Ik ben benieuwd wat je me nu weer in de schoenen gaat schuiven.
Ik schuif je niks in de schoenen, wijs je er hooguit op dat er iets niet klopt aan je verhaal. Jij bent imho overdreven optimistisch over wat FSD kan en doet, veel meer dan wat Tesla zelf schrijft. Daarnaast zijn jouw bronnen al gefilterd waardoor je evenmin een goed beeld kunt krijgen.
[...]

Dat is wat jij ziet, dat is waar jij op selecteert. Ga voor de grap op een dinsdagochtend in de spits eens een uurtje langs de 405 staan en dan het verkeer observeren. Dan krijg je een hele andere indruk! Road rage, ook met Tesla's, is hier dagelijkse kost. Dat soort videos plaatsen mensen niet op YT.
Ik selecteer nergens op, ik kijk gewoon de video's van mensen met FSD die daarmee door het verkeer navigeren. En die letten goed op.
Dit ging nota bene over FSD. FSD kent geen "road rage". Het is er overigens vast op te trainen als Tesla dat zou willen.
Ik schuif je niks in de schoenen, wijs je er hooguit op dat er iets niet klopt aan je verhaal. Jij bent imho overdreven optimistisch over wat FSD kan en doet, veel meer dan wat Tesla zelf schrijft. Daarnaast zijn jouw bronnen al gefilterd waardoor je evenmin een goed beeld kunt krijgen.
Je schuift me wel wat in de schoenen. Ik heb het over een naam en dat ik video's bekijk en zie dat de mensen die FSD testen daar voorzichtig mee zijn. En nu zeg jij dat ik overdreven optimistisch ben over FSD maar dat is helemaal geen onderdeel van de discussie. Niet met jou in ieder geval.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Ik geloof direct dat jij die videos bekijkt en dat deze chauffeurs wel opletten. Mijn punt is dat er juist géén videos worden geplaatst van chauffeurs die dat niet doen. Of jij die videos nou wel of niet zou willen zien, jij kunt ze niet zien omdat ze er niet zijn. Jouw input is dus gefilterd. En daarom verwijs ik je naar bijvoorbeeld de 405 waar je dagelijks kunt zien (en zeker in de spits met de dinsdag als dieptepunt) dat de realiteit totaal anders is dan die fraaie videos op YT.

Had ik je al verteld hoe slecht Amerikanen rijden? Nee? Nou, ze rijden heel slecht en hebben verbazingwekkend korte lontjes.
Had ik je al verteld hoe slecht Amerikanen rijden? Nee? Nou, ze rijden heel slecht en hebben verbazingwekkend korte lontjes.
Hoog tijd dat ze daar FSD op level 5 krijgen dan. En dat probeert o.a. Waymo en Tesla door kilometers te maken.
Ze hebben het supervised genoemd omdat het nog lang geen self driving was. Waarschijnlijk heeft ook de juridische afdeling een hand gehad in deze naamswijziging.
Maar ik vind het wel heel toevallig dat de afkorting hetzelfde is gebleven, waardoor iedereen FSD met Self Driving blijft associëren omdat dat er de laatste jaren in is geramd.

Juridisch ongetwijfeld waterdicht, maar ethisch naar mijn mening laakbaar.
Nu moeten ze nog aangepakt worden op het te makkelijk kunnen uitzetten van de snelheidswaarschuwing. De Europese richtlijn eist een bewuste actie van de bestuurder, en ik denk dat een op het moment van piepen verschijnende "kop dicht" knop daar niet aan voldoet.
Conclusie is dat rijassistentie (wat Autopilot/"full" self driving is) ook gevaarlijk kan zijn, en dat nagedacht moet worden over het nut en niet enkel over "omdat het kan".

Aan de andere kant: als het statistisch meer ongelukken bespaart dan oplevert, dan kan men voor het restantje dat zich onveilig gedraagt natuurlijk ook meer gaan handhaven.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 00:48]

Precies dit. Als je privé of van je baas een auto in deze prijsklasse kunt of mag rijden, ga ik er vanuit dat je verstandig genoeg bent om de functies en limieten van een systeem te kennen en dat je volwassen genoeg bent om je verantwoordelijk te gedragen.

Als je jezelf toch als een puber gedraagt en ongelukken veroorzaakt, leg je de schuld niet bij de fabrikant of het label wat deze op een bepaalde feature plakt. Je gaat toch ook niet letterlijk je kaken stukbijten op een Jawbreaker en dan de fabrikant verantwoordelijk stellen omdat het op de verpakking staat..
ga ik er vanuit dat je verstandig genoeg bent
Nooit doen, mensen zijn echt onnozel op de meest onverwachte momenten. Op papieren koffiebekers staat niet voor niks "pas op, heet".
Niet enkel lui, dom en onwillig. (Al zal dat zeker meespelen.)

Het menselijk brein is niet geschikt om de aandacht te houden bij taken waar je niet actief aan deelneemt. Wanneer je enkel observeert of alles goed gaat ben je snel afgeleid of geneigd om 'even' iets anders te doen. Je brein schreeuwt dan figuurlijk om iets te doen te hebben.
Dat is ook een groot probleem voor piloten, die vaak urenlang in de cockpit zitten te kijken hoe alles exact gaat zoals de bedoeling is. Ze worden vaak getraind om in een bepaald patroon alle instrumenten te bekijken, om zo toch actief bezig te blijven. Maar wanneer dat rondje maar vaak genoeg hetzelfde is ontstaat er een blinde vlek voor kleiene veranderingen.
Het menselijke brein is er eenvoudig niet voor gemaakt om langdurig je aandacht bij een passieve taak te houeden. Met veel training is dat iets te verbeteren, maar automobilisten zijn daar niet in getraind. Een autopilot-functie waarbij het voor de veiligheid noodzakelijk is dat de bestuurder passief toezicht houd op wat de auto doet en op de verkeerssituatie is vragen om moeilijkheden en bewust spelen met de veiligheid van alle verkeersdeelnemers.
Tja, hoge bomen vangen veel wind.

Op wintersport in de taxi vroeg de chauffeur tijdens een ritje van een half uur of we iets wilden kijken. Zonder enige moeite toverde die een volledige film op het display in een E-klasse, gewoon vanuit de standaard software. Terwijl het bij Tesla oh zo gevaarlijk was om een film of spel te kunnen spelen/starten tijdens het rijden, omdat de bestuurder wel eens afgeleid zou kunnen worden. Dus dat moest eruit gesloopt met een software update.

Schijnbaar is het modificeren van het Mercedes systeem een fluitje van een cent, en dan kun je alles doen tijdens het rijden wat je wil qua infotainment. Maar daar grijpt natuurlijk niemand in, want niet interessant. 8)7
Daarnaast is de NHTSA ook niet actief in Europa ;) Maar geen idee wat de wet- en regelgeving daaromtrent in Europa is.
Ook niet raar dat mensen stoppen met opletten. Is gewoon een menselijk trekje. Als alles goed gaat, en dodelijk saai, dan wordt je afgeleid door andere zaken. Ik rij vaak hele stukken door Spanje, waar je soms heel lang niemand tegenkomt. Dan rij je honderd, twee honderd km en heb geen idee wat ik gedaan heb.mey een autopilot optie zou ik dan helemaal in slaap vallen
Dat, maar het gaat nog wat verder. In principe scheelt zo'n rijassistent je rijvaring aangezien je minder zelf rijdt. En mocht dat ding het in een noodsituatie ineens niet meer weten dan zou je zeker als rookie die ook nog eens met z'n hoofd ergens anders was ineens de auto uit de penarie moeten kunnen gaan halen?

Dat is op zichzelf al een ontwerpfout.
Be stupid, get stupid results. Sorry, maar ik kan geen medelijden hebben met degene die een systeem misbruikt, en als door misbruik ongelukken gebeuren waarbij anderen overlijden, dan moet de misbruiker voor moord veroordeelt worden. Mensen weten dondersgoed wat ze doen wanneer ze het systeem misbruiken. Op den duur houdt het op met wat het systeem kan detecteren of doen om misbruik te voorkomen.

[Reactie gewijzigd door SuperDre op 23 juli 2024 00:48]

Ja dat is heel leuk allemaal maar als zo een 2.5 ton auto op autopilot frontaal tegen mijn 1000kg wegende hatchback aanbotst op een N-weg heb ik een beetje weinig aan "be stupid, get stupid results". Ik zie iedere dag genoeg mensen in het verkeer die met alles bezig zijn behalve autorijden vanwege alle handige gadgets. Als ze zichzelf daarmee om een boom vouwen maakt mij dat niks uit maar ik moet de weg wel delen met deze mensen.
Autopilot is zeer gevaarlijk, al let je op met 2 handen aan het stuur. Al meerdere malen gehad dat hij opeens naar de rijbaan naast mij stuurde waar al iemand rijd. Blijkbaar zijn de lijnen op de weg belangrijker dan auto’s die naast je rijden.

Bovenstaand probleem is vooral bij delen waarbij je tijdens de spits op vluchtstroken mag rijden (dit is dan de 3e rijbaan) en er een afslag nadert.
Spitstroken is ook zoiets dat weer typisch in NL moet en je had ook zelf kunnen bedenken dat de auto 'alleen maar ' rekening houdt met de lijnen. Iets anders als referentie is er niet. Spitsstroken ter hoogte van in/uitvoegpunten hebben dan ook alle eigenschappen van invoegstroken (afbuigende lijnen) en dus gaat je wagen (AI) van baan wisselen want hij kan niet zien/weten waarom. De Nederlandse staat heeft nog veel te leren als we hier zelfrijdende auto's willen. Dan zal er nog veel moeten veranderen, en punt 1 is de spitsstroken normale stroken maken. Maar ook 60km wegen zullen een middenlijn moeten krijgen waar dat niet zo is.

Zoals het artikel aangeeft is Autopilot niet meer dan Lane-Assist alleen heet het anders (En meer merken met lane assist gaan de mist in bij spitsstroken.
Full self driving zal hier vermoedelijk ook de mist in gaan, dat wordt kwalijker, maar dat hebben we dan aan onze overheid / rijkswaterstaat te danken dat ze niet meedenken met de toekomst van de zelfsturende wagen.
Spitstroken is ook zoiets dat weer typisch in NL moet en je had ook zelf kunnen bedenken dat de auto 'alleen maar ' rekening houdt met de lijnen.
Nee hoor, hier (Los Angeles) heb je de HOV Lane en die is ook niet altijd open.
Nee maar hoe is de belijning? Ik verwacht een stuk overzichtelijker voor een auto..
Auto’s hebben ook navigatie waar je prima de spitsstroken op kunt plotten. Hetzelfde geldt voor de 60km wegen.
Wanneer spits-stroken normale stroken worden dan zijn het ook geen spits-stroken meer. De hele gedachte erachter was om een extra strook te krijgen zonder dat je een permanente verbreding nodig hebt.

Als ik als mens zondermeer op een 60 km. weg kan rijden zonder middenlijn dan moet die zelfstandig rijdende auto dat (ook) maar leren.

Zeker in de transitie-fase kun je moeilijk stellen dat de omgeving zich maar aan moet passen aan de gebrekkige zelfrijdende auto. Als dan blijkt dat de zelfrijdende auto nog niet genoeg met de realiteit om kan gaan, dan moet de zelfrijdende auto zichzelf maar uitschakelen.
Dat is neem ik aan je ervaring met autopilot in Europa? Want die is totaal anders dan de variant die ze in de VS gebruiken.

In Europa is het momenteel niet veel meer dan adaptive cruise control met lane assist en een paar extra slimme features afhankelijk van welke autopilot variant je hebt. Zeker als de belijning niet klopt moet je zeer oplettend zijn, of beter nog, autopilot tijdelijk uitschakelen.
Het gaat de hele tijd over bij hoeveel ongevallen autopilot een rol heeft gespeeld (en een rol heeft gespeeld betekent niet eens dat autopilot de oorzaak is). Maar hoeveel ongevallen heeft Tesla Autopilot voorkomen? Want dat is minstens net zo belangrijke data. Uiteraard werkt autopilot niet foutloos, maar als het meer ongevallen voorkomt dan het maakt, dan heb je onderaan de streep wel schade en misschien zelfs slachtoffers voorkomen.

Overigens moet ik zeggen dat ik zelf autopilot nog amper gebruik, omdat het juist continu aan het zeuren is dat je op de weg moet letten. Zelfs als je het stuur iets te losjes vasthoudt doet het al moeilijk. Of soms kijk je even niet recht voor je, dan krijg je een waarschuwing dat je je ogen op de weg moet houden (want de camera binnenin de auto houdt dat in de gaten).
Hoeveel het voorkomt is natuurlijk lastiger te onderzoeken want dat wordt nergens gemeldt, behalve tijdens een testfase. Uit de logs zal het ook lastiger te halen zijn want veel ongelukken worden ook voorkomen omdat het systeem 'oplet' en 'beter' rijdt, niet door nood-ingrepen van het systeem.
Tesla rijders veroorzaken in de USA de meeste ongevallen. Of het systeem dan aan of uit staat, dat weet ik niet.
Tesla drivers have the highest accident rate. From Nov. 14, 2022, through Nov. 14, 2023, Tesla drivers had 23.54 accidents per 1,000 drivers.
Maar je komt niet op nummer één omdat het zo'n goed systeem.
Het zegt niets, die ongevallen kunnen wel gewoon kop-staartjes zijn omdat mensen te snel optrekken. Hoeft niets met Autopilot van doen te hebben. Die 156 gevallen per jaar die de NHTSA heeft onderzocht zijn op 6.000.000 ongelukken per jaar in de US ook een druppel.
Die paar Tesla's op de weg vallen ook niet op. Totdat blijkt dat ze de slechtste chauffeurs zijn... Ongeveer 1% van de auto's betreft een EV, ongeveer de helft daarvan is een Tesla.

Ongevallen zijn gemeten per 1000 chauffeurs, om zo beter te kunnen meten. Per jaar worden er bijna meer F150's verkocht dan dat er ooit Tesla's zijn gemaakt...
Ik zie dat er 750.000 F-series (dus inclusief de F150) verkocht zijn vorig jaar, er rijden zo'n 2.000.000 Tesla's rond in de US. Dus dat klopt al niet.

Zo'n 0,7% van het Amerikaanse wagenpark is een Tesla op dit moment.
Die 156 onderzochte Autopilot ongevallen per jaar (over een periode van 3 jaar), dat is maar 0,0026% op het aantal ongevallen in de US per jaar.

Zo liggen de verhoudingen.
Nee, nu ga je weer de mist in. Stick to the facts, per 1000 Tesla drivers zijn er 23.54 ongevallen per jaar.
Tesla drivers have the highest accident rate compared with all the brands analyzed. During the period analyzed, Tesla drivers had 23.54 accidents per 1,000 drivers.
Hoeveel Tesla's er rond rijden is irrelevant, de cijfers zijn per 1000. Of er nou 100.000, 1 miljoen of 10 miljoen stuks rondrijden, het cijfer is een rate per 1000.

En dan:
The safest drivers (in terms of accident rates) operate the following brands:

Pontiac: 8.41
Mercury: 8.96
Saturn: 9.13
Prima dat je het daar niet mee eens bent, de cijfers liegen niet.
En zo scoren de BMW chauffeurs het slechts op de DUI's. Daar hoef ik me toch niet op aangesproken te voelen? Rij zelf BMW, maar ga er echt niet om drinken om er maar "bij" te horen.
Je leest niet zo goed.

Ik had het over die onderzochte (!) NHTSA ongevallen, ofwel de ongevallen waar NHTSA zich druk om maakte. En dat gaat om 156 gevallen per jaar (over een periode van 3 jaar), ofwel 0,0026% van het jaarlijkse aantal ongevallen in de US terwijl Tesla 0,7% van het wagenpark uitmaakt.

Ik heb het niet over het totaal aantal verzekeringsclaims of wat dan ook.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Ze hebben 156 ongevallen onderzocht, de rest van de ongevallen met een Tesla hebben ze dus niet onderzocht. Mijn oorspronkelijke reactie ging over het aantal ongevallen waar een Tesla bij is betrokken. Uit cijfers blijkt dat Tesla chauffeurs naar verhouding de meeste ongevallen veroorzaken. En dat zijn er veel meer dan die 156 stuks. Alleen is daar geen onderzoek naar gedaan. De cijfers van LendingTree beperken zich tot een aantal types incidenten, waaronder ongevallen.
Ze zijn niet onderzocht omdat er geen noodzaak was om ze te onderzoeken. Ongelukken gebeuren nu eenmaal zolang er mensen achter het stuur zitten. Ze hebben gemiddeld maar 156 gevallen per jaar doorgekregen waarbij (misbruik van) Autopilot een rol speelde en dat is statistisch te verwaarlozen.

Die gegevens van LendingTree zeggen verder weinig, als je bij het inparkeren een auto raakt is dat ook een schadeclaim.

[Reactie gewijzigd door BlueTooth76 op 23 juli 2024 00:48]

Het zegt dat ondanks (of dankzij) de mogelijk beschikbare Autopilot de auto desondanks de meeste brokken veroorzaakt, niets meer en niets minder.

Maar wat je wel kunt stellen is ondanks de mogelijke beschikbaarheid van Autopilot, Tesla's toch de meeste ongelukken maken.

Dat betekent dat óf de mensen die een Tesla rijden minder capabel zijn dan de gemiddelde automobilst óf dat er iets in de auto's zit van Tesla waardoor ze meer brokken maken.
Tesla's produceert 100% EV's en die beschikken over veel vermogen, dus dat zou ook een reden kunnen zijn.
Ik snap dat het lastig is, maar uiteindelijk is het wel relevant voor het meten van de betrouwbaarheid van dit soort systemen. Dus het lijkt mij wel zaak dat er een onderzoeksmethode voor gaat worden gevonden. Al vergelijken ze maar eens het aantal ongevallen per kilometer/mijl van automobilisten versus autopilot/FSD (zonder ingrijpen van de bestuurder). Eventueel nog rekening houdende met het type weg (bebouwde kom, snelweg, etc.).

Opletten is inderdaad precies waar het systeem goed in zou moeten zijn. Een mens kijkt maar 1 kant op met beide ogen, terwijl een Tesla vaak 7 of 8 camera's rondom de auto heeft als ik mij goed herinner. Daarmee is de Tesla wel in het voordeel ten opzichte van de mens.
Level 1 kan praktisch alles voorkomen wat level 2 kan behalve extreme randgevallen als bewusteloosheid.

Geef mensen een vinger en ze zitten 5 minuten op hun telefoon. Tesla is level 2 veilig aan het maken door het nutteloos te maken, veilig en nutteloos was altijd de enige optie.
Óf het systeem werkt merkbaar belabberd, óf het werkt meestal best goed.

In het eerste geval moet je het afschaffen en in het tweede geval gaat de mens erop vertrouwen. (Hetzelfde geld dat voor veiligheidssytemen; stukje psychologie)

In het eerste geval ga je opletten, maar moet je het sowieso niet gebruiken, in het tweede geval kan je naar beter gewoon zelf rijden, zodat je blijft opletten.

(Mijn) conclusie is dan ook dat zolang die systemen niet even goed of beter presteren dan goede menselijke bestuurders, deze systemen helemaal niet als copiloot op de markt horen te komen. Het interesseert mij dan ook niet of dit juridisch gewoon mag.
Dan kunnen die systemen worden ingezet als "achtervang'. Zoals er ABS en andere antislipsystemen zijn. Zo kan je ook een noodstopsysteem hebben.
Wat meteen als voordeel heeft dat het alleen hoeft te beslissen als het duidelijk is dat er wat fout gaat en dus niet voor een doos in de berm vol in de remmen gaat op de snelweg, want de primaire verantwoordelijkheid ligt bij de bestuurder.

Op dit item kan niet meer gereageerd worden.