Belangenorganisatie: Tesla's zelfrijdende functie ziet kinderen over het hoofd

Volgens belangenorganisatie The Dawn Project vormt de zelfrijdende software van Tesla mogelijk een bedreiging voor overstekende kinderen. In veiligheidstests werd een stilstaande pop ter grootte van een kind herhaaldelijk geraakt door een Tesla.

Update, 10 augustus: Electrek meldt dat de Full Self-Driving-functie tijdens de veiligheidstests van The Dawn Project mogelijk niet was ingeschakeld. In de video van The Dawn Project is namelijk geen indicator te zien dat de autopilot is ingeschakeld. In dat geval geven de testresultaten van The Dawn Project geen goed beeld van de werkelijkheid.

Update, 18 augustus: Sinds de publicatie van The Dawn Project zijn er een boel reacties op gekomen. Uit andere beelden van de test zou blijken dat Full Self Driving wel ingeschakeld was, of in ieder geval bij een deel van de tests. Verschillende gebruikers hebben de test geprobeerd na te bootsen en hebben de resultaten op YouTube geplaatst, met wisselende resultaten.

Het originele bericht volgt hieronder.

In veiligheidstests van The Dawn Project zag de nieuwste software van Tesla's Full Self-Driving-functie meerdere keren een pop ter grootte van een kind over het hoofd. Bij een gemiddelde snelheid van 40km/u werd de pop herhaaldelijk geraakt. Volgens de organisatie deed de software niets om het 'kind' te ontwijken. Dan O'Dowd, de oprichter van The Dawn Project, noemt de resultaten 'zeer verontrustend'.

Volgens O'Dowd is de autopilot van Tesla een 'dodelijke bedreiging voor alle Amerikanen': "Meer dan 100.000 Tesla-rijders gebruiken de volledig zelfrijdende modus van de auto op de openbare weg, waardoor kinderen in het hele land een groot risico lopen". The Dawn Project vindt dat de functie onmiddellijk van de markt gehaald moet worden om dodelijke gevolgen te voorkomen.

De National Highway Traffic Safety Administration in de Verenigde Staten doet momenteel onderzoek naar de vier huidige modellijnen van Tesla. Sinds 2016 vonden er minstens dertig ongelukken plaats met een Tesla. De Amerikaanse autoriteit voor verkeersveiligheid vermoedt dat de autopilot in deze gevallen was ingeschakeld.

Een toezichthouder uit Californië vindt de reclame voor Tesla's zelfrijdende functie bovendien misleidend, omdat het bedrijf van Elon Musk suggereert dat de voertuigen autonomer kunnen rijden dan daadwerkelijk het geval is. Momenteel is Full Self-Driving nog in bèta. Voor 12.000 dollar kunnen Tesla-eigenaren de functie ontgrendelen. Het voertuig kan dan zelfstandig sturen, accelereren en remmen. Er moet echter wel iemand achter het stuur zitten.

Tesla rijdt in op mannequin
Bron: The Dawn Project

Door Sabine Schults

Redacteur

09-08-2022 • 20:33

363

Reacties (362)

362
339
195
45
5
86

Sorteer op:

Weergave:

Helaas is er door de redactie van Tweakers geen onderzoek gedaan naar deze persoon. Een simpele Google search en je ziet dat deze persoon CEO is van Greenhills Software dat zelf een minderwaardige alternatief van autopilot aan het ontwikkelen is, dus hij is niet geheel onpartijdig in zijn onderzoek/berichtgeving. Jammer dat dit in het artikel niet vermeld wordt. Je kan dan als lezer bepalen hoe geloofwaardig deze persoon is.
Heb je een bron waarin Greenhills aan een FSD car project gekoppeld is?
En dan bedoel ik niet als platform/facilitateur, maar als ontwikkelaar.

Greenhills is een zeer bekende en gereputeerde embedded tools fabrikant voor kritische software applicaties, zoals automotive software die rock-solid stabiel moet zijn (de firmware die op je ECU's draait). Voorbeelden van incidenten indien je dat werk niet goed doet, is hangende gaspedalen in auto's van Toyota, die uiteindelijk tot flinke schadeclaims heeft geleid. In dat geval waren er duidelijk aanwijsbare fouten in de firmware geslopen die tot zo'n 'crash' kon leiden. Achtergrond artikel

De klanten van Greenhills zullen de fabrikanten zijn van FSD software. Ik zie deze situatie dus anders. Ze vinden de software van Tesla bedroevend en willen niet dat dit gebeurd (aangenomen dat dit een eerlijke representatie is van het probleem).

[Reactie gewijzigd door Hans1990 op 23 juli 2024 03:45]

Wat drisbee zegt is volledig juist en te onderbouwen. Hier is een uitgebreide blogpost over Greenhills, Dan O'Dowd, en The Dawn Project: https://wholemars.net/202...d-has-blood-on-his-hands/ en aanvullend https://twitter.com/WholeMarsBlog/status/1503622382753255424

Ben het ook eens met drisbee dat Tweakers wat dieper had mogen graven (en zich meer als journalistiek platform mag oprichten). Ik citeer uit de blogpost - tamelijk relevant voor bezoekers hier:
This isn’t the first time Green Hills Software has launched a smear campaign against a competing system. As Linux began to eat away at sales for their crappy operating system in the early 2000s, they launched a similar campaign calling Linux “an urgent threat to national security”.
Ps. ik heb het hier nog niet genoemd gezien, maar deze Dan O'Dowd is zelfs een politieke senaatscampagne gestart (link 1, link 2, link 3, link 4 en link 5), zodat hij - onder het mom van een veilig verkeer campagne - bullshit kan verkondigen over Tesla. Uitspraken door een politicus (gebaseerd op leugens) zijn namelijk veel beter beschermd onder vrijheid van meningsuiting. Zo kan Tesla hem niet aanklagen voor laster e.d.

edit: ik heb deze post in tweede instantie aanzienlijk uitgebreid, en gecorrigeerd met meer bronnen.

[Reactie gewijzigd door Gulpen op 22 juli 2024 13:33]

Laten we de koe bij de horns pakken en niet bij zijn staart.

Security is niet safety

Voor de volledige quote:
Of course, we now know that this was complete bullshit. Linux wasn’t a threat to national security — it was just competition for Green Hills Crappy Software. It seems that when Dan O’Dowd is threatened by competition, his first reaction is to claim that the competition will kill you. In reality, Green Hills should take a look at their own outdated and dangerous software before pointing fingers at others. Widely used open-source software helps developers find vulnerabilities faster, and hackers can always decompile executables to get the source even when an operating system is closed source. Eventually, Green Hills software caved and now supports Linux fully.
De Linux kernel staat bekend als relatief "secure" OS kernel. Open-source zorgt er inderdaad voor dat meer ogen naar de broncode kunnen kijken, ipv met veel moeite decompileren. Maar dat zegt absoluut niets over de safety. Hoe weet je zeker dat het systeem altijd genoeg geheugen heeft? Hoe zorg je dat er nergens een memory leak is? Hoe zorg je dat real-time deadlines altijd worden gehaald?

Voorbeeld zijn de computers die aan boord zitten van een moderne jet. Deze jets hebben enkele boordcomputers die nooit uitgezet worden, bijvoorbeeld omdat een vliegtuig op de grond ook aan de stekker hangt mocht grondpersooneel wat onderhoud moeten verrichten. Daardoor hebben enkele systemen uptimes van honderden dagen. Totdat je perongeluk wel een software bugje hebt waarbij de stroom in het vliegtuig uitvalt na x dagen uptime. Klinkt beetje als het year 2038 problem. Kan je voorstellen wat er gebeurd als dit op 100ft hoogte voor een landing gebeurd? Dat klinkt vrij fataal.

Dat is dus hele andere 'attack' vector dan "hackers"(=security). Er bestaan genoeg manieren om een simpel C programma te doen laten crashen, ook bij "geldig" gebruik. C en C++ zitten elk, op hun eigen manier want het is absoluut niet dezelfde taal, vol met impliciet gedrag, non-portable statements of nog erger undefined behaviour. Zaken zoals static-analysis methoden om stack overflows te detecteren, die wel rekening moeten kunnen houden met function pointers (die al dan niet dynamisch gewijzigd worden), operating system stack gebruik, en nested interrupts die de processor moet afhandelen, zijn dus must-have om te garanderen dat je firmware 'nooit' vastloopt.

Het is dus niet zo raar dat we bijvoorbeeld MISRA C standaard hebben voor safety critical software. Die standaard weerhoud er niets van dat je je root password niet "admin" mag maken. Het stelt wel stricte eisen aan type casting, geen undefined behaviour, beperkt gebruik van function pointers, enzovoort. Het is veel meer dan een "code style" guideline die aangeeft waar je een tab, spatie of haakje moet neerzetten. Ik kan je nu al zeggen dat de Linux kernel niet door een stricte MISRA C regelset heen gaat komen, dus mocht jouw leven afhangen van de beslissingen van die firmware, dan gebruik je Linux niet. Daarvoor heb je RTOS kernels die feature-wise "brak" zijn en door het beperkte DIY knutselgehalte ook commercieel, maar wel doen wat ze moeten doen.

Ik ben het wel eens dat een CEO altijd een "wij van wc eend" praatje zal aanhouden, overal waar het maar van belang kan zijn. Politiek en (grote) [tech]bedrijven zijn ook niet een geweldig idee. Aan de andere kant zou ik ook voorzichtig zijn om meteen iemand z'n argumenten af te schieten omdat dat er achter kan zitten, in verleden anders is gegaan, enzovoort. Laten we wel naar de inhoud blijven kijken.

[Reactie gewijzigd door Hans1990 op 23 juli 2024 03:45]

Ik werk zelf al een jaar of 7 bij Green Hills software, en jij hebt het helemaal bij het rechte eind Hans. GHS ontwikkeld compilers, probes, editors en debug tooling in de basis. Al tientallen jaren, en dit zijn echt professionele kwaliteitsproducten. Daarnaast hebben we meerdere RTOS-en, waarvan INTEGRITY de bekendste is. Dit word inderdaad gebruikt voor ECU's, maar ook systemen in vliegtuigen en auto's tot aan consumenten producten aan toe.

In Nederland doen we met name certificeringswerk. Services, BSP ontwikkeling en safety. Op aanvraag van klanten, maar alleen voor BSP werk. Applicatiewerk (en zeker product development op dat niveau) is voor zover mij bekend nooit gedaan door GHS in welke vorm dan ook. Dus de suggestie van anderen dat wij een eigen FSD ontwikkelen is onzin. GHS zorgt voor het OS, de BSP, tooling en certificering.

Ik ben dus blij met de reactie van @Hans1990 , iemand die niet roept wat er op internet voor onzin word geschreven over GHS.

En wat betreft The Dawn Project, dat is een losstaande organisatie en heeft niets met GHS van doen (behalve de CEO). Voor zover mij bekend houd hij alles strikt gescheiden, maar de Tesla fans pakken natuurlijk elk ding aan om te schoppen.
Mooi, kun jij dan het onderstaande statement van/over jouw CEO verifiëren en uitleggen:
Dan O'Dowd, the world's leading expert in creating software that never fails and can't be hacked.
https://danodowd.com/

Jij zegt:
Al tientallen jaren, en dit zijn echt professionele kwaliteitsproducten. Daarnaast hebben we meerdere RTOS-en, waarvan INTEGRITY de bekendste is. Dit word inderdaad gebruikt voor ECU's, maar ook systemen in vliegtuigen en auto's tot aan consumenten producten aan toe.
Ah, zoals jullie CEO dit ook vertelt op Twitter, maar dan op een geheel onprofessionele manier in Elon Musk stijl naar Elon Musk zelf toe:

https://twitter.com/RealD...JGqVW5k-ADTNP3hIvDrw&s=19

En dan bedoelen jullie neem ik ook aan de geplaagde Boeing 787 (Dreamliner)? EDIT: Daar schept de CEO dus ook mee op in het Twitter bericht hierboven.
In the latest of a long line of problems plaguing Boeing’s 787 Dreamliner, which saw the company’s fleet grounded over battery issues and concerns raised over possible hacking vulnerabilities, the new software bug was found in plane’s generator-control units.
https://www.theguardian.c...uld-cause-loss-of-control

Verder zou ik deze blogpost eens goed doorlezen om te zien wat deze CEO werkelijk doet op de achtergrond. De post lijkt wel iets Tesla pro te zijn, maar het gaat mij om de bevindingen over deze persoon: https://wholemars.net/202...d-has-blood-on-his-hands/

[Reactie gewijzigd door Aurora op 23 juli 2024 03:45]

Ik hoef niets uit te leggen over onze CEO of zijn beweringen. Hij heeft GHS opgericht en heeft aan de basis van een aantal hele goede dingen gestaan, maar zijn basis is voortgezet door een paar honderd zeer kundige engineers in de afgelopen 30 jaar.

Je zal begrijpen dat goede engineers niet automatisch goed zijn in marketing en politiek. Hoe hij dit aanpakt is zijn keuze, en staat los van GHS of de werknemers.

En de dreamliner werd geplaagd door applicatieproblemen (sensoren en besluitvorming, voor zover mij bekend), niet problemen met het OS.

Overigens weet ik niet of er iets van ons in de dreamliner zit. En zelfs dan nog is het aanhalen van een casus als deze nog geen ontkrachting van de kwaliteit van een organisatie of zijn werknemers. Mensen maken fouten, hoe goed ze ook zijn en hoe rigide het proces ook is. Je kan alleen de kansen heel erg klein maken met de juiste processen.

[Reactie gewijzigd door thabasement op 23 juli 2024 03:45]

Mensen maken fouten, hoe goed ze ook zijn en hoe rigide het proces ook is
vs
creating software that never fails and can't be hacked.
Je kan wel roepen dat de uitspraken helemaal los staan van zijn eigen organisatie, maar je weet wel zelf dat dat de reinste onzin is. De CEO is het gezicht van het bedrijf. Die hoeft iets verkeerd te roepen of te doen en de goede naam is weg of, indien beursgenoteerd, kelderen de aandelen.
Mijn mening VS zijn uitspraken. Zoals ik zei, hoe hij het aanpakt is zijn zaak. Niet de mijne.

Wat ik zei is geen onzin. Hij houd dit bewust gescheiden voor zover mij bekend. Maar ik heb ook in een andere post gezegd dat zijn uitspraken positief en negatief kunnen uitvallen op GHS, precies wat jij zegt. Ookal wil hij dat wellicht niet. Gelukkig is GHS een privaat bedrijf, niet een beursgenoteerd bedrijf. Dat zorgt er in ieder geval voor dat hij geheel de koers kan bepalen en niet de geldbeluste belegger. Ook dat vind ik persoonlijk wel een positief feitje.
Het feit dat hij de CEO van Green Hills is maakt dat je het niet meer los kunt zien. Ik begrijp dat je jouw werkgever wil verdedigen, maar dit staat natuurlijk niet los van GHS.
Het zal altijd afstralen, positief of negatief. Klopt. Niet anders dan Elon Musk op Tesla of Space X. Ik geef alleen aan dat dit voor zover mij bekend niet de intentie is van hem.
En dan bedoelen jullie neem ik ook aan de geplaagde Boeing 878 (Dreamliner)?
[...]
https://www.theguardian.c...uld-cause-loss-of-control
Als je iets quote moet het wel relevant zijn. Het gelinkte artikel gaat over Electrical Power problemen van zeven jaar geleden op de B787. Dat is een systeem waar Green Hills niets mee van doen heeft. Op de 787 wordt door tientallen bedrijven software in allerlei vormen geleverd en dit is in deze discussie dus volkomen irrelevant.
Ik heb slechts een typo gemaakt in mijn eigen zin. Niet de 878, maar de 787. Mijn punt staat nog steeds vast. Volgens andere bronnen heeft Greenhills daar zeker mee te maken.
en dit is in deze discussie dus volkomen irrelevant.
Net zoals andere irrelevante zaken hierboven en hieronder, waar je een 2+ of een 3+ voor hebt gegeven?
Heb je een bron? Enige wat ik zo snel kan vinden is: https://www.ghs.com/customers/boeing_787.html

Dat geeft het inderdaad toe dat GHS betrokken is bij de ontwikkeling van 787 boordcomputers.
Maar dat zegt nog niet dat GHS op de betrokken boordcomputer is toegepast. Natuurlijk zal GHS dat ook niet meer adverteren nu het zo breed in nieuws uitgemeten is dat er iets is mis gegaan.

Het is logisch dat GHS-level tools vereist zijn voor alles wat met flight controls of botswaarschuwingen enz. te maken heeft. Je zou zeggen dat stroomvoorziening net zo kritisch is als de flight computers. Maar ik kan niet zo vinden waar de betrokken boordcomputer en een bug in GHS software aan elkaar gelinkt zijn.

[Reactie gewijzigd door Hans1990 op 23 juli 2024 03:45]

Ik heb slechts een typo gemaakt in mijn eigen zin. Niet de 878, maar de 787. Mijn punt staat nog steeds vast. Volgens andere bronnen heeft Greenhills daar zeker mee te maken.
Oh, "andere bronnen". Dat moet dan wel kloppen, als jij het zegt |:(
(Die typo was mij niet eens opgevallen)
Maar je kan je wel de vraag stellen waarom jullie CEO dat project is gestart. En de link met de CEO zorgt automatisch dat er belangenvermenging kan zijn. Je kan jezelf niet onafhankelijk noemen als organisatie wanneer de topman van die organisatie ook CEO is van een bedrijf dat zelf ondersteuning biedt voor de ontwikkeling van gelijkaardige technologie.

En hoewel dat geen afbreuk doet aan de producten die GHS ontwikkelt en verkoopt straalt het wel af op het bedrijf natuurlijk, net zoals Elon Musk's Twitter gedrag afstraalt op Tesla.
Over de motieven kan ik enkel speculeren maar ik betwijfel de oprechtheid. Elke ingenieur met enig verstand van computer vision en/of radar in voertuigen kan binnen no-time deze gehele test methode ontkrachten.

Ik werk zelf jaren in de industrie van voertuig autonomie en werk aan de ontwikkeling van dergelijke systemen. Nadat ik door het rapport bladerde is het in ieder geval voor mij overduidelijk dat een wetenschappelijke basis absoluut niet op de eerste plaats stond.

De testen van EURO-NCAP en ratings, uitgevoerd door TNO, Thatcham, etc. zijn een veel betere referentie voor een gedegen test methode (waarin de Tesla overigens op de eerste plaats staan).
Nadat ik door het rapport bladerde is het in ieder geval voor mij overduidelijk dat een wetenschappelijke basis absoluut niet op de eerste plaats stond.
heb je hier iets meer informatie over? Deze test lijkt inderdaad haaks te staan op andere tests die met auto's worden uitgevoerd, maar ik kan nog niet helemaal achterhalen waarom in deze situatie andere resultaten behaald worden.

Het rapport lijkt wel vrij vooringenomen om tot een dergelijke conclusie te komen.

[Reactie gewijzigd door s0ulmaster op 23 juli 2024 03:45]

Een voorbeeld is dat deze simulatie onrealistisch is aangezien een verkeersdeelnemer (in dit geval het kind) nooit levenloos stil zal staan midden op de weg. Dit lijkt een insignificant verschil maar is allesbepalend.

Sterker nog, het systeem van Tesla heeft hier de juiste keus gemaakt. Want, het was inderdaad helemaal geen kind en gedroeg zich ook niet als zodanig. Het uitvoeren van een noodstop had hier een zwaar ongeval kunnen veroorzaken.

Autonome systemen die nu op de markt zijn maken gebruik van verschillende detectiemethodes.

- Methode 1: Radar: kan snelheidsverschillen erg snel identificeren - maar geen stationaire objecten onderscheiden van de omgeving.

- Methode 2: Camera (snelheid): waarnemen van snelheidsverschillen via pixel-referenties. Dit wordt gedaan door te evalueren of het object groter wordt en of de pixels in een bepaalde richting bewegen.

- Methode 3: Camera (identificatie en lokalisatie): waarnemen van locatie van het voertuig, de rijbaan, en onderscheid kunnen maken tussen relevante objecten (auto's, fietsers, etc.) ten opzichte van niet-relevante objecten (vuilnisbak, boom).

Elke seconde komt er enkele gigabytes aan informatie binnen die verwerkt moet worden. Maar voertuigen (ook Tesla's) hebben een zeer beperkte rekenkracht aan boord. Dus vroegtijdig filteren is van groot belang.

Als een fabrikant enkel leunt op methode 3 (identificatie van objecten) dan zou ik verwachten dat een noodstop wordt uitgevoerd. Als een fabrikant een meer geavanceerde evaluatie heeft dit samenvoegt met methode 2 (snelheid), dan is het goed mogelijk dat het wordt geïdentificeerd als niet-menselijk.

In dit geval maakte het system van Tesla een juiste beslissing. Maar in andere gevallen is dit juist weer een zwakte. Bijvoorbeeld bij de recente crash met een gekantelde vrachtwagen. De vraag is echter of een ander systeem wel had geremd (ik vermoed zelf van niet, maar dat is een gok).

[Reactie gewijzigd door kaasboer09 op 23 juli 2024 03:45]

Sorry, wat? Een object wordt gedetecteerd en de auto rijdt gewoon door? Hoe is dat goed te praten. Als er iets op het pad van de auto staat van pak 'm beet een meter hoog dan hoort de auto toch te stoppen?

En weet je wat de eerste reactie is van mensen en dieren als er een dreigende situatie is? Bevriezen. Rijd maar eens iets te hard op een zebrapad af waar mensen lopen. Die zullen eerder stoppen dan versnellen.

Een object bewust aanrijden lijkt mij ten alle tijden ongewenst. Helemaal als het een mens kan zijn.
Als je de fsb beta niet eens aanzet https://twitter.com/Frede...Cc6qZVaQ1ddnSraRAK0w&s=19

Hij is gewoon niet te vertrouwen en dit zou gewoon niet op tweakers moeten staan.
Zie mijn eerdere reactie op @steennnn z'n comment. Ik begrijp dat het wellicht moeilijk te accepteren is maar een auto hoort absoluut niet te stoppen voor elk obstakel dat op de rijbaan zou liggen.
Die zullen eerder stoppen dan versnellen.
Klopt maar de voetganger bewoog voorafgaand weldegelijk. En dat maakt een groot verschil, want daarmee wordt het gebruikelijk geïdentificeerd en geclassificeerd als zijnde een weggebruiker. Ook als de persoon vervolgens stil staat.
Elk obstakel? Een kind is geen steentje of plastic tas, maar iets wat een behoorlijk oppervlakte heeft. Als een stilstaand kind geraakt kan worden dan zou, zeker in jouw beschrijving met helemaal stil staan en niet hoeven te ontwijken, met hetzelfde gemak een betonnen paal geraakt kunnen worden.
Ik begrijp dat commentaar op Tesla wellicht moeite te accepteren is, maar objecten met bepaald formaat dienen ALTIJD vermeden te worden door uitwijken of stoppen. Doorrijden is de allerslechtste keuze bij twijfel.
Nee, de bestuurder die het systeem supervised moet altijd stoppen of uitwijken. Zolang het systeem een level-2 autonomie adverteert is het enkel een hulpmiddel die in sommige gevallen een gevaar herkent en ingrijpt.

Een functie die middels deze test niet bevestigd noch ontkracht kan worden aangezien het een foutieve methode is.

NB: Tesla (en andere autofabrikanten) hebben nooit gezegd dat in de huidige staat van de technologie een systeem overige weggebruikers in elke situatie zullen herkennen.
Vind het wel een rare reactie om te zeggen dat dit 'de juiste' beslissing is. Ook al is dit 'niet-menselijk' dan had de auto alsnog moeten stoppen.

Het punt dat of een andere systeem wel of niet had geremd is staat los van of Tesla op het moment een veilig zelfrijdende functie heeft.
Vind het wel een rare reactie om te zeggen dat dit 'de juiste' beslissing is. Ook al is dit 'niet-menselijk' dan had de auto alsnog moeten stoppen.
Godzijdank zal een voertuig absoluut niet voor èlk geïdentificeerd obstakel een noodstop procedure uitvoeren. Die zou meteen van de markt gehaald worden. Elke noodstop op de snelweg à 130km/h kan een kettingbotsing veroorzaken die tientallen levens kan kosten.

Een bekend probleem in de industrie is dat van rondvliegende plastic tasjes. Vroegere systemen voerden regelmatig een noodstop uit. Het internet staat er vol mee. Sindsdien hebben automakers hun systemen bijgesteld om minder gevoelig te zijn, en is ook de identificatie verbeterd.

Vandaag kan Tesla's FSD nog steeds geen plastic tasje classificeren als zijnde ongevaarlijk, maar kan deze wel autonoom ontwijken (video).
Het punt dat of een andere systeem wel of niet had geremd is staat los van of Tesla op het moment een veilig zelfrijdende functie heeft.
àlle zelfrijdende systemen van consumenten auto's zijn onveilig als jij (als bestuurder) je aandacht verliest. Ik ben geen fan van Tesla's FSD beta-programma, maar de bestuurder is nog gewoon verplicht om achter het stuur te zitten en de auto vlijmscherp in de gaten te houden. Sterker nog, de aandachtsvereisten in het beta-FSD programma zijn veel strenger dan van alle andere auto's. Ook die van Tesla's reguliere autopilot.

Of bedoel je dat als jij achter het stuur zou zitten en de auto op een kind zou afstormen jij niet had ingegrepen?
Godzijdank zal een voertuig absoluut niet voor èlk geïdentificeerd obstakel een noodstop procedure uitvoeren
"Bij een gemiddelde snelheid van 40km/u werd de pop herhaaldelijk geraakt."
Klopt. En bij 40km/h kan een achterliggende motorrijder zijn nek breken.
Dan houdt die motorrijder bij die snelheid onvoldoende afstand.
Helaas houden zeer veel mensen in het verkeer onvoldoende afstand om een crash te voorkomen na een noodstop van zijn voorganger. Eigen schuld misschien, maar daar heeft de persoon geen boodschap aan als een robot besloot te stoppen voor een stuk plastic met peuter kleren.
Een voorbeeld is dat deze simulatie onrealistisch is aangezien een verkeersdeelnemer (in dit geval het kind) nooit levenloos stil zal staan midden op de weg. Dit lijkt een insignificant verschil maar is allesbepalend.
Hoezo niet? Als het doel is dat je geen mensen raakt, moet je ook geen stilstaande mensen raken. Dus een voetganger die midden op de weg z'n veters gaat strikken (wat toegegeven is: enorm onhandig van die persoon), moet dus gewoon aangereden worden? (-:

Sorry, maar dit klinkt als iets "dit stond niet in de user story!" zodat het software team niet z'n schuld is.
Je mist mijn punt. Ik stel enkel dat deze test gewoon niet bewijst dat een veter-strekkende voetganger niet gedetecteerd wordt. Want hoe je het ook bekijkt, dit was geen mens op de weg en ook geen goede simulatie.

Het zou theoretisch zelfs kunnen dat Tesla's systeem veel effectiever is omdat het de false-positives beter kan onderscheiden.

Long story short: het is een sensatie artikel zonder wetenschappelijke onderbouwing. Laat het echte testen maar over aan de professionals van onderzoeksinstituten zoals TNO.
Gelukkig worden testen anders wel uitgevoerd met echte kinderen.
Nee, maar de testen van EURO-NCAP onderzoeksinstituten worden uitgevoerd met test dummies die gemaakt zijn van een speciaal materiaal die de radar-signatuur nabootsen van een mens of dier.

Ook wordt bewust gekozen om bewegende doelen te testen omdat dit het meest realistische scenario is. Dat is natuurlijk niet zonder reden.
De radar signatuur (als in radar-cross section, RCS) kan je relateren aan materiaal (absorptie van radiogolven), vorm (stealth structuren tbv RCS minimization) of beweging (doppler effect). Ik denk dat als je een vogelverschrikker of etalagepop een jas en broek aan laat trekken, dat je erg dicht in de buurt komt van een menselijke vorm, afmeting en gedragen materialen, en dat je bovendien de auto enorm veel voordelen geeft:

- Een statisch object is de makkelijkste test case, want je hebt dan nog maar 1 bewegend object in de test (de auto zelf). Bij een bewegende 'target' zou een radar/visie systeem met bredere hoek moeten kijken, en bovendien ook het looppad van de voetganger moeten inschatten om te weten of het die voetganger gaat raken.

- Een pop met bewegende ledematen geeft verstoring aan de radar of een extra temporal component aan detectie algoritmen van de vision beelden, en is daardoor moeilijker te detecteren. Zie ook in deze video waarin je ziet dat bij bewegende ledematen de auto meer moeite heeft op tijd te stoppen: https://youtu.be/D6vJT5v266Y?t=70
Je kan op de voorlaatste slide zien dat de RCS van de bewegende test pop ~4dBsm (dB square meter) lager zijn dan van een niet-bewegende pop.

Euro-NCAP heeft deze test features toegevoegd om de test moeilijker te maken en de overlevingskans van voetgangers verder te verhogen. Een statische pop midden op de weg is het meest triviale test scenario.

[Reactie gewijzigd door Hans1990 op 23 juli 2024 03:45]

Volgens mij zijn al meerdere mensen in een Tesla overleden omdat deze bevoorbeeld tegen betonnen wegafzettingen aanreed. Nu is in dit videotje het een kartonnen pop, wat als die pop vol met beton had gezeten en 300 kilo woog? Dan was de inzittende waarschijnlijk zwaar gewond geweest.
Wellicht. Maar de enige conclusie die getrokken kan worden uit de test uit dit nieuwsbericht is dat de Tesla niet stopt voor een stuk plastic ter grootte van een peuter.
Een voorbeeld is dat deze simulatie onrealistisch is aangezien een verkeersdeelnemer (in dit geval het kind) nooit levenloos stil zal staan midden op de weg. Dit lijkt een insignificant verschil maar is allesbepalend.
Hier maak jij imo een denkfout. Een persoon kan in gedrag wel degelijk bevriezen, als natuurlijke en automatische reactie bij een waargenomen dreiging. Je kan zeker nooit uitsluiten dat een kind niet levensloos op de weg kan staan. Dat is m.i. juist goed te verklaren. De vraag is of in dat geval de software het bevroren kind nog steeds herkent als 'persoon' en vervolgens de juiste actie onderneemt deze niet te raken (stoppen of ontwijken).

Alles valt of staat met het juist identificeren van objecten en het uitgangspunt dat vanaf een bepaalde omvang in principe gekozen wordt voor een noodstop of ontwijken. De vergelijking met een paaltje met hetzelfde formaat is daarin begrijpelijk, maar ergens ook niet juist. Een paaltje kan prima beschadigd raken, een kind niet. Gevolgschade aan derden dus. In het scenario, waar moet worden gekozen tussen een paaltje OF een stilstaand kind, dient de auto indien stoppen of ontwijken niet meer mogelijk is, alsnog het paaltje te raken i.p.v. het kind.

Dat lijkt een Tesla (nog) niet goed te kunnen doen. Prima om dat aan de kaak te stellen, ook als dat een ander onderzoeksinstituut betreft. Wel had Tweakers mogen benoemen dat deze 'belangenorganisatie' niet geheel onafhankelijk is.

[Reactie gewijzigd door Justinn1988 op 23 juli 2024 03:45]

Ik snap ook echt wel de link die word gelegd, die vraag van onafhankelijkheid mag (sterker nog, moet) gesteld worden. Maar als je snapt wat onze core business is, en vooral wat wij niet doen (applicatiewerk), dan snap je al gauw dat er weinig belang is vanuit GHS.

Ik ken onze CEO niet persoonlijk, dus ik kan ook niet voor hem spreken. Maar voorzover ons bekend is dit zijn persoonlijke doel, de software wereld veiliger maken (security en safety). Deze man heeft echt geen geldbehoefte, en van een alternatief belang heb ik geen weet. Hoe hij zijn doel aan de man brengt, welke voorbeelden hij daarbij aanbied, en of dat handig is dat laat ik aan anderen om over te oordelen.

En het klopt, het straalt af op GHS. Dit kan zowel positief als negatief uitvallen, ookal wil hij het los houden. Maar voor mij blijft een tof bedrijf met toffe producten.
Natuurlijk, dat mag. Ik kan alleen maar mijn kant van het verhaal (met name dus GHS) belichten. Maar zoals ik eerder al zei, dit kan buiten positief ook negatief afstralen op GHS. Mensen die denken dat het sec bedoeld is om sales aan de GHS kant te boosten moeten toch even iets verder denken.
Ik geloof er niets van. Als Green Hills daadwerkelijk wilde helpen de wegen veiliger te maken, hadden ze wel iets ontwikkeld wat daar aan bijdraagt, in plaats van modder te lopen gooien naar de concurrent. Deze hele campagne is niets anders dan een enorm zwaktebod van Dan O'Dowd. Zoals mooi samengevat in dit artikel (https://wholemars.net/202...has-blood-on-his-hands/):
According to Green Hills own website, “hundreds of millions of vehicles contain software created with Green Hills Platforms for Automotive”. That’s a lot of vehicles, spanning every brand from Ford, GM and Toyota to Lexus and BMW. For 30 years, millions of people have died because of Green Hills sheer incompetence and failure to bring automated vehicle technology to market. Now they want to stop the one company that is actually making real progress, shipping real software to real customers? I wonder how these people sleep at night, knowing that 39 million people have died in car crashes since they became automotive suppliers and they’ve been more focused on profiting from the crisis than solving it. Imagine the lack of conscience required to not only feel no remorse but to go out and try and destroy the competing solutions that people are using and enjoying. Competing solutions that are already preventing crashes every single hour of every single day.
Op hun website (https://www.ghs.com/products/auto_adas.html) vind je automated driving systems/software.

Dit is trouwens niet de eerste keer dat ze bogus filmpjes in de wereld sturen om FSD Beta zwart te maken, dewelke dan door tientalle FSD bestuurders eenvoudig debunked worden.

Hou het kanaal van @wholemarsblog maar in de gaten: het tegendeel zal getoond worden, en dan zelfs met een HD camera ipv de UFO-camera-kwaliteit van Dan…
Dit is gewoon weer FUD, hier zijn site. Het ergste hier is dat dit ook weer lekker amerikaans is (polarisatie).

Meer info:
According to O’Dowd’s LinkedIn profile, not only is he the founder of The Dawn Project, but also the current CEO of Green Hills Software.
A quick review of the company’s website reveals they provide software that helps “automotive companies achieve the safety and security necessary for production-level ADAS [Advanced Driver Assist Systems] and automated driving systems.”


Dit heeft hij ook al eerder gedaan:
The Dawn Project takes out full-page NY Times ad claiming millions would die every day if Tesla’s FSD was in every car

Dit is dezelfde gast die ook zei dat Linux niet veilig was.

De hele (soap) geschiedenis is hier te lezen:
https://wholemars.net/202...d-has-blood-on-his-hands/
Het jammere van dat wholemars blogje dat jij aanhaalt is dat de schrijver een hele bups informatie bij elkaar harkt en er vervolgens conclusies aan verbind die incorrect zijn. De schrijver is duidelijk een Tesla fan, en haalt alles naar zich toe om eventuele problemen met FSD of Tesla te ontkrachten. Het gebeurd natuurlijk beide kanten op, dat snap ik ook wel. De "Elon Musk" manier van communiceren is niet alleen aan hemzelf besteed, en het werkt wel om wat op gang te brengen blijkbaar.

Feit is dat wij, zoals ik eerder aangaf, niets doen met applicaties. Dat onze producten door velen gebruikt worden, ook in auto's, is correct en voor zover mij bekend niet gerelateerd aan deze campagne.

De GHS pagina die jij linkt, deze, laat zien dat GHS "platform" support heeft voor de automotive industrie. En welteverstaan op verschillende vlakken (ECU's, media, etc.). Dat wil zeggen dat er allerlei SOCs (low to high end, lock step enz.) worden gesupport met het OS en de BSPs.

Overigens neem ik het niet op voor onze CEO. Ik vind het vooral tenenkrommend dat er op een Trumpeske manier anti-campagnes worden opgezet, en corrigeer graag de "feiten" waar ik kan.
Overigens neem ik het niet op voor onze CEO. Ik vind het vooral tenenkrommend dat er op een Trumpeske manier anti-campagnes worden opgezet, en corrigeer graag de "feiten" waar ik kan.
Ik noem dat amerikanisering en inderdaad het is een enorm probleem. Gezien het nieuws bepaald wordt door de US (en de 'westerse' bondgenoten) is dat helaas onvermijdelijk. Polarisatie is hier in Nederland ook nog nooit zo hoog geweest (volgens mijn gevoel).

Dit is inderdaad wel een goed voorbeeld. De CEO's van beide partijen zijn geen mensen die ik ooit zou willen ontmoeten.
Lijkt niet heel geloofwaardig, aangezien je in de video kan zien dat de zelfrijdende functie niet werd ingeschakeld: https://electrek.co/2022/...-fails-fsd-never-engaged/
En het lijkt lastig te reproduceren: https://mobile.twitter.co...tatus/1557363740856778755
Feit blijft dat mijn voormalige Volvo het in de steden beter deed dan mijn huidige Tesla. Mijn Tesla heeft nog nooit ingegrepen als er weer eens een fietser rakelings overstak. Mijn Volvo deed dit regelmatig.

Tot nu toe ben ik niet onder de indruk van de veligheidssystemen in mijn Tesla. Het zelf rijden en sturen wél.
Wij hebben een model 3 uit 2019, en een v60 uit 2013.

Beide hebben meermaals ingegrepen bij kleine issues, en beide ook wel eens voor niets bij onverwachte momenten. Maar het blijft, ik grijp zelf bij beide nog vaak zelf eerder in. Misschien omdat ik anticipeer, misschien omdat het systeem nog niet denkt te hoeven ingrijpen, en misschien omdat het systeem niet ging ingrijpen.

Als je zo stellig kunt zeggen dat de ene auto beter ingrijpt dan de andere moet je wellicht eens aan je anticipatievermogen in het verkeer gaan werken.
M.a.w. gaat het bij Tesla over het waaw gevoel van de eigenaar, en bij Volvo over de veiligheid van de weggebruikers.
Oke en nu weer even terug naar de feiten, vastgesteld door experts bij het Euro NCAP:

Twee vergelijkbare auto's in prijs, KPI's specifiek voor "veiligheid van de weggebruikers".

Vulnerable Road Users:
Volvo 71
Tesla 74

Safety Assist:
Volvo 74
Tesla 94

Bron:
https://www.euroncap.com/en/results/volvo/xc40/33014
https://www.euroncap.com/en/results/tesla/model-3/37573
Weer zoek je naar conclusies die je graag wil trekken. Typische confirmation bias.

Ja, de Tesla scoort oranje op kinderen die achter een auto vandaan komen. (Volvo scoort groen)

Nu de Volvo; want laten we de hele waarheid bekijken en niet cherry picken. :)

Adult crossing the road during nighttime, score rood, Tesla Groen
Cyclist crossing, score oranje, Tesla Groen
Cyclist along the roadside, score oranje, Tesla Groen.

Score rood is zeer ernstig.

Bron :
https://cdn.euroncap.com/...-volvo-xc40-datasheet.pdf
https://cdn.euroncap.com/...sla-model-3-datasheet.pdf

[Reactie gewijzigd door procyon op 23 juli 2024 03:45]

Het is geen cherry-picking wanneer het artikel waarop gereageerd wordt gaat over (overstekende) kinderen, en Tesla volgens NCAP daarop steken laat vallen (waarover het artikel gaat).

Het artikel gaat niet over volwassenen (hoewel ik die score rood net zo ernstig vind als jij), en gaat helemaal niet over fietsers. Dus dat is wel cherry-picking.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:45]

Ik reageerde op :
M.a.w. gaat het bij Tesla over het waaw gevoel van de eigenaar, en bij Volvo over de veiligheid van de weggebruikers.
Dat ging dus niet over het artikel zelf, het ging over jouw aanname dat Tesla ondergeschikt is aan een Volvo als het gaat om 'veiligheid van weggebruikers'.

Daar, zoals jij beweerde, mensen kiezen voor Volvo voor deze specifieke eigenschap.

Daarom haakte ik in om even wat feiten over 'veiligheid van weggebruikers' met jullie te delen.

Wellicht roep je nu in het vervolg precies het tegenovergestelde nu je weet dat Tesla eigenlijk veiliger is dan Volvo voor 'veiligheid van weggebruikers'. Vastgesteld door een hogere waardering voor Tesla van de autoriteit die hier voor Europa mee belast is, Euro NCAP.

Maar ik betwijfel of nieuwe feitelijke constateringen voldoende zijn om enige mening / veronderstelling over de materie te veranderen bij je. Anders had je nu wel anders gereageerd en me bedankt dat ik de moeite nam je op het bestaan van deze rapporten te wijzen.
De Volvo scoort alleen rood bij 'Adult crossing the road during nighttime', groen bij adult crossing during daytime.
Als je zo fel gekant bent tegen cherry picking moet je er wel zelf ook voor waken.
Was inderdaad during nighttime die KPI, dank dat je even inhaakt ;)
Klopt, een van de zaken waar ik het bij Tesla echt niet mee eens ben.

Dit was mijn eerste, maar voorlopig ook laatste Tesla…
Dit verbaast me, zeker met voetgangers heb ik meermaals een noodstop moeten ondergaan. (Wat zeer vervelend is) omdat een voetganger 1 voet op de straat zette om zijn afvalcontainer van de straat te halen. Mijn ervaring is dan ook dat het erg goed, eigenlijk te goed werkt.

Hier overigens een echte test waarin duidelijk is hoe een Volvo en een Tesla zich gedragen in dergelijke omstandigheden
https://youtu.be/aE3Ovu6iMpE
Heb je tot het einde gekeken? Dat is exact mijn ervaring met mijn Tesla. Het werkt af en toe maar half.

Iets wat in de Tesla structureel niet goed werkt is fietsers bij het verlaten van een rotonde. Die heeft hij bij mij nog nooit opgemerkt.

Mijn vorige Volvo meerdere keren.

Tja een studentenstad met ongelooflijk veel fietsers, dan krijg je dat.
Maar de keer dat het écht een haar scheelde, deed de Tesla helemaal niets.

Als dat, zoals jij suggereert, aan mijn Tesla ligt, dan kan ik daar helemaal niets mee. Ik heb Tesla service als stugge organisatie leren kennen, zonder enig oplossend vermogen.

De harde tik die je hoort bij het raam omhoog doen, zit er nu al een jaar. Reactie Tesla service: “we hebben hem uit elkaar gehaald en in elkaar gezet, meer kunnen we niet doen”. Daar sta je dan, weer met de keycard in je hand. Enigszins verbaasd door die reactie.

Ik maak de 5 jaar vol voor 4% bijtelling en ga snel weer terug naar een Volvo.

Er is nog een probleempje bij mij: accu degradatie. Ik weet dat dit over het algemeen niet speelt, maar bij mijn exemplaar wel. 10% na 30.000km.
Tesla doet niets tot 30% degradatie.

Ik vind dat niet eerlijk, mijn degradatie is hoger dan ik in alle redelijkheid van Tesla mag verwachten (gemiddelde ligt op 3%). Er is gewoon 63k voor mijn exemplaar afgetikt, dus mag ik dan aub hetzelfde verwachten als bij ieder ander? Nee, Tesla houdt vast aan 30%.
Ik suggereer niet dat het aan je tesla ligt.

Ik deelde de video omdat ik wel ervaring heb met Tesla maar niet met Volvo. En jij met beide. Maar die ervaring strookt niet met de test die ik zag?
Heb je tot het einde gekeken? Dat is exact mijn ervaring met mijn Tesla. Het werkt af en toe maar half.
Heb jij tot het einde gekeken? De Volvo reed de kangaroo gewoon dood. Dat ding was even groot als een kind.
Waarom vergeet je dat te benoemen en kies je er selectief voor om alleen te melden dat de Tesla niet perfect is.

Dan je accu degradatie; weet niet hoe je die hebt gemeten, ga ervan uit dat je dat niet met een simpelel range test hebt gedaan want dan zijn heel veel variabelen in play.

Kan je wel een beetje gerust stellen, de accu degradatie is altijd het ergest in de eerste 1/2 jaar, daarna stabiliseert het :)
Het heeft 1,5 jaar geduurd, maar uiteindelijk bevestigd vanuit Tesla.

Tesla deelt in principe geen data met klanten. Alsof je de auto van ze huurt. Pas na service verzoek na service verzoek, met argumentatie dat de accu van de klant is en niet meer van Tesla en dreigingen met rechtszaken kreeg ik de waarde vanuit Tesla. Ruim 10% degradatie.

Alles gaat om software en en herkenning. Anders remt je auto ook voor een plastic zak die voor de auto waait.

Dat moet je toch weten als je een software bedrijf bent ala tesla. Vreemd dat hij de Kangaroe als volwassen persoon herkent. Foutje in de software.

Zo lang de Volvo in de praktijk beter remt voor fietsers en voetgangers (mijn persoonlijke ervaring), zegt een test met een Kangaroe knuffel niets.
Snap je ervaring en top dat je die met ons deelt.

Maar wat wij hier, ieder voor zichzelf, kunnen verifiëren is wat er gebeurde met een Tesla en en Volvo in precies dezelfde omstandigheden in een gecontroleerde omgeving.

De Volvo reed door een kangaroo heen en de Tesla stopte netjes.
Die kangaroo is het formaatje "kind".

Trek zelf je conclusie.
Nee dus, software intrepeteert wat een onderwerp is.

Als je een onafhankelijke bron wil dat Tesla’s inderdaad moeite met kinderen heeft:

https://cdn.euroncap.com/...sla-model-3-datasheet.pdf
Je kan wel zeggen "nee dus" maar als het is geen kwestie van een mening. Dit gebeurt gewoon in de video. :)

Betreft je bron waarin staat dat "tesla" moeite heeft met kinderen, dan heb ik er nog eentje van dezelfde instantie waarin staat dat "Volvo" ronduit gevaarlijk is voor fietsers en volwassenen zodra het een beetje schemerig is. Daar waar "Tesla de hoogste score haalt.

https://cdn.euroncap.com/...-volvo-xc40-datasheet.pdf

[Reactie gewijzigd door procyon op 23 juli 2024 03:45]

En ik geef je situaties waar Tesla structureel overdag fietsers over het hoofd ziet: rotondes.

Ik daag je uit met een vriend eens te testen in een dergelijke situatie. Je verlaat de rotonde en een fietser steekt nog over. Bij mij heeft de tesla daar nog nooit ingegrepen, gaat structureel mis, waar mijn voormalige Volvo keer op keer remde als hij vind dat ik te dichtbij kwam.

Maar ja in US hebben ze geen rotondes. NCAP test geen rotondes, dus niet belangrijk voor Tesla. Exact hoe ik het bedrijf heb leren kennen. Typisch Amerikaans.

Ik mag nog 2,5 jaar 4% bijtelling genieten. Maar daarna geen Tesla meer voor mij.
De auto zal niet ingrijpen als je enige input geeft op het gaspedaal. Dat is een belangrijk onderscheid dat je moet weten. Bij een Tesla geef je, als je niet uitkijkt; door one pedal driving, vaak 'gas'.

Je kan dus absoluut opzettelijk een mens doodrijden als je gas geeft, ook met Volvo's.
Dat is "by design", want je moet als bestuurder altijd de systemen kunnen overrulen om eventueel groter gevaar te voorkomen. (denk aan 10 vrachtwagens achter je)

(Check bijvoorbeeld die arrestatie laatst in Amsterdam waar de politie de aggressor in de AppleStore moedwillig aanreed om hem uit te schakelen, met een Volvo).

Wellicht moet je bij het afrijden van een rotonde minder gas geven, sowieso veiliger als er veel fietsers zijn. Vind het overigens erg gek dat je Tesla geen luide piepgeluiden geeft om je te attenderen op gevaarlijke situaties, doet die van mij om de haverklap.
Mag toch hopen dat dit niet de reden van het niet ingrijpen is, dan wordt een veiligheidssysteem redelijk nutteloos.

Ik kan je garanderen dat een Volvo ook stopt als je gas geeft.

Dit zou bij mijn Tesla een hoop verklaren. Vaak geef je gas als je iemand over het hoofd ziet. Anders had je wel geremd.
Ik kan je garanderen dat een Volvo ook stopt als je gas geeft.
https://youtu.be/Xh8Y6wVC0bY&t=83

Tot zover jouw 'garanties'.
Alle moderne auto's zijn te overrulen. Allemaal. By design.

[Reactie gewijzigd door procyon op 23 juli 2024 03:45]

Je gaat nu zwaar gemodificeerde wagens die door speciale eenheden worden gebruikt, gebruiken als argument?!

Dit was overigens nog een rel bij de KLPD destijds, omdat vanaf een bepaald model “City Safety” niet meer uitgezet kon worden en daardoor werd van de weg rijden van voertuigen onmogelijk. Hiervoor moesten alle Volvo’s van de KLPD terug en een update krijgen.
Prima kerel.

Blijf jij maar 10 keer in je reacties herhalen dat jouw Tesla zo slecht is met fietsers en dat jouw oude Volvo zo goed was met fietsers.

Terwijl NCAP vind dat Volvo juist gevaarlijk is met fietsers en Tesla super veilig.

https://cdn.euroncap.com/...-volvo-xc40-datasheet.pdf

Vind je dit niet een raar verhaal worden? Vind het echt ongelofelijk dat je star blijft volhouden en feiten negeert.
Die testen zijn voor opgezet. Ik geef iedere keer weer aan dat het bij rotondes structureel fout gaat bij Tesla.

Tesla bouwt safety systemen vanuit AP/FSD en niet FSD vanuit safety systemen.

En daar gaat het mis. Tesla kan überhaupt niets met rotondes, ook niet met FSD.

Maar joh, het staat je vrij mijn Tesla over 2,5 jaar over te nemen. Aangezien het zulke geweldige wagens zijn toch?

Voor mij is het na de 4% bijtelling voorlopig geen Tesla meer. Was de eerste en ook tevens laatste.

Wat moet ik met NCAP als ik er dagelijks in rijd en gewoon grote verschillen IN DE STAD merk met de voormalige auto.

Neemt ook niet weg dat de Tesla op de snelweg veel beter reageert. Daar deed de Volvo helemaal niets.
Ik merk het in de praktijk. Overigens ook alleen maar omdat mijn werk in een studentenstad zit. Iedereen fietst daar overal en negeert massaal voorrangsregels. Dus ik heb ze regelmatig bijna op de motorkap.

In mijn eigen stad hoeft de auto nooit in te grijpen.
Zelfde ervaring hier. Auto's die tegen de middellijn aan schurken, mensen die van het trottoir afstappen, het leidt allemaal tot flinke remacties bij mijn Tesla, zelfs als ik zelf nog zoiets heb: "FF opletten, maar ingrijpen hoeft nog niet".
Ik kan niet vergelijken omdat ik nooit een Tesla heb gehad. Wat ik wel regelmatig merk is dat mijn Volvo onterecht ingrijpt. Alle alarmsignalen gaan dan af omdat er een fietser bij een rotonde wacht op mij, bijvoorbeeld.

Dit maakt het lastig een 100% accuraat systeem te ontwerpen. Ik vermoed dat de Volvo liever heeft dat er onterecht keihard wordt ingegrepen, dan het risico dat hier aangetoond is met de Tesla.

Ik ben bang dat we, als we echt een 100% veilig auto rijdend systeem willen hebben, we er niet aan ontkomen om de wegen ook opnieuw te ontwerpen.
Ik ben bang dat we, als we echt een 100% veilig auto rijdend systeem willen hebben, we er niet aan ontkomen om de wegen ook opnieuw te ontwerpen.

Gelukkig willen we dat ook niet. Iedereen moet gewoon zelf rijden i.p.v. een computertje het werk te laten doen. Ik heb het nooit begrepen, pak dan een taxi als je niet zelf wil rijden.
We willen dit vanwege dezelfde redenen dat we bijna alles automatiseren: het levert minder fouten op en is vaak sneller, dus goedkoper.

Wanneer iedereen in een zelfrijdende auto zit en het proces/systeem is in een volwassen status, zijn er veel minder ongelukken en kan iedereen zijn tijd efficienter gebruiken. Ook is er meer mogelijk: uit eten en een wijntje drinken etc. Dit levert economische voordelen op.

Omdat niemand meer zelf rijdt zijn er ook minder doden door met een slok op achter het stuur te gaan bijvoorbeeld.

Denken dat dit geen verbetering is, toont een groot gebrek aan visie aan.
de redenen die jij noemt zijn nou precies waarom zelfrijdende autos niet worden geaccepteerd in de maatschappij en terecht.

Ook is er meer mogelijk: uit eten en een wijntje drinken etc. Dit levert economische voordelen op.
Omdat niemand meer zelf rijdt zijn er ook minder doden door met een slok op achter het stuur te gaan bijvoorbeeld.

beide redenen over alcohol gebruik. Let op, bij een zelfrijdende auto in welke status dan ook zal altijd moeten verplichten dat er iemand bestuurder moet zijn en kunnen ingrijpen. Die mag niet drinken. nu niet en dan ook niet.

Dat jij zelfrijdende autos wil zodat je kan drinken schets maar weer waarom het een probleem is.
OV elektrisch of een taxi is prima als je zo nodig wilt gaan drinken, maar met een borrel op actief aan verkeer deelnemen is fout.
Aangezien je zo dol bent op het ventileren van je mening, doe ik het ook:

Je hebt wel bewezen een gebrek aan visie te hebben.

Er zijn nu al voertuigen in het OV die zonder bestuurder rijden. Dat dit ooit ook gaat gebeuren met de zelfrijdende auto is evident.

Ik noem het voorbeeld dat je nu geen zorgen meer hoeft te maken over het drinken van een borrel, maar je draait het helemaal om en doet net of dit de reden is dat ik een zelfrijdende auto wil. Dat vind ik op zijn minst een beetje kinderachtig van je. Het is een ontegenzeggelijk voordeel.

Dan benoemen dat je niet met een borrel op moet rijden: Ja, daar is iedereen het mee eens. En toch zal het altijd blijven gebeuren. Tenzij je dus niet meer zelf een auto hoeft te besturen. Het voorkomt dus een hoop ongelukken.
Maar zelf rijden is vele malen gevaarlijker over een paar jaar. We gaan niet opeens mensen aanleren om een stuk beter te leren rijden, maar bij computers gaat dat zeker nog wel gebeuren. Dit is gewoon een aanloop-periode.
Maar zelf rijden is vele malen gevaarlijker over een paar jaar. , dus nu valt mee maar over paar jaar wordt het nog gevaarlijker omdat?
Maar zelf rijden is vele malen gevaarlijker over een paar jaar. , dus nu valt mee maar over paar jaar wordt het nog gevaarlijker omdat?
Misschien moet je de overige 2 zinnen in mijn bericht ook lezen om dat te begrijpen? Het is in verhouding met zelfrijdende auto's, daar gaat het allemaal over toch?

[Reactie gewijzigd door Argantonis op 23 juli 2024 03:45]

sorry maar vond dat nogal onzin, Ik zie een computer niet slim genoeg zijn om het human brein over te nemen op voornamelijk het nemen van morele beslissingen.
Tja dat mag je vinden, maar het gaat grotendeels niet over morele beslissingen maar gewoon over analysevermogen en reactietijd en daarin gaan computers binnen no time mensen inhalen als het om verkeerssituaties gaat.
'even' een taxi pakken op een stapavond kost je al snel 30-50 euro voor een ritje van een kwartier. Dan moet je ook nog terug. Dat is niet weggelegd voor de gemiddelde persoon.

Er zijn een hoop mensen die niet kunnen of willen rijden, voor allerlei redenen. Voor die mensen is er in Nederland nog een redelijk OV, maar ik heb ook op allerlei plekken gezeten waar het OV 2-3x zo lang er over doet om mij naar mijn bestemming te brengen.

Voor die mensen kunnen zelfrijdende auto's niet snel genoeg komen.

[Reactie gewijzigd door Chrotenise op 23 juli 2024 03:45]

Het probleem van een relatief slecht ov is niet op te lossen door de zelfrijdende auto, dit is een omweg. een goed werkte ov is de manier om de uitstoot te vermidderen en de files te vermideren. ook al rijdt de auto zelf de file blijft.
tevens is het ov ook een stuk beter als het gaat om matrialen, de wereld heb namelijk geen oneindige matrialen beschikbaar!
Dat is irrelevant voor het zo kostenefficiënt en tijdig mogelijk je bestemming bereiken. De auto's en wegen zijn er al, dus het is nu een kwestie van ze zo efficiënt mogelijk gebruiken.

Als er deelauto's zijn en mensen worden door kosten gedwongen te carpoolen (en ze daadwerkelijk geen tijd verliezen), zal dat een gigantische impact hebben op files.

Iedereen kent wel het plaatje van een straat met auto's en hoe dat theoretisch allemaal in een bus past. Hetzelfde geldt voor auto's die 4 personen kunnen vervoeren.

[Reactie gewijzigd door Chrotenise op 23 juli 2024 03:45]

Ik wil dat. Taxi's kan ik niet betalen als ik een paar weken op vakantie ga, in de toekomst hopelijk een zelfrijdende auto wel.

Bovendien wil iedereen graag een auto die zichzelf verderop pakkeert terwijl jij de stad in gaat. Lost enorm veel problemen op tov dat blik altijd overal in zicht. Neemt voortdurend ruimte in waar je kunt wonen, chillen, wandelen, tuinieren. Zelfrijdende auto's zijn een oplossing, want die gaan een kilometer verderop in een weiland wachten tot iemand ze nodig heeft.
Wat jij schetst heeft natuurlijk niks met “de elektrische auto” te maken maar met de software die aan boord zit. Dit kan ook prima met een benzine auto of waterstof auto.

Elektrische auto is niks meer dan een auto met een andere motor, Tesla gooit hier nog wat features bovenop maar staan los van het elektrisch rijden.
@brabbelaar heeft het niet over "de elektrische auto" maar over zelfrijdende auto's. Reageer je op de verkeerde post misschien?
Dit artikel of het comment waar je op reageert gaat dan ook helemaal niet over elektrische auto's dus ik weet niet waar je dat vandaan haalt
Ik was nog niet wakker zeker :z
Dat is makkelijk voor dieven :)

Als ik zo eens kijk hoe gehaaid dieven zijn in de tech wereld verwacht ik niet anders dan dat de dieven ze binnenkort remote naar de nieuwe eigenaar rijden. ;)
Ik wil graag een volledig zelf rijdende auto. Auto rijden is saai.
Geen idee waarom je een -1 hebt. Klinkt logisch en ik ben het er mee eens. 👍
100% wordt het nooit zolang mensen nog beslissingen mogen nemen. Dan krijg je altijd dat er fouten worden gemaakt waar een systeem niet op kan reageren (of te laat).

Enige manier om er echt bij in de buurt te komen (maar zelfs dan redt je 100% niet denk ik) is om niet meer zelf te rijden, maar het aan de auto over te laten. Als die auto's vervolgens allemaal onderling kunnen communiceren zou de fout marge klein moeten zijn. Blijf je alleen nog steeds zitten met fietsers/voetgangers etc.
Vanwaar komt het idee dat geautomatiseerde systemen geen fouten maken?

Zodra dat systeem afhankelijk is van sensoren en beeld interpretatie dan durf ik wel te stellen dat fouten maken zeker kan.
Een sensor kan door allelei redenen een foutieve waarde geven of gewoon defect zijn. Nu proberen we dat soms op te vangen door bijv. meerdere identieke sensoren te gebruiken.
Maar het blijft een mogelijkheid tot uitval.
En dan hebben we het volgende probleem: vervuiling en slijtage zorgen voor andere meetwaarden (cq. output).
Juist de kwetsbaarste groep dus.
Dat klopt.

Ik denk dat zelfrijdende auto's zover kunnen komen dat ze ook prima rekening kunnen houden met fietsers en voetgangers. Echter kunnen deze mensen onvoorspelbare dingen doen, die je ook als mens achter het stuur niet zou verwachten (en ook dan dus een ongeluk zou krijgen).

Wat dat betreft ben ik het wel eens met wat er hierboven werd gezegd. We moeten onze wegen anders gaan inrichten. Als we fietsers en voetgangers beter scheiden van de auto's, zullen dit soort problemen minder worden.
Probleem daarbij is dat veel grote steden (en kleine eigenlijk ook) niet de ruimte hebben om alles mooi te gaan scheiden.

In Nederland zie ik het dan niet veel verder komen dan autonoom rijden buiten de bebouwde kom. En handmatig binnen de bebouwde kom.
Beter scheiden van verkeersstromen vergt erg veel meer ruimte en daar hebben we vrijwel overal nu juist tekort van. We accepteren in Nederland dat we in het verkeer de zwakkere verkeersdeelnemers moeten beschermen. Als je dat feit combineert met de schijnbare noodzaak van strikte scheiding van verkeersdeelnemers, dan zou dat betekenen dat zelfrijdende auto's niet zelfstandig in te krappe steden / dorpen mogen rijden.
Zoals @Cryothic aangeeft kan autnoom rijden alleen buiten de bebouwde kom en ook dan alleen op daarvoor geschikte weg-types. (auto-, stroom- en snelwegen)

Binnen stedelijk gebied kunnen de FSD-systemen wel veel bijdragen aan veiligheid, mits daarvoor ingezet.

[Reactie gewijzigd door blissard op 23 juli 2024 03:45]

Maar het hoeft natuurlijk niet 100% te zijn (hoewel het uiteraard een mooi streven is). Als er door het gebruik van zelfrijdende functies in auto's minder ongelukken gebeuren en minder verkeersdoden vallen dan wanneer we zelf 'achter het stuur zitten', is dit toch ook al een verbetering t.o.v. de oude/huidige situatie?

Het is echter goed dat het qua wetgeving langzaamaan toegelaten wordt naarmate er meer data beschikbaar is en de systemen zich door de tijd heen kunnen verbeteren.
Feit blijft dat mijn voormalige Volvo het in de steden beter deed dan mijn huidige Tesla. Mijn Tesla heeft nog nooit ingegrepen als er weer eens een fietser rakelings overstak. Mijn Volvo deed dit regelmatig.
Af en toe ben ik een beetje simpel en denk ik "Amerikanen en fietsers? Slechte combinatie". Nu weten ze in de VS echt wel dat fietsers bestaan maar dan denken ze aan de Tour de France of zo iets. De Nederlandse situatie met kinderen die haast eerder kunnen fietsen is wel een beetje bijzonder. Natuurlijk is het geen excuus, een auto zou nooit iets moeten raken, wat het ook is, maar ik snap heel goed dat fietsers niet heel hoog op de prioriteitenlijst staan van een Amerikaans bedrijf. Al is het alleen maar omdat ze minder data hebben.
Nu komt Volvo ook niet uit NL maar het is een stuk dichter bij, geografisch en vooral cultureel, en staat bekend om de nadruk op veiigheid.
'Je Tesla heeft nog nooit ingegerepen als er een fietser rakelings overstak'. Als er niets gebeurd is met die fietser dan was dat toch een correcte beslissing van de software? Kan zijn dat Volvo onnodig ruimere marges heeft.

En dat is als mens denk ik lastig in te schatten. Mijn auto (een aiways u5;-) doet ook vrijwel niks als er een auto voorlangs komt zeilen die opeens de afslag wil pakken. Voelt raar, en ik zou zelf flink remmen. Maar of dat beter is?
Zelfrijdende auto's is vragen om issues en vooral op lange termijn als je in een auto rijdt. Zo zijn er al genoeg issues als het gaat om weersomstandigheden, vuile camera, obstakels voor obstakels en miscalculatie van beweging (denk aan een kind gaat naar recht en opeens naar links doordat hij de bel achterna gaat) en zo zijn er wel meer dingen die keer op keer fout kunnen gaan.

Het is zoals er al gezegd is dat een zelfrijdende auto die ongeschonden van A naar B komt een beetje geluk moet hebben dat alles kloppend is en daar ligt het probleem.
Grappig, want als je nu in jouw 'zelfrijdende auto's' vervangt voor 'menselijke bestuurders' klopt je tekst (ook).
Aan de ene kant heb je gelijk, want ik geloof er echt wel in dat, op termijn, zelfrijdende auto's veiliger zullen zijn dan door mensen bestuurde auto's. Ze zullen wel nooit perfect zijn, maar ik geloof echt dat we er het aantal verkeersdoden per jaar omlaag mee kunnen brengen.

Maar... ik denk ook dat het niet snel geaccepteerd wordt dat zelfrijdende auto's niet perfect zijn. Een verkeersdode veroorzaakt door een menselijke fout... tja, kan gebeuren. Maar veroorzaakt door een softwarefout - dat gaat voor ophef zorgen, dan is de wereld te klein, krantenkoppen met "moordmachine maakt weer een onschuldig slachtoffer" enzo.
Aan de ene kant heb je gelijk, want ik geloof er echt wel in dat, op termijn, zelfrijdende auto's veiliger zullen zijn dan door mensen bestuurde auto's. Ze zullen wel nooit perfect zijn, maar ik geloof echt dat we er het aantal verkeersdoden per jaar omlaag mee kunnen brengen.
Vroeg of laat is het onvermijdelijk.
Maar... ik denk ook dat het niet snel geaccepteerd wordt dat zelfrijdende auto's niet perfect zijn. Een verkeersdode veroorzaakt door een menselijke fout... tja, kan gebeuren. Maar veroorzaakt door een softwarefout - dat gaat voor ophef zorgen, dan is de wereld te klein, krantenkoppen met "moordmachine maakt weer een onschuldig slachtoffer" enzo.
Ik denk dat zo'n fase er wel zal zijn maar het kan ook makkelijk een andere kant op gaan. We zien nu al een hoop bestuurders die meer op hun auto vertrouwen dan ze zouden moeten, met ververlende gevolgen. De maatschappij lijkt het voorlopig te accepteren. Misschien wel omdat we dat nog als menselijke fouten zien. Toch zijn niet alle menselijke fouten hetzelfde, met drank op rijden is ook een menselijke fout. Het stuur van je auto loslaten lijken we sociaal minder zwaar te wegen dan drankrijden.
Het is heel makkelijk voor auto's om voor altijd in de handleiding te blijven zetten dat je altijd zelf moet blijven opletten met twee handen aan het stuur als dat nodig is om de maatschappij mee te krijgen.

Zelf verwacht ik dat het punt vrij snel komt dat geld het wint van gevoel. Dat begint uiteraard in het bedrijfsleven waar je bakken geld kan besparen zonder chauffeur en helemaal als de auto 24/7 door kan werken. De andere sector waar ik veel druk van verwacht zijn verzekeringsmaatschappijen. Zodra die er van overtuigd zijn dat de computer beter rijdt dan de mens zullen ze hun premies daar op gaan aan passen.
Dan kom je vanzelf terecht bij bedrijven die veel last hebben van schade, ik denk aan taxi's en bezorgers. Een paar krasjes op je nieuwe Mercedes taxi sparen lijkt mij wel wat waard.
Misschien is dat punt zelfs al bereikt al noemen we het nu nog "veiligheidssystemen" zoals een automatische noodstop.
Het hoeft niet perfect te zijn en niet beter dan de beste menselijke coureurs. Als het systeem beter is dan de /slechtse/ menselijke chauffeurs valt er al veel te winnen. De meeste ongelukjes zijn menselijke fouten een beetje helpen met remmen kan veel verschil maken. Dat soort systemen helpen nu al om ongelukken te voorkomen en geld te sparen. Ik kan me voorstellen dat er nu al bezorgdiensten zijn die dergelijke techniek eisen in hun auto's, al is het maar om hun reputatie schoon te houden zodat ze niet uit de binnenstad worden verbannen.

Dan de mensenlijke emotie, die kan ook de andere kant op omslaan. Ik zie de nieuwsberichten al voor me "Bekendheid X had kort voor het veroorzaken van het dodelijke ongeluk zelf de autopiloot uitgeschakeld! Schande! Dat doe je maar op het circuit."


Je kan een auto maken die zo slim is dat ie zelf rijdt.
Je kan ook een auto maken die zo veilig is dat de chauffeur geen ongeluk kan veroorzaken.
Netto komt dat uiteindelijk op hetzelfde neer.
Een paar krasjes op je nieuwe Mercedes taxi sparen lijkt mij wel wat waard.
Fransen beweren anders... :9
veel druk van verwacht zijn verzekeringsmaatschappijen.
Dat zou dus absoluut niet mogen. Hoe je het ook bereikt - weinig schade => minder betalen is het eerlijkste systeem. Anders legt de maatschappij nogmaals meer druk op de mensen die al geen nieuwe(re) auto konden betalen. Dus je verdient wat minder dan de rest, vervolgens wordt ook je premie duurder...
De meeste ongelukjes zijn menselijke fouten
Maar soms ook heel indirect. In ons land (en Duitsland bijv. ook) hebben we een redelijke strenge jaarlijkse keuring. Dat is niet in elk land zo. Als je soms ziet waar men dan mee rondrijdt...(defecte remmen, ophanging, enz).

Ander puntje:
En we weten allemaal: afstand houden moet! Maar lukt lang niet altijd - zeker niet als het druk is op de weg. En dan is een noodstop van een voorganger, de manier om een kop-staart botsing te triggeren. Want als een automatisch systeem besluit de noodstop in te zetten, dan is het praktisch onmogelijk om nog tijdig stil te staan. Daar anticiperen we gewoon niet op. Is het dan een menselijk fout? Ja, want ze houden niet genoeg afstand zegt men dan. Maar is het realistisch om dat te verwachten? Als het zo druk is dat een dergelijke afstand vooral leidt tot invoegers - waardoor de afstand automatisch weer slinkt.
Dat zou dus absoluut niet mogen. Hoe je het ook bereikt - weinig schade => minder betalen is het eerlijkste systeem. Anders legt de maatschappij nogmaals meer druk op de mensen die al geen nieuwe(re) auto konden betalen. Dus je verdient wat minder dan de rest, vervolgens wordt ook je premie duurder...
Met druk uitoefenen bedoel ik de prijs verhogen. Dat is het enige middel dat ze hebben maar in het bedrijfsleven kunnen ze daar keihard mee zijn.
Maar soms ook heel indirect. In ons land (en Duitsland bijv. ook) hebben we een redelijke strenge jaarlijkse keuring. Dat is niet in elk land zo. Als je soms ziet waar men dan mee rondrijdt...(defecte remmen, ophanging, enz).
En mensen zijn heel erg slecht in risico's inschatten, vooral als het ze zelf geld kost. Computers kunnen daar heel rationeel in zijn.
En we weten allemaal: afstand houden moet! Maar lukt lang niet altijd - zeker niet als het druk is op de weg. En dan is een noodstop van een voorganger, de manier om een kop-staart botsing te triggeren. Want als een automatisch systeem besluit de noodstop in te zetten, dan is het praktisch onmogelijk om nog tijdig stil te staan. Daar anticiperen we gewoon niet op. Is het dan een menselijk fout? Ja, want ze houden niet genoeg afstand zegt men dan. Maar is het realistisch om dat te verwachten? Als het zo druk is dat een dergelijke afstand vooral leidt tot invoegers - waardoor de afstand automatisch weer slinkt.
Als de eerste auto goed werkt wordt er geen noodstop gedaan als het niet hoeft. Bij een noodstop heb je typisch niks te kiezen anders was er geen nood. Als je het dan toch moet doen dan liever zo snel mogelijk.
De overgangsperiode waarin mensen en computers samen rijden zou wel eens het lastigste kunnen zijn. Zodra iedereen aan automatisch rijdenden auto heeft denk ik dat het weer makkelijker wordt omdat je dan kan vertrouwen op de voorspelbaarheid, snelheid en draadloze communicatie van computers.

[Reactie gewijzigd door CAPSLOCK2000 op 23 juli 2024 03:45]

Als de eerste auto goed werkt
Mar daar zit een probleem - bij twijfel zal de noodstop inschakelen. En het is vermoedelijk ook wel verstandig om dat zo te doen. Maar zolang dus niet alle andere auto's ook een dergelijk systeem hebben, dan gaat het dus heel erg mis.
En toch moeten we niet denken dat storingen in rijhulp-systemen (met al die extra sensoren) niet kunnen ontstaan. Dat mensen inherente fouten hebben: ja. Maar dat systemen nooit storingen zullen hebben: nee.
Het moet en zal (voorlopig) een samenwerking zijn van mens en systeem. Bij noodsituaties accepteren we twijfel en dus een mogelijke false positive.
Ander probleem is wel dat 'verkeerslachtoffers' een vrij ruim begrip is. Dat omvat ook slachtoffers veroorzaakt door defecten, onuitwijkbare situaties, enz.
Dus dat aantal moet opgesplitst worden als je puur de slachtoffers van 'niet gezien' / inschattingsfout e.d. wilt bepalen. Wat daarna dan ook nog optreedt is dat het statistisch al bijzonder laag zou zijn en de vraag is of je dan lager uit zou kunnen komen.

Kijken we naar ongelukken waarbij geen slachtoffer valt maar wel schade dan ligt de zaak weer anders.

En voorkomen is beter dan genezen natuurlijk.

Wat ik me wel afvraag: is het nodig om zo veel effort te steken in het beperken van een - nu al - heel klein aantal slachtoffers i.p.v. proberen de grotere ellende op te lossen?

In landen waar veel verkeersslachtoffers vallen rijden ze nu niet bepaald nieuwe EV's (landen zoals India) en heeft al deze effort weinig effect dus.
Wat ik me wel afvraag: is het nodig om zo veel effort te steken in het beperken van een - nu al - heel klein aantal slachtoffers i.p.v. proberen de grotere ellende op te lossen?

In landen waar veel verkeersslachtoffers vallen r
Ik vrees dat de harde realiteit is dat wij daar niet voor willen betalen als we er zelf geen direct voordeel van hebben. Uiteindelijk komt het neer op geld. Hoeveel geef je uit aan betere auto's, hoeveel aan ziekenhuizen en hoeveel aan hulp voor de nabestaanden?

Daar wordt uiteraard nogal verschillend over gedacht, vooral afhankelijk van wie er moet betalen. Autofabrikanten vinden dat auto's wel genoeg doen, dokteren vinden dat er te veel doden vallen, etc..

Ik weet dat het allemaal heel kil klinkt maar op een bepaald punt moet je wel. Iedereen zou 100 miljoen willen uitgeven om je eigen familie te beschermen met een superauto en nog een keer 100 miljoen voor dokteren als het toch fout gaat. Maar dat geld is er niet en je zal moeten nadenken hoe je beschikbare middelen verdeelt.

Als het al niet lukt om iedereen in de wereld te voeden dan gaan we de beurs ook niet trekken voor verkeersveiligheid.
je kan auto zelf laten rijden op trajecten en dat is denk ik de toekomst eerst. Dus locaties waarbij de bestuurder een bepaald punt aankomt en dan het stuur kan laten overnemen. Dit kan bijvoorbeeld zijn als je vanuit de bebouwde kom de snelweg op gaat.

De volgende fase is en dat is veel belangrijker dat alle auto's met elkaar kunnen praten en dat ze weten waar de andere is en dat is ideaal op snelwegen en wegen, daarbij wil je dus in de bebouwde kom rijden zou je dat kunnen instellen dat dit kan behalve op woongebieden met kinderen.

Hierbij is communicatie belangrijk ,waarbij de auto te beinvloeden is denk bijvoorbeeld je rijdt in een woongebied waar 30 KM toegestaan is , waarbij de auto dan automatisch doorgeeft aan tegen en achterliggers dat hij teruggaat naar 10 KM per uur tenzij de bestuurder het stuur pakt en gas geeft dan wordt dit uitgeschakeld.

Het is niet wenselijk dat en dat zie je ook met dure smart camera voor beveiliging dat die niet altijd alles goed pakken en stel je voor dat er opeens een kind te voorschijn komt precies in de hoek van de voorkant rechts dat zie je ongetwijfeld, maar de camera kan dit missen denk aan inval hoek, zonlicht ,reflectie etc,

Het is daarom ook dat er zoveel factoren meespelen. Het mooie is dat in de bebouwde kom met 50 KM per uur bij veel smalle straat met veel geparkeerde auto's je het zo kan maken dat de auto voor de zekerheid 40KM gaat rijden en bij oversteek plaatsen in zicht (communicatie/camera) ook de snelheid verminderd. Dit kun je ook weer doen op wegen van 80/100 KM waar kruispunten in invoegwegen zijn waarbij je vaak ziet dat je terug moet naar 70 KM dan kun je allemaal voortijding communiceren .

Doe je dit in tweevoud camera en communicatie dan zijn we al zover dat verkeersborden en locaties verbinding maken met de auto en icm met de camera en als we het goed plannen kunnen we verkeers slachtoffers voorkomen.

Andere trucjes is dat de auto licht signaal uitzend en kijkt of een reflector een fiets kan zijn als de auto onzeker is over het object , beweging (motion) van objecten , snelheid, traject etc. wat nu ook al gebeurt. Kan zo wel doorgaan, maar we gaan er dichtbij komen, maar er zullen tot heden nooit 100% de auto alleen kunnen laten rijden tenzij het een traject is met communciatie/camera dit bekend overheid /samenwerken van software van verschillende auto fabrikanten etc.dat op elkaar afgestemd is en dan ..... :)

[Reactie gewijzigd door Noresponse op 23 juli 2024 03:45]

Maar je ziet toch duidelijk die Tesla een pop omver rijden of is dat in scène gezet denk je?
Tegelijkertijd weet je niet of die test zo getweakt is dat autopilot het vanwege eoa edge case niet herkent.

Ik dacht dat de NHTSA dit ook meeneemt in haar tests, maar dat is dus niet zo? Als het klopt (of ook maar deels klopt) dan is het wel kwalijk en belangrijk om dringend op te lossen natuurlijk.
Nou ik werk in een studentenstad en daar schieten fietsers en voetgangers echt overal vandaan. Voordat ik Tesla reed, reed ik een Volvo die regelmatig anticipeerde hierop door de auto tot stilstand te brengen (CitySafety greep in).

De 2,5 jaar dat ik nu Tesla rond is, heeft decTesla nog nooit ingegrepen, ook niet die keer dat ik bijna een fietser op mijn motorkap had liggen, of al die keren dat een fietser rakelings voorlangs schoot.

Het stemt mij niet gerust en geeft mij weinig vertrouwen in de Tesla.

Op de snelweg heb ik wel eens ingrepen gehad, wanneer het verkeer ineens stil stond. Verder heb ik dagelijks “piep-piep-piep” als ik net iets te snel een voorligger nader. Maar dat zijn auto’s.

Die fietsers lijkt hij volledig over het hoofd te zien, geen gepiep en geen ingreep.
Maar wacht even, was het niet zo dat Tesla's Autopilot naar hun eigen zeggen bedoeld is voor highway-traffic? Niet dat daarmee alles wat Tesla maakt perfect is, maar zo herinner ik mij de scope van Autopilot en als dit (nog steeds) correct is, dan is het ook wel wat oneerlijk om deze zo zwaar te beoordelen op een scenario waarvoor deze niet ontworpen is.
Jij hebt het dan over Autopilot, voor op de snelweg.
Het artikel gaat over de versie FSD (beta) Full Self Driving, die is bij mijn weten alleen nog op een aantal Amerikaanse Tesla’s geinstalleerd.
Ik heb het erover dat Tesla zich concentreert op FSD en steken laat vallen op basis veiligheid.

NCAP concludeerde enige tijd geleden al hetzelfde als dit Tweakers artikel:

https://cdn.euroncap.com/...sla-model-3-datasheet.pdf

Tesla liet steken vallen bij een kind wat overdag achter een auto vandaan rent
Tesla (hier een model uit 2019) laat inderdaad steken vallen als het gaat om een kind dat overdag achter een auto vandaan komt. Score oranje.

Volvo is echter veel en veel erger en scoort zelfs Rood bij
Adult crossing the road, hier scoort Tesla Groen.

Volvo scoort ook oranje bij Cyclist crossing, Tesla wederom groen.

Volvo scoort ook oranje bij Cyclist along the roadside, wederom is Tesla hier groen.

Score rood is zeer ernstig.

Bron https://www.euroncap.com/en/results/volvo/xc40/33014

Maar dat meld tweak-ers niet. Hij staart zich liever blind op dat ene dat Tesla niet goed doet en blijft dat hier eindeloos herhalen omdat dat zijn eerdere post kracht bij zet.

Geen woord over de steken die Volvo laat vallen. Want dat is het merk waar hij wel van gecharmeerd is.

Schaamteloos.

[Reactie gewijzigd door procyon op 23 juli 2024 03:45]

Nee hoor, ik was gecharmeerd van de veiligheidssystemen van mijn Volvo, omdat die in de praktijk gewoon erg consequent ingrepen.

Hier laat mijn Tesla echt heel veel steken vallen. NCAP doet al geen rotondes. Maar nogmaals: probeer het eens met je Tesla. Wil je het dan aub wel filmen als bewijs?

Als ik de Tesla zou moeten vervangen nu zou voor mij de Volvo niet winnen. Denk dat het een EV6 zou worden, of een Etron, blijft een erg dikke bak.

De long range is nu al zware overkill voor mij, dus bereik of verbruik maar ik mij totaal niet druk om.
Ik herken dit beeld niet, Ik rij een 2019 model 3 en die waarschuwt mij net zo goed voor fietsers als voetgangers als autos. Enige nadeel is dat ik wel eens een hevige rem ingreep op de snelweg heb gehad als ik naar rechts ging terwijl daar een auto vlak voor mij nog net niet helemaal naar de rechterbaan was gegaan (drie baans weg). Had bijna een range rover achter in zitten. Op dat gebied is het tesla systeem te veilig afgesteld wat mij betreft. Heb ook een keer een hevige rem actie gehad van de auto terwijl er niks voor mij zat.

Verder ben ik sowieso niet lyrisch over zelf rijdende functionaliteit in een auto, maar dat staat los van het merk. Ik rij liever gewoon zelf dan dat ik het overlaat aan software (en dat zeg ik als voormalig software engineer).
Op de snelweg rent hij prima inderdaad.

Ik heb een keer een gieter over het hoofd gezien bij het verlaten van de rotonde, doe zat verstopt achter mijn a-stijl. Het scheelde een haar. De auto doet helemaal niets en piept ook niet.

De Volvo remde in dergelijke situaties voor 100%.

Ik heb wel eens het idee dat Tesla alles vanuit AP ontwikkelt en aangezien rotondes niet mogelijk zijn met AP, doet hij daar gewoon niets.

Dat is echt een slechte zaak. Begin bij de basis veiligheidssystemen en bouw AP los van die basissystemen.
Ik denk dat je stiekem toch veel aannames maakt. Je bent een situatie aan het schetsen met een gieter die je Volvo wel had gezien. Dat kun je echter niet zeker weten aangezien je niet bij de identieke situatie met beide auto’s aangereden kwam.

Mijn ervaringen zijn ook anders. Ik heb een Volvo V40 gereden en die was ook hyperactief afgesteld. Bij slagbomen kreeg je al een remactie. Tesla doet het anders maar heeft mij wel degelijk ingegrepen in situaties waar ik het begreep of verwachtte.
oke, een andere niet identieke situatie, ;) ik had mijn gieter op de oprijlaan laten staan en mijn Volvo reageerde helemaal niet toen ik er bij het parkeren overheen reed.
Dus eigenlijk geef je aan dat de tesla de juiste reactie had. Bijna is immers gelijk aan niet in dit geval.
Je volvo reageerde dus onjuist en creëerde waarschijnlijk zelfs een gevaarlijke situatie door op een onjuist moment te remmen.
Zo kun je alles wel recht lullen. Misschien is dit wel mijn grootste probleem met Tesla rijden. Al die mensen die alles maar geweldig vinden aan een Tesla, omdat ze met een roze bril kijken. Het is gewoon een super snelle, matige auto met goed infotainment systeem.

Hij had gewoon moeten remmen als het letterlijk een haar scheelt om een fietser van zijn sokken te rijden. Waar Tesla al vrij snel begint met “piep-piep-piep” als je iets te hard op een auto afrijdt, deed hij hier helemaal niets. Dus hij zag de fietser volledig over het hoofd.
Ik heb geen Tesla en heb niet de behoefte dingen "recht te lullen".
Maar een auto die remt omdat er een situatie is die niet gevaarlijk blijkt te zijn is ronduit gevaarlijk voor diegenen die achter die auto rijden.
Een auto die niet remt omdat er een bijna ongeluk is, dus effectief niets aan de hand, is niet verkeerd.
Mijn Kia heeft al een paar keer ingegrepen op momenten die discutable zijn.
Dus jouw verhaal heeft meer nuance dan je ongenuanceerde reactie hier.
Werkt de Volvo niet met een ander soort sensor en Tesla enkel met een camera?
Ik had een oudere Volvo, daar werkte Volvo City Safety enkel met camera’s
Maar .... rijdt je dan met de zelfsturende functie aan door de stad ?
Dat kan ik me bijna niet voorstellen. Dat vond mijn Tesla in ieder geval per definitie moeilijk ( heb sinds een half jaar geen Tesla meer .. helaas ) .

Zelfsturend altijd alleen op de snelweg eigenlijk.
En dan nog steeds beseffen dat het een beta functie is.

Ik vind het artikel nog niet zo opzienbarend, wat ik wel opzienbarend vind is dat er zoveel mensen volledig op vertrouwen, terwijl het altijd duidelijk vermeld is dat dit in Beta is.
Nope, AP gebruik ik alleen op snelwegen, N-wegen en rechte 50 wegen.

In de stad is het niet te gebruiken.
Zoals hieronder gereageerd is, is er een video beschikbaar van deze tests: https://app.frame.io/pres...17-4e46-914f-628db0837850

Zoals ik het kan beoordelen gaat het hier niet om edge case dingen. De eerste pop rijd de auto gewoon regelrecht in het midden aan. Daarna een stukje naar links (Misschien testen of het om een dode hoek ging in de camera's?).

Edit: Link werkte niet, deze wel

[Reactie gewijzigd door jkru2133 op 23 juli 2024 03:45]

Bedankt voor de link. In die beelden lijkt de Tesla overigens wel te remmen voor het eerste kind. Je ziet de neus omlaag duiken en de auto stopt vervolgens ook. Ook stuurt de auto naar rechts. Wel veel te laat natuurlijk. Blijkbaar herkent hij wel een "obstakel" maar reageert hij gewoon te laat. Bij de andere kinderen lijkt de auto amper te reageren.
Dat zie ik niet in de beelden, ook moment na aanrijding remt die niet
Kijk het filmpje vanaf 0:19. Dan zie je aan de voorvering dat de neus lager is. Nadat het "kind" geraakt is die je de neus iets omhoog komen. Op 0:35 zie je dat de auto vrijwel stil staat. Vanuit de auto zelf gefilmd zie je op 0:43 dat de autopilot de waarschuwing geeft dat de bestuurder zijn stuur vast moet pakken. Ik rij zelf geen Tesla maar zou dit iets te maken kunnen hebben met een noodstop? De gevarenlichten gaan ook branden.
ja dat stukje, maar vind ik een vertekend beeld geven want je weet de snelheid niet, is slomo gefilmd. en zo niet dan is het wel heel raar waarom die niet abrupt afremd direct tot stilstand.

waar het me meer omging: vanaf 2:10 tot einde. ik vind het echt te lang duren voordat die stilstaat en lijkt er goed op dat na aanrijding de auto niet automatisch afremt vol tot stilstand, maar gewoon door blijft gaan
Zoals ik het kan beoordelen
Dat kan je niet met een youtube filmpje, gewoon niet.
Zoals hierboven al genoemd wordt is heeft de "onderzoeker" een belang bij dit onderzoek en een negatief resultaat voor zijn concurrent. Hier is een naam voor :
Biased research / bevooroordeeld onderzoek.

Niet meer en niet minder, en dat maakt dit artikel / de uitkomst van het onderzoek totaal niet nieuwswaardig. En hey, tis immers komkommertijd dus ..
Misschien moet je deze comment Hans1990 in 'Belangenorganisatie: Tesla's zelfrijdende functie ziet kinderen over het hoofd' even lezen voordat je zo maar gaat roepen dat deze onderzoeker biased is. Misschien moet je sowieso niet zo maar klakkeloos dingen overnemen als je mensen van iets gaat beschuldigen.
Done that (dus de pot verwijt de ketel :) )

Allereerst je oordeel vellen op basis van een youtube filmpje kan botweg niet.
Ten tweede 1 bron is geen bron dat ben ik met je eens, maar dat gaat dus ook weer op voor de opmerking van @jkru2133

De discussie over dit onderwerp "is autonoom rijden veilig" is 1 met vele smetten (HEUL VEUL) en feiten / meningen/ belangen haast niet meer van elkaar te onderscheiden.
Dus daar meng ik me verder ook niet (meer) in, ik kan het botweg niet beoordelen.

Dus mijn punt dat ik wilde maken (ik beschuldig helemaal niemand ergens van zoals jij dat beweerd) is :
Je kunt niet op basis van 1 youtube filmpje je oordeel baseren.
Niet meer niet minder.

Gezien je nogal passief agressieve reactie had ik dat niet helemaal duidelijk gemaakt, mijn excuses daarvoor.
Nee, je trekt zaken uit context en maakt daar je eigen verhaal van.
Mijn uitleg was helder lijkt me, leg me svp geen woorden in de mond.

Ik laat het hierbij, neem aan dat je graag het laatste woord wilt hebben, het is je gegund.
In ieder geval moet Tesla's systeem het kind detecteren. Kinderen zijn soms zoals en soms niet zoals de pop in deze test. In beide gevallen willen we niet over het kind rijden. Ongeacht Musk's marketing verhaal.
Level 2 (Partial Driving Automation)
This means advanced driver assistance systems or ADAS. The vehicle can control both steering and accelerating/decelerating. Here the automation falls short of self-driving because a human sits in the driver’s seat and can take control of the car at any time. Tesla Autopilot and Cadillac (General Motors) Super Cruise systems both qualify as Level 2.
Volgens mij is de Tesla nog steeds een level 2 op de schaal van zelfrijdende auto's die opgesteld is door The Society of Automotive Engineers en dat betekend dat de bestuurder nog steeds op ieder moment de controle moet kunnen overnemen. De autopilot zou op dit moment puur een hulpmiddel moeten zijn zoals lane assist en cruise control en dus lijkt met het nog redelijk irrelevant dat het systeem het perse zou moeten, er zou namelijk een bestuurder moeten opletten die ingrijpt wanneer nodig en die faalt bij deze test net zo hard ofja, die laten ze falen.

Het stopsysteem van mijn (nieuwe) auto stopt ook niet altijd voor kleine dingen en heb er al wel een keer wat testjes meegedaan door er bijv. luchtbedden of een (skippy)bal voor te gooien. Helaas stoppen mensen veel te veel vertrouwen in deze systemen en als mens zijn wij niet gemaakt om lange tijden saai op te letten voor een moment die (bij deze auto's) steeds minder vaak voorkomen. Daarom zou het goed zijn als er bij de ontwikkeling van deze techniek (het echt zelfrijdende dan) meer regelgeving komt door het eerst alleen toe te laten op de snelwegen, daarna de autowegen en zo langzaam op te bouwen.

[Reactie gewijzigd door jdh009 op 23 juli 2024 03:45]

Mee eens. Ik denk ook dat er tussen "niet ingrijpen" en "ingrijpen" een "opletten" state moet zijn, bijvoorbeeld wanneer er meer beweging/drukte en dus potentieel onvoorspelbaar gedrag is.
Als ik "belangenorganisatie" lees in deze context, denk ik aan een soort ombudsman or veilig verkeer organisatie ofzo, niet aan een 1 mans organisatie die zelf ook autopilot software ontwikkeld. Dit maakt het waarschijnlijker dat de test niet gemaakt is om een realistische verkeerssituatie te weergeven, maar om de autopilot te misleiden. Misschien heeft tesla inderdaad niet goed getest met kinderformaat poppen, maar ik zou het niet zo snel aannemen dan als iemand anders er mee zou komen.

Het is hetzelfde als je een advertentie ziet van een supermarkt die zegt dat hij de goedkoopste is een een bonnetje van zichzelf en van een andere supermarkt naastelkaar legt. Maar dan ben je er toch meer op beducht, bijv dat ze producten uitkiezen die hun het beste uit de bus laten komen.
een link naar de video staat gewoon in het bron document https://app.frame.io/pres...17-4e46-914f-628db0837850
Je ziet een pop omver gereden worden. Als ik die pop in een MRI scanner leg krijg ik niet dezelfde mooie plaatjes als bij een mens, wat echter niet betekent dat de MRI scanner niet deugd. Ergo, het is heel belangrijk om een dergelijk onderzoek zo op te zetten dat je de conclusie van pop naar mens, en van gecontroleerde omgeving naar normale situatie kunt doortrekken.
Je verwacht dat een auto stopt/remt bij obstakels of het nu een pop, een blok beton of een echt kind is.
Iemand die een alternatief voor autopilot ontwikkeld is zelf een expert op dit gebied, en juist mogelijk een autoriteit. Als hij onzin verkoopt, komt dat op den duur slecht uit voor hem en z'n bedrijf. Je hebt gelijk dat het erbij had gemogen, je hebt ongelijk als je de suggestie wilt wekken dat hij daardoor onzuiver is in zijn onderzoek. Daarvoor zullen we toch echt het onderzoek moeten bestuderen.

Verder klinkt het hypothetisch gezien plausibel. ML dataset die getest wordt met witte mannen en vrouwen werkt alecht tot niet met zwarte mannen en vrouwen. Dat is in verleden gebleken. Deze casus past prima in het rijtje. Want kinderen zijn net als dwergen logischerwijs niet gemiddeld qua lengte maar klein. En dat zou hypothetisch gezien inderdaad uitkomst van ML wezenlijk kunnen beïnvloeden.
Als je alleen volwaardige volwassenen voed wel.. maar ik geloof niet dat niemand bij Tesla aan kinderen heeft gedacht.

[Reactie gewijzigd door Zezura op 23 juli 2024 03:45]

"Ik geloof niet" da's ook onderdeel van het probleem. Ik kon niet geloven dat ze bij FAMAG niet voldoende input van niet-blanken zouden gebruiken. Maar het is toch echt gebeurt!
Dat vind ik dan weer zo jammer aan de mensheid, heb ik te hoge verwachtingen?
Het is vast een feit. Maar voor de volledigheid moet je ook kijken hoeveel levens er gespaard zijn en dat vergelijken met... menselijke chauffeurs, de greenhill software, ...
Niet zeggende dat de autopilot perfect is, sterker nog dat is hij niet, ben benieuwd wat uit zo'n vergelijk komt
Tevens heeft FSD ook objectontwijking voor dingen die niet herkend (gelabeld) zijn.

Vreemd dat de auto dan iets zou aanrijden, ongeacht hoe het er uit ziet.

Met welke FSD versie was dit getest?
Dan O'Dowd, the world's leading expert in creating software that never fails and can't be hacked.
Alleen dit al doet je doen fronsen.

Aanvullend hierop is dit een interessante blog om te lezen:

https://wholemars.net/202...d-has-blood-on-his-hands/
OK, dus een instantie die er onderzoek naar doet wordt ofwel als incompetent "consumentenbond" ofwel als concurrent afgeschilderd en dan houd je weinig over. Uit de reacties zie ik dat Greenhills toch wat serieuzer te nemen is dan jij voorstelt. We weten het nog niet, maar ik zou dit dus als indicatie zien dat hier wellicht wat mis is: geen zekerheid dat het Tesla systeem nog ernstige fouten bevat of dat het onderzoek van Greenhills niet deugt. Dit gaat zeker door onafhankelijke instanties opgepikt worden en dan horen we het wel... tot die tijd liever niet al te enthousiast oordelen.
Ik kan nergens terugvinden dat Greenhills Software betrokken is bij de ontwikkeling van een auto-pilot alternatief.
Bij het bericht zijn wel een aantal kanttekeningen te plaatsen. Bij het onderzoek is een "child-size manequin" gebruikt, maar als je de grootte vanuit de foto's extrapoleert, is het een pop van ca 60 à 70 cm hoog. Dat komt overeen met een kind van net 1 jaar oud. De meeste kinderen kunnen dan nog niet lopen en zullen zeker niet lopend zelfstandig op een weg belanden. De pop is bovendien op een witte streep geplaatst. Die streep is een extra verstorende factor.
Neemt niet weg dat een auto voor een obstakel van die grootte hoort te stoppen. Ongeacht of het een kind of een paaltje (pilon) is. Voor een witte lijn dwars over de weg zou de autopilot minimaal vaart moeten minderen, liefst zelfs stoppen. Witte lijnen over de weg zijn immers voornamelijk stopstrepen.

Het aantal van minstens 30 ongelukken (in Amerika) in 8 jaar noem ik niet verontrustend. Gezien het grote aantal Tesla's dat in Amerika rondrijdt vind ik dat juist zeer weinig. Bij een aantal ongelukken is het bovendien niet zeker of de autopilot wel daadwerkelijk was geactiveerd.

Met andere woorden, het bericht is geschreven met een ietwat overdreven gevoel voor drama, maar los daarvan toont het wel een tekortkoming van Tesla's auto-pilot aan.
Het filmpje met het experiment staat gewoon op internet. Het zou inderdaad beter zijn geweest als dat in het artikel genoemd wordt, maar dat neemt niet weg dat Tesla hier op moet reageren. Het is niet aan anderen om aan te tonen dat de auto van Tesla onveilig is, maar aan Tesla om aan te tonen dat het veilig is.

Het zou een ander verhaal zijn als Greenhills steeds met hetzelfde verhaal komt, dat al weerlegd is. Maar, zover ik zie, is dat niet het geval.
Ik moet nog zien wanneer een auto geheel autonoom kan rijden. Er zullen wel veel ongelukken aan vooraf gaan, vrees ik.
En na een week bleek het dus allemaal fake te zijn:
https://www.teslarati.com/teslas-fsd-beta-stops-for-kids/

Maar daar wordt weer geen artikel over geschreven.....
Blijkbaar stond FSD niet eens op...

https://electrek.co/2022/...-fails-fsd-never-engaged/

[Reactie gewijzigd door idls op 23 juli 2024 03:45]

En alle media hebben inmiddels het verhaal klakkeloos overgenomen en als er al rectificaties volgen is dat in een klein onzichtbaar hoekje of als update van het bericht dat al lang op pagina 100 staat tegen die tijd. Zo wint de lastercampagne elke keer weer.
En deste meer reden dat journalisten hun onderzoek moeten doen voor ze iets direct copy paste!
Wat heb ik aan een papieren onderzoek?
Laat het op video zien met andere onafhankelijk instanties.
En voor wat meer inhoudt. Deze man gaat voor senaat California. Heeft zelf een software bedrijf en concurreert dus met tesla software. Bedrijven doen alles incl leugens verspreiden om hun concurent neer te halen.
Deze belangenorganisatie bestaat uit 1 man. En als autopilot al pilonnen herkent waarom kinderen dan niet?
Deze man misbruikt tesla om zelf zijn eigen producten aan het voetlicht te brengen want iedereen googled ernaar.
Er staat een video in het onderzoek: https://app.frame.io/pres...17-4e46-914f-628db0837850

[Reactie gewijzigd door jkru2133 op 23 juli 2024 03:45]

En hier nog een video waarin (niet wetenschappelijk) een Model 3 wordt vergeleken met het beste op het gebied van veiligheid, een Volvo.

Spoiler; het resultaat ligt niet in de lijn der verwachting.

https://youtu.be/aE3Ovu6iMpE
En die video is gewoon cherry picking... wie weet hoeveel tests men heeft gedaan, waarbij de Tesla wel gereageerd heeft. Ik kan me voorstellen dat je bepaalde zaken niet laat zien als het niet het beoogde doel heeft.

Update:
Blijkt dat men in de advertentie helemaal geen FSD aan had staan...
zie de verklaring https://electrek.co/2022/...-fails-fsd-never-engaged/

Tevens een gebruiker met FSD die het gesimuleerd heeft...
https://teslanorth.com/20...mow-down-children-videos/
Ongetwijfeld zal het best wel een keer mis gegaan zijn... het is maar wat je wil bewijzen.

[Reactie gewijzigd door JohnD1 op 23 juli 2024 03:45]

Dat de man hier voordeel van heeft is duidelijk.
Waarom dan automatisch moet worden aangenomen dat het om leugens of in dit geval om gemanipuleerde tests zou gaan volg ik niet.
Een bedrijf als Tesla heeft gewoon een bak met advocaten die hier bovenop springen.

Overigens hebben verschillende ongevallen en testen van andere partijen allang aangetoond dat het autopilot systeem van geen enkel automerk alles 100% ziet.
Is het misbruik om te stellen dat de concurrent iets minder goed doet?
Dat gebeurt nog al eens. Logisch ook, men probeert de klant te overtuigen voor henzelf te kiezen, dan ga je niet stellen dat de concurrent het beter of net zo goed doet...

Is het te dramatisch om te stellen dat heel de US gevaar loopt....jazeker.
Zoals ik al typte. Leugens verspreiden gebeurt regelmatig. Als de beste man zo zeker is van zijn zaak toon het op video met onafhankelijk instituten erbij.
Allemaal mogelijk, maar op dit moment weten we nog niet wat er nou echt aan de hand is. Greenhill op zijn woord geloven zou ik niet, maar dat onderzoek meteen in de geestelijke prullenbak gooien vind ik ook wat snel. Zie het als een mogelijkheid dat het tesla systeem nog niet perfect is - overigens nauwelijks een verrassing te noemen, eer zijn me eigenlijk geen systemen bekend die in zoveel afwijkende situaties de goede beslissing treffen, de meeste "intelligente" systemen zijn volgens mij ongeveer zo slim als een regenworm...
Doen mensen hier in Nederland ook. Dus niets nieuws onder de zon.
En wat zijn de statistische verschillen tussen daadwerkelijke aanrijdingen met personen en dan het verschil tussen volwassenen en kinderen?

Het kan namelijk zijn dat de pop wordt aangezien als een pop en niet als een mens. Je hebt immers te maken met een machine learning framework. Die zou het verschil kunnen waarnemen.

[Reactie gewijzigd door EvilItSelf op 23 juli 2024 03:45]

Wel raar dat ze de auto dan zo geprogrammeerd hebben da als ie een pop detecteert, welke ook van bv beton zou kunnen zijn, de auto er gewoon lekker doorheen probeert te rijden..
Dat dus, pop of betonnen pop/paal. Slimme auto hoor.
@stefanass is inmiddels best duidelijk (zie hoeveel links er hier onder staan van mensen bv) dat het een laster campagne is en dat ze dit zelf hebben veroorzaakt.

Die hele auto kan nog niet eens volledig autonoom rijden. Alleen adaptive cruise control met wat snufjes er aan dat niet veel meer inhoud dan wat je hier in de showroom van een VW kan kopen.

Zelf 100% handen aan het stuur houden is dan ook verplicht nog altijd.
Ja, en dat is dus het ding met een machine learning framework. Daar komt bijna geen programmeur aan te pas. Die software traint namelijk zichzelf.
dodelijke bedreiging voor alle Amerikanen
Vind het nogal een stellige opmerking die het veel breder trekt dat wat er volgens het artikel getest is.

Heb zelf niet zo veel met Tesla, maar zodra het veiliger is en minder ongelukken geeft kun je stellen dat iedereen die niet in een Tesla rijd bewust extra risico's bij andere oplegt en dus een bedreiging voor alle Amerikanen zijn.

Eigenlijk een beetje zoals die Dodge RAM's hier, je zit zelf veiliger maar ten koste van anderen, waarom mogen mensen die keuze voor een ander maken?

[Reactie gewijzigd door watercoolertje op 23 juli 2024 03:45]

De National Highway Traffic Safety Administration in de Verenigde Staten doet momenteel onderzoek naar de vier huidige modellijnen van Tesla. Sinds 2016 vonden er minstens dertig ongelukken plaats met een Tesla. De Amerikaanse autoriteit voor verkeersveiligheid vermoed dat de autopilot in deze gevallen was ingeschakeld.
Toch prikkelt/irriteren dit soort zaken mij… ze doen onderzoek omdat er welgeteld 30 ongelukken zijn geweest waar autopilot in het spel was in 6 jaar tijd! naast dat je nog steeds zelf verantwoordelijk bent en moet kunnen ingrijpen vind ik het vooral bijzonder omdat ongelukken zonder autopilot minstens met 4 nullen erbij moet worden uitgedrukt per jaar! We verwachten dus dat het systeem, begeleid door mensen, een 100% perfecte score behaalt…

Ook in deze testen, waar de auto zeker de kids had moeten detecteren begrijp me niet verkeerd, hadden we dus moeten concluderen dat de bestuurder altijd had moeten ingrijpen om deze ‘kinderen’ te ontwijken. Ze testen dus alleen het machinale deel niet het menselijke..
Ik vind het maar niks dat watch dogs gedoe.
Hulpmiddelen oke maar niet zelf rijdend.
Dat mag je zeker vinden, ik kan niet wachten tot het hele wegennet volledig automatisch is. Gewoon instappen en de werkdag al beginnen, of gewoon samen met de kids een film kijken… tuurlijk kan dat deels met de trein maar volledig in een keer van begin-eind vind ik altijd een stuk fijner…

En tja, sinds 2016 welgeteld 30 ongelukken met autopilot… ik raad je, misschien juist niet, aan om de cijfers in de US even te bekijken voor alleen dit jaar. Dan ga je toch sterk afvragen wie nou de slechte ‘ai’ is ;)
Ik wil mijzelf absoluut geen expert noemen, maar volgens mij heeft dit voor een groot deel te maken met de beperkte sensors, die Tesla gebruikt. Waarschijnlijk is het te duur, voor Musk, maar met Lidar kun je domweg meer detecteren, icm radar en camera's.
Lidar + vision is al zoveel keer aangehaald en gedebatteerd. Lidar is eruit omdat het conflicten geeft met vision, wordt alleen maar gevaarlijker. Je hebt ook maar 2 ogen, hoe rijdt een mens met de auto? ;). Laat staan als er dan meerdere "ogen" tegelijk kijken en voorspellend werken.

Het is software in beta, het heeft zijn tijd nodig.
Het is software in beta die 5 jaar terug al van kust naar kust had moeten rijden volgens Musk maar die vandaag de dag nog altijd heel wat bassale zaken over het hoofd ziet. Het idee was om met enkel vision en een hoop machine learning een systeem uit te werken dat goed zou moeten werken. Maar mensen zijn geen machines en ons brein werkt een heel stuk complexer dan wat de computers vandaag aankunnen.

Zelf rijdend werkt prachtig, Maar alleen op wegen waar je enkel gemotoriseerd verkeer terug vind doordat dat redelijk voorspelbaar is. Van zodra je daarvan afwijkt dan falen zelfrijdende systemen imens.

Ik ga zeker niet zeggen dat LIDAR het probleem oplost, maar simpelweg stellen dat machine learning het wel zal oplossen met enkel vision is ook wel heel kort door de bocht. Zeker op zo een korte termijn.

Het grote probleem dat ik vooral heb met Tesla de dag van vandaag is dat het bedrijf zich op zoveel gebieden zo focust op een bepaald probleem of een zeer specifieke oplossing dat ze langs links en rechts worden ingehaald door de concurentie.
Je kunt het menselijk oog onmogelijk met camera’s vergelijken. Zelfs de duurste camerasensor die er is komt niet eens in de buurt van het dynamisch bereik van het menselijk oog.

Ooit wel eens snachts het beeld van een camera vergeleken met wat jij werkelijk ziet? Daar ligt het probleem met visioen.
Dit is gewoon onjuist. Een camera sensor, zelfs goedkope zijn verreweg superieur aan het menselijk oog, zowel qua resolutie als lichtgevoeligheid en dynamische range.

Deze kwaliteiten haal je eruit als je geen post processing toepast maar gewoon letterlijk fotonen telt.
Zelfs snachts zien de camera's van huidige tesla's extreem veel met veel minder latency dan ons eigen oog.

Als je hier meer over wil weten, zie ;
https://youtu.be/DxREm3s1scA?t=4874
Het is exact de reden van planten breaks bij viaducten. De dynamo range van de camera sensor kan niet tegelijk het felle licht goed zien en de donkere schaduw.
Nogmaals; dat is gewoon niet waar.
Zodra je post processing achterwege laat is een camera veel beter in dynamic range dan het menselijk oog. Hoe doen ze dat dan? Door letterlijk fotonen te tellen. Kijk de video die ik postte.

De video die jij net met ons deelde is met post processing, zoals elke camera die is ontworpen om foto's of video's te maken.
Het is software in beta, het heeft zijn tijd nodig.
Kan ik als non-Tesla weggebruiker ook opt-outen uit deze beta?
Neen, de Tesla's zullen uw kinderen van de baan maaien. Geen opt-out tenzij er EU regulering komt tegen deze systemen (die duidelijk de veiligheid op de weg niet trachten te verbeteren. Maar wel het waaw gevoel van de eigenaars - wat er niet toe doet).
In heel de EU is het niet eens actief. Dus die 'beta" van FSD waar iedereen het over heeft, is hier niet eens actief. Dit heeft dus niets met het artikel te maken. Waar het artikel over gaat is actieve veiligheid systemen.

Als je je zorgen maakt over "omver geploegde kinderen", zie hier hoe een Volvo zich verhoudt tegenover een Tesla. Kijk even naar dit vergelijk en trek je conclusies:

https://youtu.be/aE3Ovu6iMpE
Radar is er uit "omdat het conflicten geeft met vision" (maar waarschijnlijk vooral omdat er componenten te kort waren).

Lidar heeft er nooit in gezeten omdat het te duur is.
Dat het te duur was zal mij als ouder van een overreden kind worst wezen.

M.a.w. als het te duur is om het mogelijk te maken dat autobestuurders minder aandacht voor de weg hebben, doe het dan niet.
Zolang je er al bestuurder verantwoordelijk blijft en er passief maar even bij moet zitten. Is niet voor mij ik zou dan in slaap vallen. Totdat je er op kan vertrouwen en niet met rijden bezig hoeft te zijn dat je autonomious car je kinder naar school kan brengen.

Optical herkennen van objecten en afstand positie is lastig en in RL komen uitzonderlijke situaties voor. Hoe kan optical sensor met optical illusie omgaan.
Mijn ICE heeft een lidar dji zit er ook vol mee.
Als het "software in beta" is mag het van mij inderdaad van de weg gehaald worden.
Beta, alfa, whatevera doeternietoea. De resultaten van de testen doeneralleenmaartoea.

edit: daarmee bedoel ik dat hoe de fabrikant zijn product noemt niet relevant hoort te zijn. Wat wel relevant is zijn testresultaten van een hiervoor bevoegde organisatie of keuringsinstantie (die dit soort testen op een gestandarizeerde manier uitvoert, ongeacht het merk en ongeacht wat de fans van het merk er van vinden).

M.a.w. dat Google en Tesla haar producten eeuwing beta noemt doet er volledig niet toe: de producten zijn op de markt en rijden op de baan. Dat is alles wat er toe doet. De versionering of release-naamgeving niet.

Ik vind dat het ook niet de consument zijn of haar verantwoordelijkheid is om alle fabrikanten en verkopers hun onnozele release-naamgeving te begrijpen. Want het wordt soms wel echt een belachelijk knoeiboeltje: dit is beta, dat is alfa, dat is whatevera, en morgen is het noeggabollen. Het zal de bestuuder van auto's toch wat zeker? De bevoegde organisatie voor dit soort testen geeft deze resultaten. Dat is alles wat telt. Zijn de resultaten niet goed, dan mag je er niet mee op de baan. Ook niet als Tesla het beta of zo noemt. Of alfa. Of whatever.

Moeten bestuurders van auto's die achter zo'n beta Tesla aan het rijden zijn misschien ook van alle merken en alle release-naamgevingen gaan onthouden en weten hoe de wagen voor hen misschien wel eens zou kunnen reageren? Afhankelijk van de update-status van de software van de wagen voor hen? Ja dat gaat werken. </sarcasm>

Morgen: electronische apparatuur die soms ontploft wanneer je ze in het stopcontact steekt. Ze hebben CE keuring. Maar de fabrikant noemt het beta. Dus als het ontploft dan was het je eigen schuld. Iedereen begrijpt dat toch?! </sarcasm>

[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:45]

Je hebt ook maar 2 ogen, hoe rijdt een mens met de auto? ;).
Dan zit je te lang achter het stuur ...

Je gebruikt je oren voor de omgeving, tast voor feedback van de auto, evenwichtsorgaan tijdens het rijden en intelligentie voor anticipatie.

Wat een mens redelijk gemakkelijk integreert vertaalt zich niet zo makkelijk in machine learning.
Onzin. Sensor fusion is de hele kunst waarom je ook AI algoritmen wilt inzetten. Als je een AI duizend inputs geeft, moet die maar uitvogelen welke sensoren op welk moment je het meest naar luistert. Dat is ook wat ons brein doet. Maar als je dit handmatig moet uitcoden, ben je waarschijnlijk na een handjevol sensor inputs het overzicht al kwijt.

Zo zal je als mens ook met meerdere zintuigen rijden zoals @Xander2 al aangeeft. En zodra je in een situatie komt waar je snel moet reageren (bijvoorbeeld een noodstop), dan zal je niet reageren op elk piepje en hobbeltje die je auto op dat moment geeft, maar op de grote lijnen (op tijd stoppen of ontwijken).

Als Lidar simpelweg meer informatie binnenhaalt dan enkel vision, dan is dat al pure winst. Ik wil niet zeggen dat het noodzakelijk is om dit probeem op te lossen, aangezien we al jaren emergency stop systemen hebben op zelfs A-segment auto's die werken met radar. Dat dit bij Tesla blijkbaar nog niet voor elkaar is, is wat mij betreft schrijnend voor iets wat self-driving probeert te zijn.
Ik heb ook maar 2 ogen maar dat betekent niet een auto niet meer kan hebben... Je praat 1 op 1 het verhaal van Musk na zonder erover na te denken. Meer informatiebronnen is beter, dat een software daar niet mee om kan gaan is een zwakte van die software. En camera's hebben gewoon zwakke punten, deels zijn ze ook slechter dan je ogen.
Mensen drinken ook geen benzine, of in het geval van een Tesla, steken ook hun vingers niet in een stopcontact…

Dat een auto meer kan en op andere manieren dan een mens is het hele punt van technologie.
Mensen drinken water, en gebruiken de zon en interne systemen voor energie en warmte?!?

Verder eens hoor, maar vergeet even niet dat de mens lichamelijk gezien ook heel veel weg heeft van een machine :)
Nu draai je de boel om. Je bedoelt dat een machine veel weg heeft van een mens. Wel je oorzaak en gevolg juist hebben aub. Je zegt ook niet dat een ouder op zijn kinderen lijkt.
Volgens mij liep de machine van het leven al lang voordat we de natuur probeerden te verbeteren en zelf machines bouwden van silicium of staal (in plaats van uit vlees en bloed). In mijn optiek is de machine dan het gevolg van de mens, niet andersom :)
Onzin. Een mens gebruikt ook allerlei verschillende informatiestromen tegelijk, zoals geluid. Bijvoorbeeld een ambulance die van links komt op een kruispunt, daar kijk je al naar voordat je 'm kunt zien.

Mijn mening? Ze herkennen waarschijnlijk overstekende kinderen wel, maar stilstaande kinderen niet, puur omdat de software daar niet op getrained is. Desalniettemin amateur hour bij Tesla IMO.
Je kijkt met je hersenen...
Ik zie werkelijk niet in hoe Lidar kinderen beter zou moeten detecteren dan camera's. Het gaat volgens mij om de software die de signalen verwerkt.
Er zijn 3 veel voorkomende manieren om op hoge resolutie diepte te bepalen op het moment. Met LIDAR, met stereoscopie en uit bewegende monoscope beelden (Tesla heeft wel meer cameras, maar niet in een opstelling waarmee ze nuttig zijn voor stereoscopie). Die laatste oplossing vraagt verreweg de meeste complexe algoritmes en is het meest fragiel, heeft al flink wat "AI"/Machine "learning" nodig. Terwijl LIDAR gewoon direct de diepte geeft en je voor stereoscopie alleen maar wat outliers hoeft te filteren.

Tesla bleef maar tegen stilstaande objecten rijden op autopilot omdat ze tot voor kort de voorkeur gaven aan radar ipv. camera beelden, precies omdat het zo moeilijk is om met hoge zekerheid diepte te halen uit camera beelden. RADAR zoals dat nu word gebruikt in autos kan alleen ook niks met stilstaande objecten, dus boem.
Dat klopt allemaal, maar het gaat hier om een probleem dat kleine mensen kennelijk niet worden gedetecteerd en grote mensen wel. Het heeft niets met diepte-perceptie te maken.
Als dat al met de sensoren te maken heeft, dan zou het een resolutieprobleem moeten zijn. En dat is het volgens mij niet. Het is een probleem met de verwerking van de data. Ik geloof dus dat het "kind"-probleem oplosbaar is, niet door andere sensoren, maar door verbeteringen aan het algoritme.
Het kan met detectie grenzen te maken, hoe meer onzekerheid in het systeem hoe sneller het in randgevallen zal kiezen om niet in te grijpen. Klanten houden niet van valse positieven, ook niet valse negatieven maar dat zien ze vaak alleen maar in het nieuws, ver van hun bed.
Dat laatste snap ik niet:
RADAR zoals dat nu word gebruikt in autos kan alleen ook niks met stilstaande objecten, dus boem.
RADAR werkt feitelijk net zoals LIDAR, straal die terugkaatst en systeem meet hoe lang dat duurde en bepaalt aaan de hand daarvan de afstand. Dus waarom werkt het dan niet (en LIDAR wel)?

[Reactie gewijzigd door Tintel op 23 juli 2024 03:45]

Resolutie, zelfs met gesegmenteerde radar detectors heeft elk segment een hele grote zicht hoek. Daar zit dus van alles stilstaand in, de weg en alles ernaast. Aan de hand van Doppler haalt het bewegende reflecties eruit, maar alles wat stil staat word gewoon genegeerd.

Het is geen beeld vormende detectie, LIDAR wel. In theorie zou met 60 GHz RADAR wel op hoge resolutie gewerkt kunnen worden, maar dat is toekomst muziek.
Aha. Thanx voor de toelichting.
Lidar geeft heel betrouwbare meetwaarden. Dus als er iets op 2m afstand staat zal je niet snel 50m terug krijgen.

Jij loopt zeker ook op de tast? Want ja, uiteindelijk is dat een manier om je weg te vinden.
maar wat doet lidar als een plastic zak voor de auto vliegt op de snelweg?
Dan kan dat tenminste als een echt bestaand object met bijna 100% zekerheid worden meegenomen in de berekeningen, waarvan alleen het belang van ontwijking onbekend is. Terwijl puur met camera beelden veel meer rekening moet worden gehouden met een illusionair object door lichtspeling etc.
Ja het is jammer dat Elon zo kort door de bocht gaat met "onze ogen schieten ook geen lasers dus het is niet nodig". Echter zo kan je heel veel technieken die we dagelijks gebruiken wegstrepen omdat het menselijk lichaam deze niet heeft... 8)7
Musk vergeet ook dat het doel niet is om iets menselijks te maken. Als andere sensordata betere resultaten oplevert voor een computer, dan is het waarschijnlijk beter om je daarop te richten. Conventionele visuele data kan nog steeds aanvullend gebruikt worden.
Maar de computer moet in dit geval dingen herkennen die ontworpen zijn voor een mens.
Lidar kan heel goed exact de afstand tot iets inschatten, maar heeft nul idee wat het is. Je weet dan bijvoorbeeld dat er op 15,231451m afstand iets is. Maar je weet niet of het een betonnen muur is of een mistbank.
De camera ziet wat wij zien. En een goede AI kan je dan vertellen dat er een mistbank is en dat die ergens tussen de 14 en 16m van je af is.
Combineer je deze informatie. Dan weet je dat er op 15,231451m afstand een mistbank is. Maar heeft dat nog toegevoegde waarde voor je zelfrijdende auto? En als je antwoord "ja" is, is het genoeg waarde om de auto 3x zo duur te maken?

In de echte wereld wordt Lidar voor heel iets anders gebruikt. Eerst scan je de omgeving met de auto, alsof je voor Google Streetview werkt. Met de camera's + lidar maakt je zo een super gedetailleerde kaart van de omgeving. Op kantoor plakken honderden mensen labeltjes op alle statische objecten die je camera heeft gezien. Nu kan de AI deze informatie gebruiken om in die straat te rijden. Zolang er maar niks aan de straat verandert. Alle rekenkracht kan nu naar dynamische objecten zoals auto's en personen.

Maar echt praktisch kan dit nooit worden. Want je moet constant de kaarten bijwerken. De auto's die met dit principe rondrijden zijn dan ook begrenst tot 1 wijk of 1 stadje. Of alleen op de grote snelwegen.. Simpelweg omdat het onbetaalbaar is om zoiets ooit op te schalen. Al helemaal als iedere auto fabrikant zijn eigen systeem gaat bijhouden. Dus al die investeringen worden gedaan in een systeem dat het eigenlijk nooit helemaal kan worden.
Je baseert dit allemaal op de aanname dat een camera kan zien wat wij zien. Iedereen die wel eens met fotografie bezig is weet dat dit geenszins het geval is.

Zelfs de duurste camera sensoren (die Tesla echt niet gebruikt) komen niet eens in de buurt van het menselijk oog!
Ik denk dat jij overschat wat het menselijk oog ziet. Jij denkt aan wat je ziet nadat je hersenen het beeld hebben bewerkt.

De ruwe data van je ogen is erg slecht. 1 kleur per pixel; maar een paar verschillende kleuren; groot zwart gat in het midden. De truc is een hele snelle processor en goede code.
Vergelijking blijft het zelfde want je zegt gaat ook gewoon op voor die camera want die heeft toch ook gewoon een 'brein' cq processor om de input te verwerken? Tweak_ers legt het niet zo uit maar zijn punt blijft overeind, onze visie is geavanceerder dan een camera.
Dat is dan ook precies de achilleshiel van autonoom rijden: Kunstmatige intelligentie is ver genoeg dat voorwerpen herkend kunnen worden, maar niet intelligent genoeg om voorwerpen die niet herkend worden te interpreteren. Je bent dus afhankelijk van het feit dat je elke situatie die gevaarlijk is in de testset zult moeten opnemen, doch dat is een onmogelijke klus.
Niet helemaal. Een kunstmatige intelligentie classificeert een object als hetgeen in zijn testset dat er het meeste op lijkt. Met een percentage dat weergeeft hoe zeker het is dat deze 2 dingen hetzelfde zijn.

Het idee van 100.000 "beta" rijders in een "zelfrijdende auto" is dat iedere keer als de bestuurder ingrijpt, dat een sein is dat de AI een situatie niet goed heeft ingeschat. En bestuurders die zelf rijden geven voorbeelden van hoe een mens in zo'n situatie zou reageren. Het resultaat is dat je een nieuwe situatie kan toevoegen aan je testset.

Zo'n complete testset (of beter gezegd, 99,999999999% compleet) is niet onmogelijk. Je hebt alleen een miljoen mensen nodig om die data te verzamelen. En dat werkt niet als je die mensen moet betalen.
Als je van tevoren kunt inventariseren welke 1.000.000 testcasussen gemaakt moeten worden dan zou het kloppen wat je zegt, maar de crux is nu juist dat dat niet van tevoren kunt inventariseren: Je weet van tevoren niet wat je allemaal over het hoofd gaat zien.

Een mens heeft evenwel geen 1.000.000 situaties nodig om veilig te leren rijden, de mens heeft de intelligentie om iets dat hij nog niet eerder gezien heeft te analyseren.

[Reactie gewijzigd door dmantione op 23 juli 2024 03:45]

Je kan het simpelweg meten. Hoeveel kilometers per ingreep. En hoeveel kilometer per aanrijding.

Dat kun je vergelijken met menselijke bestuurders. Als zelfrijdende auto's 10x minder ongelukken veroorzaken dan mensen vindt niemand het een probleem als zo'n auto geen stuur meer heeft. Als zelfrijdende auto's 100x minder ongelukken veroorzaken dan krijgt je demonstraties die eisen dat er een verbod komt op menselijke bestuurders.
... en als artikelen als dit verschijnen krijg je demonstraties dat er een verbod komt op zelfrijdende Tesla's. Heeft dit iets te maken met hoeveel training het apparaat/wezen nodig heeft om veilig te leren rijden? Wat wil je nu zeggen?
Eh, volgens mij zijn onze ogen niet zo slecht. Deze hebben een hele snelle scherpstelling (dus aanpasbare lenzen). Absolute resolutie is moeilijk te meten omdat meer factoren meespelen, het is oa. een sensor met aparte kleur en intensiteit opname. Daarnaast hebben onze een ogen een 'sweep' wat tot nog betere diepte bepaling leidt dan alleen stereoscopie.

Ik las dat we op 1 km typisch objecten van 30 tot 60 cm kunnen waarnemen.

"An adult eye is typically equipped with 120 million rods which detect the intensity of light and 6 million cones which detect the frequency of light."

(bron)

Het nadeel is soms dat onze hersenen er zich ook op de verkeerde manier mee kunnen bemoeien en we worden natuurlijk moe.
Verkeerde manier: 2 objecten naderen. 1 object is veel kleiner en bevindt zich een stuk voor het grote object. Maar het risico voor onszelf is veel groter als het grote object ons zou raken/pakken. Dus negeren we soms het kleine object....
Dat is dus een fietser in de buurt van een vrachtwagen...

Daarnaast kunnen we ook de sensoren bewegen (ons hoofd dus). Allemaal verschillen met een stationaire sensor ergens in de bumper.
Lijkt me eerlijk gezegd een prima
model om eerst een auto op de markt te zetten die alleen op de snelwegen vol-automatisch kan.

Dat is het saaiste stuk van autorijden, dus prima om dat weg te automatiseren.

Voor vliegverkeer werkt dit model prima. Opstijgen/landen gebeurt (hoofdzakelijk) handmatig, het vliegen op kruishoogte&snelheid wordt hoofdzakelijk aan de computer overgelaten.

Voor autorijden zou dit betekenen dat je de snelweg opdraait en dan de boel aan de computer overdraagt. Je schuift je stoel achteruit, klapt een tafeltje uit en gaat lekker wat werken. Kom je in de buurt van je afslag, krijg je een piepje en moet je de besturing weer overnemen.

Mocht je de boel niet overnemen, dan wordt de auto op een uitwijkplek aan het einde van de afslag geparkeerd, met een melding naar hulpdiensten.

[Reactie gewijzigd door Keypunchie op 23 juli 2024 03:45]

Je bedoelt een soort Auto Pilot. Maar dan voor auto's?
Ja, maar ik zou het wel gecertificeerd willen zien door een overheid.

Zowel de weg, als de hardware/software.

Het is bizar hoeveel de overheid nu aan de markt overlaat, met nota bene onze levens op het spel.

De toezichthouder met de meeste ‘bite’ is degene die over advertenties gaat!!

@RocketKoen Het is dan ook een enorm schandaal, dat juist het belang aangeeft van sterke en onafhankelijke overheid. Een vergelijkbaar verhaal zijn de schandalen in de vleesindustrie, maar dat is geen reden om dan maar niks te doen!

[Reactie gewijzigd door Keypunchie op 23 juli 2024 03:45]

Ik heb slecht nieuws voor je over de certificering en controle die de overheid uitoefent op de automatische piloot van vliegtuigen.
De eisen zijn dat de hardware doet wat de gebruiksaanwijzing zegt dat het doet. En dat de piloot het systeem kan uitschakelen als het iets doet dat hem niet bevalt.
Bekend voorbeeld is de 737 max waar de automatische piloot het toestel de grond in boorde als er een sensor stuk ging.
Die 737 max is toen een jaar niet van de grond geweest tot het opnieuw gecertificeerd was. Certificering is geen garantie, wel een stok achter de deur.
Niet echt. In de veiligheidsprocedures mag staan dat de piloot de automatische piloot uitschakelt in geval van een gebeurtenis, maar dan moet het wel realistisch zijn dat de piloot kan ingrijpen. De toezichthouders controleren die veiligheidsprocedures. Bij Boeing was Boeing evenwel zijn eigen toezichthouder geworden. Bij de hercertificering moest alsnog ieder scenario in een simulator nagespeeld worden en werden naast het beruchte MCAS-systeem nog meer gevallen gevonden waarin het niet realistisch bleek om de piloot te vragen in te grijpen. Dat heeft geleid tot aanpassingen aan de automatische piloot.
Daar ging wel meer mis. Het systeem schakelde zichzelf niet uit bij een defect. Piloten werden niet getrained op dit nieuwe systeem. Als je de vorige 737 mocht vliegen kon je zo instappen. En de cockpit waarschuwing dat de sensor stuk was, was optioneel.
Dat systeem had meer weg van HAL, of de computer van Jurassic Park.
TomTom probeert er nog een slaatje uit te slaan met zijn HD Maps, maar volgens mij komt dit ook niet echt van de grond. Waarschijnlijk omdat het een enorm complex verhaal is.
Ik ben geen expert op het vlak van LIDAR, maar weet wel dat de LIDAR systemen wie we op onze AGVs laten zetten (omdat die zonder ook overal tegen aan blijven botsen, ondanks dat ze door de leveranciers als “veilig” worden beschouwd), ook gevoelig zijn voor andere signalen (draadloze profibus als ik me goed herinner) en dat je daar ook rare resultaten van krijgt. Ik durf dus niet zomaar zeggen dat het “nooit gebeurd” zou zijn… (misschien dit niet, maar eventueel iets anders).

Zoals ik zei, geen expert in de achterliggende technologie zelf, wel een pak ervaring ondertussen met autonome voertuigjes in onze fabrieken en daarvan kan ik zeggen: we zijn er nog bijlange na niet…
LiDAR heeft vast andere problemen maar een grote truck herkennen gaat onafhankelijk van de licht en weer condities erg goed. Overigens niet mijn eigen mening maar komt uit een podcast met een expert op het gebied van autonoom rijden. Die de keuze van Musk om geen LiDAR te gebruiken bekritiseerde.

De -1 moderatie is mij een raadsel. Het Artikel gaat over mogelijke gevaren van Tesla autopilot. En de autopilot heeft dus al slachtoffers gemaakt.
Hoe hoog is dit 'kind' uit de foto? Lijkt op een kind dat nog niet groot genoeg zou zijn om zelf over te steken..
Kind gevallen op straat, kind gebukt/gehurkt om iets op te pakken, kind op een 3wieler, genoeg om die hoogte niet te halen.

The child-sized mannequin was 30.5” inches in height and was purchased from Store Supply Warehouse

Dat is zo'n ~80cm, uitgaande dat een kind van 1,5 kan lopen, gemiddelde groeilengte, zitten we op ~78-85cm gemiddeld. Lijkt me niet zo onrealistisch.

[Reactie gewijzigd door SinergyX op 23 juli 2024 03:45]

Gelukkig komt het never nooit voor dat er een kind onverwachts de straat over steekt. Achter een bal aan ofzo in een woonwijk. 30 of 15KM/h kan al aardig wat letsel opleveren.

Op dit item kan niet meer gereageerd worden.