Door Hayte Hugo

Redacteur

Volledig autonoom op de Duitse snelweg

Mercedes geeft Drive Pilot grote update

15-10-2024 • 06:00

232

Drive Pilot

De auto die je ophaalt vanaf thuis en afzet bij je bestemming, zonder menselijke chauffeur. Het is een mooie droom, maar wel een die volgens verschillende bedrijven kan worden verwezenlijkt. Tesla is hier een bekend voorbeeld van, maar ook BMW en Mercedes-Benz werken hieraan. Deze autofabrikanten bieden in Duitsland al zelfrijdende systemen aan, zij het in een lichtere vorm. Mercedes brengt begin volgend jaar een significante update uit van zijn systeem, wat die autonome toekomst een stapje dichterbij brengt.

Voor de duidelijkheid: Mercedes' systeem haalt je niet op en zet je ook niet bij je eindhalte af. Wat het wel kan, is de 'saaie snelwegkilometers' van je overnemen. Drive Pilot, zoals Mercedes het systeem noemt, kan het rijden op de snelweg volledig overnemen. Die 'volledig' is daarbij belangrijk. Vrijwel elke auto biedt tegenwoordig een combinatie van laneassist en adaptieve cruisecontrol aan, waarbij de controle grotendeels door de auto wordt overgenomen. Als bestuurder moet je echter blijven opletten en op elk moment kunnen ingrijpen. Daarom moet je bijvoorbeeld je handen aan het stuur houden of je ogen op de weg gericht houden. Even iets anders doen, zit er dus niet bij.

Dat laatste punt is het cruciale verschil met Drive Pilot. Een film kijken op het centrale scherm, een boek lezen, op je telefoon zitten. Het kan allemaal, en nog belangrijker: het mag allemaal. Er zijn wel mitsen en maren. De grootste daarvan is dat het systeem alleen in Duitsland werkt. En dat je er een Duitse Mercedes voor nodig hebt: in Nederland geleverde auto's kunnen Drive Pilot ook niet in Duitsland gebruiken. En je moet een relatief dure Mercedes hebben, met aangevinkte optiepakketten.

Mercedes EQS met Drive Pilot

Grotere kinderschoenen

Drive Pilot staat nog in de kinderschoenen, al worden die binnenkort verruild voor een grotere maat. Zo wordt de 'mitsen-en-marenregel' van de snelheid versoepeld. Op dit moment werkt Drive Pilot alleen op snelheden tot 60km/u. Daarmee werkt het systeem alleen bij files of op drukke snelwegen, waarbij er altijd een auto vóór de Drive Pilot-auto moet zijn. Wordt de file 'sneller' dan die 60km/u, dan stopt het systeem en moet de bestuurder de controle overnemen.

Met de update, die begin volgend jaar beschikbaar komt, wordt de snelheidslimiet 95km/u. Daarmee is het systeem vaker te gebruiken. Misschien vraag je je nu af: 'Wie rijdt er nou 95km/u op de Autobahn?' Mercedes' antwoord: onder meer vrachtwagens en caravans. Je hebt namelijk nog steeds te allen tijde een voorligger nodig. Je moet dus eerst een vrachtwagen vinden waarachter je kan 'plakken', voordat Drive Pilot aan de slag gaat. Je hoeft niet te bumperkleven, die vrachtwagen kan best tientallen meters weg zijn, mits hij maar niet harder gaat dan 95km/u.

Je autorit duurt daarmee natuurlijk wel wat langer dan wanneer je zelf met 200km/u door Duitsland gaat knallen. "Maar je kan die tijd die je in de auto zit, wel veel effectiever gebruiken", zegt Christoph von Hugo, Head of Active Safety bij Mercedes. Daarnaast kun je ontspannen tijdens het rijden en kom je meer ontspannen aan op je plek van bestemming, zegt Von Hugo. Bovendien is 95km/u efficiënter dan 200km/u, wat weer tijd en geld kost bij het tankstation of de (snel)lader.

Mercedes niveau's van zelfrijden Level 3

Wat nog steeds niet mag, is slapen. De ogen moeten open blijven en de auto houdt dit met camera's in de gaten. Als je die camera's blokkeert, bijvoorbeeld omdat je een broadsheetkrant wilt lezen, schakelt het systeem zich uit. Drive Pilot rijdt autonoom, maar alleen binnen bepaalde, afgebakende omstandigheden. Als die omstandigheden veranderen waardoor Drive Pilot niet meer mag werken, moet de bestuurder de controle overnemen. Hiervoor krijgt de bestuurder tien seconden; daarom is slapen achter het stuur nog steeds uit den boze.

De assistent kan stoppen omdat je bijna bij je afslag bent en zelf verder moet rijden, of omdat het systeem niet langer zelf kan rijden. Drive Pilot werkt op alle autobahnen, maar niet op elk deel van de Duitse snelwegen. Tunnels, wegwerkzaamheden, scherpe bochten ... Die moet je van Mercedes zelf doen. Drive Pilot weet wanneer dat is, dus krijg je de tijd om je boek aan de kant te leggen en de controle over te nemen. Ook 's nachts, als het donker is, en bij slechte weersomstandigheden werkt Drive Pilot niet.

Een uurtje in Berlijn

Tweakers mocht in Berlijn een uurtje gebruikmaken van Drive Pilot 95, met een test-EQS die het systeem al heeft, op een door Mercedes bedachte route. Wat opvalt aan Drive Pilot is hoe 'normaal' het voelt. Het voelt vergelijkbaar met de geavanceerdste assisterende systemen van het moment, waarbij je in de praktijk amper hoeft in te grijpen. Toch voelt het wat onwennig dat je ook niet meer hoeft op te letten. Dat je 'gewoon' een film kan kijken en minutenlang je ogen van de weg houdt. Om daarna weer naar de weg te kijken en een gevoel van 'hé, waar ben ik?' te hebben. Het voelt alsof je passagier bent, maar dan met een stuur en pedalen voor je.

Mercedes Drive Pilot turquoise verlichting bij stuur
De turquoise verlichting op en rondom het stuur geeft aan dat Drive Pilot is ingeschakeld.

Drive Pilot rijdt vergelijkbaar met assisterende systemen, maar is dat zeker niet. Niet alleen softwarematig, maar ook hardwarematig. Een 'normale' Mercedes met assisterende functies bevat een camera, radarsensors en ultrasone sensors. Drive Pilot voegt hier een achtercamera, een wegvochtigheidssensor en betere radioantennes aan toe. Met de vochtigheidssensor weet de auto of het wegdek nat is en of er daardoor anders geremd moet worden, of dat het te nat is voor Drive Pilot en het systeem uitgeschakeld moet worden. Die radioantennes zijn belangrijk, omdat Drive Pilot gedetailleerdere plaatsbepaling vereist dan reguliere assisterende systemen. Zo gebruikt Drive Pilot een combinatie van satellietsystemen als gps en glonass, en 3d-kaarten voor een plaatsbepaling van 'enkele centimeters'. Die data is nodig om te weten wat voor bocht eraan komt, bijvoorbeeld, en waar de auto op de weg moet zijn.

In de voorbumper zit ook lidar voor het Drive Pilot-systeem. Dit is opvallend; vooral Elon Musk claimt dat lidar niet nodig is voor volledig zelfrijdende auto's. Mercedes heeft die wel, voor de extra zekerheid en veiligheid. Daarnaast merkt de fabrikant op dat als de zon bijvoorbeeld laag is, deze de camera kan verblinden. Lidar werkt dan nog wel. De keuze voor de voorbumper is bewust, zodat de auto dichter bij de grond zit en zo meer meekrijgt van wat er voor de auto gebeurt. Concurrenten, zoals Volvo, plaatsen de lidarsensor boven de voorruit. Door de sensor op die plek te plaatsen, mis je een deel van wat er voor de auto gebeurt, redeneert Mercedes.

Die achtercamera wordt overigens, samen met microfoons in de auto, gebruikt om aankomende hulpdiensten te herkennen. In dat geval wordt de controle teruggegeven aan de bestuurder om ruimte te maken voor het naderende voertuig. Mercedes zegt dat verschillende onderdelen binnen het elektrische systeem en de rem- en stuursystemen dubbel zijn uitgevoerd, zodat Drive Pilot niet door technische problemen de verkeerde acties uitvoert. De auto is niet uitgerust met twee keer zoveel remschijven of dubbele stuurstangen, maar bepaalde onderdelen, zoals voedingen, zijn wel redundant uitgerust.

Turquoise verlichting

Een Drive Pilot-auto heeft aanzienlijk meer sensors, al zie je dat aan de buitenkant niet echt. Naast de lidar dan, wellicht. En toch mag je met een Drive Pilot-auto wél met je telefoon of boek in de handen zitten, maar bij een 'reguliere' Mercedes niet. Dat vormt een uitdaging voor de politie. Zeker in het begin zal niet elke agent doorhebben dat je met je Handy mag rijden als je Drive Pilot aan hebt. Mercedes erkent dan ook dat de politie je nog steeds kan stoppen. Uiteindelijk zouden ze je geen boete mogen geven, maar mogelijk moet je dan wel uitleggen wat je aan het doen bent.

Mercedes heeft hier een oplossing voor: turquoise markeringslichten. Mercedes mag deze in Nevada gebruiken, waar Drive Pilot ook is toegestaan, maar elders niet. De fabrikant werkt aan de noodzakelijke wettelijke toestemming. Het is nog niet duidelijk wanneer deze er komt. Deze verlichting is niet gepatenteerd door Mercedes en kan door andere fabrikanten worden gebruikt, en is gestandaardiseerd via SAE-standaard J3134. Mensen die kleurenblind zijn voor turquoise hebben hier uiteraard niet zoveel aan. Dit is volgens Von Hugo geen probleem. "Het is geen verplichting om deze markeringslichten te kunnen zien; het is alleen iets extra's. Nu hebben we ze immers ook niet nodig."

Mercedes wil met turquoise verlichting zelfrijdende functies laten zienMercedes wil met turquoise verlichting zelfrijdende functies laten zien
Mercedes wil met turquoise verlichting zelfrijdende functies laten zienMercedes wil met turquoise verlichting zelfrijdende functies laten zienMercedes wil met turquoise verlichting zelfrijdende functies laten zien

Niet alleen markeringslichten liggen nog op Mercedes' to-dolijst. De autofabrikant wil dat Drive Pilot later dit decennium ook tot 130km/u te gebruiken is, zoals wettelijk is toegestaan binnen de Duitse wet. Voordat Mercedes dit wil doorvoeren, wil de fabrikant betere sensors en snellere hardware in de auto's hebben. Sneller mag al, alleen zegt Mercedes niet te kunnen garanderen dat de auto dat veilig aankan. Anders dan de huidige upgrade naar 95km/u, zal die upgrade naar 130km/u dan ook niet naar huidige Drive Pilot-auto's komen.

Daarnaast moet het systeem uiteindelijk naar meer landen komen. Welke landen daartussen zitten, wilde de autofabrikant nog niet delen. Wel zegt Mercedes het systeem eerst nog in een land goed te willen testen. Nederlandse wegen zijn immers anders dan Duitse, met andere op- en afritten, andere borden en andere belijning. De kaarten moeten goed zijn om de positiebepaling te kunnen behalen en het systeem moet reageren zoals de bestuurder kan verwachten. Daarom is Mercedes voorzichtig met het uitbreiden van Drive Pilot. Daarnaast moet het land hiervoor toestemming geven; nog niet elk Europees land doet dat.

Rustig en soepel, maar soms ook onverwacht

Mercedes Drive Pilot schakelt zich uit
Bij het uitschakelen worden de turquoise
lampjes rood.

Drive Pilot is nog niet af, maar dat wil niet zeggen dat het op dit moment niet werkt. In onze korte test werkte het systeem soepel en zoals je zou verwachten. Zodra de EQS herkent dat je op een snelweg bent waar Drive Pilot ingeschakeld mag worden, lichten de knoppen aan het stuur op met een turquoise kleur. Als je een van deze knoppen indrukt, neemt de auto de controle volledig over en mag je doen wat je wilt − behalve slapen dan. Alleen het 'teruggeven' van de controle aan de bestuurder voelde soms nog onverwacht en hectisch. Je was immers diep in gedachten bezig met een boek of je telefoon, en opeens zie je rode verlichting op je scherm en stuur, en hoor je een waarschuwingssignaal. Op zich heb je tien seconden en dus tijd om weer op te letten, maar het voelt alsof je moet stressen en haasten. Of misschien ben ik een stresskip, dat kan ook.

Een ander opvallend punt is dat je niet altijd weet waarom Drive Pilot de controle teruggeeft. De Mercedes zegt bijvoorbeeld dat de omstandigheden niet meer correct zijn, maar niet dat het komt door bijvoorbeeld een te scherpe bocht. Stel dat er twee snelwegen worden samengevoegd en er daardoor een extra rijbaan aan de rechterzijde komt, dan schakelt Drive Pilot 95 zich ook uit. Tussen de 60 en 95km/u mag Drive Pilot alleen op de rechtste baan gebruikt worden, daaronder mag het op alle banen. Maar als er zo'n rechterbaan bijkomt, krijg je geen melding dat je een baan opzij moet schuiven om het systeem weer te kunnen gebruiken. Zo'n melding zou kunnen helpen om sneller Drive Pilot weer te kunnen gebruiken.

Uiteindelijk hebben we een ruim half uur gebruik kunnen maken van Drive Pilot, met korte onderbrekingen. Dit kwam onder meer omdat we afslagen namen waar Drive Pilot niet werkt, maar ook door wegwerkzaamheden en scherpe bochten. We kunnen op basis van die trip geen alomvattende conclusies trekken, maar Drive Pilot geeft in elk geval een gevoel van veiligheid. Sommige assisterende systemen willen nog wel eens vreemde trekken hebben, zoals abrupt remgedrag of het volgen van de verkeerde belijning, waardoor menselijke ingrepen nodig zijn. Drive Pilot rijdt soepel en geeft je daarmee het gevoel dat je je aandacht aan iets anders kan besteden zonder dat je onveilig bezig bent.

Of je daarmee urenlang films gaat zitten kijken, is nog de vraag. Sowieso lijkt het niet comfortabel om urenlang met je hoofd gedraaid naar het centrale scherm te kijken. De kans lijkt klein dat je urenlang Drive Pilot kan gebruiken zonder een tunnel, bocht of wegwerkzaamheden tegen te komen. Dan word je uit de spannende scène gezogen, wat ook geen prettige kijkervaring is. Maar bijvoorbeeld op je telefoon zitten of een tijdschrift lezen, dat lijken ons wel praktischere manieren om je Drive Pilot-tijd in te zetten.

Film kijken met Drive Pilot
Film kijken met Drive Pilot

Moonlanding

Drive Pilot blijft een techniek in ontwikkeling. Een moonlanding, zo noemt Von Hugo het, om een volledige Level 3-zelfrijdende auto te maken. Hij bedoelde dat de sprong van de huidige, assisterende Level 2-systemen naar het Drive Pilot-Level 3-systeem enorm is qua ontwikkeling en investering. En zelfs een Level 3-auto is niet volledig zelfrijdend; pas bij Level 4 en 5 worden het stuur en de pedalen optioneel. Dat Drive Pilot nog in ontwikkeling is, blijkt uit de manier waarop Mercedes het verkoopt. Niet op de instap-A-Klasse, maar alleen op de relatief dure EQS en S-Klasse. Het is nog geen product voor de massa, maar alleen wie er zesduizend euro, boven op de prijs van de auto zelf, voor wil betalen. Overigens werkt het ook nog niet op duurdere Mercedes-modellen, zoals de suv-versies van de twee sedans.

Deze nieuwe techniek neemt ook nieuwe vragen met zich mee. Wie is er verantwoordelijk als er een ongeluk gebeurt, bijvoorbeeld? "De kans dat er met Drive Pilot een ongeluk gebeurt, is zeer klein", zei Von Hugo, zonder antwoord te geven op de vraag wie er dan verantwoordelijk zou zijn. Tegen The Verge zei Mercedes eerder wel de juridische aansprakelijkheid op zich te nemen, 'afhankelijk van het geval'. Het is echter onduidelijk of dit alleen voor de Verenigde Staten geldt, of ook voor Duitsland.

Drive Pilot 95 is een mooie stap vooruit, maar laat ook zien dat zelfrijdende auto's nog verder weg zijn dan sommigen voorspelden. Dit is het geavanceerdste Level 3-systeem dat voor consumenten te koop is, maar rijdt langzamer dan mensen en alleen in specifieke omstandigheden, in een specifiek land, met specifieke auto's. Het is absoluut een nuttige functie, maar nog niet voor de massa. En die volledig zelfrijdende auto die overal en altijd werkt? Die is duidelijk nog ver weg.

Reacties (232)

232
230
84
8
0
104
Wijzig sortering
Een mooi artikel.
En toch zie je weer de voorspelbare reacties: Tesla kan dit, mijn auto kan dat, in Amerika kan zus & zo...
Het grote verschil met vrijwel elke andere auto op de weg is, dat deze het ook mag en dus gecertificeerd is. Vooral bijkomende zake als redundantie in sensoren, voeding, communicatie.
Ik vraag me altijd af, als andere blijkbaar zo veel verder zijn, waarom certificeren de andere fabrikanten hun autos niet zo?
Ik ben al een aantal jaar werkzaam in deze sector en heb bij zowel Amerikaanse als Europese bedrijven gezeten. Het probleem met certificatie van autonome systemen is niet (alleen) de hoeveelheid papierwerk, maar vooral dat de standaarden (m.n. ISO 26262) waar je aan moet voldoen eisen dat je een gestructureerde aanpak hebt die ervoor zorgt dat de kans op letselschade geminimaliseerd wordt. Het probleem hierbij is dat je niet alleen een extreem hoge betrouwbaarheid van je eigen algoritmes (en onderliggende, redundante hardware) moet aantonen maar ook het gedrag van andere weggebruikers moet kwantificeren. In Europa verwachten we van machines niet alleen dat ze statistisch minder letselschade veroorzaken dan de imperfecte mensen die ze vervangen, maar ook dat er geen structurele oorzaak is: je moet kunnen aantonen dat je alle te verwachten risicos geïdentificeerd hebt en maatregelen hebt genomen om gevolgen te minimaliseren. Dit is precies waar Mercedes enorme stappen in heeft gezet met dit product. Maar zoals het artikel al noemt: op dit moment nog maar in een zeer beperkt inzetgebied (in vaktermen: operational design domain).

In Amerika geldt sowieso geen verplichting om aan dit soort normen te voldoen, maar Tesla zegt met hun L2 systeem ook gewoon heel simpel: jij bent als bestuurder verantwoordelijk. Dat maakt alles veel makkelijker.
Dit komt op mij over dat certificering boven de inhoud komt te staan. Net als bij het energielanel
Hoezo dan? Wellicht dat je "dat certificering boven de inhoud komt te staan" kan uitbreiden met argumenten, want zo is het een loos statement.

Zo schreef @wjvds:
"In Europa verwachten we van machines niet alleen dat ze statistisch minder letselschade veroorzaken dan de imperfecte mensen die ze vervangen, maar ook dat er geen structurele oorzaak is: je moet kunnen aantonen dat je alle te verwachten risicos geïdentificeerd hebt en maatregelen hebt genomen om gevolgen te minimaliseren."
Dat is denk ik wel de essentie. Dit is wat je met het volgen van die ISO26262 en certificaat behalen doet en aantoont: dat je verdraaid goed hebt nagedacht over risico's en gevolgen. En dat werkt in de hele ontwerpketen door.

Zo ben ik betrokken bij ontwikkeling van IC's en zo af en toe ook bij IC's voor auto-doeleinden. En dan wordt je als ontwerper tot aan de kleinste deelblokjes van zo'n IC geacht na te denken over risico's van zo'n blokje en heb je regelmatig sessies om hier mee bezig te zijn:
Wat is de functie van dit blok? ('klok voor systeem maken')
Wat zou er mogelijk fout kunnen gaan? ('klok te snel/langzaam/geen klok/...')
Wat zijn de consequenties? ('systeem werkt niet/traag/onbetrouwbaar')
Wat is de kans en hoe groot is de schade als het fout gaat?
Kunnen we dit detecteren? ('meetsysteem toevoegen om klok te controleren')

Nou ben ik er een beetje uit, dus wellicht dat de vragen net even anders zijn, maar dit is wel waar het om gaat: door de hele ontwerpketen heen, van het kleinste deelblok van een IC, compleet IC, compleet deelsysteem, complete auto, wordt door iedereen nagedacht over risico's, gevolgen en maatregelen.

Het gaat niet om het certificaat. Het gaat er om dat certificering zorgt voor zo'n manier van werken waarbij er flinke focus komt op veiligheid. En ja, dat kost tijd en geld. En nee, je kan niet alle risico's vooraf inschatten of voorkomen. Maar de mindset bij de ontwerpers die er bij betrokken zijn zo ver krijgen draagt wel bij aan de veiligheid van het resultaat.
Hoezo dan? Wellicht dat je "dat certificering boven de inhoud komt te staan" kan uitbreiden met argumenten, want zo is het een loos statement.
Het gaat niet om het certificaat. Het gaat er om dat certificering zorgt voor zo'n manier van werken waarbij er flinke focus komt op veiligheid. En ja, dat kost tijd en geld. En nee, je kan niet alle risico's vooraf inschatten of voorkomen. Maar de mindset bij de ontwerpers die er bij betrokken zijn zo ver krijgen draagt wel bij aan de veiligheid van het resultaat.
Alsof engineers die niet in een bedrijf werken met deze certificering de mindset niet hebben of 'maar wat doen' of niet nadenken. En je zult een slechte engineer in deze 'mindset' niet tot een goede engineer maken, of dat er minder fouten gemaakt worden. Het gaat vooral dat het proces gewaarborgd is en gelogd is. Het zegt niks inhoudelijks over het product.

Mijn argument was het energielabel in NL. Als je technische producten gebruikt (isolatie of zonnepanelen) van een fabrikant die niet de moeite heeft genomen om in de database te komen die gebruikt mogen worden voor het energielabel, dan kom je bij een pseudo-product uit die (heel toevallig) ca 50% lagere R-waarde heeft dan bijvoorbeeld een isolatieproduct van Unilin of een ander zeer bekend merk.

Een certificaat mag geen doel zijn en zal een product niet per definitie beter maken. Je audit, je proces is misschien beter beheersbaar en controleerbaar. Maar het product zelf zal er niet beter van worden. Er kunnen misschien sneller fouten gevonden worden, achteraf. Of dat een nieuwe engineer zich misschien sneller inwerkt. En daarnaast is het voor beleidsmakers (overheden) makkelijker om toestemming te geven. Niet omdat ze de kennis hebben om te doorgronden of iets goed is, maar dat er dus aan (hopelijk) alles gedacht is én dat (weer achteraf) een fout snel gevonden kan worden. Accountability.

Certificeringen zijn niet inherent slecht, maar ook niet inherent goed. Vergelijk dan even de zelfrijdende opties van Tesla en Mercedes. Mercedes heeft de certificering en Tesla niet. Stel (ik heb geen idee, eerlijk gezegd) ze doen allebei exact hetzelfde, maar Mercedes heeft de certificering en Tesla niet. Is de Mercedes dan een inherent beter product?

Goede documentatie is sowieso nodig, weer een nieuwe certificering is meer een wortel voort beleidsmakers om sneller ja te zeggen tegen tests op de openbare wegen.
Alsof engineers die niet in een bedrijf werken met deze certificering de mindset niet hebben of 'maar wat doen' of niet nadenken. En je zult een slechte engineer in deze 'mindset' niet tot een goede engineer maken, of dat er minder fouten gemaakt worden. Het gaat vooral dat het proces gewaarborgd is en gelogd is. Het zegt niks inhoudelijks over het product.
En hier ben ik het toch niet mee eens.

Als je aan minder kritische produkten werkt, dan doet een ontwerper van hardware echt wel z'n best om een goed produkt te maken. Om maar het voorbeeld aan te houden van een klok-generator: de ontwerper van een oscillator gaat echt wel degelijk werk verrichten: simulaties doen, maar ook simulaties als 'wat als de spanning inzakt? wat als de NMOS transistoren sneller zijn dan PMOS transistoren? start de boel nog wel op als het -40°C is?'

Maar zodra je aan chips voor de auto-industrie werkt, zodra je met ISO26262 gaat werken, dan ga je vanuit bovenstaande degelijke werk nog wat stappen verder. Je gaat verder nadenken over risico's van falen en de gevolgen, verder nadenken over het vermijden van falen of detecteren van falen.

En die manier van werken is niet voor elk produkt nodig. Als, bijvoorbeeld, na een jaar of zo de oscillator in je laptop CPU kapot gaat - want heel soms gaan dingen spontaan kapot - dan is dat jammer, vloek je even maar is er niemand dood. Is helemaal prima dat een ontwerper dan een degelijke oscillator heeft gemaakt maar niet heeft nagedacht over 'wat als hij spontaan kapot gaat', want was niet nodig.

Maar als na een jaar of zo de oscillator van een snelheidssensor spontaan kapot gaat en daardoor het ABS systeem van je linkervoorwiel spontaan activeert en jij met 100km/u alle banen van de snelweg doorkruist... dan baal je op dat moment wel dat de ontwerper van *die* oscillator niet heeft nagedacht over zo'n incident.

En natuurlijk heb je zo'n certificaat niet nodig. Ook zonder dat certificaat kan je er over nadenken. Het is vooral dat zo'n certificaat je dwingt om volgens de ISO26262 norm te werken en die norm dwingt je om er structureel op een bepaalde manier over na te denken. En als afnemer weet je dat iemand die zo'n certificaat heeft op die manier werkt, dus dat geeft vertrouwen.
[...]

En hier ben ik het toch niet mee eens.

Als je aan minder kritische produkten werkt, dan doet een ontwerper van hardware echt wel z'n best om een goed produkt te maken. Om maar het voorbeeld aan te houden van een klok-generator: de ontwerper van een oscillator gaat echt wel degelijk werk verrichten: simulaties doen, maar ook simulaties als 'wat als de spanning inzakt? wat als de NMOS transistoren sneller zijn dan PMOS transistoren? start de boel nog wel op als het -40°C is?'

Maar zodra je aan chips voor de auto-industrie werkt, zodra je met ISO26262 gaat werken, dan ga je vanuit bovenstaande degelijke werk nog wat stappen verder. Je gaat verder nadenken over risico's van falen en de gevolgen, verder nadenken over het vermijden van falen of detecteren van falen.
Klinkt meer als bad design voorkomen door procedures. Zie het als software, alleen al een input veld moet gechecked worden op malicide code. Als je daar een certificering voor nodig hebt om dat te voorkomen. De certificering is er vooral voor de buitenwereld, omdat ze er een beetje vanuit kunnen gaan dat er waarschijnlijk over nagedacht is.

[quoteEn die manier van werken is niet voor elk produkt nodig. Als, bijvoorbeeld, na een jaar of zo de oscillator in je laptop CPU kapot gaat - want heel soms gaan dingen spontaan kapot - dan is dat jammer, vloek je even maar is er niemand dood. Is helemaal prima dat een ontwerper dan een degelijke oscillator heeft gemaakt maar niet heeft nagedacht over 'wat als hij spontaan kapot gaat', want was niet nodig.

Maar als na een jaar of zo de oscillator van een snelheidssensor spontaan kapot gaat en daardoor het ABS systeem van je linkervoorwiel spontaan activeert en jij met 100km/u alle banen van de snelweg doorkruist... dan baal je op dat moment wel dat de ontwerper van *die* oscillator niet heeft nagedacht over zo'n incident.[/]
Ik mag hopen dat er wel wat meer failsafejes zijn ingebouwd per component. En dat we die al hadden voordat die certificering bestond. Which is my point.
En natuurlijk heb je zo'n certificaat niet nodig. Ook zonder dat certificaat kan je er over nadenken. Het is vooral dat zo'n certificaat je dwingt om volgens de ISO26262 norm te werken en die norm dwingt je om er structureel op een bepaalde manier over na te denken. En als afnemer weet je dat iemand die zo'n certificaat heeft op die manier werkt, dus dat geeft vertrouwen.
Dus, zoals ik al zei, het gaat om accountability. Niet om inhoud. JA ik versimplificeer het best wel, maar dat is en blijft mijn punt.

Terug naar energielabels, waar ik dan wat meer vanaf weet. Genoeg huizen die Label A hebben, maar compleet waardeloos zijn qua isolatie. En dus qua energieverbruik.

Het probleem is dat mensen vertrouwen hebben in een label, een certificaat. Het zegt meer iets over het proces en niet het product. Wat je zelf letterlijk aangeeft. Het zegt helemaal niks dat de engineers van product A met certificaat aan meer dingen heeft gedacht dan de engineers van product B zonder certificaat.
Maar uiteindelijk zal een certificaat wel standaard wordt omdat mensen er naar vragen wat men weer dwingt (al dan niet door overheden) om met die certificaat te werken omdat het moet danwel meer verkoopt. En tegelijkertijd kan er een superieur product zijn wat het certificaat/label niet heeft, en compleet niet relevant is.

Wat het daarnaast wel doet is een extra administartieve last veroorzaken, mogelijk ook creativiteit van de engineers. Op lange termijn is het vooral leuk voor beleidsmakers. De vraag of het product uiteindelijk beter is? Who knows, aangezien het om accountability gaat bij beleidsmakers en vertrouwen bij kopers. En dat is de meest waardeloze factor voor een technisch product. Genoeg mensen die ellende hebben gehad met harde schijven van merk X in de jaren 90 en die nooit meer merk X zullen kopen. Terwjil al die mensen die product A van merk X in de jaren 90 hebben gemaakt, waarschijnlijk 0% daar nog van bij bedrijf X werkt. En toch zou een dergelijk bedrijf nog altijd certificaat Y hebben. En omgekeerd geld hetzelfde.

[Reactie gewijzigd door siggy op 15 oktober 2024 12:05]

Klinkt meer als bad design voorkomen door procedures. Zie het als software, alleen al een input veld moet gechecked worden op malicide code.
Nee, een 'standaard' ontwerp is geen bad design. Het is een prima ontwerp voor de geplande omstandigheden waarin die toegepast wordt. Niet iedereen heeft behoefte aan de veiligheidsystemen voor de 1-op-miljoen kans dat er na een jaar een transistor onverwacht kapot gaat.

Al die veiligheidsystemen kosten geld. Chip-oppervlak, extra redundante code, redundante sensoren en ga zo maar door. Keiharde euro's. En de controller in een pacemaker of de boordcomputer van het ABS-systeem in je auto, daarbij wil je die veiligheid en heb je dat geld er voor over. Maar een IC die in, bijvoorbeeld, kinderspeelgoed of koelkast terecht komt, die heeft die veiligheid niet nodig. Niemand gaat dood als je wasmachine het begeeft.

En dus is de oscillator in een wasmachine-control-IC gewoon degelijk gemaakt, rekening houdend met de mogelijke omgevingstemperatuur, mogelijke bedrijfspanning, mogelijke variatie bij het produceren, maar niet rekening houdend met het onwaarschijnlijke incident van een falende transistor na een jaar - ALS dat gebeurd, is dat gewoon botte pech.

En als je al jarenlang werkt aan IC's voor in wasmachines, dan heb je niet de mindset voor ISO26262. Is ook niet nodig, want die wasmachine-IC's doen het prima met heel incidenteel een garantie-retour.

Ik vermoed dat als we de overeenkomst naar code zoeken:
Je hebt input-validatie gedaan en gaat verder met de opgeschoonde input en gaat daar mee een database bewerken.
Wat nou als er TOCH iets aan foute input door komt en de database corrupt weet te maken? Of dat om wat voor andere reden dan ook de database corrupt raakt? Wellicht is het zinnig om een regelmatige database-check te doen?
[...]

Nee, een 'standaard' ontwerp is geen bad design. Het is een prima ontwerp voor de geplande omstandigheden waarin die toegepast wordt.
Je designparameters veranderen per toepassing. Daar doet een certificering helemaal niks aan. Tenzij de certificering ontworpen is door de creme de la creme, loopt het bij voorbaat al achter op de werkelijkheid.
Ik vermoed dat als we de overeenkomst naar code zoeken:
Je hebt input-validatie gedaan en gaat verder met de opgeschoonde input en gaat daar mee een database bewerken.
Wat nou als er TOCH iets aan foute input door komt en de database corrupt weet te maken? Of dat om wat voor andere reden dan ook de database corrupt raakt? Wellicht is het zinnig om een regelmatige database-check te doen?
Principieel heb je het gewoon over redundancy en triple redundancy. Een certificaat kán dat afdwingen, maar het niet hebben van een certificaat wilt niet zeggen dat het er niet is. En dan kom ik bij (weer) het punt van halen van certificaten, er is bizar veel aan documentatie nodig. En dat die up 2date blijft. Ja, daar zit waarde aan, maar zegt niks over het product zelf.

Tenzij het heel specifiek gesteld wordt. Ik kom even niet op de term, maar in de WTB is er een soort 'handleiding' die over de meest basale crap gaat die je maar kunt voorstellen. In de zin van, alles wat ooit fout is gegaan hebben we opgeschreven. En pas als je dat gechecked hebt is het okay. Een certificering zal nooit zover op de inhoud ingaan.

Certificering is gewoon geen holy grail. Het is er niet voor het product.

Energielabel is daar gewoon het beste down-to-earth voorbeeld van waar elke persoon met een woning in NL mee te maken heeft.
Certificering is er niet voor het produkt, maar voor de kopers van het produkt om te weten dat je gebruik maakt van ISO26262 voor het ontwerp. En als je als koper weet dat de maker volgens ISO26262 heeft gewerkt, weet je dat er de juiste mindset is bij de ontwikkelaars om na te denken over risico's en hoe er mee om te gaan.

Checklists zijn best een leuke maatregel (en hebben ook zo hun nadelen) maar altijd reactief: er is ooit iets fout gedaan en dat gaan we niet nog eens fout doen. Je hoort mij niet zeggen dat je geen checklists moet gebruiken, maar liever heb je daarbij voor bedrijfscritische toepassingen ook dat er wordt nagedacht: wat als we toch iets fout gedaan hebben? Of wat als er iets kapot gaat? Hoe gaan we daar op een goede manier mee om? Dus pro-actief ipv reactief.

En ja, bijkomend gevolg van ISO26262 of vergelijkbare certificeringen is dat er een hoop meer documentatie en vergaderen bij komt. Al die documentatie is helaas nodig om aan te kunnen tonen dat je op de juiste manier werkt. Tja. Veiligheid kost geld, op meerdere vlakken.
Het is wel spannend dat jij denkt dat vertrouwen (bij kopers, beleidsmakers of wie dan ook) de "meest waardeloze factor voor een technisch product" is. Dat gaat zo ver aan de realiteit voorbij. Vertrouwen is echt het kernstuk waar onze hele economie en samenleving op draait. Wij allemaal moeten de duizenden mensen die wij in het dagelijks leven tegenkomen tot op zekere hoogte vertrouwen. De reden dat terrorisme zo goed werk is dat zelfs een enkele uitzondering op miljarden interacties van onze kleine 20 miljoen bevolking het vertrouwen van mensen ernstig stoort. Geen van ons kan alles wat we in het leven tegenkomen goed beoordelen. Vaak is het zelfs helemaal niet mogelijk (en meestal is dat met opzet). Informatieasymmetrie heet dat en is de reden dat vertrouwen creeren zo belangrijk is. Standaarden en procedures maken dat wij met een gerust hart een vliegtuig trein en taxi instappen en dat er zelden genoeg incidenten zijn zodat dat vertrouwen blijft bestaan. Maar dat vertrouwen is toch echt vrij fragiel.

En dat het ook meteen mis gaat als een bedrijf in kritieke industrieen onder goede certificering uitkomt kun je in het recente verleden gewoon goed zien. Boeing, waar de FAA geen goed toezicht op hield, waardoor er eerst 2 eenvoudig te voorkomen crashes waren, gevolgd door tal van verdere (kleinere) incidenten waar wonder boven wonder verder niemand bij overleed. Of industrieen die (nog) niet goed gereguleerd zijn zoals zelfrijden autos, waar Telsa met zijn AutoPilot/FSD geregeld meerdere dodelijke incidenten en nog meer indicenten met (vaak zwaar) lichamelijk letsel heeft per jaar. Of kijk eens naar wat Shell & Co in Afrika doen. Je kunt best voorkomen dat je olieboringen het milieu belasten maar zonder regelgeving doen die bedrijven gewoon wat ze het goedkoopst uitkomt.

En dat brengt ons eigenlijk ook wel naar de andere kern van dit probleem. Zelfrijdende tech is al ontzettend kostbaar om te ontwikkelen. De meeste ingenieurs die daaraan werken zullen ongetwijfeld wel in staat zijn om een veilig onderdeel neer te zetten. Maar zonder duidelijke richtlijn hoe veilig het moet zijn blijft het afwegingen maken (hoeveel redundantie is voldoende? is 99.9% veilig genoeg of moet het 99.99999% zijn?). Je kunt een bepaald onderdeel in 3 maanden of in 3 jaar ontwikkelen. Als het aan een Elon is, dan doe je dat in 3 maanden en kijk je of het in de praktijk goed genoeg was. Dat bespaard veel geld en is dus goed voor de aandelenkoers (en daarmee zowel Elon zelfs als alle aandeelhouders). Dat is waar de echte druk vandaan komt. Het is de afweging tussen kosten en baten en omdat de baten niet voor de (huidige) aandeelhouder zijn, wordt vaak gekozen voor de lagere kosten.

Kapitalisme is fundamenteel een race to the bottom (door allelei effecten die erin werken). Standaards, regels en certificering bepalen hoe laag bedrijven kunnen (en zullen) gaan om de kosten (niet de prijs) te drukken. Apple buit zijn werknemer in China zo hard uit dat ze netten aan de fabriekshallen moesten installareren om de zelfmoorden te voorkomen. De kledingindustrie en in de mijnbouw maken regelmatig gebruik van kinderen om hun producten te maken/delven. Beursgenoteerde bedrijven kunnen niet anders dan kosten verlagen en alles wat binnen de regels kan gebeurt bij deze bedrijven. En niet beursgenoteerde bedrijven zijn over het algemeen genoodzaakt om daarmee te concurreren en vervolgens geen haar beter.

Er zijn ongetwijfeld wel nutteloze certificaten of slecht ontworpen certificaten (energielabels van huizen, de "nutriscore", rijbewijzen in de VS). Maar ook dat is dan weer een bewuste keuze. Energielabels onder de druk van de bouwindustrie, nutriscore onder de druk van de voedselindustrie en rijbewijzen in de VS onder druk van de kiezer. Daar zullen ongetwijfeld nog veel meer voorbeelden van zijn. Maar andersom zijn certificaten op veel vlakken van gigantisch belang voor onze veiligheid.
Ik heb jullie discussie gelezen, en ik heb twee opmerkingen.

Ten eerste: Dat het energielabel deels een wassen neus is, betekent niet dat alle andere labels en certificaten eenzelfde status hebben. De mogelijkheden van het energielabel zijn heel erg beperkt, omdat de kosten van het verkrijgen niet te hoog mogen worden, en omdat het ook mogelijk moet zijn om bestaande bouw een label te geven, waar het onmogelijk is om te eisen dat bij de bouw enkel gecertificeerde materialen gebruikt worden, en waar het ook onmogelijk is om exact te bepalen welke materialen gebruikt zijn, en of alle andere maatregelen afdoende genomen zijn. Ook met goede isolerende materialen, kun je met een verkeerd ontwerp nog steeds koudebruggen krijgen bijvoorbeeld.

Daarnaast geldt voor het energielabel dat het geen erg groot probleem is als het niet helemaal klopt. Misschien heb je dan een klein financiëel nadeel, maar het blijft overzichtelijk. Als de veiligheid van een onderdeel voor de auto of vliegtuig-industrie niet in orde is, dan is dat potentiëel wel een groot probleem. Die lessen hebben we in de afgelopen eeuw wel geleerd.

En een diploma is ook een certificaat. Kan daarmee gesjoemeld worden ? Ja. Zijn er bedrijven die iedereen die betaalt een diploma geven ? Ja. Zijn daarom alle diploma's waardeloos ? Nee.

Ten tweede:Ongeacht de bezwaren, moet er een manier zijn om te weten of een produkt or onderdeel, of een mens, aan bepaalde eisen voldoet. Of dat nu toleraties zijn, veiligheid, of bepaalde bekwaamheden. En je wilt niet alles en iedereen zelf moeten controleren. En dat kan ook niet. Net zoals bij het energielabel kun je ook niet elke auto die je koopt demonteren om te controleren of ie veilig is. Labels, certificaten, diploma's zijn het beste wat we hebben, en als je wilt weten wat de waarde is van zo'n papiertje, label, etc, dan moet je kennis hebben van die markt.
Certificering is inderdaad geen doel op zich. Het gaat om het hele denkproces en mentaliteit. Dat is waar het bij Boeing al jaren zo vreselijk fout gaat,
Waar het bij Boeing misgegaan is dat er op een gegeven moment een CEO kwam die geen techneut was maar een klassieke CEO. Plots was het marketing en sales die meer macht kregen van de techneuten.

Goede docu:
YouTube: Boeing's Downfall [Greed Over Safety] feat. Mentour Pilot
Ik heb veel van dat soort video's bekeken en ben het er mee eens. Echter, ook een klassieke CEO kan begrijpen dat het opzij zetten van basisbeginselen geen goed idee is, dus ik zie het breder dan puur het falen van het leiderschap. Ook een klassieke CEO heeft mensen in dienst die in staat zijn om een vliegtuig te ontwerpen en die mensen zijn in staat bepaalde basisprincipes ter hand te nemen.

Als je naar MCAS bekijkt:
  • Vanuit de informatica bekeken is er een doodzonde begaan door een computer een veiligheidsgevoelige beslissing te laten nemen zonder deze computer te laten controleren of de sensoren waar hij deze beslissing op baseert betrouwbaar zijn.
  • Vanuit de industriële veiligheid bekeken is er een doodzone begaan door het gevolgen van het falen van een component niet te analyseren.
Gebreken kunnen optreden omdat totaal niet aan een bepaalde situatie gedacht is, of door nalatigheid. Er is hier zonder twijfel sprake van ernstige nalatigheid. Alhoewel een technisch onderlegd directeur, bekend met het vakmanschap, wellicht sneller identificeert dat vakmanschap niet is toegepast, wil het er bij mij niet in dat een zakelijk onderlegd directeur niet in staat is te begrijpen dat veiligheidsbasisbeginselen toegepast moeten worden.

Als we de schuld bij de directie leggen, dan zou ik zeggen dat een zakelijke achtergrond een veel te zwak oordeel is. De directie is crimineel nalatig geweest.
Ben het eens met deze nuance en aanvulling, dank daarvoor. ;)
De reden dat dit zo is omdat traditionele autobedrijven risico schuw zijn, en Tesla dit niet is. En dat is leuk en aardig dat Tesla het risico bij de gebruiker neerlegt maar juist in de VS is Tesla een class action verwijdert van totale ondergang. Er hoeft maar een jury een negatieve uitspraak te geven dat Tesla toch verantwoordelijk is, en dan houdt het allemaal op voor Tesla.

Ik snap dan ook niet hoe juridisch Musk deze onhoudbare situatie erop nahoudt. Hoe langer hij dit rekt, hoe meer (dodelijke) ongevallen zullen vallen door falende Tesla tech, hoe hoger de rekening zal zijn. Wat hij hier dan ook doet is dure ontwikkeling kosten van zich afhouden en inwisselen voor dure juridische kosten die hoe dan ook zullen gebeuren en zonder twijfel negatief voor Tesla uitvalt.

Ik snap dan ook niet waarom hij zo'n moeite heeft met compliancy, omdat het specifiek henzelf treft. Immers gaat Tesla ten onder is hijzelf ook geen fut meer waard.
"Ik snap dan ook niet ... " - misschien om dat je premisse onzin is? Duizenden aandeelhouders, Musk voorp, delen jouw aanname niet dat er zeker een rechtzaak komt die Tesla zeker verliest. Maar goed, als je echt zo zeker bent van je zaak, dan kun je goedkope put opties op Tesla kopen en binnenkort miljardair zijn.
Mensen zijn enorm slecht in lang opletten. Als er lange tijd niets gebeurd versuffen we. We verwachten van machines dat die wel goed kunnen (en dat kunnen ze ook). Maar alleen als ze goed getest en gebouwd zijn.

Er zijn tal van scenarios te bedenken waarbij mensen - door hun verveling - wel even denken iets anders onderweg te kunnen doen. Even telefoneren op de rechterbaan achter een vrachtwagen kan toch prima? Of even op je navigatie kijken (of zelfs klooien) als je paar vrachtwagens inhaalt. Wat kan er nou gebeuren.. niemand stapt zomaar op de rem want het is rustig. Oh shit, vliegt er een spatbord van een vrachtwagen voor mij af (maand geleden gehad). Kans 1 op miljoen dat het gebeurd, maar het kan gebeuren, en als een oplettende bestuurder die kan ontwijken, dan verwachten we niets minder dan van een autonome auto.

Dus als ik een zelfrijdende auto koop, dan verwacht ik dat de techneuten kunnen bewijzen dat ongeacht zijn interne toestand, die bvb niet volhard op een bestuurder/fietser inrijdt. Ook al denkt die wagen op de snelweg te zitten (zie ongeval met Uber test wagen) waar je geen fietsers hoort aan te treffen, bijvoorbeeld.

Ik ben dus enorm blij dat er (hopelijk strenge) certificering voor is. Anders krijg je zo'n uitspraak van een Tesla CEO die zegt dat we over 2 jaar autonoom rijden.. zo'n 10 jaar geleden. En ze zijn er nog (lang) niet.

[Reactie gewijzigd door Hans1990 op 15 oktober 2024 13:58]

Certificering gáát hier toch over inhoud? Als ik zo lees wat die certificering hier in EU inhoudt, dan kun je niet echt meer iets verzinnen wat je nog meer zou willen, toch?
Spijker, kop, 100% agree!
Stappen die anderen blijkbaar niet kunnen of niet willen nemen, met als gevolg dat men dus bij level2 blijft hangen, ook al probeert men in de marketing wat anders te vertellen.
Neemt niet weg, dat ook in America dergelijke documentie vereist is, maar dikwijls pas als iets mis gaat.
Als je dan je huiswerk niet goed gemaakt hebt, heb je daar een veel groter probleem.
Het is de vraag of het de moeite waard is om al te certificeren. Zie dit voorbeeld van Mercedes: zeer beperkende voorwaarden voor het gebruik van deze functie, een enkel model met een dure optie voor deze functie en bovendien nu al bekend dat een auto die je nu koopt nooit met 130 km/h kan gaan rijden. Daar gaat dan een hoop extra geld in zitten en het levert zeer waarschijnlijk nauwelijks nuttige data op voor het verder ontwikkelen van het systeem.

Vergelijk je dit met de aanpak van Tesla in de VS, dan zie je dat daar al auto's autonoom rijden in een veel bredere set omstandigheden, inclusief van baan wisselen, voorsorteren, afslagen, kruispunten, minder goed gedefinieerde stadswegen en alle complicaties die daar plaatsvinden. Ja, dit gebeurt nog wel met de bestuurder als supervisor, waardoor Tesla's systeem kan leren van de ingrepen en alle moeilijke situaties die ze tegenkomen. Tesla wacht met het certificeren voor Level 3 totdat ze de data hebben die aantoont dat het kan. Op dat moment kunnen ze dit systeem uitrollen naar veel meer auto's die alleen maar camera's hebben.

Misschien moet Tesla wachten tot ze een ons wegen, maar de route van Mercedes lijkt mij niet sneller. Aangezien er een vereiste is om een ander voertuig te volgen, er geen scherpe bochten mogen zijn etc.etc. betwijfel ik of ze dit ooit buiten de snelwegen kunnen toepassen en wanneer ze daar dan aan toe gaan komen. 130 km/h 'later in dit decennium' en op basis van nieuwe hardware...

En maakt het voor de gebruiker werkelijk uit? Leuk dat je een boekje mag gaan lezen, maar je moet wel binnen 10 seconden kunnen overnemen. Hang je rustig achter een vrachtwagen, voegt een of andere pipo ertussen en moet je weer overnemen. Dan zet ik liever een luisterboek op en let ik gewoon zelf op de weg terwijl de auto stuurt, remt etc.

Voor Mercedes is dit meer een marketing gimmick om te kunnen claimen dat ze voorop lopen.
Amerika heeft gewoon een heel ander juridisch systeem dan wat we in Europa kennen.

In de basis mag je in Amerika doen waar je zin in hebt en met een papiertje de verantwoordelijkheid afduwen. Echter om dat Amerikaans systeem leefbaar te houden in de praktijk moeten ze keihard reactief optreden zodat de boodschap duidelijk is, jij mag doen wat je wilt maar o wee als de law achter je aankomt, dan maken we een publiekelijk voorbeeld van je.

Om een heel simpel voorbeeld te geven, ze zijn geen fans van pin codes op hun credit cards want dat voelt beperkend aan wat haaks staat op hun gevoel van freedom. Dat zet de deur naar misbruik natuurlijk gigantisch open maar wat gebeurd er als je gepakt word met credit card fraude?
Tot 20 jaar gevangenis straf, iedereen kan opvragen in welke gevangenis je zit of zat onbeperkt in tijd (convict for life publiekelijk voor iedereen), credit score is onherroepelijk omzeep waardoor je nooit nog kan lenen of een credit card kan bekomen. En dat laatste is nogal een issue omdat veel plaatsen enkel credit cards accepteren waardoor je defacto een 2de rangs burger bent for life.

Bedrijven zijn daardoor verplicht alles dicht te timmeren met bijna absurde (of althans vanuit het perspectief van de EU) juridische teksten en overeenkomsten maar ook tot zaken waar we hiermee lachen zoals waarschuwingen op koffie bekers dat de inhoud heet kan zijn.

Echter met de enorme resources die bedrijven hebben draait dat ook helemaal door tot op het punt dat ze feitelijk geen of nauwelijks verantwoordelijk hebben. Tesla kan dus in de US zeggen beste bestuurder, hier is de auto, hier is de tekst, verantwoordelijk is volledig voor jou.

Zoiets is ondenkbaar in de EU waar een consument of een werknemer wat dat betreft behandeld word als een beschermd persoon terwijl een bedrijf of een werkgever aan een hogere standaard word gehouden. Gevaarlijke dingen verkopen aan een consument, toelaten dat een consument die gemakkelijk op een onverantwoorde manier gebruikt en dan zwaaien met een overeenkomst dat het de consument hem maar beter had moet informeren, dat pakt hier niet.

Als het dan nog over voertuigen gaat heb je expliciete goedkeuringen nodig in de EU en die gaan preventief kijken en eisen stellen.

Waar ik naar toe wens te gaan is dat naar mijn inziens Mercedes niet perse achter of voorstaat tov Tesla, het gaat hem meer op wat ze zelf toelaten dat het systeem wel of niet kan. Die limiet van 95km/u is geen beperking van het systeem, de level 2 van Mercedes doet zelfs 210km/u en dat is ondertussen al 7 jaar op de markt, het zijn limieten van wat men in de EU gegarandeerd veilig vind waarbij Mercedes de verantwoordelijkheid niet kan/mag afschuiven.

Overigens heeft Tesla ook onder het Amerikaanse systeem een probleem, ze hebben teveel zware ongelukken gehad waarop het Amerikaanse rechtssysteem, reactief weliswaar, begint wakker te worden en begint zich klaar maakt om van Tesla een voorbeeld te maken wat er gebeurd als je autonome systemen verkoopt die achteraf brokken lijken te maken.
En hoe zit het met de auto's van Google('s dochterbedrijf, lang geleden overgenomen)? Ik dacht die die over het algemeen voorop lopen qua autonoom rijden (maar minder risico's nemen dan Tesla en daardoor minder bekend zijn bij het grote publiek)?
Tesla heeft een heel andere insteek. FSD moet overal kunnen rijden, op een verlaten bosweg zonder wegmarkeringen tot en met een complexe rotonde of kruising of een parkeergarage. En door dat grootschalig "supervised" uit te rollen hebben ze al 3.000.000.000 kilometers met FSD ingeschakeld kunnen afleggen. FSD gaat pas voor een level 4 of 5 als het af is, ofwel veilig genoeg. De tussenliggende levels zijn niet zo interessant voor Tesla, het moet in te zetten zijn als een autonome taxi en dat is level 3 niet. Dat betekent niet dat wat Mercedes doet niet knap is maar zolang daar nog een voorligger nodig is en het buiten de autosnelwegen niet werkt, is het wel heel beperkt.
Tesla heeft niet eens lidar, enkel camera's. Dan lijkt me volledig veilig autonoom al onmogelijk.
Waarom kunnen jij en ik wel zelf rijden met enkel zicht? En zou een computer dit niet kunnen?
Menselijk inschattings & oplossings vermogen dat verder rijkt dan 'auto rijden':
- He dat is een rare beweging, misschien gaat die zo wat raars doen
- Dit is een grote tak, laat ik er even omheen rijden
- Verwachtingen van andere mensen inschatten (die doet raar).

Daarom kunnen/mogen mensen autorijden na 30 uur les. Omdat onze ervaring met 'wat andere mensen doen' al ingebakken is.
Dat menselijk inschatten is een kwestie van goede software.

De vraag is waarom camerasystemen niet voldoende input zouden kunnen leveren waardoor een lidar 'verplicht' zou zijn omdat zonder een zelfrijdend systeem 'onmogelijk' zou zijn.
Omdat ons zicht op een aantal punten veel beter is dan die van een camera zoals je op zulke auto’s aantreft. Je moet een hele sloot camera’s op een auto plakken om dat te evenaren.
Ik kom deze misvatting vaker tegen. Camera's, zelfs de goedkopere modellen, zijn beter dan onze ogen; laat me dat uitleggen:

De foto's die je maakt met je Nokia uit 2013 zijn niet van goede kwaliteit omdat de algoritmes die we gebruiken om een "mooie" foto te creëren, ruis moeten verminderen.

De camera's die in auto's worden gebruikt, hebben geen last van deze nabewerking. In feite, als je puur kijkt naar de input van elke lichtcel (van de miljoenen die een sensor bevat) en de fotonen telt, is het niet nodig om hoge ISO-waarden te gebruiken, zelfs niet in het donker.

Een exacte uitleg over de beperkingen van het oog:
YouTube: Elon Musk: SpaceX, Mars, Tesla Autopilot, Self-Driving, Robotics, an...

En hoe een camera sensor, zonder post processing extreem goed is om de omgeving waar te nemen:
YouTube: Elon Musk: SpaceX, Mars, Tesla Autopilot, Self-Driving, Robotics, an...

[Reactie gewijzigd door procyon op 15 oktober 2024 11:10]

Ik vergelijk camera's hier met ons zicht, niet met een oog. Je hoofd iets kantelen geeft al enorm veel extra diepte informatie bijv., wat weer zorgt dat je snelheden beter kan schatten. Daarom kom ik uit op dat je alleen kan compenseren met heel veel camera's en dat je dan beter lidar kan gebruiken.

Als een mens autorijd met maar 1 oog of een sterk verminderde mobiliteit van de nek gaat de kwaliteit als chauffeur ook flink onderuit.
Het klopt dat je iets meer diepte kunt zien door je hood te kantelen. Dat compenseert voor het feit dat je maar twee ogen hebt, die op één lijn zitten. Door je hoofd om die as te kantelen heb je geen derde oog in je voorhoofd nodig. Maar voor een auto is een derde camera simpel (en 10 ook nog)
En dan nog komt het niet in de buurt, een camerasysteem kan zien wat er voor hem/haar zit, niet meer, niet minder. Die kan (nog) niet door de ruiten van de voorligger zien of de remlichten van degene daarvoor al aangaan. Voor een mens is dat een teken gas los, autonoom rijdt de auto nog lekker door en reageert alleen op zijn directe voorligger.

Idem met matrixborden. Wij zien ze al een paar 100 meter van tevoren, de camera's op z'n best 50-60 meter.

De huidige techniek kan gewoon nog niet vooruitkijken zoals wij dat doen, laat staan reageren zoals wij dat doen. Als het wel zo was zou dit artikel deze introductie niet zo uitlichten.
Ik denk dat Musk die een groot voorstander van cameras is, niet geheel onpartijdig is in deze mening. Hij is daarnaast ook geen techneut laat staan gespecialiseerd in camera techniek.

De praktijk wijst echter uit dat fabrikanten met meer tech aan boord dan nieuwe Tesla's op dit moment meer kunnen dan Tesla.

En Musk mag dan wel een andere mening hebben maar totdat hij daadwerkelijk zijn tien jaar oude beloftes waarmaakt is dit allemaal nog te bezien. Ik zit niet in deze wereld maar ik vraag me zelf af hoe Tesla überhaupt nog kans maakt met tien jaar oude tech of nieuwe maar uitgeklede tech. Hij heeft op dit moment de twee slechtste opties voor zichzelf.

Wie weet laat hij de wereld meer zien, maar ikzelf na 10 jaar geloof het niet meer. Zeker niet na listig bedrog keer op keer om producten mooier te laten zien dan dat ze daadwerkelijk zijn. Gezien dat Tesla weer 10% ingezakt is en 50% lager dan de piek is zijn beleggers onderhand ook wel met Musk klaar.
Gezien dat Tesla weer 10% ingezakt is en 50% lager dan de piek is zijn beleggers onderhand ook wel met Musk klaar.
Ik zie dit argument wel vaker, een huidige staat tov een "all time high" benoemen als reden voor om klaar te zijn met Tesla ofzo...
Maar we kunnen hetzelfde doen voor anderen; ter info:
Tesla 407 vs 219 nu (-46%)
VW 245 vs 91 nu (-62%)
BMW 116 vs 74 nu (-36%)
Toyota 3872 vs 2555 nu (-34%)

Nu wat de bedrijven waard zijn :
Tesla 700 miljard
VW 51 miljard
BMW 51 miljard
Toyota 230 miljard

Zoals je ziet, zijn beleggers echt totaal niet "klaar" met Musk.
Sterker nog, de beleggers vinden Tesla meer waard dan alle andere bij elkaar.

Dont shoot the messenger, dit is wat het wereldwijde collectief aan beleggers vind.
Anoniem: 1981708 @n4m3l35517 oktober 2024 17:14
Wat maakt Musk geen techneut? Hij heeft het niet gestudeerd, maar ja, hij heeft ook geen IT of programmeren gestudeerd terwijl hij wel rijk is geworden met softwarebedrijven die veel geld waard werden (oa Paypal). Hij heeft wel een graad in business en meerdere in natuurkunde. Hij heeft zelfstudie gedaan in space engineering. Ik weet niet of dat telt. Hij is bijzonder slim en snel in zijn denken, kan hele schematische tekeningen in z'n hoofd uitwerken. Hij verwacht gedetailleerde uitleg van z'n technische medewerkers, die hij onthoudt en kan beoordelen of het klopt, wat consequenties zijn, wat er nog beter/goedkoper zou kunnen etc. Hij kan het daarna ook presenteren en verkopen aan het grote publiek. Hij weet praktisch alles ins en outs van die camera's wel, en hij moet wel, want dat is zijn keuze geweest. Waardoor hij inderdaad niet onpartijdig is, maar hij zal niet ten onder gaan door het koppig vast blijven houden aan niet-werkende methoden, zo slim is hij echt wel. Een redelijke homo universalis, die gast. Ik durf de stelling wel aan dat hij een betere techneut is dan heel veel mensen die techniek hebben gestudeerd :)

[Reactie gewijzigd door Anoniem: 1981708 op 17 oktober 2024 17:15]

Je kan het menselijk zicht niet isoleren tot een oog. Onze hersenen doen zoveel met de input van onze ogen. Dat evenaren met een computer die in een auto past... Dat zie ik nog niet zo snel gebeuren.
Ons zicht is echt niet beter, eerder veel slechter...
De informatieverwerking c.q. filtering echter wel en daar zit het grote verschil.
En menig Tesla is dan ook uitgerust met een redelijke sloot aan camera's :P

Ik deel wel degelijk je mening dat de camera's van een Tesla meer problemen hebben dan die van een mens (er hangt wel eens een druppel water aan 1 van de side camera's van mijn Model 3 en daar kan 'ie niks mee). :)
Maar dat is nog steeds geen reden dat een lidar 'verplicht' is om het goed te doen. Wij mensen doen het ook zonder lidar.

[Reactie gewijzigd door Richh op 15 oktober 2024 10:17]

Maar achter onze ogen zit een datacenter aan rekenkracht dat zijn weerga niet kent. Zit je daar met wat sensors in je tesla te hopen op fsd want wij doen het toch ook met ogen...
Ik denk dat je onderschat hoeveel rekenkracht er al heel lang in Tesla's zit.

De meeste auto's hebben een uitgebakken smartphone SoC die niet alleen verantwoordelijk is voor infotainment, maar ook voor het processen van wat camerabeelden. Tesla bouwt zeer serieuze neural network hardware in, al sinds 2019 op custom sillicon op het beste productieprocede en verbruiken ook relatief gezien serieus veel energie (vergelijkbaar met een desktop).

De Atom en Ryzen chips waar je misschien wel eens van hebt gehoord, zijn enkel voor infotainment.

Nee, dat is bij lange na geen hersenpan vol he, dat snap ik ook wel. Maar je hebt ook niet 100% van je brein nodig om een auto'tje te besturen.
Ik vermoed sterk dat je hier het menselijk brein onderschat :) en nog geen beetje ook. Gewoon de discrepantie tussen wat wij zien en ervaren en wat onze ogen fysiek kunnen is om het mild uit te drukken, belachelijk.

[Reactie gewijzigd door BlaDeKke op 15 oktober 2024 15:47]

Je kan als mens nooit altijd 360 graden rond je auto in de gaten houden, een camera slaapt nooit.
Een camera kan wel vuil worden, of laaghangende zon erin schijnen. Die ziet dan niks meer.
Dan zie je zelf ook niet veel meer.
Naja als er vuil of water in mijn ogen komt (wat al knap is tijdens de rit) veeg ik dat er wel uit hoor ;)
Een camera kan wel vuil worden, of laaghangende zon erin schijnen. Die ziet dan niks meer.
Dit effect bestaat ook op een menselijk oog en ook Lidar heeft hier last van om dat ze werken in het "near-infrared spectrum" dat de zon ook uitstraalt.

Nou zijn er speciale Lidars die een lichtfrequentie gebruiken die van nature minder voorkomt in het spectrum van de zon (+/- 1400nm) dus die kunnen hun eigen licht iets beter onderscheiden dan dat van de zon maar deze worden niet overal toegepast omdat ze erg duur zijn.

[Reactie gewijzigd door procyon op 15 oktober 2024 11:18]

Dat menselijk inschatten is een kwestie van goede software.
Precies. En die software bestaat nu nog niet. De huidige vormen van AI voldoen daar niet aan. Daarnaast moet een autonoom systeem aan bepaalde veiligheidseisen voldoen zoals wjvds hierboven zegt. Als je alleen vertrouwd op camera input dan gaat dat niet lukken. Er moet een extra systeem zijn ter controle. Dan kun je zeggen dat menselijke bestuurders dat ook niet hebben maar dat zijn nu eenmaal de regels.
Precies. En die software bestaat nu nog niet. De huidige vormen van AI voldoen daar niet aan.
Ik denk dat heel veel fabrikanten héél ver komen met AI en camerabeelden. Daarnaast gaat de ontwikkeling van rekenkracht van AI-chips en modellen kneiterhard.
Dat de software er nu nog niet is, dat ben ik met je eens. Maar ik denk wel dat dat gaat komen.
Daarnaast moet een autonoom systeem aan bepaalde veiligheidseisen voldoen zoals wjvds hierboven zegt.
Dat is een keuze die wij in Europa hebben gemaakt. Het is niet zo dat een systeem onmogelijk zou kunnen werken als daar niet aan voldaan wordt. Regels zijn maakbaar.
Ik weet niet of er goed onderzocht is hoeveel van onze verkeersdeelname intuitie/telepathie is. Het is geen 99% maar ook geen 0.00%. Jij en ik zien aan een ietwat wiebelige fietsers al iets aankomen. We zien een kind met bal en zijn al van het gas voor het kind de beweging richting de rijbaan maakt.
Een Tesla gaat de eerste jaren nog niet remmen als er een bal of kat overstak, die verwacht niet dat er iemand achteraan rent. Ik heb door de jaren gezien dat Tesla een giga probleem heeft met het aanpakken van oorzaken van falen. Na jaren vloog een Tesla nog steeds uit dezelfde bochten. Niets geen self learning. Nooit 1 schrijntje van gezien.
Na een dodelijk ongeval, Autopilot gefopt door wat lijnen op de snelweg...een paar dagen later maakte een andere Tesla nog dezelfde fout. Geen geofencing van de dodelijk gevaarlijk bewezen situatie, geen aanpassing/update voor die anomalie. Geen self learning. Als ze geen ene ruk om veiligheid en herstellen van fouten gaven, zouden we het verschil merken met nu? Er is iets fundamenteel mis met hun ontwikkelingscultuur. Falen hoort erbij en leidt niet tot herstel, lijkt het.
Jij en ik zien aan een ietwat wiebelige fietsers al iets aankomen. We zien een kind met bal en zijn al van het gas voor het kind de beweging richting de rijbaan maakt.
En dat snapt een zelfrijdende auto met flink wat self driving hardware inmiddels ook wel. Laat ik het even anders stellen: een auto met alleen camera's snapt dat net zo goed als een auto met camera's en een lidar.
Na jaren vloog een Tesla nog steeds uit dezelfde bochten. Niets geen self learning. Nooit 1 schrijntje van gezien.
De auto leert ook niet van zijn eigen momenten, het gaat om software updates van het self-driving model.
Verder is mijn Tesla op de snelweg nog nooit uit de bocht gevlogen hoor. Er rijden er tienduizenden rond in Nederland, tis niet zo dat ze massaal in de vangrail staan toch?
Na een dodelijk ongeval, Autopilot gefopt door wat lijnen op de snelweg...een paar dagen later maakte een andere Tesla nog dezelfde fout.
Dit is een verzinsel. Autopilot-doden zijn er natuurlijk wel degelijk, maar 2 op dezelfde plek? Ik zie graag bronnen ;)
Zoals ook in mijn reactie hieronder: Autopilot heeft geen begrip van de wereld, enkel een training op basis van visuele patronen en de gewenste handeling.

Begrip van de wereld lijkt te bestaan bij de LLM's, maar zelfs daar is het eigenlijk schijn, omdat hij soms duidelijke fouten maakt op basis waarvan je weer merkt: dit is een statische woordenvoorspeller zonder daadwerkelijk begrip.

Bij de auto zou dat wellicht ook kunnen, maar heb je met beeld te maken ipv woord en dat is een stuk complexer, en heb je minder trainingsdata voor. Bij ieder boek zie je een woord en het volgende woord, en er is niet echt goed/fout, alle verbanden zijn zoals ze zijn.
Dus jij als mens bent vervangbaar door goede software?
qua rijden wel, het systeem van Tesla is niet fouten vrij en nu al vele malen veiliger dan menselijk handelen
Dat mag je claimen als zo'n systeem zonder ingrepen meer schadevrije jarwn heeft opgebouwd dan ikzelf nu heb (hint: 25+ jaar)
dat claimen ze op basis van vele km's, geen idee hoeveel precies, maar tientallen als geen honderden keer zo veel als de km's die jij gereden hebt in die 25+ jaar.
Dat is wel leuk bedacht, maar dat zijn hele specifieke omstandigheden waarbij ze dat claimen, op basis van data die niet openbaar of verifieerbaar is. Als de autopilot aanstaat, dan heeft ie zoveel km's gereden zonder ingreep. Maar moet je ook even bedenken dat autopilot in alle situaties waarvan de bestuurder al weet dat het niet werkt uitstaat, ook even meetellen.

Autopilot kan echt mijn woon- werk rit nog niet doen, bij lange na niet. Ook niet in de VS. Zoveel fouten, zoveel ingrepen. Die vervolgens worden goedgepraat.

[Reactie gewijzigd door barbarbar op 15 oktober 2024 12:59]

uiteraard moet je oppassen met de data en beweringen van Tesla zelf (zeker als die niet openbaar is) en dat dat systeem nog geen volledige rit kan rijden ben ik met je eens. Door een woonerf rijden met een autonome auto kan zeker nog niet maar doorgaande 50 wegen (met gescheiden fiets paden), 80 wegen en sneller zeker wel. Ik ben laatst met mijn Niro van iets over de Franse grens naar huis gereden en heb op de snelwegen heel weinig zelf hoeven doen, enkel afslaan en inhalen maar de rest lekker ontspannen de auto laten rijden (je moet je hand aan het stuur houden en de auto controleert dat je je aandacht erbij houdt). En dat is enkel lane assist en adaptieve CC. Ik ben er van overtuigd dat dit soort systemen de toekomst hebben.
Autopilot niet. Maar het gaat om FSD. Dat is een ander product.
25 jaar rijden is waarschijnlijk nog steeds geen 25000 uur. Daar zitten moderne AI's vér boven.
Nou er zijn anders talloze voorbeelden te vinden waar het systeem van Tesla gewoon grondig de fout in ging met doden tot gevolg.
dat klopt ook, het systeem is nog niet perfect en dat weten we omdat elk ongeval met een Tesla in het nieuws komt waardoor het lijkt alsof dat systeem erg onveilig is. Maar je hoort niks over alle goede km's en over alle ongelukken die vermeden zijn door dit systeem. Tesla heeft de data vergeleken: het aantal km's dat gereden is met hun auto-pilot hebben ze vergeleken met andere auto's en dan gekeken naar hoeveel ongelukken er gebeuren over datzelfde aantal km's. En dan blijkt dit systeem, nu al, veel veiliger te zijn, er gebeuren veel minder ongelukken dan met volledig door een persoon gestuurde auto.
beweren is bewijzen, ik ken er enkelen, geen talloze.
Gaat dat om Autopilot of FSD? Dat zijn 2 verschillende producten op 2 verschillende software stacks.
Omdat camera's alleen lang niet altijd een volledig beeld geven en beelden bovendien niet altijd goed interpreteren. Daarom is de auto-pilot van Tesla slechts een rijhulp systeem en is de menselijke bestuurder altijd de eindverantwoordelijke.
Een zonnestraaltje wat verkeert in een lens valt of een druppeltje water kan het berekenen van afstanden al verpesten. Meestal duurt zo'n "storing" maar kort. Meestal heeft het geen gevolgen, maar soms is het missen (of nog erger, met verkeerde informatie) van een tiende van een seconde al te lang.

Het is overigens niet altijd de "schuld" van de Tesla. Soms zijn onverwachte acties van andere weggebruikers de aanleiding waardoor de Tesla uiteindelijk de mist in gaat. Net al lang niet alle ongelukken worden veroorzaakt door de betrokkenen. Ik heb ook wel eens weggezakt tot de assen in de middenberm gestaan omdat iemand zonder kijken een vrachtwagen wilde inhalen. Nu had ik nog mazzel, maar de volgende twee auto's zaten wel op elkaar. De veroorzaker reed vrolijk door.
Dat durf ik te betwijfelen. Ik denk dat zolang er nog menselijke bestuurders zijn, autonoom rijden nooit de standaard kan worden. Mensen zijn onberekenbaar. Onlangs nog in ons dorp bij een tankstation. Vrouw trapte het gas in, in plaats van af te remmen en reed zo het tankstation binnen. Dit soort onverwachte situaties zijn dingen waarmee zelfrijdende auto's (nog!) niet om kunnen gaan. Die verwachten niet altijd álle onverwachte dingen. Als er bij ons in de straat een bal op straat rolt, kan ik inschatten dat er zo een kind tussen de auto's vandaan komt om de bal op te rapen. Het is al een woonerf, ik rijd al stapvoets, maar zal toch nog voorzichtiger gaan rijden. Een autonoom rijdende auto zal dit wellicht anders inschatten (maar kan mogelijk wel sneller reageren). Zolang er mensen betrokken zijn in verkeerssituaties (auto, motor, brommer, fiets, voetganger, whatever), verwacht ik niet dat zelfrijdende auto's de standaard worden.
Het zou Tesla sieren dat ze die coast-to-coast rit, live en realtime, zonder onderbreking, zonder ingrepen eens gaan laten zien. Dan zou ik al wat meer overtuigd zijn.

Of als ze een kleine stad een dag afzetten voor normaal verkeer, dan alleen Tesla's laten rondrijden die typische ritjes doen die je normaal ook doet. Een kijken hoeveel er aan het einde van de dag zonder ongelukken over zijn.
Ja, ik denk dat dat grofweg het doel is van automatiseren in het algemeen?
Omdat jij (en het lijkt wel de meeste hier) een belangrijke component vergeten: rijden is niet alleen de beelden verkrijgen, maar ook snappen. En om die te snappen heb je een begrip van de wereld nodig. Op dit moment hebben LLM's wel een soort van begrip van de geschreven wereld, maar begrip van de visuele wereld is nog lang niet zo ver.

Dus de vooruitgang is geen lineaire curve. Die eerste 80%, het binnen de lijntjes blijven rijden, dat is relatief eenvoudig, al heb je (blijkt) ook daar al een neuraal netwerk voor nodig. Maar des te beter je wil kunnen rijden, des te meer je van de wereld moet snappen. Dingen die wij als mensen weten omdat we de wereld kennen.

Een stoplicht waar de kleuren omgedraaid zijn, wij kunnen dan verder door om ons heen te kijken, de mensen aan te kijken en te 'gebaren' om tot een oplossing te komen. Auto's alleen zouden het ook kunnen, maar dat is er niet. Dus ga je al mis.

Al is het een risico om specifieke voorbeelden te noemen, maar denk aan een zwenkende vrachtwagen, een appende bestelbus, een boot die richting een dichte brug gaat, een bellende voetganger die druk in gesprek is met een kindje ernaast, of iets simpels als een stuiterende bal. Wij snappen het visueel, de huidige software is vooral situaties en reacties aan elkaar koppelen en trainen, maar zonder echt begrip.

En dus gaat die eerste 80% makkelijk, 10% erna al iets zwaarder, 5% daarna verdraaid pittig en die 2% daarna al eigenlijk niet te doen.

Qua software op basis van beeld zijn we er nog lang niet op de wereld (niemand), dus heb je meer dan beeld nodig om het begrip van de wereld te kunnen verkijgen.

Het zou niet nodig moeten zijn als je software had die de wereld begreep, maar die bestaat simpelweg nog niet.

[Reactie gewijzigd door DealExtreme2 op 15 oktober 2024 10:51]

Ja, men lijkt hier best te vergeten hoe gek onze hersenen wel niet zijn. Er is geen datacenter in de wereld te vergelijken met wat 1 brein kan, en al helemaal niet als je efficiëntie meeneemt. Maar men heeft hier het idee dat we binnenkort fsd doen met wat cameraatjes rondom de auto. |:(
Dat menselijk inschatten is een kwestie van goede software.
Als jij iemand met zak patat vanuit de frituur haastig in zijn auto ziet stappen. Weet je dat die bestuurder haastig en mogelijk onvoorzichtig kan wegrijden.
Of je rijdt achter bestuurder die eerder aanstalte maakte om te stoppen/af te slaan. Dan voorzie jij dat die bijna op zijn bestemming of afslag is. Een brein is en blijft superieur op dat vlak aan elke artificiële computer. Je kan niet alle gedragingen in computermodellen gieten.
Ik denk dat juist dat veel van deze voorbeelden prima in een model gegoten kunnen worden, waarna je prima AI modellen kan trainen.

Verder zijn dit voorbeelden die veel verder gaan dan waar Mercedes in dit artikel mee bezig is.
Daarom kunnen/mogen mensen autorijden na 30 uur les. Omdat onze ervaring met 'wat andere mensen doen' al ingebakken is.
Ja, mensen leren sneller, maar uiteindelijk leert een AI beter. Waar het decennia van ontwikkeling heeft gekost voordat Google's DeepMind op topniveau kon schaken, kan een mens na slechts 30 minuten uitleg de basisprincipes van het schaakspel begrijpen en toepassen.

Het verschil is echter dat de schaakvaardigheden van DeepMind blijvend en oppermachtig zijn – geen enkele mens zal ooit dat niveau bereiken.

Hoewel ik schaken als voorbeeld gebruik, geldt dit ook voor complexe spellen zoals Go, Dota 2, en StarCraft – en binnenkort waarschijnlijk ook voor taken als autorijden.
"Blijvend"... voor schaken klopt dat allicht. Voor Go klopt het al niet meer. Er zijn zwakheden ontdekt in de beste algoritmes, en zelfs middelmatige menselijke spelers konden plots weer winnen. Ondertussen wordt weer gewerkt om die zwakheden er uit te krijgen, maar het is niet duidelijk hoe dat moet en onwaarschijnlijk dat het dan waterdicht zal zijn. Zie bijvoorbeeld https://www.nature.com/articles/d41586-024-02218-7 (sorry, paywalled) of https://arstechnica.com/a...st-these-simple-exploits/

Zo'n spellen waarin de volledige, kleine state van de gesloten wereld altijd zichtbaar is en met formele regels en discrete acties hebben overigens weinig te maken met autorijden, waar de precieze state van de wereld quasi oneindig gedetailleerd is, je perceptie daarvan beperkt is, en er zowat van alles kan gebeuren.
Voor Go klopt het al niet meer. Er zijn zwakheden ontdekt in de beste algoritmes, en zelfs middelmatige menselijke spelers konden plots weer winnen.
"Blijvend" betekent niet dat het statische model immuun is voor "out of the box" tactieken waar het nog geen ervaring mee heeft. Het verwijst eerder naar het feit dat de basis structureel sterker en beter is dan die van een mens.

Als deze A.I. zou blijven leren, zou deze "zwakte" binnen enkele leercycli verholpen zijn. Uiteraard gebeurt dit niet, omdat het kosten en middelen vereist, en het punt was al gemaakt: A.I. is dominant. Ze hadden de A.I. jarenlang miljarden potjes tegen zichzelf kunnen laten spelen om het niveau nog verder te verhogen, maar dat bleek niet nodig.
Zo'n spellen waarin de volledige, kleine state van de gesloten wereld altijd zichtbaar is en met formele regels en discrete acties hebben overigens weinig te maken met autorijden, waar de precieze state van de wereld quasi oneindig gedetailleerd is, je perceptie daarvan beperkt is, en er zowat van alles kan gebeuren.
Je benadrukt nu de eindeloze complexiteit als reden waarom een A.I. nooit in staat zou zijn om autorijden te perfectioneren. Dat is een valide punt, maar het betekent niet dat perfectionering het doel is. Mensen zijn immers ook niet perfect, verre van dat. Als de A.I. in staat zou zijn om honderd keer beter te rijden dan de mens, dan zou dat al een enorme verbetering zijn.
Die eerste zin is zo'n nonsense.

Eigenlijk leert een AI 1000e malen sneller maar is gewoon bar slecht in leren. En komt ook sneller een plafond tegen in zijn kennis opdoen dan een mens.

Goodharts law

[Reactie gewijzigd door BlaDeKke op 15 oktober 2024 15:43]

En dat is wat AI zal oplossen uiteraard. Indien je dit niet gelooft, bekijk dan even de AlphaGo docu van Google als voorbeeld. Dit gaat over een intuïtief spel. YouTube: AlphaGo - The Movie | Full award-winning documentary

Deze docu dateert al van 2017. AI leert exponentieel. Met dit gegeven moet je je eens inbeelden dat er een vloot van miljoenen auto’s beschikbaar is om situaties te leren kennen. Het is gewoon een kwestie van tijd dat auto’s dmv AI beter zullen rijden dan jij en ik, net zoals mensen er niet meer van kunnen winnen in bvb schaak of Go jaren terug.

En dat is positief voor de algemene veiligheid. Itt mensen zal AI nooit dronken rondrijden, nooit in slaap vallen, etc.
Ja je gaat automatisch langzamer rijden als je in de verte kinderen ziet spelen. Geen idee of je dat AI kan aanleren.
Dat doet m'n Tesla nu al op gewone autopilot. Rijden we langs voetgangers die dicht tegen de weg wandelen? Dan mindert hij snelheid.
En herkent hou Tesla ondertussen al motorrijders als voorligger? Bij gebrek aan dubbele achterlichten waardoor ze het object/afstand niet konden lezen.
Yep, mss was dit vroeger een probleem maar momenteel werkt het ongeveer even goed als de adaptive cruise van een Ioniq 5. Ik kan wel alleen maar spreken over de hw4 versie van Tesla's systeem.
Dat is veruit de simpelste implementatie van objectherkenning en ja dat doen verschillende zelfrijdsystemen al een paar jaar :)
Al jou argumenten zijn voor Autonoom rijden in het algemeen, dit geldt zowel voor lidar als camera.
We gebruiken natuurlijk veel meer dan enkel zicht. Temperatuur, geluid, weerbericht, gevoel van de auto, trillingen, krachten als versnellen en remmen, ervaring op de route, ervaring die niet direct met autorijden te maken heeft (zoals wat is platic zak, en wat is een enorme steen), diepte inzicht, wat is een tunnel, wat is een brug, wat is een schaduw, en een enorme rekencapaciteit geheel geoptimaliseerd voor de wereld om ons heen.

Allemaal dingen die je met een paar camera's en een cpu en gpu bij lange na niet hebt.
We gebruiken natuurlijk veel meer dan enkel zicht. Temperatuur, geluid, weerbericht, gevoel van de auto, trillingen, krachten als versnellen en remmen, ervaring op de route, ervaring die niet direct met autorijden te maken heeft (zoals wat is platic zak, en wat is een enorme steen), diepte inzicht, wat is een tunnel, wat is een brug, wat is een schaduw, en een enorme rekencapaciteit geheel geoptimaliseerd voor de wereld om ons heen.

Allemaal dingen die je met een paar camera's en een cpu en gpu bij lange na niet hebt.
Maar wel allemaal dingen die Tesla wel degelijk gebruikt. Temperatuur, geluid, weerbericht, trillingen, bandengrip etc daar zijn allemaal sensoren voor en worden ook externe databronnen voor aangesproken. Tesla rust de auto's al jaren uit met flink wat rekenkracht waarmee wel degelijk behoorlijk geavanceerde objectherkenning gedaan wordt (let wel: de visualisatie die je als gebruiker links op het scherm ziet, staat los van wat de drive computer doet!). Laten we wel wezen, een Raspberry Pi kan inmiddels al best redelijk objectherkenning doen. Er zit een gigantisch veel groter en sneller neuraal netwerk in een Tesla met HW3 (laat staan HW4) wat ook inmiddels extreem lang getraind is.

Zaken als diepte inzicht zijn door gebruik van meerdere camera's en bewegende beelden natuurlijk ook best te concluderen.

Kortom: er is geen echte reden waarom er een lidar gebruikt 'moet' worden.
Ghost braking.
Als de politie mij op de snelweg ziet remmen zonder reden, heb ik een boete te pakken.
Tesla doet het al jaaaaren en meer dan de concurrentie. Wat het ook is, ze hebben betere sensoren, computers, software, AI nodig. Ik heb nog NOOIT in 1 van 100en video's erover gezien dat een Tesla zelflerendheid vertoonde, niet een individuele auto, niet de ene van de andere lerend. Tussen updates gebeurt er NIETS. Als ik het gemist heb, leer ik graag.
Tesla bereikte zekere dingen voor veiligheid, maar lijkt extreem laconiek omtrent veiligheid, het meeste van de tijd. Ik kan hier uren over presenteren, zo veel data out there.
Ghost braking.
Dat doen ze al jaren niet meer. Meestal is het ook geen 'ghost', maar het lezen van een verkeersbord die eigenlijk bij een afrit hoort en prima logisch verklaarbaar.
Als ik het gemist heb, leer ik graag.
Zou zeggen, kijk eens op Youtube naar FSD video's van afgelopen week.
Is niet omdat het verklaarbaar is dat het ook verantwoordbaar is. Onnodig afremmen blijft onveilig en kan tot onnodige kop-staart aanrijding leiden.
Dat is natuurlijk correct, de hoofdvraag is echter of het nu nog steeds gebeurt.
Als je het over "ghost braking" hebt, heb je het ongetwijfeld over Autopilot. FSD daar komen wel op wekelijkse / maandelijkse basis nieuwe versies vanuit, waarbij V12 geheel herzien is. Dus er gebeurt zeker wel wat tussen updates. Maar FSD is niet beschikbaar in Nederland, dus hier zal je er nog niets van merken.
Anoniem: 718943 @Richh15 oktober 2024 11:41
Ik moet zeggen dat bepaalde omstamdigheden (mist, zware regenval, enz) ik er ook wel moeite mee heb. Ook gebeuren er dagelijks best veel ongelukken. Ik denk dat wat wij doen juist niet het uitgangspunt moet zijn.
Ik denk dat je ergens moet beginnen. Als je 'beter' kan zijn dan de gemiddelde mens, dan ben je als samenleving beter uit. Dit soort dingen kan je niet in 1x opleveren. Dat zal iteratief en gefaseerd moeten.
Omdat de huidige camera's totaal niet vergelijkbaar zijn met wat een mens kan.
Eens!!

Maar dan zou ik zeggen dat het probleem zit in de camera's, wat opgelost kan worden met andere camerasystemen. Dat hóéft niet per sé een lidar te zijn.
Op zich niet nee, maar het is natuurlijk gewoon een ordinaire bezuiniging voor Tesla om het eraf te laten. Waarom zou je puur het zicht van mensen gebruiken als je het systeem wilt verbeteren? Dezelfde fouten die mensen maken gaan niet altijd geaccepteerd worden en zal bij autonoom rijden eerder zorgen voor rechtzaken en complexe vraagstukken dan 'mens heeft foutje gemaakt'.
Op zich niet nee, maar het is natuurlijk gewoon een ordinaire bezuiniging voor Tesla om het eraf te laten. Waarom zou je puur het zicht van mensen gebruiken als je het systeem wilt verbeteren?
Tja, we willen allemaal een betaalbaar product toch? En we hebben het niet alleen over aanschaf, maar ook over reparaties. Lidars zitten immers altijd aan de buitenkant van een auto en zijn super duur om te vervangen. Volgens mij is het super logisch dat je streeft naar een systeem waarvoor ze niet nodig zijn. Het laatste wat we nodig hebben is kneiterharde wetgeving die voorschrijft wat voor sensorensysteem er aanwezig móét zijn. Je moet oordelen op de daadwerkelijke prestaties.
Dezelfde fouten die mensen maken gaan niet altijd geaccepteerd worden en zal bij autonoom rijden eerder zorgen voor rechtzaken en complexe vraagstukken dan 'mens heeft foutje gemaakt'.
Tijd dat we daar als samenleving wat anders over gaan denken.
We willen allemaal een betaalbaar product en het is in dit geval zeker niet hetzelfde, maar je Tesla's houding is soms wat 'excentriek'. Regensensoren zijn nog altijd een stuk beter dan het systeem wat Tesla gebruikt voor de ruitenwissers.
Tijd dat we daar als samenleving wat anders over gaan denken.
Daar ben ik het fundamenteel mee oneens.
maar je Tesla's houding is soms wat 'excentriek'. Regensensoren zijn nog altijd een stuk beter dan het systeem wat Tesla gebruikt
Helemaal met je eens hoor :)
Daar ben ik het fundamenteel mee oneens.
Dat kan natuurlijk, maar dát is de kern van de discussie en daar is politiek voor.
Een mens is met zijn hersenen veel flexibeler dan een computer die vage beelden moet analyseren. In de mist zijn voor ons twee vage rode stippen genoeg om te weten dat er een auto voor ons rijdt en dat we de snelheid daarop aan moeten passen. De witte lijnen of berm kunnen we ook nog zien als het contrast minimaal is. Grootste verschil is dat wij bij weinig zicht door zicht of zware regen weten dat we niets zien door de omstandigheden en vervolgens de snelheid daarop aanpassen. Een camera systeem, zoals dat van de Tesla, denkt vaker "ik zie niets, dus er is niets".
Ik rij in Nieuw Zeeland een oude Tesla en zeker bij zware regen raakt de autopilot compleet van slag van reflecties. Mist heb ik daar nog niet meegemaakt. Ik heb de Tesla pas afgelopen zomer overgenomen en ik ben alleen 's Zomers in Nieuw Zeeland.
Een mens is met zijn hersenen veel flexibeler dan een computer die vage beelden moet analyseren.
Neurale netwerken maken daar het verschil in. Een goed zelfrijdend systeem werkt niet met simpele if-statements.

Desondanks deel ik wel degelijk je mening dat camera's het niet goed doen in alle weersomstandigheden hoor :) maar: een lidar kan óók niet alles en is ook niet de heilige graal. Een Lidar kan geen strepen op de weg of verkeersborden herkennen. Ik verbaas me vooral over de grote hoeveelheid Tweakers die zeggen 'het kan niet WANT er mist een lidar'. Die conclusievorming is gewoon raar, daar reageer ik vooral op.
Een lidar is zeker geen heilige graal. Zeker bij mist gaat die net zo hard de mist in :) als een camera. Bij harde regen zal een lidar het wat beter doen dan een camera omdat de reflecties niet gezien worden, maar het "beeld" krijgt wel veel ruis door de regendruppels.
Radar gaat in al die gevallen beter, maar meerdere radar systemen dicht bij elkaar kunnen elkaar weer storen. Geluid is immers veel minder goed in smalle bundels te richten dan licht.
Voor zowel radar als lidar geld dat ze obstakels prima kunnen "zien". De exacte vorm detecteren is al wat moeilijker, maar de relatieve snelheid (die veel belangrijker is) is geen enkel probleem. Bij camera's heb je al twee beelden nodig om afstanden te bepalen, dus minimaal vier om snelheden te bepalen. Vier beelden analyseren en afstanden berekenen kost best veel computerkracht en een kleine verstoring in één van de beelden maakt al dat er gaten in de afstanden en snelheden matrix komen. Camera's zijn echter wel de enige sensoren die belijning en verkeersborden kunnen herkennen.

Een goed systeem moet dus camera's en radar of lidar hebben!

Bij Tesla hebben ze ervoor gekozen om alleen camera's te gebruiken. Dat maakt de auto-pilot helaas afhankelijk van weer- en weg-omstandigheden. Mercedes gebruikt de camera's voornamelijk voor herkenning van verkeersborden en belijning en detecteert objecten met een combinatie van lidar, radar en ultrasoon. Die combinatie is veel beter bestand tegen slechte weersomstandigheden.

Op de smalle, kronkelige wegen met slechte bermen (vaak gravel of dirt roads) of de lange "one lane bridges" die ik in Nieuw Zeeland regelmatig tegenkom moet je heel ver vooruit kijken om niet door tegenliggers verrast te worden. Bij gravelroads heb je eigenlijk ook je oren nodig. Dat soort situaties zie ik een zelfrijdende auto voorlopig nog niet doen. Hoeft wat mij betreft ook niet, want dat zijn juist de leukste wegen om zelf te rijden.
Even los van het lerend vermogen waar de meeste reacties hier op focussen. Als je met een Tesla rijd weet je dat de camera's en hulpsystemen altijd wel iets hebben. De zon staat te laag? Rijhulp systemen zijn uitgeschakeld. Het regent te hard? Rijhulp systemen niet beschikbaar. Het is droog maar de ruitenwissers staan aan, dus je zet ze uit? Autopilot niet beschikbaar als de automatische ruitenwisser is uitgeschakeld.

Nu begint het weer najaar te worden, dus worden de meldingen meer. Helemaal als je buiten het stedelijke gebied rijdt, waar je af en toe nog een spatje modder tegen de camera's krijgt. Ik kan me niet voorstellen dat FSD bij Tesla gaat werken zo lang ze alleen maar op zicht rijden. Ben benieuwd wat FSD doet als het bijvoorbeeld mistig wordt, want daar hebben we toch regelmatig mee te maken.
Dat zal, maar daar heeft een auto met lidar natuurlijk ook gewoon last van. Je hebt áltijd camera's nodig voor de belijning en verkeersborden. Dus moeten die camera's (en het schoonhouden ervan etc) verbeterd worden. Dat is de weg. Velen hier in de comments lijken de lidar als heilige graal te zien, daar ben ik het mee oneens.

Ja, de camera's moeten beter en ook beter om kunnen gaan met verschillende weerstomstandigheden. Maar dát is je focuspunt, niet per sé de lidars.

Ik rijd pas een paar maanden in een Tesla en ik heb nog bijzonder weinig last van die meldingen gehad, maargoed, dat gaan we meemaken.
Mijn vorige auto (BMW) had geen Lidar, maar wel andere sensoren voor adaptive cruise control. Ik heb een keer een noodingreep gehad in de mist en was blij dat de auto het "zag" nog voordat ik het kon zien.

Ik betwijfel ten zeerste dat mijn huidige auto (Tesla) een noodingreep had gedaan in dezelfde situatie. Want als het mistig is, ziet de auto evenveel als ik, wat dus te weinig was. Een Lidar of soortgelijke systemen hebben geen perfect beeld nodig om de weg te analyseren.

Lidar is geen heilige graal, natuurlijk niet. Maar juist de samenwerking van sensoren met camera's is dat wel. Waarom zouden we ons limiteren tot alleen maar camera's? Het hele argument van: "mensen hebben ook alleen maar ogen" is niet waar, wij hebben ook meer zintuigen en vormen met alles samen een beeld. Daarnaast nemen wij maatregelen om ervoor te zorgen dat het beeld goed blijft, door bijvoorbeeld een zonnebril op te zetten bij laag staande zon. De auto die alleen op camera's aanstuurt doet dat niet, dus wat doet een autonome auto bij slecht beeld?

Ik vind het bijzonder dat je nog weinig meldingen heb gehad in je Tesla over beperkt zicht op de camera's. Misschien woon/rij je veel in de stad?
Omdat wij op dit moment nog een stuk slimmer zijn dan Tesla's FSD. Maar zelfs al zou een Tesla even goed kunnen rijden als mensen, waarom zouden ze niet LiDAR camera's toevoegen als dat ervoor zou zorgen dat ze nog beter kunnen rijden? Ik vind het maar een vreemd argument van Elon/Tesla.
Omdat ze duur zijn. Zowel in aanschaf als reparatie. Want ze zullen op een kwetsbaar deel van de auto worden geplaatst.

Van mij mag het ook wel hoor :) Maar ik snap Musk wel. Uiteindelijk wil je zonder. En in theorie moet het ook zonder kunnen.
Ze hebben er al een paar mensen mee van hun motor gejenst in het donker omdat FSD dacht dat het een auto in de verte was. Dan is iets van lidar of radar toch nog wel handig ja.
Ja of gewoon op volle snelheid ingereden op een gekantelde vrachtwagen omdat de camera's het object niet herkenden. Lidar is gewoon essentieel. Maar goed Tesla meent ook nog steeds ruitenwissers enkel aan te kunnen sturen op basis van de camera ipv een regensensor van minder dan $5 te monteren. Na een jaar of 5 moet toch wel duidelijk zijn dat dat gewoon niet werkt en voor $5 je gewoon onveilige situaties creëert.

[Reactie gewijzigd door Zeekr001 op 15 oktober 2024 10:08]

Maar dat was geen FSD maar Autopilot. Autopilot is niet ontworpen om autonoom te rijden.
Was dat FSD of Autopilot? Lijkt me wel een belangrijk detail.
beide systemen zijn al betrokken geweest bij dodelijke ongelukken met motorrijders. Het is gewoon verrekte lastig op op basis van vision een onderscheid te maken tussen 2 achterlichten in de verte en 1 achterlicht dichtbij. Een 2e bron van informatie zoals lidar of radar is hierbij toch verrekte handig ter verificatie.
Ik denk dat dit een verhaal is waar onderhand toch wel mee kunnen stoppen. Tesla belooft al 10 jaar iets, maar hoewel het leuk klinkt hebben ze niets. Nog belangrijker, Tesla neemt ook geen verantwoordelijkheid in geval van ongelukken, ondanks dat nu bekend is dat er honderden ongelukken en enkele doden het gevolg zijn van Autopilot.

Maar zelfs Autopilot en dus niet FSD van Tesla werkt slecht. Ik had er twee en mijn chauffeur (ik woon in het buitenland) mocht van mij er niet meer mee rijden nadat de S en X beiden bijna een dodelijk ongeluk hadden veroorzaakt zonder menselijk ingreep. Als je online rondkijkt kom je zo heel veel verhalen tegen. Autopilot wat niets meer dan een slechte lane assist is ziet geen stilstaande objecten maar in ons geval nam ook geen truck naast ons waar.

Onderhand zie je dat talloze andere bedrijven Tesla ver voorbij steken. Als we Musk moeten geloven is Tesla op pad naar een betere oplossing maar als gebruiker van een auto vandaag wat boeit dat nou iemand? In de tussentijd zien we hier Mercedes met een EQS die net iets duurder is dan een S met FSD package maar die wel zoveel beter van binnen is en.. je kunt er daadwerkelijk mee rijden. Als jij op zoek bent naar nieuwe auto en je wilt deze techniek, ga je dan voor een leuke belofte die misschien over 10 jaar komt, of ga je voor een auto die nu al resultaten laat zien.
Over welk land en welk jaar hebben we het dan? Ik rijd hier toch echt fluitend rond met Autopilot en veel sneller ook dan de Mercedes.
Ik had 2 2019 modellen maar valt qua rij comfort echt niet te vergelijken met een e300 uit 2022. De Mercedes rijdt veel prettiger en nog belangrijker, probeert zich niet in een stilstaand object te boren. Dit is een wezenlijk verschil met Tesla waar inmiddels honderden ongelukken bekend zijn dankzij autopilot. Het mag dan ook duidelijk zijn dat andere merken veel veiliger zijn. Dat Tesla normaal geen problemen heeft is niet voldoende voor je eigen veiligheid.
Een bron zou dan wel fijn zijn. Vermoedelijk haal je dit onderzoek van de Amerikaanse NHTSA aan:
https://static.nhtsa.gov/...2/INCLA-EA22002-14498.pdf

De conclusie ligt wat genuanceerder dan wat je steevast schetst. De conclusie is namelijk dat de ongelukken veroorzaakt werden doordat bestuurders het systeem misbruikten. Daar kun je in dit document meer over vinden:
https://static.nhtsa.gov/odi/inv/2022/INCR-EA22002-14496.pdf
Daar staan wat interessante weetjes in, zoals bijvoorbeeld deze tabel waarin weergegeven is (in de gevallen waar men over voldoende data beschikte) welke tijd bestuurders hadden om te reageren op het gevaar:
Hazard Visible Time Bin Total Percent
≥ 10 sec 19 17%
5 – 10 sec 40 37%
2 – 5 sec 42 39%
< 2 sec 8 7%
Total 109 100%

Het gevolg hiervan is dat Tesla nu actief gebruikt maakt van de interieurcamera om te controleren of de bestuurder zijn aandacht bij de weg heeft. Staat notabene in dezelfde documenten, dus dat is de verantwoordelijkheid die Tesla heeft genomen. Daarnaast staat in de handleiding duidelijk hoe Autopilot gebruikt moet worden: https://www.tesla.com/own...9A-A57D-E7230BBEE94B.html
Basic Autopilot is een functie waarbij u uw handen moet gebruiken. Houd uw handen altijd aan het stuurwiel en let op de wegomstandigheden en andere weggebruikers om u heen (waaronder voetgangers en fietsers). Zorg ervoor dat u indien nodig onmiddellijk kunt ingrijpen. Als u deze instructies niet opvolgt, kan dat leiden schade en ernstig of zelfs dodelijk letsel.
Ondanks wat de naam wellicht suggereert (daar is ook genoeg discussie over), is Autopilot niet gemaakt om zonder toezicht te rijden (dat zou FSD uiteindelijk moeten worden). Dat moet je dan dus ook niet doen. Vergelijken met dit systeem van Mercedes neigt wel een beetje naar appels en peren. Nogal een verschil of je op een select stukje snelweg wat mag pionieren met een Mercedes met een aanschafwaarde waar de instapper begint vanaf (snelle zoekopdracht, ben niet zo thuis in autoprijzen) 118.000 + 6000 voor het Drive Pilot pakket maakt 124.000 euro. Dan kun je maximaal 95km/u tuffen op de rechterbaan van stukjes Duitse Autobahn, op voorwaarde dat je achter een vrachtwagen zit... Wel lekker comfortabel, dat geloof ik best. Autopilot zit op een Tesla die je voor nog minder dan 45k nieuw kunt aanschaffen. Kun je er zelfs twee voor in de prak rijden als je niet goed begrepen hebt hoe je Autopilot moet gebruiken. Gaat tot 140km/u en werkt op wegen waar ook maar een beetje een wegmarkering of duidelijke berm is. De 60km wegen in het buitengebied zijn nogal berucht, maar dat vond mijn vorige VAG wagen ook niet leuk. Spitstroken ook niet, maar idem met VAG. Drive Pilot gaat voorlopig nog helemaal niks doen in Nederland.

Ik vervloek Tesla regelmatig als mijn ruitenwissers met droog weer weer eens hun aanwezigheid kenbaar willen maken en vind het zonde dat dhr. Musk zoveel op social media zit. Maar het is een mooi stuk techniek waar Duitsers toch echt geen antwoord op hebben. Gekeken naar de FSD filmpjes die in Amerika gemaakt worden zit er echt wel vooruitgang in. Hier zijn de regels nu eenmaal wat strenger dus zal dat nog wel even duren.

[Reactie gewijzigd door -MD- op 15 oktober 2024 21:34]

Musk belooft elk jaar voor de afgelopen 10 jaar al dat het zou komen: YouTube: Elon Musk promising #Tesla robotaxis next year for almost a decade. ...

Of stiekem toch mensen te gebruiken bij een demonstratie van een product wat autonoom zou moeten zijn: https://www.business-stan...event-124101500066_1.html

Zonder lidar gaat het moeilijk worden voor Tesla. Herinner je het witte vrachtwagen incident nog?
Of stiekem toch mensen te gebruiken bij een demonstratie van een product wat autonoom zou moeten zijn: https://www.business-stan...event-124101500066_1.html
Tesla heeft nooit beweerd dat hun Bots volledig autonoom werken. Aangezien jij anders beweert, kun je aangeven wat je bron is?

Wat ze wel hebben getoond, is een use case van hoe het eindproduct uiteindelijk zal functioneren. De ontwikkeling is namelijk nog in volle gang.

Ter informatie: de eerste bot die werd gepresenteerd, was eigenlijk een persoon in een robotkostuum.
Het punt is dat Tesla (Musk) misleidend is en al meer dan 10 jaar valse beloftes maakt op AL hun producten.
Zeker, zo gaat het soms met nieuwe technologieën. FSD bestaat nog niet in de praktijk (het is dus echt iets bijzonders), en gaandeweg blijkt het enorm lastig te realiseren, wat leidt tot vertraging na vertraging.

Een vergelijkbaar voorbeeld om het duidelijker te maken: Toyota werkt al jaren, inmiddels zelfs decennia, aan solid-state batterijen (ook deze technologie bestaat eigenlijk nog niet voor auto's). Sinds 2014 roepen ze elk jaar dat hun superieure EV's met solid-state batterijen binnen twee jaar op de markt zullen zijn. Nu, tien jaar later, is er nog steeds geen EV van Toyota met deze technologie.

Hetzelfde geldt hier: iets aankondigen over een techniek die wereldwijd nog niet bestaat, betekent meestal dat er een lang ontwikkelingsproces met mogelijke vertragingen aan verbonden is.

Een ander voorbeeld van een technologie die nog steeds niet bestaat en al jarenlang vertraging kent, ondanks dat ze steeds dichter bij de oplossing komen, is kernfusie. De grap is nu dat het altijd "over tien jaar" klaar zal zijn. Ook dit project loopt al decennia tegen vertragingen aan en er is nog steeds geen werkend product.

Kortom, werken aan baanbrekende technologieën die nog niet op aarde bestaan, gaat vaak gepaard met aanzienlijke vertragingen. Het is niet zozeer een kwestie van opzettelijk misleiden, maar eerder van het complexe en langdurige karakter van zulke ontwikkelingen.
Sorry hoor, maar het feit dat Elon altijd veel te optimistisch is over de ontwikkeling van nieuw technieken is echt wel heel wat anders dan jou claim dat ze de wereld voor liegen over autonome robots. De demonstratie ging over de techniek, niet over AI. In meerdere filmpjes van het event zeggen de robots ook dat ze door een persoon bestuurd worden, het probleem is jou verwachting, niet dat Tesla liegt.
Tesla heeft anders zelf tegen meerdere mensen gezegd dat de robots niet door een mens werden bestuurd.. Ze waren er gewoon niet bepaald open over, ook niet tijdens de presentatie. Als de robots gewoon door mensen werden bestuurd is dat eigenlijk iets wat je van te voren hoort aan te geven. In plaats dat Tesla medewerkers het gewoon keihard ontkennen..

https://x.com/MKBHD/status/1844911588022829438
Ik heb meerdere videos gezien van het event van verscheidene youtubers en op geen een video wordt over AI gesproken. Op 2 videos zeggen de robots zelf dat ze bestuurd worden op afstand.
Precies. Tesla kan gewoon dezelfde procedure doorlopen als Mercedes hier doet. In Europa willen we gewoon zaken grondig testen en is (verkeers)veiligheid een heel groot goed. Dat tesla in de VS al zaken kan en mag, hoe knap ook, is toch een aanpak die ik hier in Europa niet graag zou zien.

Prima om zo verantwoorde stapjes te zetten naar autonoom rijden.
Tesla richt hun compute-resources waarschijnlijk tijdelijk uitsluitend op de Amerikaanse markt. FSD (Full Self-Driving) is nog steeds in de bètafase en er moet nog veel gebeuren voordat het volledig ontwikkeld is. Het lijkt dan ook logisch dat Tesla nu niet direct aan een Europese of andere internationale versie werkt.

Dit is eigenlijk gewoon gezond verstand.

Hoewel het systeem extreem veel rekenkracht vereist, leidt dat uiteindelijk tot een generieke oplossing die zichzelf overal kan redden door alleen gebruik te maken van visuele input, net zoals mensen dat doen zonder LIDAR.

De aanpak die Mercedes hanteert, kent echter veel beperkingen. Zo moet er voor elk gebied waar het systeem wordt gebruikt een high-definition kaart worden geladen, moet er altijd een voorligger zijn en moet je te allen tijde het stuur kunnen overnemen. Zoals het artikel suggereert: "Even iets anders doen, zit er dus niet bij bij anders syetemen, Dat laatste punt is het cruciale verschil met Drive Pilot. " Wat de suggestie wekt dat Drive Pilot je wel in staat stelt iets volkomen anders te doen, zoals bijvoorbeeld VRén...

Deze uitspraak klopt dus niet helemaal. Je kunt niet zomaar achterover leunen en iets anders doen zoals VRén, omdat je nog steeds moet opletten. De auto kan (en zal) immers op elk moment de controle weer aan jou overdragen. Bij Mercedes gebeurt dit namelijk wanneer (Zie hoe dat gaat in de talloze filmpjes op YT) :
  • Het weer verslechtert (regen, mist, schemering, sneeuw);
  • Er geen voorligger meer is;
  • De voorgeladen kaarten niet meer toerijkend zijn voor het gebied.
Deze kaarten zijn essentieel voor de activering van het systeem. Dit betekent dat Mercedes uiteindelijk het volledige wegennetwerk in een speciale "high-res" versie moet laden en continu moet bijwerken. Op de lange termijn is dit nauwelijks haalbaar.

[Reactie gewijzigd door procyon op 15 oktober 2024 08:26]

Mijn Volkswagen van 6 jaar geleden had een betere adaptieve cruisecontrol dan de huidige Tesla model Y. Veel beter zelfs. Laat Tesla dat eerst maar eens fiksen.
Mijn Passat van 6 jaar geleden anders niet. Die ging ook geregeld in de ankers om niets. En nog harder dan mijn Tesla. Die ging sowieso al in de ankers als iemand linksaf sloeg vanaf een uitvoegstrook op een 80/50 weg, want: gij zult niet rechts inhalen. Is de Tesla 100% foutvrij, nee, maar je merkt dat er wel meer intelligentie inzit en situationeel besef dan bij de VW die ik had (een nieuw model destijds).
Ik heb mijn Model Y weggedaan om zijn phantom braking, compleet onbruikbaar en ronduit gevaarlijk. Zo ging in eens op de Brienenoordbrug vol in de ankers, met een noodstop van degene achter mij tot gevolg. En dat was echt niet eenmalig. Ik durfde het systeem gewoon niet meer te gebruiken.
Ik had een vergelijkbare ervaring. Dit kwam doordat er op deze brug plotseling kruizen op de weg waren aangebracht. Dergelijke kruizen zie je normaal gesproken niet op een weg waar je 80 of 100 km/u rijdt. Hierdoor twijfelt de auto over wat te doen, wat kan leiden tot aarzeling of onverwacht gedrag. De auto analyseert de weg en de markeringen.

Impressie:
https://imgur.com/a/T6N9Z3R

Ik kan je trouwens melden, dit doet de auto inmiddels niet meer hier, lijkt dus opgelost.

[Reactie gewijzigd door procyon op 15 oktober 2024 11:58]

De overheiden certificeren de aanpak van de lokale autofabrikanten.
Volgens mij kip en ei. Tesla's oplossing vereist dat het systeem zelf leert. Voor het leren moet je mogen rondrijden.

Dat hebben ze de afgelopen jaren gedaan in Amerika en daarin grote stappen gezet.

Ze hebben nu aangegeven volgend jaar de Europese en Chinese toestemmingen aan te vragen.

Ben benieuwd!
Inderdaad een leuk artikel. Wat ik mis, en dat is wellicht ook omdat ik mij zelf nog niet in dat zelfrijden heb verdiept, is wat er gebeurt als je niet binnen die 10 seconden de controle overneemt. Domweg stoppen met autopilot na die 10 seconden lijkt mij niet veilig. Automatisch naar een vluchtstrook en dan stoppen is ook niet altijd een veilige oplossing.
Inderdaad een leuk artikel. Wat ik mis, en dat is wellicht ook omdat ik mij zelf nog niet in dat zelfrijden heb verdiept, is wat er gebeurt als je niet binnen die 10 seconden de controle overneemt. Domweg stoppen met autopilot na die 10 seconden lijkt mij niet veilig. Automatisch naar een vluchtstrook en dan stoppen is ook niet altijd een veilige oplossing.
Daar ben ik ook wel benieuwd naar. En wat doet het systeem als er geen vluchtstrook is? (misschien kan je het dan niet gebruiken, zou op zich logisch zijn)
Mensen die zeggen dat bijv. Tesla dit kan zijn óf gek in hun hoofd óf zijn gewoon flink bevooroordeeld (bijv. omdat ze zelf een Tesla hebben en tegen zichzelf liegen). Als je de filmpjes op het internet van Tesla's in ideale situaties ziet dan is Tesla echt nog heel lang niet zo ver, op de schaal van 'adaptive cruise control en lane assist' tot 'level 3 autonomisch rijden' zitten ze nog heel dicht bij die eerste en heel ver van het laatste.

En dat is helemaal prima, Tesla heeft hun rol als kickstarter goed vervuld. Helaas kan een tech-first bedrijf van een megalomaan het niet winnen van autofabrikanten die al 100 jaar aan het innoveren zijn. Het was vrij voorspelbaar dat een autofabrikant het in deze race zou winnen van een techbedrijf dat auto's maakt.

De dag dat ook Tesla in een Europees land op deze manier hun technologie in mag gaan zetten gaat ook nog wel komen, maar ik ben blij dat er hier regelgeving is die dat voorlopig nog even tegen gaat houden.
Of je wil het gewoon niet zien. Hier heb je een rit van 1u40 minuten FSD aan een stuk: https://x.com/kylaschwaberow/status/1841221913944998089
3u versneld: https://x.com/JohnChr08117285/status/1833301270267850827
Nog een keer 1u40:https://x.com/WholeMarsBlog/status/1829534832831185063

[Reactie gewijzigd door jip_86 op 15 oktober 2024 10:42]

Ik ben zelf geabonneerd op een handjevol YT-kanalen hierover die allemaal erg positief zijn, en er zitten zeker hele mooie voorbeelden bij van wanneer het perfect verloopt.
Het probleem is dat Tesla nog hele rare dingen gaat doen in onbekende situaties of wanneer er iets fout gaat, tot ze dat hebben geminimaliseerd gaan ze voorlopig nog niet de weg op kunnen zonder actieve bestuurder.
Tuurlijk kan Tesla dat al langer en natuurlijk is regelgeving reden Nr1 dat Tesla niet certified is.

De eerste Tesla die ik ooit reed kon effectief zelfstandig van baanvan switchen en afritten nemen. Nu zover jaren later moet je dat manueel initiëren. Elk jaar valt er wel een functie weg, alsof Tesla geen nieuwe updates meer doorvoert in autopilot terwijl de VS er bijna elke maand een nieuwe versie de baan op gaat die net weer wat beter is.

Tesla is nu volledig AI en ze itereren zeer snel. Die 2 elementen samen maken regelgeving zeer zwaar. Zeer zwaar omdat vision AI zonder algoritmes werkt en omdat je bij elke significante software update weer door dat proces moet.

Onderschat de lange arm van de Duitse automobielsector niet. Ze stonden achter met alles wat elektrisch en autonoom rijden te maken heeft. Ze zijn wat in snelheid gepakt. Het zou me niet verbazen dat Mercedes een autopilot heeft gemaakt die recht in de winkel van de wetgeving past = leunt op algoritmes, afgebakende zone, weinig significante updates, geen AI vision etc.
Ja maar de grote merken mercedes, bmw, jeep en vele anderen werken met idrive, imotive dat wordt ontworpen mede door Blackberry QNX alleen geven ze het een eigen naam. De software is nu bij versie 8 geintegreerd en blackberry is niet tevreden en wil meer veiligheid inbouwen. blackberry is al bezig sinds 2007 hiermee en nog steeds aan het fijn tunen. Zij geloven ( engineers) dat als het echt het beste is wel door iedereen gebruikt zal worden. In Hongerij hebben ze nu een samenwerking en daar rijden al autos zelfstandig rond op de snelweg. Het haalt zelfstandige een auto in en gaat weer netjes rechter rijstrook rijden etc. https://youtu.be/oTeUv5s2ZeM?si=SsPRXGeHQP_ftcEh
Op je telefoon zitten blijft verboden lijkt me.

Daarnaast: hoe zit dit juridisch? Wie is er aansprakelijk als je auto een ongeval veroorzaakt? Als die verantwoordelijkheid alsnog bij de bestuurder ligt maakt dat dit systeem praktisch onbruikbaar.
Ik moet bekennen dat ik het artikel nog niet gelezen heb, maar wel al eerder over gelezen.
Ik verwacht dat dit ook in dit artikel staat en dat jij het ook nog niet gelezen hebt? Wat ik ervan weet, is dat je legaal een film mag kijken of op je telefoon zitten en totaal niet de weg in de gaten hoeft te houden.

De enige voorwaarde is dat je binnen x seconden de controle kunt overnemen als het systeem het aangeeft
"En toch mag je met een Drive Pilot-auto wél met je telefoon of boek in de handen zitten, maar bij een 'reguliere' Mercedes niet. Dat vormt een uitdaging voor de politie. Zeker in het begin zal niet elke agent doorhebben dat je met je Handy mag rijden als je Drive Pilot aan hebt. Mercedes erkent dan ook dat de politie je nog steeds kan stoppen. Uiteindelijk zouden ze je geen boete mogen geven, maar mogelijk moet je dan wel uitleggen wat je aan het doen bent."
Uiteindelijk zouden ze je geen boete mogen geven
Je moet simpelweg de wet naleven, dus het is niet toegestaan. In Nederland werd de maximumsnelheid voor auto's verlaagd naar 100 km/u vanwege de stikstofuitstoot. Hoewel elektrische voertuigen geen (stikstof) uitstoot veroorzaken, geldt diezelfde snelheidslimiet toch ook voor hen.

De wet is de wet, ongeacht de reden erachter.
Volgens mij is dit gewoon wettelijk bepaald zo in Duitsland dat dit mag. Dus de wet is de wet, maar in Duitsland is die anders dan in Nederland en is dit geaccepteerd.

Ze zijn wel bezig om te zorgen dat de lampen van de auto een andere kleur hebben zodat de omgeving ook weet dat de bestuurder niet de aandacht op de weg hoeft te houden
Verhip, je hebt gelijk. Sorry ik las de eerste keer niet goed.

Heb het zelf niet gecheckt in het burgerlijk wetboek van Duitsland maar ik lees er nu inderdaad over in meerdere artikelen, je mag daar je telefoon in handen hebben wanneer drive pilot is geactiveerd. Vind dit nogal een vrijheid, ook omdat de auto ten alle tijde op de bestuurder moet kunnen terugvallen wanneer er niet meer aan de randvoorwaarden voldaan is voor drive-pilot om actief te blijven.
Dat zal niet in het Duitse Burgerlijk Wetboek staan, maar in de Straßenverkehrsordnung of het Strafgesetzbuch. Een burgerlijk wetboek (net zoals in Nederland) regelt de verhoudingen tussen burgers onderling. Het wetboek van Strafrecht/strafvordering (of andere regelingen, de wegenverkeerswet en soms via het bestuursrecht, etc.) regelen de handhaving van wetten en regels. Het gaat dan om de verhouding overheid/maatschappij vs. overtreder/verdachte.
Ja, een laptop op schoot wordt bijv niet aangeraden omdat dat tussen jou en het stuur in zit
En dat is het net niet. Doordat Mercedes toestemming heeft van de overheid mag een bestuurder van een Mercedes waar deze functie aanstaat gewoon op zien telefoon kijken.

En bij een ongeval met deze functie heeft Mercedes aangegeven dat zij de verantwoordelijkheid opnemen. Lijkt me ook niet meer dan normaal daar het hun systeem is dat dan in de fout gaat.
Uit het artikel blijkt niet dat Mercedes in Duitsland de verantwoordelijkheid overneemt. Dit hebben ze enkel uitgesproken voor de VS, en dan nog 'afhankelijk van het geval'.
Dat is het toch ook niet voor de andere passagiers?

In de letterlijke zin mag je natuurlijk gewoon op je telefoon zitten, het zit gewoon niet zo lekker.
Dat mag dus wel. En Mercedes is aansprakelijk.
Op je telefoon zitten blijft verboden lijkt me.
Nee dat mag gewoon.
Daarnaast: hoe zit dit juridisch? Wie is er aansprakelijk als je auto een ongeval veroorzaakt?
Mercedes.

Maar het systeem is ook vrij beperkt qua inzet. Hij gaat alleen op de rechter baan en je moet binnen 10 seconden over kunnen nemen (voor dingen als politieagenten die aan het handgebaren zijn oid.)
Je mag film kijken, dus je mag gewoon andere dingen doen dan je met het verkeer bezig houden. Je telefoon gebruiken in een niet-autonome auto is verboden omdat het afleidt, maar dat mag nu dus wel.
Tesla was heel vroeg met het claimen van zelfrijdende systemen. Nu lijken de Duitse autofabrikanten de achterstand toch snel in te halen. Er zijn nog enorm veel beperkingen, maar de gekozen aanpak, stapje voor stapje meer autonoom, lijkt wel effectiever dan de aanpak van Tesla. Hier zal ook weer te gelden wat vaak wordt gezegd in de IT-wereld: wat over een jaar mogelijk is wordt vaak overschat maar de ontwikkeling in 10 jaar tijd gaat verrassend snel.
Het ligt er aan in welk gebied je het vraagt. FDS is in Amerika bij Tesla al beschikbaar en is al een stuk uitgebreider dan Mercedes momenteel biedt. Ook met een max van 90kmh kent Tesla niet.

Daarintegen lopen ze in Europa flink achter. al zou Tesla het in Europa denk ik onder de zelfde condities kunnen als Mercedes. Gezien Mercedes het ook alleen maar op de snelweg en binnenwegen kan en alleen onder goede condities.
Laatst knalde ik bijna achterop een Tesla die ineens keihard ging ghost breaken (door slecht wegdek vermoed ik). Ik zou daar toch niet graag zonder handen aan het stuur zitten.

Dit systeem is natuurlijk ook niet autonoom omdat je achter een vrachtauto moet plakken, dus je bent volledig afhankelijk van de rijkunsten van de chauffeur voor je, die rijdt dan eigenlijk en niet jouw auto dus ik vind dit ook een beetje nep autonoom.

Verder moet je de infra in de VS niet vergelijken met hier. Daar heb je allemaal brede wegen, overzichtelijke kruispunten. Heel anders dan de smalle binnen steegjes in Europa waar je soms ook over de trambaan moet rijden om een obstakel te vermijden.


Nee er is nog een hele lange weg te gaan.
Verder moet je de infra in de VS niet vergelijken met hier. Daar heb je allemaal brede wegen, overzichtelijke kruispunten. Heel anders dan de smalle binnen steegjes in Europa waar je soms ook over de trambaan moet rijden om een obstakel te vermijden.
Zeker niet overal. Je hebt ook video's van FSD in de nauwe bochtige straten op de bergen tussen de huizen in California. Dat zijn echt hele smalle bochtige straatjes met geparkeerde auto's en tegenliggers, waar je ook echt moet wachten op elkaar. En dat doet FSD toch al echt heel erg netjes. Ik ken bestuurders die het veel slechter doen.
Laatst knalde ik bijna achterop een Tesla die ineens keihard ging ghost breaken (door slecht wegdek vermoed ik). Ik zou daar toch niet graag zonder handen aan het stuur zitten.
Dat mag je dan ook nog niet.
Je hebt ook video's van FSD in de nauwe bochtige straten op de bergen tussen de huizen in California. Dat zijn echt hele smalle bochtige straatjes met geparkeerde auto's en tegenliggers, waar je ook echt moet wachten op elkaar. En dat doet FSD toch al echt heel erg netjes.
Maar in een gemiddelde Nederlandse stad met fietsers en voetgangers die van alle kanten komen en te pas en te onpas oversteken zie ik het gewoon niet gebeuren.
Dat idee had ik ook. Tot je toch filmpjes ziet hoe een Tesla zich door een parkeergebied heen loodst met allerlei auto's die uit parkeer vakken uit schieten, en voetgangers die kriskras door elkaar heen lopen over het terrein.

Ik zeg niet dat het simpel is en het gaat echt nog wel een tijdje duren. Maar ik vond het al vele malen beter gaan dan ik ooit had gedacht tot hoever ze zouden komen. Ook menselijk gedrag als langzaam naar voren bewegen bij een zebrapad om dan uiteindelijk zichzelf er een keer doorheen te duwen. Dus niet daar maar gaan staan en denken, nou er komen continue voetgangers, dus ik ga hier staan totdat er zeker 2 minuten lang niemand aan lijkt te komen.
FSD is nog steeds supervised zover ik weet.
De rijder is dus nog steeds verantwoordelijk en moet ten alle tijden meekijken en ingrijpen itt de Mercedes.

Zolang een auto fabrikant niet de verzekering bij ongelukken op zich neemt kun je volgens mij sowieso niet echt over zelf rijdende auto’s hebben. Want wie gaat dat gebruiken als je zelf op moet draaien voor de ellende als het mis gaat (de kosten kunnen in hele slechte gevallen in de miljoenen lopen tenslotte)
Want wie gaat dat gebruiken als je zelf op moet draaien voor de ellende als het mis gaat (de kosten kunnen in hele slechte gevallen in de miljoenen lopen tenslotte)
Net als dat je zelf rijdt dus? Uiteraard moet je dan toch ook een verzekering nemen en liggen de kosten bij de gebruiker (in de vorm van een premie en soms eigen risico).

Zou ik helemaal geen issue mee hebben, als ze statistisch gezien minder botsingen (lees: schadekosten) maken dan mensen dan kan de premie mogelijk zelfs omlaag ten opzichte van een 'normale' auto...

Het maakt weinig uit waar de verantwoordelijkheid ligt natuurlijk, als het maar duidelijk is en verzekerbaar...

[Reactie gewijzigd door watercoolertje op 15 oktober 2024 10:38]

FSD is nog steeds NIET beschikbaar. Het is en blijft een beta, je bent en blijft als bestuurder zelf verantwoordelijk, mag je blik niet van de weg halen en moet klaar zitten om op elk moment in te grijpen, en dat ingrijpen gebeurt dan wel steeds minder, maar het gebeurt nog altijd. En dat maakt dat Mercedes hier toch echt voor loopt op Tesla.

Tesla zal het op snelwegen ongetwijfeld ook gewoon kunnen, het is en blijft een snelweg uiteindelijk. Alle verkeer gaat in dezelfde richting, je moet niet opletten voor iets dat van een kruispunt afkomt, geen voorrang verlenen, geen verkeerslichten tegenkomen, ... . Uiteraard is dit relatief eenvoudig. Maar het feit dat Mercedes toestemming krijgt om het uit te rollen als level 3 is wat het uniek maakt.
Het is geen beta meer, al een tijdje niet. Enkel nog supervised.
Enkel nog supervised.
Als je Full Self-Driving met supervising nodig hebt, heb je geen Full Self-Driving.
Als je Full Self-Driving met supervising nodig hebt, heb je geen Full Self-Driving.
Ja, de auto kan volledig zelfstandig rijden, van deur tot deur, zonder enige menselijke tussenkomst. Hij functioneert volledig op eigen kracht, zonder input van de bestuurder.

Dit wordt zelfrijdend genoemd.

Wat jij bedoelt is volledig autonoom. Dit verwijst naar auto's die zo goed rijden dat ze geen enkele vorm van toezicht meer vereisen en zelfs geen stuur meer hebben.
en dat ingrijpen gebeurt dan wel steeds minder, maar het gebeurt nog altijd. En dat maakt dat Mercedes hier toch echt voor loopt op Tesla.
DrivePilot raakt nog steeds regelmatig in paniek en geeft dan de controle terug aan de bestuurder. Het blijft daarom noodzakelijk dat je als bestuurder kunt en moet ingrijpen. Dit blijkt duidelijk uit de praktijk, zoals te zien is in deze video:
DrivePilot-voorbeeld.

Je moet dus continu alert blijven, want dit systeem is geen volledige autonomie. Als het echt volledig autonoom was, zou je gewoon kunnen ontspannen, een film kijken of VR-en, zoals je dat in een vliegtuig doet.

DrivePilot is in zijn huidige vorm eerder een "best effort"-systeem, waarbij je als bestuurder regelmatig moet ingrijpen, anders stopt de auto zelf langs de weg.
Het grote verschil is dat FSD iemand mag doodrijden en het gevolg word dan uitgevochten in de rechtzaal, daar doen we hier gelukkig niet aan.
Dit is absolute onzin. De Amerikaanse justitie heeft Tesla op geen enkel moment toestemming gegeven om mensen dood te rijden. Het presenteren van deze mening als feit is niets meer dan puur trollen.

Wat FSD momenteel is, betreft de FSD Beta die onder supervisie staat. Dit betekent dat jij als bestuurder je handen op het stuur moet houden en te allen tijde verantwoordelijk blijft.

Dit zegt Tesla exact:
De functies die momenteel beschikbaar zijn, vereisen actief toezicht van de bestuurder en maken de auto niet autonoom. Sommige functies vereisen het gebruik van de richtingaanwijzers of zijn beperkt in hun bereik. De activering en het gebruik van deze functies zijn afhankelijk van het bereiken van een betrouwbaarheid die menselijke bestuurders ruimschoots overtreft, wat blijkt uit de miljarden gereden kilometers, en de wettelijke goedkeuring die in sommige landen meer tijd kan vergen. Uw auto wordt voortdurend bijgewerkt door middel van draadloze software-updates die betrekking hebben op verbeteringen aan deze functies voor automatisch rijden. Lees de gebruikershandleiding voor meer informatie.
Het kenmerk Beta was toegevoegd om te benadrukken dat de auto nog altijd en permanente supervisie nodig heeft omdat het nog niet klaar is.

In Amerika heeft de NHTSA Telsa gedwongen de naam te veranderen omdat Beta voor velen te onduidelijk was. Nu er "superviced" in de naam is opgenomen, is dat duidelijker.

Uiteindelijk, wanneer het product goed genoeg wordt, zal het Beta en/of superviced komen te vervallen en zal het (eindelijk) echt FSD zijn.

Dat "beta" was komen te vervallen os door een aantal pro Tesla sites uitgelegd als een "big step", maar ik vermoed dat het gewoon wegens bovenstaande reden is.
Niemand weet het zeker overigens ;)
Mercedes kan letterlijk alleen een voorligger volgen, Tesla heeft nooit een voorligger nodig gehad. Tesla’s met FSD nemen autonoom zeer complexe beslissingen en sturen door druk verkeer heen. Mercedes heeft niets wat daar op lijkt.

Ik vind het erg ambitieus om te zeggen dat andere fabrikanten hard dichterbij komen. De enige die iets heeft wat serieus de strijd aan kan met FSD is MobilEye.
Ik heb toch wat meer vertrouwen in Mercedes dan een fabrikant die al jaren loopt te roeptoeteren dat ze van alles kunnen maar het bewijs steeds het tegendeel bewijst. Ze zijn daar niet vuil van de boel oplichten als ze denken er meer aan te kunnen verdienen. Met het cybercab hebben ze dat maar weer eens bewezen.

Nee, Tesla heeft nog een hoop goed te maken voordat ze ook maar een cent van mij krijgen!

[Reactie gewijzigd door JackJack op 15 oktober 2024 07:47]

Lees het artikel nog een keer
Het level3 systeem 'kan letterlijk alleen voorliggers volgen'.
Dat is wat anders dan de level2 hulp systemen. Met gewone cruise control en lane assist kun je ook met 200 alleen over de snelweg karren. Maar dan wel zonder boek ef mobieltje in je hand, net als in Tesla.

Ik blijf me er over verbazen hoe op een techsite als tweakers er zoveel onwetendheid ten aanzien van tech bestaat en men doorgaans appels met peren blijft vergelijken...
die vrachtwagen kan best tientallen meters weg zijn, mits hij maar niet harder gaat dan 95km/u.
Als ik zie welke capriolen vrachtwagens uithalen op de 25 km snelweg naar mijn werk en hoe gevaarlijk mijn medewerker weggebruikers soms rijden, dan lijkt mij dit een redelijk onbruikbaar systeem op de Nederlandse spitstijd snelweg.

Een gat van 10 tallen meter tot je voorganger word van links (of rechts) al snel ingevuld. Laatst een hele trein vrachtwagens op de middelste baan zelfs, zodat je niet eens fatsoenlijk een afslag kan nemen, zonder je tussen die vrachtwagens door te moeten wurmen.


Systemen van zowel Tesla als hier Mercedes zijn teveel afhankelijk van de rijstijl van anderen in drukkere situaties
Tja dat heet anticiperen. Maar men wil allemaal links rijden en dan last second oh ja ik moet eraf en dan ineens 3 banen opschuiven en iedereen moet aan de kant. Ik heb dat probleem dus echt nooit, 2 km voor de afslag rij ik al op de eerste rijbaan. Je wint er ook echt niks mee. Misschien 20 seconde.
even ter verduidelijking om je aanname te ontkrachten. Het gaat hier om een afslag waarbij eerst 2x2 banen bij elkaar komen om op te gaan in 3 rijbanen en de meest rechter baan de direct daarna de afslag wordt. Ik kom op de rechter rijbaan van de linker kant aan, daar waar de vrachtwagens massaal naar links moeten omdat ze rechtdoor willen.
Die vrachtwagens vormen regelmatig een dusdanig treintje dat je er domweg niet tussen kan komen.

Heeft niets met "allemaal links rijden en dan last second oh ja ik moet eraf " te maken. Het kán daar niet anders vanwege de ruimte op de weg.

Daarnaast: In Nederland mag een vrachtwagen op de autoweg maximaal 80 km/h. Maar omdat die maximumsnelheid in een aantal landen in Europa 90 km/h is, zijn de verplichte snelheidsbegrenzers volgens de Europese richtlijn afgesteld op 90 km/uur. Dat rijden ze dus ook massaal in NL, en vaak harder nog als ik mijn gps mag geloven. Gevolg, die dingen gaan zware trucks tergend langzaam inhalen, waardoor die treintjes dus gevormd worden en je als automobilist voor je eigen veiligheid "dus" maar links gaat rijden. Ik weet niet of je ooit een auto hebt gezien die geplet is tussen twee vrachtwagens bij een kop/staart botsing, daar wil je niet inzitten.

Ontopic: een FSD gaat het daar niet redden. Nu niet en over tien jaar ook niet.
5km/u onder limiet is fijner rijden vooral bij 100km/u omdat je dan minder of nauwelijk naar links moet omdat die voor je rond de net neit 100kmu of snelheid variatie hebben van 96 tot 102 km/u en meestal het gaspedaal vinden als wilt inhalen.
Op lange rit waar je zo copiloot je rij advies geeft om op max limiet te rijden is nogal stress vol. Toen die in slaap viel lekker 95 km/u rijden.

Dat was lang geleden nu heb andere auto met lidar en adaptive cruise controle met 4 afstand opties. Lane warning ,collision warning en max speed warning.

Zelf rijdend wordt stuk interessanter als je het zelf niet moet in de gaten houden. En dus iemand zonder rijbewijs als passagier de auto mag gebruiken. Zoals cityhopper die kid naar school brengt. Het voordeel is dat het dan uitsluitend een bekende korte route rijd en zeer lokaal.
Ik denk ook dat zelfrijdende auto in de gaten houden nog vermoeiender is dan zelf saaie autoweg rit rijden. En dus grote risico vind om dat beta testen als er iets mis gaat.
Een film kijken met een Level 3 systeem wat elke 10 minuten een ingreep nodig heeft? Dacht het niet..
Het zijn sowieso dure auto's, maar wat met verzekering? Kleine botsing kan al grote schade tot gevolg hebben met al die sensoren. En dan een dure lidar in de bumper? Niet dat een dikke mercedes voor de gemiddelde persoon te betalen is, maar wordt dit niet alleaal nóg duurder?

Waarom zet men trouwens in op personenauto's? Zijn vrachtwagens niet vele malen beter om deze technologie in te zetten? Veel saaie autosnelwegkilometers en lange dagen. Lagere snelheid, dus meer tijd om te reageren, meer mogelijkheden voor sensoren etc....en daar schiet iedereen wat mee op. Meer rustmogelijkheden voor chauffeurs, snellere transporttijden, lagere kosten, etc etc.

/edit
Geef mij maar zo een systeem in een camper(bus). De saaie kilometers naar je bestemming zou ik dolgraag willen overslaan.

[Reactie gewijzigd door siggy op 15 oktober 2024 07:58]

Jammer, ik lees veel onwetendheid tussen de reacties. Men vergeet misschien dat mercedes al jaaaren in deze techniek investeert zie ook filmpje van bijna 10 jaar terug YouTube: Mercedes Self Driving Car Recreates World's First Car Journey Merced...

De manier hoe ze het nu hebben geïmplementeerd lijkt erop dat ze voor super safe gaan wat prima is voor een eerste versie itt Tesla die vanaf dag 1 al riep dat het een auto pilot is

Wel ben ik het er mee eens dat de grootste beperking is het rijden achter een vrachtwagen waar ik twee problemen mee heb. Ik word super nerveus wanneer ik achter een vrachtwagen zit, uitzicht is dramatisch. En ws ga je dit niet kunnen gebruiken in het weekend, zeer weinig vrachtwagens op de duitse snelweg 😄
Ondanks iedereen vrij sceptisch is, vindt ik het wel een mooi systeem.

Lijkt erop dat ze overal aan hebben gedacht.
Daarbij is het gecertificeerd, delen redundant uitgevoerd.
Hebben ze nog een lange we te gaan, ja dat wel.

Maar het is een mooi stukje techniek.

Enige wat jammer is dat je voor je gevoel om de 5km wegwerkzaamheden hebt.
Dat teruggeven van controle wordt nog wel een ding vrees ik. Onderschat de menselijke stupiditeit niet. Nog even je insta-post afmaken, dat filmpje uitkijken of je biertje leegdrinken. Ik zie het al gebeuren. Ok, met deze prijsstelling dat dat eerst nog wel meevallen maar als dit gemeengoed gaat worden zie ik hier nog wel ongelukken mee gebeuren. Niet zo zeer door de Drive Pilot zelf maar bij overdracht aan de menselijke chauffeur.
Biertje leegdrinken :)

Op dit item kan niet meer gereageerd worden.