'Tesla-code bevat verwijzingen naar individuele crashtestorganisaties'

Een prominente Tesla-hacker beweert code gevonden te hebben in de software van Tesla's Autopilot-functie die crashtestorganisaties bij naam noemt. Het is nog onduidelijk of en zo ja, hoe de code een test van de zelfrijfunctie zou kunnen beïnvloeden.

Hacker Green beweert verwijzingen in Tesla's software te hebben gevonden naar meerdere crashtestorganisaties, waaronder het Ancap, Ivista, Euro Ncap en Korea Ncap. In dezelfde tweet schrijft Green dat testinstanties een 'one-off'-voertuig krijgen met code die specifiek verwijst naar de betreffende organisatie. De bron kan niet precies zeggen wat de code doet; het is alleen duidelijk dat het om code gaat met betrekking tot de zelfrijdende functie van Tesla, wat niets met daadwerkelijke crashtests te maken zou hebben.

Dergelijke instanties testen daarentegen niet alleen wat er met een voertuig gebeurt tijdens een crash, maar ook hoe zelfrijfuncties functioneren. Aangezien het volgens de bron om 'onzichtbare instellingen van de Autopilot' gaat, zou het beïnvloeden van testresultaten kunnen verklaren waarom de code gelabeld is op basis van keuringsinstanties. Tot dusver is er daarentegen geen concrete aanleiding dat Tesla inderdaad testresultaten beïnvloedt. Er wordt bijvoorbeeld ook gespeculeerd dat de code dient als analysetool voor Tesla zelf, al verklaart dat nog niet waarom de testinstanties daarbij genoemd worden.

Een vertegenwoordiger van de Australische crashtestinstantie Ancap zegt tegenover Drive dat er een onderzoek naar de situatie loopt. Tesla zelf heeft nog niet op vragen van Tweakers gereageerd. Het merk kreeg vorige week nog vijf sterren van het Euro Ncap als veiligheidsbeoordeling van de Model Y.

Tesla crashtest Euro Ncap
Tesla-code van de Autopilot-functie verwees onder meer naar Euro Ncap, een Europese crashtestorganisatie. Afbeelding crashtest Model Y via Euro Ncap

Door Yannick Spinner

Redacteur

14-09-2022 • 17:56

153

Submitter: laserfreak

Reacties (153)

Sorteer op:

Weergave:

Zou het kunnen dat verschillende features uitgeschakeld moeten worden, zodat crash tests uberhaupt mogelijk zijn? Denk aan ontwijk manoeuvres, automatisch remmen en andere bots preventie features?
Bij mijn weten worden nog altijd de wagens en voorwerpen met een kabel voort getrokken...
Maar wat als de auto het omstakel alsnog automatisch gaat ontwijken? De vraag is of Tesla wel zomaar alles kan uitzetten, aangezien er een aantal systemen wel degelijk aan moeteb blijven, zoals airbags en gordelspanners, automatische afkoppeling van de accu.
De motor staat uit tijdens het trekken.

Je zou het zelfs anders kunnen doen: de auto laten stilstaan en er een blok staal aan een kabel tegen gooien ;-) Maar dat leg je moeilijker uit aan mensen.
Je zou het zelfs anders kunnen doen: de auto laten stilstaan en er een blok staal aan een kabel tegen gooien ;-) Maar dat leg je moeilijker uit aan mensen.
Tuurlijk niet. Dan zouden systemen als de autogordel niet gecheckt kunnen worden omdat de crash test dummies geen beweging naar voren hebben.
Oké, voor de gordel is die beweging inderdaad nodig, maar anderzijds: een crash kan ook gebeuren door een ander voertuig dat op jou inrijdt terwijl je voor het rood licht staat.
Ja wel. Beweging is relatief!
De traagheid van de pop zorgt dat deze naar "voren" gaat, als de auto naar achteren wordt gebeukt.

Je zou kunnen zeggen dat de wielen niet draaien, en de stukken rubber niet rond geslingerd worden.
Of misschien delen van de aandrijving??
Er valt niets te ontwijken, de auto staat uit, in zijn vrij en zit aan een kabel die hem voorttrekt.
Niet wanneer veiligheidssystemen worden getest, er zijn genoeg voorbeelden te bedenken waarbij de auto aan moet staan om de test te doorlopen. Het lijkt mij onwaarshijnlijk dat alle veiligheidsfuncties naar behoren werken als de auto uit staat. Sure, de wettelijk vereiste zaken zoals airbags etc zullen vast ook werken als de auto niet aan staat, maar voor dingen als wellicht gordelspanners, actieve vering en andere zaken die verschillende sensoren, camera's en AI gebruiken om actie te ondernemen voordat je botst zullen enkel werken als de auto daadwerkelijk aan staat en weet dat deze rijdt.
We zijn erg goed in het verzinnen waarom Tesla dit doet. Maar heel veel nieuwe auto's remmen vanzelf, wijken uit.. En die doen dat allemaal niet.
Airbags gaan ook af als de auto uit staat en niet op slot.
Ze knallen de auto gewoon op die muur en kijken wat er breekt.

Uitwijktesten werken anders.
Dus, Tesla is gewoon weer aan het rommelen. Het toont weer eens aan dat het geen autofabrikant is.
Dat is erg kort door de bocht en je conclusie is nergens op gebaseerd. Juist omdat auto's vanzelf remmen en uitwijken moet je deze dingen uit kunnen schakelen bij een crashtest, maar gordelspanners of automatische stoel afstellingen die werken op basis van camera's en sensoren werken niet als je auto niet aan staat. Het doel van de test is kijken hoe de inzittenden er vanaf komen bij een crash, als je de helft van de extra veiligheidsfuncties niet gebruikt omdat je de auto uit zet dan heeft het weinig zin toch?
Hangs er vanaf. Je hebt alle veiligheidssystemen die ervoor zorgen dat de kans tot ongeval of de ernstigheid verminderd wordt. Maar je moet bij een crash er vanuit gaat van het ergste.

En dat zijn de dingen die werken na volle impact. Die bepalen de veiligheid van de wagen.
Airbags en gordelspanners werken redelijk simpel en altijd, volledig gescheiden van andere systemen.

Dus alles uitschakelen, en dan het volle pond erop, want de electronica om ongevallen te vermijden kan altijd falen...
Duidelijk dat sommige mensen niet hebben gelezen waar het nou precies over gaat.
het is alleen duidelijk dat het om code gaat met betrekking tot de zelfrijdende functie van Tesla, wat niets met daadwerkelijke crashtests te maken zou hebben.
Dus heeft niets met de crashtest zelf te maken en snap dan ook niet waarom u en @Kansloze zaak doen alsof dit wel het geval is.

En @HKS-Skyline waarom verdedigd u Tesla alsof ze wel systemen gebruiken tijdens de crash tests?
Het heeft dus geen invloed wat hier is ontdekt voor zover bekend...
Uit het artikel:
het is alleen duidelijk dat het om code gaat met betrekking tot de zelfrijdende functie van Tesla, wat niets met daadwerkelijke crashtests te maken zou hebben.
Een deel van de NCAP testen gaan bijvoorbeeld wel over het functioneren van zaken als automatisch remmen waarbij de auto voor een overstekende pop moet remmen. Verder zijn er nu ook testen om "assisted driving" systemen te testen op hun doeltreffendheid. Het gaat dus veel verder dan enkel de traditionele crashtesten waarbij de auto door een kabel getrokken wordt.

Van de Euro NCAP website:
Euro NCAP’s 2020 campaign extends the work done in 2018 on assisted driving (AD) systems and introduces a more structured scoring and grading system. In 2018, vehicles offering ‘Highway Assist’ systems were studied i.e. those which, in some circumstances, offered the driver assistance, specifically in regard to longitudinal control (speed, safe distance to the car in front) and lateral control (keeping the vehicle in lane etc). The tests which Euro NCAP used then were largely based on its protocols for autonomous emergency braking (AEB) systems and looked at the vehicles’ intervention in certain critical circumstances, when the assisted driving system was in control. Additional day-to-day scenarios were added, such as cut-in and cut-out, and these proved extremely challenging to all of the vehicles assessed.
En ook nog een link naar Euro NCAP Assisted Driving test and assessment protocol wat omschrijft hoe men de systemen test en scoort.

[Reactie gewijzigd door Admiral Freebee op 23 juli 2024 04:20]

Wat ik nog steeds bizar vind is dat Tesla met fietsers perfect scoort in de tests, maar als ik op een rotonde rijd en ik sla af, dan remt mijn Tesla nooit voor die fietsers.

Ik werk in een studentenstad en het scheelde al meerdere keren, letterlijk een haartje.
Wat ik bizar vind is dat mensen nu al compleet op de auto gaan vertrouwen ipv zelf het verkeer in de gaten te houden en daarop te anticiperen.
Door de lage neus is de passieve veiligheid voor fietsers goed, maar wat jij bedoelt is de actieve veiligheid en ik weet niet of daar op getest wordt. Noodrem op fietsers is enorm lastig, zoals je zelf ook ervaart. Ze kruipen overal tussen, zijn veel sneller dan voetgangers en stoppen soms erg laat ok voorrang af te dwingen. Als het veiligheidssysteem daarop gaat reageren kom je niet meer aan rijden toe.

Zelf vind ik het al vervelend als mijn auto vol in rem ga omdat ik voor zijn gevoel te hard (achteruit) het parkeervak in ga waar bosjes achter staan.

[Reactie gewijzigd door Deveon op 23 juli 2024 04:20]

De TU Delft had een paar jaar geleden een Duitse promovendus, die toevallig ook naar dat onderwerp keek. Het probleem is niet "fietsers". Het probleem is echt "Nederlandse fietsers". Die rijden in vergelijking met andere landen inderdaad significant onveiliger.

Dat komt inderdaad voor een groot deel door onze infrastructuur. Wij scheiden verkeer, fietsers hebben vaak aparte stroken. Dan zie je dus dat de conflicten onstaan op de paar plekken waar er geen scheiding is - zoals rotondes.
Wat ik bizar vind is het feit dat het een paar keer maar een haarje scheelde.

Tesla heeft nog altijd geen FSD voor de gebruikers dus is de bestuurder nog altijd 100% verantwoordelijk voor alles dat gebeurt.
Alle camera’s e.d. worden door de testorganisatie afgeplakt. Op die manier kunnen de systemen niet (pro/actief) reageren op een crash.

Bij ADAS-tests (dus niet een crash test, maar een hindernis test) worden die camera’s ed natuurlijk wél gebruikt.
Kan het niet gewoon zijn dat deze instanties Tesla zelf verzoeken bepaalde features uit te schakelen voor bepaalde crashtest situaties?
Dan zou Ancap nu geen onderzoek instelllen, maar dat gewoon aangeven lijkt mij.
switch(testOrganization) {
case NCAP:
disableSomethingForNCAP();
break;
case IVISTA:
disableSomethingForIvista();
break;
case ANCAP:
// do nothing
}
Zo heb je wel een "verwijzing" in je code, maar er gebeurt niks geks. Aan de andere kant kan het ook zoiets zijn als Dieselgate waarbij er wel gesjoemeld wordt. Je weet het niet. Daar is het onderzoek voor - om te kijken of er iets aan de hand is.
idd, wat ik mij kan voorstellen is dat het juist extra debug loging aan zet en dat direct doorstuurt naar Tesla voor analyse doeleinde of dat als het 112 gaat bellen aangeeft dat het om een test voertuig gaat met een contact persoon van de organizatie zodat er sneller gereageerd kan worden.

Maar we gaan er de komende week wel weer meer van horen en als het dan blijkbaar niks bijzonders was komt er geen rectificatie want dat is niet sexy om te melden.
Rectificatie waarvan?!
Wat heeft een test dan voor toegevoegde waarde? Resultaat X op de testbank, kan dan nooit in de praktijk voorkomen omdat setting Y dan ineens anders is.

Doet me denken aan Dieselgate...
Dat is EXACT wat ik in de praktijk met mijn Tesla merk.
Op een rechte weg wordt in gewaarschuwd voor fietsers. Werkt het allemaal prima.

Maar rotondes, je kunt het vergeten met een Tesla. Hij grijpt niet in bij fietsers.

In de afgelopen jaren meerdere keren meegemaakt dat het letterlijk een haar scheelde en de auto niet eens piepte.

Mijn vorige Volvo met City Safety greep wél in. Terwijl deze in de tests slechter scoort dan de Tesla.
Hoe rijd jij man :') in drie jaar tesla rijden uberhaupt nog nooit een waarschuwing gehad voor fietsers
In een studentenstad met veel rotondes komt dat echt regelmatig voor.

Fietser die door zijn en mijn snelheid achter mijn A stijl verborgen blijft komt ook nog wel af en toe voor.
Zo ver wil ik ook niet gaan, op een rechte weg en een fietser voor je, werkt het prima.

Maar rotondes en dan afslaan met een kruisend fietspad. Ik heb een keer écht bijna op mijn motorkap gehad. Auto piepte niet eens.

Bij tesla is het eerst piepen, daarna ingrijpen waar nodig.
snap het, elk auto reageert net anders bij een niet haakse oversteek en testen worden haaks getest of op een open veld met genoeg zicht. systeem blijft het limiterende factor
Een test hoeft niet het hele voertuig te testen. Kan ook een test zijn op specifieke eigenschappen.

Een auto-brake functie moet gewoon uitgeschakeld worden alvorens er een crashtest gedaan wordt. Het mechanische deel wordt los getest. Hetzelfde kan ook van toepassing zijn op andere functies.
Bv. automatisch 112 bellen. Zou vervelend zijn als bij elke crashtest de brandweer vanzelf langskomt.
Nou ik hoop eigenlijk wel dat deze instantie dat soort systemen ook in de praktijk testen. De meldkamer zal op basis van de locatie en melding vooraf kunnen weten dat het een test is.
Dat is natuurlijk ook wel een idee ja... Hmm ik denk dat ik mijn commentaar maar terugneem :)

Het automatisch remmen wat boven gemeld werd blijft natuurlijk wel als punt.
Tesla houdt automatisch statistieken bij van ongelukken. Alle auto's delen die data weer terug met Tesla en het bedrijf rapporteert ook over de aantallen ongelukken met/zonder Autopilot.

Ik kan me dus voorstellen dat Tesla wil voorkomen dat die data vervuild raakt als ze een aantal auto's naar de test instantie sturen.

Misschien willen ze ook wel de data die ze van NCAP oid krijgen vergelijken met de data die ze zelf uit de auto kunnen halen.

Ik zie niet zo goed in hoe Tesla de tests zou kunnen beïnvloeden. Tijdens de crash tests valt er niets te doen.

En als ze dan een superieure werking van noodremsystemen activeren voor de test, waarom doen ze dat dan niet in het normale verkeer?

Ik ben dus niet direct achterdochtig hier.
Dat zou kunnen, maar er zijn nog een heleboel andere plausibele verklaringen te bedenken. Een deel van die mogelijke verklaringen is volstrekt legitiem, een ander deel bedenkelijk. Zolang er niets meer bekend is dan wat in het artikel staat, kunnen we alleen op basis van een glazen bol de waarheid voorspellen.
Een vertegenwoordiger van de Australische crashtestinstantie Ancap zegt dat er een onderzoek naar de situatie loopt.
Lijkt me niet dat ze dan een onderzoek hadden opgestart.
Precies, of een eigen api wensen om gegevens uit te lezen over hoe de auto de test heeft 'ervaren'.
Het kan ook dat afhankelijk van de instantie bepaalde specifieke crashes worden ingezet waar bepaalde niet uit te zetten beveiligingen uitgezet moeten worden om niet de test van bijv chassis sterkte te beïnvloeden dit zou een algemene software selectie kunnen zijn. En/of dat er functies aan moeten blijven en uit moeten naar de eisen van de crash parameters opgelegd door de test instantie.
De auto's worden tijdens een crash-test voortgetrokken door een kabel en de motor staat uit.
Waarom zouden andere "rij" zaken moeten aanstaan?
Maar de auto staat dus niet uit. Een Tesla moet in 'Tow mode' gezet worden, anders krijg je er uberhaupt geen beweging in zodra je uitstap, de motoren genereren zelfs stroom:
The motor(s) in Model 3 generates power when the wheels spin. Always transport Model 3 with all four tires off the ground.
Aldus de handleiding.
Dat klopt. De wagen moet zelf rijden (powered propulsion) anders staan de veiligheidssystemen helemaal niet eens aan. Een moderne auto met dit soort features zoals een Tesla, die passief getrokken wordt, doet dan helemaal niets.
Bovendien gaat het hele verhaal niet eens over fysieke crashtests maar over de veiligheidssystemen (zoals lane-keeping, emergency-braking etc.).

Het hele verhaal met die specifieke instanties is denk ik eerder een identificatie van markten en verschillende wetgeving in die verschillende markten. Autopilot in de USA wijkt af van de EU versie bv.

Ik ruik iemand die dit verhaal de wereld in slingert voor sensatie. Het wordt waarschijnlijk, as usual, lekker uit context getrokken voor een vette story.
En hoe denk je dat foutparkeerders weggesleept gaan worden?
Misschien precies dat wel, dat er systemen softwarematig uitgezet moeten worden op zo'n manier dat je die functies ook weer aan kan zetten als je de (crash)test niet doet. Dan zijn die functies het bewijs dat de software niet anders is dan bij productie modellen.
En dat zou ook verklaren waarom je de namen van instanties in de firmware images/updates tegenkomt. Veel meer lijkt de claim van de hacker voorlopig niet te zijn....

[Reactie gewijzigd door biomass op 23 juli 2024 04:20]

het is alleen duidelijk dat het om code gaat met betrekking tot de zelfrijdende functie van Tesla, wat niets met daadwerkelijke crashtests te maken zou hebben.
Bizar hoeveel mensen over crashtests blijven discuseren terwijl dit er toch echt duidelijk in staat....
Zowat alles wat met software wordt gestuurd herkent testscenario's, of het nu auto's, TV's of videokaarten zijn.Enkel de invloed van de aanpassingen tov real-life scenario's is van belang.

Als een crashdummy beter herkend wordt dan een voetganger en de impact daardoor kleiner is, dan kan je van onwenselijke aanpassingen spreken, want dan geeft deze mogelijks een rooskleuriger resultaat als het om gevaar voor voetgangers gaat.
Als de AI niet mag ingrijpen omdat het specifiek om een kreukelzone-test gaat, dan is het logisch dat er dan een override is om het resultaat juist gelijk te houden.
Inderdaad. En hoe ga je een crashtest doen als self-driving alle crashes voorkomt haha
Met een andere auto dus er vol op inrijden ...
daar hebben ze toestellen voor, maar dat is een ander soort impact dan dat de wagen hem zelf veroorzaakt. Als je wagen 2 ton weegt en frontaal op een stilstaande tegenligger van 1 ton knalt, dan is de impact onafhankelijk van die tegenligger. Als jouw wagen stilstaat en dezelfde tegenligger knalt met dezelfde snelheid frontaal op jouw wagen, dan bevat die maar de helft van de energie.
Het artikel lezen is tegenwoordig nog een aardig lastig dingetje.
het is alleen duidelijk dat het om code gaat met betrekking tot de zelfrijdende functie van Tesla, wat niets met daadwerkelijke crashtests te maken zou hebben.
Ja erg duidelijk verhaal vol met feiten ipv aannames!
Wat is er onduidelijk aan?
Is lezen onduidelijk?
Ik zou denken dat als het om iets gaat dat echt niet geweten mag zijn, dat ze niet de namen van de instanties zouden gebruiken in de code, want ze weten dat men naar de code kijkt en er zaken in zoekt (zoals nog onaangekondigde functies). Maar dan moet het ook niet moeilijk zijn voor Tesla om dat nu gewoon te staven. Afwachten dus naar hun antwoord.
In het voordeel van Tesla kan ik mij een aantal scenarios voorstellen: Om te beginnen: Het zijn de routes in de crash-test lokatie zodat de tesla zelf kan rijden en niet hoeft te worden getrokken....

Daarnaast kan ik mij ook voorstellen dat Tesla in samenwerking met de test organisaties bezig is om testen te doen om reacties van de auto-pilot op de crash-tests te bepalen. De autopilot krijgt dan een mogelijkheid om de crash te ontwijken of minimaliseren. Daarbij moet ze een bepaalde afstand 'gewoon' doorrijden en pas op een (normaal gesproken te laat) moment ingrijpen om te zien hoe het ongeluk kan worden verminderd of eventueel zelfs nog ontweken.

En ja, elke test organisatie heeft een eigen omgeving met gebouw, ruimte om uit te wijken en dergelijke. Dat moet in deze vroege tests best wel apart worden geprogrammeerd.

Mijn achtergrond: De autopilot functie staat in de nu gebruikte crash tests volgens mij echt wel uit, de auto's worden voor zover ik weet gewoon over het parcours getrokken en de autopilot kan daar weinig aan doen.
Tesla zelf heeft nog niet op vragen van Tweakers gereageerd
Wanneer is de laatste keer dat Tesla (dus niet Musk) op vragen van Media geantwoord heeft? 2014 ofzo?

[EDIT] Aangezien Tesla sinds 2020 geen PR afdeling meer heeft, is het toevoegen van de regel zoals boven gequote alleen maar vulling en/of "kijk ons eens journalistiek bezig zijn".

[Reactie gewijzigd door TNJ op 23 juli 2024 04:20]

Wat een zure reactie. Nou en dat een bedrijf wel of geen PR afdeling heeft of nooit reageert. Tweakers heeft vragen gesteld maar er is geen antwoord op gekomen. Toch goed dat er gepoogd is om aan wederhoor te doen? Waarom mogen ze dat er dan niet bij zetten?

[Reactie gewijzigd door xFeverr op 23 juli 2024 04:20]

Sterker nog, als het er niet bij zou staan dan had je hier reacties gezien die afvragen waarom niet 'gewoon' aan tesla gevraagd is wat hier aan de hand is.
Ze hadden beter kunnen zeggen dat ze geen reactie hebben gehad en dat dit verwacht is i.v.m. dat er geen afdeling is bij Tesla om er op in te gaan.

Nu vatten meerdere mensen het hier bv op alsof Tesla wat te verbergen heeft.
Wederhoor is een belangrijk principe in de journalistiek, zeker bij zo een zware beschuldiging ten aanzien van een miljardenbedrijf. Het feit dat tesla er hier voor kiest om de mond de houden voegt wel degelijk meer toe dan "kijk ons journalistiek bezig zijn".

[Reactie gewijzigd door Verwijderd op 23 juli 2024 04:20]

Tesla heeft geen afdeling om te reageren.

Is net zoiets als zeggen dat je benzine op het vuur gooide en daardoor een vuurbal ontstond. Precies wat er gebeurt naar verwachting. Net zoals dat Tesla niet reageert omdat ze daar geen afdeling voor hebben.
En?

Tesla kiest er voor om niet te reageren en die informatie hoort nu eenmaal bij het nieuwsbericht. Dat een miljardenbedrijf zo onprofessioneel is om daar geen aparte afdeling voor te hebben is niet het probleem van de journalist.

Edit: Stel dat die informatie er niet bij staat, dan staan er weer hordes tesla-fanatici klaar met een hooivork om te klagen dat er geen wederhoor was.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 04:20]

En?

En u begrijpt het dus niet?
Gaan we voortaan dan ook neerzetten dat iemand zonder benen niet naar de balie kon lopen om wat voor rede dan ook?

Het gaat er om dat het misrepresentatie is van de feiten.
Het feit is dat een bedrijf niet de afdeling heeft om te reageren.
Tuurlijk kan je er dan neer zetten dat ze niet gereageerd hebben. Maar zet er dan ook bij dat dit naar verwachting is omdat ze hier geen afdeling voor hebben.

En als u niet snapt waarom ze dit niet meer hebben is het misschien even handig om www.google.com te openen en dat uit te zoeken.
Gaan we voortaan dan ook neerzetten dat iemand zonder benen niet naar de balie kon lopen om wat voor rede dan ook?

Het gaat er om dat het misrepresentatie is van de feiten.
Leest u zelf wel wat u typt?

Ik ga een mok koffie halen.
Begrijpt u wel wat ik heb getypt?

Goeie! ik zit net aan de koffie toevallig.
Het is jammer dat Tweakers geen connectie bij Tesla heeft hiervoor. Ze komen regelmatig in de media, zijn technologie gedreven en zoeken daarmee vaak de grenzen op.

Het opheffen van de PR afdeling had meer te maken met dat het zinloos was om bijv nu.nl of WSJ verslaggevers de nuance van de software uit te leggen. Niet ten nadelen van deze verslaggevers maar de materie van software en AI is simpelweg te ingewikkeld. Tweakers zou met haar expertise echter prima in staat moet zijn om objectief en inhoudelijk hier verslag van te kunnen geven.
Log.Debug(NCAP).

Tesla beïnvloed tests door specifieke code!!!

Zolang niet bekend is wat er nu voor code staat blijft het vooral voer voor speculatie.
Gezien wat we met twitter zien, en het gegeven dat mr. Musk een Trump-fan was - is de conclusie - Tesla speelt wellicht vals.
Die crashlogs zou ik als Tesla wel extra goed willen bekijken. Misschien wat extra logging oid.
Ik denk dat het tijd wordt om stevig in te grijpen in de manier waarop de autoindustrie omgaat met software. Veiligheid en milieu staan op het spel.
Wat mij betreft worden autofabrikanten verplicht altijd inzicht te geven in alle code. Wat mij betreft volledig openbaar. Dan kan de software volledig gecontroleerd worden.
Daarmee zeg ik niet dat het open source moet zijn in de zin dat de concurrentie klakkeloos delen mag overnemen (ook dat kan dan gecontroleerd worden).

Op dit item kan niet meer gereageerd worden.