Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Tesla presenteert zelfontworpen chip voor volledig autonoom rijdende auto's

Tesla heeft meer informatie gepresenteerd over de 'Full Self-Driving Computer', waarover eerder deze maand bekend werd dat deze in productie is. Het gaat om een zelfontworpen chip, een neurale accelerator, en die is volgens het bedrijf 'objectief gezien de beste chip in de wereld'.

Tijdens de presentatie voor investeerders werd beweerd dat de chip een verbetering met een factor 21 mogelijk maakt ten opzichte van de vorige generatie Tesla Autopilot-hardware van Nvidia. Ten opzichte van de Tesla Autopilot 2.5 zou de hardware ook 20 procent minder kosten. De chips, die op termijn via een over-the-air-update de volledig zelfrijdende functies mogelijk moeten maken, worden door Samsung gemaakt op een 14nm-finfet-procedé. Volgens Musk heeft Tesla geconcludeerd dat er geen chip is die van de grond af aan is opgebouwd voor specifiek neurale netwerken. Op basis daarvan is besloten om zelf een chip te ontwikkelen om de zelfrijdende functionaliteit mogelijk te maken.

Pete Bannon, de man die bij Tesla aan het hoofd staat van de Autopilot-hardware, zei tijdens de presentatie dat de chip 2100 beelden per seconde kan verwerken. Deze beelden zijn afkomstig van de acht voortdurend opererende camera's die Tesla-auto's aan boord hebben. Dit komt neer op 2,5 miljard pixels per seconde. Deze input moet worden verwerkt door de image signal processor, wat met 1 gigapixel per seconde gaat via een 24bit-pijplijn. Hierbij kan ook tone mapping en ruisreductie worden toegepast. Het lpddr4 en de 128bit-geheugenbus leveren een piekbandbreedte van 68GB/s op. Voor deze beeldinformatie is er de neurale netwerkprocessor die uit 9216 eenheden bestaat. Deze draaien op 2GHz en halen 36 tops per chip, dus 72 tops in totaal aangezien er twee accelerators zijn. Verder is er ondersteuning voor h.265 aanwezig.

Tijdens de presentatie heeft Tesla zijn nieuwe chip vergeleken met de Drive Xavier-chip van Nvidia. De chip van Tesla komt uit op 144 tops en die van Nvidia op 21 tops, claimt het autobedrijf. Nvidia heeft hier echter de nodige kritiek op en vindt het geen eerlijke vergelijking. Tegen Marketwatch heeft een woordvoerder van Nvidia laten weten dat alleen bij de Nvidia Drive AGX Pegasus sprake zou zijn geweest van een correcte vergelijking. Deze haalt volgens Nvidia 320tops. Daarnaast meldt de woordvoerder dat de Xavier-chip niet 21 maar 30tops haalt en in feite slechts is gemaakt voor bepaalde hulpsystemen en niet voor volledig autonoom rijden.

Deze nieuwe Tesla-chips zitten in alle sinds maart geproduceerde Model S- en X-auto's en de Model 3-exemplaren die sinds 12 april zijn geproduceerd. Bestaande Tesla-eigenaren die de ‘Full Self-Driving package’ in de komende maanden aanschaffen, krijgen de hardware alsnog gemonteerd. De computers worden achter het dashboardkastje gemonteerd en bestaan uit twee chips, zodat het systeem blijft werken als een van de twee de geest geeft. Daartoe is er ook een aparte stroomvoorziening toegepast voor elk van de chips.

Naast de details over de Full Self-Driving Computer heeft Musk herhaald dat Tesla zich voor autonoom rijden blijft richten op camera's en radar. Lidars, die door veel andere bedrijven worden gezien als cruciaal voor volledig autonoom rijden, wordt door Musk wederom afgewezen. "Iedereen die afhankelijk is van lidar, is gedoemd te mislukken." Hij vindt het duur en onnodig. De topman erkent overigens wel dat het nog een aanzienlijke uitdaging is om de software zover te krijgen voordat volledige autonomie een feit is, maar dat zou met de robottaxi's tegen eind 2020 een feit moeten zijn.

De claim dat de Full Self-Driving Computer 20 procent goedkoper zou zijn dan de voorgaande hardware is opvallend. Elon Musk maakte vorige week namelijk bekend dat de prijs van de Full Self-Driving-upgrade voor Tesla-auto's na 1 mei gestaag hoger gaat worden. De toename zou rond de drieduizend dollar liggen.

Door Joris Jansen

Nieuwsredacteur

23-04-2019 • 13:22

80 Linkedin Google+

Reacties (80)

Wijzig sortering
Dingen die mij opvielen bij deze presentatie waren de technische details en een blik in het leerproces voor de neutrale netwerken. De kracht van deze processor die maar een tiental instructies heeft is overigens dan ook alleen met de juiste software te ontgrendelen. Ze hebben hierbij dan een ook een gezonde hoeveelheid SRAM op maat die precies genoeg is dat deze in een doorlopend proces de beelden kan verwerken. Dat is een proces van verregaande (verticale) integratie.

Bij de vraag over het gebruik van Lidar tijdens de Q en A kwam heel even de technische kennis van Lidar bij Musk omhoog, omdat hij deze techniek gebruikt bij SpaceX voor het docken van de capsule. Dan is het niet meer gewoon afserveren van een bepaalde techniek, maar weten waar de beperkingen liggen. Een mooi voorbeeld hiervoor was de 6 seconden video die een volledig 3D punten representatie gaf van de omgeving.

Zijn kritiek van het gebruik van visueel spectrum is denk ik persoonlijk dan ook terecht, juist hier hadden ze met een andere golflengte wel het verschil kunnen maken. Dingen zien die mensen niet kunnen zien.

De huidige staat van de autopilot afspiegelen tegen deze versie van "volledig zelf sturend" is niet handig. Deze code kan nooit in de huidige hardware passen en zal dan ook niet vergelijkbaar handelen. Het zal in zekere zin met HW 2.5 een assistent blijven.

Dingen die software matig aardig waren, het kunnen versturen van een commando naar de vloot voor een "Auto met een fiets" en dan ook daadwerkelijk foto's van auto's met een fiets achterop terugkrijgen. Dat is een bevestiging dat de computer in de auto vrij ver gaat in het classificeren van wat deze ziet, en ook of dit werkt zoals het hoort.

De kracht van de vloot ligt dan ook in de grote gedistribueerde kracht van deze vloot rijdende computers die met een hoge mate van compressie (geen snelweg beelden) enkel zinnige data uit kunnen filteren die weer in de machine gestopt kan worden voor het leren. Zo kwam onder andere voorbeelden voorbij van vrachtwagens op vrachtwagens, boten, auto's op zijn kant of in de lucht en onderscheid maken tussen een band of een plastic zak.

Het was best wel een zit, maar ik heb geboeid gekeken, de eerste 2 stukken waren overigens interessanter dan het 3e stukje.

Ook het afserveren van iemand die een in mijn ogen stomme vraag stelde kon ik wel waarderen (Q: "I think this easy" Musk: "Try it")
Zijn kritiek van het gebruik van visueel spectrum is denk ik persoonlijk dan ook terecht, juist hier hadden ze met een andere golflengte wel het verschil kunnen maken. Dingen zien die mensen niet kunnen zien.
Nu zal ik meteen toegeven dat ik het niet gezien heb, maar dit vind ik een hele vreemde. Lees ik dit goed als dat Musk kritiek heeft op het gebruik van het visuele (zichtbare) spectrum door Lidar? Want wat doen de camera's bij een Tesla? Precies, het visuele spectrum opnemen. En juist bij een passief systeem kan je het argument maken dat een andere golflengte iets kan zien wat visueel niet te zien is, terwijl een Lidar actief is, en daardoor per definitie compleet anders dingen ziet.

Daar komt nog bovenop dat Lidars allemaal buiten dat zichtbare spectrum zitten. Meeste 900nm, sommige 1500nm. Niet heel ver nee, maar dat is logisch. Want het is geen toeval dat het zichtbare spectrum is wat het is: deze golflengtes gaan goed door de atmosfeer heen.
Je moet dit als volgt lezen. De andere bedrijven die zich hier mee bezig houden gebruiken naast de camera's dus Lidar, waar Tesla met name op de voorwaarts gerichte radar gebruikt voor afstand inschatting die in combinatie met de beeldprocessing resulteert in een "blokje" met een afstand vanuit de radar reflectie. Als je dus beeldprocessing gebruikt zoals Waymo en dan de afstand gebruikt welke vanuit de Lidar komt ben je van beiden afhankelijk van een spectrum dat beinvloed wordt door mist, regen en sneeuw.

Het was dus een kans voor anderen om een redundante methode in te bouwen voor plaatsbepaling (ten opzichte van anderen). Daarnaast is de informatie erg beperkt, de afstanden zijn wel erg nauwkeurig, maar vrij lastig om te interpreteren. Je hebt geen kleuren, je ziet geen letters en de verversingssnelheid is vaak niet van die aard dat het bij hogere snelheden de resolutie oplevert die je nodig hebt.

De integratie van alle sensoren in de auto, de voorwaartse radar, de camera's en zelfs parkeersensoren tot iets wat gebruikt kan worden om te navigeren gaat (erg) ver. Een mooi, maar treurig, voorbeeld is het ongeluk van Uber, waarbij de radar van de EAB uitgezet was omdat deze anders met het zelfrijdende programma zou conflicteren.

Ze zijn overigens wel een soort van luchtvaart pad ingeslagen, redundant voeding, redundant processor, redundant databus en een volledig programma die op beiden processoren draait en bij ongelijkheid ingrijpt of uit gaat. Dat is een methode die normaal in de luchtvaart wordt gebruikt, maar bijvoorbeeld bij het huidige 737 Max 8 toestel met MCAS de mist is in gegaan. (een processor ziet maar een sensor en geen vergelijk onderling)
Voor de duidelijkheid: Die andere gebruiken ook gewoon radar erbij. En wat moet je anders voor Lidar frequentie? Richting UV? Dat komt al helemaal niet door enige sneeuw heen. Andere bedrijven die met zelfrijdende auto's bezig zijn gebruiken allemaal Lidar als toevoeging op hetgeen Tesla gebruikt, niet als vervanging.

Overigens zijn in principe zover mij bekend bij een auto echt zo goed als alle veiligheidskritische systemen op een manier uitgevoerd waarop op zijn minst de juiste werking gecontroleerd kan worden of dat er een alternatief is. Waarbij redundantie dus een methode is om dit voor elkaar te krijgen.
Nou ja, we zullen wel zien wat het uiteindelijk wordt. Zijn suggestie was richting onder het 400nm spectrum, kan je wellicht weer borden mee gaan lezen icm met een UV camera. Er zullen zeker andere spelers zijn die een vergelijkbare weg zullen volgen, anderen gaan de andere kant op. Als je ook al Radar hebt kan je met de Lidar een exacter punt in de ruimte plaatsen, het draait uiteindelijk ook om de combinatie van sensoren. Het is natuurlijk wel zo dat een Lidar ook in volledige duisternis werkt, al ga ik er vanuit dat mensen (of de auto!) toch wel met de lichten aan zullen rijden, los van de verplichting.

Maak eens (al dan niet per ongeluk) een kortsluiting tussen can-h en can-l en kijk wat er dan nog werkt. ;) Detecteren is natuurlijk iets anders dan overleven en doorgaan. Zo brengt een kortsluiting in de Can bus vrijwel elke moderne auto tot stilstand. Het is meer dat ik het persoonlijk een bijzondere ontwikkeling vindt die niet vanzelfsprekend is. Het is absoluut zo dat ook in de huidige auto's de faal staat van sensoren zonder problemen gedetecteerd wordt.

De schakelaar van mijn rem is een "Normally Closed" en heeft een weerstand in de lus. Zodra je de schakelaar los haalt gaat de auto in limp mode omdat deze terecht de rempedaal sensor niet detecteert. Op Can niveau moet je dan toch weer een stapje verder om hier mee om te gaan.

Een Tesla Model S 2013 met iets stoms als een kortsluiting in de parkeerrem maakt na het eenmalig parkeren en contact uit er een paperweight van. Maar niks wat een Hyundai Matrix met een afgeknelde kabel over de achteras niet voor elkaar kan krijgen :D
Beveiligingskritische sensoren moeten wel een foutstaat kunnen detecteren. Of nou ja, zo goed als mogelijk. Je regensensor hoeft dat dus niet, want als die fout gaan kan je zo zonder risico het als bestuurder overriden. Een radar sensor voor je automatische remsysteem moet dat zeker wel, want als dat ding ineens claimt dat er iets op 2m voor je is, en je auto gaat vol op de rem midden op de snelweg, dan is dat een levensgevaarlijke situatie. Een dubbele uitvoering is daarvoor een makkelijke manier, al niet de goedkoopste, en niet altijd mogelijk. Bijvoorbeeld twee rempedalen is niet echt heel handig ;).

Met dit dubbel redundante systeem ben je (verwacht ik) nog niks verder bij een fout: Je kan het detecteren, maar als de één zegt links af sturen, en de ander rechts af, wat doe je dan? Ik vermoed dat hij naar een eenvoudig noodprogramma gaat wat hem of rustig tot stilstand brengt met alarmlichten aan, of controle terug naar de menselijke bestuurder (en als die niet op tijd ingrijpt terug naar optie A). Pas als je triple redundant gaat kan je bekijken welke processor het fout heeft.

Ik vraag me persoonlijk dan weer af hoe zulk soort high performance systemen over de volledige automotive temperatuurbereik hun werk doen. Ze zullen zelf een behoorlijke hoeveelheid warmte produceren, maar dat komt bovenop de omgevingstemperatuur. Als jij je auto eens lekker een middagje in Death Valley parkeert midden in de zon, moet hij daarna gewoon nog kunnen wegrijden.
Musk gaf vooral aan dat Lidar een veel te onvolledig beeld geeft en bijvoorbeeld niet in staat is om het verschil tussen een plastic tas of autoband op de weg te kunnen weergeven. Video icm een Neural Net kan dat wel. Gebruikers van lidar schermen vaak met het feit dat lidar zo goed is in het creëeren van een 3D plaatje van de omgeving, maar gisteravond liet Tesla zien dat je met 6 seconden video van 1 (!) camera net zo’n goed (of beter) 3D model van de omgeving kan maken. Daarbij was het argument: mensen gebruiken geen lidar, slechts twee “camera’s” en toch bent u (de aanwezigen in de zaal) hier (bij tesla) gekomen... dankzij uw eigen neurale net.
Dingen die mij opvielen bij deze presentatie waren de technische details en een blik in het leerproces voor de neutrale netwerken. De kracht van deze processor die maar een tiental instructies heeft is overigens dan ook alleen met de juiste software te ontgrendelen. Ze hebben hierbij dan een ook een gezonde hoeveelheid SRAM op maat die precies genoeg is dat deze in een doorlopend proces de beelden kan verwerken. Dat is een proces van verregaande (verticale) integratie.
Musk heeft al meerdere keren zijn frustratie geuit over hoe ze door de 'industrie' als minst autonome autofabrikant worden weggezet. Dit terwijl Tesla technisch intern al best is met FSD. Dat was ook de doelstelling van de presentatie naar mijn mening: laten zien dat Tesla ver voorop loopt.

Vandaar ook die uitspraak: if you buy a car today that isn't a Tesla, you might as well buy a horse. It's useless in the distant future.
Ik moet zeggen dat de marketing afdeling van Tesla toch echt slecht bezig is de afgelopen tijd. Veel prijs wijzigingen alle kanten op, tegenstrijdige berichten en nu dit.

Lijkt mij dat er heel hard gewerkt is om deze beslissing in een positief daglicht te zetten. Inderdaad, 20% goedkoper? Voor Tesla ja, dus meer winst gezien de torenhoge meerprijs.

En dan ook een erg slechte zet om incorrecte gegevens over NVidia te geven. Dat ze hem met de Xavier vergelijken is nog tot daar en toe, want dan lijkt deze veel beter.
Zoals @th4k1ck3r al correct opmerkte:
> de kostprijs van een eindproduct bestaat niet alleen uit de fabricage kosten. Je hebt ook, zeker met een product als dit, de nodige ontwerpkosten; de ontwerpkosten van de chip moeten natuurlijk ook worden terugverdiend, maar het zal vooral de softwareontwikkeling zijn dat een groot deel bijdraagt aan de uiteindelijke kostprijs van Full Self Driving upgrade.

Je enige andere concrete punt over de prijsstelling: De prijzen van Tesla worden constant aangepast. Alle fabrikanten doen dat, alleen bij Tesla is het blijkbaar nieuwswaardig. Wat kost een VS Passat 1.8 nu en 3 maanden geleden? Boeit niemand iets, maar Tesla is "slecht bezig"... Misschien wel maar niet om de redenen die je aanhaalt.

à propos: Recent was er een opmerkelijke prijsdaling van ~20 tot ~40 duizend euro voor de S en X (een Model X P100d kostte vroeger makkelijk over de 180.000, nu net over de 120.000). Dus dat van die "meer winst", moet je misschien ook een beetje relativeren.
Ik begrijp je punt niet over de prijs. Je zegt dat alle fabrikanten het doen en komt vervolgens mij een nogal loze vergelijking, er is geen Passat 1.8. Daar naast komt op Autoweek ook elke scheet van Volkswagen langs als er weer eens een andere kleur schroefje word toegepast, maar zo een grote prijsfluctuaties als bij Tesla zie je daar toch echt niet. Hoog uit weer eens een actiemodel met wat meer opties standaard.

En daar is een goede reden voor. Volkswagen verkoopt nogal veel auto's en als die van vandaag op morgen ineens minder waard zijn dan worden bestaande klanten niet blij. Onder die bestaande klanten zitten ook lease bedrijven. Die zijn bijzonder geinteresseert in de restwaarde van een auto, en die is dan ineens flink gedaald. Dikke kans dat een Tesla dan ineens duurder in de lease word terwijl de prijs daalt omdat de restwaarde misschien flink lager uit valt.

Je ziet in de VS ook een behoorlijk aanbod 2e hands vrij nieuwe Tesla's die nu praktisch voor de nieuwprijs te koop staan. Die raak je natuurlijk niet meer kwijt.
Er zijn mensen die zeggen dat de extreme prijsverlagingen van Tesla expres door Musk zijn gedaan om praktisch gratis heel veel publiciteit te genereren.

Ze brengen 1 nieuwsbericht naar buiten: "Showrooms gaan sluiten en als gevolg zakt de prijs van Model S en X met 60k"

Vervolgens komt Musk hier in zeer korte tijd op terug met dat het sluiten van alle showrooms toch wel een beetje tè is en omwille van het open houden van showrooms de prijs toch weer iets zal stijgen.

In de tussentijd ligt Tesla weer op iedereens lippen, positief of negatief. Er wordt weer volop over ze gepraat.
De vergelijkingen zijn standaard voor alle chip-producenten. Nvidia zelf maakt zich er ook ook schuldig aan.

De grote vraag is of deze chip toereikend is voor huidige en toekomstige vraag. Volledig autonoom is nog lang niet bereikt en dus moet de chip genoeg armslag hebben om meer data te kunnen verwerken.

Verder klopt de claim van Tesla sowieso niet dat dit de enigste chip is die van de grond is opgebouwd om oa beelden te verwerken.
Wat je hebt is een zogeheten VPU,
https://en.wikipedia.org/wiki/Vision_processing_unit
En daar zijn veel bedrijven mee bezig en de ontwikkeling daarvan is simpeler en dus goedkoper dan de traditionele cpu/gpu. De grote uitdaging is de software.
Helemaal correct maar ik wil je stelling iets uitbreiden:
De grote uitdaging is de software perfect afstellen op de gespecialiseerde hardware.

Een PS4 kan ook enorm mooie beelden op je tv toveren met zeer oude (beperkte) hardware. Maar omdat deze goed geoptimaliseerde software draait worden er zaken mogelijk die op een pc (algemeen apparaat) alleen met veel duurdere hardware mogelijk is.

Wat betreft je vraag betreft capaciteit: HW2.5 draait nu op 80% in de huidige versie van FSD. HW3 moet deze taken momenteel kunnen met 5 tot 10% belasting op 1 chip (er zitten er 2 in vanwege redundantie). Dit is even vanuit geheugen, ik kan de tweet zo even niet meer vinden.
Inderdaad, 20% goedkoper? Voor Tesla ja, dus meer winst gezien de torenhoge meerprijs.
Het was dan ook een presentatie voor investeerders.
De chip zelf is goedkoper te produceren, maar Tesla moet nu wel alle software zelf schrijven en kan het niet gebruiken van toolkits van bijvoorbeeld NVidia. Ofwel door de benodigde software (lees: leger aan programmeurs en AI specialisten) kan het totale systeem nog steeds duurder uitvallen..
Maarja dit komt natuurlijk ook uit een presentatie voor investeerders, dan is 20% minder wel een interessant iets om te melden.
Het gekke is hier, dat zo'n investeerders presentatie publiek is. Dat is natuurlijk een oncomfortabele split voor marketing want de belangen van investeerders zijn toch heel anders als die van consumenten.
Jij kan morgen ook aandelen kopen, en dus moet jij ook toegang hebben tot de informatie die grote investeerders hebben, en dat op hetzelfde moment. Daarom dat dit online staat.
Dat lijkt zo omdat elke scheet van Tesla uitgebreid in het nieuws komt.

De wijzigingen bij ICE fabrikanten zijn veel groter en frequenter maar omdat je daar niks over hoort lijken die fabrikanten niet aan wijzigingen te doen.

En Tesla heeft ook nog eens veel minder opties omdat veel dingen standaard zijn bij Tesla.
De wijzigingen bij ICE fabrikanten zijn veel groter en frequenter
Dan moeten ze daar meer ruchtbaarheid aan geven want ik zou zo snel niet weten welke baanbrekende wijzigingen ICE fabrikanten de laatste 10 jaar hebben doorgevoerd.
En ja, ik weet dat je in deze discussie al heel snel terechtkomt bij de definitie van "baanbrekend". Baanbrekend is bijvoorbeeld een praktische elektrische auto op de markt brengen. Of over-the-air updates van de software.
En al dat gemekker over het feit dat Tesla zoveel in het nieuws is; dat doen ze ontzettend goed. Voorlopig helpt het ze om auto's te verkopen en in onze capitalistisch systeem is verkopen en geld verdienen het doel van elke ondernemer. Je kunt het Tesla niet kwalijk nemen dat ze marketing op allerlei manieren uitmelken. Heineken doet exact hetzelfde.
Als je de hardware 3 van Tesla “elke scheet” noemt dan lijk je niet te begrijpen wat ze gisteren verteld hebben. Het was behoorlijk revolutionair en loopt jaren voor op andere fabrikanten.
"Tegen Marketwatch heeft een woordvoerder van Nvidia laten weten dat alleen bij de Nvidia Drive AGX Pegasus sprake zou zijn geweest van een correcte vergelijking. Deze haalt volgens Nvidia 320tops."
Nvidia Drive AGX Pegasus: 500 watt (bron:link)
Tesla Full Self-Driving Computer: 72 watt (bron: link)

De Nvidia Drive AGX Pegasus verbruikt bijna 7x meer. Lekker vergelijkbaar 8)7

[Reactie gewijzigd door VickyNick op 23 april 2019 14:52]

Afgezien van het feit dat TDP geen verbruik is, en dat je vaak tussen verschillende fabrikanten TDP's niet kan vergelijken omdat zo'n beetje iedere fabrikant een eigen formule / definitie hanteert om het TDP te bepalen. Het kan dus heel goed zijn dat beide hier genoemde TDP's totaal niet te vergelijken zijn, daarnaast kan het werkelijke verbruik een stuk hoger dan wel lager liggen dat gespecificeerde TDP's.

Zonder de TDP bepalende formule van Tesla en Nvidia te weten zegt dit niet al te veel.

Verder las ik vanmorgen op meerdere sites dat het TDP van Tesla per chip is, en dus x2 moet voor het totale package.

Dan nog zou trouwens de Tesla oplossing nog steeds efficiënter per Watt zijn als we zouden aannemen dat het TDP gelijk is aan het verbruik.

Maar voordat we daar echt wat over kunnen zeggen moeten we eigenlijk het verbruik en de prestaties weten van beide oplossingen onder een gelijke workload.
In de livestream (en ik gok dat zo'n 90% van de mensen die hier reageert deze niet hebben gezien) wordt dit uitgelegd: In verband met de retrofit in de oudere modellen mocht de hele FSD hardware (dus incl de twee chips) niet meer dan 100W verbruiken.
Uit mijn hoofd: Het 72W verbruik van Tesla is het maximum, bij de test workload en 2100fps.
"een verbetering met een factor 21 mogelijk maakt ten opzichte van de vorige generatie"

Wow, 21 keer beter! Ik had 20 verwacht, maar 21?

Beter in WAT?
Fps.
Van 110 in de Nvidia die ze nu gebruiken, naar 2300 in dit ontwerp.
Maar dat staat niet in de zin, was mijn punt :)
Wel heel enthousiast. Eerst zien, dan geloven.
Er zijn al auto's geleverd waar deze hardware al in aanwezig is. Daarnaast wordt er een programma opgestart waarbij de oude hardware omgewisseld wordt voor deze nieuwe 3.0 versie.
Kan je dat op de een of andere manier zien? Ik heb sinds een kleine maand mijn Model 3 en ik vraag me af welke er nu in zit...
Bij de buren: De Full Self-Driving computer is sinds vorige maand in productie in de Model S en Model X, en sinds ongeveer 10 dagen in de Model 3. Daarmee moet elke Tesla die nu in productie is alle geschikte hardware hebben om zelf te gaan rijden

Hoe kun je het zien? (Als je niet tegen een beetje sloop en breekwerk opziet): https://www.youtube.com/watch?v=rnVZ1FM95PU

[Reactie gewijzigd door winwiz op 23 april 2019 14:44]

Ik weet niet meer precies wanneer, maar volgens mij is tijdens de presentatie gezegd dat de model 3 ze in productie heeft sinds april. Wel heeft elon getweet dat als je FSD hebt gekocht, je in aanmerking komt voor een omwisseling van deze computer, en dat alle model 3's geschikt zijn daarvoor sinds de start van de productie.
Eerder toezegging is wel dat de FSD computer pas geplaatst wordt bij klanten die “FSD” afgenomen hebben als er functioneel toegevoegde waarde is. In andere woorden, zo lang de wetgeving het niet toestaat krijg je waarschijnlijk geen nieuwe hardware.
Eerder toezegging is wel dat de FSD computer pas geplaatst wordt bij klanten die “FSD” afgenomen hebben als er functioneel toegevoegde waarde is. In andere woorden, zo lang de wetgeving het niet toestaat krijg je waarschijnlijk geen nieuwe hardware.
Dat is een verkeerde interpretatie van wanneer deze hardware wel of niet geinstaleerd zou worden. De huidige hardware 2.5 draait al op 80% van zijn capaciteit en de nieuwe HW3 draait op ongeveer 5%. zodra de HW3 computer dus beter kan rijden dan de 2.5 zal deze vervangen kunnen gaan worden wat niet langer dan enkele maanden zal moeten gaan duren. het grootste punt is dat de huidige versie van de NN update nog goed bekeken moet worden op bugs en de prestaties die ook echt verbeterd moeten worden in dagelijks gebruik.

Heeft dus weinig met de regels te maken en echt met het kunnen van de HW3 zelf.
Jij hebt hw2.5, de productie van de m3 met hw3.0 is pas een week aan de gang. En het is inderdaad te zien als je via de API je config uitleest.
Wist niet dat ze al leverden. Verandert het verhaal wel.
Waar moet ik dan aan denken bij zo'n zelfontworpen chip? Is het iets ASIC-achtigs of een op maat gemaakte CPU/GPU/DSP? Of is het helemaal van de grond afaan opgebouwd... in dat geval vraag ik me af of het verstandig is van een autofabrikant om chips te maken...
Ze kopen IP blokken in en combineren dit met ingekochte ARM processoren en hun eigen IP blokken. De tapeout stuur je naar een chipbakker en die stuurt na een week of wat een chip terug.

Deze Tesla chip zal zo’n 10-20% eigen IP bevatten en de rest is ingekocht gok ik.
Is die gok nog ergens op gebaseerd?

Want die 9216 Neural-Network cores zijn geen dingen die je inkoopt. En dat is de builk van deze chip.
10-20% zal het zeker niet zijn inderdaad, zo op het oog lijkt het wat minder dan de helft van de chip te zijn.

https://content.hwigroup....057099_screenshot_237.jpg
Dat ziet eruit alsof inderdaad de helft van de chip gebruikt wordt voor die neural network cores en de data buffers voor die cores. Maar het is lastig inschatten hoe veel van het overige deel gebruikt wordt voor ingekochte IP.

Even kijken of er iemand een legenda voor die die heeft.
In het HWI artikel is een aardige legenda te vinden: https://nl.hardware.info/...htiger-voor-08x-de-kosten

De Arm cores en de GPU zijn de andere grootverbruikers.

[Reactie gewijzigd door Dennism op 23 april 2019 15:54]

Die "LPDDR4 interface" is wat verdacht. Waarom zit die zo verspreid?

Ik vermoed dat dit de interne bus is. Die verbindt alle componenten met het LPDDR4 geheugen, ja, maar ook met elkaar. En dat is dus ook een stukje eigen werk van Tesla. De eigenlijke LPDDR4 interface naar buiten zal een stukje aan de rand van de chip zijn, en dat dal stukje is ongetwijfeld ingekocht.
Het AI deel heeft een zeer repeterend karakter. Waarschijnlijk ze al die cores gelijk en is het allemaal copy / paste waardoor de IP kosten relatief laag zijn. Multiply / Accumulate is de vaakst voorkomende bewerking.
Van de IP in de eerste link kan ik niet zien sinds wanneer die beschikbaar zijn maar zeker die laatste link was natuurlijk niet beschikbaar toen Tesla zijn eigen inference IP ging ontwikkelen in 2016.
Ik heb gelezen dat ze die zelf gemaakt hebben. Zit in mijn 10-20%.

Zijn prima te koop ook. Geen rocket science verder.
De claim dat de Full Self-Driving Computer 20 procent goedkoper zou zijn dan de voorgaande hardware is opvallend. Elon Musk maakte vorige week namelijk bekend dat de prijs van de Full Self Driving-upgrade voor Tesla-auto's na 1 mei gestaag duurder gaat worden. De toename zou rond de drieduizend dollar liggen.
Ik begrijp niet wat het een met het ander te maken heeft? Een toename in de prijs van een product is toch niet direct gelinkt aan de kostprijs van 1 onderdeel van dat product?
Dat ja, de kostprijs van een eindproduct bestaat niet alleen uit de fabricage kosten. Je hebt ook, zeker met een product als dit, de nodige ontwerpkosten; de ontwerpkosten van de chip moeten natuurlijk ook worden terugverdiend, maar het zal vooral de softwareontwikkeling zijn dat een groot deel bijdraagt aan de uiteindelijke kostprijs van Full Self Driving upgrade.

[Reactie gewijzigd door knirfie244 op 23 april 2019 13:39]

Dat is inderdaad een rare conclusie. De reden waarom de upgrade duurder gaat worden is omdat er meer waarde gecreëerd wordt door het toevoegen van meer functionaliteiten. (volledig autonoom rijden).

Al is het natuurlijk wel discutabel dat die prijs nu al verhoogd gaat worden. De toegevoegde waarde is i.i.g. voor Nederland/Europa nu nog ver weg.
Het maakt de auto meer waard terwijl de marges veel lager worden met de budget modellen. Hier kan je dus wat mee terug verdienen.

[Reactie gewijzigd door jip_86 op 23 april 2019 13:51]

Inderdaad, de kosten van deze nieuwe chip/computer zijn marginaal ten opzichte van de totale R&D kosten voor het ontwikkelen van Full Self Driving. Gezien Elon Musk gezegd heeft dat er binnenkort meer FSD features geactiveerd zullen worden is het logisch dat het pakket in prijs stijgt.
Ik heb niet de hele stream bekeken en keek toevallig mee toen hij dit stukje presenteerde. Het interessante vond ik dat hij vertelde (en ik kan het verkeerd begrepen hebben dus 'correct me if i am wrong') Dat deze chips dus afzonderlijk de sensoren in de gaten houden en op basis daarvan elk een beslissing maken/calculeren (De uitkomsten kunnen dus ook verschillen) Die beslissingen worden met elkaar vergeleken en pas als ze overeenkomen uitgevoerd. Maar wat als 1 van de chips een persoon voor de auto ziet staan, en de ander niet ? Word er dan niks gedaan, of remt de auto dan altijd in zo'n geval ?
De uitkomsten van de NN berekeningen zijn kansen. Het zou kunnen dat de arbiter in dat geval de oplossing met de grootste kans kiest.

Daarnaast berekenen de NN tig keer per seconde de beelden door. Het kan dus ook zijn dat de arbiter even niks doet en kijkt of de volgende rekenronde wel consistente resultaten geeft. Een paar milliseconden maken niet veel uit.
Er zijn 2 of 3 camera's, een radar en nog een x aantal ultrasoon sensoren die voor de auto kijken. Als er iemand zich dus echt voor de auto zou bevinden dan zou dat echt wel gezien moeten worden.

Alles aan dit hele systeem is zo ontwikkeld dat het full redundancy heeft dus dit soort gevallen moeten niet op kunnen treden. Beschreven werd dat de kans dat het hele systeem faalt kleiner is dan een normaal persoon wie het bewustzijn verliest.
Maar het zijn niet de camera's/sensoren die de beslissing maken wat er moet gebeuren. Er zijn 2 chips die elk al die camera's en sensoren inlezen. En op basis van die data onafhankelijk een beslissing maken.
Het lijkt er dus op dat deze chips dus met verschillende uitkomsten/beslissingen kunnen komen. Die 2 beslissingen worden vergeleken met elkaar, en als ze overeen komen uitgevoerd.
Dus wat als 1 een persoon ziet staan en de ander niet, of als wel een persoon ziet staan en de ene chip beslist naar links te willen sturen, en de andere naar rechts.
Dus wat u eigenlijk wilt weten is een als, als als vraag dat meermaals als onwaarschijnlijk is?

Het antwoord op uw vraag zal ik daarom ook niet durven te beantwoorden met andere woorden dan dat Tesla zelf heeft gebruikt.
Als het dan zo onwaarschijnlijk is, waarom dan 2 chips die elkaars beslissingen vergelijken :P
(buiten het wat in het artikel word genoemd, dat het een redundancy verhaal is voor het geval er 1 ophoud)
Was gewoon even een gedachte die ik had tijdens het kijken van de stream ;)

Hier het stukje waar ik op doel:
https://www.youtube.com/w...E&feature=youtu.be&t=4723
Omdat als ze dat niet doen die onwaarschijnlijkheid zou afnemen en er meer fouten gemaakt kunnen worden.
2 Chips is letterlijk als redundancy ingebouwd zoals volgens mij eerder? in die video werd uitgelegd (not 100% sure).
Ze doen het toch wel aardig bij TESLA auto's vindt ik persoonlijk niet mijn smaak. Ik houdt toch voorlopig vast bij ICE. Maar qua technology doen ze het goed. Nu hebben ze engineers in verschillende fields SpaceX en Tesla Motors dus ze kunnen altijd switchen betere dingen krijgen natuurlijk voor goedkoper.
Tesla en SpaceX zijn 2 afzonderlijke bedrijven, de 1 is een publiek bedrijf, de ander een privaat.
Ze zijn er alleen niet vies van om personeel en kennis uit te wisselen.
De tesla ontwerp studio zit bijvoorbeeld in het hoofdkwartier van spacex.
Ik zou zo graag een route uit willen stippelen voor deze volledig zelfrijdende auto! Volgens mij zijn er genoeg situaties waarbij de auto niet zelf een beslissing kan nemen, of gewoon de verkeerde beslissing neemt. Ook ben ik erg benieuwd wat er gebeurt tijdens de verschillende weersomstandigheden. Zware regenval of sneeuw op de weg waardoor het wegdek nauwelijks te detecteren is. Dat neemt niet weg dat het een prachtige ontwikkeling is die ik met veel interesse volg.
Ik denk dat de problemen vooral ontstaan bij de risico-analyse en het acceptabel houden van het resultaat daarvan. Als je 80 gaat en je ziet 100m verderop een zak op de weg liggen terwijl er ook iemand bijna op je achterbumper zit. Wat ga je doen? In theorie kan er een stapel tegels in die zak zitten waardoor je ondersteboven de sloot in gaat...

[Reactie gewijzigd door blorf op 23 april 2019 17:11]


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Laptops

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True