Intels Mobileye werkt aan EyeQ Ultra-soc voor autonoom rijden op Level 4

Mobileye, een dochterbedrijf van Intel, wil eind 2023 EyeQ Ultra gereed hebben, een soc die het rekenwerk voor autonoom rijden op Level 4 voor auto's afhandelt. Het bedrijf verwacht dat de chip in 2025 in productie genomen kan worden voor eindgebruik.

De EyeQ Ultra moet de onderdelen die vereist zijn rond rekenwerk voor autonoom rijden bevatten in een enkele package, meldt het bedrijf. De soc bevat daarvoor vier klassen van accelerators voor verschillende taken, in aanvulling op cpu-cores, isp's en gpu's. De soc moet zo efficiënt input kunnen verwerken van subsystemen met camera's, radars en lidars.

Mobileye wil de soc op 5 nanometer produceren. In totaal moet de chip tot 176 tera operations per second aan rekenkracht leveren. Mobileye's huidige EyeQ5 biedt 12 tops aan rekenkracht. Bij autonoom rijden op basis van Level 4 is nagenoeg geen handelen door een menselijke bestuurder meer vereist, al is de mogelijkheid voor menselijk ingrijpen tijdens het rijden nog wel aanwezig.

Mobileye kondigt ook de EyeQ6L en EyeQ6H voor advanced driver-assistance systems aan. De EyeQ6L is de opvolger van de EyeQ4 maar dan 55 procent kleiner en gericht op een laag verbruik. Deze soc moet halverwege 2023 in productie gaan. De EyeQH moet de EyeQ5 opvolgen en dubbel zo hoge prestaties als die soc bieden. De productie van deze chip start eind 2024. Beide chips worden dan op 7nm geproduceerd.

Mobileye EyeQ Ultra

Door Olaf van Miltenburg

Nieuwscoördinator

04-01-2022 • 20:45

36

Reacties (36)

Sorteer op:

Weergave:

Ze gaan echt wel all in: camera's, radars en lidars. Dan heb je idd veel meer rekenkracht nodig dan puur vision of camera’s zoals Tesla nu gebruikt.

Opmerkelijk: Geen woord over hoe ze hun neural netwerk gaan trainen. Want rekenkracht en sensoren in de auto zijn eigenlijk bijzaak om level 4 te halen.

De grootste bottleneck = die neural netwerken trainen. Het is absurd voor hoeveel variaties in omstandigheden je ze moet trainen.

Dat kan met real live data (van een rondrijdende fleet) (dat gaat traag) of van realistische computer gegenereerde variaties (dat gaat snel) op real life cases om de AI in nog meer edge cases per seconden te trainen. Net daar is Tesla erg sterk in. (Lees meer over de Dojo supercomputer)

Ik denk dat tegen 2025 Tesla al even level 4 heeft. Als je ziet hoe ze nu FSD beta’s in een snel tempo beter maken. Trager dan voorspeld maar ze hebben nu duidelijk wel een goede ‘pace’ gevonden waar de ontwikkeling snel gaat en die vorderingen zijn gewoon publiek toegankelijk. Heel youtube staat er vol van. Bij mobile eye weet je niet goed hoe ver ze echt staan.

[Reactie gewijzigd door Coolstart op 25 juli 2024 23:44]

In beperkte domeinen (te weten de Duitse snelwegen) loopt Mercedes voorop, komt met Level 3 dit jaar waar Tesla dit jaar vziw nog op 2 zit.

Ook Honda zit op L3.
De stap van level 2 naar 3 is enorm groot.
De stap van level 3 naar 4 is klein.
De stap van level 4 naar 5 is ook klein.
De stap van 1 naar 2 is overigens ook klein.

Wel kan het zo zijn, dat buiten "het beperkte domein" waarin L3 van Mercedes en Honda werkt, Tesla weer voorop loopt op de andere merken.

Maar Tesla moet de grootste stap dus nog zetten.
Mercedes heeft reeds sensor fusion, en heeft wegen in kaart gebracht in een soort 3D high-res versie van Google maps; zij zeggen dat dit nodig is voor L3.

https://insideevs.com/new...-autonomous-driving-2022/

Tegelijkertijd is alle data die Tesla verzameld heeft totaal waardeloos om te gebruiken voor sensor fusion.
Dus hun hele Tesla-trainresultaten gebruiken in combinatie met samen met Lidar / Radar is onmogelijk; hun data is namelijk "alleen getraind" met visuele camera's. Laatst een lezing gehad van iemand uit het vakgebied, die uitlegde dat je als je ook maar 1 sensor wil toevoegen, je overnieuw moet beginnen qua data-vergaring en trainen van AI.

Zelf ben ik bezig geweest aan Udacity, gesticht door meneer Sebastian Thrun. Hij werkte vroeger bij Google, hij geeft ook de Udacity-les over SLAM. Dus het opbouwen van een "kaart" en volgen van positie aan de hand van gescande objecten.), en wat opvalt is dat daar de "sensor fusion" gesponsord wordt door Mercedes en Nvidia. Terwijl Tesla nog roept (bij monde van meneer Musk) dat Lidar en Radar overbodig is.

Dus tenzij Tesla hier in het geheim heel ver mee is; lopen ze achter op Mercedes; en de waarschijnlijkste reden dat ze roepen dat het overbodig is; is omdat ze hun hele dataset / trainingsresultaten in de prullenbak kunnen gooien door 1 sensor toe te voegen, en dan zijn ze gewoon simpelweg heel hun "aangenomen" voorsprong kwijt. Dat toegeven is natuurlijk lullig voor Tesla als ze op de beurs 12x zoveel waard zijn als Mercedes.

Mercedes heeft recentelijk gebroken met BMW; dus het is duidelijk dat er minimaal 3 coalities zijn:
-Tesla en consorten,
-Mercedes en NVidia,
-BMW / Stellantis e.v.a. (zie reactie van @oscar oscar )en Intel (Mobileye).

Dus hoe wordt dat getraind:
-Intel en / of Amazon zal wel een "server-boerderij" hebben staan met Xeon's, FPGA's en waarschijnlijjk Habana Gaudi's, en BMW / Stellantis zullen daar wel met medewerking van Intel op trainen,
-NVidia zal een aantal zaken vast regelen voor Mercedes, hoewel de kans groot is dat ook daar Xeon's worden gebruikt,
-Tesla heeft zogenaamd "DOJO" zelf gemaakt, maar het is zeer aannemelijk dat ze gewoon deels kant-en-klare van-de-plank ontwerpen hebben ingekocht bij partijen als ARM, Marvell, CEVA e.v.a.; net zoals Apple ook een CEVA-ontwerpje nam en er een "Apple AI accelerator" stickertje op plakte. Ook AMD verkoopt tegenwoordig GPU ontwerpen die dan door een ander geimplementeerd kunnen worden (IP); voorbeeld daarvan is Samsung Exynos. Maar een klant hoeft nooit te vertellen waar ze hun ontwerpen hebben ingekocht; daarom dat we ook vaak in ´teardowns' allerlei Apple-logo-gestempelde chips zien waarvan we ons beseffen dat het ontwerp gewoon rechtstreeks van andere firma's afkomstig is.

Dan is het natuurlijk weer de vraag hoe de anderen "concurreren" tegen Tesla's DOJO. Tesla kan best de snelste supercomputer hebben; maar het zou anderzijds best kunnen dat AWS een flinke cluster met Habana's heeft staan; waarvan niet bekend is hoeveel FLOP; of interessanter hoeveel AI-berekeningen (CNN stappen of zo) per seconde.

En de vraag is ook, hoe goed Tesla die supercomputer kan gebruiken om voorsprong op te bouwen; als ze kennelijk nog geen Radar / Lidar sensor-fusie data hebben. Kennelijk heeft Mercedes een manier gevonden om L3 op "beperkte domeinen" (lees: Stukken Autobahn) te maken zonder supercomputer. En zoals gesteld, als je op L3 zit dan zit je bijna op L4.

[Reactie gewijzigd door kidde op 25 juli 2024 23:44]

Dut wordt nog een leuke paar jaar waar veel mensen gaan zien dat Tesla toch echt wel ver voorop loopt.

Met uitspraken zoals dat wanneer ze 1 sensor zouden toevoegen ze het hele data set kunnen weg gooien zegt voor mij genoeg dat u niet echt begrijpt hoe Tesla werkt. Alles draait om het begrijpen van de 3D wereld, niet wat een sensor zelf specifiek in relatie tot de positie van de auto aan geeft. Er wordt direct een 3D model gemaakt waarop alle beslissingen genomen worden.

Misschien een aantal youtubers volgen die al lange tijd FSD Beta videos maakt zal ook laten zien dat Tesla veel verder is dan het level 2 label laat denken.

Edit:typfouten

[Reactie gewijzigd door mikee368 op 25 juli 2024 23:44]

Met uitspraken zoals dat wanneer ze 1 sensor zouden toevoegen ze het hele data set kunnen weg gooien zegt voor mij genoeg dat u niet echt begrijpt hoe Tesla werkt. ...

Misschien een aantal youtubers volgen die al lange tijd FSD Beta videos maakt
Het maakt me niet uit wat u van mij denkt, maar degene die dit vertelde is toeleverancier aan de hele industrie inclusief Tesla zelf. Die vertrouw ik meer dan een stelletje Youtubers.

Nogmaals, ik geef ook duidelijk aan dat alleen in een bepaald klein domein Tesla achterloopt en dat ze buiten dat domein best voor kunnen lopen.

Maar dat hun dataset (dus voorsprong) waardeloos is als ze een sensor toevoegen is een feit, net zoals de emotionele reacties bij Tesla fans als je ook maar half durft te beweren dat er misschien een klein gebied is waar ze niet voorop lopen.
Maar dat hun dataset (dus voorsprong) waardeloos is als ze een sensor toevoegen is een feit,
Lol, nee dat is geen feit en ik weet niet hoe u daar bii komt. En misschien als u Andrey Karpathy op zoekt op YT dat u hier een betere uitleg over krijgt waarom dit incorrect is.
Nogmaals, ik geef ook duidelijk aan dat alleen in een bepaald klein domein Tesla achterloopt en dat ze buiten dat domein best voor kunnen lopen.
Tesla zal ongetwijfeld wel iets hebben waar ze niet volledig mee voor lopen, echter uw claim over de data sets is gewoon niet waar.

Dit is relatief makkelijk te ontkrachten als u een video ziekt van Karpathy als hij uitlegd wat ze nou eigenlijk doen om de wereld te snappen en dat het allemaal niet om 1 sensor draait etc, maar het begrijpen van wat er gebeurt.

Ook het feit dat ze de Radar weg hebben kunnen halen en dat ze regelmatig worden gespot met een volledige Lidar harnas om hun data te verifiëren pleiten voor dat 1 sensor veranderen echt niet appe andere data waardeloos maakt.
Het maakt me niet uit wat u van mij denkt, maar degene die dit vertelde is toeleverancier aan de hele industrie inclusief Tesla zelf. Die vertrouw ik meer dan een stelletje Youtubers.
Dan vraag ik mij af wat ze leveren aan Tesla. Een paar kabels? Camera's?
In ieder geval niet de chip die alles aan stuurt en de software van AP en FSD wordt allemaal in huis gemaakt/ontworpen. Dus wat leveren ze dan nog aam Tesla wat hun de kennis geeft om het hele systeem te kennen?

Hier alvast 1 video van Karpathy om u op weg te helpen https://youtu.be/NSDTZQdo6H8
De video die u deelt, voegt precies niets toe, want het herhaalt exact wat ik al eerder stelde. Namelijk dat het met de senor-fusion niet lukt bij Tesla; en dat mogelijk als excuus gebruikt wordt om het weg te laten. Dat sensor-fusie niet lukt bij Tesla wordt in de video herhaald; en ook als reden gebruikt om nog meer sensoren weg te laten.

Ook het feit dat Lidar video valideert en vervolgens weggelaten wordt voegt niets toe aan het feit dat sensor-fusie in real-time kennelijk niet lukt bij Tesla.

Dus wat u stelt bevestigt alleen maar nog meer het beeld: De meneer in de video die u post heeft het over "doubling down" op het gebied van vision; dus de database die ze al hebben nog waardevoller maken en nog meer van afhankelijk worden.
Dan vraag ik mij af wat ze leveren aan Tesla.
Leveranciers vertellen nooit wat ze aan klanten leveren, het is aan de klanten of ze willen vertellen wie hun leveranciers zijn of niet. Maar laat ik het zo stellen dat het een bedrijf is dat zelf ook in de zelfsturende business zit; maar daarin toegeeft niet helemaal voorop te lopen.
De video die u deelt, voegt precies niets toe, want het herhaalt exact wat ik al eerder stelde. Namelijk dat het met de senor-fusion niet lukt bij Tesla; en dat mogelijk als excuus gebruikt wordt om het weg te laten. Dat sensor-fusie niet lukt bij Tesla wordt in de video herhaald; en ook als reden gebruikt om nog meer sensoren weg te laten.
Omdat de Radar niet accuraat genoeg is ja. Ze zouden heel veel extra geld en tijd kunnen investeren om radar beter te laten werken in hoe accuraat de data is die deze levert. Maar wil je echt een beter systeem was de volgende stap het weglaten van Radar.

Verder geeft hij ook voor mij best duidelijk aan (sorry heb weer 5 videos gezien in herhaling voor beetje opfrissen dus kan zijn dat ik ze door elkaar haal) dat het niet draait om de sensoren, maar het begrijpen van de echte wereld. Net zoals en ik de wereld begrijpen en kunnen voorspellen.

Als je het anders wilt oplossen ga je nog meer rekenkracht nodig hebben om bij het eind doel te komen.
Maar laat ik het zo stellen dat het een bedrijf is dat zelf ook in de zelfsturende business zit; maar daarin toegeeft niet helemaal voorop te lopen.
Bijzonder dan dat er een claim is over Tesla leverancier zijn.

Ik ken geen enkel bedrijf dat software levert of hardware over de specifieke taken voor zelf rijden (cameras etc niet mee gerekend, puur de kern). De chips worden door Samsung gemaakt zoals ze zijn ontworpen door Tesla en ja, software nogmaals is allemaal in house. Dus ik vind het een bijzonder verhaal.
Als je het anders wilt oplossen ga je nog meer rekenkracht nodig hebben om bij het eind doel te komen.
Nee het omgekeerde is waar. Toen ik er wat meer over las bleek Tesla de 'diepste' AI te hebben. Waarom?

In de lezing die ik laatst kreeg, zat een voorbeeld van achter op een spiegelende RVS tankwagen rijden, dan ziet de auto zichzelf op zich afkomen.

Of als iemand ooit zo leip is een spiegelel lichtjes schuin op een glas vrachtwagentje te zetten, gaat het met puur vision ook fout.

Eergisteren reed ik in het donker achter een ander op een polderweggetje, in een keer uit het niets twee lampen van rechts. Blijkt spiegeling van mijn voorligger in een kas rechts van de weg.

Of de vrachtwagen met lange balk iets hoger boven de weg, enfin die kennen we allemaal.

Alle 4 makkelijk op te lossen met onnauwkeurige radar / ultrageluid, die in tegenstelling tot vision goed de diepte ziet. Wil je dat puur met vision oplossen dan moet je veel beter trainen.

Het is voor Tesla (omdat ze veel auto's met zelfsturend verkopen) goedkoper om 1 keer een dure AI te bouwen en de sensoren goedkoop te houden. Voor de anderen, die slechts op 1% van hun auto's AI verkopen (Mercedes oid) is het goedkoper om dure sensors te verkopen met goedkope AI.
De chips worden door Samsung gemaakt zoals ze zijn ontworpen door Tesla en ja, software nogmaals is allemaal in house.
Haha grappig ;) Er is een hele sloot bedrijven die dit soort hard- en software in licentie levert (IP) zodat anderen er hun label op plakken; bijv de Apple AI core wat gewoon een DSP van CEVA is. Voor Samsung komen altijd veel berichten voorbij van Synopsis, Cadence en Mentor dat hun blokken gecertificeerd zijn voor Samsung foundry. Maar u weet als enige dat Tesla daar geen gebruik van maakt. Tesla zou financiëel heel dom bezig zijn alles in house te doen.

Geloof me, ook Tesla SoCs zitten boordevol IP blokken van externe leveranciers. En ook kennis huren ze extern in, of denkt u dat Tesla veel weet over aging gerelateerd tot radiation hardness (ivm soft errors) na 10 jaar levensduur van hun SoCs?

Zo oud is bijna nog geen enkele Tesla. En precies _dat_ is een van de redenen dat Mobileye processors (o ja het onderwerp, want het artikel ging weer helemaal niet over Tesla zoals meestal) op UTBB FD SOI werd gemaakt in plaats van FinFET.

[Reactie gewijzigd door kidde op 25 juli 2024 23:44]

Leuk, maar die claims van andere fabrikanten mag je ook met een flinke korrel zout nemen. Die link over Honda zegt bijvoorbeeld dat het vooral een Traffic Jam Assist systeem is. Klinkt dus als een Level 3 systeem dat zeer beperkt toepasbaar is.

Ford heeft ook zo'n 'hands off' systeem voor bepaalde stukken snelweg. Dat werkt alleen daar waar de snelweg gedetailleerd in kaart is gebracht, maar zelfs dan is er nog steeds volledige aandacht van de bestuurder nodig. En een testritje met Sandy Munroe was best hilarisch qua reactie.

Dat systeem van Mercedes lijkt daar qua beschrijving in ieder geval op. Op een beperkt aantal kilometers snelweg en tot maximaal 60 km/h. Juist: tot maximaal 60 km/h op de snelweg... Dat is dus precies een Traffic Jam Assist systeem zoals Honda ook claimt.

Als je dat allemaal vergelijkt met de Tesla FSD Beta video's in de VS, dan kun je niet met droge ogen beweren dat Mercedes voor loopt.

Dat hele filerijden is iets dat de meeste ADAS systemen al prima kunnen. Het is een van de meest simpele zelfrijdende taken die er maar zijn. Het enige dat nu met een hoop poespas wordt toegevoegd is dat je niet meer je handen aan het stuur hoeft te hebben.

Disclaimer: ik heb geen Tesla, maar een Ioniq 5 met alle ADAS die Hyundai maar heeft. Maar als ik de FSD Beta in actie zie, geloof ik niet dat de Ioniq 5 dat ooit kan bereiken.

[Reactie gewijzigd door bilgy_no1 op 25 juli 2024 23:44]

Heb het even nagekeken, en kennelijk gaat L3 er vooral om dat je backup systemen hebt.

Je kan het beste camera systeem met de beste AI ooit hebben, maar als je dan op een donkere snelweg rijd en de kop-lampen vallen uit krijg je kennelijk geen L3.

Verder moet Tesla winst maken op de AI systemen, maar Mercedes, Honda en Google niet, dus die kunnen zich in tegenstelling tot Tesla dure Lidar veroorloven.

Zoals ik reeds stelde, is het dus in een bepaald beperkt domein dat Mercedes vooroploopt, en kennelijk is dat in het bieden van een back-up systeem.

Terugkomend op Mobileye, want het artikel gaat natuurlijk niet over Tesla: Kennelijk biedt Intel + BMW twee afzonderlijke systemen zonder 'fusion', dus dat is goed op weg richting L3.
Tja, het is hoe je de voorsprong definieert. Mercedes en Honda zetten dus een hele hoop extra systemen in de auto om binnen een heel beperkte set aan omstandigheden het predikaat L3 te mogen voeren. Ze zijn dus eerder door dat ambtelijke hoepeltje gegaan.

Ik kijk zelf liever naar wat de systemen echt kunnen. Dan twijfel ik er niet aan dat een Tesla, en heel veel anderen, ook gewoon file kunnen rijden.
Wat u een ambtelijke molen noemt, is er wel de reden van dat bijvoorbeeld vliegen vandaag de dag zo veilig is.

Vooruitgang is dat degenen die de auto-piloot van een vliegtuig bouwen, rekening houden met dat systemen kunnen uitvallen in plaats van energie stoppen in uitbreiding van de functionaliteit.

Allebei is vooruitgang, en uitbreiding van de functionaliteit trekt natuurlijk meer positieve aandacht dan iets 'stoffigs' als veiligheid, bij 60 per uur op beperkte snelwegen. Maar wil je echt autonomie bereiken dan weet ik wel waar de aandacht naartoe moet.
Heb je dan meer rekenkracht nodig? Hoeveel rekenkracht hebben lidar en radar nodig bij de centrale SoC tov wat ze lokaal bij de sensor berekenen? En als ze diepteinformatie toe kunnen voegen aan de camera beelden dan scheelt dat misschien wel rekenkracht, tov alles proberen te baseren op enkel camera beelden.

Edit: Hoe zit dat eigenlijk met privacy en Tesla? Want Tesla's primaire voordeel tov andere is de hoeveelheid real world data die ze hebben, maar dat weten ze wel van hun klanten. Nu vermoed ik dat Elon sowieso real-time de locatie van elke Tesla kan bekijken.

[Reactie gewijzigd door Sissors op 25 juli 2024 23:44]

Meer sensoren betekent meer rekenkracht. Zeker omdat ze redundant zijn. Dus vision en lidar/radar. Alles loopt dan parallel want het systeem moet instant kunnen schakelen tussen enkel Vision en enkel lidar/radar.

Dat vergt meer rekenkracht in de auto maar hun idee achter die strategie is dat ze het training model dan lichter kunnen maken.

Dat privacyvraagstuk is van toepassing op elke autofabrikant met zulke technologie. Geen idee hoe tesla het doet. Ze spreken toch van anonimiseren van datastromen. Al weet ik niet of de data nog terug te traceren is tot een persoon.
Om naar level 4 te gaan moeten er garanties over de betrouwbaarheid gegeven worden, Mobileye wilt eigenlijk 2 self driving systemen, 1 camera based zoals Tesla + 1 met lidar & radar die beide tegelijk draaien. Als systeem A het lastig heeft volgt de auto systeem B & vica versa. Er is wel een grote maar, als beide systemen aangeven zeker te zijn maar een ander resultaat geven, wie volg je dan?

Het neurale netwerk is een punt van discussie, Tesla zet daar zwaar op in maar Mobileye kiest voor super gedetailleerde kaarten.

Mobileye word vaak negatief aangehaald voor die approuch omdat het systeem enkel goed kan werken als de kaarten up to date zijn waar Tesla een systeem bouwt dat eigenlijk geen kaarten nodig heeft.

Tesla laat mooie dingen zien, in de US maar niet in de EU. Dat heeft deels te maken dat de EU niet akkoord gaat met beta software op de openbare weg maar vooral ook met het Amerikaanse systeem dat als men zegt "on your own risk" dat het ook effectief "on your own risk" is. Of anders gezegd, in de US is men allergisch aan regelgeving (inbreuk op freedom) dus Tesla heeft daar veel meer vrijheid om te bewegen. Als je kijkt wat een Tesla in de EU daadwerkelijk doet van autonoom rijden is dat evenveel als een Mercedes, iets waar Tesla zwaar mee uithaalt onder de noemer "de EU legt ons regels op om hun eigen automarkt te beschermen"

Maar een andere factor die meespeelt, Tesla is een self driving auto aan het maken zonder kaarten volledig getrained op het wegennet van de US. Wat gebeurd er dan als je dat neuraal netwerk laat rijden in de EU waar de lijnen/borden & regelgeving vaak veranderd? Maar ook niet vergeten dat de wegen in de US heel simpel en doorgaans kaarsrecht zijn terwijl ze daar een rondpunt of steden uit de middeleeuwen niet kennen.

Dan klinkt een systeem dat stevig op kaarten leunt plots weer veel handiger, die kan veel gemakkelijk lokale verschillen afhandelen.

Welk systeem het dan uiteindelijk zal worden kan niemand voorspellen maar vermoedelijk ergens iets tussen in.

[Reactie gewijzigd door sprankel op 25 juli 2024 23:44]

Ik begrijp dat VS/EU verhaal niet. Kaarsrecht, simpel? Hun Beta draait net in woonwijken en stadskernen. Ok er zijn daarnaast nog verschillen in regelgeving maar dat is niet overkomelijk.

Dat kaartverhaal begrijp ik ook niet. Geen enkel systeem draait vol op kaarten. Wegenwerken veranderen dagelijks net zoals geparkeerde auto’s, omgewaaide bomen etc niet op kaarten staan. De edge cases staan niet op kaarten en die wil je net autonoom kunnen interpreteren. Daar ligt net de uitdaging van autonoom rijden. Niet het maken van goede kaarten.

Het is zeker geen geheim dat de EU Tesla tegenwerkt als het op rijhulpmiddelen aankomt. Ook geen geheim waarom.
De edge cases die je beschrijft zijn eigenlijk heel simpel, een omgewaaide boom is een obstakel net als een fietser. En uiteraard gaat een kaart gebasseerd systeem niet 100% op kaarten werken, wegenwerken zijn zelfs geen issue voor mijn level 2 non Tesla systeem, hij kijkt simpelweg naar wat het andere verkeer doet en volgt hun rijgedrag.

Het US wegennet is veel eenvoudiger in opzet, het gaat niet om woonwijken of stadskernen, het gaat hem om de diversiteit in hoe wegen, kruispunten & rondepunten opgebouwd zijn. Niet enkel de lay-out van het wegennet is eenvoudiger door het gebrek aan historische steden, het is ook overal car first ingericht en niet met fietsers & voetgangers in het achterhoofd. In de US moet je een auto hebben of je komt nergens.

https://www.youtube.com/watch?v=4uJjny6_RF4

Op 0:48 zie je al een typisch EU probleem, een verhoging op de weg om de weg te versmallen. Dat is iets wat je nooit tegenkomt in de US en waar ook de EU systemen het lastig mee hebben omdat het evengoed een verkeersdrempel kan zijn.

Op 2:20 gaat het weer fout, in de US hangen de lichten altijd boven het rijvak waarbij wegen in stroad aangelegd zijn, brede wegen waar geen sprankeltje groen te bespeuren valt. Maar hier is de situatie anders waarbij de Tesla zelfs niet doorheeft dat er lichten staan, een kaart waar die lichten gemarkeerd staan had de Tesla hier echt kunnen helpen maar het neurale netwerk lijkt ook de link niet te leggen dat als er links lichten staan dat er rechts ook gaan staan.

Op 3:20 gaat het terug fout, zelfde probleem als 0:48 maar dit keer in een kruispunt, verhogingen die op de weg liggen waar in de US kruispunten enkel met lijnen aangegeven worden.

Op 3:54 word een rondpunt geprobeerd, iets wat ze niet kennen in de US, de Tesla weet bijgevolg langs geen kanten wat hij hiermee moet doen.

In de EU hebben we ook verschillende soorten verkeersdrempels, in de US heb je een speed bump & that's it, die ga je er ook niet vaak vinden overigens gezien hun car first beleid. Als je dat samen voegt met oa 27 EU lidstaten met elk hun compleet eigen regelgeving, andere borden, andere talen (denk maar aan een bord met Déviation), andere soort markeringen maar ook ander rijgedrag zoals Duitsland waar je in file een rijstrook voor hulpdiensten moet maken, dan krijg je echt wel een geheel ander en veel complexer verhaal dan in de US.

Welk systeem er dan in slaagt, enkel de tijd zal het ons leren maar er is geen enkel systeem dat zeker in de EU nog maar in de buurt komt van daadwerkelijk autonoom te rijden.
Sorry maar een door de EU crippled autopilot demo gebruiken om vervolgens in detail aan te duiden wat er niet gaat is gewoon het debat oneer aandoen.

Ik stel gewoon voor om even de FSD beta video’s te bekijken :) Dan ga je zien dat get geen kaarsrechte wegens zijn met pleinen met maar 1 type speed bump. Ahja incl een rond punt:)

Als je denkt dat die verschillen echt killing zijn op Level 3/4 hier uit te brengen dan mag je dat zeker verkondigen. Maar tot hiertoe zijn er geen bewijzen dat het onoverkomelijk is en dat we steeds jaren gaan achterlopen op De VS omdat het daar ‘simpeler’ is. Laat ons het houden op ‘anders’.

En euh…’Elk land compleet andere regelgeving?’ We hebben een EU regelgeving en we volgen internationale standaarden. Tuurlijk zijn er verschillen maar denk je dat er geen verschillen zijn tussen de staten in de VS als het aankomt op regeltjes en verkeersborden?

[Reactie gewijzigd door Coolstart op 25 juli 2024 23:44]

De regels die de EU oplegt leggen niet uit waarom Tesla de fouten maakt in de video die ik gepost heb, er is geen EU regel die zegt tegen Tesla, hey, als je een wegversmalling ziet, rijd dan maar gewoon recht door tegen de paal.

Dat gaat over dat het systeem niet zelf mag beslissen om lijnmarkeren te negeren, maximale G kracht in een bocht etc. Het legt ook niet uit waarom het systeem tilt slaagt op een rond punt of als er wegverhogingen zijn op een kruispunt.

Vervolgens antwoord jij met een filmpje van een Tesla die op software draait die niet getest is, hence de naam Beta, ja in de US mag dit, ergens anders in de wereld mag je het vergeten inclusief Canada maar ook slechts aan een select aantal cherry picked klanten. Het is een techcase waar jij je blind op staart.

Dat is hetzelfde dat een EU merk zegt, kom even langs in onze fabriek en probeer eens onze software uit die we pas over mogelijks 2 jaar daadwerkelijk gaan uitbrengen, not going to happen, die software krijgen we pas te zien als ze getest, goedgekeurd en productie rijp is, als iedereen ze effectief gewoon kan kopen.

Als je de compititie wilt vergelijken dan wil je een gelijk speelveld dus ja dan kijk ik naar wat Tesla effectief goedgekeurd, getest & productierijp op de markt heeft.

Overigens waar ik in je filmpje ronde punten moet tegen komen is mij niet duidelijk, noch zie ik daadwerkelijk wegversmallingen (geparkeerde auto's zijn heel gemakkelijk te detecteren), noch zie ik verschillende soorten verkeersdrempel, ik heb maar 1 bump geteld.

Ik moet zeggen dat ik zeer zeker onder de indruk ben van hoe ver het systeem verkeerslichten weet staan, alsof de auto precies weet al lang op voorhand waar die lichten staan. Hoe de camera's dat detecteren zonder een gedetailleerde map is mij een raadsel. Maar als het al reeds stiekem een map aan het gebruiken is wat ik hier zeer sterk vermoed, bordenherkenning bij de EU versie was een grote plus omdat de EU kaarten de snelheid nog niet eens correct aangaven, laat staan dat Tesla zich bezig houd met gedetailleerde EU kaarten voor self driving.

Dat neemt niet weg dat Tesla mooie dingen laat zien maar het is ook maar enkel en alleen in de US, nergens anders ter wereld. De wereld is toch net iets groter dan de US en de EU waar het zogenaamd enkel aan regelgeving zou liggen.
Mobileye wilt eigenlijk 2 self driving systemen, 1 camera based zoals Tesla + 1 met lidar & camera die beide tegelijk draaien. Als systeem A het lastig heeft volgt de auto systeem B & vica versa. Er is wel een grote maar, als beide systemen aangeven zeker te zijn maar een ander resultaat geven, wie volg je dan?
Tja, en daarom doe je dat dus niet. Je traint 1 AI die een willekeurige combinatie van sensoren kan gebruiken.
Dan krijg je hetzelfde probleem, lidar ziet een voetganger, camera ziet een fietser, welke input stuur je naar je enkel AI systeem?

Mobileye wilt daar rond werken door ze sowiezo apart te houden en het idee zal eerder zijn, als de weeromstandigheden slecht zijn gebruiken we Lidar/Radar & in city driving gebruiken we camera. Immers als de stad vol rijd met auto's die Lidar & Radar aan boord hebben in combinatie met veel objecten ga je veel noise & echo's krijgen.

Je blijft met een grijze zone zitten natuurlijk, in dat geval kan de auto nog altijd vragen om zelf over te nemen gezien we over level 4 spreken. Een andere optie is de auto laten afremmen tot de onzekere situatie zeker word, iets wat typerend menselijk gedrag is.
Dan krijg je hetzelfde probleem, lidar ziet een voetganger, camera ziet een fietser, welke input stuur je naar je enkel AI systeem?
Beide en daar leert het systeem van. Waarom de kracht van AI / ML niet maximaal benutten?
Gebruikt u zelf Lidar om te kijken dan?
Zo nee, waarom zou een auto metb8 camera's en ultrasone sensoren wel een Lidar nodig moeten hebben?
Het menselijk brein is veel complexer dan de moderne systemen. Ik zou ze hedendaags voor deze kwestie nog niet met elkaar vergelijken.
Lidar ziet geen voetganger, lidat ziet pixels. Het ene AI systeem beslist of er een fietser is, gebaseerd om pixels van de camera, lidar en radar.
Het moeilijke van een zelfrijdende auto is niet om op alle soorten wegen te rijden, maar om het betrouwbaar en zonder fouten te doen; eingenlijk mag een zelfrijdende auto per miljard uur rijden maar 1 gevaarlijke fout maken om goed te zijn (als ik ASIL-D betrouwbaarheidsniveau uit ISO26262 als referentie neem; dit is niet op zelfrijdende autos en hogere functies gericht, maar ik vind het toch een goede richtlijn)

Wat zou het beste zijn wanneer je een zeer betrouwbaar systeem wilt maken (aangezien zulke foutjes tot dodelijke ongelukken leiden)? een systeem met alleen camera/cnn dat zich soms vergist (waarbij de self-driving logic dat niet weet aangezien die alleen op de cameragegevens kan rekenen) of een systeem met camera/cnn, een systeem met lidar/radar plus een derde systeem van gedetailleerde kaarten, waarbij alle 3 de systemen zich soms vergissen, maar waarbij de self-driving logic dan weet dat er bijzonder voorzichtig gereden moet worden aangezien de informatie niet klopt?

Om het voorbeeld van voetganger/fiets te verduidelijken: Wat als de camera zegt dat het een voetganger is en de lidar zegt dat het een fietser is? Dan weet de auto dat hij voorzichtig moet rijden omdat het beide (of iets er tussenin) kan zijn, terwijl de auto die alleen maar een camerasysteem heeft ondertussen iemand met zijn step van de baan rijdt omdat die denkt zeker te zijn dat het een trage voetganger is...
Uiteraard gebruik je een CNN na je Camera, maar je gebruikt ook een CNN na je lidar. Dieper in je netwerk heb je fully-connected layers die afhnagen van beide CNN's. Het label "fietser" bestaat niet in de lagen van je netwerk die alleen op camera-pixels werken, dat bestaat alleen op de laatste laag.
Welk systeem het dan uiteindelijk zal worden kan niemand voorspellen maar vermoedelijk ergens iets tussen in.
Op het moment dat je technisch kunt zeggen dat je een level 5 systeem hebt, betekent nog niet dat die 100% ingevoerd/ geaccepteerd gaat worden door de samenleving/ politiek.
In de praktijk betekent dat je dan nog steeds een level 4 aan het rijden bent.

De invoering van level 5 in de maatschappij moet geleidelijk gebeuren anders ontstaan er verstorende effecten die niet opwegen tegen de voordelen van level 5.

En dan is een systeem gebaseerd op kaarten meer logisch omdat je dan de controle hebt.
Daarmee kun je bijvoorbeeld regelen:
* level 5 alleen op de snelweg toegestaan.
* level 5 taxi geleidelijk invoeren per stad.
* level 5 voor vrachtwagens in distributiezones direct langs snelweg.
Daarmee kan de overheid op basis van behoefte sturen per regio waar ze de techniek wil gaan inzetten.

Bovendien de belangrijkste reden om level 5 geleidelijk in te voeren is om te voorkomen dat vermogensbeheerder zoals BlackRock de markt opkomen en alles en iedereen de markt uitdrukken.
Hierdoor wordt vermogensongelijkheid steeds groter, juist in een periode dat er miljoenen banen verloren gaan.

Voordat level 5 in de praktijk geheel is ingevoerd (in de EU) zodat je 100% van het wegennetwerk ervan gebruik kan maken is heel ver weg.
Je uitleg klopt volledig als je het cijfer 5 met 4 veranderd.

4 rijd volledig autonoom onder gecontroleerde omstandigheden (bijvoorbeeld enkel snelweg of stad X) of in bepaalde weersomstandigheden (bijvoorbeeld niet als het gesneeuwd heeft). Bijgevolg heeft level 4 sowiezo nog bediening voor de bestuurder al dan niet in de vorm van een uitklapbaar stuur.

5 heeft geen bediening meer en moet ten alle tijden alsook overal autonoom kunnen rijden zonder beperkingen.

Ik vermoed dat we in de praktijk, als we ooit daadwerkelijk aan 4 geraken dat we héél lang op 4 gaan blijven zitten maar dat het aantal omstandigheden waarin het niet volledig autonoom werkt met de tijd omlaag zal gaan. 5 is zowel technisch als economisch niet intressant, die allerlaatste % gaat het duurste zijn om technisch op te lossen terwijl die allerlaatste % niemand gaat boeien. Als ik het hele jaar autonoom kan rijden onder niveau 4* waarbij ik 1 keer manueel zelf over een onverharde weg in de middle of nowhere moet rijden, wat brengt die allerlaatste stap economisch nog op?

*de eerste generatie van niveau 4 gaan dusdanig veel beperkingen hebben van omstandigheden waar het niet kan of mag dat niveau 4 veel tussen generaties zal kennen, gen 1 zal waarschijnlijk enkel autosnelweg zijn onder goede weersomstandigheden terwijl niveau 4 gen ? pas echt op alle soorten wegen autonoom gaat rijden.

[Reactie gewijzigd door sprankel op 25 juli 2024 23:44]

Het economisch aspect van niveau 5 is inderdaad interessant.
Aanschafwaarde hoog, afschrijvingstermijn > 20 jaar?
Onderhoud frequentie dagelijks/ wekelijks?
Als die auto meer kost dan wat Jan Modaal betaald aan woonlasten, dan is het niet interessant om die auto te bezitten in de traditionele vorm.
En dan is "Car sharing" de enige optie voor Jan Modaal of toch maar gewoon een niveau 4, gen 1, occasion kopen bij de dealer.

Het idee van een niveau 5 auto is te mooi om waar te zijn (op dit moment):
De auto komt gewoon voorrijden als een soort taxi.
Parkeerkosten heb je dan niet meer.
Opladen doet de auto tussen de ritjes door zelf, de AI bepaald het meest ideale moment.
Onderhoudsbeurten regelt de AI zelf met de garage.
Als het nodig is om de auto te wassen, dan gaat de AI zelf naar de wasstraat.

Niveau 5 gaat veel meer teweegbrengen dan de meeste mensen zich kunnen indenken.
Het betekent een cultuurverandering en die neemt meerdere generaties in beslag.
En dit is dan even helemaal los van het feit dat er miljoenen banen verloren gaan.
Zolang level 4 binnen zijn opgelegde gecontroleerde omstandigheden blijft mag die zijn stuur en pedalen ingeklapt hebben. Die gaat dus niet plots vragen, dat kruispunt is moeilijker dan ik dacht, neem jij even over? Immers dan zit je nog op level 3.

Die mag enkel als die buiten zijn gecontroleerde omstandigheden gaat vragen om het stuur over te nemen. Dat wilt zeggen dat je bij level 4 ook mag liggen slapen in de auto maar evengoed dat er niemand in de auto zit zolang je kan garanderen dat de auto binnen zijn gecontroleerde omstandigheden blijft . Je hoeft daar dus niet level 5 voor te hebben.

Initiëel zal dat tegenvallen, enkel de autostrade zal gecontroleerd zijn of je gaat een Taxi zonder chauffeur hebben die enkel binnen een welbepaald stadsgebied mag opereren. Maar naarmate level 4 uitbreid in zijn omstandigheden,waarom zou je nog een auto in bezit willen nemen?

Dat gaat niet enkel over wat het kost maar ook het gebruiksgemak, waar en wanneer ik ook ben, of ik nu een rijbewijs heb of niet, kan ik een auto van formaat naar keuze oproepen. Het zal simpelweg geen logica meer maken om nog een auto te bezitten. En uiteraard is het economisch veel intressanter om een auto op de weg te zetten die continu gebruikt word.

Dat is ook de reden dat al die fabrikanten een race houden naar level 4 / 5, als je die boot gemist hebt is het game over.

In de laatste fase van niveau 4, waar bijna alles "gecontrolleerde omstandigheden" zijn, is het enige wat 5 nog toevoegt het weglaten van het stuur / pedalen. Bijgevolg zie ik op dat moment de meerwaarde niet meer van 5, al was het maar om als er een storing is dat je toch nog een optie hebt om de wagen te besturen al dan niet tegen zeer lage snelheid. Maar ook economisch zie ik de meerwaarde niet meer.

Feitelijk hadden ze beter een niveau tussen 4 & 5 gezet waarbij de wagen volledig autonoom rijd op alle soorten wegen en onder doorsnee weersomstandigheden maar onder bepaalde conditities toch nog kan vragen zelf te sturen.
Misschien interessant om te vermelden dat ze samen met Geely werken aan een level 4 auto.
Mobileye, the autonomous vehicle company owned by Intel, and Geely, China’s largest automaker, are joining forces to develop a consumer-ready autonomous vehicle that they claim will be ready by 2024.
https://www.theverge.com/...-vehicle-personally-owned

[Reactie gewijzigd door Kapitein187 op 25 juli 2024 23:44]

Mobileye werkt met veel bedrijven samen. Hun doel is uiteindelijk oem voor dit soort systemen te worden.
Hierom: https://www.theverge.com/...-vehicle-personally-owned
Mobileye, the autonomous vehicle company owned by Intel, and Geely, China’s largest automaker, are joining forces to develop a consumer-ready autonomous vehicle that they claim will be ready by 2024.

The self-driving car, which will also be battery-electric, will be produced under Geely’s Zeekr brand, which was unveiled last year as the automaker’s “new electric mobility technology and solutions company.”

The new car will be equipped with Level 4 autonomous driving capabilities, meaning it will handle 100 percent of the driving tasks under certain conditions, like favorable weather or within certain geographic limits.
Waarom is dat zo interessant dan? Mobileye werkt samen met BMW, VW, Audi, Opel, Zeekr, Nissan, Ford, Volvo, en tal van andere hier minder bekende merken.
Omdat ze samen werken aan een auto.

Op dit item kan niet meer gereageerd worden.