Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Nvidia heeft de opvolger van zijn bestaande computersysteem voor zelfrijdende auto's bekendgemaakt: de Drive PX 2. Dit nieuwe systeem voor autonome auto's maakt gebruik van twee Tegra-processors en twee Pascal-gpu's.

Nvidia heeft op CES 2016 laten weten dat de Drive PX 2 gebruikmaakt van een neuraal netwerk, gebaseerd op natuurlijke neurale netwerken, zoals het centrale zenuwstelsel. De Drive PX 2 is hiermee in staat om het gedrag van biologische systemen na te bootsen als de functies afhankelijk zijn van een grote hoeveelheid variabele factoren. Hiermee hoopt Nvidia dat de PX 2 uiteindelijk in staat is om zichzelf nieuwe situaties aan te leren. Dit wordt deels mogelijk gemaakt doordat het apparaat beschikt over een 8-teraflopprocessor.

Volgens Nvidia is het met het neurale netwerk mogelijk om de computersystemen sneller te laten leren, doordat alle gegevens in de cloud worden verwerkt. Hierdoor leren alle gekoppelde systemen van alle situaties die individuele autonome auto's meemaken. Nvidia claimt dan ook dat met dit systeem de veiligheid van de autonome auto's stijgt. Het netwerk wordt mogelijk gemaakt door de software die Nvidia op de systemen plaatst: Nvidia Digits. Digits is het programma waarmee het neurale netwerk wordt getraind en ontwikkeld. Het programma is geschikt voor alle systemen die op een Nvidia-gpu zijn gebaseerd.

De Drive PX 2 is ongeveer zo groot als een broodtrommel en gebruikt waterkoeling. Nvidia geeft aan dat verschillende fabrikanten, waaronder Audi en BMW, al bezig zijn met implementatie van de PX 2. Alleen van Volvo vertelt Nvidia dat het volgend jaar al komt met honderd XC90s die gebruikmaken van het nieuwe autonome systeem.

PX 2

Moderatie-faq Wijzig weergave

Reacties (57)

Wat mij direct te binnen schiet is: leuk deze ontwikkeling, maar wat als een auto met deze computer over 15 jaar nog steeds op de weg rijdt? Als ik terug denk aan de computer die ik 15 jaar geleden thuis had staan, ook al zou dit een super computer geweest zijn vele malen sneller was dan de gemiddelde computer, dan nog zou deze flink verouderd zijn. Volgens mij zouden we eerder naar een oplossing moeten gaan waarbij de rekenkracht ergens gecentraliseerd staat en om de zoveel jaar vernieuwd kan worden.
De computer die je thuis hebt, gebruik je waarschijnlijk voor steeds zwaardere taken (zwaardere games, websites en applicaties bijvoorbeeld), waardoor de eisen stijgen en je af en toe een nieuwe nodig hebt. Bij zelfrijdende auto's geldt dat volgens mij niet in dezelfde mate. Wat een zelfrijdende auto moet kunnen is veel, maar het verandert qua complexiteit niet enorm. Het is sowieso een erg complexe taak, maar als je eenmaal hardware + software hebt dat deze complexiteit aankan en zelflerend is, dan zou de hardware in principe stukken langer mee kunnen gaan dan dat van een PC.

Dat gezegd hebbende, staat deze tak van sport nu nog redelijk in de kinderschoenen. Het zou goed kunnen dat de eerste generaties van zelfrijdende auto's die daadwerkelijk verkocht gaan worden nog geen enorm lange levensduur zullen hebben (althans, de computer die erin zit niet). Bijvoorbeeld door kinderziektes, voortschrijdend inzicht, toekomstige standaarden en protocollen voor zelfrijdende auto's en de communicatie tussen auto's en andere diensten, enz. Deels is dit met software-updates op te vangen, maar deels waarschijnlijk ook niet. Zoals bij veel andere sectoren van technologie is de early adopter dus het meest kwetsbaar voor veroudering. Maar als de zelfrijdende auto eenmaal goed is ingeburgerd, lijkt het me wel mogelijk om een lange levensduur van de techniek te realiseren.

Ik zou dit hoe dan ook niet willen oplossen met cloud-based, gecentraliseerde rekenkracht. Ten minste niet totdat we een 100% dekkend netwerk hebben zodat auto's altijd verbonden zijn. Op dit moment is dat in Nederland al niet altijd het geval, laat staan in andere landen. Voor nu lijkt een afhankelijkheid van internet me dus niet verstandig. Op de wat langere termijn kan zo'n werkwijze echter misschien wel een goede oplossing zijn.
Ten minste niet totdat we een 100% dekkend netwerk hebben zodat auto's altijd verbonden zijn.
Een zelfrijdende auto zal altijd zelf moeten kunnen rijden zonder verbonden te zijn. Wel lijkt het me goed kunnen dat in de toekomst de basis van het zelfrijden in de auto zit en er een groot stuk in cloud gedaan word die zorgt dat dit geoptimaliseerd word bijvoorbeeld.
Zoals ik de bron interpreteer werkt het als volgt:
De Drive PX 2 is uitgerust met een kopie van het neurale netwerk die de daadwerkelijke beslissingen neemt en is daarmee volledig onafhankelijk van de cloud in staat de auto te rijden.

Wat het grootste probleem bij dit soort oplossingen is, is het trainen van je neurale netwerk (of welk ander "lerend" algoritme dan ook). Een vaak toegepaste techniek is supervised learning, wat inhoudt dat er real world data gebruikt wordt om je algoritme te trainen. Echter om je algoritme te trainen heb je genoeg verschillende data nodig zodat je geen scheef getrokken of suboptimale uitkomsten krijgt. (Denk bijvoorbeeld wat er zou gebeuren als we alleen trainings data zouden gebruiken van de "slechtste bestuurders van Nerderland", of alleen trainingsdata zouden gebruiken van de snelweg en vervolgens in een woonwijk terecht komen...)
Hier komt de cloud om de hoek kijken. Doordat iedere Drive PX 2 module zijn data terug de cloud in stuurt krijg je een steeds grotere en betrouwbaardere trainingsdata set die vervolgens weer gebruikt wordt het neurale netwerk beter te trainen/optimaliseren. Vervolgens krijgen de Drive PX 2 modules deze verbeteringen aan het nearale netwerk weer binnen waardoor ze beter zouden moeten kunnen anticiperen op situaties waarin de desbetreffende auto tot op heden niet in terecht is gekomen.

Ik zou dit dan ook niet zozeer zelflerend willen noemen aangezien acties worden "gefit" op de trainingsdata die alles kan maken of breken.

[Reactie gewijzigd door Spekkie88 op 5 januari 2016 14:38]

Goed uitgelegd, onwaarschijnlijk als ik naar het plaatje kijk.

"8 TFlops" is 8 biljoen (!) Floating Point Operations Per Second. Die performance is typisch voor een lerend systeem, en veel meer dan je nodig zou hebben voor een al ingeleerd neuraal netwerk. Zelfs met een Deep Neural Network met een miljoen nodes kun je nog onder de 1 TFlops blijven gedurende Forward Propagation (input -> uitkomst), Backwards Propagation (input & uitkomst -> aanpassing) is de dure operatie.
Dat is ook een goed punt, het zou me dan ook niets verbazen als iedere drive px 2 onderdeel uitmaakt van het cloud computing netwerk voor het trainen van het neurale netwerk.

Desalniettemin zal iedere drive px 2 volledig onafhankelijk van de cloud de auto kunnen besturen.

Wat ik me dan wel afvraag is of de drive px 2 volledig onafhankelijk van de cloud nog wel lokaal zijn eigen neurale netwerk update, aangezien je dan wel erg eenzijdige data binnenkrijgt...
Nu ik wat meer sites heb gezien lijkt de 8 Tflops vooral een marketing verhaal te zijn. Het is de totale peak performance van alle processoren samen, los van de vraag of dat uberhaupt mogelijk is. Bovendien is elke FLOP nogal optimistisch geteld, met Fused Add & Multiply als 2 operaties en met beperkte (FP16) precisie.

Overigens is FMA relevant genoeg voor de neurale netwerken, omdat elke neuron een input moet vermenigvuldigen met een weegfactor, en vervolgens moeten de resultaten van neuronen opgeteld worden om de input voor de volgende laag neuronen te berekenen.
duidelijke uitleg! alleen had ik een vraag? heeft google het probleem van een zelflerend neurale netwerk niet opgelost met de API die ze gebruiken bij tensorflow of werkt dat heel anders ?
Persoonlijk ben ik niet bekend met tensorflow, maar heb even de whitepaper introductie gelezen en de rest vluchtig bekeken.
Het ziet er erg interessant uit, maar van wat ik er tot nu toe van heb begrepen is het vergelijkbaar met wat nVidia in dit artikel in de cloud gaat doen.
In tensflow kan je je neurale netwerk definiëren en trainen.

Er zijn echter verschillende manieren van trainen. Zo lijkt tensflow ook unsupervised learning te ondersteunen waarbij geen real-world data aan te pas komt. Maar ook in dat geval zal het netwerk zich "bewust" moeten zijn van hoe goed het presteert anders kan er niets geoptimaliseerd worden. Ook in dat geval zal er door de mens een bepaalde "reward" functie gedefinieerd moeten worden die bepaald hoe goed de uitkomst is van het netwerk.

Het trainen bestaat dan uit het maximaliseren van je reward, waarbij het bij supervised learning vaak gaat om zo dicht mogelijk bij de uitkomst van de trainingsdata te komen.

Al met al zie ik niet direct een wezenlijk verschil tensorflow en de aanpak van nVidia, behalve dat tensorflow mogelijk meer verschillende trainingsmethoden toe kan passen.
duidelijk thanks voor de uitleg
Wat bedoel je met het probleem van zelflerende neurale netwerken? Er zijn tientallen problemen en beperkingen.

Een groot probleem wat Tensorflow niet heeft opgelost is snelheid. NVidia's cuDNN is héél veel sneller. Maar beide libraries zijn vergelijkbaar, twee moderne implementaties van complexe neurale netwerken.
Ik hou me ( nog ) niet echt bezig met machine learning/deep learning dus het is allemaal nog best nieuw voor me. Maar het feit dat tf langzaam is komt denk ik omdat het pas de eerste release van tf, tuurlijk zal het niet zo snel zijn als nvidia's cuddn.

De tf die we hebben gekregen is een opensource tf en zal nooit zo snel ( bij de eerste release ) als de tf die Google intern gebruikt.


Klopt en 1 van die beperking was: partial subgraph computation.

Nu je op elke plek van de graph je informatie uit kan lezen wordt het debuggen een heel stuk makkelijker, of zie ik dat verkeerd ?
Goed uitgelegd, precies ook wat ik denk. Geen spelt tussen te knopen.
Mee eens; voor de voorzienbare toekomst is het niet haalbaar om een internetverbinding als verplichting te hebben voor het functioneren, want dat is vragen om een hoop problemen. Zelfs een uptime van 99.99% is niet genoeg voor dit soort toepassingen, en 100% uptime is eigenlijk niet te garanderen. Misschien komen we qua infrastructuur ooit zo ver dat het kan, door een combi van verschillende netwerken met hele hoge redundantie en betrouwbaarheid. Maar tot die tijd zullen de zelfrijdende auto's alleen moeten verbinden wanneer een connectie beschikbaar is (loose coupling).

[Reactie gewijzigd door geert1 op 5 januari 2016 11:55]

Maar heeft je pc van 15 jaar geleden ineens veel meer problemen met zijn taken die hij 15 jaar geleden moest doen? Internet en officie etc gaan met hun tijd mee en worden zwaarder. Waardoor we blijven updaten. En een p4 van vroeger is net zo snel 15 jaar later. En mocht het te langzaam worden zal je vast eens in de zoveel tijd met bv apk een upgrade moeten uitvoeren bij de garage.
Precies, mijn auto uit 1984 heeft ook een computer die het gas regelt en de inspuiting ofzo. Hij rijdt nog steeds probleemloos rond.
Heeft die computer koeling nodig?

Maar veel belangrijker, de complexiteit stijgt een stuk harder. Een bekend fenomeen is dat bij uitbreidingen de verwevenheid van verschillende onderdelen steeds groter wordt.

Bij oude auto's werd het gas niet geregeld maar de luchttoevoer, zogeheten choke, dat werd op een gegeven moment 'geautomatiseerd'. Maar als die het niet goed deed, dan kon je er nog mee rijden.

Tegenwoordig komt het vaker voor dat wanneer er een melding is, dat je systeem in noodloop gaat en dus praktisch geen vermogen, en soms helemaal niets meer doet. En in de toekomst zal dat alleen maar erger worden. Een van de grootste ergernissen van een fabrikant zijn de kilometers (koper)draad die je in een auto nodig hebt, om die te beperken wordt er steeds vaker gekeken om die te vervangen door onder andere glasvezel (pof).
Dat wordt nu al gebruikt voor oa audio-systeem, maar meer essentiële onderdelen zullen ook volgen. Als je daar een verkeerd signaal krijgt, dan is de auto stoppen het enigste remedie.

Niet negatief bedoeld, maar de systemen van toen en nu zijn totaal niet te vergelijken.
In 1984 had je motronic, LH jetronic en hoop andere digitale injectiesystemen die al alles regelde qua brandstoftoevoer. Multipoint inectie, katalysatoren, noem t maar op alles was er al. Dat we in NL niet meegingen met de vs en hier nog tot ver in de jaren 90 met carburateurs rond reden ligt niet aan de techniek maar aan ons.

Mijn auto van 1983 heeft al een boordcomputer die gemiddelde verbruik, nog te rijden km etc aangeeft op een groen lcd display.

Men denkt echt dat ze toen nog in de middeleeuwen leefde.

Er is maar weinig veranderd in brandstoftoevoer ontwikkeling bij benzine mototen. Multipoint injectie icm katalysator en een lambdasonde is nog steeds de huidige techniek zoals die eind jaren 70 werd ontwikkeld. In 1986 kwam als verdere ontwikkeling de 4 kleppen per cilinder bij.

Sindsdien zijn auto's niet miliebewuster of zuiniger geworden. Daarom al dat gesjoemel tegenwoordig, 3 cilinders, turboos op 0.8 motoortjes, nihile speling op onderdelrn, minder wrijving maar ook maar bij enigzins belasting gaat het kapot, omdat op te vangen werd dr toerenbegrenzer uitgevonden. En verder de te mooi om waar te zijn verbruik opgave vanuit de fabriek. Rij maar eens 150 met je 3 cilinder, dan haal je die 1 op 24 niet meer.

En dat moderne auto's bij het geringste in safe mode schiet zegt eerder iets over de domheid van de ontwerper. Vergelijk eens een f16, nu 40 jaar oud, met de jsf. Ik weet zeker dat in combat de jsf als eerste brandend omlaag komt.
Maw, het verwordt tot een inkoopprobleem, gelijk als bij straaljagers:

BMW/VW-groep moet 15 jaar 'support' zien te regelen op deze chips, iets wat mij in de auto industrie vrij gangbaar lijkt.
Of NVidia zoiets ook kan leveren weet ik zo niet, het is niet zeker dat ze over 15 jaar nog bestaan.

Dual sourcing zou dan eventueel een oplossing zijn, maar dan moet een andeer fabrikant (NVidia-concullega) ongeveer hetzelfde kunnen leveren.

Dat BMW zelf de kennis in huis haalt (insourcing?) zou een 2e oplossing zijn.

Misschien een clausule dat BMW / VW-Groep bij faillisement of wanprestatie van NVidia de ontwerpen in handen krijgt?

[Reactie gewijzigd door kidde op 5 januari 2016 14:37]

De ruimtevaart toont anders toch echt aan dat dit helemaal geen probleem hoeft te zijn. Oude, betrouwbare, systemen zijn over het algemeen zelfs een betere keuze dan nieuwe, regelmatig veranderende, hardware met telkens opnieuw kinderziektes. Daarbij zal rijden niet ineens gigantisch veranderen naar verwachting dus is de kans erg klein dat meer kracht vereist zal zijn, zeker als de software blijvend geoptimaliseerd blijft worden.
De reden dat in de ruimtevaart al jaren oude hardware wordt gebruikt is simpelweg dat het bewezen is dat het nog steeds werkt in al die straling. Intel 386 > crashende i7.

[Reactie gewijzigd door lukjah op 5 januari 2016 11:37]

De reden is alleen niet relevant in het punt wat gemaakt wordt, namelijk dat oude hardware (om wat voor rede dan ook), in bepaalde gevallen wel veel langer bruikbaar blijft dan we gewend zijn als consument!
De technische levensduur van een auto met een dermate gecompliceerd systeem (waarbij de ontwikkelingen zo snel gaan) is wellicht ook niet zo lang als die van een uitgekristalliseerd ontwerp als de auto van 15 jaar geleden...
Je wilt niet weten hoeveel computertjes er in je huidige auto zitten. En deze computertjes draaien in het geval van mijn eigen auto ook al weer 17 jaar mee en ik heb nog geen enkele vorm van performance verlies gezien. ;-)
Daarnaast heb je ook best kans dat in de toekomst er onderdelen geupgrade kunnen worden. Als je die "broodtrommel" over 10 jaar kan vervangen voor een nieuwe "broodtrommel" die vele malen krachtiger is zou je met dezelfde hardware (sensoren) en nieuwe software waarschijnlijk een hoop nieuwe dingen kunnen.
Het mooiste zou zijn dat dit soort systemen modulair worden gemaakt, zodat je sensoren kan upgraden voor een beter exemplaar. Als je dan ook de computer en software kan upgraden zou je redelijk futureproof moeten zijn.
Goed punt, maar ik vermoed dat dit dezelfde weg zal volgen als de ECU's van auto's momenteel. Deze kunnen namelijk vrij gemakkelijk gewisseld worden met aftermarket-systemen en passen op de huidige kabelboom. Het zal dus met name afhankelijk zijn van de ontwikkelingen in de sensors en andere zaken die aan de kabelboom zitten dan de unit zelf.
Computers in satellieten gaan ook decenia mee. Uw computer thuis wordt trager omdat je meer en meer programma's installeerd, background apps enz. Browser evalueren, plots duikt Netflix op, youtube enz. Bij een sateliet is dit niet het geval, de inputsensoren blijven onveranderd het is pas als je uw sensoren gat upgraden zodat ze meer informatie binnentrekken dat uw hardware plots ouder wordt.

Maar hoe dan ook is het een goed idee om overpowered van start te gaan zodat uw wagen zeker de komende jaren 'modern' blijft en meekan met nieuwere modellen. Alhoewel de sensoren gewoon hetzelfde blijven.

8 terraflops is best wel veel anpo 2015. De snelste Mac pro met dubbele gpu haalt er 7.
De nvidia Titan X scoort 7TFLOPS.

Dus als er een SLI mogelijk is kan je uw rekenkracht 'eenvoudig' verdubbelen als na enkele jaren een upgrade wil. Ik kan me inbeelden dat een snellere GPU vlotter rijdt en meer sensoren tegelijk kan verwerken zodat er nieuwe en uitbreidingen kunnen geactiveerd worden.

Vandaag te dag is het vooral software die in evolutie is. De algoritmes zijn in aanmaak en op tijd en stond zal een softwareupdate van dat algoritme opgeladen worden om bijvoorbeeld het rijgedrag op sneeuw of bij wegomleidingen te verbeteren maar de mogelijkheden zijn werkelijk eindeloos:

- Autonome Taxi optie voor uber zodat je uw auto kan uitlenen en geld verdienen.
- High way train waar je vlak achter elkaar aan hoge snelheid kan rijden met een groep van auto's. om zo energie te besparen en veiligheid te vergroten.
- Extra veiligheidsopties waarbij het gedrag van andere weggebruikers en dieren beter kan voorspeld worden. (Bal rolt over de weg principe)
- Rijden met caravan of een ander verlengstuk. (achteruit rijden, stabiliteit)
- Ijsdetectie (data kan door ABS systeem van andere voertuigen gedetecteerd worden.)
- Carwash , dat uw wagen zelfstandig een wasstraat kan inrijden.

Toch stel ik me de vraag in hoever de auto's echt leren. Met Waze werd ook beloofd dat het een zelflerend algoritme was maar in de praktijk wilde hij me heel koppig elke dag oor een enkelrichtingstraat sturen.

[Reactie gewijzigd door Coolstart op 5 januari 2016 14:51]

Hoezo? Er zijn nog genoeg systemen die op oude OS draaien. Volgens mij las ik hier laatst iets over een Frans vliegveld waarvan geen vliegtuigen meer op konden stijgen omdat er een PC met een systeem was uitgevallen dat op windows 3.1 draaide.
Op nu.nl melden ze dat hij net zo krachtig is als 150 (!!!) MacBook pro's. In hoeverre klopt dat?
Marketing-praat. Is NVidia goed in. CUNN is zwaar geoptimaliseerd, gebruikt half-precision en zou best eens 150x sneller dan aan MACbook Pro CPU kunnen zijn. Echter, als je zou vergelijken op een normale manier, denk aan iets van 5x sneller - dat is nog steeds aanzienlijk, zeker voor product dat minder energie vraagt.
Hangt af welke MacBook Pro word vergeleken, 1 uit 2012 of 2015, de duurste of goedkoopste versie? Met of zonder GPU?

Waarschijnlijk vergeleken met de langzaamste is het best mogelijk...
Nu.nl zal ook eens niet een Apple-product in een artikel noemen.
Ze zeggen gebruik te maken van de cloud voor de verwerking van de gegevens. Ik neem aan dat een verbinding geen vereiste is voor de auto om veilig te kunnen rijden en dat deze enkel gebruikt wordt voor extra verwerking en dat de data om veilig te kunnen rijden aanwezig is in de auto's zelf. Wat anders als de verbinding even wegvalt?
Dat neem ik ook aan. Tijdens mijn vakanties ben ik vaak genoeg in gebieden zonder enige ontvangst, ook geen 2G.
En dat er iets van een roaming contract is, anders rijdt je een ander land in en is je verbinding weg of heel duur. (Ik kijk verder dan Europa.)
De cloud wordt gebruikt om van de ervaringen die proefauto's op doen een veel kleinere dataset te maken zodat auto's autonoom kunnen rijden.

De werkvolgorde is dat je van alle verkeersscenario's zoveel data gaat verzamelen (met proefauto's) dat je van die data een nauwkeurige (veel kleinere) dataset kunt maken die geschikt is zodat auto's autonoom kunnen gaan rijden.

Bijvoorbeeld: 1000 proefauto's verzamelen data van 1 verkeerssituatie. Van die data kun je dan een nauwkeurige dataset maken zodat autonome auto's met die ene verkeersituatie om kunnen gaan.
Vervolgens doe je dat met duizenden andere verkeerssituaties waardoor je mag verwachten dat uiteindelijk een autonome auto in elke situatie weet wat hij moet doen.

Mogelijk zou je je eigen (deels) autonome auto ook kunnen aanmelden zodat jij ook kunt bijdragen tot een volledig autonome auto -> crowdsourcing.
Ze zouden geen 8 teraflop systeem dat neurale netwerken nabootst gebruiken als alles puur draait op informatie uit de cloud. Dan kan je immers een veel dommere client gebruiken dan hier het geval is. Het ding kan autonoom opereren, maar om slimmer te worden, en te leren van situaties waar hij zelf nog niet in is geweest, wordt er gebruik gemaakt van dat cloud gedeelte.
edit: verkeerd gelezen :+

[Reactie gewijzigd door Menesis op 6 januari 2016 19:54]

doordat alle gegevens in de cloud worden verwerkt.
Leuk voor de veiligheid, maar waar ligt dan de grens dat privacy in het geding komt?
De gegevens welke naar de cloud worden gestuurd betreft een soort van bias correction NA het verwerken van de input van de sensoren. Wat Nvidia hier doet is niet anders de cloud based antivirus/antispam diensten. Elke keer als jij een mailtje naar de spam folder verplaatst (of eruit haalt), gaat die mail door het neural network. Die mail wordt omgezet in een aantal inputs (denk aan afzender, ontvanger(s), subject en keywords) en die gebruikt het systeem als trainingsdata. Dat trainer zorgt ervoor dat er kleine correcties worden gedaan aan het neural network.
Hoe groter de training dataset, hoe beter men de correcties aan dat netwerk kan maken.

Maar als je bang bent voor privacy issues, raad ik je vooral aan om nu al je telefoon onderweg uit te zetten. Heb je je weleens afgevraagd hoe Navigatie apps weten dat er ergens file staat? Dat weet ment dankzij telecom providers zoals Vodafone en ook veel navigatie apps. Als op de A4 10 app users 40km/u op de snelweg rijden, kan Google andere automobilisten waarschuwen dat er verderop filevorming ontstaat..

Deze informatie van onder andere Google wordt ook door onze overheid gebruikt als doorstromingsinformatie. Men kan na een aanpassing van een verkeerssituatie snel zien of een knelpunt inderdaad is opgelost of dat men de situatie heeft verergerd. Vroeger moest men lussen in het wegdek aanbrengen en waarnemers langs de wet plaatsen met een (tel)clicker.
Je mist het punt waar privacy om de hoek komt, feit dat een app data doorgeeft dat er ergens files komen, is in de basis voor mij geen probleem, mits anoniem. Probleem zit wat erna komt, reclame op locatie, verzekeringen op basis van gedrag en snelheid.

Valt me altijd op dat voor files en veiligheid het blijkbaar geen probleem is, maar als een werkgever wil weten 'waar' zijn werknemers zich bevinden, is het opeens drama en schande. Principe blijft hetzelfde, het is alleen de ontvanger van de data die veranderd.
De vraag is natuurlijk heel erg wat voor informatie (al dan niet herleidbaar) doorgestuurd wordt. Het doel is hier het trainen van een neuraal netwerk. Voor dat doel is de exacte locatie en tijd compleet nutteloos, maar is de overige informatie over de situatie van de auto veel interessanter. Hoe snel rijdt het verkeer, wat doen de overige weggebruikers, moet er in- of uitgevoegd worden et cetera. Kijk maar naar jezelf: je laat hoe je handelt in een (bijvoorbeeld) file-situatie niet afhangen waar je bent en hoe laat het is, maar van het overig verkeer om je heen.
Volgens mij moeten nieuwe auto's tegenwoordig worden uitgerust met allerlei systemen die je privacy toch al schenden (http://www.rtvnh.nl/nieuw...ne-auto-weet-alles-van-je). Dus ik denk eerlijk gezegd dat er niet veel gaat veranderen, maar wanneer deze gegevens in de verkeerde handen komen kun je toch wel hele nare dingen verwachten om even heel pessimistisch te denken. Bijv. verzekeraars die je een hogere premie voorschotelen, omdat je wel eens een route rijdt met hoger risico.
Je telefoon heeft die gegevens allang beschikbaar gemaakt hoor ;)
En privacy op de openbare weg?? Scan maar eens hoe vaak je langs een camera komt...
In theorie kan men de telefoon uitzetten tijdens het rijden en camera's geven slechts erg oppervlakkige data vrij. De auto zelf geeft data vrij die veel duidelijker en makkelijker te koppelen is aan gedrag, risico's, etc. Oftewel informatie die interessant is voor verzekeraars, terroristen en andere kwajongens.
Je hebt gelijk maar dan zou je er ook voor kunnen kiezen om niet met die slimme auto te reizen...

Je telefoon uitzetten om niet volgbaar te zijn is iets wat niet veel mensen zullen doen want men wil die foon toch kunnen gebruiken al was het maar om bereikbaar te zijn.
Dit gaat er toch wel komen. Kwestie van tijd. De overheid wil ook maar al te graag weten waar je rijd en hoe hard. Kwestie van tijd tot ze met verzekeraars om tafel gaan zitten en verplichten. Zelfde als kenteken opgeven bij parkeren. Zo kwam ik er ook achter dat mijn kenteken op mijn parkeer ticket van de gemeentelijke parkeer garage. En belletje naar de gemeente maakte duidelijk dat het regelement maar op internet moest lezen voordat ik naar bv de parkeer garage ging...
Benieuwd of Tesla hier uiteindelijk ook gebruik van gaat maken. We zullen zien of het echt allemaal zo neuraal en natuurlijk is.
Tesla maakt al gebruik van een soortgelijke zelflerende techniek icm de cloud!

Bron: http://electrek.co/2015/1...opilot-is-self-improving/

[Reactie gewijzigd door DutchGamerr op 5 januari 2016 10:38]

De Tesla model S en model X maken al gebruik van tegra socs, maar volgens mij alleen voor het infotainment gedeelte, en niet voor autonomous driving.
De dataverwerking in de cloud zal waarschijnlijk nooit real time kunnen plaatsvinden. De tijd om van input naar server naar output te gaan is te hoog om de cloud je auto te laten besturen. Wat ze wel zullen doen is verzamelde data achteraf verwerken en zo alle auto's een nieuw trucje laten leren.
Ik ben benieuwd wat het gaat doen als de tijdelijke ITC uitspraak van 22 december definitief wordt?

https://www.usitc.gov/press_room/documents/337_941_id.pdf

De counter van Samsung op het debacel wat Nvidia heeft ondernomen door zowel Samsung als Qualcomm te proberen uit te melken op basis van waardeloze patenten.

Daarmee komt het Tegra programma direct in gevaar. Want als Samsung in het gelijk wordt gesteld kunnen ze dus een verkoopverbod indienen, net zoals Apple dat bij hun deed.

Het enige wat ze tot nu hebben gedaan is verliezen en in hoger beroep gaan tegen de uitspraak, maar ook daar komt een einde aan.
Ze hebben ook geen nieuwe feiten meer gepresenteerd behalve een hoger beroep.
Of gaan ze nu ook van Samsung en Qualcomm cartoons maken net zoals destijds bij Intel?
Wat mij bijstaat van neurale netwerken is dat ze zelflerend zijn. Dat hoeft toch niet in de auto zelf te gebeuren? Je kan toch elke keer dat er wel verbinding is alles wat geleerd is naar een centrale server sturen, deze het zware werk laten doen en de verbeterde kennis weer verspreiden onder alle andere auto's?

Ik heb zelf wel eens gestoeid met Neurale Netwerken en toen was het trainen het zware werk en als het netwerk eenmaal 'af' was kon je redelijk snel dingen doen als beeld classificatie

[Reactie gewijzigd door Herr Roedy op 5 januari 2016 12:53]

"Alles wat er geleerd is" is een berucht iets met neurale netwerken.

Je kent misschien het verhaal dat iemand bij een ongeluk een deel van zijn hersenen verliest, maar toch kan blijven functioneren. We begrijpen inmiddels waarom: in neurale netwerken, biologisch en kunstmatig is alle kennis verdeeld over meerdere neuronen. Het uitvallen van een enkel neuron is dus niet fataal. De meest belangrijke, diep ingeslepen kennis blijft het langst bewaard want verspreid over veel neuronen. Alzheimer patienten blijven heel lang taalbeheersing hebben, bijvoorbeeld.

Dat betekent dus ook dat alle nieuw geleerde kennis verspreid wordt over een groot aantal neuronen, dezelfde neuronen waarop al andere oude informatie stond. Die update kun je dus niet zomaar isoleren, zippen en opsturen.
Iemand enig idee wat zo'n 'broodtrommel' kost?
Wel gaaf om te zien hoe snel de ontwikkelingen op dergelijke gebieden gaan!
Reken op een paar miljoen voor de eerste, met forse kortingen als je er 100.000 wil. Dit is geen consumentenproduct.

Op dit item kan niet meer gereageerd worden.



Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True