Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties

Qualcomm werkt aan neural processing units: herprogrammeerbare chips waarvan de werking in combinatie met software die van de hersenen moet nabootsen en die complexe taken efficiŽnt moeten verwerken. De chips moeten in 2014 verschijnen en in robots en smartphones komen.

Qualcomm werkt samen met een bedrijf waarin het investeert, Brain Corp., aan het project Zeroth, waarvan de naam afkomstig is van Isaac Asimovs Zeroth Law of Robotics. Doel van het project is om hardware en algoritmes te ontwikkelen die de werking van de menselijke hersenen nabootsen.

De eerste chips op basis van het platform worden op basis van wensen van partners ontwikkeld en gaan volgend jaar in productie. Qualcomms technische topman Matt Grob noemt als voorbeelden voor toepassingen sensoren voor kunstmatig zicht voor robot-controllers, hersenimplantaten en, uiteindelijk, smartphones die informatie efficiënter kunnen opnemen en verwerken.

De neural processing units of npu's verwerken data parallel en zijn herprogrammeerbaar. De chips werken in combinatie met softwaretools om de manier waarop netwerken van neuronen informatie verwerken te modelleren. "We willen het makkelijker maken voor onderzoekers om een deel van het brein te maken", zei Grob tijdens de EmTech-conferentie van MIT Technology Review, "Ze kunnen snel neurale architecturen ontwikkelen en simuleren met onze tools." Het platform is schaalbaar volgens de cto en moet op termijn tot machines leiden die kunnen 'leren' en zichzelf kunnen programmeren, zonder dat software handelingen voorschrijft.

Qualcomm heeft zelf al een robotvoertuig op basis van het platform ontwikkeld. Als dit te horen krijgt dat het een juiste plek bereikt heeft, kan het vervolgens zelf uitzoeken hoe het deze plek opnieuw kan bereiken, zonder instructies. Overigens zijn meer bedrijven bezig met neurale chips, waaronder IBM en Intel.

Qualcomm Emtech robotvoertuig

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (20)

Ik vind toch eigenlijk dat het tijd wordt om internationaal de verplichting af te gaan spreken de "laws of robotics" hardware matig in dit soort systemen in te bouwen.

Als software zichzelf gaat schrijven en systemen zichzelf programeren, gebaseert op het leervermogen van de mens en in combinatie met de wet van vooruitgang, zullen computers dus echt "slimmer" worden als wij. Hoe groot is dan de stap naar een vorm van (collectief) "digitaal bewustzijn"?

Bovendien zie ik een link met het artikel over autonome drones afgelopen jaar, waarin het Amerikaanse leger drones zelf ipv een persoon de beslissing laat (of wil laten) nemen om te doden. De mens is niet echt een goed rolmodel voor een killer-bot.

Tot slot denk ik dat ons voor de toekomst in moeten dekken tegen de mogelijkheid dat systemen ons als concurrentie voor bronnen gaan zien, wat als een rekencentrum besluit dat het meer "recht" heeft op elektriciteit en a la stuxnet concurerende stroomverbruikers uit gaat schakelen?

Tot zover mijn vrijdag-ochtend doemdenkbeelden :z
Dit is "slechts" een Artificial Neural Network (http://en.wikipedia.org/wiki/Artificial_neural_network) topographical template (dus nog geen netwerk) uitgevoerd in hardware. De gebruiker, dm.v. software, bepaalt wat voor netwerk erop komt, en welke inputs en outputs daaraan gemapt worden. Helaas kunnen de hardware-chips daardoor onmogelijk "snappen" waar ze mee bezig zijn.

Sterker nog, "laws-of-robotics" zouden alleen expliciet ingebouwd kunnen worden in redeneerstructuren die strict gebaseerd zijn op iets als First Order Logic (http://en.wikipedia.org/wiki/First-order_logic) - en die systemen zullen nooit de nodige praktische resultaten behalen om de laws noodzakelijk te maken omdat ze te maken hebben met een Closed World Asumption (enige wereld waar ik iets over weet is hetgene wat expliciet in mij is vastgelegd), uiterst slecht kunnen omgaan met onzekerheid, lastig te "trainen" zijn (dus "alles" moet met de hand), en hoogstwaarschijnlijk onderhevig zijn aan GŲdel's incompleetheidsstelling (http://en.wikipedia.org/w...s_incompleteness_theorems), hetgeen impliceert dat het ook in theorie niet kan op die manier.
Waarom kan je die wetten niet in andere systemen inbouwen? Zal voor toekomstige systemen toch noodzakelijk zijn namelijk; dat ze ons niet afmaken bedoel ik; daar gaat het uiteindelijk om.

[Reactie gewijzigd door Dorstlesser op 11 oktober 2013 14:40]

Het gaat erom of je ze EXPLICIET in kan bouwen in een ander leersysteem dan formele logica, en het antwoord daarop is - niet echt. Als het gaat om een machine learning systeem, zoals de ANN in kwestie, kan je hoogstens ervoor zorgen dat in de "leerstof", de gegeven voorbeelden, dit soort "morele lessen" terugkomen. Dat is echter geen harde definitie zoals in de zin van de wetten van Asimov. Je moet - kort door de bocht - over Machine Learning-systemen meer denken alsof het kleine kinderen/dieren zijn die je dingen leert op basis van voorbeelden, dan als over klokwerken die precieze uitkomsten opleveren op basis van precieze inputs.
Maar ik neem toch aan dat je gewoon een arbitrair aantal basisregels kan inbouwen die niet door het leerproces overschreven kunnen worden? Die hebben kleine kinderen ook genoeg. Veel cognitieve categoriŽn, of dat nu qualia zijn of concepten als causaliteit, ruimte, tijd, zijn merendeels ingebakken en begrensd en kunnen maar in zeer beperkte mate (als Łberhaupt all) aangeapst worden door training.

Ik zou denken dat je een leersysteem implementeert naast een set ingebakken regels waar het systeem in kwestie zelf niet aan kan tornen. Het is me nog niet helemaal duidelijk waarom dat niet zou kunnen. Is het een formele onmogelijkheid om de toegang van superhuman intelligenties tot dat soort systemen (die hen begrenzen) te beperken?

[Reactie gewijzigd door Dorstlesser op 14 oktober 2013 14:49]

Of dat kan hangt dus ervan af of het systeem werkt d.m.v. expliciete regels. Wat er precies gebeurt in complexe modellen die het gevolg zijn van machine learning is voor een mens eigenlijk niet duidelijk; daarom gebruiken we ook machine learning. Hier "regels aan toevoegen" kan alleen door deze op ene of andere manier expliciet in dat model te vatten. Een goede vergelijking is, alsof je bij de mens bepaalde gedragsregels zou implanteren door van buitenaf de individuele neuronen in het menselijk brein stuk voor stuk in de gewenste vorm te koppelen, en deze de betreffende koppelingen eeuwig te laten behouden. Het is niet erg waarschijnlijk dat dit kan, terwijl het brein voor de rest "normaal" blijft functioneren.

Regelgebaseerde systemen, of het nou simpele if-then is, of een vorm van formele logica waarmee gerekend kan worden, zijn allen onderhevig aan GŲdel's incompleetheidsstelling; deze postuleert en bewijst dat geen systeem van formele logica tegelijk consistent en volledig kan zijn. Logica's waarmee wij kunnen rekenen zijn noodzakelijk consistent, dus kunnen ze niet volledig zijn, dus kunnen wij niet alle waarheden ermee bewijzen; dit houdt ook in dat we geen systemen ermee kunnen bouwen van een menselijk niveau van intellect (nog afgezien van de praktische bezwaren van deze aanpak). Wij mensen zijn, aan de andere kant, inconsistent, en ons gedrag kan eventueel in een inconsistente logica gevat worden. Echter kunnen met inconsistente logica's noch wij noch computers rekenen - het vergt een mens om een inconsistente logica te duiden en de bedoeling te begrijpen.
Maar in het menselijk brein zijn wel degelijk een heel aantal regels ingebakken. Ook is het menselijk intellect, in haar fundament, mechanisch, en dus gebaseerd op een consistente logica.

In feite zie ik nog steeds niet in waarom bv. een robot geen apart subsysteem kan hebben wat de hele robot uitschakeld op het moment dat het detecteert dat de robot over een, door ons gestelde, schreef gaat, of automatisch een ander gedrag activeert (verglijkbaar met een reflex bij dieren). Dit zou dan los staan van het leersysteem, en de robot zelf zou er geen toegang toe hebben. Ik zie niet in hoe logica en het incompleteness theorem hierbij roet in het eten zouden kunnen gooien, behalve op de formele manier dat superhuman intelligences per definitie al onze barriŤres kunnen omzeilen.
In de eerste alinea maak jij een aantal "bold statements", waarbij het tweede punt eigenlijk hetzelfde is als het eerste punt. Het feit is dat wij helemaal niet weten hoe het menselijk brein precies werkt, maar vrijwel ALLE observaties van ALLE relevante takken van de wetenschap wijzen erop dat de mens een evoluerend, feedback-gedreven, inconsistent systeem is (wij maken immers geregeld fouten!). In het menselijk brein zitten sowieso geen regels ingebakken op een expliciete manier; nergens in het menselijk brein zit een onveranderbare neurale koppeling die daar door een externe kracht is neergezet en die een complete (gedrags)regel definieert. Het feit dat het menselijk brein zich op het niveau van neuronen herconfigureert om de het door de entiteit dat de eigenaar van het brein is geleerde overlevingsstrategieŽn in de toekomst toe te kunnen passen toont juist aan dat er gťťn vaste, immuteerbare, "regels" zijn in het brein zelf, maar dat de neurale connecties door zich te schikken en te herschikken een meer abstract "idee" aan kunnen nemen met een grotere of kleinere overtuiging voor toekomstig gebruik. Dit geldt ook voor "instinct", dat bij geen mens identiek is "geimplementeerd", maar wel een zeer soortgelijk effect bij grote groepen mensen in redelijk vergelijkbare situaties weet op te brengen, althans volgens onze eigen waarneming dat begrensd wordt door een "event horizon", de grens tussen ons bewuste en ons onbewuste. Dit nog afgezien van het feit dat "instinct" geŽvolueerd (lettelijk: ontstaan door geleidelijke verandering) is, en niet "ingeprogrammeerd".

De "regels" in ons brein veranderen dus voortdurend!! - soms op een tijdschaal van eeuwen of millennia (evolutie), soms op een tijdschaal van dagen (hogere leerfuncties en op basis van ervaring).

Maar even verder:

"In feite zie ik nog steeds niet in waarom bv. een robot geen apart subsysteem kan hebben wat de hele robot uitschakeld op het moment dat het detecteert dat de robot over een, door ons gestelde, schreef gaat, of automatisch een ander gedrag activeert (verglijkbaar met een reflex bij dieren)."

Hoe zou jij zo'n systeem willen bouwen? Het vergt minstens perceptie, en redeneervermogen, om dat te kunnen doen. Want, om overtredingen te kunnen detecteren van zoiets abstracts als de wetten van Asimov, heb je een systeem nodig van minimaal het soort intelligentie als het systeem dat je probeert te controleren, wat op zijn buurt weer niet gebaseerd kan worden op expliciete regels*. Alleen heb je dan nog een controlesysteem voor het controlesysteem nodig, en zo voort tot in de eeuwigheid. Iets minder abstract dan de wetten van Asimov, aan de andere kant, dekt geen gebied dat breed genoeg is om zinnig te zijn in de context van het doel dat jij schetst.

Een alternatief is voor het doel dat jij nastreeft is, zoals ik eerder al zei, is het "opvoeden" van het AI-systeem met een bepaald "moreel besef". Afgezien van het feit dat dit geen garanties biedt, want de opvoeding kan slagen of falen, het gegeven dat de "hardware", "software" en sensor-vaardigheden enorm verschillen tussen de mens en het op andere "biologie" gebaseerde AI levensvorm, brengt al een eigen complexiteit mee in het ontwerpen van een "leeromgeving" en "leerprogramma" op zo'n manier dat onze eigen morele normen op een juiste manier aan zo'n machine overgebracht kunnen worden. Nu ga ik speculeren, maar er is een gerede kans dat dit al zo'n complex probleem gaat blijken, dat we mens-equivalente AI nodig zullen hebben om zelfs dat op te lossen. Terug to point 1.

*Het punt is dat, omdat het controle-systeem concepten als "mens","kwaad","zelfbehoud" etc moet kunnen begrijpen, een volledig mens-equivalent "common sense reasoning" systeem nodig is, wat weer niet logica-gebaseerd kan. IdeeŽn als de jouwe waren de reden dan men binnen AI in de jaren 1950 dacht binnen 20 jaar menselijk-equivalente intelligentie te hebben. Na 30 jaar onderzoek, met tools die het werk en het onderzoek steeds sneller maakten (b.v. Prolog), was het bovenstaande de conclusie, en gingen wij kijken naar zaken als machine learning (al dan niet d.m.v. ANN's), en evolutionaire algoritmes.
nergens in het menselijk brein zit een onveranderbare neurale koppeling die daar door een externe kracht is neergezet en die een complete (gedrags)regel definieert.
Die zijn er meer dan genoeg hoor. Voordat je de associatieve cortices bereikt is vrijwel alles volledig ingebakken. Er is overal ruimte voor plasticiteit, maar bepaalde dingen zoals hoe je sensorische informatie verwerkt wordt, hoe je basale emoties verwerkt worden, cognitieve categoriŽn zoals ruimte en tijd maakt, hoe je je eerste taal leert, hoe je online beweging en houding corrigeert; allemaal ingebakken.

Ik moet er nu even bijvermelden dat ik een PhD systeem-neurowetenschap doe, dus hierover kan ik redelijk meepraten.
Dit nog afgezien van het feit dat "instinct" geŽvolueerd (lettelijk: ontstaan door geleidelijke verandering) is, en niet "ingeprogrammeerd".
Maar wat is het functionele onderscheid? Of een regel ergens in geŽvolueerd is of ingeprogrammeerd, maakt toch voor het mogelijke gedrag geen verschil?
Want, om overtredingen te kunnen detecteren van zoiets abstracts als de wetten van Asimov, heb je een systeem nodig van minimaal het soort intelligentie als het systeem dat je probeert te controleren, wat op zijn buurt weer niet gebaseerd kan worden op expliciete regels*
Ja, nu snap ik waarom je het incompleteness theorem erbij haalt! Toch is dat volgens mij niet helemaal juist. Je zegt dat je minstens zoveel intelligentie nodig hebt als het systeem dat je probeert te controlleren, maar hierbij ga je eraan voorbij dat 'intelligentie' zowel uit perceptie bestaat (het verwerken van sensorische informatie) als het formuleren van adaptief gedrag (en feedback hierop, leren van fouten, gebruik van geformuleerde doelen en het adaptief herformuleren van doelen etc).

Nu stel ik de twee volgende mogelijkheden voor.
1) Om verder te gaan waar we gebleven waren, stel ik als eerste een systeem voor dat wel dezelfde mogelijkheden tot sensorische vewerking heeft, maar niet hetzelfde complexe, adaptieve gedrag vertoont. Een systeem dat enkel probeert te categoriseren of een handeling voor de mens goed of slecht is. Dit systeem kan volledig fysiek gescheiden blijven van de hogere faculteiten van het systeem dat onder controle staat. Er zou zelfs gekozen kunnen worden voor een controle systeem dat geen enkele plasticiteit vertoont, dus met ingebakken categoriŽn (is dit goed, of niet goed voor de mens?). Uiteindelijk wordt het controle systeem natuurlijk complexer naarmate het gecontrolleerde systeem complexer wordt en onze eisen strenger worden, maar formeel zie ik in dit geval problemen.

2) Een systeem dat zelfs niet eens hetzelfde sensorum heeft als het gecontrolleerde systeem kan ook al werken, door proxys van gevaar te detecteren. Oftewel een reflexieve 'uit-knop'. Bijvoorbeeld een systeem dat de machine uitschakelt wanneer een mens 'Stop robot!' zegt/roept. Dit kan voor allerlei intelligenties al een effectieve veiligheidsmaatregel zijn, zelfs relatief complexe.
Iets minder abstract dan de wetten van Asimov, aan de andere kant, dekt geen gebied dat breed genoeg is om zinnig te zijn in de context van het doel dat jij schetst.
Dat betwijfel ik dus. Het gaat erom wat in de praktijk gewenst is. Een ideaal systeem dat onder geen enkele omstandigheid de fout in kan gaan is inderdaad onhaalbaar om de redenen die je zelf noemt, maar er zijn zeker benaderingen die veiliger zullen zijn dan waar wij mensen zelf of de huidige technologie toe in staat zijn.
Nu ga ik speculeren, maar er is een gerede kans dat dit al zo'n complex probleem gaat blijken, dat we mens-equivalente AI nodig zullen hebben om zelfs dat op te lossen.
Geloof dat maar gerust. Machines opvoeden is ťťn ding, machines zodanig adaptief maken dat ze bovenmenselijk intelligent zijn, ťn extreem flexibel gedrag vertonen (wat we willen), ťn een moreel besef hebben; dat vergt van ons (of andere intelligentie) vaardigheden waar we nu nog eigenlijk niet eens het begin van beheersen, en wat voorlopig (zo niet altijd) bottom-up (door een soort synthetische evolutie) zal moeten plaatsvinden in plaats van top-down door ontwerp.
*Het punt is dat, omdat het controle-systeem concepten als "mens","kwaad","zelfbehoud" etc moet kunnen begrijpen, een volledig mens-equivalent "common sense reasoning" systeem nodig is, wat weer niet logica-gebaseerd kan.
Ik beweer dus, dat het controlesysteem bij lange na niet zo complex hoeft te zijn als het syteem wat het moet beveiligen; omdat de te vermijden situaties (waarbij mensen bedreigd worden of gevaarlijke situaties ontstaan) een erg specifieke en herkenbare subset van alle mogelijke ervaringen van de machine is, die door een relatief eenvoudig systeem te herkennen moeten zijn, wat vervolgens via een directe weg de machine kan uitschakelen, zonder hierbij contact te maken met het gecontroleerde systeem.

Het enige probleem wat ik hierbij voorzie, is dat machines met bovenmenselijke intelligentie volgens mij een manier moeten kunnen bedenken om deze beperkingen te omzeilen.
Het bedrijf heette toch Skynet en geen Qualcomm? :+
We zullen binnenkort wel nieuws krijgen over een naamswijziging :P
Het bedrijf heette toch Skynet en geen Qualcomm? :+
Nope. Het bedrijf heetteCyberdyne Systems en Skynet was hun kindje. Maar het zou te grappig zijn als Quacomm er iets van een verwijzing in zou stoppen, bijvoorbeeld de modelcodes van de verschillende robots (T-800, T-1000) als typeaanduidingen.
Of glados in je broekzak.

OT: ik heb er geen behoefte aan. Laat mijn elektronica maar dom blijven, dan doe ik het denkwerk wel.
Mooie ontwikkeling. Het brein natuurlijk gespecialiseerd in verschillende dingen op verschillende plekken, ben benieuwd of de software zich herconfigureerd helemaal als er meer capaciteit beschikbaar is om ook specialisatie gebieden te maken. Toch maar eens beetje inlezen op de werking van die dingen. Snap alleen nog niet helemaal hoe dit nuttig is voor smartphone maar de toepassingen zullen ongetwijfeld vanzelf komen als de chips beschikbaar zijn.
wellicht is dit voor de gemiddelde toepassing geen meerwaarde.
de reden waarom computers immers zo handig zijn, is omdat ze anders denken dan wij, waardoor ze in veel taken sneller zijn dan wij ( vooral repetitie en dergelijke ) .
een chip gebaseerd op een brein zal dan waarschijnlijk ook niet meteen een centrale rol spelen en apart aangesproken worden zoals een gpu wordt aangesproken. ( vermoed ik althans)
ik vraag me wel af in hoeverre zaken waarin een CPU typisch gezien niet zo goed is ( zoals herkennen van gezichten, patronen, ... ) hiermee wel beter zou kunnen gaan.
Net druilerig weer buiten, beetje donker met wat vage lichten. Dan dit artikel lezen, ... ik had even een nostalgische Blade Runner flashback.

Mooie ontwikkelingen allemaal, ik denk dat er ons nog veel te wachten staat en het gaat alsmaar sneller.
"Qualcomm komt met op brein geÔnspireerde chips voor smartphones en robots"

Ik dacht even aan smartphones die automatisch aangifte doen wanneer je een MP3 download }:O
Ik dacht eerst, waarom dan niet preventief die download tegenhouden, maar dan kunnen ze niet incasseren ;)
Beetjes offtopic maareh "Isaac Asimov" :D . Heb al z'n boeken aan gort gelezen in mn jeugd :).
Ook afbreekbaar door alcohol ? ;-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True