Lyric Semiconductor ontwikkelt statistische processor

Een nieuw type processor moet bepaalde rekentaken veel sneller uitvoeren dan bestaande cpu's, en moet bovendien met minder energie toekunnen. De nieuwe processor werkt met kansrekening in plaats van met binaire sommetjes.

De processorarchitectuur van Lyric Semiconductor, een nieuw bedrijf dat door wetenschapper Ben Vigoda werd opgericht, zou voor bepaalde toepassingen stukken sneller zijn dan conventionele processors. De techniek is gebaseerd op het promotie-onderzoek dat Vigoda aan het Massachusetts Institute of Technology deed. De binaire rekenwijze van conventionele processors zou in de Lyric-cpu vervangen worden door kansrekening. De processors zouden met elektrische signalen werken die kansen representeren, wat kansrekening makkelijker zou maken, aldus Vigoda.

De nor- en nand-gates in processors zijn in de Lyric-processor vervangen door zogeheten Bayesiaanse gates, vernoemd naar de statisticus Bayes. De output van een dergelijke gate geeft de kans aan dat beide inputs gelijk aan elkaar zijn en dat maakt het uitvoeren van kansrekeningsvraagstukken veel eenvoudiger. Dat zou vooral bruikbaar zijn voor kunstmatige-intelligentietoepassingen, zoals computervisie en machine-leren.

Vigoda heeft zijn bedrijf met subsidies van onder meer het Amerikaanse Darpa opgezet. Lyric Semiconductor wil binnen drie jaar prototypes van een statistische processor met codenaam GP5 opleveren. Deze processor zou breed inzetbaar moeten zijn, en statistische problemen met een fractie van de energie en op hogere snelheid moeten kunnen oplossen dan conventionele cpu's.

Op kortere termijn zou de technologie van het bedrijf worden ingezet om de foutcorrectie van flashgeheugen te verbeteren. De chips die Lyric momenteel samen met een grote geheugenfabrikant test, zouden veel minder ruimte in beslag nemen dan de huidige foutcorrectielogica en een twaalfde van de energie vergen. Vigoda hoopt dat zijn statistische LEC-foutcorrectiechips al snel in commerciële producten worden toegepast.

Lyric Semiconductors LEC-chip

Door Willem de Moor

Redacteur

17-08-2010 • 16:45

70

Reacties (70)

70
70
34
3
0
27
Wijzig sortering
Wat sommige mensen hier precies niet begrijpen is dat huidige, logische processors ook geen 100% precisie hebben. Zij maken ook (zei het relatief zeer zelden) fouten. Het feit dat deze processors fouten maken ligt aan de aard van ons universum (daar ga ik verder niet op in omdat het 1: te lang is, 2: zelf ook niet goed weet). Deze "fouten" – of eigenlijk liever afwijkingen – komen voor in ieder logisch process, zelfs kansrekenen dat in zijn meest primitieve funderingen voortkomt uit logisch rekenen. En des te complexer het process, des te waarneembaarder ze zijn. Het bewustzijn van mensen is één van de vele dingen die hier aan worden toegeschreven.

Natuurlijk zijn de fouten in de perken te houden met foutcontrole-algoritmen, maar die kunnen zelf ook weer fouten maken en als het een fout maakt net op het moment dat de processor een fout maakt, geeft de CPU effectief een foute uitput. Ongelooflijk zeldzaam dat het gebeurt (relatief dan toch), dus amper merkbaar. De kans dat uw word-documentje niet wordt opgeslagen of dat uw pc ineens crashet door zo'n fout is bijna onbestaande, maar ze bestaat nog.

Nu is het soort fouten dat een kansprocessor maakt van een geheel ander niveau (ze maken er (relatief) stukken meer), maar men mag het niet interpreteren als zoiets waarneembaar als het crashen van een pc of het falen tot opslaan van een bestand. Mede omdat zulke processors nooit zullen worden gebruikt voor puur logische en seriële taken. Wat dan wel?...

Graphics. Om maar een voorbeeld te noemen. Met een processor die 99.998% kans heeft op een juiste output, tegen een veel hogere snelheid dan conventionele processors, is dit één van de meest belovende toepassingen waarvoor het gebruikt kan worden. Denk in de richting van realtime CGI van het niveau van Avatar renderen (gewoon om een voorbeeld geven van een 3D film). Het zal miniscule artifacten hebben, maar niet waarneembare. Onze ogen maken immers zelf ook fouten (en zelfs vrij waarneembare als je je even concentreert). Physics renderen voor in-game: ook perfect mogelijk.

Om maar te zeggen: alles waar fouten van een miniscule orde geen verschil maken is een perfecte kandidaat voor deze technologie.

Lijstje van dingen die in mij opkwamen:
-Alles wat met renderen te maken heeft: video encoden, graphics renderen etc...
-Sociale simulaties
-Elementair leven simuleren
-Onderzoek naar virusinfecties (combinatie van de vorige twee)
-etc...


tl;dr: Niet bang zijn, deze dingen zullen nooit uw CPU vervangen. Ze kunnen anders wél je leven een stuk verbeteren.
Een erg interressante ontwikkeling.

Mogelijk is dit een begin van de stap van keiharde logica rekenen naar statistisch afhandelen van taken.

Het menselijke brein werkt ook met statistische berekeningen, dus wie weet is er op dat gebied nog veel vooruitgang te boeken.
Mogelijk is dit een begin van de stap van keiharde logica rekenen naar statistisch afhandelen van taken.
Alleen als je het in combinatie met "harde logica" gebruikt is het toepasbaar. Je wilt toch niet dat er een 99% kans is dat je tekstverwerker de juiste uitvoer naar disk wegschrijft?

Voor statistiek en alles wat in statistiekvorm gegoten kan worden (denk aan spam-filtering dat nu al gedeeltelijk Bayesiaans gebeurd) kan dit een handige uitbreiding worden op het bestaande proces, maar meer niet.

Als er in een proces een fuzy component is en het is ook niet erg dat deze er in blijft is het handig, maar zodra je naar 100% zekerheid wilt is dit systeem ontoepasbaar.
Ik ben het niet helemaal met je eens, een goed ontworpen statistisch systeem zal ook 100% zekerheid kunnen bieden voor opslaan wanneer toepasbaar.

Echter, het wordt nu ook mogelijk om meer onderscheid te maken dan alleen "waar en onwaar".

In de statistiek bestaat absolute zekerheid namelijk ook gewoon, p = 1, en als deze chip degelijk is ontworpen dan kan hier ook gewoon mee worden gerekend.

Ik ben wel met je eens dat deze techniek nog dusdanig in de kinderschoenen staat dat voorlopig de "keiharde logica" computers de boventoon blijven voeren.
klein foutje dat je maakt hier:

iets met de kans p = 1 komt niet altijd voor!
net zoals iets met de kans p = 0 nooit voorkomt.

klein voorbeeldje: beschouw een dartsbord:
als we de oppervlakte bekijken van dit bord weten we dat er oneindig veel punten op liggen, immers liggen er tussen elke twee punten weer een ander punt (het is een overaftelbare verzameling ...)

Aangezien er oneindig veel zijn, is de kans dat je exact 1 punt raakt = 0

Maar uiteindelijk gooi jij gewoon je pijltje en heb je toch maar mooi een punt geraakt op dat dartsbord...

In statistiek bestaat geen absolute zekerheid ...

(jij verwart met de verwachtingswaarde dat je in een bepaald gebied terechtkomt, om maar in dartsbord termen te blijven spreken...)

[Reactie gewijzigd door Verwijderd op 31 juli 2024 03:58]

p=1 is gewoon 100% kans.
en p=0 is 0% kans.
je moet namelijk bij een kansrekening rekening houden met de stelling.
Ja, je hebt 100% kans dat je oneindig punten op een dartbord hebt
zolang je maar klein genoeg gaat.

Maar het raken van precies 1 punt is weer een apparte kans. en hiervoor is de kans dus niet 100%. Maar ook niet 0% aangezien je ook een verschil van groote hebt. Gooi je echter van het dartbord weg heb je ineens wel een 0% kans om 1 punt te raken.

Het klinkt heel stom, maar je hebt in kansrekening dus wel degelijk een 0% kans en een 100% kans. Het meeste zal echter ertussen zitten.
Het meeste zal echter ertussen zitten.
Dit. En ik denk ook niet dat deze chip met p=1 zal kunnen werken - dat kunnen gewone processors immers al, ze doen niks anders (of proberen niks anders te doen).

Maar deze chip zal ook alleen voor specialistische zaken gebruikt worden, zoals de aangehaalde foutcorrectie bij opslagmedia.
bij een continue kansverdeling is de kans op een specifieke waarde altijd gelijk aan 0, dus P(X = x) = 0.

In geval van discrete verdelingen heb je (denk ik) gelijk, al zal je 'grid' voor je dartbord inderdaad wel op extreem kleine schaal moeten wil je dit als discreet kunnen beschouwen.
Ik begrijp je strekking, maar bij een dartbord is het volgens mij (zoals ik het mezelf inbeeld) toch echt zo dat de pijl blijft hangen tussen een aantal vezels. Net zoals je op een gegeven moment stopt met het het zoeken van een middelpunt tussen 2 punten.
Zodra je op moleculair of atomair niveau komt 'stopt' dat ;) [/offtopic]
Zodra je op moleculair of atomair niveau komt 'stopt' dat
Nou, dan heb je bij deze mijn zin om naar dart wedstrijden verpest... Ik zit altijd vol spanning te kijken naar iedere dartswedstrijd om te hopen dat iemand een atoom splijt :| ...
Dat je darts kijkt zegt natuurlijk al genoeg Beetje flauw maar ik kan er om lachen :P
Je maakt hier twee grote fouten, want iets met kans 1 komt wel degelijk steeds voor en iets met kans 0 laten voorkomen is eerder een theoretische beslommering dan een realistisch probleem.

Als de kans 1 is (100% dus), komt het sowieso voor. Bewijs daarvoor zal ik niet geven, zie het maar als de mogelijkheid om een tegenvoorbeeld te geven (als je een geldig tegenvoorbeeld kan geven, bewijst dat jouw gelijk). Voor eindige verzamelingen is het logisch: je hebt N mogelijke uitkomsten (bv. de letters van het alfabet), maar als je continu op de letter K drukt op je toetsenbord is de kans dat je K op je scherm ziet (als je computer niet vastloopt e.d.) wel degelijk 1 en zal er dus K opkomen. Als er geen K op je scherm komt te staan, wilt dat zeggen dat je ergens in je model fouten gemaakt hebt (bv. je computer is wel vastgelopen, je toetsenbord zat niet in, ...), maar dat toont enkel aan dat je model verkeerd is en niet dat kans = 1 geen absolute zekerheid geeft. Een model heeft maar zin als het op de juiste plaats gebruikt wordt.

De kans 0, dat haal je bij probabiliteitsdensiteitsfuncties (probability density functions of 'pdf')zoals in de meeste cursussen statistiek uitgelegd wordt. De kans dat je in een continue veranderlijke exact op een bepaald getal uitkomt is inderdaad 0. Dat kan je inderdaad aantonen: pak nu dat je P(x = 0.1) wilt kennen (dat is de kans dat je continue variabele uitkomt op exact 0.1), die kans is inderdaad 0 vermits je wilt weten of x = 0.1000000... (oneindig aantal nullen), terwijl er oneindig veel getallen zijn die er oneindig/willekeurig dicht in de buurt van liggen (bv. 0.100000000....1000 of 0.99999999999....9000). In de praktijk (waar je dus op een bepaald niveau steeds discreet werkt), zal je wel een exacte waarde kunnen vinden, maar met een heel erg kleine kans (1/googol of 1/googolplex bv.), ongeveer 0 dus zoals in het continue geval.

Maar je dartsbord is geen continue veranderlijke; elk systeem is in zekere zin gediscretiseerd (op het aantal atomen bv. of het aantal vezels bij een dartsbord). Wat er met die '0' echter bedoeld wordt is oneindig klein (in de limiet 0), niet het getal 0. Want de pdf kan in die punten wel verschillend zijn van 0, dus als je de pdf vermenigvuldigt met een kleine x-stap dx, kom je een kans uit (kansdichtheid * stap = kans), die in de meeste gevallen verschillend zal zijn van 0.

Wat je op jouw dartsbord wel geraakt hebt, is een reeks punten (je dartspijltje is niet oneindig dun, anders zou het er dwars doorvliegen), je moet dus ook in je continue model rekening houden daarmee. Je moet dus de pdf integreren over het bereik van punten en dan krijg je de kans om in dat bereik te liggen; en wonder boven wonder (of toch niet!), die kans zal niet 0 zijn.

Om het wiskundig te zeggen: P(x = 0) = 0, maar P(-0.001< x < 0.001) > 0.
ik begrijp even niet waarom dit systeem niet 100% zeker is. het hele idee van het bayan systeem is dat er een uitkomst is die 2 outputs met elkaar vergelijkt en je verteld of ze al dan niet gelijk zijn aan mekaar. je kunt dus uitkomstwaardes met elkaar vergelijken en zeggen of deze gelijk zijn of niet. het verschil met binair is dat dit er van uit gaat dat er 1 output is met 2 mogelijkheden. eigenlijk is het gewoon een omgedraaide versie van binair. het voordeel is dat met statistische berekeningen je wilt kijken of dingen gelijk aan mekaar zijn of niet. dit gaat dan met het bayan systeem met 2 mogelijkheden en volgens het binair systeem met 1 mogelijkheid tegelijk. wat al min of meer laat zien dat het bayan systeem veel sneller is op moment dat men meerdere databanen ter beschikking heeft gezien het twee mogelijkheden met elkaar vergelijkt vs 1 mogelijkheid per keer aan een vaste constante.
Inderdaad om maar even bij de vergelijking van DrEvil1986 te blijven... de reden dat mensen zo veel fouten maken in wat anders eigenlijk logische processen zouden moeten zijn. Is precies omdat mensen nu eenmaal niet logisch werken maar alleen maar de kans berekenen dat hun reactie een gepaste is in de huidige situatie.

Het zou juist voor het meer menselijk maken van een computer een geweldige oplossing zijn als je een computer kunt leren zich zo te gedragen, via een chip of via een andere oplossing maakt weinig uit zo lang de tijd tussen de input en de output maar niet te lang is.

Ook voor statistische gegevens waar je er best wel een beetje naast mag zitten is dit een goed idee veel al is het makkelijk om iets met 98% zekerheid te bepalen maar kost die laatste paar procent 90% van het reken werk gewoon omdat je dan zo veel preciezer moet werken. Een foutje moet kunnen binnen veel processen en daar kan zo'n chip nog wel eens een hele verbetering brengen.
Maar inderdaad je moet ook er op kunnen rekenen dat als je geen fouten wilt het systeem ook netjes zonder fouten zal werken. Bijvoorbeeld bij het wegschrijven van data of bij het verwerken van een belangrijke berekening waar je van aangeeft dat er geen fouten in mogen zitten.
Inderdaad om maar even bij de vergelijking van DrEvil1986 te blijven... de reden dat mensen zo veel fouten maken in wat anders eigenlijk logische processen zouden moeten zijn. Is precies omdat mensen nu eenmaal niet logisch werken maar alleen maar de kans berekenen dat hun reactie een gepaste is in de huidige situatie.
Wat bedoel je juist met fouten maken? Iets wat je elke maandag in de krant leest "bestuurder verliest controle over het stuur" of "frontale botsing" etc etc... Dat is omdat mensen geen grootheden kunnen meten, maar enkel kunnen schatten. Ze kunnen niet meten van die auto is zo ver verwijderd, rijdt zo hard dus heb ik zoveel tijd voor een inhaalmanoeuvre. Dat ze door rode lichten rijden is niet omdat ze ze niet zien (oké soms), maar meestal omdat ze ze bewust negeren.
Dat ze zich soms gewoon helemaal vergissen is natuurlijk wat anders. Dat zou je eventueel kunnen toeschrijven aan de statistische manier van data verwerken.
Nou je zou beide zaken die je noemt ook kunnen toeschrijven aan een kansrekening, namelijk het risico dat er iets gebeurt. Je neemt een bepaald risico omdat je denkt dat de kans dat er iets gebeurt toch wel klein is (daarom heet het ook risico). Dat gebeurt met zowel inhalen als met door rood rijden.
Wat bedoel je juist met fouten maken? Iets wat je elke maandag in de krant leest "bestuurder verliest controle over het stuur" of "frontale botsing" etc etc... Dat is omdat mensen geen grootheden kunnen meten, maar enkel kunnen schatten. Ze kunnen niet meten van die auto is zo ver verwijderd, rijdt zo hard dus heb ik zoveel tijd voor een inhaalmanoeuvre.
[...]
Dat ze zich soms gewoon helemaal vergissen is natuurlijk wat anders. Dat zou je eventueel kunnen toeschrijven aan de statistische manier van data verwerken.
Inschattingsfouten in het verkeer komen eigenlijk voor zover ik na kan gaan niet zo vaak voor - slechts als mensen met hele kleine marges proberen te rijden, zo van 'Ik denk dat ik nog net voor die auto langs kan'.

Meer verkeersproblemen doen zich voor door beinvloeding zoals alcohol, slaperigheid, afleiding, of gewoon het verstand elders hebben - of zelfs problemen waardoor je zaken niet goed in kunt schatten, zoals slechte ogen. Dat heeft op zich niks met kansberekeningen te maken, tenzij je een verzekeringsbedrijf bent die becijfert dat je zoveel % kans hebt om bezopen achter het stuur te zitten. Maar dat is niet intern, zeg maar.
Wat bedoel je juist met fouten maken?
Waarschijnlijk is "een beetje onnauwkeurigheid hebben" een betere term dan "fouten maken". Denk maar eens terug aan de FDIV-bug.
Intel had eigenlijk helemaal gelijk met hun oorspronkelijke standpunt "bijna niemand heeft hier last van; maar als je kunt aantonen dat er last van te hebben dan krijg je een gefixte processor". Als je met FDIVs in de weer gaat dan is het toch een benadering (dat is nou eenmaal een eigenschap van numeriek computergebruik). Okee, je hebt iets minder nauwkeurigheid dan je zou verwachten, maar voor wetenschappelijke berekeningen maakt dat meestal niet uit: die werken toch met iteraties en houden zelf bij wanneer ze moeten stoppen (wanneer ze geconvergeerd zijn). In die situaties is het simpelweg zo dat je een of twee extra iteraties nodig hebt, maar dan wel het goede antwoord krijgt. Voor statistische processoren kun je vermoedelijk bijna hetzelfde verhaal ophangen.
En ja, zoals Intel kan beamen, het is cruciaal dat een processor tot op de laatste bit correcte antwoorden kan geven. Waarschijnlijk moeten we eerst kijken naar welk soort berekeningen ze op deze CPUs willen draaien en hoe dat dan in zijn werk gaat. Dat maakt het veel makkelijker om te bekijken of het kans van slagen heeft. Ik heb namelijk het idee dat dit een belangrijke eigenschap gemeen heeft met quantum computers: iedereen heeft erover gehoord, maar bijna niemand weet wat het eigenlijk inhoudt en hoe het werkt. Het is knap lastig om uitspraken te doen over hoe makkelijk of moeilijk het is om een bepaalde berekening uit te voeren als je nog nooit een regel code voor dat platform geschreven hebt.
99% is niet voldoende, maar 99,99999% zou ik denk ik wel goed genoeg vinden.
Met huidige hardeschijven heb je ook geen keiharde absolute garantie dat al je data goed wordt opgeslagen, er kan altijd iets mis gaa. Op een harde schijf van een Terrabyte zitten eigenlijk altijd wel een paar rotte bitjes zonder dat het een groot probleem is.
Denk je werkelijk dat dat goed genoeg is? Het houdt in dat je bij het hercoderen van een dvd min of meer gegarandeerd bent van een corrupt bestand!

Ik heb het gevoel dat deze techniek niet beter zal scoren wanneer 100% correcte werking vereist is. Dat zou dan betekenen dat deze techniek leuk is voor een co-processor, voor het versnellen kansberekeningen.
Denk je werkelijk dat dat goed genoeg is? Het houdt in dat je bij het hercoderen van een dvd min of meer gegarandeerd bent van een corrupt bestand!
Veel video- en audiobestanden (en hun dragers, CD's / DVD's) maar ook bijvoorbeeld digitale televisie kun je gewoon van uitgaan dat daar fouten in zitten. En daar wordt rekening mee gehouden dmv foutcorrectiealgoritmen. Zie bijvoorbeeld Wikipedia over CD-Roms (zoek naar 'error correction). Een CD-Rom sector bestaat uit 2,352 bytes, waarvan voor de gebruiker slechts 2,048 beschikbaar is - de overige bytes worden gebruikt voor foutcorrectie (Reed-Solomon foutcorrectie, om precies te zijn)

Bij bijvoorbeeld digitenne kun je ook gewoon slecht signaal hebben en toch nog de video bekijken. Het bestand dat binnenkomt is zo corrupt als de pest, maar door de foutcorrectie krijg je toch nog je gegevens terug.
Dit is exact het verhaal zoals we al in veel sci-fi verhalen hebben gehoord. Vooral Space Above and Beyond moest ik direct aan denken waarbij dit vrijwel 1:1 overeen komt.

Laten we hopen dat we nooit de technological singularity bereiken. http://en.wikipedia.org/wiki/Technological_singularity
de vraag is hoe bouw je een volledig zelflerende cpu ....
mogelijkheid 1: door jezelf na te bouwen (menselijk brein),
mogelijkheid 2: ..... (is die er wel?)

bij mogelijheid 1 is de kans niet bepaald groot dat dit kunstmatige brein sneller / efficienter zal werken dan ons eigen brein, en dus wordt ie hooguit even inteligent.
tenzij je zou denken aan schaalvergroting.

In dat geval zou je kunnen denken aan een brein dat langer / intensiever kan rekenen en meer verbindingen kan leggen dan het menselijke brein (bijv door groter te zijn dan het onze), daardoor zou het beter in staat moeten zijn om te gaan met 'alle' ons bekende data.. maar in de practijk zal die niet gigantisch veel slimmer zijn dan het maximale 'menselijke' potentieel, en op zijn beurt een NOG efficiëntere processor ontwikkelen zit er dan al helemaal niet in.

kortom erg onwaarschijnlijk...

[Reactie gewijzigd door i-chat op 31 juli 2024 03:58]

de vraag is hoe bouw je een volledig zelflerende cpu ....
mogelijkheid 1: door jezelf na te bouwen (menselijk brein),
mogelijkheid 2: ..... (is die er wel?)

bij mogelijheid 1 is de kans niet bepaald groot dat dit kunstmatige brein sneller / efficienter zal werken dan ons eigen brein, en dus wordt ie hooguit even inteligent.
tenzij je zou denken aan schaalvergroting.
Waarom niet?
We hebben al zat dingen uit de natuur nagebouwd en verbeterd.
In dat geval zou je kunnen denken aan een brein dat langer / intensiever kan rekenen en meer verbindingen kan leggen dan het menselijke brein (bijv door groter te zijn dan het onze), daardoor zou het beter in staat moeten zijn om te gaan met 'alle' ons bekende data.. maar in de practijk zal die niet gigantisch veel slimmer zijn dan het maximale 'menselijke' potentieel, en op zijn beurt een NOG efficiëntere processor ontwikkelen zit er dan al helemaal niet in.
Waarom niet? Er zijn al genoeg AI's die een taak beter hebben leren uitvoeren dan mensen kunnen door mensen te observeren en/of zelf te leren om aan te tonen dat het realistisch is.
Het verbeteren van dingen uit de natuur is niet te vergelijken met het nabouwen en verbeteren van onszelf. Je moet je ten eerste afvragen (zoals i-chat doet) of we onszelf uberhaupt kunnen nabouwen. Zie o.a. The Hard Problem.
Het komt er op neer dat we onszelf nooit helemaal kunnen begrijpen (ons bewustzijn in dit geval), laat staan nabouwen. Waar jij het over hebt zijn de zogenaamde 'easy' problemen, waarvoor we een systeem kunnen bedenken die die bepaalde functie uitvoert. (De eerder genoemde spraakherkenning en handschriftherkenning vallen hieronder). Over het ontstaan en de functie van bewustzijn is nog flinke onenigheid en de theorieen daarover zijn mij ook niet helemaal duidelijk :p
Voor het nabouwen hoef je niet persee alles te snappen.
Wat een veel groter probleem kan vormen is dat een deel van de werking van de hersenen te maken heeft met de fisieke structuur.
Dan zul je de fisieke eigenschappen moeten emuleren om tot hetzelfde resultaat te komen.
Emuleren kost altijd extra energie en dus blijft de meest efficiete oplossing gewoon de hersenen zelf.

Maar de vraag is meer of we dingen als bewustzijn en menselijke gewoontes nodig hebben in een computer of robot.
En dan nog, waarom niet gewoon een computer aan een paar hersenen koppelen ?
Dan heb je het beste van beide werelden.
Definieer intelligentie. Een kunstmatig brein kan immers beschikken over oneindig veel kennis, sneller leren (nieuwe hd aankoppelen) etc. Rekenen gaat sneller, de input kan objectief zijn (sensoren voor temperatuur, afstanden, gewicht, etc.) en ga zo maar door.

Alleen het associatieve vermogen, daar is de mens heer en meester in. En dat is nu net iets wat niet goed na te bouwen is.
Edit: ook ethiek en emoties zijn geen logische processen en dus lastig na te bouwen. Zeker omdat emoties veelal chemische processen zijn (hormonaal gestuurd).

[Reactie gewijzigd door Verwijderd op 31 juli 2024 03:58]

Erm, ik geloof dat het idee/doel juist is om dichter bij de singularity te komen... aangezien Ray Kurzweil (schrijver van 'the singularity is near') een van de adviseurs is van DARPA.
Nou, ik zat eerder te denken aan "The Terminator". Waar machines de overhand proberen te krijgen. Laten we hopen dat zoiets nooit zal gebeuren.
Als dat betekent dat ik de hele dag Summer Glau om me heen heb dan vind ik dat niet zo erg :+

ervanuitgaande dat ik de toekomstige hoop van mankind ben 8)7
Nice... misschien in de toekomst behalve in robots ook op grafische plankjes naast je physics chip ter verbetering van de AI in games? Ik roep maar wat... :)
Op de korte termijn zou dit leiden tot sneller werkend flashgeheugen, door de foutcorrectie te verbeteren (staat in de tekst).
Maar er zijn veel meer toepassingen mogelijk; spraakherkenning en handschriftherkenning bijvoorbeeld werken vaak met machine learning algoritmes gebaseerd op bayes of neural nets. Deze chips zouden dat soort berekeningen veel sneller kunnen afhandelen en dus ook sneller kunnen leren.
Thx, maar sneller werkend flashgeheugen zal mij een worst boeien... ik wil robots!!! En dingen als realistischere AI in games en interfaces zoals Kinect die ook écht goed werken... als dit aan al die zaken bij kan dragen vind ik dit goed nieuws :D
Reguliere CPU verweken de Turing set (+hoop variaties op dat thema), en dat is wiskunde voor 'alle mogelijkheden'. Statistische cpu klinkt mij nogal vaag en hoaxerig in de oren, en ontbreekt iederen vorm van onderbouwing. Ik verwacht een helehoop mitsen en maren aan de claim 'sneller'.
Nou heb ik er geen enkel verstand van, maar ik noem even een voorbeeld zoals ik denk dat het werkt.
Je hebt een detective en 1000 verdachten. Als je dan op de conventionele manier te werk gaat ga je ze alle 1000 af. Duurt lang.
En met dit statistische doe je eigenlijk wat ook in het echt ook gebeurd, je pakte degene die het meest waarschijnlijk de boef is. Die check je dan, en als het hem niet is, ga je naar verdachte nummer 2.
Scheelt je denk ik wel een hoop tijd, als het er zo aan toe zou gaan.
Leuk verhaal, maar je slaat hier wel even een flink aantal stappen over.

Hoe weet je welke de meest waarschijnlijke boef is? Je zult dat toch moeten checken aan de hand van diverse parameters, en dat zul je moeten doen voor alle kandidaten. Dat kan je ook prima parallel doen (GPU's kunnen dat prima).
The electrical signals inside Lyric's chips represent probabilities, instead of 1s and 0s
en
Whereas a conventional NAND gate outputs a "1" if neither of its inputs match, the output of a Bayesian NAND gate represents the odds that the two input probabilities match. This makes it possible to perform calculations that use probabilities as their input and output.
Roepen bij mij toch veel meer vragen op, dan dat het verklaringen geeft...

Er zijn bovendien ook al diverse projecten om dingen als spam detectie in hardware (programmable logic) te doen. En dat is ook honderden malen sneller dan een reguliere CPU, simpelweg omdat je custum logic kunt bouwen specifiek voor deze toepassing. Daar hebt je echt geen Bayesian NAND gate voor nodig.

[Reactie gewijzigd door voodooless op 31 juli 2024 03:58]

Reguliere CPU verweken de Turing set (+hoop variaties op dat thema), en dat is wiskunde voor 'alle mogelijkheden'. Statistische cpu klinkt mij nogal vaag en hoaxerig in de oren, en ontbreekt iederen vorm van onderbouwing. Ik verwacht een helehoop mitsen en maren aan de claim 'sneller'.
Mits / maar is afhankelijk van hetgeen er op te lossen is. Eigenlijk kun je dit vergelijken met GPGPU's - je weet wel, shaders (of 'cuda cores') in GPU's. Die zijn ontiegelijk snel in het verwerken van floating point getallen, zowel doordat ze elk daarvoor geoptimaliseerd zijn, en omdat er zo 200+ op één chipje zitten die allemaal parralel kunnen werken.

Echter, je kunt er niet alles mee. Zo moet je dit ook zien - een specialistische chip die goed is in een bepaald vakgebied, die een taak sneller en energie-efficienter uit kan voeren dan een conventionele CPU.
Toch lijkt dit anders te zijn. Een GPU bestaat nog steeds uit de standaard logische bouwstenen. Dit bedrijf heeft schijnbaar een compleet nieuwe set bouwstenen uitgevonden.
Daar verwacht ik me ook aan: om te weten wat het meest waarschijnlijke is, moet je immers weten welke kansverdeling je veranderlijken volgen. Dat is immers de basis van de hele Bayesiaanse schattingstheorie. Je zou dat kunnen nabootsen op een klassieke gate door verschillende waarden aan te leggen (at random) en op het einde te gaan uitmiddelen; maar dat zou geen versnelling opleveren in mijn ogen.

Als het dus geschakeld wordt zoals een NAND-gate: 2 ingangen, 1 uitgang en voedingstoevoer dan zie ik in de verste verte geen mogelijkheden om te doen wat ze zeggen te kunnen doen. Als het een veel ingewikkelder iets is (hele hoop ingangen en uitgangen), dan is het niet onmogelijk; maar dan ook slechts met een hoop mitsen en maren (bv. data moet normaalverdeeld zijn of moet een bepaalde distributie volgen).
Begint redelijk in de richting van kwantumprocessors te gaan

[Reactie gewijzigd door Iska op 31 juli 2024 03:58]

Er is echter wel een heel groot verschil tussen statistische en quantumberekeningen! Statistisch gaat uit van het meest waarschijnlijke (de elementen met de meest waarschijnlijke juiste uitkomst), terwijl quantumberekeningen *alles* berekent.

Oftewel:
Logisch: Seriëel, in geen bijzondere volgorde.
Statistisch: Seriëel, kleine groep van de meest waarschijnlijke uitkomsten eerst.
Quantum: Parallel, alle mogelijkheden 'tegelijk'.

Hoewel statistisch rekenen potentiëel veel sneller kan zijn, is het zeker geen quantumrekenen :)
Misschien dat je de bouwmarkt bedoeld, maar het is toch echt quantum ;)
Neej hoor, afgezien van het feit ik per ongelijk een 'm' had getypt ipv 'n' is kwantum gewoon goed nederlands! Quantum is engels ;)
Het is Latijn, in het Engels rechtstreeks overgenomen, in Nederlands inderdaad kwantum.
(/offtopic)
Mooie techniek dit, helaas zit Darpa er achter dus de eerste toepassingen zullen wel weer militair zijn (ziet al weer spookbeelden van KI gestuurde tanks en straaljagers).
Tanks gestuurd door kunstmatige inseminatie? :+

Sowieso vraag ik me af wat men met het internationaal (oorlogs)recht gaat doen als men oorlog gaat voeren zonder dat er mensen aan te pas komen. Lijkt me toch wel een vrij radicale mindshift. Nu zijn op afstand bestuurde dingetjes als predators dat al, maar volledig autonoom is toch wel een beetje heftiger?
Sowieso vraag ik me af wat men met het internationaal (oorlogs)recht gaat doen als men oorlog gaat voeren zonder dat er mensen aan te pas komen. Lijkt me toch wel een vrij radicale mindshift. Nu zijn op afstand bestuurde dingetjes als predators dat al, maar volledig autonoom is toch wel een beetje heftiger?
Volgens mij net zoals dat tegenwoordig gaat - er zal uiteindelijk een persoon zijn die verantwoordelijk is voor, of opdracht geeft aan, die autonome voertuigen. Als je een UAV opdracht geeft om zijn lading te dumpen op burgers, is degene die dat commando gaf schuldig aan oorlogsmisdaden.
Maar wat gebeurd er als er helemaal geen mensen aan te pas komen. Als die dingen van zichzelf een bewustzijn hebben?
De persoon/organisatie die het in z'n hoofd gehaald heeft om dat ding aan te zetten is dan verantwoordelijk.
Darpa zit in de US achter heel veel grensverleggende technieken en onderzoeken. Darpa is in vele opzichten een vermomde subsidie organisatie om technologische ontwikkelingen te stimuleren middels subsidies, zonder dat Europa of Japan kunnen zeggen dat de US zijn industrie illegaal subsidieert buiten de WTO afspraken om.
Klopt, enne...... onder welk departement valt Darpa ook al weer? Juist, Defensie. 8-)

DARPA is the research and development office for the U.S. Department of Defense. DARPA’s mission is to maintain technological superiority of the U.S. military and prevent technological surprise from harming our national security. We also create technological surprise for our adversaries.

[Reactie gewijzigd door Verwijderd op 31 juli 2024 03:58]

DARPA staat zelfs voor Defense Advanced Research Projects Agency :+

Het was dus eigenlijk een beetje een weggevertje dat ze onder Defensie vielen.
Aan de reacties hierboven te zien lijkt het erop dat er veel mensen zijn die de ballen verstand hebben van wat deze nieuwe processor doet, maar die meteen allerlei wilde sci-fi-achtige conclusies trekken.

Zoals "het menselijke brein werkt ook met statistische berekeningen" (op zichzelf al een zeer vage bewering), en de conclusie is dus dat deze CPU dus op dezelfde manier werkt als een menselijk brein?

Of mensen die meteen aannemen dat dit een soort vervanger wordt voor gewone CPU's in PC's, zodat je een PC krijgt die niet altijd 100% exacte antwoorden geeft (of bijvoorbeeld een Word-document met 99,9999% precisie opslaat)?

En quantumprocessors? Daar heeft deze CPU al helemaal niets mee te maken.

Allemaal heel fantasievol, maar in werkelijkheid is deze CPU voor veel "aardsere" dingen bedoeld dan robots met een bewustzijn en dergelijke. Het is gewoon een soort special purpose analoge CPU - bruikbaar voor hele specifieke soorten berekeningen die door middel van kansen kunnen worden berekend.
ik hoop dat wij het verandering dan mee gaan maken
anders is het ook zonder haha
Erm, zonder wat precies?
"haha" blijkbaar. Nou ja, dat hou je met kansberekening toch altijd, soms is je antwoord bijna goed!
hij zal wel "zonde" bedoeld hebben...
Hoeveel kans heb je voor die uitkomst berekend? :+

Voor vertaalprogramma's zou deze chip ook gebruikt kunnen worden.
Dus er bestaat de KANS dat deze processor het juist heeft...

Op dit item kan niet meer gereageerd worden.