Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties

Een Amerikaanse onderzoeker heeft een supercomputer ontwikkeld die het visuele systeem van mensen simuleert. De wetenschappers denken dat hun neurale netwerk visuele informatie snel genoeg kan verwerken om auto te rijden.

Het systeem dat door Eugenio Culurciello van de Yale School of Engineering & Applied Science werd ontwikkeld, is gemodelleerd naar de manier waarop zoogdieren visuele informatie verwerken. Culurciello heeft het systeem NeuFlow genoemd en heeft zijn creatie tijdens de High Performance Embedded Computing-bijeenkomst gepresenteerd. Het NeuFlow-systeem maakt gebruik van algoritmes voor de verwerking van visuele informatie door neurale netwerken die door Yann LeCun van de universiteit van New York werden ontwikkeld.

Met het systeem zouden computers in staat kunnen zijn gegevens snel genoeg te verwerken om een auto te kunnen besturen. Daartoe kan het NeuFlow beelden van enkele tientallen megapixels in realtime verwerken om zo objecten langs de weg, mensen en uiteraard de weg zelf te kunnen herkennen. De visuele verwerking verloopt volgens de onderzoeker met ruim 100.000mips, terwijl het energieverbruik slechts enkele watts zou bedragen. Dat wordt mogelijk gemaakt door parallellisatie van de gegevensverwerking in een fpga-achtige omgeving die on-the-fly aan de taak kan worden aangepast. Naast een systeem voor auto's zou de kunstmatige visie ook gebruikt kunnen worden voor militaire of medische toepassingen. Computervisie-architectuur

Moderatie-faq Wijzig weergave

Reacties (61)

Snelheid en energieverbruik
De neuromorphic community gebruikt normaliter analoge chips, zoals deze silicon retina van Toby Delbruck (Zürich): http://siliconretina.ini.uzh.ch/wiki/index.php Dat gaat veel sneller dan een FPGA, dat inherent digitaal moet worden ontworpen. Bovendien gebruikt een FPGA meer energie dan een analoge oplossing. Dat is waarom er FPAA's op de markt zijn (http://www.anadigm.com/fpaa.asp) omdat ze het lage energieverbruik kunnen combineren met de mogelijkheid van (online) reconfiguren. Daarbij moet worden aangetekend dat van die laatste mogelijkheid bij FPGA weinig gebruik wordt gemaakt. Een FPGA wordt meestal gebruikt om snel een prototype te kunnen uitrollen zonder een nieuwe chip hoeven te bakken. Oftewel, snelheid en energieverbruik is ongetwijfeld slechter dan de chips die ervoor zijn ontwikkeld.

De biologische pijplijn V1 - IT
Dus waarom komt dit in het nieuws? Het Europese CAVIAR project: http://www.ini.uzh.ch/~tobi/caviar/ had ook een pipeline opgebouwd met convolutiefilters, een WTA stage (winner-take-all) om een object eruit te laten springen, en zelfs wat leermogelijkheden om verschillende trajectories te classificeren. Wat voegt het lab van Culurciello toe?

Ik kan helaas niet bij het artikel "Real-time silicon implementation of V1 in hierarchical visual information processing", maar ik vind het zeer gedurfd van ze te stellen dat ze V1, V2, V4 en IT modeleren. (1) Beweging, in IT, is al genoemd: elke beweging die jezelf maakt leidt tot een verandering in wat je ziet, dat noem je sensorimotor invarianties. (2) Aandacht, ik weet dat er saliency (bottom-up) models zijn geïmplementeerd in neuromorphic chips, maar hoe top-down attentie te implementeren? (3) Het stability-plasticity dilemma. Het onthouden van nieuwe patronen zonder dat het ten koste gaat van oude patronen en zonder dat het systeem explodeert. Adaptive resonance theory behandelt dit, maar zo ver ik weet zijn er geen neuromorphic implementaties.

Hebben mensen meer informatie dan hoor ik het graag, stuur maar naar http://www.robotcognition.eu
Ik kan helaas niet bij het artikel "Real-time silicon implementation of V1 in hierarchical visual information processing"
Ik kan je het artikel wel mailen als je wil, heb via de TU wel toegang :)

[Reactie gewijzigd door Xqlusive op 19 september 2010 14:02]

Hoi Xqlusive, is beetje off-topic, maar als je direct messages aanzet (myReact - Voorkeuren), stuur ik je onmiddelijk mijn email adres. :-)
Voor school ben ik nu bezig met een projectje voor gezichtsherkenning (eerst detectie, dan herkenning). Daar komt veel bij kijken, ik ben er pas net mee begonnen en het idee is dat ik het grotendeels zelf ga opzetten met enige begeleiding. De mogelijkheid van een neural network heb ik ook gezien, maar lijkt me net een paar tandjes te pittig, hoewel ik daar eerst me nog maar verder op in moet lezen. Het zou wel leuk zijn om het iig te proberen.
Wat is het alternatief voor een neuraal netwerk dan?

Ik ben al heel lang uit het AI wereldje weg, dus misschien loop ik hopeloos achter, maar het trainen van een neuraal netwerkje is toch inmiddels de standaard. Toen ik er mee bezig was moest je dan eerst nog zo'n neuraal netwerk programmeren, maar je kan ze al heel lang gewoon vanaf de plank gebruiken.

Ik heb toendertijd overigens een alternatief uitgewerkt gebaseerd op informatie technologie (niet te verwarren met informatica) dat uitstekende resultaten leverde in tests die we gedaan hebben voor beslissingsondersteuning (diagnose bij ziektes en reisadviezen hebben we als test gedaan. Dat wordt inmiddels op grote schaal gebruikt door oliemaatschappijen om te bepalen waar je moet proefboren na alle tests. Had ik daar nu maar wat rechten op laten gelden.....

(voor de geinteresseerden: een computer implementatie van shannon's theorema op informatie redundantie uit 1948)

Anyway, we hebben toen ook gekeken of het voor gezichtsherkenning bruikbaar was, maar de benodigde fuzzy logic leverde ons systeem niet op. Het had gekund maar dan had je in deelstappen moeten trainen: eerst bijv. kan dit het gebied zijn waar een oog zit, gebruiker ja, nee, is dit dan het oog, ja, nee, etc. Erg lastig, veel werk voor het leerproces en daarmee dus effectief langzamer dan de parallelle aanpak van een neuraal netwerk.

Voor het besturen van auto's (ergo het herkennen en taxeren van objecten) bleek het algorithme niet geschikt omdat het in de aard niet paralleliseerbaar was. Let wel ik schreef dit in in 1981, maar ook toen waren er experimenteer bordjes met parallel processors). Experimenten met ASIC's hebben we niet gedaan, omdat we een Cray ter beschikking hadden om de snelheid te halen.

Mijn grote vraag is dus: hoe trainen die onderzoekers deze taken, want daar zit hem de clou. Ze noemen zelf meerdere denkbare taken, maar hoe lang duurt het voor deze werken?

Back to jouw project: Nu je neurale netwerken van de plank kan halen, is het Interface schrijven, trainen en klaar is JaWSnl. De snelheid schaalt perfect met het aantal parallele threads dat je kan afhandelen. Wat overweeg je dan nu te gebruiken?
U heeft ook subsidie van de overheid?
voor school zegt ie toch?

vind ik een prima idee. F1 coureurs zijn ook niet vanuit de wieg in de raceauto gezet. daar zaten tig andere modelletjes tussen, met verschillend aantal PKs.

FF ontopic: ik heb ook aan gezichtsherkenning gedaan. wel onder andere met neurale netwerken, maar ook met andere methoden. Was altijd geintrigeerd door het menselijke visuele systeem.

En daarin zit m nou net de crux: een menselijk oog is de eerste stap in een visueel systeem van 7 lagen. Elke laag heeft een ander abstractieniveau. het oog pompt een gigantische hoeveelheid informatie via de oogzenuw de hersenen in, en als de laatste stap in het proces (dat deel dat herinnert en beslist) dat allemaal zou moeen verwerken dat kapt ie er al naar een paar seconden mee, info overload.

Nee, het oog levert de data al in verschillende resoluties. Er is maar een klein gedeelte wat je in detail kunt zien (namelijk waar je naar kijkt), en het gebied eromheen kun je alleen maar wazig zien. Beide vormen hebben hun voordelen; met het wazige overzichtsbeeld kun je snel detecteren waar iets beweegt of interessant is. En als je daar dan op focust, dan krijg je detailinformatie.

De lagen tussen oog en beslissingslaag vormen een feedback systeem. Dat feedback systeem stuurt als het ware de beslissing al in een bepaalde richting, voordat de uiteindelijke laag de beslissing zal gaan nemen (uit de beperkte set mogelijkheden die er dan nog zijn).

De hierboven getoonde kaart is eigenlijk dus het oog. Het levert, ook in het filmpje al, de verschillende resoluties aan data aan.

En misschien heeft het ook al een array voor de neurale netten die de verschillende tussenlagen opmaken. Dat heeft als voordeel dat dit heel snel gedaan kan worden, want het is een hardware-optimized implementatie van de neurale netten. Het nadeel dan weer is, dat het nauwelijks aanpasbaar is.
Het nadeel dan weer is, dat het nauwelijks aanpasbaar is.
Dat is denk ik ook waarom ze dit in een FPGA doen. Zo'n chip kost (nagenoeg) niks, en kun je een onbeperkt aantal keer herprogrammeren om nieuwe dingen te implementeren.

Als we een stapje verder gaan zou je zo'n neuraal netwerk kunnen bouwen wat (een deel van) zijn eigen FPGA herprogrammeert, en zo nog eens sneller aanpassingen kan doen.
Het neurale netwerk zelf kan ook 'geprogrammeerd' worden zonder de FPGA aan te passen, dat is een eigenschap van een neuraal netwerk.
Het neurale netwerk zelf kan ook 'geprogrammeerd' worden zonder de FPGA aan te passen, dat is een eigenschap van een neuraal netwerk.
Klopt, de informatie IN het netwerk kan opnieuw geprogrammeerd worden zonder de FPGA aan te passen, de topologie in de FPGA zelf niet. Net zoals een computer voorlopig nog niet een GPU kan fabriceren en in zijn PCIe-slot kan duwen. :)

Het netwerk kan zichzelf alleen niet schalen, groeien of herstellen, en is dus beperkt tot wat de ontwikkelaar er aan neuronen in stopt. Als het zijn eigen FPGA kan herprogrammeren, dan kan het zelf neuronen erbij verzinnen en dus groter en krachtiger worden.
Het klinkt als een academisch onderzoek, en ja, universiteiten hebben echt genoeg mooi spul staan voor miljarden euro's en dat komt niet door de grote omzet die universiteiten hebben. :)
Het klinkt als een academisch onderzoek, en ja, universiteiten hebben echt genoeg mooi spul staan voor miljarden euro's en dat komt niet door de grote omzet die universiteiten hebben. :)
Overheidssubsidie telt ook als omzet hoor. :Y)
niet echt, overheidssubsidie telt als inkomen. Inkomen != omzet.
Je kan altijd gezichtsherkenning doen aan de hand van eigenfaces. Dat heb ik ooit ook nog voor het school gedaan.

Via matlab en wat matrixrekenen is dit nog wel doenbaar.
Ook 1 van de methodes die ik nog goed moet bekijken. Waarschijnlijk een stuk makkelijker dan een neuraal netwerk. Het moet alleen wel in C(++/#) gedaan kunnen worden, niet met matlab. Maar goed, ik ben pas net met de onderzoeksfase begonnen. Zo ben ik er nog niet eens over uit of Haar Cascade een manier is om een neural network te gebruiken, of dat het geheel los van elkaar staat :P
Als 't in c++ moet kan je kijken naar OpenCV. Je zou het kunnen prototypen in pyOpenCV of Puredata met de opencv-objecten.
Haar filters
Haar filters kunnen zeker worden gebruikt. Ted Schmidt, zie www.ai.rug.nl/~mwiering/Thesis_Ted_Schmidt.pdf gebruikte Haar-like features voor orientatie filters in een bottom-up saliency model. Voor de visueel-georiënteerde mensen onder ons: http://fileadmin.cs.lth.s...projects/facerecognition/ (die mensen ken ik niet trouwens).

Ted's code is beschikbaar onder LGPL en je kan meer lezen op http://replicator.almende.com/news.php Wij gebruiken het niet voor gezichtsherkenning maar voor sensor fusie op modulaire robots.

Succes met je project!

[Reactie gewijzigd door MrQuincle op 19 september 2010 16:55]

Behoorlijk indrukwekkend: een "supercomputer" die minder power nodig heeft dan een mobieltje en toch net zo veel visuele data kan verwerken als multi-GPU systeem.
Naast een systeem voor auto's zou de kunstmatige visie ook gebruikt kunnen worden voor militaire of medische toepassingen.
Uit welke hoek zou dit gefinancieerd zijn...?
laat dat ding maar eens andere dingen uitvoeren, dan faalt het hard.

dit systeem is puur gericht op het uitvoeren van 1 taak.

maar idd, wel indrukwekkend
Waarom zou je het andere taken uit willen laten voeren? Het is juist een embedded systeem. Dit soort dingen zijn juist gemaakt om 1 taak heel goed uit te voeren. Dat is de reden waarom ze worden gemaakt: Precisie, snelheid en stabiliteit.

Hier gebruiken ze dus ook een soort van fpga voor. Dat zijn chips waarin je een compleet, complex logisch systeem kan programmeren. Eigenlijk maak je dus een soort van processor. Het grote voordeel is dat je enkel de logica gebruikt die je nodig hebt. Tevens kun je die dus parallel laten lopen. Uiteindelijk krijg je dus een razdendsnel systeem.

Dergelijke dingen worden ook bv bij radars ingezet om realtime tientallen raketten te kunnen monitoren en eventueel onderscheppen. Dat hoef je een Intel Core i7 ook niet te laten doen.
Het programma loopt inderdaad op een FPGA welke sowieso al erg snel zijn zoals je ook al aangeeft. Echter gaan ze nog een stapje verder, het gaat voornamelijk om het programma wat op de FPGA draait, dit programma maakt gebruikt van algoritmes gebaseerd op neurale netwerken, en lijkt dus in de verste verte niet op een normaal FPGA programma wat conventionele logica gebruikt.

Wat ik dan ook niet helemaal begrijp is de vergelijking met een i7 of het Cuda platform aangezien het hier om de software gaat, niet om de hardware. We wisten al lang wel dat een CPU als de i7 geen kans maakt tegen een FPGA wat betreft parallelle bewerkingen.

Voor neurale netwerken is het logisch om gebruik te maken van een platform wat zeer goed is in parallelle bewerkingen, ze zouden dan ook beter een vergelijking kunnen maken tussen conventionele "vision software" op dezelfde hardware en de software gebaseerd op neurale netwerken.
En je nvidia kaart ook niet met cuda.

Maar dan vraag ik me wel meteen af: welke kaart is gebruikt?
En natuurlijk: hebben ze alles wel geoptimaliseerd? Aangezien als je al een werkend systeem hebt ga je er niet heel lang meer over doen om het ook 100% aan de praat te krijgen op een ander systeem.

Maar goed, dit systeem zou dus uitermate geschikt zijn voor auto's. Op dit moment doen die experimentele auto's het nog met een groot aantal accu's en een computer rack achter in de auto :p

Maarja, dit systeem en het computer rack achter in de bagage bak hebben nog altijd hetzelfde probleem: een goed algoritme om 100% alle wegen te herkennen en alles te ontwijken.

Ik kijk er naar uit om dit in een van die auto's terug te zien, dat zou een gigantische stap voorruit zijn :D
laat je grafische kaart anders even koffie maken. Ahnee, daar heb je een koffiezetapparaat nodig. En sluit die eens aan op je computer om even CoD te spelen. Oeps, computer naar de kl*ten ;)
Het is een neuraal netwerk dus het kan vrijwel alles verwerken. Ik denk dat als die systeem hard zou falen bij 'andere dingen', dat alle mensen, (vooral jij ;)) ook hard zouden falen bij 'andere dingen'.

Neurale netwerken zitten in je hoofd/hersenen, gemaakt van zenuwcellen/uitlopers & dergelijke. Die kan je ook digitaal namaken, en als je er genoeg hebt kan je dus een soort brein maken. Punt is dat het erg veel parallele verwerking vergt, en dat een CPU dat dus niet echt kan. GPU's zijn daar al wat beter in, maar die custom hardware is dus nog weer een stuk beter.
Laat jouw ogen eens proberen een pen op te pakken, dan falen ze ook hard :)
Daar hebben we Uri Geller voor.
Ja, maar die sloopt de pen dan ook meteen door er een knoop in te leggen...
Lijkt me bijna vanzelfsprekend dat hier op één of andere manier ook militaire financiering achter zit. Sowieso is dit uiteraard bij uitstek geschikt voor die DARPA Challenge.

En aan z'n website te zien krijgt hij o.a. funding van Office and Naval Research:
May 2008: We obtained ONR funding for our project on optical brain-machine interfaces, the title of the project is "A high-speed, in-vivo optical neural recording system".


Als ik de zo claims in het filmpje bekijk is dit best een grote stap. Karretje crosst op aardig hoge snelheid in dat filmpje. Alle obstakels staan echter nog wel stil.
theoretisch makt dat niets uit, deze FPGA draait namelijk op 30fps en analyseerd ieder beeldje apart. Het idee is dna ook dat op ieder beeldje alle objecten stilstaan (daarom heet het ene foto). Het probleem zou alleen op kunnen treden bij de aansturing van het karretje, dat niet snel genoeg koerscorrecties uit kan voeren.

Voor de FPGA maakt het dus niet uit of andere objecten bewegen, dit is namelijk vergelijkbaar met het bewegen van het karretje zelf. Een goed voorbeeld zie je als het karretje de kuil direct detecteerd tegen het einde van het filmpje.
Voor de FPGA maakt het dus niet uit of andere objecten bewegen, dit is namelijk vergelijkbaar met het bewegen van het karretje zelf. Een goed voorbeeld zie je als het karretje de kuil direct detecteerd tegen het einde van het filmpje.
Het moeilijke in autorijden is ook niet het vermijden van obstakels, het moeilijke zit hem vooral in het anticiperen op andere verkeersdeelnemers.

Als zo'n FPGA elk 'object' als stilstaand zou beschouwen, dan zou ie dat ook met die auto van rechts doen of de kleuter die plotseling de weg op rent. Gevolg is dat er te laat gereageerd wordt en er dus slachtoffers vallen.

Zo'n ding zal dus echt analyse moeten doen van het gedrag van voorwerpen, welke richting ze op bewegen en welke richting ze op kunnen bewegen. Sinds menselijke bestuurders vaak redelijk onvoorspelbaar zijn, ben ik benieuwd of dat gaat lukken.
Helemaal mee eens, en afgezien daarvan is 30fps nog veels te weinig voor grote snelheden. Je zou kunnen zeggen dat de tussenpozen tussen ieder plaatje staat voor een afstand. Met een snelheid van 1 m/s verspringen objecten dus 3 cm. Naarmate de snelheid groter wordt, wordt het systeem ook onnauwkeuriger. Bij 40 m/s (snelweg), verspringen objecten meer dan een meter van het een beeldje naar het andere beeldje.
Je zou kunnen zeggen dat de tussenpozen tussen ieder plaatje staat voor een afstand. Met een snelheid van 1 m/s verspringen objecten dus 3 cm. Naarmate de snelheid groter wordt, wordt het systeem ook onnauwkeuriger.
Het gaat meer om een hoek dan een afstand. Een voorwerp wat 3 kilometer verderop met 1 m/s voor me langs beweegt zal ik amper zien, terwijl een vlieg met 1 m/s en 2 centimeter voor mijn neus me helemaal gek kan maken.

Hoe dichterbij (en groter) een voorwerp, hoe meer het je beeld zal vullen en je er dus meer aandacht aan zal besteden.
Bij 40 m/s (snelweg), verspringen objecten meer dan een meter van het een beeldje naar het andere beeldje.
Vergeet ook niet dat snelheid weer relatief is. De vangrail schiet ook met 40 m/s aan me voorbij, maar die blijft mooi in de rand van mijn zicht omdat ik weet dat die toch niet gaat veranderen op korte termijn. De rest van de automobilisten hebben (hopelijk!) een lagere snelheid ten opzichte van mij, dus die kan ik veel beter in de gaten houden en op inspelen.

De motorfietser die me met 240 inhaalt (en dus wél met 40m/s aan me voorbijscheurt) trekt in zo'n situatie ook gelijk de aandacht.
Die 30fps is het probleem niet. Dit prototype kan op 30fps werken. Echter is het belangrijkste deel onderzocht en werkend bewezen.

Opschalen naar meer fps is heel goed mogelijk. Of meer logica (eventueel in een grotere chip) of meerdere chips naast elkaar en de frames om en om verdelen. Je kan dit proces prima timen, dus je weet hoe snel het apparaat een beeld kan verwerken.

Als men het werk echt wil toepassen, maar meer fps nodig hebben, dan is dat het probleem echt niet meer.
Al eerder op t.net stond een artikel over het ontwijken op dezelfde methode als bijen dat doen. Bijna instant dus. nieuws: Nissan baseert crash-ontwijker van robotauto op gedrag bijen

Als je dit systeem koppelt aan dat systeem wordt het al een stuk beter. Je bent vrij laat met reageren inderdaad, maar je weet wel direct waar je uit kan wijken.

Uiteraard zijn we er nog lang niet, maar dit is wel een erg bruikbare ontwikkeling. Autonome auto's komen er zeker, daar ben ik van overtuigd. Maar het kost heel veel tijd. Het gaat in kleine stapjes om uiteindelijk alle onderzoeken en vindingen samen te kunnen voegen tot een systeem met genoeg rekenkracht en logica om het voorelkaar te krijgen.
Dat is niet waar, deze fpga is een visie subsysteem. Het is dus niet zijn taak om te anticiperen en bewegingen te analyseren, maar alleen maar om te zien. Een ander gedeelte van het systeem zal dat vervolgens moeten analyseren.
Lijkt me bijna vanzelfsprekend dat hier op één of andere manier ook militaire financiering achter zit. Sowieso is dit uiteraard bij uitstek geschikt voor die DARPA Challenge.
Uiteraard. Nog wat gezichtsherkenning erin, en ze kunnen in drones die boven Pakistan cirkelen. Talibanleider herkend en hij opent automatisch het vuur.

Oeps, leek die Pakistaanse president nu toch even op Bin Laden... hoe gaan de diplomaten dit nu weer rechtpraten? 8)7
Uit welke hoek zou dit gefinancieerd zijn...?
DARPA, defensie dus.

@wizzkizz: bekijk het filmpje even...

[Reactie gewijzigd door TheekAzzaBreek op 19 september 2010 16:40]

Want? Dat het een DARPA project zou kunnen zijn, betekent nog niet dat het ook daadwerkelijk zo is hé ;) Of heb je daar bronnen voor?
Yann LeCun's werk is wel degelijk (deels) door DARPA gefinancierd. Zie bijvoorbeeld 0:46 in het filmpje. Daar wordt het volgende project genoemd (het filmpje gaat hier ook over):

http://www.darpa.mil/ipto/programs/lagr/lagr.asp
In het filmpje kom je enkele malen de naam DARPA tegen. Het is dan aannemelijk dat hun ook een deel van de financiën voor zich nemen.
Uit welke hoek zou dit gefinancieerd zijn...?
Denk vooralsnog uit het onderzoekspotje van de universiteit zelf. Maar zoals met wel meer van dit soort dingen kan de technologie verkocht / gelicentieerd worden aan een bedrijf dat onder die universiteit valt en van daaruit doorverkocht aan zowel de militaire als medische bedrijven die het weer verwerken in bijvoorbeeld ROVs en/of medische automatische analyseapparatuur.
Ga er maar van uit dat in ieder geval Darpa LAGR hier een hand in heeft :
DARPA Learning Applied to Ground Robots (LAGR)

De university of New York doet al langer research in samen werking met DARPA LAGR

Net-Scale doet ook onderzoek op gebied van Robotics
Ik zou het dan ook geen supercomputer noemen. Die term reserveer ik voor GP-systemen die toch minstens 10 TFLOPS doen. Dit is gewoon een enorm gespecialiseerd embedded systeem. Niet veel minder indrukwekkend maar imho geen supercomputer.
define:supercomputer; a powerfull mainframe computer

Daar valt dit wel onder.
define:supercomputer; a powerfull mainframe computer
Kun je voor mij 'mainframe' even definiëren in een moderne (anno 2010) context dan?

Volgens mij valt een single-board FPGA chip daar namelijk nog steeds niet onder. ;)
Het gaat alleen niet zo goed op 1:01, en iets daar voor.
Het gene wat op de vloer ligt word niet gedetecteerd.
Dat niet alles perfect gedetecteerd wordt is in dit stadium niet eens zo belangrijk. Belangrijk is dat ze een techniek hebben gevonden waarmee je met zeer beperkte electronica in real-time je herkenningsalgoritmes kunt toepassen. Het tweaken van die algoritmes komt later wel.
Zou het niet mogelijk zijn om deze technologie (of een variant daarop) in te zetten voor bijvoorbeeld folding@home?
enorme hoeveelheden rekenkracht voor weinig geld en tegen nagenoeg geen energiegebruik
ja
Zegt hij zonder onderbouwing... Ik zit echter niet in het hele foldin@home en heb geen kijk op wat er precies gebeurt met de berekeningen. Het is de vraag of alles goed parallel kan en niet flexibel hoeft te zijn.

En dat betwijfel ik. Een fpga is bedoelt voor een specifieke taak, doorgaans om veel dingen parallel in realtime te laten lopen. Voor zover ik weet heeft folding@home andere resultaten nodig om door te gaan. En dan is een fpga eigenlijk niet ideaal. Daar wil je wat instoppen en gelijk resultaat uit halen. Al die resultaten zou je nog elders moeten verwerken. Hetzelfde geldt voor dit bericht hier, men stopt er een frame in en gelijk heeft men resultaat. Een ander systeem zou dit nog steeds moeten omzetten door beslissingen te nemen ahv de resultaten.
Dat ontwikkelbordje kost maar $2495. Koop er een zou ik zeggen :)
Je kan voor elke toepassing een FPGA programmeren of een ASIC ontwikkelen, maar verwacht geen mirakels.

Eiwitten vouwen vergt vooral generieke floating-point bewerkingen, en een FPGA is daar niet voor uitgerust. En een ASIC met hoge prestaties voor floating-point bewerkingen bestaat reeds: de GPU. Echter blijkt de GPU dan weer erg slecht in willekeurige geheugentoegang, waar de CPU wel goed in scoort waardoor die dus nog steeds van grote waarde is voor F@H.

Zo zie je maar weer dat mirakels niet bestaan en men het vooral moet hebben van evolutionaire stappen. Ook dit onderzoek moet je met een korretje zout nemen. Het is snel en energie-efficient, maar met een geoptimaliseerde implementatie op de CPU of GPU is de voorsprong niet zo groot als hun vergelijking met ongeoptimaliseerde implementaties doet uitschijnen.
Dat wordt mogelijk gemaakt door parallellisatie van de gegevensverwerking in een fpga-achtige omgeving die on-the-fly aan de taak kan worden aangepast.
Dat kan je ook in software, door on-the-fly gespecialiseerde code te genereren. Daarmee haal ik voor 3D rendering, samen met vectorinstructies, 20-50x hogere prestaties op de CPU.

Ze vergelijken hun resultaten met ongeoptimaliseerde C code waardoor je uiteraard een vertekend beeld krijgt. Dat het minder vermogen verbruikt staat vast, maar men kan niet zomaar rekenkracht uit het niks toveren.
Naast een systeem voor auto's zou de kunstmatige visie ook gebruikt kunnen worden voor militaire of medische toepassingen.
Je moet niet ver raden waarom ze hun resultaten vertekenen... Cha-ching!
Ik denk niet dat je je kunt veroorloven om tegen het leger zaken te overdrijven :)
Yeah right, alsof het leger nog nooit bakken geld heeft gepompt in nutteloze projecten...

(Waarmee ik niet wil zeggen dat dit onderzoek nutteloos is, het is alleen gepresenteerd alsof het veel revolutionairder is dan in werkelijkheid.)

[Reactie gewijzigd door c0d1f1ed op 19 september 2010 13:42]

Cool. Kan gebruikt worden in de ontwikkeling van autonome vervoermiddelen. Een bus zonder chauffeur, of een nieuw soort "cruise control" in je auto. Ook het leger zal wel geinteresseerd zijn in robots die geheel op eigen houtje op onderzoek uit kunnen gaan.
"Naast een systeem voor auto's zou de kunstmatige visie ook gebruikt kunnen worden voor militaire of medische toepassingen"

Leuke is dat bij een onderzoek/prototype bijna altijd een toepassing moet worden gegeven, en aangezien bijna alles ergens wel een medische toepassing heeft en dat ook goed klinkt zie je dat bijna overal terugkomen :)
wow 30fps @ 7Watt! Dat is zeer mooi in vergelijking met een Nvidua GPU die over de 300watt gaat
Daarvoor klik je rechtsboven bij i/o, en post je geen reactie op de inhoud van het artikel :)
Daar staat ook "Reactie plaatsen" ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True