Een Amerikaanse onderzoeker heeft een supercomputer ontwikkeld die het visuele systeem van mensen simuleert. De wetenschappers denken dat hun neurale netwerk visuele informatie snel genoeg kan verwerken om auto te rijden.
Het systeem dat door Eugenio Culurciello van de Yale School of Engineering & Applied Science werd ontwikkeld, is gemodelleerd naar de manier waarop zoogdieren visuele informatie verwerken. Culurciello heeft het systeem NeuFlow genoemd en heeft zijn creatie tijdens de High Performance Embedded Computing-bijeenkomst gepresenteerd. Het NeuFlow-systeem maakt gebruik van algoritmes voor de verwerking van visuele informatie door neurale netwerken die door Yann LeCun van de universiteit van New York werden ontwikkeld.
Met het systeem zouden computers in staat kunnen zijn gegevens snel genoeg te verwerken om een auto te kunnen besturen. Daartoe kan het NeuFlow beelden van enkele tientallen megapixels in realtime verwerken om zo objecten langs de weg, mensen en uiteraard de weg zelf te kunnen herkennen. De visuele verwerking verloopt volgens de onderzoeker met ruim 100.000mips, terwijl het energieverbruik slechts enkele watts zou bedragen. Dat wordt mogelijk gemaakt door parallellisatie van de gegevensverwerking in een fpga-achtige omgeving die on-the-fly aan de taak kan worden aangepast. Naast een systeem voor auto's zou de kunstmatige visie ook gebruikt kunnen worden voor militaire of medische toepassingen.