Microsoft heeft in het kader van de Hot Chips-conferentie een project onder de naam Brainwave aangekondigd. Het bedrijf claimt hiermee deep learning met zeer lage latency te kunnen uitvoeren op fpga's, voor taken als zoekopdrachten en videoanalyse.
Microsoft omschrijft Brainwave als een deep learning acceleration platform. Door de lage latency zegt het bedrijf 'realtime- kunstmatige intelligentie' te kunnen leveren, wat betekent dat binnenkomende verzoeken meteen verwerkt moeten kunnen worden. Daarbij maakt Microsoft geen gebruik van batching. Om dit te bereiken maakt Microsoft gebruik van zijn grote voorraad fpga's in datacenters. Het maakte vorig jaar al bekend dat het de herprogrammeerbare chips wilde inzetten voor deep learning.
Microsoft wil de snelheid van de fpga's op verschillende manieren verhogen. The Register, dat bij de presentatie aanwezig was, schrijft daarover dat de machinelearningmodellen in het geheugen van de fpga worden opgeslagen, waardoor het werkgeheugen ingezet kan worden als buffer voor inkomende en uitgaande gegevens. Daarnaast is het ontwerp van de fpga geoptimaliseerd, zodat een constante stroom data verwerkt kan worden. Ten slotte kunnen de chips geschakeld worden om een soort pijpleiding voor opdrachten te vormen.
Volgens Microsoft is zijn eigen aanpak flexibeler dan het gebruik van 'hardcoded' systemen voor deep learning, die weliswaar hogere prestaties kunnen leveren, maar waarbij van tevoren bepaald moet worden welke datatypes en operators gebruikt zullen worden. Microsoft zegt dat er inmiddels ondersteuning is voor het draaien van zijn eigen Cognitive Toolkit en Googles machinelearningbibliotheek Tensorflow. In de toekomst moeten daar meer opties bijkomen.
Intel meldt dat Microsoft zijn 14nm-Stratix 10-fpga's voor het Brainwave-project heeft gekozen. In de toekomst wil het Redmondse bedrijf Brainwave aanbieden aan Azure-klanten. Daarover wil het in de toekomst meer informatie naar buiten brengen.
Bron: Microsoft-presentatie