Google heeft bekendgemaakt dat het niet alleen machine-learning-algoritmes ontwikkelt, maar ook de bijbehorende hardware, zogenaamde tensor processing units of tpu's. De tpu's worden door Google ingezet voor veelgebruikte functies, van Street View tot Alpha Go.
Google begon de ontwikkeling van de tpu's, eigenlijk op maat gemaakte asics, enkele jaren geleden om te kijken of het mogelijk was een manier te verzinnen om machine learning sneller te laten gaan. De tpu's zijn ontwikkeld voor Googles eigen machine learning-taal TensorFlow, dat het bedrijf onlangs open source maakte.
Volgens Google zijn de prestaties per watt op een tpu vele malen groter dan wat met andere systemen te bereiken is. Het bedrijf vergelijkt de prestaties met 'technologie van ongeveer zeven jaar in de toekomst of drie generaties van Moores Law'. Het bedrijf heeft ook nagedacht over de praktische toepasbaarheid van de bordjes; ze passen in de hardeschijf-slots van de datacenter-racks.
De reden waarom de chips sneller zijn dan veel andere asics, is dat ze een hogere tolerantie hebben als het gaat om 'verminderde rekenprecisie', wat ertoe leidt dat er minder transistors per bewerking nodig zijn. Het gevolg is dat er verschillende bewerkingen per seconde gedaan kunnen worden, wat leidt tot snellere evolutie van de machine-learning-algoritmes.
De tpu's zijn al onderdeel van verschillende zelflerende systemen van Google, zoals RankBrain voor de zoekresultaten, en Street View om de kwaliteit van kaarten en navigatie te verbeteren, maar ook onderdeel van Alpha Go, de computer waarmee Google de menselijke wereldkampioen in het bordspel go versloeg. Via Googles Cloud Machine Learning-platform kunnen ook ontwikkelaars buiten Google gebruikmaken van de rekenkracht van de tpu's.