Google ontwikkelt supercomputers die zijn geoptimaliseerd voor machine learning en die 11,5 petaflops aan rekenkracht bieden. Deze TPU Pods zijn opgebouwd uit tensor processing units van de tweede generatie.
Een TPU Pod bestaat uit 64 van de nieuwe tpu's. Een enkele tpu biedt een rekenkracht van 180 teraflops en is voorzien van snelle interconnects voor de samenwerking met de overige chips. Het systeem doet dienst als accelerator voor machine-learningtoepassingen en dan met name het trainen van een enkel omvangrijk model voor machine learning.
Volgens Google duurt de training van een nieuw model voor vertalingen op 32 van 'de beste, commercieel verkrijgbare gpu's' een volledige dag. Ditzelfde model kan op een achtste deel van een TPU Pod in een middag verwerkt worden. Google geeft weinig details over de tpu's, maar omdat ze ingezet worden voor het trainen van modellen, acht Top500 het waarschijnlijk dat de chips voor parallelle matrixvermenigvuldigingen 16bit- en 32bit-floatingpointoperaties ondersteunen.
De eerste generatie tpu's, die Google vorig jaar introduceerde, waren nog 8bit-integerchips, die met name voor het draaien van al getrainde modellen ingezet worden. Met de nieuwe chip lijkt Google al een alternatief te hebben voor Nvidia's Volta-gpu, die Tensor Cores aan boord heeft voor het trainen van modellen voor machine learning. Die gpu levert voor mixed precision 16bit- en 32bit-floatingpointoperaties een rekenkracht van 120 teraflops. Mogelijk is Google met zijn geoptimaliseerde accelerator Nvidia dus al voorbijgestreefd wat rauwe rekenkracht betreft, al hangt de werkelijke verhouding tevens van overige specificaties af.
Google gebruikt zijn nieuwe tpu's niet alleen in de TPU Pods voor eigen berekeningen, maar integreert deze ook in de Google Compute Engine als Cloud TPUs. Klanten krijgen daarmee de beschikking over de capaciteiten en kunnen ze koppelen aan virtuele machines en andere hardware als Intel Skylake-cpu's en Nvidia-gpu's. Gebruikers kunnen de tpu's programmeren met Googles TensorFlow-software.