Google heeft generatie 3.0 van zijn tensor processing unit voor machinelearning getoond. Systemen met de chips voor de Google Cloud zijn meer dan acht keer zo krachtig als die met de huidige tpu v2-generatie. De chips zijn watergekoeld om op temperatuur te blijven.
Een pod met tpu v3-chips biedt een rekenkracht van 100 petaflops, waar een variant met tpu v2-chips 11,5 petaflops biedt. Niet bekend is uit hoeveel chips de komende tpu v3-pods bestaan en hoeveel geheugen die hebben. De toename van de rekenkracht van de pods met v3-chips komt in ieder geval niet alleen door de nieuwe chiparchitectuur, maar ook doordat de systemen omvangrijker zijn. Een huidige tpu v2-pod bestaat uit 64 apparaten met elk vier asic-chips die op hun beurt twee cores hebben. Die pods beschikken over 4TB high bandwith memory.
Sundar Pichai toonde de tpu v3-chips tijdens de Google I/O-keynote, zonder verdere details over de chips of de pods te geven. Wel zei hij dat de tpu's nu zo krachtig zijn dat de komende pcb's met vier tpu v3's waterkoeling nodig hebben.
Volgens Zak Stone, Googles productmanager van Tensor Flow en Cloud TPU, gaat de komst van de nieuwe generatie invloed hebben op al Googles diensten. De modellen voor machinelearning zijn volgens hem steeds accurater, maar daardoor zou wel steeds meer rekenkracht nodig zijn. Dat zou de reden zijn dat Google zijn eigen gespecialiseerde hardware is gaan ontwerpen. Stone beschouwt de pods als 'supercomputers voor machinelearning'.
De eerste versie van de tpu's, die Google sinds 2016 inzet, gebruikt het bedrijf bijvoorbeeld voor zoekresultaten, de beeldherkenning van Photos en spraakherkenning. De pods met tpu v2-chips die Google nu gebruikt, gaat het bedrijf ook beschikbaar stellen aan klanten, die de supercomputers via de Google Cloud kunnen inzetten voor het trainen van hun eigen modellen voor machinelearning. Momenteel biedt Google het gebruik van Cloud tpu's van 180 teraflops publiekelijk aan.