Microsoft heeft de Maia 200-chip aangekondigd. De chip is geproduceerd op een 3nm-proces van TSMC en is volgens Microsoft bedoeld voor inferentie. De chip levert meer dan 10Pflops fp4-rekenkracht en ruim 5Pflops fp8-rekenkracht.
Volgens Microsoft is de chip op veel punten sneller dan Trainium 3- en TPU v7-chips van respectievelijk Amazon en Google. De chip bevat in totaal 140 miljard transistoren en is uitgerust met 216GB aan HBM3e-geheugen met een bandbreedte van 7TB/s en 272MB sram. Het tdp van de chip bedraagt 750W.
Microsoft kiest op systeemniveau voor een nieuw, tweelaags ontwerp op basis van ethernet met een aangepaste transportlaag. Elk Maia 200-systeem biedt een bandbreedte van 2,8TB/s tussen chips en ondersteuning voor clusters van maximaal 6144 accelerators. Binnen een rack zijn vier Maia-accelerators volledig verbonden via directe, niet-geschakelde links.
De Maia 200 presteert volgens Microsoft per dollar 30 procent beter dan de nieuwste hardware die het bedrijf momenteel gebruikt. De chip wordt onder meer gebruikt voor de inferentie van de nieuwste GPT-5.2-modellen van OpenAI. Daarnaast zal het Microsoft Superintelligence-team de chips gebruiken voor het genereren van synthetische data.
De eerste chips zijn al actief in een datacenter in het Amerikaanse Iowa. Binnenkort zal Microsoft de Maia 200 ook inzetten in de datacenterregio US West 3 in Arizona. Later zullen andere regio's volgen. Microsoft stelt ook een preview van de Maia-softwaredevelopmentkit beschikbaar met tools voor het bouwen en optimaliseren van modellen voor de nieuwe chip. De sdk bevat onder meer integratie met het framework PyTorch, een Triton-compiler en een low-level programmeertaal. Daarnaast biedt de sdk ook een Maia-simulator en een kostenberekeningstool.