Amazon Web Services komt met twee nieuwe datacenterchips. Het bedrijf introduceert onder meer zijn Graviton4-processor, die beschikt over 96 Arm Neoverse V2-cores. Amazon toont ook Trainium2, een chip die bedoeld is voor het trainen van AI-modellen.
Graviton4 presteert volgens Amazon tot dertig procent beter dan zijn huidige generatie Graviton3-socs. De chips hebben vijftig procent meer cores dan hun voorgangers, waarmee het totaal op 96 uitkomt. De fabrikant maakt weer gebruik van de Arm-architectuur, ditmaal met Neoverse V2-kernen. Ook de geheugenbandbreedte is toegenomen, met zeventig procent, stelt de fabrikant. De chips hebben twaalf DDR5-kanalen met ondersteuning voor snelheden tot 5600 megatransfers per seconde. Amazon zegt niet op welk procedé de chips worden gemaakt. De voorgaande Graviton3-chips werden geproduceerd op TSMC's 5nm-node.
Graviton4-socs komen beschikbaar op AWS in EC2 R8g-instances, die geoptimaliseerd zijn voor hoge geheugenbandbreedtes. De techgigant zegt dat gebruikers de chips onder meer kunnen gebruiken voor databases en 'grote analyticsworkloads'. De instances komen per direct beschikbaar als preview. Algemene beschikbaarheid volgt 'in de komende maanden'. Amazon noemt geen concrete releasedatum.
Verder toont AWS zijn Trainium2-chips, die zijn bedoeld voor het trainen van AI-modellen, zoals foundationmodellen en grote taalmodellen. Volgens de fabrikant is Trainium2 tot vier keer zo snel als zijn voorganger. Ze zouden ook tweemaal zo energie-efficiënt zijn. De chips moeten ontwikkelaars in staat stellen om AI-modellen sneller en goedkoper te trainen. AI-bedrijf Anthropic heeft aangekondigd modellen te gaan maken met Trainium2-chips.
Amazon kondigt daarnaast aan dat het, naast het aanbieden van zijn nieuwe AI- en datacenterchips, verder gaat samenwerken met Nvidia. Het bedrijf gaat enterpriseklanten onder meer instances aanbieden met Nvidia's H200-gpu's. Het bedrijf gaat ook Nvidia's GH200 Grace Hopper-superchips bieden. Dat zijn chips die Nvidia's eigen Grace-cpu's op basis van Arm combineren met een H200-gpu op een enkele module. Amazon gaat ook een AI-supercomputer met GH200-chips hosten voor Nvidia's eigen r&d-team. Microsoft kondigde eerder ook een diepere samenwerking met Nvidia aan nadat het zijn eerste eigen Maia100-AI-chips introduceerde voor Azure.