Intel wil met zijn nieuwe Gaudi 3-accelerators de concurrentie aangaan met de Nvidia H100, op dit moment de krachtigste kaart voor het trainen van AI-modellen. Volgens Intel kan het een kit bestaande uit acht kaarten en een baseboard verkopen voor twee derde van wat een Nvidia vraagt.
De processorontwerper laat zijn Gaudi 3-kaarten produceren op TSMC's N5-node. Ze bevatten 64 van Intels tensorcores en 8 matrixengines. Op de uit chiplets bestaande package zijn verder 128GB HBM2e-geheugen met een bandbreedte van 3,7TB/s en 96MB sram-cache op 12,8TB/s aanwezig. Voor de connectiviteit gebruikt Intel 16 PCIe 5.0-lanes en 24 200GbE-poorten, waarvan het bedrijf benadrukt dat ze onderdeel zijn van een open standaard, in tegenstelling tot Nvidia's InfiniBand.
Volgens de maker is een cluster van 8192 Gaudi 3-accelerators 40 procent sneller bij het trainen van een GPT3-175B-model dan een vergelijkbaar cluster van Nvidia H100's. Bij 64 accelerators en het Llama2-70B-model zou Intels voordeel 15 procent zijn. Inferencing zou, afhankelijk van de gekozen parameters en het gebruikte AI-model, gemiddeld twee keer zo snel moeten gaan op Gaudi 3.
Een Gaudi 3-kit bestaande uit 8 accelerators en een baseboard krijgt een adviesprijs van 125.000 dollar. Daarmee zou die volgens Intel een 130 procent betere prijsprestatieverhouding bieden dan een vergelijkbare Nvidia H100-kit. Bovendien hamerde Intel tijdens de aankondiging op zijn goede softwareondersteuning, waarbij het samenwerkt met bekende modellenmakers om op 'day zero' al goede ondersteuning te kunnen bieden voor nieuwe AI-modellen.
Dell, HPE, Lenovo en Supermicro verkochten al systemen met de oudere Gaudi-accelerators van Intel, maar daar komen nu ASUS, Foxconn, Gigabyte, Inventec, Quanta en Wistron bij. Daarmee stijgt het aantal 'integrators' van Gaudi naar tien leveranciers. De Gaudi-tak van Intel komt voort uit de overname van het oorspronkelijk Israëlische Habana Labs in 2019.