Nvidia heeft de H200-gpu aangekondigd die een belangrijke rol kan spelen in de toekomst van deep learning en taalmodellen, zoals GPT-4 van OpenAI. Het is de eerste gpu van het bedrijf met HBM3e-geheugen.
De Nvidia H200 is gebaseerd op de Hopper-architectuur en vervangt de huidige H100-gpu. Het HBM3e-geheugen moet een hogere snelheid en meer capaciteit opleveren. Nvidia spreekt van 141GB gpu-geheugen met een bandbreedte van 4,8Tbit/s, wat twee keer de capaciteit van zijn voorganger is. De H200-gpu heeft volgens de chipmaker ook 2,4 keer zoveel bandbreedte als de Nvidia A100.
Volgens Nvidia verdubbelt de HGX H200-gpu de inferentiesnelheid van het large language model Llama 2 met 70 miljard parameters ten opzichte van de H100-gpu. Bij GPT-3 gaat het om een interferentiesnelheid van 175 miljard, wat ruim 1,5 keer zo snel is als de voorganger.
In het tweede kwartaal van 2024 komt de H200 uit. De gpu is ook beschikbaar in de GH200 Grace Hopper-'superchip' die in augustus werd aangekondigd. De H200 moet onderzoekers in staat stellen complexe AI-taken uit te voeren door de mogelijkheid om in een snel tempo terabytes aan gegevens te verwerken.