Nvidia levert alle varianten van zijn Tesla V100-accelerator met Volta-gpu voortaan met 32GB in plaats van 16GB hbm2. De upgrade is het gevolg van verbeterde verkrijgbaarheid van hbm2-chips van 8GB.
AnandTech meldt dat de upgrade geldt voor zowel de sxm-modules als de pci-e-insteekkaarten. Nvidia heeft de productie aangepast en gebruikt nu 8GB-hbm2-stacks, in plaats van de 4GB-hbm2-stacks waarmee Tesla V100-accelerator aanvankelijk werd uitgerust. Versies met 16GB worden niet meer gemaakt; alle nieuw verkochte producten hebben 32GB hbm2. Ook oem's die de accelerator gebruiken, zullen waarschijnlijk binnenkort overgaan op de 32GB-versies.
De upgrade naar 32GB hbm2 is mogelijk omdat geheugenfabrikanten nu in staat zijn om genoeg chips te leveren met een capaciteit van 8GB. Die bestaan uit acht lagen en Nvidia combineert er vier om tot een totaal van 32GB te komen. Samsung kondigde begin dit jaar de productie van nieuwe 8GB-hbm2-modules aan en ook SK.Hynix heeft dergelijke chips in productie.
Nvidia kondigde de Tesla V100 in mei vorig jaar aan. Het was het eerste product met de Volta-gpu. In alle andere opzichten blijft de chip gelijk, alleen de geheugenhoeveelheid is verdubbeld. Nieuwe prijzen heeft Nvidia niet bekendgemaakt.
Over de Titan V, die ook over een Volta-gpu beschikt en nu met 12GB hbm2 is uitgerust, heeft Nvidia niets gezegd. Deze kaart voor workstations zou met de nieuwe chips uitgerust kunnen worden met 24GB hbm2, maar of zo'n variant er ook echt komt, is nog niet duidelijk.