Nvidia heeft een versie van zijn A100-accelerator voor high performance computing aangekondigd die het van 80GB HBM2e heeft voorzien. Dat is dubbel zoveel geheugen als de in mei aangekondigde A100-versie.
De Nvidia A100 80GB biedt een geheugenbandbreedte van meer dan 2 terabyte per seconde, aldus Nvidia. Het bedrijf toont de prestatiewinst tegenover de A100 met 40GB HBM2e bij een aantal hpc-benchmarks, om een indicatie te geven in hoeverre toepassingen baat kunnen hebben bij de verdubbeling van het geheugen. Zo zouden de prestaties bij FP16-rekenwerk voor deep learning recommendation models verdrievoudigd zijn en zouden de prestaties bij de Quantum Espresso-suite 1,8 keer hoger uitvallen dankzij het extra geheugen.
Nvidia biedt de mogelijkheid acht van de accelerators in te bouwen in zijn DGX A100-systemen en vier in de nieuwe DGX Station A100-werkgroepservers. Een zo'n DGX Station A100-systeem biedt daarmee bijvoorbeeld de mogelijkheid tot aan 28 verschillende gpu-instances te leveren waarbij meerdere gebruikers parallel toepassingen kunnen draaien.
Volgens Nvidia komen andere fabrikanten zoals Atos, Dell, Fujitsu, Hewlett Packard Enterprise, Lenovo en Supermicro begin 2021 met eigen systemen met HGX A100-borden, waarop vier of acht A100 80GB-accelerators geplaatst kunnen worden.
:strip_exif()/i/2003996810.jpeg?f=imagenormal)