Nvidia heeft de Tesla V100 aangekondigd. De accelerator voor gpgpu-toepassingen zoals deep learning is uitgerust met een gpu op basis van de nieuwe Volta-architectuur. De chip heeft speciale Tensor Cores voor het trainen van neurale netwerken.
De GV100-gpu van de Tesla V100 is 815mm2 groot, heeft 21,1 miljard transistoren en wordt gemaakt op het 12nm-finfet-procede van TSMC. De chip is nog een stuk groter dan de GP100 op basis van Pascal, die had een oppervlak van 610mm2. De nieuwe Volta-gpu beschikt over 5120-cudacores voor fp32-taken en wordt gecombineerd met 16GB hbm2-geheugen van Samsung, dat een bandbreedte heeft van 900GB/s.
Nvida heeft de architectuur van de streaming multiprocessors aangepast en naar eigen zeggen geoptimaliseerd voor deep learning. Dat heeft de gpu-maker gedaan door nieuwe Tensor Cores toe te voegen aan het ontwerp, die gespecialiseerd zijn in het trainen van neurale netwerken. In totaal heeft de GV100-gpu 640 van deze Tensor Cores: acht per sm. Nvidia claimt enorme prestatiewinsten bij toepassingen die hier gebruik van kunnen maken. Bij reguliere fp32- en fp64-berekeningen is de GV100 ongeveer 1,5 keer zo snel als de GP100.
Die snelheidswinst lijkt vooral te maken te hebben met de grootte van de GV100-gpu. De Volta-variant heeft meer cores en 2MB meer l2-cache. Ook heeft de kaart 20MB sm rf, dat met een snelheid van 80TB/s met de chip kan communiceren. Bij de GP100 is dat 14MB. Het verbruik is volgens Nvidia met een tdp van 300 watt niet veranderd.
Nvidia-ceo Jen-Hsun Huang heeft de Tesla V100 aangekondigd op de Gpu Technology Conference van het bedrijf en op het devblog van Nvidia is uitgebreide informatie verschenen over de Volta-gpu. Het is de eerste keer dat Nvidia details geeft over de Volta-gpu, die de huidige Pascal-gpu zal opvolgen. In eerste instantie wordt Volta toegepast in de Tesla V100-accelerator, die in het derde kwartaal op de markt zal komen. Diezelfde weg volgde Nvidia met de Pascal-gpu, die eerst in de Tesla P100 terecht kwam.
Nvidia gaat ook serversystemen uitbrengen die meerdere van de kaarten bevatten, net als het eerder deed met de Tesla P100 op basis van de Pascal-gpu. De DGX-1V komt in het vierde kwartaal beschikbaar voor 149.000 dollar en is uitgerust met acht Tesla V100-kaarten. Ook komt Nvidia met een kleinere versie, die als 'persoonlijke supercomputer' kan worden ingezet: de 69.000 dollar kostende DGX Station. De computer beschikt over vier Tesla V100-kaarten, is uitgerust met waterkoeling en beschikt over een 1500W-voeding.
Over GeForce-videokaarten voor gamers met een Volta-gpu heeft Nvidia nog niets bekendgemaakt. Waarschijnlijk komen er volgend jaar consumentenvideokaarten met de nieuwe gpu, maar dan met aangepaste configuraties die minder zijn gericht op taken als deep learning.
Tesla-accelerators | Tesla V100 |
Tesla P100 |
GPU | GV100 (Volta) | GP100 (Pascal) |
Sm's | 80 | 56 |
Tpc's | 40 | 28 |
FP32 cudacores / sm | 64 | 64 |
FP32 cudacores / gpu | 5120 | 3584 |
FP64 cudacores / sm | 32 | 32 |
FP64 cudacores / gpu | 2560 | 1792 |
Tensor Cores / sm | 8 | - |
Tensor Cores / gpu | 640 | - |
Baseclock | onbekend | 1328MHz |
Gpu-boostclock | 1455MHz | 1480MHz |
Singleprecision | 15tflops | 10,6tflops |
Doubleprecision | 7,5tflops | 5,3tflops |
Tensor Core-prestaties | 120tflops | - |
Texture Units | 320 | 224 |
Geheugeninterface | 4096bit hbm2 | 4096bit hbm2 |
Geheugengrootte | 16GB | 16GB |
L2-cache |
6144KB | 4096KB |
Register file size / sm | 256KB | 256KB |
Register file size / gpu | 20480KB | 14336KB |
Tdp | 300 watt | 300 watt |
Transistors | 21,1 miljard | 15,3 miljard |
Gpu die-formaat | 815mm² | 610mm² |
Ontwerpproces | 12nm FFN (tsmc) | 16nm finfet+ (tsmc) |