Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia levert Tesla V100-accelerator voortaan met 32GB hbm2

Nvidia levert alle varianten van zijn Tesla V100-accelerator met Volta-gpu voortaan met 32GB in plaats van 16GB hbm2. De upgrade is het gevolg van verbeterde verkrijgbaarheid van hbm2-chips van 8GB.

AnandTech meldt dat de upgrade geldt voor zowel de sxm-modules als de pci-e-insteekkaarten. Nvidia heeft de productie aangepast en gebruikt nu 8GB-hbm2-stacks, in plaats van de 4GB-hbm2-stacks waarmee Tesla V100-accelerator aanvankelijk werd uitgerust. Versies met 16GB worden niet meer gemaakt; alle nieuw verkochte producten hebben 32GB hbm2. Ook oem's die de accelerator gebruiken, zullen waarschijnlijk binnenkort overgaan op de 32GB-versies.

De upgrade naar 32GB hbm2 is mogelijk omdat geheugenfabrikanten nu in staat zijn om genoeg chips te leveren met een capaciteit van 8GB. Die bestaan uit acht lagen en Nvidia combineert er vier om tot een totaal van 32GB te komen. Samsung kondigde begin dit jaar de productie van nieuwe 8GB-hbm2-modules aan en ook SK.Hynix heeft dergelijke chips in productie.

Nvidia kondigde de Tesla V100 in mei vorig jaar aan. Het was het eerste product met de Volta-gpu. In alle andere opzichten blijft de chip gelijk, alleen de geheugenhoeveelheid is verdubbeld. Nieuwe prijzen heeft Nvidia niet bekendgemaakt.

Over de Titan V, die ook over een Volta-gpu beschikt en nu met 12GB hbm2 is uitgerust, heeft Nvidia niets gezegd. Deze kaart voor workstations zou met de nieuwe chips uitgerust kunnen worden met 24GB hbm2, maar of zo'n variant er ook echt komt, is nog niet duidelijk.

Pci-e-versie van Nvidia Tesla V100-accelerator

Door

Nieuwsredacteur

11 Linkedin Google+

Reacties (11)

Wijzig sortering
De buren zijn toch onder één dak een en dezelfde. Ben benieuwd of er nog wat over 11xx gezegd gaat worden!
Onder een dak, niet hetzelfde.
Ik zie Volta overigens vooral GTX20xx genoemd worden. Wat marketing technisch imo ook wel de betere keuze is.
Betekent die betere beschikbaarheid van dit geheugen dat prijzen voor DDR4 en videokaarten over een paar maanden ook eindelijk eens gaan dalen?
HBM is niet hetzelfde als GDDR
Nee, maar als dit beter beschikbaar wordt en dus meer toegepast kan worden, zal er dan niet minder vraag zijn naar GDDR en dat dus de prijzen weer wat zakken?
Dat hangt ervan af wat de GPU makers gebruiken. Als de volgende generatie kaarten allemaal overgaan op HBM dan heb je ineens overschot aan GDDR, maar wrs weer een tekort aan HBM, het is een afweging dat ze maken met het tekenen van de gpu core.
Betekent die betere beschikbaarheid van dit geheugen dat prijzen voor DDR4 en videokaarten over een paar maanden ook eindelijk eens gaan dalen?
Nee maar AMD gebruikt voor zo ver ik weet 2 stacks van 4GB in Vega. Dus wie weet kunnen die er nog wat mee...
En ik maar denken dat het over auto's ging... O-)
Haha, ik ook al. Verwarrend met Tesla AutoPilot en ook Nvidia die grote rol speelt met autonoom rijden. Ik las dat Nvidia hun V100 gaat leveren aan Tesla.
"Die bestaan uit acht lagen en Nvidia combineert er vier om tot een totaal van 32GB te komen."

Dus alle 8 de lagen geactiveerd worden heben we 64gb tot de beschikking of denk ik nu te gemakkelijk?

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*