Samsung schroeft de productie van zijn 8GB-dram met hbm2-interface op, naar eigen zeggen om aan de snel stijgende vraag te voldoen. Het geheugen is bedoeld voor videokaarten, high-performance computing en servers. Huidige videokaarten gebruiken 4GB-modules.
Samsung is momenteel de enige fabrikant die hbm2-modules met een capaciteit van 8GB maakt. Exacte details over productieaantallen noemt de fabrikant niet in zijn aankondiging. De Zuid-Koreaanse fabrikant doet ook geen uitspraken over welke producten er van het geheugen gebruik zullen maken en wanneer deze op de markt komen.
Hbm2 wordt onder andere door Nvidia en AMD gebruikt in high-end videokaarten. Nvidia gebruikte hbm2 vorig jaar voor het eerst op zijn Tesla P100-kaarten en past het ook toe op de in mei geïntroduceerde Tesla V100, maar in beide gevallen gaat het om modules van 4GB. Samsung begon de massaproductie van dat geheugen begin 2016.
AMD gebruikte de eerste generatie van hbm-geheugen op zijn Fury-kaarten en past hbm2 toe op zijn Radeon Vega Frontier Edition. De kaart met 16GB hbm2 heeft twee stacks van 8GB. Vermoedelijk zit er ook hbm2 op de komende Radeon RX Vega-kaarten, maar in welke hoeveelheid en met welke packages is nog niet bekend. Aannemelijk is dat ook dat om 4GB-modules zal gaan.
De 8GB-hbm2-modules van Samsung bestaan uit acht gestapelde hbm2-dies met ieder een capaciteit van 8Gb en aan de onderkant van de stack zit een buffer die. Iedere laag is voorzien van ruim vijfduizend through silicon via-kanalen, waarmee het totale aantal op meer dan veertigduizend komt voor een 8GB-package.
De huidige high-end videokaarten en accelerators voor deep learning van Nvidia combineren vier packages van 4GB-hbm2 voor een totaal van 16GB. Met de nieuwe 8GB-modules zou in diezelfde configuratie een geheugenhoeveelheid van 32GB mogelijk zijn.