Samsung werkt aan HBM4E-geheugen voor datacenter-gpu's. Volgens de chipmaker moet dat geheugentype in 2027 op de markt komen en bandbreedtes van 3,25TB/s mogelijk maken. De fabrikant zegt ook dat het aanstaande geheugentype efficiënter moet worden.
Samsung deed de aankondigingen tijdens het OCP Global Summit in Californië, schrijft onder andere SeDaily. De Zuid-Koreaanse geheugenmaker vertelde daar dat HBM4E bandbreedtes van ongeveer 13Gbit/s per datapin mogelijk moet maken, waar dat bij HBM4 nog 11Gbit/s zal zijn.
De geheugenstandaard gebruikt 2048 van die pinnen, wat in totaal dus neerkomt op een bandbreedte van grofweg 3,25TB/s. HBM4, dat vanaf volgend jaar gebruikt zal worden door gpu-makers, biedt nog bandbreedtes tot 2,8TB/s.
Verder zou HBM4E efficiënter worden dan de voorgaande generaties. HBM4E is volgens de fabrikant ruim twee keer zo efficiënt als HBM3E, dat 3,9pJ per bit gebruikte. De fabrikant meldde tijdens zijn presentatie ook dat HBM4E op termijn wordt geleverd in zogeheten '16-Hi'-modules. Dat betekent dat er zestien geheugenchips binnen een enkele module op elkaar worden gestapeld, wat een hogere opslagcapaciteit mogelijk maakt. Samsung bevestigt echter ook dat er 12-Hi-varianten beschikbaar zullen blijven, zoals momenteel gebruikelijk is.
HBM wordt veelal gebruikt in datacenterproducten. Er is momenteel grote vraag naar HBM-chips, vooral doordat het dus veelal wordt gebruikt in de gpu's waarmee grote bedrijven hun AI-modellen trainen. Nvidia en AMD gebruiken het bijvoorbeeld in datacenter-gpu's, zoals hun respectievelijke Blackwell Ultra GB300 en de Instinct MI350-serie. HBM4E moet in 2027 op de markt komen, hoewel nog niet bekend is in welke producten dat precies zal zijn.