Samsung begint in februari met de productie van HBM4-geheugen. Dat zeggen ingewijden tegen persbureau Reuters. De chips zullen geleverd worden aan Nvidia, dat HBM4-geheugen later dit jaar zal gebruiken in zijn nieuwste AI-chips.
Hoewel de fabrieken vanaf volgende maand HBM4-productie moeten draaien, is niet bekend hoeveel chips Samsung precies zal leveren aan Nvidia, meldt Reuters. Volgens de Zuid-Koreaanse krant Korea Economic Daily is Samsung de eerste fabrikant die de HBM4-kwalificatieprogramma's van Nvidia en AMD heeft doorlopen. Ook dat dagblad bevestigt dat Samsung vanaf volgende maand HBM4-chips gaat leveren aan Nvidia.
HBM4 is de nieuwste generatie 'high-bandwidth memory'. Dat geheugentype wordt veelal gebruikt in de AI-chips van Nvidia en AMD. Zoals de naam al doet vermoeden, draait HBM om een zo hoog mogelijke bandbreedte. De huidige HBM3E-chips halen doorgaans bandbreedtes tot 1,2TB/s. Bij HBM4 moet dat ruim verdubbelen; chipmaker Micron sprak eerder van bandbreedtes tot 2,8TB/s.
Samsung had voorheen een achterstand op grote concurrent SK hynix. Dat bedrijf was de belangrijkste HBM-leverancier voor de AI-chips van Nvidia. Samsung liep bij zijn voorgaande HBM-generaties juist vertraging op.
Nvidia's volgende AI-gpu, Rubin, maakt gebruik van 288GB HBM4-geheugen. De geheugenchips van Samsung zullen vermoedelijk bestemd zijn voor die gpu's. Nvidia-baas Jensen Huang bevestigde begin deze maand dat de Rubin-chips inmiddels in productie zijn, en later dit jaar op de markt komen.
Bron: Nvidia