'Nvidia-ceo vraagt SK hynix om HBM4-leveringen half jaar te vervroegen'

Nvidia-ceo Jensen Huang heeft SK hynix gevraagd om zijn volgende generatie HBM-geheugen sneller te leveren. Dat zegt de voorzitter van de Zuid-Koreaanse geheugenmaker. Nvidia zou gevraagd hebben om de levering zes maanden naar voren te brengen, aldus SK hynix.

Nvidia heeft SK hynix gevraagd om HBM4-geheugen sneller te leveren vanwege de grote vraag naar AI-chips, schrijft persbureau Reuters. Nvidia maakt gebruik van dit geheugentype in zijn datacenter-gpu's, zoals de Hopper- en Blackwell-chips. Nvidia zei eerder al dat het HBM4-vram wil gaan inzetten met zijn toekomstige Rubin-gpu, die op de planning staat voor 2026.

In oktober zei SK hynix nog dat de eerste HBM4-chips in de tweede helft van 2025 geleverd zullen worden aan klanten. Een woordvoerder van SK hynix zegt tegen Reuters dat deze tijdlijn 'sneller was dan een aanvankelijk doel', zonder daar verder over uit te wijden. In hoeverre de leveringstijdlijn precies is aangepast naar wens van Nvidia, is dan ook niet bekend.

HBM, ook wel High Bandwidth Memory, wordt veelal gebruikt in videokaarten. HBM zit op de package van de chip geïntegreerd. Daarmee haalt dit geheugentype hogere bandbreedtes dan bijvoorbeeld GDDR-vram. Momenteel maken chipmakers gebruik van HBM3E-geheugen, dat bandbreedtes tot 1,2TB/s kan leveren. HBM4 moet dat verder ophogen.

Momenteel maken bedrijven als AMD en Nvidia gebruik van HBM3E-geheugen voor hun AI-gpu's voor datacenters, zoals de AMD Instinct MI300-serie en dus Nvidia's Hopper- en Blackwell-chips. AMD gebruikte HBM vroeger ook in zijn Fury- en Vega-videokaarten voor consumenten, maar is daar al jaren geleden mee gestopt.

SK hynix HBM3E
HBM3E-chips van SK hynix

Door Daan van Monsjou

Nieuwsredacteur

05-11-2024 • 17:52

11

Lees meer

Reacties (11)

11
11
8
0
0
3
Wijzig sortering
Vraag me af waarom er nog geen bedrijven zijn die grotere NPUs aan het maken zijn met HBM erin... Lijkt me toch efficiënter dan het gebruik van grafische kaarten. Ik snap dat ze veel beter zijn dan CPUs voor AI, maar een dedicated chip daarvoor lijkt me toch handiger, of niet?
de naam "grafische" kaarten dekt al lang de lading niet meer als we het over datacenter-kaarten hebben, al is het maar omdat die dingen gewoon geen grafische output meer hebben, laat staan dat ze grafische bewerkingen uitvoeren.
Mee eens, die dingen doen helemaal niks met graphic processing of met graphic output waarom het dan nog steeds aan GPU heet mag het zeggen.
Het heet ook GPGPU, general-purpose berekeningen op een graphics processing unit.
Dat bekt niet lekker, niemand gebruikt die afkorting.
Nee, iedereen gebruikt de afkorting van de afkorting, namelijk GPU. En we zijn weer terug bij stap 1 van het probleem.
Die zijn er ook, bijvoorbeeld Cerebras, die maken een soort NPU die zo groot is als een hele silicon wafer.
Vragen? Als er zo’n haast bij is dan zal Nvidia er vast ook wel een klap extra geld voor over hebben lijkt mij.
Dat zie je als consument maar al te graag terug bij het prijskaartje
Oh. Ik had vergeten, of nooit geweten, dat de Vega64 waar ik pas onlangs afscheid van heb genomen HBM had.

Op dit item kan niet meer gereageerd worden.