Micron draait recordomzet met dram, vooral dankzij grote vraag naar HBM

Micron draaide in het vorige kwartaal een recordomzet met zijn dram-verkopen. Volgens de geheugenfabrikant komt dat vooral door de grote vraag naar HBM, dat bijvoorbeeld gebruikt wordt voor AI-chips. Die vraag blijft de komende tijd groeien, verwacht Micron.

Micron meldt niet hoeveel het bedrijf precies heeft verdiend met de verkoop van HBM-chips, maar zegt wel dat de omzet vijftig procent hoger lag dan een kwartaal eerder. De fabrikant verwijst daarbij naar de grote vraag naar AI, waarvoor HBM-geheugen wordt gebruikt. AMD en Nvidia voorzien hun recentste AI-datacenterchips, zoals de Instinct MI350-serie en Blackwell Ultra GB300, bijvoorbeeld van HBM3E-geheugen. Micron is een van de drie chipmakers die HBM-chips levert, samen met de Zuid-Koreaanse fabrikanten Samsung en SK hynix.

De chipmaker wijst de gestegen omzet dan ook voornamelijk toe aan HBM-geheugen en andere datacenterproducten; de omzet uit die productcategorie is volgens Micron ruim verdubbeld ten opzichte van een jaar geleden. De fabrikant verwacht dat de vraag naar dram in het algemeen zal blijven groeien in het komende jaar. Micron verwacht daarbij wel dat de bit growth, de toename van de hoeveelheid bits aan geheugencapaciteit die Micron levert, bij HBM waarschijnlijk groter zal zijn dan bij andere dram-types.

De fabrikant benadrukt daarbij dat hij volgend jaar zal beginnen met de massaproductie van HBM4-geheugen. Die chips werden eerder al aangekondigd; Micron deelde ook al samples uit aan HBM-klanten. De nieuwe chips bieden volgens de fabrikant zestig procent hogere snelheden, die kunnen oplopen tot 2TB/s per HBM-stapel.

In totaal draaide Micron een omzet van 9,3 miljard dollar, waarvan 7,1 miljard dollar afkomstig is uit dram. De overige 2,2 miljard dollar werd verdiend aan nandgeheugen, dat bijvoorbeeld gebruikt wordt voor ssd. De kwartaalomzet ligt daarmee 36 procent hoger dan een jaar geleden. De kwartaalwinst steeg in die periode van 332 miljoen naar 1,886 miljard.

Micron HBM4
Bron: Micron

Door Daan van Monsjou

Nieuwsredacteur

26-06-2025 • 16:13

8

Reacties (8)

Sorteer op:

Weergave:

De chipmaker wijst de gestegen omzet dan ook voornamelijk toe aan HBM-geheugen en andere datacenterproducten
HBM groei is inderdaad waarschijnlijk grotendeels te wijten aan datacenter, maar HBM wordt ook steeds vaker toegepast in allerlei high performance oplossingen met custom chips. Denk aan routing/switching en andere communicatie chips en ook steeds vaker als een gestandaardiseerde oplossing op plaatsen waar vroeger veel zelf ontwikkelde caching oplossing werden gebruikt.

HBM maakt dus ook een grote opmars buiten datacenter of zelfs de klassike PC/server markt.
Zelfs nar auto's begreep ik van techtechpotato. Dit vanwege fout resitentie, het kan b.v. met minder bandbreete lezen over meerdere controllers in de chip en zo blijven werken op dezelfde bandbreedte ondanks dat er één stukgaat.
Het geheugen voor de ai chips.
HBM zie je nu steeds vaker buiten AI. Niet gek, want bij veel toepassingen is de bottleneck niet meer de processing power maar het geheugen.

In networking, automotive en storagecontrollers wordt het steeds logischer om HBM te gebruiken. Zeker als HBM4 straks breder beschikbaar komt, gaat dit denk ik een standaardoplossing worden waar vroeger maatwerk nodig was.
Aha. High Bandwidth Memory. Lekker duidelijk artikel 🤦🏼‍♂️
Moest inderdaad tot deze comment scrollen voordat ik de definitie van HBM kon vinden

Op dit item kan niet meer gereageerd worden.