SK hynix: HBM-productiecapaciteit voor dit jaar uitverkocht en voor 2025 bijna

SK hynix heeft aangekondigd dat de productiecapaciteit van zijn HBM-geheugen voor dit jaar volledig is uitverkocht. Ook de capaciteit voor volgend jaar zou bijna volgeboekt zijn. Volgens de geheugenfabrikant komt dit door de sterke vraag naar AI-producten in datacenters.

SK hynix-ceo Kwak Noh-Jung besprak de huidige marktsituatie op een persconferentie in Zuid-Korea, die TrendForce heeft kunnen bijwonen. Waar HBM en geheugenmodules met een hoge capaciteit in 2023 volgens schattingen ongeveer 5 procent van de omzet van de totale geheugenmarkt vertegenwoordigen, zal dit aandeel naar verwachting stijgen tot 61 procent tegen 2028. HBM wordt momenteel voornamelijk ingezet in AI-accelerators, zoals die van Nvidia en AMD.

Naast SK hynix heeft Micron eind maart onthuld dat zijn HBM-productiecapaciteit voor 2025 bijna uitverkocht is. Volgens cijfers van TrendForce heeft SK hynix echter een aanzienlijk groter aandeel van de HBM-markt in handen. Zowel SK hynix als Samsung heeft naar schatting een marktaandeel van 47 à 49 procent. Micron staat op de derde plaats met 3 à 5 procent.

Verder heeft het bedrijf bekendgemaakt dat het in de loop van deze maand de eerste HBM3e-chips met twaalf lagen gaat samplen aan partners. De massaproductie moet in de loop van het derde kwartaal van start gaan. Daarnaast begint SK hynix volgens de huidige planning in de tweede helft van 2028 met de massaproductie van HBM4.

Door Idriz Velghe

Redacteur

03-05-2024 • 15:03

8

Submitter: mapa2011

Reacties (8)

Sorteer op:

Weergave:

Ik ben redelijk thuis in de technologie sector en bekend met aardig wat afkortingen, maar HBM is nieuw voor mij. Misschien in het artikel even een korte alinea wijden aan een beknopte uitleg over wat HBM is?
Er is ook een Tweakers artikel met een beknopte uitleg van wat het is:
nieuws: AMD ontwikkelt snel en zuinig hbm-videogeheugen
Juist en hier de originele doc's van onze server:
https://www.amd.com/syste...-bandwidth-memory-hbm.pdf

HBM simpel uitgelegd in deze video:
YouTube: Tackle Memory Bottlenecks with the Versal HBM Series
https://www.amd.com/en/pr...as/versal/hbm-series.html

Evaluatie kits:
https://www.xilinx.com/pr...ct&utm_source=301#related
https://www.amd.com/conte...-series-product-brief.pdf

RAMBUS heeft 2 jaar geleden een interessante keynote gegeven over HBM:
YouTube: Tutorial 4: HBM System and Architecture for AI applications

Nvidia haalde van het een jaar geleden hun doorbraak aan met de NVIDIA AI GPU-oplossingen, met waarom, hoe en wat er nodig is om doorbraken te maken met AI:
YouTube: NVIDIA'S HUGE AI Chip Breakthroughs Change Everything (Supercut)

Echter, dit is waar NVIDIA vandaag staat:
YouTube: NVIDIA CEO Jensen Huang Leaves Everyone SPEECHLESS (Supercut)

Met andere woorden deze H100 kan wat een datacentre kan op AI gebied zonder de CPU of DRAM. (uiteraard heb je deze wel nodig voor de storage servers, echter per footprint veel minder CPU & DRAM dan huidige footprints doordat HBM zo dicht op de GPU zit)

https://developer.nvidia....er-architecture-in-depth/
https://www.nvidia.com/en-us/data-center/h100/

[Reactie gewijzigd door mapa2011 op 23 juli 2024 11:44]

Thanks! Zeer interessant.
High Bandwidth Memory.
Waar HBM in 2023 volgens schattingen ongeveer 5 procent van de omzet van de totale geheugenmarkt vertegenwoordigt, zal dit aandeel naar verwachting stijgen tot 61 procent tegen 2028.
Dat is indrukwekkende verschuiving. Maar het is niet exact wat de bron zegt:
Memory technologies oriented towards AI, such as HBM and high-capacity DRAM modules, are projected to account for about 5% of the entire memory market in 2023 (in terms of revenue), with expectations to reach 61% by 2028.
En dan is al snel de vraag wat een high capacity DRAM module is. Als in, is dat een DRAM module van 32GB bijvoorbeeld, ja nogal wiedes dat het marktaandeel groter is in 2028.
Klopt, bericht is aangepast.

Op dit item kan niet meer gereageerd worden.