'Samsung begint volgende maand met productie HBM4-geheugen voor Nvidia'

Samsung begint in februari met de productie van HBM4-geheugen. Dat zeggen ingewijden tegen persbureau Reuters. De chips zullen geleverd worden aan Nvidia, dat HBM4-geheugen later dit jaar zal gebruiken in zijn nieuwste AI-chips.

Hoewel de fabrieken vanaf volgende maand HBM4-productie moeten draaien, is niet bekend hoeveel chips Samsung precies zal leveren aan Nvidia, meldt Reuters. Volgens de Zuid-Koreaanse krant Korea Economic Daily is Samsung de eerste fabrikant die de HBM4-kwalificatieprogramma's van Nvidia en AMD heeft doorlopen. Ook dat dagblad bevestigt dat Samsung vanaf volgende maand HBM4-chips gaat leveren aan Nvidia.

HBM4 is de nieuwste generatie 'high-bandwidth memory'. Dat geheugentype wordt veelal gebruikt in de AI-chips van Nvidia en AMD. Zoals de naam al doet vermoeden, draait HBM om een zo hoog mogelijke bandbreedte. De huidige HBM3E-chips halen doorgaans bandbreedtes tot 1,2TB/s. Bij HBM4 moet dat ruim verdubbelen; chipmaker Micron sprak eerder van bandbreedtes tot 2,8TB/s.

Samsung had voorheen een achterstand op grote concurrent SK hynix. Dat bedrijf was de belangrijkste HBM-leverancier voor de AI-chips van Nvidia. Samsung liep bij zijn voorgaande HBM-generaties juist vertraging op.

Nvidia's volgende AI-gpu, Rubin, maakt gebruik van 288GB HBM4-geheugen. De geheugenchips van Samsung zullen vermoedelijk bestemd zijn voor die gpu's. Nvidia-baas Jensen Huang bevestigde begin deze maand dat de Rubin-chips inmiddels in productie zijn, en later dit jaar op de markt komen.

Nvidia Vera Rubin Superchip
Nvidia's komende Vera Rubin Superchip, die beschikt over twee Rubin-gpu's met ieder 288GB HBM4-geheugen.
Bron: Nvidia

Door Daan van Monsjou

Nieuwsredacteur

26-01-2026 • 11:39

18

Reacties (18)

Sorteer op:

Weergave:

Dit is wel echt indrukwekkend, wat een voorsprong op de concurrentie ook. De MI455X van AMD (hun topmodel) blijft hangen bij de 40 PFLOPS. Meer geheugen, meer bandbreedte en dus meer compute. Mogelijk dat er op enig moment echte concurrentie uit China komt, maar voorlopig staat nVidia op eenzame hoogte.
50 PFLOPS voor deze Rubin is meer dan 40, maar ook niet schokkende. (de 100 is voor 2 chips op een board).
Geheugenbandbreedte zit bij elkaar in de buurt.

Vooral de uiteindelijke TDP als die dingen echt in gebruik zijn zal mijn benieuwen. Ze zijn de specs nog steeds aan het bijstellen lijkt het. Want als je maar genoeg VRAM op een chip hebt zitten is een paar PFLOPS meer of minder snel afhankelijk van stroom en koeling.

De hele infra er omheen om hele datacenters als bouwblock neer te kunnen zetten is indrukwekkend en daar heeft AMD ook nog wat werk aan. Maar de aller grootste jongens, Google, OpenAI, xAI kijken naar of hebben al custom chips.
En vooral, wat een gigantisch contrast met consumentenhardware. Lijkt steeds meer op wel kunnen, maar niet willen.

Consumentenmarkt lijkt al jaren haast still te zitten tov. servers en wij krijgen de kleine restanten daarvan qua technologie.

[Reactie gewijzigd door RadYeon op 26 januari 2026 12:03]

Consumentenmarkt lijkt al jaren haast still te zitten tov. servers en wij krijgen de kleine restanten daarvan qua technologie.
Omdat wij steeds meer laten doen in de cloud is dat natuurlijk niet zo gek. Tweakers draait ook niet op een oude pentium bij Fokke op zolder, nietwaar?
Laten doen, of moeten laten doen? We zijn een beetje te makkelijk mee gegaan met de cloud hype in het verleden is mijn idee. Daar willen we nu met zijn allen steeds vaker van terug komen. Maar met de grote jongens valt niet te concurreren. Ik kan immers niet alvast hardware krijgen van Nvidia met de belofte dat ik ze vast wel een keer terug ga betalen. Ik zou graag lokaal AI modellen draaien maar de focus ligt bij de grote hardware en dus bij de grootste AI modellen.


Het is dus een beetje het kip-ei paradox geworden waar we vast zitten in cloud drijfzand.
Maar dat was wel sovereign :)
Het is ook wel een andere tak van sport. In datacenters wil je of veel virtuele servers op 1 fysieke server of hele grote en zware reken taken. Een CPU met 64 of meer cores heeft nogal wat nodig. AMD gaat tegenwoordig zelfs tot 196 cores volgens mij.
De Epyc 9965 heeft 192 cores
Een enkele GB200 kost zo'n 70.000 euro, en heeft waterkoeling nodig om de warmte weg te krijgen. Denk niet dat veel gamers bereid zijn dat neer te leggen, zelfs voor duizenden berg frames per seconde.
Gezien de kosten is het vooral een kwestie van "geen markt". Want je kunt wel games gaan maken voor dit soort geheugen en chips, maar als er maar 0,001% van je potentiële klanten dit kan betalen, dan is dat niet rendabel.

Met AI hebben ze voorlopig wel een doelgroep, maar de vraag is vooral hoe lang nog. Bovendien zorgen de prijzen er nu toch wat meer voor dat er eindelijk wat begrip is voor systeemresources dat ik verwacht dat veel toekomstige applicaties niet zo hongerig zullen zijn. Of beter loads kunnen delen tussen machines oid. Zolang AI alleen maar op dure cloudhardware kan draaien, is deze ook niet rendabel te krijgen.
Dat klopt niet, de vergelijking op basis van racks, 72 vs 72 geeft 2.9 Exaflops tegen 3.6 Exaflops tegen een aanzienlijk hoger energieverbruik voor Nvidia. De performance per watt zou misschien nog wel beter zijn voor AMD, al moeten we dat allemaal nog gaan zien natuurlijk.

Als het performance verschil zo groot zou zijn, zou Nvidia niet op het laatste moment nog een flinke specboost hebben doorgevoerd.

[Reactie gewijzigd door SuperPolum op 26 januari 2026 12:14]

Dat niet alleen volgens mij zijn die reepjes peperduur nu als je nagaat wat regulier geheugen voor de pc nu kost.

[Reactie gewijzigd door rjmno1 op 26 januari 2026 19:42]

Dus eerst kochten ze die chips van Hynix en nu van Samsung, dat betekent dus dat we er voor DDR5 niets aan hebben voor nu. Hopelijk stappen de andere AI bedrijven ook over op deze nieuwe chips.
Het is gewoon productie capaciteit die verschuift naar o.a. HBM maar ook geheugen aanschaf voor servers algemeen wat dan wel weer DDR5 is.
Is een combinatie wat de prijs opdrijft en dat gebeurde bij DDR4 recentelijk ook. Niet vanwege hogere vraag maar juist minder productie.
Ik betwijfel of we qua DRAM er iets aan hebben. HBM, gebruikt een groter deel van een wafer voor dezelfde capaciteit aan geheugen (ja, het is sneller).
Daarnaast is dit vaak direct op een chip, en dus niet schaalbaar (je kan niet extra geheugen bijprikken).
Voor veel servers is dit dus voor sommige bewerkingen erg interessant vanwege de snelheid, maar grote modellen inladen kan dan nog steeds goed in DDR5 geheugen, want veel en goedkoop.
Zal dit ook impact hebben op de geheugenschaarste in de wereld?
Is dit waarom China graag Palawan wilt overnemen. Omdat het een belangrijke eiland is?

Om te kunnen reageren moet je ingelogd zijn