AMD claimt deel van Samsungs productie van geheugenchips voor AI

AMD en Samsung sluiten een strategische overeenkomst voor HBM4- en DDR5-geheugenchips voor AI. De twee techbedrijven willen samenwerken aan next-gengeheugen en Samsung gaat geheugenchips leveren voor systemen met AMD-gpu's en -cpu's.

Samsung gaat HBM4-geheugenchips leveren voor systemen met AMD's nieuwe AI-chips, de Instinct MI455X-gpu's. Daarnaast gaat AMD DDR5-chips afnemen voor servers met de zesde generatie (codenaam Venice) van AMD's Epyc-cpu's. Deze hardware doet dienst in AI-systemen op basis van AMD's Helios-platform.

In de bekendmaking van de overeenkomst staan geen details zoals hoeveel geheugenchips Samsung toezegt aan AMD. Ook noemen de twee bedrijven geen bedragen. Het is dus niet bekend hoeveel van Samsungs geheugenchipproductie AMD nu claimt in de markt voor schaars en daardoor duur geheugen.

AMD-chips van Samsung?

AMD en Samsung kijken ook naar de langere termijn en bespreken mogelijkheden voor samenwerking op het gebied van chipproductie. Samsungs zou daarbij dienen als fabricagepartner voor toekomstige AMD-chips.

AMD Instinct accelerators, AI-chips (bron: AMD)
AMD Instinct-accelerators (bron: AMD)

Door Jasper Bakker

Nieuwsredacteur

18-03-2026 • 16:01

52

Reacties (52)

Sorteer op:

Weergave:

Ik merk op het werk en in het dagelijks leven dat het woord "AI" steeds meer irritatie bij me opwekt. Wat een overhypte troep is de huidige vorm van AI zeg.
Er is inderdaad veel "larie-en-apekool"-AI, maar de bulk is wel degelijk gegronde AI.
Het is natuurlijk de frustrerende AI die ons opvalt en ergert.

Bedenk hoeveel we vroeger gegeven zouden hebben om "kanker te kunnen genezen". Nu klagen we dat hetgeen effectief soorten kankers aan het genezen is "te veel stroom verbruikt" of "de geheugenprijzen duur maakt".

Bedenk het zo: de vraag is zo hoog dat fabrieken bijgebouwd worden en de productie opgeschaald wordt.
Optie 1: vraag blijft hoog en de markt vindt een nieuw evenwicht. Finaal bij grote vraag is de prijs laag, want de productie is hoog.
Optie 2: AI zakt in elkaar en geheugenfabrikanten zitten met een gigantisch overschot. Prijzen worden all-time-low en fabrieken worden ingezet voor andere chip-productie, waardoor deze weer goedkoper worden. (fabrieken zullen niet snel gesloten worden na die investering).
Bedenk hoeveel we vroeger gegeven zouden hebben om "kanker te kunnen genezen". Nu klagen we dat hetgeen effectief soorten kankers aan het genezen is "te veel stroom verbruikt" of "de geheugenprijzen duur maakt".
Volgens mij sla je de plank hier een beetje mis.
  1. AI geneest geen kanker. Het kan wél helpen bij (vroegtijdige) opsporing.
  2. De AI die voor opsporing wordt gebruikt heeft niets te maken met de huidige hype rondom generatieve AI en taalmodellen. Opsporing van bijvoorbeeld huidkanker wordt gedaan met andere modellen en gebeurt al jaren zonder de exorbitante kosten van LLMs.
Ze bouwen geen fabrieken bij omdat ze dan allemaal failliet zijn als de ai bubbel barst (als, niet wanneer. Alhoewel dat ook steeds waarschijnlijker is).
Zeker! Want toen de internetbubbel barstte, was er ook geen internet meer...
/s

Maar even serieus: Ik heb net ook ff opgezocht... En AI zei dat ook na het barsten van de tulpenbubbel in 1637 er nog steeds tulpen werden verkocht....
Het gaat er niet over dat er geen internet meer is. Als iemand alle ram van je fabriek reserveert met een "trust me bro" zonder echte cashflow the hebben, jij zegt "cool bro", je schaalt je complete fabriek op omdat de vraag x9001 zou gaan en vervolgens valt je "trust me bro" vriendje compleet weg dan heb je een hele dure fabriek die waardeloos spul fabriceert.
Ok... Men name een fabrikant dat veel RAM geheugen maakt... bijvoorbeeld Samsung.

Een bedrijf dat in 2024 zo'n €20 mijard winst maakte.
En in 2025 €30 miljard....

En jij bent bang dat die in 2026 of 2027 failliet gaan?
Heb je enig idee hoe onzinnig dat klinkt?

Zou het kunnen dat een bedrijf als Samsung ook wel eens een Tweaker achtige site leest en weet dat in 2027 of 2028 de vraag naar geheugen kan afnemen? Zou Samsung hier bijv. rekening mee kunnen houden en wellicht de productie kunnen opschalen zonder hier failliet aan te kunnen gaan?
Zou zomaar kunnen. Het kan ook zijn dat ze nu denken dat iedere consument lekker de boom in kan en hun kassa lekker brrrrrr blijft zeggen terwijl ze met hun middelvinger naar jou staan te zwaaien.

Alles kan.
Die fabrieken zijn al enige tijd in aanbouw. 3 stuks om precies te zijn. En Sam Altman heeft de productie capaciteit niet opgekocht omdat hij het zo nodig zelf nodig heeft. Hij maakt het daarmee de concurrentie bijna onmogelijk. En ook het lokaal draaien van zijn diensten wordt hiermee erg prijzig. En daar is het hem om te doen. Zonder had OpenAI een groot risico gelopen om markt dominantie te verliezen. En dat is voor hem een groot gevaar met een dienst die nog totaal niet rendabel gedraaid wordt. Hij moet markt dominantie behouden, wil hij tot een winstgevend bedrijf komen. Maar dat wil niet zeggen dat AI een bubbel is. Als OpenAI omvalt zijn er een hele rits concurrenten die het gat graag opvullen.
Dan kijk je niet verder dan de chatbots waar eindgebruikers mee werken. Onderliggend neemt AI heel veel werkprocessen over. Één SmartOps met een legertje AI's doet het werk van 10 a 20 werknemers voor de prijs van 2 of 3 werknemers in een MKB. En dat schaalt niet evenredig op. Een SmartOps kan in een hele grote onderneming honderden of zelfs tienduizenden werknemers vervangen. En daar worden ze dan ook naar betaald. Het hele bedrijfsleven gaat hier in mee, zij die het niet doen, worden op den duur op prijs kapot beconcurreerd. Het levert een kwalitatief veel hoogwaardiger en betrouwbaarder product, voor een fractie van de prijs.

Je ziet AI niet alleen overal terug omdat het een buzz is. Het levert al een hele grote meerwaarde. Denk bijvoorbeeld aan hele simpele dingen. Zoals automatisch dicteren tijdens een bezoek aan een arts of specialist door een AI die het gesprek in enkele seconden veranderd in een dossier entry dat van een hogere kwaliteit is dan het gekrabbel van de assistent die het normaal deed. En dat dossier wordt vervolgens beoordeeld door een Agentic AI die de conclusies van de arts of specialist toetst en eventueel met aanvullende adviezen of behandelingen komt, of een second opinion voorstelt. Dat is geen toekomst muziek, dat gebeurd nu al, en scheelt een ziekenhuis al gauw miljoenen euro's, die aan goedkopere of betere zorg kunnen worden besteed. Ik denk dat je versteld zult staan hoeveel in jouw leven onderliggend al door AI geregeld wordt. Je ziet ze misschien niet, maar ze zijn overal voor jou aan het werk, in alle denkbare sectoren.
Ik hoop niet dat AI gesprekken gaat omzetten naar dossiers en daar hallucinerend conclusies gaat trekken. Ik heb samenvattingen gelezen van vergaderingen gemaakt door AI. Het was om te huilen en onbruikbaar.
Context buffer issues. Wat jij beschrijft is nu juist waar SmartOps z'n geld mee verdiend. Jij ramt een vraag in je chatbot en vraagt je af waarom die chatbot hallucineert. SmartOps weten wat jij fout doet. Iedere generatieve en argentic AI heeft een context buffer, waarin het alles onthoud wat je hem aan informatie hebt gegeven, plus alle gegevens die hij voor je heeft opgedaan. Wanneer die context buffer vol zit (eigenlijk al eerder. Meestal rond de 70%), vergeet hij een deel van die context zodat hij aanvullende context van jou en zijn taak kan verwerken. Met andere woorden. Jouw chatbot wordt vergeetachtig en dommer (verliest kennis) naar mate je, je chatbot meer en meer context voert of vraagt meer data uit te zoeken.

Een goede SmartOps weet hoe hij of zij die buffer kan managen , vergroten en of aanvullen. En daarom wordt dat dossier wel goed aangevuld, maar reageert jouw chatbot alsof hij verkeerde paddenstoelen gegeten heeft.
Dat kanker genezen kun je.met een grote korrel zout nemen.

AI kan snel dingen uitzoeken en berekenen. Maar verbanden leggen tussen bepaalde zaken nog voor geen meter. Ik gebruik het bijna dagelijks, deels voor mijn wetenschappelijke hobby''s. Maar het gaat vaak gewoon ervandoor met de kennis van andere inplaats van out of the box met iets nieuws te komen. En juist dat laatste wil je.
Een AI is getraind op onze huidige kennis!

En kan dus (voorlopig) echt niets nieuws verzinnen.

Dat het ons kan helpen ja, maar de shit die ik soms zie, hoe dan zou ik dat moeten toepassen?
Bedenk het zo, AI is ook een grote bubbel die een keer moet barsten. Pas daarna kan er AI stabiliteit zijn.
Precies datzelfde gebeurde rond de millennium wisseling met investeringen in online techniek.
Vooral Amerikaanse AI investeringen zijn niet houdbaar op termijn en ook niet efficiënt.
China doet dat met minder middelen en beperkingen juist beter en efficiënter.
Europa loopt ook hier weer helemaal achterop. :F
Welke AI geneest precies kanker?
Absoluut. Ik kan het nut zien waar een LLM voor een specifiek doel getraind is en voor dat doel snel door data heen kan gaan.

Maar dat het nu in elk programma geramd wordt en ook nog eens met zoveel gestolen data, waar AI boeren grote archieven van torrents hebben gescraped en er kennelijk ook mee weg mogen komen.
Functie boven vorm zou het adagium moeten zijn bij veel zaken, zo ook bij AI. In mijn werk (onderwijs) gebruik ik verschillende platforms die hun dienst hebben gebouwd op een LLM en die diensten zijn soms magnifiek. De term AI doet bij veel collega's de nekharen overeind staan en zorgt voor veel kopzorgen, maar het voegt soms ook écht wel iets toe.

Zo gebruiken mijn leerlingen (en ikzelf) zoiets als consensus.app icm chatpdf en connected papers om wetenschappelijke artikelen te zoeken en doorgronden voor eigen praktische opdrachten. Ik weet zeker dat het werk van mijn leerlingen van een kwalitatief lager niveau zou zijn zonder deze diensten.
Dan ben ik gelukkig niet de enige. AI kan voor grote veranderingen tonen, maar tegen een torenhoog energiegebruik. Voor wetenschappelijk en professioneel gebruik is het helemaal prima, maar het lijkt erop dat elk appje het hippe woordje 'AI' moet hebben. Op naar de volgende hype.
En je bent niet de enige hier op Tweakers die zich irriteert aan 'AI'.

Ik verbaas me vooral over het feit dat veel Tweakers de term 'overhypte troep' gebruiken als ze het over de AI hebben. En ik irriteer me ook aan die Tweakers die dat zeggen.
Beide gevoelens zijn even sterk overigens.
Oh ja dat is waar... Die had ik nog niet gelezen vandaag:

AI is geen AI, het is een LLM, een tokenvoorspeller die helemaal niets kan... behalve wat statistiek toepassen... En ook dat doet ie slecht...
/s

Maar zou je eens kunnen uitleggen waarom 'overhypte troep' is volgens jou? Heb ik het wel eens gebruikt om te programmeren, queries te schrijven of data-analyses uit te voeren? Heb je geen enkele positieve ervaring met AI? Waar gebruik jij het voor en waar knapte je op af?
Om eerlijk te zijn. Ik ben nog steeds sneller. Dat is het eigenlijk. Ik zie om me heen dat het op zekere hoogte werkt tot het de diepte in moet voor veel mensen. Dan blijft het hangen en excuses maken (chatgtp en copiloot). Ik had gehoopt dat het een hoop repetitieve zaken makkelijk zou kunnen overnemen, maar dat is gewoon nog niet het geval voor mij. Of het is begrenst, geen idee. Het loopt wel vaak te zeuren over ethiek.
Maar wees eens concreet. Ik heb namelijk geen idee waar je het over hebt.
Waar gebruik je het dan concreet voor?

ik programmeer zelf heel veel en gebruik nu vooral Claude Opus 4.6 uit feb 2026 (op aanraden van een Tweakers lid overigens). Wat mij betreft: mind blowling!

Maar vorig jaar vond ik ChatGPT ook al erg goed.
Ik had een jaar geleden bijv. een python script waarmee ik 500k kleine artikelen moest parsen. Dat duurde 20 minuten. Met één simpele opdracht aan ChatGPT was het pythonscript herschreven naar Rust. En het nieuwe script was ongeveer 70% sneller.

AI was en is en zal vooropig niet perfect zijn... Maar op dit moment en in de huidige vorm is het extreem behulpzaam... Ik ben nu dingen aan het programmeren die ik vroeger nooit had gekund...

Maar nogmaals: ik ben erg benieuwd waar jij dan zo op bent afgeknapt..
Als ik jou zo hoor moet ik het misschien toch nog eens een keer gaan proberen met Claude. Wie weet doet dat wat ik er mee wil doen.
Doen! Ik ben benieuwd naar je ervaringen...

tips (als ik zo vrij mag zijn, ik weet niet hoeveel AI programmeer ervaring jij hebt):

Ook de gratis variant van Claude kan heel aardig coden. Maar Opus 4.6 is betaald.

Bouw je software modulair.... AI gaat - in mijn ervaring - beter om met kleinere brokken code (met redelijk zelfstandige/onafhankelijke componenten) dan één grote monoliet...
Waarom gebruik je opus ipv sonnet? zover ik weet zijn die nu even sterk maar is sonnet een stuk goedkoper en sneller, ik zet gewoon die extended thinking aan om fouten te voorkomen (Dan spot hij echt heel veel fouten die er anders in zouden komen)
En het is pas zo'n 2 jaar sinds je het echt kan gebruiken particulier.

Het gaat er niet slechter op worden ook.

Hoe langer mensen wachten deze techniek te gebruiken des te meer ze achter zullen lopen later.
Eens...
En zelf ben ik niet bang dat programmeurs overbodig worden. Je hebt... denk ik wel andere skills nodig.

Ter illusatratie.... Ik ben nu bezig met het messaging app (hobby project).
Dat kun je in 1 dag in elkaar vibe-coden... Inclusief profsessionele ui).

Maar ik wil de messaging app met een specifieke vorm van pub/priv encryption (die afgeleid wordt van een wachtwoord). Daar komt de AI niet zelf mee... je moet wel weten dat dit mogelijk is.

De berichten wil ik cachen in IDB van de Browser. Ook daar komt AI niet zelf mee.

En de berichten worden via SSE / Mercure afgeleverd... Geen polling, geen websockets...

Met andere woorden: een slechte app...flans je zo in elkaar.
Maar een goede app... zeker de komende jaren, daar heb je best veel kennis voor nodig... Althans, je moet weten wat mogelijk is...

[Reactie gewijzigd door pietvelleman op 18 maart 2026 22:00]

Ze zou je af kunnen vragen als al het geld wat nu in AI gestoken wordt in mensen wordt gestoken of je dan niet veel beter af bent.
Zeker!

En is dat ook het geval voor al het geld dat in CPU's wordt gestoken? En Videokaarten?
Is het echt nodig om te gamen op een 4k scherm met 120mhz en 64GB ram en een energieslurpende RTX5090? Is wifi 7 niet goed genoeg? en moeten we echt geld steken in wifi 8? 6G? Mobieltjes met een foldable scherm? Wordt de mensheid daar echt beter van?

Of geldt die vraag alleen voor AI?

Om die vraag voor mijzelf te beantwoorden en om een heel klein voorbeeld te noemen: Ik denk dat we straks dankzij AI vele malen beter in staat zijn om MRI-scans te analyseren en kanker veel sneller en goedkoper kunnen detecteren. Wat mij betreft mogen de ontwikkelingen van AI niet snel genoeg gaan.

[maar ik zou wel willen dat de miljardeninvesteringen stoppen die nu gedaan worden om de halve planeet kattefilmpjes te laten genereren... Wat mij betreft worden die miljarden in zinnige AI toepassingen gestopt... Maar goed... ik snap de jacht om marktaandeel. Voor veel bedrijven is het 'erop' of 'eronder']
Waar baseer je je gedachte voor wat betreft het detecteren van kanker op?
https://www.michiganmedicine.org/health-lab/ai-model-can-read-and-diagnose-brain-mri-seconds

https://www.radiologyinfo.org/en/info/ai-transforming-medical-imaging

https://www.ukri.org/news/ai-could-boost-life-saving-mri-scans/

x1000 andere artikelen

Maar buiten dat...
Een MRI is feitelijk een enorme tabel met getallen... En daar kun je prima analyses op loslaten...
En als AI ergens goed in is, dan is het patroon herkenning...
Uiteindelijk vast wel. Maar voorlopig is het een mix van te veel gemiste/valse positieven en blijft het vooral bij het toverwoord could. Niet is, maar could. En daar zit de grootste clue.
Nope... De clue is dat het nu al wordt toegepast en met success.
En als je denkt dat radiologen geen gemiste en valse positieven hebben... dan heb je het ook op dat punt mis...

Ik kan je nog wel een paar andere links geven... maar dat zal jij wel afdoen als 'verkooppraatjes'...
Want LLM's zijn overhypte onzin....
Ik zie de potentie echt wel, laat het daar ook vooral voor ontwikkeld en gebruikt worden. Helaas zie ik ook de 95% mainstream slop die al energie en water slurpend onze planeet en samenleving gierend de afgrond in trekt omdat dat nu eenmaal het meeste snelle geld oplevert. Marketing marketing marketing. Ow ja en vergeet niet wapens. Autonome wapens, de natte droom van Sam Altman.
Wie weet dat Microsoft ineens een gunstige deal kan sluiten met AMD met betrekking tot project Helix. Gelijke afname van APU en geheugen?

Edit.
Blijkbaar al een gouden deal gesloten met SK-Hynix begin dit jaar..

Bron.

[Reactie gewijzigd door Totoro88 op 18 maart 2026 16:35]

Een xBox of game console gaat geen HBM bevatten.
Is HBM niet gewoon een manier om je 'chip' te verpakken? Met andere woorden, die wafer die ze maken en snijden, die verdelen ze tussen HBM en naar andere chipbehuizing/verpakkingen.
HBM gebruikt hybrid-bonding om DDR modules te stapelen, geplaatst een interposer als een chiplet die samen met een logic chip allemaal gepackaged kunnen worden in 1 chip. De naam HBM verwijst naar de bandbreedte en niet zozeer het packaging zelf.

HBM is High Bandwidth Memory omdat het een hoge bandbreedte heeft doordat het 1024bit bus gebruikt. Doordat de geheugen chip dicht bij je logic chip zit kun je die via ;) kleine korte verbindingen direct verbinden waardoor je fysiek dus meer verbindingen hebt. Bij een losse RAM stick heb je veel minder (bv. 64bit) en veel langere verbindingen waardoor je ipv. parallellisme het heel erg snel serieel gaat versturen.

De beste manier om RAM modules in HBM te verbinden is dan inderdaad door ze te stapelen. Hybrid-bonding (directe koper-koper verbinding tussen chips ipv. solderen) kun je daarvoor gebruiken.
Begreep het niet helemaal hoe je 1024 in een 64 bit systeem zou kunnen gebruiken, dacht dat het niet zou kloppen, dus heb er net ook even verder op gezocht (en het klopt wel met aantekening). Die 1024 bits zijn bij HBM3 ingedeeld als 16 kanalen van 64 bits. Dus het is nog steeds 64 bit, maar je hebt veel meer kanalen beschikbaar.
HBM gebruikt daadwerkelijk een 1024 bits bus. Die 64 bits is een optionele functie van HBM2E/HBM3 waarbij je een standaard 128 bit per kanaal kunt splitsen is 2 individuele (pseudo-)kanalen. Je hebt dan nog steeds maar 8 "command buses". Bij sommige AI workloads waarbij je kleinere data gebruikt kunnen die 16-kanalen beter zijn dan 8. HBM1 gebruik nog steeds 2x 128bit kanaal per DRAM 'die' (4 DRAM dies).

Bij GDDR6 gebruik je dus minder kanalen maar per kanaal verplaats je meer data. Dat zorgt voor uitdagingen zoals energieverbruik en signalen die gevoeliger zijn voor ruis. Terwijl HBM iedere kanaal parallel verwerkt met een veel lage snelheid. Dat maakt je signaal meer robuust en vergt minder energie. Daarnaast zit je HBM vaak dicht bij je CPU/GPU waardoor het af te leggen pad van je data ook korter is.

Hoe kan een 64bit CPU een 1024bit HBM module gebruiken? Een 64 bit CPU heet zo omdat hij een 64 bits registergeheugen heeft, maar zijn cache geheugen (interne RAM) is vaak veel groter, bijvoorbeeld 64 Bytes. Dat geheugen moet je blijven vullen om de CPU bezig te houden. Met HBM zou je dit cache geheugen dus direct kunnen vullen in één lees actie. De CPU zal dus nog steeds een 64 bit address space gebruiken maar dit gebeurd dan via 8*128 of 16*64 bits kanalen. Dat een CPU 64 bits is betekend dus niet dat hij geen 1024 bits HBM kan aansturen.

Ik kon zo geen goede video hierover vinden maar Asianometry heeft meestal wel vermakelijke video's: YouTube: The Special Memory Powering the AI Revolution

Steven Woo van Ramus heeft ook enkele videos over HBM, maar ook die gaan niet te diep genoeg vind ik zelf: YouTube: GDDR6 - HBM2 Tradeoffs en YouTube: Latency Under Load: HBM2 vs. GDDR6
Slimme zet van AMD, zo verzeker je toch min of meer van een voorraad geheugen wat je nodig hebt voor je eigen productie.
Of juist niet, als de bubbel knapt/barst :+
Kan nog wel een tijdje duren voordat de bubbel barst.
Heeft Samsung bij HBM4 al hun issues opgelost die ze bij HBM3 nog hadden?

SK Hynix was de grote winnaar van de HBM3 generatie. Best wel een gok dat Samsung bij HBM4 de beste zal zijn
Het verschil bij HBM3 zat ‘m vooral in packaging en yields, waar SK Hynix met MR-MUF gewoon beter zat. Samsung lijkt dat bij HBM4 deels recht te trekken en Nvidia wil sowieso meer suppliers, maar dat maakt ze nog niet automatisch de beste. Lijkt nu meer op convergentie dan een switch in leiderschap.

[Reactie gewijzigd door SgtZandhaas op 18 maart 2026 16:20]

Eind vorig jaar konden ze iig voldoen aan de eisen van Nvidia en AMD dus die problemen lijken inderdaad opgelost te zijn.

Daarnaast staan ze nu ook in de schijnwerpers bij Nvidia:
https://www.notebookcheck...t-GTC-2026.1253330.0.html

Wat ik zo lees is HBM4 al in massaproductie en HBM4E is daar een doorontwikkeling van.

[Reactie gewijzigd door watercoolertje op 18 maart 2026 16:30]

De yields zijn ook een factor.
Nvidia heeft SK Hynix stevig in zijn greep voor HBM, dus Samsung als alternatieve leverancier voor AMD is logisch. Of Samsung ook als fabrikant voor AMD-chips gaat dienen is het interessantere deel van dit verhaal
Zucht... ik hoop toch echt dat we van deze ellende af zijn in 2028

Om te kunnen reageren moet je ingelogd zijn