SK Hynix start massaproductie van hbm2e-geheugen

SK Hynix is begonnen met het op grote schaal produceren van hbm2e-dram. Het bedrijf maakte in augustus bekend dat het bezig was met het produceren van dit geheugen. Hbm2e-geheugen biedt hogere snelheden vergeleken met regulier hbm2-geheugen.

SK Hynix maakt de start van hbm2e-massaproductie kenbaar in een blogpost. Het bedrijf maakte in augustus al bekend dat het werkte aan hbm2e-geheugen. Toen was nog niet bekend wanneer het bedrijf met grootschalige productie zou starten.

De hbm2e-chips van SK Hynix bieden een maximale bandbreedte 3,6Gbit/s per pin. Dat komt neer op een bandbreedte van 460GB/s voor de complete stack. De geheugenfabrikant stapelt, zoals eerder aangekondigd, acht 16Gbit-chips op elkaar met through silicon via's. Daarmee komt de totale capaciteit neer op 16GB per stack. Bij de reguliere hbm2-chips van het bedrijf was de capaciteit nog 8GB per stack.

De nieuwe dram-chips zijn daarnaast energiezuiniger en kleiner dan het huidige hbm2-geheugen, zo meldt het Zuid-Koreaanse bedrijf. Volgens SK Hynix zijn de geheugenchips onder andere geschikt voor high-performance computing, deep learning, of systemen voor kunstmatige intelligentie. Ook verwacht SK Hynix naar eigen zeggen dat hbm2e-geheugen gebruikt zal worden in exascale-supercomputers.

SK Hynix is niet het eerste bedrijf dat aan hbm2e-geheugen werkt. Eerder dit jaar bracht Samsung een hbm2e-chip uit. Dit geheugen, dat Flashbolt wordt genoemd door Samsung, heeft een capaciteit van 16GB per stack en een maximale bandbreedte van 3,2Gbit/s per pin. Daarmee haalt de complete stack een bandbreedte van maximaal 410GB/s. Geheugenproducent Micron werkt momenteel aan regulier hbm2-geheugen, en verwacht dit nog dit jaar uit te brengen.

SK Hynix hbm2e SK Hynix hbm2 Samsung Flashbolt hbm2e
Capaciteit 16GB 8GB 16GB
Bandbreedte per pin 3,6Gbit/s 2,4Gbit/s 3,2Gbit/s
Totale bandbreedte per stack 460GB/s 370GB/s 410GB/s

Door Daan van Monsjou

Nieuwsredacteur

02-07-2020 • 09:26

27

Reacties (27)

Sorteer op:

Weergave:

Ik ben zelf benieuwd of en wanneer Intel en AMD hun 3D-stacking-technologie gaan gebruiken in mainstream chips. Er is speculatie / geruchten("Neem nu een korreltje zout in") dat AMD en Intel HBM2e zou kunnen gaan gebruiken als een soort on chip memory... Een soort level 4 cache, maar dan in Gigabytes in plaats van Kilo-Mega bytes. Aangezien deze memory on-chip zou zijn krijgen de CPUs een grote performance uplift, want de latency van date opvragen uit de memory is afschuwelijk hoog als je het vergelijkt met de clocksnelheden van gewone CPUs. Laat staan als je het moet opvragen uit een SSD of HDD. Als we de Playstation 5 erbij pakken als voorbeeld dan zien we een SSD die het ram binnen 2 seconden volledig kan vullen. Dit is erg belangrijk, want dit betekent dat de SSD ongeveer zo snel is als DDR2, dat lijkt heel sloom, maar we hebben het over permanente storage, met de snelheid van memory die we 14 jaar geleden nog gebruikte. Hoe lang het gaat duren tot dat gewone PC gamers dit soort technologie in handen krijgen, daar is alleen nog over te speculeren. Maar wat we wel kunnen verwachten is dat HBM2e een belangrijkere rol kan gaan spelen in de GPU markt, zeker voor AMD. Die hebben al wat ervaring met HBM en ik hoop dat ze deze memory ook gaan inzetten bij RDNA 3.0! En misschien al bij RDNA 2.0. Want er zijn een hoop geruchten dat de RDNA 2 chip design 2 memory controllers heeft, waar 1 voor GDDR6 bedoelt is en de ander voor HBM2e!

[Reactie gewijzigd door Micahve op 22 juli 2024 17:07]

nVidia heeft ook heel wat ervaring met HBM2 je ziet het als consument niet omdat het op hun server gpu's zit.

Het probleem met stacking is dat je je warmte ten alle tijden moet wegkrijgen als deze op de gpu die zit, wat ik wel zien gebeuren is dat ze het geheugen 3d stacken op de io-die om een grote L4 cache te krijgen (L1/2/3 zit op de cpu-die) zodoende dat je normale ddr5 geheugen dan nog maar eens als verdere cache word gebruikt of zelfs weg gelaten kan worden (16GB op de IO-die als voorbeeld)
Klopt, Klopt.
AMD heeft wel een jaar of 1-2 geleden een patent ingediend voor een manier om 3D stacked chips te kunnen koelen(Via koperen staven). Maar het zal zeker een uitdaging blijven!
Betekent dit dat zoiets niet beschikbaar komt voor consumenten pc’s? Want ik heb het idee dat consumenten pc’s tegenwoordig express ‘dom’ worden gehouden. Ik zie er niet veel vooruitgang meer in zitten vergeleken met de jaren 90 en 00 waarin de stappen enorm waren voor hardware componenten.

Ik had verwacht in deze tijden wel met quantum computers bezig te zijn, maar we blijven eigenlijk al tig jaren hangen op praktisch eenzelfde specs. Dit geldt voor cpu, geheugen, gpu en opslag.
Ik zie er niet veel vooruitgang meer in zitten vergeleken met de jaren 90 en 00 waarin de stappen enorm waren voor hardware componenten.
Iedere technologie haalt op een gegeven moment een niveau 'good enough', voor desktops is dat al weer redelijk lang het geval en ook alweer een paar jaar voor laptops. Zelfs de Nederlandse staat/belastingdienst zag dat in en heeft al relatief lang de afschrijftermijn van bv. computers verlengt van 3 naar 5 jaar.

Het gros van de mensen kunnen eigenlijk heel lang voorruit met een moderne PC. Mijn huidige i7-5820K gaat ook alweer bijna 6 jaar mee en ik zie weinig reden om te upgraden, ook al is de machine al afgeschreven...

Wat moet iemand momenteel met een quantum computer voor dagelijkse zaken? Er zijn quantum computers, die worden over het algemeen gebruikt door mensen die er iets zinnigs mee doen. Ik denk dat je verwachtingen geheel onrealistisch waren in de jaren 90...
[...]Wat moet iemand momenteel met een quantum computer voor dagelijkse zaken? Er zijn quantum computers, die worden over het algemeen gebruikt door mensen die er iets zinnigs mee doen. Ik denk dat je verwachtingen geheel onrealistisch waren in de jaren 90...
Hoezo waren mijn verwachtingen te onrealistisch toentertijd? We gingen met reuzestappen omhoog in die tijd. De cpu van P2 naar P3 en 4, duo cores en multicores naar meerdere threads. Alsook geheugen en de gpu’s. Dat ik toen verwachte rond deze tijd op quantum te zitten was voor mij niet onrealistisch.

En het gaat mij nog niet eens zozeer om de echte snelheid, maar ook het energiezuinige ervan. De Intels zijn er imo ook nog niet echt zuiniger op geworden in verhouding.

En de vraag wat wij als consument nu moeten met quantum is ook een vreemde vraag. Waarom zou de normale consumenten developer niet mogen ontwikkelen op een quantum pc? Ik denk dat we dan op AI en deep learning een stuk verder zouden zijn dan we nu het geval zijn. Je ziet nu dat bepaalde blockchain projecten aardig ver zijn met AI dankzij de hashrate van gedecentraliseerde miners. Imo worden we als consument expres dom gehouden vwb AI omdat het gewoonweg niet onze handen mag vallen. Waarom zou je nog over kunnen speculeren.

Eerlijk gezegd mis ik enorm de evolutie van consumenten pc’s zoals in de jaren 90 en 00. Ik vond dat best een sensatie toentertijd. Nu is het allemaal maar flauwtjes.
Intel hoefde ook niet zuiniger omdat ze AMD hadden kapotgemaakt met allerhande onderhandse praktijken. Nu dat AMD opeens terugkomt met veel betere technologie, zul je zien dat er opeens wel terug rek op zit op energiezuinigheid en andere verbeteringen.
Volgens mij zit dat niet zozeer in de vooruitgang van de consumenten hardware. Ook de huidige chips volgen netjes de wet van moore. Het is volgens mij meer de wet van Wirth die het niet meer bijhoud https://en.wikipedia.org/wiki/Wirth%27s_law en gelukkig maar.
Vroeger moest je upgraden als je naar de nieuwste windows wilden want het was niet vooruit te branden op een 4 jaar oude pc. Of je kon een spelletje niet meer spelen omdat je een pentium 2 had terwijl minimaal pentium 3 was vereist.
Tegenwoordig kan je heel veel spellen nog spelen op een 10 jaar oude pc door de settings omlaag te zetten. Dus de SW tegenwoordig ondersteund een veel breder scala aan HW dan in het verleden. En misschien is het ook zo dat de bottleneck vroeger altijd in de CPU zat terwijl dat tegenwoordig al lang niet meer is. Gevolg is dat win10 net zo snel is op een oude pc tov een nieuwe. Alleen in spellen zie je dat er nog wat te halen is, maar dat zit dan met name aan de videokaart kant. Interessant gaat zijn of wat sony met de SSD gaat doen ook in de PC toegepast gaat worden. Heb je weer een reden om heel de PC te upgraden naar nieuwe CPU, MOBO en SSD om instant laden te krijgen :)
Het is ook zo dat computers al lange tijd gewoon snel genoeg zijn. Of het laden van een website nou een halve seconde of 100 milliseconden duurt kan de meeste mensen weinig schelen, maar het is wel mooi vijf keer zo snel. 2.5s naar 500ms is technisch gezien dezelfde sprong, maar het is veel beter merkbaar.

[Reactie gewijzigd door Wolfos op 22 juli 2024 17:07]

Precies! Ik heb een goede laptop met een i5 van de vierde generatie en die kan ik onmogelijk traag noemen. Nee, je kunt er niet echt op gamen, maar verder is het prima te doen.
ARM laptops kunnen een doorbraak zijn voor dunne laptops.

Over hbm gesproken, hbm is meer dan 3 x zo duur als gddr volgens schattingen.
Het is nog best wat duurder, maar volgens mij geen factor 3 meer. Daarnaast bespaart het je PCB-oppervlak, en zul je een interposer of iets anders met veel dichtere verbindingen moeten gebruiken.

Het zal verder ook tijd nodig hebben om de prijs omlaag te krijgen, want er zijn maar een paar fabrikanten (nu dus 1 meer), en die vinden een hoge marge wel prettig. Mocht er een veldslag komen (misschien waagt AMD het nog eens, hoewel de laatste keer veel geld kostte en weinig credits opleverde op de game-markt) dan zie ik de prijs zomaar concurrerend worden met vlot GDDR6.
Ik heb geen accurate cijfers, maar het lijkt erop dat nvidia en amd zo’n 30 dollar door berekenen naar de klant, voor 4gb gddr6. Dat betekend 120 dollar voor 16gb. Doe je dat maal drie, dan kom je op 360 dollar voor 16gb hbm2.

Die meer prijs is voornamelijk alleen interessant voor professionals, die geld verdienen met hun computer. Maar GPU’s voor gamers voor meer dan 1000 dollar is een moeilijke business case.
Niet allemaal, volgens mij alleen de vega XX en radeon 7. De 5700's hebben gddr6.
Vergeet de R9 Fury en Fury X niet :)

edit: foutje, dat is gewoon HBM, geen HBM2

[Reactie gewijzigd door Dutch PCBuilds op 22 juli 2024 17:07]

Voor consumenten is dit helemaal niet interessant gezien de hoge kosten. Kijk naar videokaarten met hbm geheugen, die zijn veel duurder dan die met gddr geheugen.
Van mij mag amd wel een opvolger van de Radeon VII maken met zoiets, wat betreft compute power staat AMD er beter voor als Nvidia, en in sommige programma's blijkt dat een Radeon 5700 bijvoorbeeld een rtx 2080 kan bij houden
Ik ken geen een programma waar dat bij is. De radeon 5xxx kaarten zijn geoptimaliseerd voor games, en niet voor computing taken.
Ja het zit dicht bij elkaar, maar zet er een 2060s tussen, dan zal die alsnog sneller zijn dan de 5700xt.

https://www.pugetsystems....R-vs-AMD-RX-5700-XT-1564/
Desktop en laptop pc's duwen de markt niet meer vooruit. GPU compute, ai deep learning, datacenter en mobile is nu waar het geld zit en waarvoor ontwikkeld wordt. Pc's komen op tweede plan. Dat kan je heel duidelijk zien, bijvoorbeeld wanneer er een nieuwe process node (bijv 5 nm nu) vrijkomt dan worden daar eerst mobiele socs op gemaakt. Pas als er voldoende capaciteit is op 5 nm (bijv omdat de mobiele socs over zijn naar 3nm) zal je zien dat er ruimte ontstaat voor desktops en videokaarten op 5nm.

Ook nvidia zijn eerste ampere product op 7nm is een compute acellerator. Op die producten zit gewoon neer marge.
CPUs hebben zoveel bandbreedte niet nodig, en dit geheugen is duurder. Het zou pure geldverkwisting zijn. Voor videokaarten kan het wel nut hebben, die kunnen zoveel bandbreedte gebruiken. Waar AMD het heeft ingezet was het echter tot nu toe geen echte killer.

Misschien dat het in de toekomst nog een uitkomst biedt. HBM heeft veel minder energie per bandbreedte nodig dan GDDR, zodat de kaart zuiniger kan zijn. Er gaan tientallen W op aan het geheugeninterface.
Een interessante toepassing van HBM zou zijn om de toekomstige Ryzen APU's te voorzien van een 2 of 4 GB HBM te plaatsen naast de I/O en chiplet modules op het modulaire ontwerp van Ryzen CPU's. Hierdoor zou het mogelijk moeten zijn om genoeg bandbreedte te maken voor bijvoorbeeld een graphics units met 16 compute units op zegge 2,4 GHz. Nu is er het probleem dat het huidige RAM niet snel genoeg is om een dergelijk krachtige graphic chips te voorzien van data. Stel dat je een Renoir APU hebt met een graphic unit met 16 CU's @ 2,4 GHz en 2 GB HBM en een CPU chiplet met 8C/16 T op 4,2 GHz: dat zou een enorm snelle desktop CPU zijn zonder dat je een externe videokaart nodig gaat hebben voor de meeste taken.
Zou dit geheugen ook als "normaal" RAM voor het systeem gebruikt kunnen worden?
Stel dat AMD hun DDR4 controller vervangt door een HBM2e controller en het socket aanpast om voldoende aansluitingen te realiseren dan kan dit voor de benodigde bandbreedte zorgen om vooral de grafische performance van deze chips een flinke boos te geven en volgens mij was ook reeds aangetoond dat de gewone CPU performance van de AMD chips baat had bij een hogere geheugenbandbreedte.

[Reactie gewijzigd door smartsys op 22 juli 2024 17:07]

met 2 hbm2e stacks heb je dat praktisch al...overclockje van 8% en je hebt waar je op wacht... :)

Op dit item kan niet meer gereageerd worden.