Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung kondigt hbm2e-geheugenmodule van 16GB met verhoogde datarate aan

Samsung heeft een nieuwe generatie high bandwith memory aangekondigd voor grafische toepassingen, datacenters en supercomputers. Het hbm2e met codenaam Flashbolt biedt 16Gbit per die, dubbel zoveel als de vorige generatie.

Samsung heeft zijn Flashbolt-hbm2e tijdens Nvidia's Technology Conference aangekondigd. Het geheugen biedt met 3,2Gbit/s 33 procent snellere doorvoer per pin dan zijn Aquabolt-voorganger. Daarnaast is de capaciteit per die verdubbeld van 8Gbit naar 16Gbit waardoor Samsung nu geheugenmodules van 16GB in plaats van 8GB kan maken.

Verder bedraagt de totale doorvoersnelheid van Flashbolt 410GB/s, waar dat bij Aquabolt op 307,2GB/s ligt. Verdere details over hbm2e maakt Samsung niet bekend. Zo is onduidelijk op welk productieprocedé het bedrijf Flashbolt maakt, op welke spanning het werkt en wanneer de massaproductie van start gaat.

Samsungs hbm2-aanbod
Flashbolt Aquabolt Flarebolt
Capaciteit 16GB 8GB 8GB 4GB 8GB 4GB
Bandbreedte per pin 3,2Gbit/s 2,4Gbit/s 2Gbit/s 2Gbit/s 1,6Gbit/s 1,6Gbit/s
Bandbreedte per stack 410GB/s 307,2GB/s 256GB/s 204,8GB/s

Door Olaf van Miltenburg

Nieuwscoördinator

20-03-2019 • 08:52

9 Linkedin Google+

Reacties (9)

Wijzig sortering
Voor consumenten kaarten van AMD op dit moment een in ieder geval voor nu nutteloze ontwikkeling.

De Radeon VII heeft 16GB geheugen, wat geen enkele game voorlopig gebruikt. De reden is dat ze dan twee vier stacks gebruiken en een 1TB/s bandwidth hebben. En zelfs dan is GCN bandwidth limited en heeft geheugen overclocken meer effect dan de core overclocken.

33% extra bandwidth is voor GCN dus niet genoeg en ze hebben nog steeds twee vier stacks nodig om de architectuur optimaal te benutten. Zie je het al voor je 32GB AMD kaarten voor consumenten puur om van de bandwidth te kunnen profiteren.

AMD had meer gehad aan 33% extra BW bij gelijk blijvende capaciteit.

[Reactie gewijzigd door Omega Supreme op 20 maart 2019 10:41]

Ik zie wel voordelen. Je kan dan voor lagere modellen 2 stacks gebruiken en dan toch genoeg bandbreedte hebben. Waar de Vega 64 kaarten 484GB/s hebben zou je met deze HBM modules op 820GB/s uit komen.
Je kan dan 2 HBM stacks gebruiken ipv 4 die nodig zijn bij de Radeon VII om in de buurt van die bandbreedte te komen. Dat scheelt weer in de kosten voor de modules, memory controller en interposer. En daardoor zou die kaart een stuk betaalbaarder worden. Want de HBM modules maken de Radeon VII erg duur.

En voor de top kaarten (maar dat is meer datacenter gebruik heb je aanzienlijk meer bandbreedte dan nu het geval is: 1,6 TB/s vs 1TB/s nu.
Je hebt dan wel een lager model met meteen 16GB geheugen, niet nuttig en ik vraag me af of dat kostentechnisch ook niet heel onvoordelig uitpakt.
Kan hoeft niet. 16GB is nu nog wel een beetje overkill maar voor de volgende generatie kaarten gaat het zeker nuttig zijn. Daarnaast kan ik mij voorstellen dat Samsung ook met een 8GB versie komt.
Vega 10 met 2 stacks heeft in de FE uitvoering ook 16GB maar de RX Vega kaarten hebben 8GB. De Vega 20 voor de Radeon VII heeft 16GB maar de datacenter versies (Instinct MI60) heeft hij 32GB aan stacks er op zitten. De V100 van nVidia heeft ook 32GB met 4 stacks (er is ook een 16GB versie met 2 stacks).

Ik kan mij voorstellen dat de max nu 16GB per module is maar dat er dus ook een 8GB versie komt met 410GB/s transferrates.
Wellicht is dit de opmaat tot de nieuwe AMD kaarten. Die hebben wellicht dit nieuwe geheugen, daar de Vegas ook al hbm hebben?
Aquabolt moet 2,4Gbit/s zijn vermoed ik?
Ik dacht net dat het amd wel aan ging aangezien ze in het topsegment ook hbm2 geheugen gebruiken.
Een versnelling in het geheugen tevens ook een die shrink van dat geheugen gemaakt komt ten goede zodat men op de videokaart meer plaats heeft voor andere dingen te doen, dan alleen maar de kaart vol maken met geheugen cellen.Maar net zoald je post het komt tevens bij de amd kaarten ook de bandbreedte ten goede.Maar wat wel waar is heeft men zoveel geheugen wel nodig?
Hoe verhoud zich dit tot GDDR6? HBM mag dan wel lagere latencies hebben maar ik dacht dat HBM verleden tijd was met de komst van GDDR6?

Vega 64 8GB HBM 483,8GB/s
RTX 2080 Ti 11GB GDDR6 616GB/s

AMD Radeon VII is naturlijk 1 TB/s dus hmb is duurder maar kan beter schalen?

[Reactie gewijzigd door Bennnie op 20 maart 2019 10:47]

Het grootste verschil is dat voor HBM er een interposer moet zijn, een groot stuk silicon dat de overdreven grote bus van HBM tot de GPU verbind.

Met andere woorden, een extra kost die vermeden kan worden door GDDR te gebruiken.
Dit is waarom dit nieuws interessant is. In plaats van 2 stacks te gebruiken (interposers sparen) kunnen ze een deftige bandbreedte creeëren en besparen op die interposers.

Bij GDDR kunnen ze dan weer de limiet verlichten, idem met de kosten, door een heleboel chips te plaatsen, wat kosten besparend is en dus de geprefereerde keuze is.
Hogere marges, minder complex. Simpelweg goedkoper.

Dan is er ook nog de error rate bij het bakken, die bij HBM dan ook weer hoger ligt :)

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True