Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung schroeft productie 8GB-hbm2-modules op

Door , 59 reacties

Samsung schroeft de productie van zijn 8GB-dram met hbm2-interface op, naar eigen zeggen om aan de snel stijgende vraag te voldoen. Het geheugen is bedoeld voor videokaarten, high-performance computing en servers. Huidige videokaarten gebruiken 4GB-modules.

Samsung is momenteel de enige fabrikant die hbm2-modules met een capaciteit van 8GB maakt. Exacte details over productieaantallen noemt de fabrikant niet in zijn aankondiging. De Zuid-Koreaanse fabrikant doet ook geen uitspraken over welke producten er van het geheugen gebruik zullen maken en wanneer deze op de markt komen.

Hbm2 wordt onder andere door Nvidia en AMD gebruikt in high-end videokaarten. Nvidia gebruikte hbm2 vorig jaar voor het eerst op zijn Tesla P100-kaarten en past het ook toe op de in mei geïntroduceerde Tesla V100, maar in beide gevallen gaat het om modules van 4GB. Samsung begon de massaproductie van dat geheugen begin 2016.

AMD gebruikte de eerste generatie van hbm-geheugen op zijn Fury-kaarten en past hbm2 toe op zijn Radeon Vega Frontier Edition. De kaart met 16GB hbm2 heeft twee stacks van 8GB. Vermoedelijk zit er ook hbm2 op de komende Radeon RX Vega-kaarten, maar in welke hoeveelheid en met welke packages is nog niet bekend. Aannemelijk is dat ook dat om 4GB-modules zal gaan.

De 8GB-hbm2-modules van Samsung bestaan uit acht gestapelde hbm2-dies met ieder een capaciteit van 8Gb en aan de onderkant van de stack zit een buffer die. Iedere laag is voorzien van ruim vijfduizend through silicon via-kanalen, waarmee het totale aantal op meer dan veertigduizend komt voor een 8GB-package.

De huidige high-end videokaarten en accelerators voor deep learning van Nvidia combineren vier packages van 4GB-hbm2 voor een totaal van 16GB. Met de nieuwe 8GB-modules zou in diezelfde configuratie een geheugenhoeveelheid van 32GB mogelijk zijn.

Reacties (59)

Wijzig sortering
@Xtuv
Huidige videokaarten gebruiken 4GB-modules.
De huidige high-end videokaarten en accelerators voor deep learning van AMD en Nvidia combineren vier packages van 4GB-hbm2 voor een totaal van 16GB.
Alleen nVidia heeft vier stacks van 4GB HBM2. AMD gebruikt twee stacks van 8GB HBM2 voor Vega Frontier. Waarbij de toekomstige Vega RX twee van 4GB HBM2 gaat gebruiken.

[Reactie gewijzigd door -The_Mask- op 18 juli 2017 19:00]

32GB op een graka *O*
Ik wil helemaal geen 32GB op een GPU hebben. Die 32GB moet je ook betalen en je hebt er niets aan. Kan hier alle games op 3440x1440 spelen waarbij 4GB maar zelden te weinig is. Een GPU met 8GB is niet beter als een GPU met 32GB wanneer er maximaal 6GB gebruikt word.
Er is meer dan de consumenten markt. Cad/Animatie programma's zullen er wel bij varen.
En vooral bij machine learning zou het zeker fijn zijn.
Ja.... Mijn deep learning project deed er vaak uren over om een flinke dataset bijlangs te gaan. Zou mooi zijn, 32GB op een graka O+ Als ie daar goed gebruik van maakt, 8x zo snel ? :Y)
Ligt er natuurlojk aan waar die GPUs voor worden gebruikt. Een graka met 32GB koop je bijvoorbeeld voor machine learning en GPGPU doeleinden. Met 4GB is de hoeveelheid geheugen per core anders te laag om fatsoenlijk matrix berekeningen te doen.
Dat is niet overal het geval, er zijn genoeg AAA games van de laatste 2 jaar, waarbij ik de kwaliteit niet hoger kan zetten op 3440x1440 omdat ik tegen de 4GB limit van mijn fury x aanloop.
32Gb of 4Gb is nogal een verschil. Liever een snellere core met 8Gb als een langzamere core met 32Gb.
Ik ben het helemaal met je eens, ik gaf alleen aan dat 4GB al een tijd niet meer voldoende is voor resoluties boven de 1080p.
Tot nu toe kom ik nog heel goed mee met mijn GTX 980 setup in SLI. Er zijn wel spellen waarbij ik in de buurt kom van die 4GB maar de meeste spellen hebben er nog genoeg aan. Over het algemeen kan ik alles op High of Ultra draaien zonder tegen de 4GB limiet aan te lopen. Ik loop eerder tegen een lagere framerate dan 60fps aan dan tegen de 4GB limiet.

Het is inderdaad wel zo dat 4GB voor die resolutie met de nieuwste spellen een limiet begint te worden, alleen tot nu toe merk ik er zelf met alles wat ik speel weinig van. Ik heb nog nooit echt dingen lager moeten zetten omdat 4GB niet meer genoeg zou zijn. Bij alle spellen die ik speel hou ik het VRAM gebruik in de gaten op een 2e scherm.
Oh welke dan bv. heb het zelf nog niet meegemaakt met mijn fury op 3440x1440
uit mijn hoofd een paar titels waarbij ik tegen memory limiet aanliep, Mirrors Edge 2, Battlefield 1, Rainbow Six Siege. Er was nog genoeg extra rekenkracht beschikbaar voor betere graphics (FPS boven de 60, of GPU load onder de 100, met locked 60), maar niet genoeg memory.
Vergeet niet dat men ook software kan maken om van die 32GB een virtueel SSD te maken.
Zoiets als een RAMdisk wat we nu hebben voor RAM geheugen.

En ik moet eerlijk zeggen dat iemand, die low end producten koopt niet moet piekeren over highend producten. Dat jij geen raad weet wat je moet doen met die 32GB, is toch echt jou minderheid in kennis.

Sommige mensen hebben 64GB of 128GB RAM geheugen in hun systeem. En andere mensen roepen van dat ga je nooit nodig hebben. Die mensen hebben geen benul wat je allemaal kan doen met zoveel geheugen. Er is meer dan gamen alleen wat geheugen nodig heeft. ;)
Dat jij geen raad weet wat je moet doen met die 32GB, is toch echt jou minderheid in kennis.
Ik heb het over 32GB op een GPU voor gamen. Nog los van dat zal 99% van de mensen hier die 32GB niet gaan gebruiken. Moet ik nou bij iedere reactie een disclaimer schrijven die groter is dan de reactie zelf voor die 1% ?
Die "gpu voor gamen" is niet alleen voor gamen.
Gamers kunnen er soms amper aan komen omdat andere toepassingen ze massaal gebruiken.
32 gb is idd overkill voor de meeste games maar ook dat is iets wat snel zal veranderen.
De gemiddelde game development studio weet ook dat er meestal niet veel meer dan 4gb aan grafisch geheugen beschikbaar is bij de gebruiker.
Derhalve zullen developers niet gauw die grens over gaan bij het optimaliseren van hun game.
Als 32gb high end gemeengoed is, zullen developers best wel creatieve manieren vinden om er goed gebruik van te maken.

Ik zit niet aan de game tak van het verhaal maar mijn prod servers die het zware werk doen, draaien allemaal meer als een terabyte aan ram.
Ze kunnen hetzelfde met misschien wel een tiende aan geheugen maar dan vlot het allemaal niet zo :)

Je hoeft het (nu nog) niet te begrijpen maar vertrouw er maar op dat de game developers na verloop van tijd prima gebruik weten te maken van extra ram dat beschikbaar is.
No one will need more than 637KB of memory for a personal computer. 640KB ought to be enough for anybody, Bill Gates
Ten eerste is die quote onzin, dat heeft ie nooit zo gezegt. Ten tweede heb ik het niet over de komende 50 jaar, maar voor nu op dit moment en de komende jaren. 4GB is op dit moment meestal nog genoeg, helemaal op een lagere resolutie. Met 8GB kan je makkelijk nog een paar jaar vooruit en dan met 16GB weer. Op dit moment is 32GB voor gamen complete onzin. Ik zeg nergens dat dit de komende 50 jaar zo zal blijven.
Sorry was niet zo serieus bedoelt.

Als budget kaarten meer memory krijgen gaan spelletjes makers meer memory gebruiken. daardoor heb je eerder 16 nodig dan je denkt.

Ik speel sinds kort titanfall 2 ik gebruik nu as we speak 10138 mb memory. en ik heb zelfs een 1440p scherm niet eens 4k
Sommige spellen gaan ook wel heel slecht met geheugen om. Er zijn zeker uitzonderingen waarbij 4GB nu niet genoeg is. Maar als een spel als GTA5 genoeg heeft aan 4GB is meer dan 10GB ook wel heel erg veel voor Titanfall 2. Alle games die ik het afgelopen jaar gespeelt heb waaronder Doom, BF4, Far Cry 4, GTA5, Star Wars Battlefront en Tomb Raider hebben genoeg aan 4GB op 3440x1440.

Mijn volgende kaarten worden ook zeker 8GB, alleen 32GB blijft de komende jaren voor gamen nutteloos.
Mijn volgende kaarten worden ook zeker 8GB, alleen 32GB blijft de komende jaren voor gamen nutteloos.
Jij gaat ook zeker de komende tijd, zeg 2-3 jaar, geen 32GB op je gaming kaartje krijgen hoor haha! En misschien nog wel langer niet!
Krijg je niet dat als elke videokaart 16GB of meer heeft, men ook steeds sneller textures met zeer hoge resoluties gaat gebruiken?
Mooi en aardig als idee maar zo lang je gpu de rekenkracht niet heeft om die textures ook snel genoeg te verwerken, zal dat zo'n vaart niet lopen hoe absurd veel VRAM je ook hebt.
Het gaat om de GPU-core niet om de hoeveelheid geheugen, tenminste bij gaming.
waarom zit er op de 1000 serie van nvidia dan 8gb geheugen i.p.v. 3,5 / 4 zoals de serie daarvoor?
beetje wazige statement...
Zoveel voorbeelden uit het verleden dat games geen profijt hebben van meer geheugen als de core het toch niet bij kan houden.
ok zo simpel ligt dat dus niet.
als je genoeg geheugen hebt maakt meer inderdaad niet uit voor betere performance.
maar als je niet genoeg hebt, dan gaat de framerate dus echt enorm onderuit, aangezien er dan texture data over de PCIe bus gestuurd moet worden, en deze is nogal traag met een hoge latency.

kortom zolang je genoeg hebt, maakt meer niet uit, maar je wil echt niet een tekort hebben.
vraag is dan wat is genoeg, op het moment is 4gb genoeg voor de meeste games, maar een groter aantal games beginnt toch echt wel 8 GB nodig te hebben voor de hoogste res textures. (een van de eerste was Shadow of Mordor)

en dat zal blijven stijgen natuurlijk.
kortom ik zou zeer zeker geen kaart met 4gb meer aanraden. gezien de consoles al 8 GB hebben (en de xbox One X 12 gb) kortom je kan er donder op zeggen dat 8GB binnenkort gewoon gemeengoed gaat worden als eis om high res textures te krijgen, en het zou me niet verbazen als men 12 of 16GB snel nodig heeft voor de hoogste res.

OT: alles wijst erop dat RX vega 8GB HBM2 krijgt en niet 4, maar dat kan natuurlijk 2 packages van 4GB zijn (waar frontier 2 8GB packages heeft)

[Reactie gewijzigd door freaq op 18 juli 2017 19:00]

Dus wat je hiermee zegt is dat geheugen wel belangrijk is, als de core het kan gebruiken?
Met toekomstige GPUs zou zoveel geheugen echt wel iets toe kunnen voegen, het is niet alsof men bij Nvidia en AMD stil staat.

Zoveel geheugen zal nu al belangrijk zijn voor de professionele markt en in de toekomst ook wel bij de consumenten voor gaming.
Maar waar moeten dan al die 4k textures heen? Sorry maar je praat jezelf tegen. ╔n heeft hbm2 een hogere bandbreedte wat je voor hogere resoluties wel nodig hebt. Straks hebben we 8k schermen en ga je daardoor ook meer vram nodig hebben (aangezien textures dan ook gedetailleerder zullen worden om er nog scherp uit te zien).
Ja en die 8 k schermen bestaan nu ook, weet alleen niet of deze kunnen maken met de massa productie.4 k zal gemeengoed worden terwijl de spellen van tegenwoordig al best veel wegslurpen wat resolutie betrefd, daarintegen heb je dus ook meer geheugen nodig.
Maar dan heb ik het over de modernere spellen denk aan de playstation 4 de laatste versie die kan ook al 4 k aan en zal daar enige geheugenbanken meer hebben dan de eerste versie playstation 4..
En die nieuwe xbox volgens de jongens post boven mij ook 11 gb geheugen dat zal dus ook wel voor uhd zijn.En zo word alles aan de wensen van de klanten technisch gezien klaar gemaakt.
Zo zie je maar weer dat een gemeenschap van mensen nooit stil staan er worden meerdere keren per jaar technische vernieuwingen gedaan.Vooral in de electro-techniek en computer techniek gaat het heel snel.Want mensen hebben het bijna elke dag nodig.Is het niet die smartphone die elke dag geupdate word dan is het wel een tablet of pc die ook zijn updates moeten krijgen maargoed ik beging weer offtopic af te dwalen.
Setups met een hoge resolutie, zoals 4k, profiteren van extra geheugen. Waarschijnlijk is dit bij VR ook van toepassing.
Marketing en op 4K met alles op ultra en gameworks zou je mischien nog wel kunnen hebben aan meer dan 4GB, maar er zijn niet zoveel kaarten waar je dan nog meer dan 30FPS hebt.

De Fury X is een mooi voorbeeld van dat 4GB meestal nog voldoende is.
De Fury X is een mooi voorbeeld van dat 4GB meestal nog voldoende is.
Daarmee geef je gelijk aan dat het nu dus soms onvoldoende is, en met hogere resoluties en zaken als HDR wordt dat dus alleen erger.
Volgens mij kwam alleen GTA5 met maximale settings over de 4GB, maar zat je dan toch al op 11FPS. (ook voordat de 4GB vol zat)

Dus ja, daar is 4GB niet genoeg, maar aan 8GB had je niets gehad omdat de GPU zelf nogsteeds geen speelbare FPS produceert.
Zelfs op huidige midrange kaarten is het merkbaar, in bepaalde omstandigheden, en met snellere GPU's wordt het verschil alleen maar groter.
Shadow of Mordor lust op ultra toch pakweg 5.4/5.5GB VRAM
Omdat de games steeds meer (grafisch) geheugen gebruiken gaan moderne games steeds vaker over de 2gb grens. Het vrijmaken van geheugen kost rekentijd en zorgt voor lagere performance (corrigeer me als ik ernaast zit)

Ook benchmarks laten zien dat de hoeveelheid grafisch geheugen uitmaakt, maar het verschil in performance tussen 2 en 4 GB zal op groter zijn dan tussen 4 en 8 GB.

Een leuke video om te bekijken over dit verschil
https://youtu.be/AZRoANKeQX0
Toevallig kan Damic ook echt gebruik maken van die 32GB ;)

Maar inderdaad voor games is 4GB nogsteeds prima. Zeker met AMD's HBCC.
En als je hem wilt inzetten voor mining doeleinden?
Veel gpu geheugen is dan ook nog niet voor gaming maar voor de pro market. Lekker veel datasets in het gpu geheugen *O*

@Toettoetdaan hu kan niet volgen?

[Reactie gewijzigd door Damic op 18 juli 2017 19:04]

Jij gebruikt toch grote datasets in GPGPU toepasingen? Dus jij hebt echt wat aan kaarten met meer dan 4/8GB?
Volgens mij vergis je je met iemand anders, want zelf doen ik niets met grote datasets. Ja ik heb een Vega FE, maar is meer als een impuls aankoop: "ooooo shiny blue, hebbeuh hebbeuh hebbeuh"
Oh dan heb ik mij vergist, maar ik snap wel dat je hem hebt gekocht O-) IT IS SO PRITTY!!!!
"Waarom zou je 4 gig ram kopen, dat heb je toch nooit nodig!"
Noord27 in 2006
Sarcasme is onnodig. Een grafische kaart van 11 jaar oud heeft niemand die een beetje GPU kracht nodig heeft.
Wel redelijk om de snelheid.
Schroef die maar eens omlaag.
Denk aan de meest recente games en opkomende, dan grafische instellingen op zn hoogst en ultra texture quality (een GTX1070/1080) dan kun je weleens op 6GB vram gebruik uitkomen.
Het is mooi als je snelle kaart veel vram heeft, iniedergeval voor texture kwaliteit in de game, dit heeft geen impact op performance maar gebruikt alleen meer vram.
Ik kan pubg ook gewoon op max textures spelen met mijn gtx 960 en maar 2gb VRAM, toen ik nog op 8gb system RAM zat zou ik hevige stutters krijgen omdat ik op de limieten liep, maar sinds ik 16gb system RAM heb word alles gewoon ge-offload naar het system RAM en zijn ultra textures geen probleem. VRAM is in mijn ervaring gewoon veredelde system RAM zonder daadwerkelijke voordelen.
VRAM is gigantisch veel sneller voor je GPU om van in te moeten laden.

En hoe representatief is 1 game die nog in de maak is...
quake champions, fallout 4, Planet coaster, Mad Max. Kan nog wel even doorgaan hoor :P
Altijd grappig hoe iedereen denkt een snel systeem te hebben en totaal vergeten dat (werk)geheugen op bijvoorbeeld 3,2-4GHZ nog een dramatisch verschil kan uitmaken voor Minimum fps.. als alle andere onderdelen retensnel zijn zoals GPU en CPU.

iedereen praat altijd alleen over CPU en GPU als het om games gaat ^^ en vergeet de rest. Ik draai in sommige maps ook niet meer dan 60 fps als minimum in BF1 als ik mijn geheugen op 2,2ghz heb, en dat kan gewoon niet hhehh... op 4ghz meteen 90 fps als minimum

[Reactie gewijzigd door A87 op 19 juli 2017 02:23]

Ik kan me vergissen maar volgens mij stond er laatst op een tech forum dat de snelheid van je (werkgeheugen) 2,2ghz, 3,0ghz of 4,2ghz zo klein is dat dit nog geen 10fps zou zijn. Wat GTA5 betreft over wel of niet over de 4GB ik zit aardig over die 4GB heen, 7days to die ook. En nog wel een lijstje aan games die over de 4GB Vram gaan.
speel eens een CPU intensive game
"als de core het toch niet bij kan houden." daar houdt je statement op met wazig te zijn.
Ik ben me al een tijdje aan het afvragen of zoiets ook toepassingen heeft in de database branche (maken van database engines) waar ik zelf actief ben. Misschien tzt toch maar eens zo'n ding scoren om mee te spelen.

Waar ik echter bang voor ben is dat de bandbreedte tussen Disk/CPU/RAM en GPU onvoldoende gaat blijken, waardoor ik verwacht dat het ultimo niet veel sneller zal draaien op een GPU dan op een CPU...
Hbm2 wordt onder andere door Nvidia en AMD gebruikt in high-end videokaarten. Nvidia gebruikte hbm2 vorig jaar voor het eerst op zijn Tesla P100-kaarten en past het ook toe op de in mei ge´ntroduceerde Tesla V100
De Tesla P100 en V100 zijn geen videokaarten...

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*