Samsung ontwikkelt eerste GDDR7-chips, noemt bandbreedtes tot 32Gbit/s per pin

Samsung kondigt zijn eerste generatie GDDR7-geheugen aan. Deze eerste geheugenmodules halen volgens Samsung bandbreedtes tot 32Gbit/s per pin, 33 procent meer dan de snelste GDDR6-chips op de markt. De chips komen in 2024 uit.

Samsung kondigde woensdag aan dat de ontwikkeling van zijn eerste generatie GDDR7-modules is afgerond. De modules van Samsung hebben ieder een capaciteit van 16 gigabit, wat neerkomt op 2GB. Daarbij deelt Samsung de bandbreedte van 32Gbit/s per pin, waar de snelste GDDR6-chips bandbreedtes van 24Gbit/s bieden. Op een 256bit-geheugenbus zou GDDR7 een bandbreedte van 1024GB/s kunnen halen. Op een gpu met 384bit-bus loopt de theoretische bandbreedte van GDDR7 op tot ruim 1536GB/s.

Samsung GDDR7
Bron: Samsung

De snelheidswinst van GDDR7 ten opzichte van GDDR6 komt volgens Samsung onder meer door het gebruik van pam 3-signaling. Dat is in tegenstelling tot het gebruik van pam 2-codering in GDDR6 of pam 4 in GDDR6X. Met pam3 worden drie spanningsniveaus gebruikt voor de transmissie van het signaal. Daardoor is het mogelijk om meer bits te verzenden per klokcyclus zonder dat de kloksnelheid daarvoor verhoogd moet worden.

De fabrikant zegt ook dat het GDDR7-geheugen 'tot 20 procent efficiënter' is dan voorgaande generaties, maar gaat daar verder niet concreet op in. Samsung zegt wel dat het een GDDR7-versie uitbrengt met een extra lage spanning. Die versie wordt vooral bedoeld voor apparaten als laptops. Verder gaat Samsung epoxy gebruiken voor het packagingmateriaal van GDDR7. Dat epoxymateriaal heeft een relatief hoge thermische geleiding en moet daarom zorgen voor een thermische weerstand die '70 procent lager ligt' in vergelijking met GDDR6. Dat moet het makkelijker maken om de chips te koelen.

Er wordt al langer gewerkt aan GDDR7-geheugen. Micron zei eerder dat het in de eerste helft van 2024 zijn eerste GDDR7-chips op de markt wil brengen. Cadence, een bedrijf dat software en hardware maakt voor het ontwerpen van chips, kondigde eerder al verification solutions voor GDDR7-geheugen aan.

Volgens eerdere geruchten maken onder meer Nvidia's GeForce RTX 50-serie en AMD's Radeon RX 8000-gpu's gebruik van GDDR7-geheugen. Dat is echter nog niet bevestigd. Van beide series is bovendien nog geen releasedatum bekend, hoewel een Nvidia-roadmap eerder vermeldde dat de opvolger van Nvidia's huidige Lovelace-gpu-architectuur in 2025 uitkomt.

Geheugenchip Samsung GDDR7 Micron GDDR6X Samsung GDDR6
Bandbreedte per pin 32Gbit/s 24Gbit/s 24Gbit/s
Maximale bandbreedte
(256bit-geheugenbus)
1024GB/s 768GB/s 768GB/s
Maximale bandbreedte
(384bit-geheugenbus)
1536GB/s 1152GB/s 1152GB/s
Capaciteit per chip 16Gbit (2GB) 16Gbit (2GB) 16Gbit (2GB)

Door Daan van Monsjou

Nieuwsredacteur

19-07-2023 • 10:54

39

Lees meer

Reacties (38)

38
38
23
1
0
8
Wijzig sortering
Het gaat hier natuurlijker over GDDR. Graphics DDR.

Maar het klopt, met meerdere cores en zeer specifieke machine learning cores die moeten samenwerken is het veel logischer dat de GPU en CPU Ram delen en alle type cores (gpu en cpu) kunnen samenwerken.

In consoles is dat al zo en ook Apple combineert CPU, GPU en dat tot 192Gb ram aan 800GB/s bandbreedte.

Het is sneller, efficiënter en compacter. Maar de nadelen zijn er natuurlijk ook. Niet uitbreidbaar en de GPU is minder krachtig dan een losse variant. Een RTX 4090 is bijvoorbeeld 2x sneller dan een Apple M2 Ultra chip.

Ook is er dan nood aan een nieuwe socket standaard want zo’n SOC’s zijn natuurlijk groter. Ook zullen deze chips heel duur zijn. Dus al bij al denk ik niet dat het er snel zal komen in een PC-kast. Mogelijk wel in een NUC-achtige vorm factor.

Nog wel knap om te zien is dat GDDR7 PAM3 modulatie gebruikt. Ipv de clocksnelheden op te krikken gaan ze per clock meer data ik het signaal steken. Anandtech heeft er in maart een mooie uiteenzetting van gemaakt.

[Reactie gewijzigd door Coolstart op 24 juli 2024 17:57]

Maar volgens mij toch nog niet snel genoeg om de snelste processor bij te houden. Ik herinner me van 'vroeger' dat 'wait-states' de boel vertraagden. Is dat nog steeds een probleem of zijn er meer (fysieke) problemen?
Nee, bij lange na niet. Men kan prima geheugen maken dat de CPU bijhoudt. Je wil alleen niet weten wat dat kost.
Je hebt half gelijk, maar de opmerking van Simon Weel dat de CPU kan komen door te weinig bandbreedte of door te veel latency. Bandbreedte is voor consumentenhardware op dit moment doorgaans wel genoeg voor de CPU, latency heeft meer invloed.

Bandbreedte kan je prima 'simpel' verhogen (hogere kloksnelheden, meer geheugenkanalen) maar latency krijg je niet zo eenvoudig omlaag. Daarvoor moet echt het RAM fysiek dichter naar de CPU toe (of eigenlijk, op de CPU zelf, zoals Apple's M1/M2 al heeft), met losse modules gaat dat niet opgelost worden. Wat dat betreft zitten we qua latency al decennia in dezelfde orde van grootte.

[Reactie gewijzigd door bwerg op 24 juli 2024 17:57]

En toch zijn we best aardig opgeschoten, van destijds SIMMetjes met 60-70 ns latency naar tegenwoordig 10 ns voor een vlot DDR3+-latje. En belangrijker: we cachen steeds meer. Ik heb nog zo'n mooi L2-bankje (toen nog los in je moederbord steken) van 256 kB. L3 was nog niet eens in beeld voor consumenten. Tegenwoordig hebben we honderd MB aan cache, dat ook nog eens iets sneller geworden is. Als we straks stacked dies krijgen voorzie ik dat we ofwel een L4 krijgen, of dat we gewoon een stack HBM pakken en voor de rest op de SSD vertrouwen, die wel factoren sneller is dan het draaiend roest van weleer.
En toch zijn we best aardig opgeschoten, van destijds SIMMetjes met 60-70 ns latency naar tegenwoordig 10 ns voor een vlot DDR3+-latje.
Vergelijk je het echter met de eerste generatie DDR-geheugen, dan zaten we toen rond de 12ns en nu hooguit rond de 7ns. Waarbij de eerste jaargang van een nieuw geheugentype (zoals DDR5 nu) ook gewoon weer rond de 12ns zit.

Natuurlijk, caches worden groter, maar de hoeveelheid opgevraagd geheugen ook. En zo blijft latency over het algemeen toch gewoon een factor.
Dat bedoel ik niet. Technisch is het prima mogelijk L1 of L2 cache in grote hoeveelheden in een CPU te bakken. De kostprijs echter...
Qua chipoppervlak zit daar technisch ook wel een uitdaging... Door effectief twee chiplagen op elkaar te plakken komt AMD tot enkele honderden MB's op een (server-)CPU, maar dat bedenkt dus al het hele chipoppervlak. Dus even de 10+ GB die een moderne PC gebruikt in de cache aankunnen gaat hem ook technisch niet worden.

Zelfs als je even de CPU tien keer zo groot maakt heb je weer een nieuwe latency-uitdaging, want van de ene naar de andere kant van de CPU is dan net zo ver als nu van de CPU naar het RAM.
Doe mij maar 32GB SRAM :Y) :P
Als je de rekening betaalt?
Het grootste probleem bij CPUs is nog steeds, en nu zelfs meer dan ooit met zo veel cores, memory latency en bandwidth.

Als je een vrij memory heavy applicatie hebt (en die ook nog eens grote chunks geheugen nodig heeft, waardoor het niet in L1/2/3 past) zit je CPU gewoon het gros van de tijd te wachten op data.
Sneller geheugen is super belangrijk voor de groei van de beschikbare rekenkracht
Daarom gaan we ook naar CPU's die alle RAM on-die hebben, zodat we af gaan van het "RAM-stick" model. Dit gebeurt al bij servers, dus kwestie van tijd tot het naar consumenten komt.

[Reactie gewijzigd door grasmanek94 op 24 juli 2024 17:57]

Helaas is on-chip, of on-die (ietsje trager) geheugen extra prijzig, dus als je grote hoeveelheden data wilt opslaan is dat geen optie. Voor hot data uiteraard wel, daarom krijgen we steeds meer levels aan caches, die steeds groter worden.

Then again, een tripje naar het RAM kost je in de orde van honderden clock cycles, dus als je dat kunt voorkomen dan is dat schitterend.
Ik zou het inderdaad handig vinden om snel RAM op de cpu te hebben zitten, maar ik wil wel de flexibiliteit behouden die ik nu heb. En dat zal technisch lastig te realiseren zijn. (Tenzij we het huidige RAM als een laag achter cpu-ram zouden zetten, maar ook dan moet het OS kunnen begrijpen waar deze welk type Cache neer wil zetten)

Ik heb nu een 7800x3D met 64GB aan RAM, ik wil niet weten wat ik zou moeten betalen voor zo’n niche config als zo’n capaciteit op de CPU ingebakken zou zitten.
(Kijkend naar de Apple prijzen)

Logischer zou zijn als zo’n cpu 16GB tot 32GB aan RAM ingebakken zou hebben, omdat dit voor 95% van de gebruikers van dit type cpu voldoende zal zijn.

Dat de overige 5% dan maar een nog duurdere cpu moet nemen of afhaken, is een acceptabel risico voor leveranciers als Intel en AMD.
(Het in stand houden van een config met 64GB aan ram voor deze 5% kost waarschijnlijk meer dan het oplevert)
Offff we gaan gewoon terug naar Windows 95, dat prima draaide op 64 MB geheugen, en dat past tegenwoordig in je L3. Moet je wel die flashy animaties, en material design van websites missen natuurlijk ;)

Daarnaast durf ik te wedden dat als we nu betaalbare CPUs krijgen met 16 GB erop, dat dit in no-time volgestouwd wordt door allerlei programmas die dan nog meer zooi mee kunnen nemen, zodat je nog sneller in de Blabla-shop bent, en om je te helpen heeft ie alvast de aanbiedingen van volgende week gecached.

En nu even zonder vitriool: ik ben heel blij dat mijn CPU de caching regelt, en dat goed weg-abstraheert voor het OS. Dat vergroot de flexibiliteit, en meestal zit je CPU goed met het voorspellen welke data ie moet cachen. Zo niet, dan heeft de programmeur/compiler niet helemaal goed nagedacht, of heb je gewoon pech. Daarnaast biedt dat ook de optie om die x3D-CPUs te gebruiken, die toch alweer best wat meer L3 meenemen voor een schappelijke prijs. Het effect ervan hangt heel erg af van de toepassing, soms amper een procentje sneller, soms 50% sneller. Ik hou wel van die keuze :)
Dat speelt nog steeds. Daarom hebben we ook nog steeds L1,L2,L3 cache op CPU's. Maar dit betreft GDDR geheugen, bedoelt voor gebruik in grafische kaarten.
In de CPU wereld komt dit ook al dichterbij. Daat doet intel dit met HBM geheugen

https://itdaily.be/nieuws/infrastructuur/intel-xeon-max/
1 TB/s maximale bandbreedte op de 256bit bus
dat zijn nummers
Over 20 jaar praten we wellicht over PB/s :)
Wie weet! Misschien zelfs nog eerder!!
Rookie numbers!
/meme :P
Ik snap werkelijk niks meer van de bandbreedte per pin op GDDR6 en GDDR6x. De eerste is van Samsung en de tweede van Micron/Nvidia. In het artikel lijkt het alsof ze identiek zijn, maar als ik bij Samsung ga kijken dan roepen ze dat GDDR6 tot wel 1.1TB/s gaat op een pinspeed van 24Gbit en bij Micron roepen ze dat de snelheid van GDDR6X ook op 1.1TB/s gaat met een bandbreedte van 19 tot 24Gbit per pin.

Is die hele hype over GDDR6X op de Lovelace architectuur dan een hoax? Ze kunnen het immers allebei. Vergelijkingen laten zien van niet, maar als de specs op hetzelfde uitkomen waar zit dan het verschil? Ding is wel dat GDDR6X een stuk duurder is omdat het exclusief is en het enige verschil dat ik nu nog zie is de PAM-4 encoding. Kan iemand mij wijzer maken?
Ik zat hier ook al naar te kijken.
Ik denk dat dat niet klopt.
Volgens mij ging GDDR6 maar tot 16Gbit/s per pin en was het op introductie datum slecht 12 of 14.
Met GDDR6X gingen ze over de 16 heen.
Was de Nvidia 30-series niet met 18 Gbit/s per pin chips?
En de 40-series met 21Gbit/s per pin chips?
Verder gaat Samsung epoxy gebruiken voor het packagingmateriaal van GDDR7.
Hoe zit dat dan met de recyclability van het product? Immers is dat uitgeharde materiaal lastig te gebruiken voor andere doeleinden.
Echt ongelofelijke hoeveelheden data per seconde.
Best veel ja. Maar wat heb je eraan? Zo snel kan ik toch niet typen.
GDDR is dat niet geheugen voor Videokaarten? Of zijn er ook andere doeleinden
GDDR is inderdaad specifiek voor videokaarten, die heel graag absurde hoeveelheden data-overdracht doen van en naar geheugen.
Op consoles als de PS5 en de Xbox Series X/S wordt het voor zowel RAM als VRAM gebruikt
Ik dacht zelf ook altijd dat ik nog lang niet aan een HDMI versie hoger dan 1.4 hoefde te beginnen, totdat je 4K,120HZ,HDR en Audio moet sturen naar je televisie en er zoveel data over de kabel moet dat een kabeltje van HDMI versie 1.4 niet meer voldoet...

Over een aantal jaar zal ook deze bandbreedte van GDDR7 gewoon 'normaal' zijn.
Voor Displayport zitten we volgens mij wel op een plateau dat nog lang goed zal blijven aangezien DSC nu een beetje breed ondersteunt begint te worden: dat is visually lossless en heeft een compressiefactor van 3x of meer. Ik kan me eigenlijk niet voorstellen dat HDMI dat ook niet gaat ondersteunen, want het betekent dat kabels niet nog dikker moeten worden, en het bespaart stroom.

[Reactie gewijzigd door kiang op 24 juli 2024 17:57]

Ik kan me eigenlijk niet voorstellen dat HDMI dat ook niet gaat ondersteunen
Sterker nog.

Het zit al in de specificaties van HDMI 2.1.

Uiteraard optioneel zoals ongeveer alles aan die standaard.

https://en.wikipedia.org/wiki/HDMI#Version_2.1
Ga je dan 100GB/s handmatig overtypen?
Oef, dat zijn een heleboel eentjes en nulletjes.
Ik kan best snel typen maar dat is voor de Flash nog te snel.
Maar het datagebruik is natuurlijk ook flink gestegen, met grotere textures (vaak zonder extra kwaliteit, maar hogere nummers = meer beter, toch?)
Consumenten: yay meer bandbreedte, sneller gpus voor dezelfde prijs!
Nvidia: yoehoe 128b -> 96b, lagere kosten voor dezelfde prijs!
Dezelfde prijs voor consumenten? I wish.
Vind het wel lachen dat om steeds hogere datasnelheden te halen er nog steeds technieken gebruikt worden waarmee we vroeger onze 300/75 en 2400 modems steeds sneller maakten (QAM en PAM) :P

Op dit item kan niet meer gereageerd worden.