Samsung toont eerste DDR5-chips van 32Gbit die 1TB-modules mogelijk maken

Samsung heeft op vrijdag zijn eerste DDR5-chips van 32Gbit onthuld. Deze chips moet het mogelijk maken om DIMMs te produceren met een totaalcapaciteit van 1TB. Huidige DDR5-geheugenchips hebben capaciteiten van maximaal 16Gbit.

De nieuwe 32Gbit-chips van Samsung hebben daarmee een dubbele capaciteit ten opzichte van huidige DDR5-ic's. Iedere 32Gbit-chip heeft omgerekend een capaciteit van 4GB. Meerdere van die chips worden gecombineerd op geheugen-DIMM's, die vervolgens gebruikt worden in pc's en servers. Samsung produceert de nieuwe 32Gbit-chips op zijn bestaande 12nm-class-procedé. De chips hebben volgens de fabrikant dezelfde omvang als de bestaande 16Gbit-varianten.

Met de 32Gbit-dies kan Samsung onder meer 32GB-modules produceren die bestaan uit acht chips. Het wordt ook makkelijker om DIMM's van 128GB te produceren. Momenteel, met 16Gbit-dies, kan dat alleen door geheugenchips te stapelen met through-silicon via's. Met de 32Gbit-chips is dat niet langer nodig. 128GB-modules met deze nieuwe chips hebben volgens Samsung ook een tien procent lager stroomverbruik. De nieuwe chips maken ook de weg vrij voor servermodules met capaciteiten van maximaal 1TB, zo zegt de fabrikant.

Samsung meldt niet op welke snelheid de nieuwe 32Gbit-chips draaien. Zijn huidige 16Gbit-varianten halen snelheden tot 7200MT/s, schrijft ook Tom's Hardware. De fabrikant begint eind dit jaar met de massaproductie van zijn nieuwe 32Gbit-dies. Het is niet bekend wanneer de chips verwacht kunnen worden in daadwerkelijke producten.

Samsung DDR5 32Gbit
Samsungs nieuwe DDR5-chips van 32Gbit. Bron: Samsung

Door Daan van Monsjou

Nieuwsredacteur

01-09-2023 • 17:44

52

Reacties (52)

52
52
28
0
0
19
Wijzig sortering
Met de huidige 16Gbit chips is het maximum voor unbuffered DIMM's nu 32GB en met 4 sloten is dat dus maximaal 128GB op de desktop.
Deze nieuwe chips maken 64GB DDR5 DIMM's mogelijk waardoor je 256GB op de desktop kunt halen of 128GB met maar 2 modules op een hogere snelheid.

Software is in de loop van de jaren steeds meer geheugen gaan gebruiken.
Ik heb wel meegemaakt dat mijn vorige systeem met een 3570 en 32GB een out-of-memory gaf door de browser.
Zolang je niet het maximum van je CPU of grafische kaart nodig hebt zorgt meer geheugen ervoor dat je langer met je systeem kunt doen.
Elke 3-4 jaar is geheugen goedkoop dus als je daar rekening mee houdt kun je je geheugen maximaliseren voor een prikkie en zo die oude PC nog een paar jaar gebruiken.
Je kosten per jaar vallen dan een stuk lager uit.

[Reactie gewijzigd door Dutchtraveller op 26 juli 2024 22:08]

En welke normale desktop CPU kan meer dan 128GB aan?
Apple M2 Ultra kan tot 192GB
Dat is geen normale desktop CPU, maar een SoC. Zeer waarschijnlijk kan hij nog veel meer aan, maar Apple verkoopt hem niet daarmee. De hele geheugen architectuur bij Apple Silicon is sowieso een geheel andere dan op PC's
Het is een CPU die in een normale consumenten desktop te krijgen is, dus een normale desktop CPU.
Je hebt op zich helemaal gelijk. Maar in het kader van dit artikel betekent het niet veel, of wel? Deze Samsung modules ga je nl. niet in een Apple M2 Ultra kunnen prikken.
Nee, het is veel meer dan een CPU, een prachtig en elegante, veel modernere manier van computerarchitectuur. unified Memory, GPU, Audio en Video, NPU, Geheugencontroler, Encryptie, Thunderbolt, USB en andere controlers en nog meer allemaal geïntegreerd in de SoC. De komende generaties zullen ook Netwerk, Modem, 4G/5G gaan integreren, wat 3 jaar geleden nog een aparte Afterburner kaart (bijna 2000 euro) was voor ProRES zit nu ook geïntegreerd.

[Reactie gewijzigd door Jan Onderwater op 26 juli 2024 22:08]

Het integreren van de northbridge functionaliteiten in de CPU begon al eind jaren 2000, en zit nu in de CPUs van Apple, AMD en Intel. Dus het is gewoon niet waar dat Apple een totaal andere en veel modernere architectuur heeft dan de andere fabrikanten. Het zijn meer detailverschillen dan dat Apple iets totaal anders doet.
Een X86 is technisch gezien ook gewoon een SoC. Hetzelfde gaat op voor GPU's.
https://images.anandtech.com/doci/17585/SoC_19.png

De vergelijking met Apple is prima.
T'is een SOC, maar dan gemaakt met betere koeling in het achterhoofd.
Ze gaan dat pas implementeren als ze dat ook kunnen testen ;) op servers kun je gemakkelijk alle banken vol gooien en dat ding start meestal wel op :)
Xeon heeft dan ook andere geheugen specs dan bv een i9
Ryzen vs EPYC dan maar ;) alleen de controller heeft meer kanalen, beide kunnen ze ECC aan. Meer kanalen = meer aanspreekbaar geheugen
De meeste 192 gb toch, van de huidige generatie? Volgens mij iig Ryzen 7xxx en Intel Core iX 13xxx 😉
Dat is correct, maar alleen de laatste generaties dus, en het is nog steeds geen 256GB.
Het is wel jammer dat ze deze beperking hebben, maar vermoed dat AMD en Intel geen eigen concurrentie willen voor hun Workstation en Server processoren.
Aan de andere kant, heb een i9 met 128GB en ben, ook als ik 4K video monteer en andere programma in de achtergrond heb draaien nog niet er tegen aan gelopen dat ik niet genoeg geheugen had en dat ie begon te swappen.
Omdat de vorige generatie nog geen grote geheugen chips hadden misschien :) zoals ik hier al zei Damic in 'Samsung toont eerste DDR5-chips van 32Gbit die 1TB-modules mogelijk maken'
Als de DDR5 standaard netjes geimplementeerd is (en dat verwacht ik wel) zou dit gewoon moeten werken maar ik verwacht dat je wel een BIOS update nodig hebt.
Menig AM5 bord heeft 192GB in de spec lijst staan (48GB was het grootste op de markt bij introductie)
Dat is met de 13e generatie i9, 12e max 128
Knap dat jij een i9 op een am5 bord draaiend krijgt. Kun je me eens uitleggen hoe je dat voor elkaar hebt gekregen?
Ryzen 7000 en Intel Core-i 12e generatie hoger (alleen met DDR5).

Dan kun je dus tot 256 GB op een desktopbord kwijt.

Ze kunnen nu al 192 GB aan door middel van 24 Gbit chips. Dan kan er max 48 GB op een desktop Dimm.

Ze zullen deze dus ook aan kunnen (al dan niet met een bios-update. (De diepte van de chips in benodigde bits is namelijk gelijk aan die van een 24 Gbit-module.)
Het heeft toch niet zozeer te maken met hoeveel het AANkan? Alle huidige 64-bit CPU's kunnen wel meer dan 128GB aan, alleen is dit artificieel uitgeschakeld zodat server admins zich naar (Veelal duurdere) Xeon's gaan richten.
Uh, het feit dat de chip 64 bit is betekend nog niet dat je een adres bus van die grote hebt hoor. Daar kan wel degelijk een verschil in zitten, en een bredere bus met bijbehorende MMU kost wel wat. Dat is echt niet artificieel.
Nee, niets kunstmatigs. Dingen als page tables voor virtueel geheugen leggen ook beperkingen aan. Daarin staat het verband tussen een fysiek adres en een logisch adres. Niet alleen is de grootte van een fysiek adres beperkt (~48 bits) , ook het aantal fysieke adressen is beperkt.
Een Dell Precision laptop. Dell heeft 128GB op 1 Compression Attach Memory Module (CAMM)
Misschien nu nog geen enkele, maar dat zal wel gaan veranderen als deze config mainstream wordt.

Recentelijk was 16 GB nog genoeg voor gamers, maar dit is al (enkele jaren al) langzaam verschoven naar 32 GB. Het zal nog wel even duren eer dit 64 GB gaat worden en nog een hele tijd wanneer dit 128 GB gaat worden. Ze hebben nog rustig de tijd om die grens op te rekken. Dit geld dan voor gaming-rigs.

Voor content creators kan het niet snel genoeg gaan. Daar kan individueel 128 GB al krap worden. Ga je serieus bezig zijn met 4K of 8K videomontage dan is 128 GB al krap aan het worden. Hun hebben dan de overweging om strak bij te blijven dus deze ontwikkeling is nooit te vroeg.

Echter voor jan modaal is 128 GB meer dan zat de komende jaren.

Met DDR5 is in ieder geval de stap gezet omdat de DIMM's veel meer geheugen kan bevatten. Dus dit is sowieso altijd goed nieuws :)
Misschien nu nog geen enkele, maar dat zal wel gaan veranderen als deze config mainstream wordt.
Ik denk het eerlijk gezegd niet zo snek. Intel en AMD gaan hun hoogprijzige en dikke marge segment van server CPU niet laten bloeden door bv een i9 op de markt te brengen die 8 channel en heel veel geheugen aankan (van 256GB tot vele TB)
Voor content creators kan het niet snel genoeg gaan. Daar kan individueel 128 GB al krap worden. Ga je serieus bezig zijn met 4K of 8K videomontage dan is 128 GB al krap aan het worden. Hun hebben dan de overweging om strak bij te blijven dus deze ontwikkeling is nooit te vroeg.
Ik monteer 4K video, maar mijn 128GB geheugen zijn daar zeker geen Bottleneck.
De filmindustrie werkt trouwens nog veel, heel veel in 2K om het nadat het afgemonteerd is te upscalen naar 4K. 4K renderen koste teveel tijd. Ik denk niet dat 8K zich gaat doorzetten, 4K is meer dan genoeg, je ziet het verschil toch niet. Hiermee bedoel ik niet dat je over een tijdje 8K televisies niet op de markt verschijnen, ik bedoel dat er geen content in 8K gaat komen, net zoals 3D alweer verdwenen is.
Echter voor jan modaal is 128 GB meer dan zat de komende jaren.
Voor de allermeeste use cases in het overkill
Dit doelt ook op de server markt.
Geen idee wat jij met zoveel geheugen moet.
Heb hier stikjes ddr3 liggen van 64GB per stuk, dat was er toen al. Geen idee hoever ddr5 nu al is.
Ik krijg die 128GB makkelijk vol door draaien test installs voor analytics software. Soms wil je ook meerdere VM's naast elkaar draaien om een cluster te bouwen/testen. Dan komt 128GB dus van pas.
Min werkstation heeft 3.5 TB dat krijg je met een paar VMs niet vol, alleen zeer speciale workload zoals ai.
128GB is in een werkstation niet zo speciaal meer.
In desktop daartegen, totaal overkill

[Reactie gewijzigd door itcouldbeanyone op 26 juli 2024 22:08]

De meeste mensen hier hebben een desktop systeem vandaar mijn toelichting specifiek voor de desktop.
Dat mis ik in het artikel.
De nieuwe chips maken ook de weg vrij voor servermodules met capaciteiten van maximaal 1TB, zo zegt de fabrikant.
Werkt dat dan ook op bestaande AM5 moederborden die nu nog tot 128 GB ondersteunen?
Ik gebruik een ASUS ProArt X670E-CREATOR WIFI met een 7950X en 128 GB ram als Proxmox host voor mijn homelab.
Daar zou best nog eens 128 GB bij mogen als dat op een later moment kan.
De DDR5 standaard support die's t/m 64Gbit dus nog 2x zo groot als deze.
Zolang het MB netjes alle adreslijntjes heeft zou dit met alleen een BIOS update mogelijk moeten zijn.

Met ProxMox en soortgelijke toepassingen is het wel fijn om meer RAM te hebben.
Inderdaad.

Het kan zelfs zijn dat ze al werken als je de bios-update van de 24 Gbit-chips er al op hebt staan.
Als dat het maximum is, hoe kan het dan dat ik deze kit zie: de Corsair Vengeance Corsair
uitvoering: Corsair Vengeance RGB CMH192GX5M4B5200C38 4 reepjes, 48GB per reep, mét RGB. Lijkt me toch echt voor desktops. Is ook een non-rgb versie van, en het is aardig aan de prijs, maar het is meer dan de 32GB die jij aangeeft. Doet Corsair dan iets wat eigenlijk niet kan? (Oprecht geinteresseerd, ik had geen benul van enige limiet per module)
--- ah, nou snap ik het: DDR4 kan maximaal 32GB per DIMM zijn, DDR5 kan al theoretisch tot 64GB per reepje. De limiet die jij stelt geldt dus voor DDR4.

[Reactie gewijzigd door MarcelG op 26 juli 2024 22:08]

Die zijn niet gebaseerd op 16Gbit die's (chips) maar op 24Gbit die's, een tussenstap.
Versimpelde uitleg:
Er is een maximum aantal chips op een DIMM wat unbuffered kan worden aangestuurd (anders wordt de geheugenbus te zwaar belast).
In de praktijk zijn dat er 16 (of 18 voor ECC op DDR4).
8 op de ene kant en 8 op de andere kant.

Hoe meer chips er op 1 lijntje worden aangesloten hoe lastiger het is om hoge frequenties te behalen.
Bij DDR5 zie je dat de maximale frequenties met 2 DIMM's per channel een stuk lager liggen.
De snelheidswinst van DDR5 gaat dan deels weer verloren.
Daarom is het interessant om 2x64GB te kunnen gebruiken i.p.v. 4x32GB.
Je kunt dan veel hogere frequenties halen.

In servers wordt meestal gebruik gemaakt van gebuffered geheugen a.k.a registered.
Er zitten extra chips op de DIMM's die het signaal bufferen en versterken zodat er meer chips kunnen worden aangestuurd.

[Reactie gewijzigd door Dutchtraveller op 26 juli 2024 22:08]

Ik heb voor het werk toegang tot 8TB servers. De workloads die dat nodig hebben zijn voor ons sporadisch. De meeste jobs hebben genoeg aan 32 GB, maar hebben wel veel baat bij hoge core counts

[Reactie gewijzigd door divvid op 26 juli 2024 22:08]

Hoeveel reepjes geheugen zijn dat dan ?
Meeste wat ik heb staan en tegen kwam is met 96 dimm sloten
Het is nog altijd goedkoper om meteen ruim voldoende geheugen te nemen, dan hoef je niet bang te zijn dat nieuw geheugen niet compatible is met het oude geheugen.
Dat is ook mijn standaard aanpak, ik koop nieuwe systemen wanneer de geheugenprijzen laag zijn.
Maar de meerderheid zal een bestaande PC hebben waar nog geheugen bij kan.
Nu is een goed moment om te upgraden en zo de bruikbare levensduur van je PC te verlengen.
Het hangt natuurlijk van meer factoren af.
Hoeveel tabbladen heb je dan openstaan om die 32GB vol te krijgen?
Ik schat >120, verspreid over meerdere browsers.
Maar ik draai ook nog VM's dus het zijn niet alleen de browsers.
Maar daar merk ik het in de praktijk.
heerlijk. Ik moet even denken aan de tijd dat ik met mijn zuurverdiende guldens 4 miserabele MB's aan geheugenreepjes kocht voor een 386. En nu heeft één zo'n chipje van het een reepje daar een factor 1000 van. Mooi werk!
De kosten daarvan achtervolgen me nog steeds. Ik ging net naar de uni en dacht dat ik het nodig had. Achteraf nog verspilt geld geweest ook. 8 MiB voor 1000 gulden toendertijd, een kapitaal. Och, ik heb het met mijn IT job nu wel terugverdient. Nu draai ik op 64 GiB, vooral omdat het kan - kosten misschien 250 euro ofzo.
In die tijd was geheugen in verhouding met nu fors duurder, PC,s hadden toen ze nieuw uit de winkel kwamen al te krap werkgeheugen.

Net als L2 cachegeheugen was bijna onbetaalbaar en zo ook grafische kaarten je zag daarom ook grafische kaarten die je later nog meer werkgeheugen kon geven.

Kan mij Windows 98 met 32mb ram nog herinneren dat was ook veel te krap en ontzettend veel pc,s werden verkocht met Windows 95 en 4mb geheugen, draaide ook voor geen meter, laatste keer dat wij dat meegemaakt hebben is bij Vista.

[Reactie gewijzigd door mr_evil08 op 26 juli 2024 22:08]

Dit soort chips zijn dan niet bedoeld voor de consumentenmarkt en dan puur gericht op servers, maar toch zou ik mij wel een gebruikerscenario kunnen vorostellen bij b.v. 128 GB chips door het volledige OS in het interne geheugen te kunnen laden. Vooral dan nu in combinatie met snelle ssd's zou dit ook qua opstart niet lang hoeven duren en dan best wel voor hoge snelheden kan zorgen door die directe toegang.
Er staat toch echt in het artikel: "...die vervolgens gebruikt worden in pc's en servers."
Dus niet alleen servers maar ook consumentenmarkt, lijkt mij.
Alleen het zal voorlopig een niche zijn. Lijkt mij beetje overkill voor Starfield of Cyberpunk 2077.
Maar voor contentcreators en mkb of zo iets...
Dus niet alleen servers maar ook consumentenmarkt, lijkt mij.
Ik denk dat dit alleen voor de 32 GB en de 128 GB dimms geld maar niet voor de 1 TB dimms. De 128 GB dimms zullen denk ik inderdaad nog wel een niche zijjn maar de 32 GB denk ik weer minder. Kan heel handig zijn in b.v. mini-ITX systeempjes met maar 2 dimm slots.
De nieuwe chips maken ook de weg vrij voor servermodules met capaciteiten van maximaal 1TB, zo zegt de fabrikant.
Dat bevestigd eigenlijk wel dat de 1 TB versies niet voor de consumentenmarkt bedoeld zijn.
Bij DDR5 loopt 4 geheugensloten niet altijd helemaal lekker, dan zit je vast aan 2 geheugensloten, daarnaast behoorlijk veel moederborden hebben niet meer dan 2 geheugensloten zoals ITX bordjes.
Wij (de desktop gebruikers) gaan hier ook al profijt van hebben. Op een desktop is 64 GB aan geheugen wel aardig genoeg, maar bij serieuze workloads zoals 4K video renderen en bewerken heb je meer dan 128 GB nodig. Deze ontwikkeling is zeer positief en hopelijk zet het door. Voor AI rendering kan de hoeveelheid aan RAM nooit genoeg zijn. De vraag is of ze het kunnen bijbenen? Gaat AI sneller meer power eisen dan de groei aan steeds snellere chips kan bijbenen? Dan gaan ze wel minen.
Hoewel ik het met je eens ben dat wij als desktop gebruikers hier ook al profijt van hebben, herken ik niet het beeld dat je nu al meer dan 128 GB nodig zou hebben bij 4K videobewerking. Ik heb nu 64 GB in mijn workstation zitten, maar het is me met stevige 4K workloads in Adobe Premiere Pro nog nooit gelukt om de volle 64 GB aan te spreken. Ik sta op het punt om 64 GB bij te plaatsen (de prijzen zijn nu prettig laag), maar dat is meer bedoeld voor toekomstvastheid dan dat ik het nu al nodig heb.

Op dit item kan niet meer gereageerd worden.