Kingston en G.Skill komen met Cudimm-geheugenmodules voor Intel Ultra 200-cpu's

Kingston en G.Skill hebben hun Cudimm-geheugenmodules aangekondigd. Eerstgenoemde komt met de Fury Renegade DDR5 Cudimm en G.Skill toont de Trident Z5 CK. Deze modules zijn compatibel met Intels nieuwe Core Ultra 200-cpu's en moeten voor hogere kloksnelheden zorgen.

De Cudimm-geheugenmodules van Kingston kunnen volgens de fabrikant een minimale overkloksnelheid van 8400MT/s behalen, maar de fabrikant geeft geen indicatie van de maximale snelheid bij het overklokken. Standaard ondersteunen ze 6400MT/s. Gebruikers kunnen kiezen uit een enkele module van 24GB ram, of een dualchannelset met 48GB geheugen. De Cudimms zijn verkrijgbaar in het zilver of wit, met optioneel rgb-verlichting. Kingston brengt zijn Fury Renegade op 18 november uit.

De Trident Z5 CK kan volgens G.Skill overklokt worden tot maximaal 9600MT/s. De 24GB-DDR5-modules worden enkel in een set van twee verkocht. Naast de reguliere versie komt er ook een model beschikbaar met een rgb-lichtbalk. Deze Cudimms komen deze maand nog beschikbaar. Beide fabrikanten hebben geen prijzen bekendgemaakt voor hun geheugenmodules.

De Clocked unbuffered dual in-line memory modules zijn compatibel met Intels Core Ultra 200-processors en Z890-moederborden. Cudimms bevatten een geïntegreerde clockdriverchip, waarmee het makkelijker wordt om hoge klokfrequenties voor het geheugen te bereiken. Ze werken ook voor oudere DDR5-platforms, maar kunnen deze extra functie dan niet benutten. Naast Kingston en G.Skill hebben diverse andere fabrikanten, zoals Adata en Crucial, eerder al Cudimm-modules aangekondigd. Tweakers schreef donderdag een review van Intels nieuwe desktopprocessors.

Kingston FURY RenegadeG.Skill Trident Z5 CK

Door Kevin Krikhaar

Redacteur

24-10-2024 • 19:36

30

Reacties (30)

30
30
14
2
1
16
Wijzig sortering
Zijn MT/s hetzelfde als GHz? Mijn eigen RAM zegt 5200 MHz op de doos, maar 5200 MT/s in taakbeheer. Is het 1:1 vergelijkbaar? Zo ja, dan is 9600 MT/s wel poepie snel zeg.
Er is al uitgelegd dat het aantal MT/s twee keer zo hoog is als de klokfrequentie, maar nog niet waarom. Dus bij deze:

Op papier zijn computers digitaal, maar in de praktijk zijn ze schrikbarend analoog. Een signaal kan niet direct van 0 naar 1 gaan, net zoals je een emmer niet in 1x van leeg naar vol kan vullen. Als je een emmer sneller wil vullen, heb je een kraan nodig met een hogere doorvoor. Ook moet je de kraan sneller kunnen sluiten (of openen), waardoor de in beweging zijnde water in de waterleiding ineens tot stilstand moet komen. Als het water eenmaal in de emmer komt, zal het ook nog flink heen en weer klotsen.

Elektronica is ongeveer hetzelfde. Je wil altijd de "rise time" van je signaal zo laag mogelijk houden. Idealiter is je signaal vergelijkbaar met een sinusgolf. De frequentie van de sinusgolf met dezelfde rise time als jouw signaal is de frequentie van jouw signaal. De frequentie is daardoor niet per definitie het aantal bits per seconde: een signaal dat heel af en toe van 0 naar 1 gaat met een enorm snelle rise time heeft alsnog een hele hoge frequentie! Bij het ontwerp van de chips en PCBs is de frequentie van het signaal cruciaal, dat bepaald hoeveel moeite je moet steken in het ontwerp.

Maar hoe is dit relevant voor DDR?

Traditioneel bestaat een bus uit een aantal datapins en een klokpin. Hardwarematig is het erg makkelijk om de datapins te lezen of schrijven bij een overgang van de het kloksignaal van laag naar hoog (rising edge). Het nadeel is dat de frequentie van het kloksignaal dan twee keer zo hoog moet zijn als de frequentie van het datasignaal! In de tijd dat een datasignaal van laag naar hoog gaat, moet het kloksignaal namelijk hoog-laag-hoog-laag gaan. De oplossing is om het datasignaal door te sturen op zowel een hoog-laag als een laag-hoog overgang. Hierdoor heb je voor iedere klokcyclus twéé data-transfers. Dit diagram geeft het verschil duidelijk weer.

Om dit verschil duidelijk te maken, spreken we dus over "MegaTransfers". Bij MegaHerz zou het namelijk zowel over het aantal datasignaal-overgangen per seconde als over de klok- en signaalfrequentie kunnen gaan, en dat zorgt voor verwarring.

[Reactie gewijzigd door laurxp op 25 oktober 2024 12:31]

Mooie uitleg en de analogie met wateremmer/kraan! Welke snelheid zou jij aanraden voor deze Arrow Lake generatie? Zodat gebruikers van een 265K, 285K voor iets kunnen gaan wat niet onnodig traag is en een bottleneck vormt, maar wat tegelijkertijd ook niet zo overgeklokt hoeft te worden dat het voor instabiliteit veroorzaakt in de real world. Mijn gevoel zegt:

Ondergrens: alles vanaf 6400 MT.
Bovengrens: alles tot 9600 MT.
Welke snelheid zou jij aanraden voor deze Arrow Lake generatie?
Dat laat ik aan een andere commenter over. Ik geef meer om de techniek en natuurkunde dan om de daadwerkelijke hardware, en ik heb geen flauw idee wat de huidige meta is voor overclocking. Ik game niet, dus een stabiel systeem en toekomstbestendig tegen een betaalbare prijs is voor mij belangrijker dan een maximale overclock.
Nee Dubbel Data Rate (DDR) betekend 5200Megatransfers per seconde en dus 2600MHz(2,6GHz).
9600MT/s is dus 4300MHz oftewel 4,3GHz. Het is altijd 1:2.
klein rekenfoutje, 2 x 4300 = 8600.

9600 / 2 = 4800.
Nee het is DDR (double data rate) dus je moet het door 2 delen. Vandaar MT/s.
Ja maar dan zonder de 'redriver' chip te gebruiken. Dat is alleen (nog) voor Intel weggelegd op dit moment.
Het is geen redriver, het is een clock buffer. Deze zit fysiek tussen de CPU en de individuele geheugenchips, dus bij definitie zal deze chip ook actief zijn in een AMD-systeem - hoewel wellicht niet met de ideale instellingen.

DDR5 heeft een databus met een breedte van 64 bits. Op een traditioneel geheugenstickje zijn dat fysiek bijvoorbeeld 8 chips, die elk verantwoordelijk is voor een 8-bit breed stukje van de databus. Iedere chip heeft dus zijn eigen dataverbinding direct naar de CPU, waardoor er superhoge snelheden te halen zijn.

Maar, er moeten ook controlesignalen naar de module gestuurd worden - en deze moeten naar alle chips gaan. Hierdoor moet de CPU op deze pins niet één chip aansturen, maar acht! Dit zorgt voor een hogere belasting, en het indirecte signaal is gevoeliger voor dingen als interferentie en reflecties. En tot overmaat van ramp komt het kloksignaal ook nog eens op nét wat andere momenten aan bij de individuele chips...

Bij consumenten-geheugen maken ze nu dus gebruik van een "Client Clock Driver (CKD, vraag mij niet waar de K vandaan komt)". Dit is een chip die het kloksignaal ontvangt van de CPU, stabiliseert, en vermengvuldigt naar de individuele geheugenchips. Hierdoor hoeft de CPU maar één chip aan te drijven in plaats van acht, en de geheugenmodule kan zelf compenseren voor de fysieke lengte van klokbron naar geheugenchip. Ook is het minder gevoelig voor verstoringen: de CKD heeft een eigen interne klok, die net als een schommel iedere keer een "zetje" krijgt van de CPU-klok. Daardoor lopen ze in fase en frequentie gelijk, maar hebben kleine variaties op de klok-invoer geen invloed op het uiteindelijke kloksignaal.

De andere controlepins spelen met hetzelfde verhaal, maar zijn veel minder kritiek. Hoewel er maar één inkomend kloksignaal is, is DDR5 intern onderverdeeld in twee subkanalen van 32 bits. De controle-signalen hoeven daardoor maar naar de helft van de chips te gaan - en zijn sowieso al minder storingsgevoelig dan het kloksignaal. Maar bij grotere geheugensticks voor servers is dit alsnog een probleem. De modules zijn ineens 72 bits breed (de extra bits zijn voor ECC) en gebruiken daardoor 5 ipv 4 chips, én er is vaak een tweede setje chips voor extra capaciteit (een extra "rank"). Die signalen moeten ineens niet naar 4 chips, maar naar 10! De oplossing is de "Registering Clock Driver (RCD)" van DDR5 RDIMMs. Dit is in essentie een CKD, maar die óók werkt als repeater voor de controlesignalen. Bij de dual-rank geheugenmodules zitten de data-pins van de twee ranks aan elkaar verbonden: er is steeds maar één rank actief, hoewel de inactieve rank alsnog voor wat extra belasting van de drivers zorgt. In het ideale geval zitten de twee ranks niet boven elkaar zoals in de illustratie, maar op de voor- en achterkant van de module. Hierdoor is de extra afstand naar de tweede chip minder dan een millimeter.

Dual-rank geheugen kán je overigens gebruiken zónder RCD - mits je rekening houd met de extra busbelasting. Voor consumentenbordjes kan het bijvoorbeeld interessant zijn om twee dual-rank modules van elk 16G te gebruiken in plaats van vier single-rank modules van elk 8G: de traces tussen de twee module-slots zorgen voor vrij veel storing. Zie bijvoorbeeld deze specs van een willekeurig moederbord:
Max. overclocking frequency:
1DPC 1R Max speed up to 6666+ MHz
1DPC 2R Max speed up to 5600+ MHz
2DPC 1R Max speed up to 4000+ MHz
2DPC 2R Max speed up to 4000+ MHz
1DPC 2R is dus duidelijk een stuk beter dan 2DPC 1R - zelfs als je fysiek precies dezelfde chips gebruikt! Intel gaat tegenwoordig zelfs zo ver dat de aanwezigheid van het tweede setje geheugenslots (zelfs als ze leeg zijn) al een snelheidsbeperkende factor is. Het is ineens dus een héél stuk aantrekkelijker om een moederbord te kopen met slechts twee geheugenslots. Je levert weliswaar wat uitbreidingsmogelijkheden in, maar je krijgt er extra snelheid voor terug.

Maar het kan altijd nog erger. Er zijn ook modules met vier ranks. Combineer dat met twee modules per geheugenkanaal, en je hebt ineens een enorme belasting op de data-pins. DDR5 LRDIMM lost dit op met een data buffer op de geheugenmodule. De vier ranks hebben allemaal een verbinding naar de buffer, maar van de buffer gaat er maar één signaal naar de CPU. Dit verminderd de bus-belasting met 75%.
De K komt denk ik van Clock; op veel pinouts wordt dat afgekort tot CLK of CK. Eigenlijk zou dit dus een CCKD zijn, maar blijkbaar schrappen ze de dubbele C.
Ik dacht dat 2 sticks per channel in dual-channel (4 in totaal) juist voor lagere latency kon zorgen vanwege interleaving? Of sla ik nou compleet de plank mis?

[Reactie gewijzigd door MrFax op 25 oktober 2024 09:48]

Eh, ja en nee.

Geheugen heeft tijd nodig om de commando's te verwerken. Het is niet alsof je een adres stuurt en de volgende klokcyclus de data terug krijgt. Je moet eerst een stuk van het geheugen selecteren, wachten, en dan pas kan je data lezen uit dat stukje geheugen.

Het voordeel van twee sticks per channel is dat je in deze wachtperiode een tweede commando naar de andere stick kan sturen. Hierdoor is de maximale doorvoer in gigabytes per seconde hoger. Dit is superhandig voor bijvoorbeeld servers, waar je tientallen onafhankelijke requests tegelijkertijd aan het afhandelen bent. Het maakt niet héél veel uit wat de verwerkingstijd van een individueel request is, het is veel belangrijker hoeveel requests je per seconde kan verwerken.

Het nadeel is dat de latency hetzelfde blijft (of zelfs hoger is). De tijd tussen het sturen van bijv. een leescommando en het krijgen van de data is niet lager, je bent alleen de wachttijd beter aan het benutten. Dat is vooral een probleem als een volgende operatie afhankelijk is van het resultaat van de eerste. Denk bijvoorbeeld aan een object dat verwijst naar een ander object. Je moet eerst object 1 uit het geheugen lezen voordat je weet wat het adres is waar je object 2 kan ophalen.

Als de latency belangrijk is, heeft het meer zin om de geheugenfrequentie omhoog te gooien. Hoewel de tijd tussen commando en begin van het resultaat hetzelfde blijft, is de geheugenmodule bij een hogere frequentie in staat om het gehele resultaat sneller naar de CPU te sturen. Je leest namelijk niet één byte, maar een hele "cache line" van 64 bytes die achter elkaar binnenkomt. DDR4 heeft bijvoorbeeld een "burst length" van 8: de data-bus is 64 bits breed, waardoor het uitlezen van een cache line van 64 bytes (512 bits) acht klokcycli duurt. De CPU kan het resultaat pas verwerken als de hele cache line binnen is gekomen, dus met een hogere geheugenfrequentie is de totale latency lager. DDR5 maakt dit nog een stuk erger door de module te verdelen in twee subkanalen van 32 bits breed, waardoor je een burst length van 16 clockcycli hebt.

En zoals al besproken kan je met 1-stick-per-channel op een hogere frequentie werken dan met 1-sticks-per-channel. Dus interleaving zorgt eigenlijk voor een hogere latency.
Cudimms bevatten een geïntegreerde clockdriverchip, waarmee het makkelijker wordt om hoge klokfrequenties voor het geheugen te bereiken.
Maar de CPU spreekt toch alleen het geheugen aan als hij dat zelf nodig heeft en op de tikken van de CPU zelf?

Als de klokticks van het geheugen niet gelijktijdig lopen met de CPU, dan kan het toch zijn dat de data incorrect gelezen wordt?
Intern moet het geheugen constant de cellen verversen. In feite zijn het condensatoren met wat transistoren. Die condensatoren lopen leeg dus is de interne controller heel de tijd aan het uitlezen en terug schrijven.
De IMC(integrated memory controller) heeft een eigen clock.

[Reactie gewijzigd door equit1986 op 24 oktober 2024 20:07]

Als de klokticks van het geheugen niet gelijktijdig lopen met de CPU, dan kan het toch zijn dat de data incorrect gelezen wordt?
Het geheugen heeft geen onafhankelijke klok. Het krijgt alsnog een kloksignaal van de CPU, de clockdriverchip zal synchroon met deze inkomende klok draaien. Het doel is om te werken als buffer tussen de CPU en de individuele geheugenchips: het is véél makkelijker voor de CPU om een kloksignaal te sturen naar één clockdriverchip dan naar alle 8 geheugenchips van de geheugenmodule.

Daarnaast zijn er wat leuke trucjes uit te halen om het kloksignaal op te schonen, en om er voor te zorgen dat het kloksignaal op hetzelfde moment aankomt bij de geheugenmodules: zo kan je een apart kloksignaal naar de "buitenste" chips sturen dat voorloopt met precies de tijd die het signaal nodig heeft om van de clockbuffer naar de buitenste chips te reizen.

Overigens hoeft de klok van de CPU-core zelf niet per sé gelijk te lopen met de geheugencontroller. Een overgang tussen verschillende "clock domains" is niet héél lastig - vooral als het een simpele 1:2 verhouding is. Bij de vroege Ryzen CPUs was het een dingetje dat je geheugen op een lagere frequentie draaien kon zorgen voor een snellere computer: de interne databus kon óf op een snelheid draaien die gelijk was aan de externe geheugeninterface, óf op de helft van de externe geheugeninterface. En er zat een limiet op de maximumsnelheid van de interne databus. Je kon bijvoorbeeld (hypothetische nummers) beter je geheugen draaien op 4000MHz met een interne databus op 4000MHz dan je geheugen op 4500MHz met een interne databus op 2250MHz. Om de interne bus weer op snelheid te krijgen moet je geheugen dan ineens op 8000MHz draaien! Dit zorgt voor een "dal" waarin sneller geheugen vrij weinig voordeel bied.

Met een nette 1:2 (of 1:3, 1:4, ...) ratio voorkom je een lastige clock domain crossing. Zo'n CDC is geen probleem met langzame signalen en lage frequenties (zelfs een €0.03 chip heeft hier geen problemen mee), maar als het gaat om een retesnelle high-bandwidth low-latency bus in een CPU is het een ander verhaal. Je kán ook op bijv. een 2:3 (of zelfs een 1:3.14152) ratio draaien, maar de vraag is of je het wíl. Data overzetten tussen verschillende "clock domains" is een vrij complex dingetje.
Als je nu niet wil overklokken, heeft dit geheugen dan enig voordeel?
Correct me if I'm wrong, maar meestal is overklokbaar geheugen hetzelfde geheugen dat in staat is tot strakke timings qua latency op zijn default speed.
Laat de timings wat losser en je kan de snelheid omhoog gooien, laat je het op default speed, kan je meestal strakke timings aanhouden.

Of jouw systeem of de applicaties die jij gebruikt daar baat bij hebben, dat is dan een tweede natuurlijk, maar afgezien van dat kan ik geen ander mogelijk voordeel bedenken.
Ja, de Intel Ultra 200-cpu is gespecificeerd op maximaal 6400MT, maar dat is alleen voor CUDIMMs. Voor UDIMMs is het 5600MT.

Je bent dus aan het overklokken als je UDIMMs op 6400MT draait met een Intel Ultra 200-cpu.
Hangt er vanaf of je de reepjes koopt of juist verkoopt :)
Er zit sowieso standaard XMP op .. :)

* Intel® Extreme Memory Profile (Intel® XMP) - Overclocking
Volgens mij "reclocked" the driver alleen het bus signaal, en heeft dit niks te maken met cpu clocks, maar met memory clocks en de integriteit daarvan (door de afgelegde afstand op bijvoorbeeld de moederbord "traces").

Ik zit er vast behoorlijk naast maar zie er naar uit te leren hoe het exact zit.
dit is fijn te weten dat we we ram kunnen gebruiken voor de nieuwe intel cpu's ik denk wel dat deze ram sticks wel voor high-end build zijn dan voor goedkopere builds
btw, waarom is dit zo'n big news topic? De vorige generaties Intel cpus waren ook al compatible met cudimms, wat is er zo speciaal aan die nieuwe intel cpus dat ram compatibility nieuwswaardig is?
Dat zowel de Kingston FURY UDIMMs met XMP als EXPO compatibel zijn met moederborden uit de Intel 800-serie .. ;)
ze gaan per 2 bankjes, maar zou het nog steeds problemen geven, of ongewenste stabiliteit issues hebben als je 4 bankjes gebruikt?
4 bankjes is altijd langzamer dan 2 bankjes. Geheugen is tegenwoordig zelfs zó snel dat de fysieke aanwezigheid van twee extra slots zelfs als ze leeg zijn al zorgt voor snelheidsbeperkingen.

Dat is (onder andere) waarom CAMM2 is uitgevonden: de signalen zijn een stuk simpeler om retesnel bij de geheugenmodule te krijgen. Momenteel al een no-brainer met LPDDR5 voor laptops, in de nabije toekomst ook een dingetje voor hardcore overclockers met desktop DDR5.
Waarom zou het
ongewenste stabiliteit issues hebben
als je 4 bankjes gebruikt ?

Heb met al mijn desktop builds ooit gebouwd altijd al 4 slots gebruikt, overclockable of niet. Zodat ik altijd het maximum aan RAM op mijn mobo kon installeren. Nooit enige hinder van ondervonden.

(Heb me wel altijd aan de ongeschreven wet gehouden opeenvolgende nummers van RAM modules of RAM modules die in 1-pack zitten te kopen).

LET WEL OP - Met 4 modules ga je nooit zo'n hoge snelheid kunnen halen als met 2 modules, dus moet je kijken welke RAM modules je aankoopt en welke snelheid deze halen en wat je mobo ondersteund. Ga je voor minder RAM en een hogere snelheid, neem je gewoon 2 snellere RAM modules tot wat je mobo hiervoor ondersteund. Wil je meer RAM, dan koop je 4 RAM modules met een lagere snelheid. Staat normaal altijd duidelijk bij de specificaties van je mobo vermeld op de website van de fabrikant wat er allemaal ondersteund wordt en welke como's je kunt installeren.


.

[Reactie gewijzigd door MPIU8686 op 25 oktober 2024 09:46]

Misschien interessant om even te vermelden .. ;) (stond niet in het artikel vermeld)

Dat deze allen XMP ondersteunen

* Intel® Extreme Memory Profile (Intel® XMP) - Overclocking


En dat de Kingston FURY UDIMMs met zowel XMP als EXPO compatibel zijn met moederborden uit de Intel 800-serie

* AMD Extended Profiles for Overclocking (AMD EXPO™)
Since CUDIMMs and UDIMMs share the same 288-pin connector, Kingston FURY UDIMMs with XMP
and EXPO profiles are also compatible with Intel 800-series motherboards.
Omdat CUDIMM's en UDIMM's dezelfde 288-pins connector delen, zijn Kingston FURY UDIMM's met XMP en EXPO-profielen ook compatibel met moederborden uit de Intel 800-serie.


.

[Reactie gewijzigd door MPIU8686 op 25 oktober 2024 09:36]

Op dit item kan niet meer gereageerd worden.