Black Friday = Pricewatch Bekijk onze selectie van de beste Black Friday-deals en voorkom een miskoop.

Adata toont rammodule van 128GB voor consumentenmoederborden

Adata kondigt een rammodule met een capaciteit van niet minder dan 128GB aan voor consumentenmoederborden. De sticks met CUDIMM‑formfactor werken onder andere op MSI's Z890‑moederborden stabiel op 5600MT/s. Dat komt goed van pas voor het draaien van de nieuwe WhatsApp-client op Windows.

Adata schrijft in een persbericht dat het samen met MSI de eerste CUDIMM-geheugenmodules uitbrengt met een capaciteit van 128GB met een 4-ranksarchitectuur. De vier groepen geheugenchips vormen samen die hoge geheugencapaciteit in een DDR5-formfactor, die de stick ook geschikt maakt voor consumentenhardware.

De fabrikant zegt met MSI samen te werken om de 4-RANK DDR5 5600 CUDIMM Memory Module, zoals het apparaat officieel heet, compatibel te maken met moederborden van dat bedrijf. De module kan in een dubbele configuratie worden geplaatst voor een totale capaciteit van 256GB. Dat kan in een MSI-moederbord voor Intels Z890-platform, al zijn die moederborden nog niet beschikbaar. Zodra ze verschijnen, is het mogelijk twee ramsticks te installeren en snelheden van 5600MT/s te halen.

Volgens Adata is dat onder andere handig om grote AI-modellen ook lokaal te draaien of zware videobewerking te doen. Een prijs is niet bekend; Adata noemt die niet. Samsung maakte onlangs bekend dat de prijs van geheugenmodules flink stijgt. Een ruwe schatting komt uit op rond de 3000 euro voor een dergelijke kit.

Adata Cudimm 128GB

Door Tijs Hofmans

Nieuwscoördinator

14-11-2025 • 15:38

21

Reacties (21)

Sorteer op:

Weergave:

Leuke kit voor lokale ai, voor bedrijven tenminste want ik zie weinig particulieren dit bedrag neertellen
https://www.reddit.com/r/interestingasfuck/comments/173siv8/the_specs_of_a_5995_computer_in_1980/

In 1980 betaalde je bijna $6000 voor een computer met 64 kb RAM. Als je dat vergelijkt met de prestaties per € van vandaag de dag is dat natuurlijk lachwekkend. Over nog eens 40 jaar doet men het zelfde met deze RAM modulen.
Dat zou kunnen ja. Maar misschien ook niet. Vergelijk eens de progressie van 1980 naar 1995, van 1995 naar 2010en van 2010 naar 2025... Ik denk dat de noodzaak van vernieuwen steeds kleiner is geworden. Eerlijk is eerlijk, als ik nu MOET werken op een Windows 7 machine dan vind ik dat prima. (release 2009). Als je in 1995 (toen iedereen over ging op Windows 95) nog al je werk wilde doen op een commodore (niet de 64!) of een voorloper van de MSX... Heel veel sterkte.
Waar de computer vroeger traag was, is het systeem tegenwoordig ook traag. Voordat ik kan beginnen met browsen moet Firefox geïnstalleerd worden, ublock origin, een VPN, een extensie om cookies geautomatiseerd uit te zetten en een virusscanner, maar het liefst wel eentje zonder opdringerige pop-ups.
En tegenwoordig moeten we ook kijken hoe we kunnen voorkomen dat Microsoft ons "verplicht" wil in laten loggen. Misschien ook maar iets installeren om telemetrische dataverzameling wordt voorkomen ...
Lang leve platformverval ...
Ligt eerder aan je computer / os. Op mijn mac doe ik dat in 5 sec. Alles gaat snel en automatisch aan en mijn mac wordt alleen herstart bij een update
Precies hetzelfde als mijn Windows PC hoor, niks aan de hand.
Denk het eerlijk gezegd niet, omdat we tegen natuurkundewetten aanlopen. We gaan al produceren op 2nm procedé en er wordt nu al actief geïnvesteerd in 3D RAM. Met zulke innovaties kunnen we natuurlijk wel verbeteringen blijven zien, maar het gaat echt m.i. niet meer zo snel als vroeger.

[Reactie gewijzigd door Dekar op 14 november 2025 17:11]

Zou leuk zijn als een APU zulke grote aantallen kon gebruiken maar daar is het allemaal vastgesoldeerd.
Dit geheugen in dual channel is toch gewoon VEEL te traag voor lokale AI? Ja, je kan grote LLM's in RAM laden. Maar inference gaat gewoon zo traag zijn dat je uiteindelijk toch maar weer voor een kleiner model gaat.

Ze hebben het trouwens alleen maar over 2 van deze reepjes, niet 4. Misschien dat 4 dus zelfs niet kan. Dus als je een moederbord hebt met 4 geheugenbankjes heeft dit nieuwe RAM totaal geen toegevoegde waarde, want dan neem je 'gewoon' 4x64GB.
Nou nog in SO-DIMM format, en een geldboom in de tuin. }>

In SO-DIMM zou het fantastisch zijn voor mijn homelab. Nu met 2 nodes op basis van Minisforum BD795M, elk met 128GB. Als daar 256GB op zou passen dan kan ik een hele node uitschakelen.

De CPU (AMD 7945HX) ondersteunt volgens de specs maar 64GB, maar werkt helemaal prima met 128GB.
wat gebruik je in je homelab dat zoveel geheugen vraagt? LLM ?
Ieder heeft z'n use-cases, heb zelf ook 4x32GB en een enkele WinRAR instantie kan al voor zichzelf 96GB ram opslokken bij comprimeren van grote bestanden en grote dictionaries. meerdere virtuele machines, meerdere games tegelijk, video's tegelijkertijd encoderen e.d. en dan is overigens ook zoveel ram fijn als cache voor schrijf en leesacties vanaf met name HDDs, hoef ik ook niet zo lang naar een kopieer scherm te staren als de eerste enkele tientallen gigabytes al met 6GB/s door de buffer heengaan en het mooi in de achtergrond verder verwerkt. Ben alleen niet de persoon die 100en tabs in de browser open laat, maar dat vreet ook VRAM. Als ik een 1440P gifje wil maken van een 1440P 60fps video kan FFMPEG door alle frames eerst in het RAM op te slaan ook soms +110GB ram vreten. :D
Ik werk voor een software fabrikant. In mijn homelab emuleer ik veel systemen, inclusief nested hypervisor clusters (vSphere, Proxmox, Hyper-V, oVirt, XCP-ng, HPE VM Essentials), Kubernetes nodes, meerdere versies van onze software (Windows en Linux-based), data repositories, storage systemen van diverse vendors. Sommige daarvan vreten geheugen (een dedupe appliance die 36GB minimum vereist 8)7 ).

Daarnaast ontwikkel ik zelf ook nog e.e.a. aan software for tape systemen (VTL, library automation). Dan nog wat infra- en test VMs, en het telt flink op.
Voordeel is dat je straks inderdaad rond de ~120 WhatsApp vensters kan open hebben. :)

Serieus hoop ik ook dat ECC meer mainstream gaat worden, veel consumenten moederborden hebben het nog niet, of de modules zijn niet altijd werkend (zelf ondervonden met mijn AMD MB).

128GB is al mooi natuurlijk, alleen gaan dacht ik de meeste consumenten procs ook niet over 64GB heen?
AMD zit momenteel op 192 GB* dat de controller ondersteund bij de Ryzen cpu's. By EPYC staat het er niet bij :/ https://www.amd.com/en/products/processors/server/epyc/9005-series/amd-epyc-9965.html.
Bij Intel is het 256GB*
offtopic:
*Hangt af of er grotere modules zijn of niet.
Ah dat wist ik niet! Dacht dat het limiet nog altijd 64GB was. :)
Dat komt goed van pas voor het draaien van de nieuwe WhatsApp-client op Windows.
Leuke burn!
Briljant inderdaad, hardop lachen hier om die zin :D
idd die zin klinkt alsof tweakers weer eens geld onder de mat krijgt. Misschien ook hier eens naar laten kijken door instanties?
Dat komt goed van pas voor het draaien van de nieuwe WhatsApp-client op Windows.
Oké hier moest ik toch iets harder om lachen dan ik durf toe te geven :9
Hoewel de hoeveelheid geheugen zeker wel aantrekkelijk is, is de snelheid dat alles behalve. En aangezien het om een UDIMM module gaat zal je hem ook niet op een moederbord kunnen prikken met meer dan twee geheugenkanalen. De stelling dat het "handig voor AI-modellen" is, lijkt me daarom nogal een boude.


Om te kunnen reageren moet je ingelogd zijn