Samsung begint levering 16GB ddr3-modules

Samsung is erin geslaagd om 64 ddr3-chips op een enkele geheugenmodule te plaatsen. De resulterende 16GB-modules zijn bedoeld voor servers en zouden bovendien tot twintig procent zuiniger zijn dan conventionele ddr3-modules.

Samsung startte de productie van 2Gb ddr3-chips eerder dit jaar, en gaat nu de eerste geheugenmodules leveren die gebruik maken van de 2Gb-chips. De geheugenchips worden gemaakt met een 50nm-procedé, waarmee het mogelijk werd om 64 chips op één module te monteren. Naast de 16GB-rimm heeft Samsung ook een 8GB-rdimm in zijn assortiment opgenomen.

De 16GB-modules hebben een kloksnelheid van 1066MHz en hebben genoeg aan een spanning van 1,35V. Ten opzichte van courant ddr3-geheugen zou het nieuwe geheugen twintig procent minder energie verbruiken. Er worden ook varianten van de modules met een kleinere capaciteit beschikbaar gemaakt. Eind januari maakte Samsung bekend dat het al ddr3-chips met een capaciteit van 4Gb heeft ontworpen, waarmee in theorie modules van 32GB mogelijk zijn.

Door Marc Rademaker

Redacteur

19-03-2009 • 13:52

44

Reacties (44)

44
41
11
5
0
0
Wijzig sortering
Anoniem: 102358 19 maart 2009 15:05
De energiebesparing is ook niet mis. Voor bedrijven met hele grote datacenters zou het misschien een financieel voelbare besparing opleveren op de energie. Alhoewel ik me afvraag of dit wel opweegt tegen de aanschaf.

Het is in ieder geval toch weer een goede ontwikkeling dat ze alle computer onderdelen stukje bij beetje toch weer zuiniger proberen te maken.
Eind januari maakte Samsung bekend dat het al ddr3-chips met een capaciteit van 4Gb heeft ontworpen, waarmee in theorie modules van 32GB mogelijk zijn.
Nee hoor, als deze ook op 50nm gebakken zijn zijn ze dus waarschijnlijk tweemaal groter dan de 2Gb chips, dus dan kun je er waarschijnlijk ook niet meer dan 32 van deze chips in een module kwijt. Tenzij Samsung deze dingen gaat stapelen, maar dan kom je hoogst waarschijnlijk met hitte problemen te zitten door dat de chips hun warmte niet goed kwijt kunnen.
Nee, want je vergeet dat de packaging van die chips niet zomaar 2x zo groot hoeft te worden. Het gedeelte van een chip die jij en ik zien is dat daadwerkelijk wat doet is maar een klein stukje van het hele pakketje. De rest is verbindingen naar de pootjes en zorgen dat je op een of ander standaard formaat uit komt voor je verbindingen naar de buitenwereld. Dat pakketje hoeft helemaal niet groter te worden met een verdubbeling van de grote van de chip zelf.
32GB op 1 reepje, dat is wel erg veel. Dit zal voorlopig alleen maar toegepast worden in hele zware machines, of als vervanging voor een berg reepjes van 1 of 2 GB lijkt me.

Welke toepassingen zouden zo veel geheugen nuttig kunnen gebruiken?
Het is niet ongebruikelijk om 8 of 16 bankjes te hebben, dan kom je uit op 256 of 512GB.

Dan heb je inderdaad het niet meer over "standaard" machines en virtualisatie met dit soort machines vind ik twijfelachtig worden. Je krijgt op een gegeven moment dat je systeem "uit balans" gaat. Je processor en I/O moeten dan niet de bottleneck vormen en het moet puur geheugen intensief zijn, anders zijn er andere onderdelen die de performance remmen.

Want met 512GB kun je misschien wel 100 of meer Virtual machines draaien, en als je 2 Virtual machines draait van ieder 256GB kan ik me voorstellen dat je dan gewoon 2 machines in het rek hangt, want de prijs per module zal al flink zijn, laat staan 16x.
Wat dacht je van virtualisatie, bepaalde HPC applicaties, etc, etc. Voor thuisgebruik zal het in eerste instantie niet interessant zijn (Maar ik ga me niet wagen aan een 640Kbytes is genoeg bewering :P )
Ja, 640KB is wel wat laag ingezet.
Maar ik denk dat het over grote deel van de applicaties nog niet efficiënt gebruik kunnen maken van zo'n hoeveelheid geheugen.
Het op delen in virtuele machines is daar in tegen wel een slimme zet, kan je toch al snel 32 losse linux servertjes draaien.
PaT Moderator Mobile @hafkensite19 maart 2009 14:56
crzyhiphopazn doelde hiermee op een vermeende uitspraak van Bill Gates zo'n beetje rond het ontstaan van de Pc. Het schijnt dat hij het nooit zo gesteld heeft, maar de uitspraak is een geheel eigen leven gaan leiden.

Ik ben wel benieuwd wanneer dit soort hoeveelheden geheugen "normaal" gaat worden in desktops.

De stap van 1 naar 4 Gieg in je systeem heeft een jaar of 5 geduurd (ongeveer bij benadering), afhankelijk hoe de groei zich doorzet zijn we dus nog wel een paar jaartjes bezig!
Dan kom je al dicht in de buurt van de wet van moore, elke 2 jaar een verdubbeling van aantal chips.
1 GB, na 2 jaar 2 GB, weer 2 jaar later 4GB.

Dat zou betekenen dat je over 6 jaar al op 32 GB zit :) Zou best wel eens kunnen.
Het is niet verdubbeling van het aantal chips maar verdubbeling van het aantal transistors.

En buiten dat om, dat ging niet om geheugen maar om processors.
512KB had mijn eerste computer, nu zitten we op 2 of 4GB gemiddeld, dat is ruwweg 4000 of 8000 keer de hoeveelheid die mijn eerste computer had. Dat is ongeveer 20 jaar terug, als die lijn zich door blijft zetten zitten we over 20 jaar op, 8TB en 16TB ram. :)
Anoniem: 176826 @hafkensite19 maart 2009 14:11
32GB lijkt me wat veel. Maar aan de andere kant, ik weet nog dat een computer verkoper mij voor gek verklaarde toen ik 1GB intern geheugen in mijn desktop computer wilde laten stoppen. Dat is niet zo lang geleden.

Ik kan me voorstellen dat deze ontwikkeling zich ook voor bijvoorbeeld laptops gaat bewijzen. Nu is 2-4 GB erg gewoon, maar wel meestal in delen. Als je die kan ruilen voor 1 reep van 8 GB lijkt me dat best handig.
Waarom? Omdat het kan? Nou, dat niet alleen. Mijn huidige laptop heeft 4GB aan boord. echter als ik stevig foto's wil bewerken, krijg ik dat geheugen zo vol, dus ja, ik kan me een upgrade naar 8GB of zelfs 16GB wel voorstellen. (niet dat ik me zo niet kan redden overigens.)

Ja natuurlijk, voorlopig hebben ze het eerst over server toepassingen, maar deze ontwikkeling zal zeker ook doorzetten naar de markt voor PC's en laptops en dat kan best handig zijn.
Ik draai zelf ook met 1 pc op 8GB. Welliswaar nog met een inmiddels verouderde processor (Athlon 6000), maar voor fotobewerking en videobewerking is het een verademing.
Binnenkort ook nog CS4 die ook gebruik maakt van m'n ATI 4850 en het leven wordt weer iets leuker 8-)
is het alleen niet beter om 2 reepjes te hebben om van het dual-channel principe gebruik te kunnen maken? Met één 8Gb reepje zul je dan waarschijnlijk maar de helft van de bandbreedte hebben, toch jammer...
Waar staat dat metalmania maar 1 reep heeft. In zijn stuk staat dat hij 1pc heeft met 8GB ram.
Virtualisatie programma's zoals VMware (ESX) Server, Hyper-V
Wat dacht je van een beetje database :)
Op het werk hebben we een mysql cluster database (of proberen we toch te migreren naar ...). Daar zit de database in het ram geheugen ipv disk based. Momenteel hebben we daar in de cluster een 6 tal machines met elk 12-24GB aan ram in zitten maar de grote tabbelen krijgen we niet in de database ingeladen omdat er niet genoeg geheugen is.

[Reactie gewijzigd door kluyze op 23 juli 2024 15:59]

Voorheen was het maximum 8 GB neem ik aan?

Dit is goed nieuws voor bedrijven die servers gebruiken met grote ram benodigdheden.
bv. Google's database servers, lijkt me.
Een beetje flinke SQL / Oracle server snoept nogal wat geheugen.
Evt handig voor 3D renderen - ala disney pixar's serverpark.

Edit: Spellen is lastig.

[Reactie gewijzigd door bbr op 23 juli 2024 15:59]

Er waren al 16GB FB-DIMMs, maar dit is DDR2. Dus qua capaciteit is het niet nieuw. Wel voor DDR3 uiteraard.
Als dit zo doorgaat zou je natuurlijk ook een Terminal Server in kunnen zetten die elke bestanden van een client in het ram laad, waardoor je dan weer geld zou kunnen besparen met meerdere harde schijven in RAID voor dezelfde prestaties.
Anoniem: 236299 19 maart 2009 15:16
Alle programma's en OS'n worden zwaarder. Maar is je pc nu effectief sneller in gebruik dan je eerste 4/86?

Denk daar maar eens over na.

(in gewoon gebruik wel te verstaan)
:+

Over een jaar of 2 hebben wij allemaal 16GB RAM zitten en dan worden alle programma's en games nog veeleisender en is je pc uiteindelijk nog even 'traag'.
Toch wel? Ik herinner mij, met mijn 486, toen je word 6.0 opendeed, je even moest wachten. Nu, met een moderne PC, staat Word 2007 in 2 seconden op je scherm, als het al zoveel is.

[Reactie gewijzigd door SideShow op 23 juli 2024 15:59]

En ik herinner me dat toen ik mijn Commodore 64 aanzette, hij in ongeveer één seconde klaarstond... :+
Anoniem: 217560 @jj7120 maart 2009 10:12
Als ik mijn PSC aanzet duurt het dik 20 minuten voordat alle nodes en hardeschijven zijn aangeslagen, pas daarna begint het OS te booten
terwijl we dan over 60 Cpu cores praaten :(

Meer computer power betekent niet meteen dat alles sneller opstart

het ligt ook aan de configuratie van je hardware
als je een dikke raid controller in je pc hebt met 24 schijven
dan worden die meestal eerst gespint voor het opstarten
dat kost al weer wat tijd.

maar desktop Pc's moet ik maar niet te veel vergelijken met PSC's
(PSC Staat voor Personal Super Computer)

Maar 512Gb ram of meer kun je beter gebruiken voor simulaties
inplaats van Vmware, tenzij je ziekelijk veel cpu cores hebt dan is bijde geschikt
maar bij simulaties worden Groote bestanden die snel toegangbaar moeten zijn in het werkgeheugen geladen.
op het moment dat het niet op tijd toegangbaar is, kan het een afwijkend resultaat in de simulatie achterlaten |:(
en dan mocht je je cassetterecorder starten om je favoriete spelletje op te starten...
Destijds nam je genoegen met 640 * 480, 800 * 600 of als je geluk had 1024 * 768. Nu is het vrij normaal aan het worden om een 1920 * 1200 scherm te vullen.
Multitasking was een theoretisch iets en Wolfenstein 3D was dan wel 3D maar het was wel alsof je in Legoland rondliep.

Het encoden naar MPEG van een uur film duurde bij ons een volle nacht (Athlon 600) , nu kan dat in een uur. Een plaatje van 1MB bewerken was vroeger bijna onmogelijk, tenzij je de undo-levels in Photoshop terugschroefde.

Windows blijft een gaar en log product m.i. maar je kunt wel degelijk veel meer met een PC tegenwoordig en die zandlopers van weleer zie je nauwelijks meer op een moderne PC.
Die zandlopers zijn dan ook vervangen door een roterende cirkel in Vista. :P
Ik vraag me toch wel af waar ze zoveel RAM voor nodig hebben wat applicaties betreft. Bij VMWare en Hyper-V kan ik me nog iets indenken. Evengoed weer een knap staaltje technologie :)
Waarom denkt iedereen aan virtualisatie? Ik denk eerder aan database systemen van middelgrote tot grote bedrijven waar ze de volledige DB in geheugen kunnen laden. In mijn vorig bedrijf hadden ze een DB systeem met 120 GB ram waar de volledige DB netjes inpast.
Waarschijnlijk vanwege dat virtualisatie min of meer de toekomst is van IT.
toch is het zeker voor de IT wereld onzinnig om daarmee de oogkleppen op te zetten voor alle andere toepassingen. (maar helaas iets wat we massaal dreigen te doen).

lang niet alles kun je zomaar klakkeloos virtualiseren, hoe graag je dat ook wil.
Anoniem: 290112 19 maart 2009 13:58
De meeste moederborden geven toch zo rond de 1.6 of 1.8V, gaat dit geen problemen opleveren?
Of is die spanning alleen bij DDR2?
rdimm > registered. Dit is niet voor je desktop bordje.
De resulterende 16GB-modules zijn bedoeld voor servers en zouden bovendien tot twintig procent zuiniger zijn dan conventionele ddr3-modules.

20% zuiniger, dan vindt ik het niet alleen interessant voor servers maar ook gewoon voor mijn eigen desktop.. De programmeurs worden tegenwoordig zo lui dat ze toch geen reet meer geven om optimalisatie dus dat bietje extra geheugen dat het programma dan onnodig gebruikt is niet interessant, maarja helaas denken dus veel programmeurs dat en dan moet je dus wel steeds meer geheugen hebben.. In mijn nieuwe PC komt toch echt op zijn minst 8GB, tenzij ik pas over een jaar ofzo zou kopen, dan zal het toch wel nog meer gaan worden..

Net zoals eNetwerk hierboven meldt, je draait nog steeds dezelfde soort programma's met deze (gevoels)snelheid..
Hangt er wel vanaf wat het opgenomen vermogen is, 20% van 1 Watt is minder interessant dan 20% van 50 Watt.
Check your facts. Bill Gates heeft dat nooit gezegd.
Maar al zou Bill het gezegd hebben, in die periode was het waarschijnlijk wel waar. Het is precies wat veel mensen nu zeggen over 4GB RAM.
Wel leuk dat Bill dit soort uitspraken in de mond krijgt gelegd, maar jammer voor jou, Bill heeft dit nog nooit gezegt.
Gates heeft nog nooit zoiets gezegd. Hij zei wel dat de overgang naar 640K een grote revolutie was vergeleken met de 64K-limiet van 8-bit systemen. |:(

Op dit item kan niet meer gereageerd worden.