Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: Infineon

Infineon heeft een DDR2-geheugenmodule ten toon gesteld met een capaciteit van 4GB die gebruik maakt van dual-die geheugenchips. In plaats van één die, bevatten dual-die geheugenchips twee die's, waardoor de capaciteit effectief verdubbeld wordt. Hoewel het idee simpel is, is de uitvoering ervan een stuk moeilijker. Dit komt doordat de behuizing volgens de door JEDEC opgestelde specificaties voor DDR2-geheugenchips maar een maximale dikte mag hebben. Naar eigen zeggen, is Infineon de eerste die erin geslaagd is om twee die's in een behuizing onder te brengen, zonder dat de behuizing te dik wordt.

Infineon dual-die, 4 GByte DDR2 geheugen
Moderatie-faq Wijzig weergave

Reacties (50)

Hoe zit het eigelijk met de warmte productie van deze modules. 2 die's in een krappe behuizing lijkt me niet echt bevorderlijk voor de warmte
maar omdat je de chips dichter bij elkaar houdt, worden timinsproblemen wel weer onwaarschijnlijker. Kortom,misschien klokt dit geheugen juist wel sneller?
Dat was inderdaad ook mijn eerste gedachte. Tot nu toe had men met SDR en DDR geheugen (in tegenstelling tot RAMBUS geheugen) geen echte hitte problemen, maar twee chips op elkaar, alleen gescheiden door een derde chip...
De bovenste chip zal zijn warmte nog wel af kunnen voeren, maar hoe zit het met die tweede chip? Zelfs als de mold extra hitte verplaatsende capaciteit heeft is er nog te weinig contact oppervlak voor een goede warmte overdracht.
Was effe op de site van http://www.infineon.com maar erg veel meer geven ze (nog) niet prijs, meer een bericht om de IT wereld op te g*len. En de concurenten het nakijken geven. Geeft dus meteen een verdubbeling van geheugen voor de servermarkt.
Dan moet het moederbord van de server wel overweg kunnen met een DDR2 bankje van 4 GB. Veel moederborden die ik tegenkom in mijn werk hebben een max van 1 GB per slot.
Over het algemeen is het een tekortkoming van het gebruikte chipset en niet van een specifiek moederbord. Overigens hebben fabrikanten de neiging om in manual's e.d. altijd alleen maar te spreken over de maximale (totale) geheugenconfiguratie en alleen over de (op moment van schrijven) beschikbare module groottes. Grote kans dat het dus gewoon werkt.
Wordt een beetje moeilijk om Dual-Channel te bouwen met dergelijke modules op een (max)4GB 32-bit bord maar goed, daar zullen ze ook wel niet op mikken ;)
Kijk eens naar het plaatje...
9 chips, dus ECC.
Is die middelste chip niet gewoon de SPD of is dat bij DDR2 niet meer? Je kunt ook niet de hele reep zien dus misschien zitten er wel 10 of 11 chips op (5 aan beide zijden van die middelste kleinere). :P
\[behulpzaam-mode]
Hij heeft het denk ik dan ook over dit plaatje (zie vermelde bron in artikel). Daar kun je het volledige reepje zien, en tel je dus duuidelijk 9 chips. :)
\[/behulpzaam-mode]
4 gig in een reepje? :7

Ik hoop wel dat het dan minimaal ECC, z'n blok geheugen lijkt me wel gevoelig.
Kijk eens naar het plaatje...
9 chips, dus ECC.
(als het aantal chips of aantal megabit een veelvoud is van 9, dan is het een ECC-lat, bij 8 is het een niet-ECC-lat)
Dat klopt niet helemaal. Als een geheugenreep 8 bits opslaat per byte dan is er inderdaad geen foutcontrole. Maar met 9 bits per byte kun je hooguit detecteren of er een bitfout is opgetreden (in het Engels: parity error).

Bij echt ECC-geheugen worden evt. geheugenfouten niet alleen gedetecteerd maar ook automatisch hersteld. Daarvoor heb je meer extra bits nodig per byte.
hij heeft het ook niet over het aantal bits, maar over het aantal chips, bij ECC zit er doorgaans in het midden van je geheugenreep een extra chip, die verantwoordelijk is voor de ECC functionaliteit.
Die modules zijn dan ook niet 9 bits breed maar 9 x 8 = 72 bits. Dus per 64 bits heb je 8 bits voor ECC, zeg maar 1 bit parity, 1 bit voor de parity van bit 0,2,4, etc. 1 bit voor de parity van bit 0,1,4,5,8,9, etc, 1 voor die van bit 0-3, 8-11, 16-19 etc, etc, en dan kun je dus een single-bit fout ALTIJD reconstrueren. Slim he! Nee, heb ik niet zelf bedacht helaas....
Ik hoop wel dat het dan minimaal ECC, z'n blok geheugen lijkt me wel gevoelig.
Nauwelijks gevoeliger dan 1/2, 1, of 2 gbyte modules hoor.
zal ik er nog even aan toevoegen dat dit geheuegn voornamelijk voor server word gebruikt. Voor bijv. een overclocker is dit gegeugen veel te langzaam vanwege deze ECC.

Nu kan er ook dadwerklijk 64GB aan geheugen in de server gestopt worden want dit was normaal nooit van toepassing om dat er nog van deze grote modules bestonden. denk dat dit een zeer interesant iets is. maar voor een gewone gebruiker niet te betalen. Weet niet welke PCxxxx versie dt word maar als 1GB DDR2 als 270 euro is dan word zo`n 4GB DDR2 module al snel rond de 1000 euro perstuk.
denk dat dit een zeer interesant iets is. maar voor een gewone gebruiker niet te betalen.
Het is niet te betalen, maar wel nuttig voor de gewone gebruiker. Nieuwe 'top' producten maken de producten daaronder (vaak) goedkoper.

En over een tijd is dit zelfs voor gewone gebruikers standaard.
Via google gevonden ( http://www.webopedia.com/TERM/E/ECC_memory.html ) :
Short for: Error-Correcting Code memory, a type of memory that includes special circuitry for testing the accuracy of data as it passes in and out of memory.
Wat is dit voor een rare eis van de JEDEC familie?

Wat intresseerd het men nou hoe dik ze zijn?
Als ze maar in je moederbord passen toch?
Zou de dikte misschien iets met het passen op een moederboard te maken kunnen hebben?

Ben ook wel benieuwd naar de prijzen, en zijn er uberhaupt al moederborden die dit ondersteunen?
Kijk eens naar een mac mini, het geheugen is daar (net als de rest) een verry tight fit.

Wat ik wel zeggen: standaarden zijn er om compatibiliteit te verhogen, en om de fabrikant werk te sparen: als de fabrikant een compatibel product wil maken moet hij dat (als er geen standaarden zouden zijn) op elke mogelijke setup testen, tenzij iedereen zich netjes aan de standaarden houden.
dat is zo omdat het geheugen dan nooit breder is als de (ook standaard) geheugen-bank waar ze in zitten.
Hmmz leuk maar waar staat dan weer dat er 1,3 mm het maximum is ? waar slaat dat op ? rare wetten allemaal, zo was er ook een wet van de maximale kloksnelhied ofzo (had ik ergens gelezen)
Dat heeft wel degelijk zin. Dat zorgt ervoor dat systeembouwers en moederbordfabrikanten er vanuit kunnen gaan dat een latje geheugen maar een bepaalde plaats en oppervlakte nodig heeft, en daar rekening mee kunnen houden bij het plaatsen van (sloten voor) andere (moederbord)componenten.

Of bijvoorbeeld dat de kleine heatsinkjes voor geheugenchips er op passen.
Vraag ik me ook af, waarom is er eigenlijk ATX, compleet zinloos toch, alleen maar marketingpraat. /einde-zever

Als een fabrikant wil dat zijn geheugen op ALLE moederborden past, moet hij zorgen dat het voldoet aan de standaarden. (punt)
edit:
sorry, sorry, heb teveel bier op
welke aplicatie die je met een ddr2 mobo gaat uivoeren heeft zo veel nodig.
neem 2 keer 2 gig.
of ga je me vertellen dat er iemand een goede reede weet om voor een gewoonde pc 8 gig aan ram te hebben.
bij de tijd dat je dat zinig kan gebruiken is ddr 7 er al.

nee laat ze maar eens met ddr 3 uit komen voor meer snelheid en hopenlijk lagere latencie's.

en hoe zal het met de warmte ontwikeling en afvoer zitten.
Loop eens niet met oogkleppen aub. Vroeger zou Bill Gates gezegd heb dat je nooit meer dan 64k geheugen nodig zou hebben; (of dit waar is weet ik niet) nu gebruiken veel servers 2, 4 of zelfs 8 GB. Maar niet alleen servers, ook workstations voor grafisch ontwerp, geluidsopname (probeer eens 32 tracks op te nemen met 512mb geheugen en de beste HD's en geluidskaart die je wil)
Volgens mij was het gerucht 640Kb, maar dit heeft hij dus helemaal niet gezegd
Database servers?
Die dingen vreten geheugen hoor, of dacht je dat Tweakers en GoT nog op 512 MB draaiden? :P
"welke aplicatie die je met een ddr2 mobo gaat uivoeren heeft zo veel nodig.
neem 2 keer 2 gig.
of ga je me vertellen dat er iemand een goede reede weet om voor een gewoonde pc 8 gig aan ram te hebben."

Op de gemiddelde moderne moederborden zitten toch 4 banken? das 16GB :+ .

Hoe dan ook, dit geheugen zal ook niet bedoeld zijn voor hoge performance in een gamesysteem, maar denk eens aan een databaseserver. Hoe meer geheugen hoe sneller hij kan werken. Ik weet niet of daar nog een grens in zit, maar met 16GB per processor zal dat nog niet gehaald worden.
16 GB zal moeilijk zijn met een 32 bit-proc die maximum 4GB aankan, hier heb je echt wel een 64bit voor nodig. (of een moederbord met 4 sockets)
Dat weet ik wel, maar dit zal dan ook voorbehouden zijn aan de wat modernere processor. De enige die hier voordeel van heeft zijn de nieuwere Xeon procs. Die hebben EMT64 (of hoe heet het ook weer |:( ).
Ik neem aan dat de systemen die die processoren hebben niet 2x4 gig (dus 8 gig voor dual channel) nodig hebben. Zelfs voor arrays/large systems lijkt me het wat veel.

Het timingvoordeel door de chips dichter bij elkaar te leggen en (misschien) het voordeel in goedkopere productiekosten lijken me een zwaardere overweging om deze dingen aan te schaffen/produceren.

Of het is gewoon een lekkermakertje ;)
En wat houdt dit in voor de kosten...
Ik ben veel meer benieuwd wat dit met de warmteontwikkeling doet ?

Ik kan me goed voorstellen dat de 'bottom chip' zijn warmte nu bijna niet meer kwijt kan bijvoorbeeld. En dat als gevolg hiervan de temperatuur van de complete module een stuk hoger komt te liggen dan gebruikelijk.
Zie ik het verkeerd, of is 'JEDEC' eerder een belemmering dan een bevordering?
De beide. JEDEC is gewoon een organisatie zoals IEEE die zich bezighoudt met standaarden, maar dan meer met de mechanische kant van de zaak. En dat kan je inderdaad als een belemmering zien. Maar het voorkomt ook dat iedere fabrikant zijn eigen ding doet.
Dat doen ze toch wel, eerst zou DDR niet eens verder dan 2700, later zijn ze hier nog op terug gekomen en werd 3200 (400) de standaard, maximaal maar ondertussen zijn er ook DDR4200 ofzo, ondertussen dus al 500Mhz en die voldoen niet aan de standaard maar worden toch verkocht, het enige waar ze nog op toekijken is dat niet iedere fabrikant een anders soort geheugen gaat maken verders is het een doelloos gebeuren. Een groepje dat denkt dat ze alles uitmaken maar ondertussen hebben ze geen enkele invloed.
Wat noem jij geen invloed als zo ongeveer elke fabrikant van dat spul die je kan bedenken lid is van de JEDEC? Voor zover ik het zie is de JEDEC niet opgericht om de vooruitgang te remmen maar eerder een bepaalde kwaliteitsstandaard neer te zetten. Dat een PC3500/3700/whatever module verkocht wordt wil nog niet automatisch zeggen dat ie aan de JEDEC standaards voldoet, zelfs niet als ie van 1 van die aangesloten fabrikanten is.
Alleen loop je hier dus wel een groter compatibiliteitsrisicio, maar dat risico heb je wel mooi zelf genomen. Van één van de wel gedefineerde snelheidsgradaties mag je op dat gebied meer verwachten. Leken en professionele organisaties gebruiken die modules toch al niet omdat ze officieel niet ondersteund worden (en vaak ook helemaal niet nodig zijn gezien de configuratie).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True