IDF: Rambus en Kingston werken aan threaded geheugenmodules

Rambus en Kingston hebben gezamenlijk een nieuwe variant van ddr3-geheugen ontwikkeld die beter zou presteren in combinatie met multicore-processors. Het threaded geheugen zou efficienter en zuiniger zijn.

De beide geheugenfabrikanten hebben samengewerkt bij de ontwikkeling van een prototype geheugenmodule die de databus van de geheugeninterface beter benut. Waar reguliere ddr3-modules een deel van de beschikbare bandbreedte verloren laten gaan, moeten de threaded memory modules, zoals het geheugen gedoopt is, de volledige bandbreedte benutten. Het prototype tmm, dat Kingston en Rambus tijdens het Intel Developer Forum zullen demonstreren, zou vijftig procent efficienter zijn dan conventioneel geheugen.

Aangezien de geheugenmodules dankzij de nieuwe techniek eerder dan gewone ddr3-modules weer inactief kunnen worden, blijft het energieverbruik van de tmm's laag. Hierdoor zou ten opzichte van reguliere modules een besparing van twintig procent mogelijk zijn. De techniek is gebaseerd op reguliere ddr3-modules, maar beide 'helften' van elke module worden parallel aangesproken. Voor gebruik van tmm's is naar alle waarschijnlijkheid geen aanpassing van het moederbord nodig.

Wel zijn de printplaten van tmm's iets complexer en moeten nieuwe geheugencontrollers gebruikt worden om de dimm's threaded aan te spreken. Daar zowel AMD als Intel de geheugencontroller van het moederbord naar de cpu hebben verplaatst, zouden de processorfabrikanten licentiekosten aan Rambus moeten betalen: of threaded memory modules gemeengoed zullen worden, zal dan ook voor een deel van hen afhankelijk zijn.

Rambus Threaded Memory Module

Door Willem de Moor

Redacteur

18-09-2009 • 11:17

40

Reacties (40)

40
40
25
4
0
8
Wijzig sortering
Het feit dat er een nieuwe controller nodig is zal de toekomst van deze ontwikkeling ferm tegenhouden. Met de integrated controller bij de nieuwe Intel cpu's en bij de meeste AMD's zie ik dit een kort leven beschoren. RamBus heeft blijkbaar niet geleerd uit het verleden en maakt weer een systeem dat net door de nodige aanpassing zichzelf de grond in gaat boren. Met licenties enzoverder zie ik het ook niet lukken, denk je echt dat zowel intel als amd met veel geld over de brug zullen komen om dit mogelijk te maken, vooral intel zal zich hier geen tweede keer aan wagen gezien het fiasco indertijd met de P4 ...
Waarom? Intel heeft vroeger een licentie gekocht op de technologie van Rambus en gebruikte dat voor de eerste Pentium 4's. Uiteindelijk bleek de concurrentie, DDR geheugen, nagenoeg net zo snel en goedkoper. Dat konden ze moeilijk op voorhand geweten hebben.

Als dit een technologie is die goed presteert, de concurrentie kan niet mee, en de prijs is correct, dan zal Intel en/of AMD hier wel interesse voor tonen.

Rambus negeren wegens situaties uit het verleden lijkt mij dan ook ronduit stom. Stel dat Intel er geen zaken meer wil mee doen en AMD toch licentie neemt op deze technologie en daarmee een prestatievoorsprong neemt ja dan staan ze toch goed voor lul...

Rambus geheugen wordt trouwens wel succesvol gebruikt in de PlayStation 3 en die kost duidelijk niet te veel (of toch zeker niet door deze keuze).

[Reactie gewijzigd door Anoniem: 77640 op 3 augustus 2024 04:51]

Sjah en de mensen denken echt dat die ontwikkeld is door 2 bedrijven zonder enige research

Als ze een vinding hebben gedaan die ze om willen zetten naar een commercieel product dan wordt er eerst markt onderzoek gedaan. Dit houd oa in dat er overlegd wordt met hun partners om te zien in hoeverre hier interesse voor is. Grote kans dat AMD en Intel als hun partners gezien worden en weten zei al geruime tijd dat de 2 bedrijven hiermee bezig zijn.

Ze gaan echt niet in deze tijd hun eigen standaard ontwikkelen zonder een platform te hebben waar dit op gerealiseerd kan worden.
RamBus heeft blijkbaar niet geleerd uit het verleden en maakt weer een systeem dat net door de nodige aanpassing zichzelf de grond in gaat boren
De nodige aanpassingen zijn minder dan die nodig waren om van DDR2 naar DDR3 te gaan. Daarvoor waren nieuwe chips, modules, controllers en aanpassingen aan de moederborden nodig. En AFAIK is DDR3 niet de grond in gegaan.
Ik voorzie geen toekomst hiervoor. Tenzij rambus en kingston geen / hele lage licentiekosten vragen voor de controller in de cpu. Immers maakt het amd en intel niet veel uit, die maken niet meer winst door de verkoop van dat andere geheugen. Rambus wel, het is dus slimmer van ze als ze licenties vragen aan de geheugen makers en niet aan degene die de controller aanlevert.
Dat hangt er echt helemaal vanaf, als dit sneller en zuiniger is, dan zie ik wel een reden om wel die licentiekosten te betalen, sneller kan intel mooi mee scoren en zuiniger AMD.
Zegt RDRAM je nog iets? Ook van Rambus, ook superieur, maar waar is dat gebleven? Het was gewoon duurder en daardoor voor kopers en OEMs niet interessant. Liever je pc uit rusten met goedkoper geheugen en de prijs drukken, dan snel geheugen. Het ligt er wel een beetje aan hoeveel sneller dit is.

http://en.wikipedia.org/wiki/RDRAM
Benchmarks
Benchmark tests conducted in 1998 showed most everyday applications to run minimally slower with RDRAM. In 1999, benchmarks comparing the Intel i840 and Intel i820 RDRAM chipsets with the Intel i440BX SDRAM chipset lead to the conclusion that the performance gain of RDRAM did not justify its premium price over SDRAM except for use in workstations. In 2002, benchmarks pointed out that single-channel DDR400 SDRAM modules could closely match dual-channel 1066 MHz RDRAM in everyday applications.
Edit: Ik ben eigenlijk benieuwd naar de echte winst. De overgang van DDR naar DDR2 was geen dikke performance wonder, ook DDR2 naar DDR3 geen performance wonder. Tripple channel vs Dual Channel, ook niet. De prefetchers en grote cache zorgen er voor dat snel en veel geheugen een veel mindere inpack heeft dan SDR vs DDR vs RDRAM.

[Reactie gewijzigd door Anoniem: 134818 op 3 augustus 2024 04:51]

Performance-gewijs (zuivere transfer rate): zie http://en.wikipedia.org/wiki/List_of_device_bandwidths

Enkele single channel interface snelheden:
SDR (PC100): 6,4 Gb/s
SDR (PC133): 8,5 Gb/s
RDRAM (PC800):12,8 Gb/s
DDR (PC2100): 16,8 Gb/s
DDR (PC2700): 21,6 Gb/s
DDR-2 (PC3200): 25,6 Gb/s
DDR-2 (PC4200): 34,1 Gb/s
DDR-2 (PC6400): 51,2 Gb/s
DDR-3 (PC8500): 136,0 Gb/s
...maar waar is dat gebleven?
De opvolger, XDR DRAM, kwam onder meer inde PlayStation 3 terecht, en met succes.
RDRAM zat ook in de N64 en de Playstation 2 had het ook. Wat een succes op de PC markt is het geworden. /sarcasme.
Maar met RDRAM was het minder vernieuwend dan in dit geval. Volgens mij kan dit bij multi cores wel dergelijk veel snelheid opleveren en gezien de trends van hoe meer cores hoe beter de afgelopen periode zie ik hier een veel grotere kans van slagen in als bij RDRAM en sjah licentie kosten zullen ze altijd houden. Hebben ze nu ook al dus dat is niet vreemd
Jammer alleen dat de geheugen maker niets anders hoeft te doen dan iets andere sporen te leggen op de pcb en klaar daar kun je niet echt een licentie op heffen. Daarnaast is DDR3 al duurder dan DDR2 en door extra licentie kosten zal het de adaptatie niet ten goede komen wat de wil bij de geheugen makers weer minder groot zal maken om dit soort modules te produceren.

Als Intel of AMD een stapje voor wil blijven op de concurrent dan maken zij dit in hun controller mogelijk, licentie kosten zullen vast niet heel hoog zijn en zeker voor de snelste CPU's wordt een flinke bonus betaald door de klanten dus kun je daar de licentie kosten redelijk makkelijk verwerken in de prijs.
Als de CPU's er eenmaal zijn er geen MB aanpassingen nodig zijn en de snelheid echt flink omhoog gaat terwijl het verbruik omlaag gaat dan zal er zeker vraag naar zijn de geheugen fabrikanten willen dan heus wel een paar van die reepjes maken en zullen waaschijnlijk zelfs bereid zijn een minimale licentie te betalen hier voor omdat ze weten dat ze de reepjes kunnen verkopen tegen een hoge prijs, mensen die voor het snelste van het snelste gaan letten niet zo op de bedragen namelijk.

Het feit dat RamBus en Kingston dit op de IDF gaan showen moet betekenen dat Intel al een gewijzigde controller heeft gemaakt omdat het anders niet echt gaat lukken om dit te showen. Dat wil nog niet zeggen dat Intel ook een processor zal uitbrengen die met dit geheugen kan werken, maar ik denk wel dat Intel het in overweging zal hebben. En waarschijnlijk als deze vorm van geheugen ook door JEDEC erkent wordt als een echte standaard zal Intel vrijwel meteen met een processor komen die dit geheugen kan gebruiken alles om de concurrentie voor te blijven en net weer even meer snelheid te persen uit hun ontwerpen.

Wat gaat Intel eigenlijk nog meer tonen op de IDF, zitten er nieuwe snellere SSD's in de pijplijn? Ik hoop dat ze snel zullen komen met een SSD die gebruik maakt van de snellere SATA standaard, niet omdat ik nu meteen naar de winkel zou rennen om er een te kopen maar wel omdat dat betekend dat een nieuwe MB eigenlijk wel uitgerust moet worden met deze snellere interface waar nu de meeste borden nog gewoon met de trage SATA uitgerust worden omdat er toch nog geen producten voor zijn.
Nieuwe CPU's zullen ze niet echt brengen misschien een paar kloktikken sneller of zo en natuurlijk een 32nm exemplaar meer niet echt nieuwe dingen. Ook al hoop ik dat ze eindelijk eens met de nieuwe GPU oplossing komen in een echte PC en niet alleen op een powerpoint slide. Het lijkt me dat ze zo onderhand toch wel ergens een test exemplaar moeten hebben liggen en ik zou graag zien of ze echt de kaarten van ATI en Nvidia van tafel kunnen vegen zo als ze nu al tijden beloven.
Mijn god ik ben buiten adem zulke lange zinnen :o
misschien moet je dan eens beginnen met niet alles hardop te lezen ;)
Ik begrijp enkel even niet waarom er nu bandbreedte verloren gaat bij conventioneel geheugen? Dat word ook niet echt uitgelegd...
DRAM geheugen is TRAAG. De toegangstijd is niet dramatisch verbeterd de afgelopen 15 ofzo jaar. Al die interessante getallen waar de fabrikanten mee strooien zijn vooral burst-rates, en die zijn niet echt boeiend eigenlijk.

Als één thread het geheugen aanspreekt, dan staat de hele module (en dus alle andere threads) te wachten totdat de module eindelijk de gevraagde data paraat heeft. Met dit nieuwe geheugen kunnen meerdere threads gelijktijdig met het geheugen communiceren. De maximale bandbreedte blijft gelijk.
Als ik je goed begrijp.... het dual channel krikt dus enkel de bandbreedte op? Hoe je het ook wend of keerd, alle data gaat uiteindelijk maar door 1 lijntje naar de proc.

Met de threaded techniek worden er als het ware meerdere ingangen naar het geheugen gecreeerd?

Hoe zit het dan met server mobo's? Als daar bv 16 banken met ieder 4 gig modules in zitten... word dan alles aan gestuurd over 1 lijntje? Dat moet dan toch super traag zijn.

Of mis ik iets?
Anoniem: 223113 @ocdaan18 september 2009 18:02
De meeste AMD's hebben op dit moment twee 64bits geheugen kanalen per CPU. De xeon's en de nieuwste core's geloof ik drie. De oude dual cpu xeon's hadden twee 128 bits bussen. Echter deze kanalen kunnen momenteel niet volledig benut worden doordat de communicatie als volgt gaat. CPU zet adres op de adres lijnen. Extra lijn gaat hoog om aan te geven dat er een adres klaar staat. Geheugen module neemt adres over van de bus. Geheugen module gaat data opzoeken en stuurt dan vervolgens meerdere keren per klok tik (4x) data terug echter voordat het terug sturen van data begint ben je zo een kloktik of 8 verder (van de 400 Mhz clock tikken).

Tussen elke burst is het geheugen dus even bezig met adressering en daardoor wordt niet alle bandbreedte benut. Deze modules kunnen blijkbaar de volgende burst voorbereiden terwijl ze de voorgaande nog aan het uitvoeren zijn resultaat is dat ze alle bandbreedte kunnen benutten.

Deze vertragingen in de adressering zijn ook een groot probleem voor de DDR3 modules welke latencies hebben van 7 tot 9 waar de oudere DDR modules 2 a 3 waren.

PS. Ik heb het verhaal geprobeert simpel te houden, hierdoor is het niet helemaal volledig/correct.
Waarom dacht je dat die CPU's tegenwoordig zulke gigantische hoeveelheden cache hebben? Precies, om de performance nog een beetje op peil te houden.
ik weet niet hoe het bij intel zit maar AMD heeft een unganged modus voor het geheugen waardoor je 2 keer 64bit hebt en niet 1 keer 128, en er dus ook 2 verschillende dingen tegelijk kan opvragen.
Anoniem: 271482 @ocdaan19 september 2009 12:36
Er zijn dedicated server systemen hebben DRAM-modulebays per CPU. hoe het exact werkt weet ik niet, maar er zit dan iig in het mainboard een controller die zorgt dat de juiste instructies bij de juiste CPU uitkomen, soort load-balancing techniek, IBM heeft dergelijke servers in een bepaalde klasse gehad, een paar jaar geleden(2005-2007), waar ze ook specifieke modules voor zochten die 100% identiek moesten zijn om correct te functioneren, per bay. Een beetje moderne multi-cpu server met een 64-bits OS loopt nu rondjes om die apparaten heen, dus zo precies hoeft het niet meer tegenwoordig.

Dualchannel werkt volgens mij volgens eenzelfde techniek, de techniek om te zorgen dat processen etc correct verdeeld worden word in de chipset geregeld, hoe heb ik ooit aan een taiwanese engineer gevraagd en die haalde zijn schouders op omdat hij het ook niet wist.
De toegangstijd is niet dramatisch verbeterd de afgelopen 15 ofzo jaar
15 jaar is nogal overdreven maar sinds ddr-400mhz is het idd niet sneller geworden.(en dat kwam uit in 2002)

de reden daarvoor is niet zo heel gek.
de interne geheugencellen werken nog steeds niet sneller als 200mhz. de bandbreedte is wel opgekrikt door meerdere van die cellen te combineren, maar dan blijft de toegangstijd gelijk.

edit : 5ns klopt wel.
gekeken vanaf 1995 tot aan 2002 is het verschil minder groot. maar vanaf toen is het wat latency bedrijft gewoon stil komen te staan.
de noodzaak hiervoor is ook wel minder hoog door de vele betere branchpredictors en grotere hoeveelheid cache geheugen.

[Reactie gewijzigd door Countess op 3 augustus 2024 04:51]

Vroegah, rond '95, had je geheugen met 70ns en 60ns access time. Zelfs al zou hedendaags geheugen binnen 1 kloktik @ 200MHz resultaat opleveren dan zou dan op 5ns neerkomen. Geen idee wat het in werkelijkheid is, maar zelfs met 5ns is de verbetering nog "maar" ~10x, terwijl de CPU's sinds 1995 met gemak >100x sneller zijn geworden.
Dat ligt natuurlijk ook aan het gebruikte materiaal en de overbrenging, als je chips en CPU direct op het mainboard zou inbakken zou de performance een heel stuk omhoog kunnen.

Ik heb overigens zelfs nog 120NS 30-pins simms(legacy vanuit vanuit mijn uitgebouwde 80286 uit 1990) naast 2 70NS 72-pins simms(1 fastpage en 1 edo) gedraait een tijdje om uit te komen op 20MB werkgeheugen rond 1995, op een noname 486-bordje(volgens mij was het eigenlijk uit de stal van biostar), draaide vlekkeloos, de 72-pins nog even mee laten liften in een opvolgend bordje, waar ook PC-66/PC-100 in paste, en in beide gevallen als ik de oudere technieken er uit liet was het zo goed als niet merkbaar in de snelheid.

Als je een beetje handig bent kun je je modules zelf tunen(lagere DRAM frequentie draaien kan de latency ook verder omlaag, je kan in dat geval ook beter zelf in de SPD's gaan rondrommelen want waarschijnlijk ondersteund je BIOS dergelijke grapjes niet)
Ook de 1600mbit/s snap ik niet in het plaatje. Het is toch 1600mhz en vele gigabits per seconde. Nou ja dit gaat er waarschijnlijk toch niet komen.
In de praktijk zal het je bij gemiddeld applicaties gebruik <3% opleveren, AMD en Intel zijn denk ik echt niet van plan hier een licentie voor te nemen en daarmee de prijs van hun cpu ook op te drijven.
Andere fabrikanten moeten ook licenties nemen om het te produceren, begint weer een beetje op het probleem te lijken waar we rambus nog goed van kennen. |:(
400 MHz, x4.

Dus de 1600Mbit/s is de correcte term. Al is in de wandelgangen de verkeerde benaming de meest gebruikte.

(edit) Maak ik toch een grove fout; 1600 Mbit/s per kanaal, niet de totale bandbreedte(/edit)

[Reactie gewijzigd door Toontje_78 op 3 augustus 2024 04:51]

Waarom gebruiken ze niet gewoon XDR geheugen? Het bestaat al, en is juist het best in threaded processors.
Sterker nog, het allerkrachtigste, en allergrootste supercomputer-netwerk ter wereld; wordt aangedreven door XDR geheugen. Het heeft zichzelf bewezen. Daarom vind ik deze 'tussenvorm' een beetje nutteloos.
Anoniem: 77640 @Faust18 september 2009 12:10
XDR is toch de tweede generatie Rambus geheugen? Dit lijkt mij dan gewoon een verbeterde versie.
XDR2 is er als het goed eens al.

http://en.wikipedia.org/wiki/XDR2_DRAM

en het is gemicrothread.
erg veel losse lijntjes dus.


http://www.corporate-ir.n...&layout=-6&item_id=727359

het zit ook al op de 8ghz.
(en dat was 2007.)

het is als het goed is zelfs sneller dan gddr5.
omdat rambus veel te hoge licentie kosten wil terwijl de modules van JEDEC licentie kosten vrij zijn.
ik ben bang dat er doordat er maar 2 ontwikkelaars aan werken het prijskaartje behoorlijk duur gaat uitvallen. mijn schatting zal 250/300,- zijn voor 4 gig.

dan plant je er een paar "pure" repen extra naast, en hef je daarmee die 50% snelheidswinst ook weer op. (190,- voor 4x2 gig 1600 OCZ platinum)
Rambus? Ja die ken ik nog wel van hun monopoly memory patenten van vroeger. En daar gaat volgens mij niemand zich meer aan wagen. Helemaal niet aan hun licentie constructies.
De licentieconstructies was niet het probleem. Het probleem was juist dat er van de techniek van Rambus gebruik gemaakt werd terwijl men hiervoor helemaal geen licentie had afgesloten.
Werd die techniek niet gebruikt doordat Rambus patenten verzwegen had bij het vaststellen van de standaard en ná het vaststellen van de standaard ineens ging miepen en aanklagen om licentiegelden los te krijgen waar van te voren geen woord over gezegd was?

Dat soort stunts doet je geloofwaardigheid niet te veel goed, laten we zeggen :+
niet alleen verzwegen, zelfs actief ingebracht, toen ze nog in JEDEC zaten.

vies en smerig is nog zacht uitgedrukt.
Moet een chip/geheugencontroller dit ook niet aanspreken dan?
Gewoon voor iedere core apart geheugen. :)
En dit heeft precies wat als voordeel? Apart geheugen per core wordt dacht ik ook wel cache geheugen genoemd. Het is niet echt praktisch met multithreaded apps die hun resources over verschillende geheugenbronnen verdeeld hebben. Dan maakt je van je cores gewoon geheugencontrollers in de slechte omstandigheden.
feck , kan ik hier weer op gaan wachten..
Anoniem: 271482 19 september 2009 09:40
Volgens mij klopt de hele kop van dat artikel niet, Rambus maakt technologie, en Kingston brengt geheugenmodules uit.

Onder de heatspreaders van RIMMs zaten gewooon chips van samsung, promos, elpida en infineon.

Kingston produceert alleen de PCB's en plakt er chips van derde op, als je kingston modules ziet met kingston chips zijn het gerelabelde chips van samsung, elpida of infineon, dat doet kingston, maar ook OCZ, Apacer en GEIL en zelfs het merkloze budgetgeheugen.

De enige DRAM modules die je geheel uit eigen stal zou kunnen vinden zou van samsung komen, gezien die zowel PCB's als de chips zelf maken.

Op dit item kan niet meer gereageerd worden.