Roadmap van DDR-technologie tot en met 2010

PC Watch Japan bericht over de plannen van de geheugenindustrie voor de komende jaren. In het begin van 2004 kunnen we de eerste golf DDR2-chipsets en -modules verwachten. DDR2 moet tot het jaar 2008 het belangrijkste geheugen blijven voor servers, workstations en notebooks. Het begint officiëel allemaal met DDR2-400, maar omdat deze standaard dankzij het doordrukken van het door de JEDEC niet geplande DDR-400 een beetje als mosterd na de maaltijd komt, wordt vrijwel tegelijkertijd DDR2-533 gelanceerd. Het maximum ligt na een tussenlanding op DDR2-667 bij DDR2-800. We schrijven dan het jaar 2008, en kunnen op dat moment dus over 6,4GB/s per module beschikken.

De DDR2-standaard levert niet alleen hogere kloksnelheden, maar belooft tegelijkertijd zuinigere geheugenchips die nog goedkoper te maken zijn ook. Dit lijkt op het eerste gezicht een tegenstrijdige claim, maar de waarheid is dat DDR2 eigenlijk helemaal niet meer zo Double Data Rate is als de naam doet geloven. Er wordt namelijk gebruik gemaakt van een I/O-buffer om data vier keer zo snel op de bus te zetten dan de DRAM-core het aanlevert. Het grote verschil tussen een reep DDR400 en een reep DDR2-400 is dus dat de chips van de eerste op 200MHz draaien, en de chips van de tweede op 100MHz. De geïntegreerde I/O-buffer zorgt ervoor dat dit verschil verborgen blijft en er op de externe bus nog steeds twee datapakketjes per klok te vinden zijn, net als bij normaal DDR het geval is. De volgende illustratie maakt het concept waarschijnlijk iets duidelijker:

DDR2 - eigenlijk QDR

De oplettende tweaker kan nu waarschijnlijk ook al raden hoe DDR3 er uit zal komen te zien. In plaats van een 4-bits prefetch zal er een 8-bits prefetch gedaan worden. waardoor er met chips van slechts 100MHz een DDR3-800-module gemaakt worden. In het jaar 2010 wordt DDR3-1600 verwacht. Een dual channel systeem met twee van zulke reepjes zou maar liefst 25,6GB/s aan bandbreedte kunnen afleveren. Ook wel aardig om eens naar te kijken is de verwachte groei van de hoeveelheid geheugen in de gemiddelde pc. Men verwacht dat de gemiddelde nieuwe pc in 2010 voorzien is van 4GB RAM.

DDR technologie roadmap
Klik voor een grotere versie

Door Wouter Tinus

05-07-2003 • 19:33

41

Bron: PC Watch Japan

Reacties (41)

41
41
32
11
1
1
Wijzig sortering
Ik vraag mezelf af of DDR 2 het tot 2010 volhoud. De technologie blijft zichzelf snel ontwikkelen, en ik denk dus dat er al veel eerder nieuw geheugen nodig is. Bijvoorbeeld DDR III, of een nieuw type geheugen. RDRAM is ook erg effectief. Misschien kan dat worden doorontwikkeld? Maargoed, mijn verwachting blijft dat DDR II geen 7 jaar lang zal meegaan.
Het hoeft ook niet tot 2010 mee, want in 2008 komt DDR3. Maar vijf jaar blijft inderdaad nog steeds een beetje lang. DDR1 gaat nu ongeveer twee-en-half jaar mee en is duidelijk aan vervanging toe. Het is al van PC1600 naar PC3200 gegaan, en om het gebrek aan sneller te compenseren is er ook een opkomst van dual channel chipsets geweest.
Anoniem: 75461 @DrEvil19867 juli 2003 00:08
RDRAM is ook erg effectief. kan dat worden doorontwikkeld?
Intel heeft de ontwikkeling van RDRAM chipsets volledig stilgelegt. Er komen dus alleen nog nieuwe single / dual channel DDR(2?) chipsets uit.

Ik weet trouwens niet wat het bedrijf achter RDRAM gaat doen. Maar zonder intel is de toekomst zeer somber.
Anoniem: 63072 5 juli 2003 19:45
Begrijp ik het volgende goed:
DDR1 400: Core draait op 200MHz
DDR2 400: Core draait op 100MHz
Door de bij gelijke datarate lagere (core) klok frequentie gebruikt DDR2 minder energie en heeft een hogere latency. Dat laatste omdat de data maar half zovaak per seconde naar de IObuffer gaat.
:?
Laatst nog in een blad gelezen, DDR II is helemaal niet zo effectief zoals ze willen voordoen:
- De lantency van DDR II is veel hoger dan DDR I
- Hierdoor is de beschikbare bandbreedte veel lager dan wordt weerspiegeld. DDR I 400 met de latencys van 2-3-3 (Page hit/ page miss/page miss en vorige rij nog open) is nog net wat sneller dan DDR II 677 5-5-5
Er zijn grote problemen DRAM cellen sneller te maken. Dit lost men op door intern in de DDR chip enkele banken DRAM parallel te schakelen. Dit zie je terug in het plaatje boven. Elke bank DRAM draait op 100 Mhz en heeft dezelfde latency. Door banken parallel te schakelen vergroot je de bandbreedte maar introduceer je wat extra latency nodig om die banken te managen.

Qua principe lijkt het wel wat op een ATA-100 Mhz bus (de interface, DDR, snel) en een niet redundante RAID van superlangzame 1000 RPM harddisks (DRAM bank, hoge latency). Door parallel schakelen van de disks verhoog je de bandbreedte (throughput) van je storage maar de latency (seektime) blijft hetzelfde of wordt iets slechter.
ddr1 is ook niet zo efectief, 200MHz sdram zou veel sneller zijn dan ddr200, omdat de laatste maar op 100MHz draait.
Toch gaf ddr prestatiewinst, door de hogere bandbreedte's.
Dat met die latency is natuurlijk niet per definitie zo. Tenslotte gaat er per kloktik ook 2 keer zoveel data naar het I/O buffer.

Waardoor de data nog steeds even snel opgehoest kan worden.
Anoniem: 48318 @CARman7 juli 2003 14:40
latency heeft niets te maken met de hoeveelheid data die per kloktik doorgestuurd wordt. DDR2 heeft wel degelijk per definitie een hogere latency dan DDR1, de tijdspanne tussen aanvraag van informatie uit het geheugen en het binnenkomen van de eerste resultaten zal groter zijn vanwege de lagere kloksnelheid.
Hadden ze het dan niet beter QDR (Quad Data Rate) kunnen noemen ofzo, waarom de naam DDR-2. Nou denken mensen dat het een nieuwer type DDR geheugen is, terwijl het eigenlijk een ander geheugen is.

Zo te zien liep nvidia toch iets vooruit toen ze hun GfFX lanceerde met DDR2 geheugen. Dat bleek achteraf minder snel te werken icm. de FX chip als ze dachtten. Hoe hebben ze trouwens nu dat geheugen zo snel gekregen dan? Ik dacht dat DDR een lagere aanspreektijd had dan DDR2 ?
QDR is ook al een standaard, maar daarbij is de snelheid van de databus vier keer zo hoog als de kloksnelheid. Bij DDR2 scheelt het nog steeds een factor twee.
De geheugenbus is nog steeds ddr.
De conclusie is dus dat het geheugen zich langzamer blijft ontwikkelen dan de processors. Het wordt hoe langer hoe meer een bottelneck. Hierdoor zullen de processor fabrikanten steeds meer cache geugen moeten plaatsen omdat het RAM te langzaam gaat aanleveren. Of krijgen we dan misschien weer de "antieke" tussenoplossing dat er duurder los cache geheugen komt te zitten tussen de processor en het Ram geheugen. Dat dan sneller is dan het ram geheugen maar stukken langzamer dan het On die L1 L2 L3 cache? Een stripje van 16 of 32 MB op 4Ghz zou daar dan wonderen kunnen doen.
De conclusie is dus dat het geheugen zich langzamer blijft ontwikkelen dan de processors.
Het is vooral de Pentium4 die zoveel geheugenbandbreedte nodig heeft. De AthlonXP 400MHz (FSB) heeft aan een reepje DDR400 al genoeg, of natuurlijk dual-channel. De Pentium4 800MHz (FSB) heeft het inderdaad moeilijk met geheugenbandbreedte. Maar dat komt ook deels omdat Intel de Pentium4 heeft gemaakt met het oog op rambus geheugen, wat er nu dus niet meer is. Vandaar dat de nieuwste Pentium4 processoren krap met geheugenbandbreedte zitten.

Zolang er een goede roadmap is, en er gebruikt kan worden gemaakt van 100MHz chips, dan heb je het al ietsjes gemakkelijker met het researchen en produceren van geheugen.
de 800fbs p4 is er gekomen NA dat rd-ram is geschrapt.
heeft dus weinig met elkaar te maken.
intel is zelf deze FBS strijd begonnen, en AMD deed een beetje mee, maar met alles vanaf de optron zeggen ze FU tegen intel en gebruiken ze helemaal geen FBS meer

maar hoe groter de geheugen bandbrede hoe better de prestaties. dus AMD en Intel proberen zoveel mogenlijk bandbrede te kreëren. dat intel daarmee nu even voor loop will niet zegen dat AMD niet graag meer bandbrede had.
Anoniem: 87543 5 juli 2003 20:29
Ik vind het in feite nogal moeilijk om zo ver op voorhand dergelijke voorspellingen te doen.

De laatste jaren heeft enkel het besturingsysteem vooral de hoeveelheden geheugen omhoog gejaagd, terwijl sinds kort pas multi-tasking heel belangrijk wordt voor elke gebruiker.

Dus als we zoals met Hyper Threading technieken ook bij het geheugen een dergelijke evolutie gaan zien met grotere hoeveelheden werkgeheugen in PC's dan zou volgens mij de 4 GB wel sneller in zicht komen dan pas in 2010....

Zeker als je weet dat sommigen nu al 1 a 2 GB plaatsen, al is het dan wel voor speciale toepassingen,...
In het verleden waren video-toepassingen ook sporadisch terug te vinden bij PC's, maar dat wordt nu al heel regelmatig gevraagd! En dan is 1 GB werkgeheugen toch wel een luxe....
...we zoals met Hyper Threading technieken ook bij het geheugen een dergelijke evolutie gaan zien...

HyperThreading technologie maakt gelijktijdig gebruik van meerdere componenten van een processor, zodat componenten die anders aan het niksen zouden zijn benut worden. Bij geheugen wordt altijd al ieder bitje gebruikt. Het handiger wegschrijven van gegevens zodat ze minder ruimte in beslag nemen is ook niet nieuw (compressie).

Dus hoe wil je ooit "een dergelijke revolutie als HyperThreading" in de geheugenwereld voor elkaar krijgen? :?

edit:

Vergeet ik helemaal de link die ik erbij wilde zetten... :Z

http://www.intel.com/technology/itj/2002/volume06issue01/art01_hyper/p 01_abstract.htm
Zeker als je weet dat sommigen nu al 1 a 2 GB plaatsen, al is het dan wel voor speciale toepassingen,...
Yup, 2 gig voor een langere full rez previews in After Effects bijvoorbeeld.

Dat ging trouwens ook voor de programmeurs van Adobe te snel: met 2GB geheugen zag AE 0MB beschikbaar voor previews (en toonde dus geen preview), trok je er 1 reepje uit, dan zag ie ineens 1,5GB. Uiteraard is dat later opgelost met een patch, maar zo zie je maar dat het soms zelfs sneller gaat dan softwareleveranciers voorzien.

Full size previews op TV-resolutie kun je inmiddels ook vanaf (snelle) harddisks met wat derde partij software, maar dat is duurder...
Men verwacht dat de gemiddelde nieuwe pc in 2010 voorzien is van 4GB RAM.
Dit lijkt me een beetje wisfull thinking van de geheugenindustrie, ik kan me geen applicaties voorstellen die 4GB aan geheugen nodig hebben.

Tegen die tijd zullen veel mensen hun eigen videofilmpjes editten samen met hun digitale foto's, maar dat gaat perfect met 512 MB of 1 GB aan geheugen. Internetten en chatten zullen echt niet voor zo'n toename zorgen, toch de meest gebruikte opties waarvoor mensen hun pc gebruiken.

Windows (wat steeds meer geheugen verbruikt bij nieuwere versies) zal dat ook niet gaan gebruiken, als dat wel zo is ben ik benieuwd welke feature's daarvoor kan zorgen. Het kan niet eeuwig doorgaan dat het OS elke versie meer geheugen gaat verbruiken, op een gegeven moment zitten alle denkbare en wensbare opties wel in het OS.

Misschien zal de tweaker wel 4GB kopen, maar de normale consument? Ik denk het niet.
Of de consument het nodig heeft is natuurlijk altijd een tweede, maar ik kan me goed voorstellen dat het op een gegeven moment de moeite niet meer is om kleinere chips te gaan bakken. We hebben in de recente geschiedenis verschillende keren zien gebeuren dat oudere of kleinere geheugens duurder werden dan hun opvolgers, om uiteindelijk te verdwijnen. Als ik 64MB DDR400 wil kopen, zal ik hard moeten gaan zoeken (volgens mij wordt het niet eens gemaakt). 128MB is geen probleem, maar voor hetzelfde geld koop ik ook 256MB. Over zeven jaar kun je daar wellicht 512MB, 1GB en 2GB voor invullen :).
...of de consument het nodig heeft is natuurlijk altijd een tweede...
en anders wordt die behoefte toch gewoon gecreëerd?
Maarre, ken je Duke Nukem 3d nog?
Perfect te spelen op een 486 DX2 met 32 MB ram en software rendering.
En heb je nu al eens geprobeert om bijv: battlefield op zo'n systeem te draaien?
Anoniem: 63072 @Beaves5 juli 2003 19:49
Zoals een beroemd man ooit zei:
"640K ought to be enough for anybody. "

Need I say more?
Zodra de resoluties wat omhoog gaan (dus bijvoorbeeld 2024x1536 (als ik het goed heb), waarbij alle lettertypen e.d. op 200% staan en de plaatjes gedetaileerder zijn) kan je eigenlijk wel zeggen dat met een GUI het geheugengebruik kwadratisch oploopt.

Als ik nu al zie dat MSN Messenger soms al 35 MB nodig heeft dan schrik ik wel even hor (ja dat is een triple-taskbar ;)). En zeker met al die skins die er aankomen (ik gebruik nu geen skin nl) gaat dat _zeer_ rap. Daarnaast is het handig om veel stuff in het geheugen te bewaren, wat dacht je van 'tijdelijke internet bestanden' in je RAM opslaan? Dat maakt het internetten nog aangenamer.

En dan bijvoorbeeld nu, ik heb ongeveer 20 IE's open, een paar Mozilla's en nog wat dingetjes (MSNM, dev-tooltjes, FTP-client). Dan zit ik toch al aan de 350 MB. En ik ben dus heel bescheiden, alle speciale effecten staan uit. Nou, als ik er een skin over gooi dan weet ik zeker dat dat richting de 1 GB gaat hor.

Oke ik geef toe, niet iedereen heeft zoveel open dan ik :P maar ik bedoel maar: je opent een Word-document met een paar ingescande foto's: hoppa 100 MB in beslag (ga even uit van het BMP-formaat).

Ik heb er iig nu te weinig aan, van de week ga ik een reepje erbij bestellen denk ik en dan zit ik dus al aan de 1 GB. Stel dat ik met twee monitoren zou werken (=meer dingen open) mag dat wel * 1.5 extra. Websites zullen in de toekomst meer grafische dingen krijgen dus dat tikt ook hard aan (zeker wanneer die hoge resoluties een beetje populair gaan worden). Zelf schat ik dat tegen die tijd 4 GB 'normaal' is, 10 vind ik een beetje gortig, maarja dat is met alles zo. Een tijdje terug was ik ook héél tevreden met de upgrade van 8 naar 16 MB/ram in mijn 486'er :+.
Anoniem: 60561 @Beaves6 juli 2003 09:39
Dit lijkt me een beetje wisfull thinking van de geheugenindustrie, ik kan me geen applicaties voorstellen die 4GB aan geheugen nodig hebben.
- Fotorealistische games. Denk: Final Fantasy (de film) real time als game.

- Dezelfde fotorealistische technieken ingezet voor het visualiseren en verkopen van producten, (kleding, auto's, huizen, keukens, whatever).

Afijn, als je je fantasie de vrije loop laat zijn er zo wel meer toepassingen te bedenken.

Maar het (te) ver in de toekomst kijken blijft natuurlijk link. Wie weet zit er tegen die tijd wel 4gig of meer in je CPU ingebakken... "Los geheugen? Waarom deden ze dat pappa?" :+
Ik wil niet lullig klinken ofzo, maar er staat geloof ik niets over een verwachting van 4GB geheugenmodules in standaard pc's...
Tenzij de geheugen-industrie zijn eigen termen door elkaar haalt en Gbit (Gb) ipv. GByte (GB) op die chart heeft gezet, dat is denk ik eerder het verwachtte 'vermogen' van individuele geheugenchips in 2010....
edit:

En dat betekent dus niet meteen 4GB modules, die gaan dan wel bij de mogelijkheden horen maar met 2 van die chips heb je dan bvb. een 1GB module of met 1 een 512MB etc.
Anoniem: 60636 @Beaves5 juli 2003 20:10
Ooowwwhhh..... jij dacht natuurlijk 6 jaar geleden dat 4 mb meer als voldoende zou zijn.... :7
Zes jaar geleden zaten wij al met 128MB geheugen hoor ;)
Anoniem: 66395 5 juli 2003 19:40
Ik hoop niet in 2010 een memorydump te krijgeen, ben je wel even bezig zeg
Ja, met de huidige processoren en opslagmedia wel ja, maar die zullen ook blijven groeien.
Anoniem: 77025 7 juli 2003 10:09
Een dual channel systeem met twee van zulke reepjes zou maar liefst 25,6GB/s aan bandbreedte kunnen afleveren
Daar ben ik niet echt vanm onder de indruk. De huidige videokaarten van nVidia en ATI komen met hun communicatie tussen chipset en geheugen ook al dicht in die buurt:
de 9800 pro 256MB haalt 22,4 GB/sec, en de Geforce FX 5900 Ultra met 256 MB zelfs 27,2: http://www.anandtech.com/video/showdoc.html?i=1821.

Ik verwacht dat het geheugen tegen die tijd een stuk sneller is, en ik snap ook niet dat ze uitgaan van een FSB van 200 Mhz (echte Mhzen! de 800fsb van de pIV is in feite ook 200 Mhz.) maximaal in 210. Tegen die tijd zal dat toch wel meer zijn geworden?

Bovendien denk ik dat het mogelijk is dat dan inderdaad een andere oplossing is gevonden voor hert geheugen: misschien wel bankjes die je direct in je proc steekt, of misschien wordt het allemaal standaard in je proc ingebouwd.
ja maar je vergeet wel ff dat het geen gewoon geheugen is he.
voor je kaart gaan ze echt geen gewoon geheugen gebruiken. dat is daar niet voor geschikt. boven dien kan je een videokaart combo (gpu met geheugen dan) niet zomaar vergelijken natuurlijk. alles wordt anders aangesproken. data bus is verschillend. ik dacht ddr 1 = 64 bit (of 32 dat weet ik niet zo snel) en als we het over de laatste kaarten hebben zitten we rond de 128 of zelfs 256. dat is dus niet te vergelijken.
en dan moet je niet aankomen met waarom zetten ze geen 256 bus in voor je cpu -- ram.
dan kan je net zo goed zeggen waarom niet 10gb aan cache. kortom de prijs. tmoet wel betaalbaar blijven.

en waarom een video kaart goedkoper is.
andere functie. met maar 1 doel. video verwerking.
proc en ram. veeeeeeeeeeel meer implementaties en functies. dus dat zegt het wel.
multifunctionaliteit is duur.
Ben ik nou gek om maken ze een foutje in deze post :?
een reep DDR400 en een reep DDR2-400 is dus dat de chips van de eerste op 200MHz draaien, en de chips van de tweede op 100MHz
Eerste= DDR400 en Tweede= DDR2-400. Kijk nou eens naar dat plaatje, zie ik het nou verkeerd of lijkt het net andersom :?
Anoniem: 74706 @Madrox6 juli 2003 10:51
je bent gek :+
Is wel grappig jaartal eigenlijk.

2010 is de Datum van Back to the Future. Wedden dat ze daar geen DDRIII in hun PC hebben zitten > :)

Op dit item kan niet meer gereageerd worden.