Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 19 reacties

De Japanse geheugenfabrikant Elpida heeft, naar eigen zeggen als eerste producent ter wereld, high-K metal gate-technologie ingezet voor zijn mobiele ddr2-geheugen. Dat moet leiden tot zuiniger geheugen voor mobiele toepassingen.

Elpida heeft de hkmg-techniek voor low power ddr2-modules gebruikt. Dat geheugen wordt volgens een relatief fors 4x nanometer-procedé vervaardigd. In de toekomst wil de Japanse fabrikant het hkmg-procedé ook voor geheugen met kleinere featuresizes inzetten; een prognose wanneer dit moet gebeuren gaf het bedrijf echter niet. Wel maakte het bekend nog dit fiscale jaar, dat nog tot april 2012 loopt, samples te willen leveren.

Voor het lpddr2-geheugen slaagde Elpida erin de voor de hkmg-inzet benodigde hoge temperaturen voldoende te verlagen om compatibel te zijn met de geheugenproductie. Dat heeft geleid tot een effectieve afname van dertig procent van de isolatielaag van de gates. De stroom door de transistors kan daarbij 1,7 maal hoger zijn, terwijl de stroom in uitgeschakelde staat slechts een honderdste van die bij een siliciumdioxide-diëlectrum is.

De hkmg-techniek is vooral bekend uit de processorindustrie. Het high k-materiaal is een isolator met hoge diëlektrische constante en moet onder meer lagere lekstromen opleveren. Het materiaal wordt in een dunne laag op de gate van een transistor aangebracht. Het metal gate-deel van de hkmg-techniek slaat op de metalen elektrodes die gebruikt worden.

Moderatie-faq Wijzig weergave

Reacties (19)

Ik blijf het vreemd vinden dat geheugen zo ver achter loopt op de rest van de systemen. Immers als bijvoorbeeld Intel nu zou besluiten om geheugen te gaan maken met high-K 3D gates op 22nm dan zouden ze chips maken die heel erg vele minder energie en ruimte nodig hebben om de zelfde prestaties te leveren als de concurrenten. Ik kan me haast niet voor stellen dat de markt die altijd op zoek is naar zuiniger en kleiner hier niet meteen boven op zou springen.
De enige reden die ik kan bedenken is dat deze technieken zo veel uitval hebben tijdens de productie dat de marges te hoog moeten worden op het geen dat wel verkocht kan worden om de markt tot kopen te kunnen overhalen...
Uitval is juist bij geheugenchips niet zo erg. Een processor bestaat voor een relatief groot deel uit logica die maar een keer (of voor multi-core een aantal keer) geimplementeerd wordt. Als er dan iets beschadigt, dan is de kans erg groot dat je de hele core of wellicht de hele chip moet afschrijven. De chip kun je dan dus niet meer, of maar voor een veel lager bedrag verkopen. Als het proces niet goed onder controle is, dan zijn de yields dus laag.

Een geheugenchip van bijvoorbeeld 512 Mbit bestaat uit vele miljoenen identieke kopieen van dezelfde (kleine) structuur (een geheugencel om een bit op te slaan). De overige elektronica voor addressering, busprotocol en eventuele foutdetectie / -correctie is relatief klein. Als er dan iets beschadigd raakt, hoef je alleen die ene structuur (of een aantal structuren) afschrijven. Als je er vervolgens voor zorgt dat je een paar extra structuurtjes op de chip maakt omdat dat toch maar weinig extra oppervlak in neemt, dan is er nog een goede kans dat je die reserve structuurtjes kunt aanspreken als er ergens iets defect is. Vervolgens kan je de chip nog wel als 512 Mbit verkopen.

Processors zijn dus veel gevoeliger voor verstoringen in het productieproces.

De geheugenchips kunnen bovendien nog met relatief oude proces technologie gemaakt worden. Het is uiteraard wel belangrijk dat geheugenchips snel zijn, maar de bottleneck is voor zover ik weet voornamelijk nog de bus die het geheugen met de processor verbindt (zie ook posts van andere mensen hierboven). Het geheugen nog sneller maken levert daarom maar weinig op.

(Stroomverbruik en kosten kunnen uiteraard wel een reden zijn om naar modernere proces technologie over te gaan, maar dat vergt uiteraard wel meer investeringen en ik weet niet waar op dit moment het kantelpunt ligt.)

Intel begeeft zich naar mijn idee niet in de ram geheugenmarkt omdat het ontwerp van een geheugenchip veel eenvoudiger is. Even heel kort door de bocht: kopieer een kleine structuur 512 miljoen keer, plak er nog wat controle logica aan en je bent klaar. Deze kennis is relatief eenvoudig te verkrijgen en kan je concurrent dus ook eenvoudig bemachtigen.

Vergelijk dit met een moderne processor: daar moet je een heel diepe kennis van x86 en x86-64 architectuur hebben, van SIMD instructies, van compilers, van branch prediction, van logica, van verschillende niveau cache geheugens, van typische software die op de processor gedraaid zal gaan worden etc etc. Deze kennis is veel lastiger te verkrijgen, en is het specialisme van Intel, AMD, ARM en IBM (en wellicht nog een handvol anderen die ik nu vergeet).

In de geheugenmarkt is dan ook heftige concurrentie en veel fabrikanten halen slechts hele lage marges of draaien met verlies. (Tenminste, dat was een paar jaar geleden zo; weet niet hoe het er nu voor staat.) Dat is geen markt waar Intel zich graag in wil begeven.

De SSD markt daarentegen is wel weer interessant voor Intel. Voor flash geheugen heb je namelijk ook een relatief eenvoudige structuur die miljoenen malen gekopieerd wordt. Ook hierbij kun je dus reserve structuren maken zodat je minder gevoelig bent voor verstoringen tijdens productie. Dit kun je dan ook vergelijken met de RAM geheugen markt. Echter, toen Intel flash geheugens ging produceren, stond die markt nog in de kinderschoenen: er waren nog maar weinig producenten en die maakten relatief weinig omzet maar wel met gezonde marges. Intel kon daar eenvoudig inspringen en ook nog gezonde marges blijven maken.

Daarnaast speelt waarschijnlijk ook mee dat Intel met flash geheugen hun nieuwe proces kan testen en optimaliseren. Ik weet niet of ze dat doen, maar ze zouden kunnen overwegen om flash op de allernieuwste techniek te produceren die nog niet beschikbaar is voor gewone processors. Flash geheugen is door die extra structuren namelijk veel toleranter voor fouten, dus de yields zijn veel hoger en het geheugen kan waarschijnlijk daarom nog steeds met winst verkocht worden. Ondertussen kan Intel het proces nog finetunen zodat de fouten omlaag gaan totdat het geschikt is om ook complexere structuren (zoals processors) op te maken.

(En excuses dat het zo'n lang epistel is geworden)
Uitval is juist bij geheugenchips niet zo erg. Een processor bestaat voor een relatief groot deel uit logica die maar een keer (of voor multi-core een aantal keer) geimplementeerd wordt. Als er dan iets beschadigt, dan is de kans erg groot dat je de hele core of wellicht de hele chip moet afschrijven. De chip kun je dan dus niet meer, of maar voor een veel lager bedrag verkopen. Als het proces niet goed onder controle is, dan zijn de yields dus laag.
Je verhaal klopt, maar je trekt de verkeerde conclusie. Voor logic IC's zoals een CPU is het inderdaad zo dat je heel weinig tolerantie hebt voor productiefouten en dus je proces heel strak onder controle wilt houden. Je hebt het dan echter alleen over het productieproces voor een bepaalde generatie of familie van chips, niet over je complete productassortiment. Intel werkt volgens het bekende 'tic-toc' principe waarbij ze in principe om-en-om het productieproces en de arhitectuur ingrijpend aanpakken. In de praktijk komt dit er op neer dat ze zo'n beetje om de 2 jaar hun productieproces aanpassen, en dan gelijk vrij ingrijpend. In de tussenliggende jaren prototypen ze als een gek om te zorgen dat bij de volgende toc (of tic, weet even niet wat nu wat is) het proces volledig onder controle hebben.

Bij de productie van geheugen gaat dit heel anders, daar heb je het zoals je zelf al zegt over vrij 'simpele' designs met heel erg veel repetitie, die vaak prima te produceren zijn op 'oudere' procestechnologie omdat er weinig te winnen valt door geheugenchips kleiner te maken. Geheugenproducenten investeren dus veel minder in nieuwe procestechnologie en blijven veel langer op dezelfde node hangen. Veel liever proberen ze het onderste uit de kan te halen met het proces en de machines die ze hebben staan zodat ze meer wafers per uur er uit kunnen persen, en de machines langer kunnen laten draaien voordat er geplanned onderhoud nodig is.

Bij ASML bijvoorbeeld zijn het ook de geheugen klanten die het meest geinteresseerd zijn in software om allerlei soorten drift in de machine te kunnen vaststellen en corrigeren en machines naar elkaar toe te calibrereren. Intel heeft daar veel minder interesse in, omdat die toch continu op weg zijn naar de volgende proces node.
Ik vind het niet zo vreemd eerlijk gezegd, het is namelijk niet nodig om enorm veel geld in geheugen te stoppen. een stripje van 4gb ddr 3 dat 13 GB/s aan data schrijft kost nagenoeg niks.

power consumption en hitte productie is ook laag... Dus ik zie niet in waarom er veel vaart in zou zitten...
Omdat het verschil in CPU rekenkracht en de bandbreedte plus latency naar het geheugen steeds groter wordt.

Nou helpt caching tot een bepaalde hoogte maar als je een miss hebt sta je in CPU cycles vrij lang met tien vingers in je neus te wachten op data.

Zou je het RAM nu een stuk sneller maken, dan zou bijvoorbeeld de latency een behoorlijke factor omlaag kunnen waardoor je hele computer sneller wordt.

Hier hoef je dus niet eens de bussnelheid tussen geheugen en CPU voor te verhogen, alleen de interne snelheid in het geheugen...
De latency om uberhaupt toegang tot de geheugenmodule te krijgen vanuit de CPU is ook al behoorlijk. En die tijd verlaag je niet met snellere modules, dat kan enkel door je geheugen dichter op de CPU te zetten. Zeer snel geheugen zal wel iets helpen maar zeker niet veel.

Kijk eens naar de latency (in tijd, niet in kloktikken) van de huidige modules vergeleken met die van jaren geleden. Veel hogere snelheid, maar ook een veel hogere CAS-latency, dus de netto latency gaat gewoon niet hard vooruit.
Die hogere CAS latency is hoger als de kloksnelheid ook hoger is. De toegangstijd is gewoon min of meer hetzelfde.
En die hoge CAS is omdat de memory modules niet sneller zijn. Echt niet omdat de signalen zo'n lange weg naar de modules af moeten leggen hoor.
Je kunt gewoon sneller memory kopen, dus een lagere CAS. Maar heel veel schiet je er niet mee op, omdat de cache van de processor al heel efficient is.
Die cache is juist (relatief) efficient vergeleken met intern geheugen vanwege de grote afstand tussen CPU en geheugen, en dat hebben ze bij de cache juist zo klein mogelijk gehouden. Dat is juist de oorzaak: als intern geheugen een lagere latency had gehad was cache helemaal niet nodig geweest, maar zo snel is intern geheugen simpelweg niet te krijgen. Cache is slechts een lapmiddel om het probleem van grote latencies te compenseren.

Een elektrisch signaal gaat met iets minder dan de lichtsnelheid, zeg 2*10^8 m/s. Als de afstand dan 20 cm is, is de tijd om die afstand af te leggen 10^-9 seconden (afstand gedeeld door snelheid), oftewel dat zit in de orde van nanoseconden. Met geheugen van boven de 1GHz duurt het dus al enkele cycles voordat het signaal er uberhaupt is (en dat signaal moet ook nog terug). Dus ja, de lichtsnelheid is te laag om de geheugenlatencies echt lager te krijgen.

[Reactie gewijzigd door bwerg op 15 juni 2011 18:14]

Welnee, hoe kan een memory module anders specificeren hoe groot de timings zijn. Deze weet toch niet hoe het moederbord samengesteld is?
Een memory module specificeert gewoon z'n eigen interne timings. Het BIOS leest dit uit en telt hier wellicht nog iets bij op, afhankelijk van de layout van het moederbord.

De CAS latency van een moderne DDR3-1600 module ligt in de orde van 8. Dus dat is ongeveer 10 ns. Oftewel 10 maal zo veel als de reistijd van de stroom.
Tien vingers in je neus? Ik vind het veel... ;)

Maar deze techniek gaat niet over snelheid, maar over energieverbruik. En dat is voor laptops, netbooks, tablets en smartphones heel interessant.
De cpu laten wachten kost ook energie ;) en dat is denk ik wat Cyberwizzard bedoeld.

[edit]Jammer genoeg kost het geheugen al geen drol en zit er al zo'n lage marge op.
Ik snap niet dat men tegenwoordig niet gewoon 4GB geheugen op de CPU zet en al dat moeilijke gedoe met caches achterwege laat. Zo duur kan dat toch niet zijn?
Kijk eens hoe groot een CPU is: zo'n 2cm2. Kijk nu eens naar hoe groot de geheugenchips samen zijn op een 4GB-module. ;) En dan is cache-geheugen ook nog eens niet hetzelfde.

Cache-geheugen is nogal wat onzuiniger (bekijk het verschil in energieverbruik eens tussen een athlon II en phenom II die enkel 6MB cachegrootte als verschil hebben), en te veel cache gaat dus zeker leiden tot een overmatig energieverbruik. Daarnaast heb je ook niets aan 4GB cache, wanneer ga je nou echt code draaien waarbij je die 4GB tegelijk nodig hebt (d.w.z. alles binnen een fractie van een seconde)? Met een beetje mooie technieken om de cache slim te benutten is enkele MB al prima hoor.

Dat is net zoals je zou zeggen: HDD's zijn veel trager, waarom stoppen maken we geen geheugenmodules van 1TB om alles op te zetten? ;) (ja ik weet dat intern geheugen niet voor opslag is, maar voor het idee natuurlijk). Of je kan een 1TB HDD gewoon als intern geheugen nemen, en dan ben je blij want je hebt zo lekker veel geheugen, maar dat gaat je qua snelheid vies tegenvallen. :)

[Reactie gewijzigd door bwerg op 15 juni 2011 17:22]

Dat is net zoals je zou zeggen: HDD's zijn veel trager, waarom stoppen maken we geen geheugenmodules van 1TB om alles op te zetten?

Omdat het in hibernate slaapstand zetten dan zo lang duurt ? :P
Op een CPU die zelf zit heel ander geheugen, waarvan 6MB al redelijk duur is (zowel duur qua kosten als duur qua ruimte) CPU-Cache geheugen is enkele orde van grote sneller als gewoon RAM. Ook wordt CPU-Cache geheugen met het zelfde procede gemaakt als de CPU zelf. terwijl je bij gewoon RAM een veel simpelere (groter) procede kan gebruiken (een van de redenen waarom het zo duur is).

Dus nee je kunt niet gewoon voor 50,- 4GB geheugen als cache in zetten op je CPU.
Het punt is dat het waarschijnlijk duurder uitpakt en de gemiddelde consument er niet op zal letten. Waardoor je grote investeringen moet doen die je als je mazzel hebt heel langzaam terug kan verdienen.

De consumenten zien alleen Ghzen alsof die zich zorgen maken over wat voor RAM er in zit, als het maar veel en goedkoop is.

Maar misschien worden RAM latencies wel de volgende marketing term.. wie weet
Nou ja, hoewel dat enerzijds wel waar is, kan ik me ook voorstellen dat het voor veel mobiele apparaten een uitkomst is als sneller geheugen koeler en zuiniger functioneert.
power consumption en hitte productie is ook laag... Dus ik zie niet in waarom er veel vaart in zou zitten...
Voor mobiele toepassingen is zuiniger altijd beter.

Het achter blijven van geheugen vergeleken met CPU technologie zit 'm meer in de snelheid dan in energie verbruik.
Maar hogere snelheid brengt onvermijdelijk hoger energie verbruik met zich mee, dus zuiniger geheugen maakt in principe ook sneller geheugen mogelijk, en dat zou zeer welkom zijn.
Intel heeft als CPU fabrikant veel meer te winnen door een verbetering in hun productieproces, een CPU gebruikt nou eenmaal veel meer energie, is hoger geklokt, heeft een veel gevarieerdere layout en dus ook veel meer punten om te optimaliseren of verbeteren. Vandaar dat ze er van alle chipfabrikanten veruit het meeste aan uitgeven en ver voorlopen op de rest. Voor foundries als TSMC geldt in bepaalde mate hetzelfde: door de grote diversiteit aan designs die daar geproduceerd worden is het ook van belang om voortdurend aan betere productieprocessen te sleutelen.

Vergelijk dit met geheugen fabrikanten, die maken eigenlijk jaren achtereen precies hetzelfde: super simpele, reguliere designs met vooral rechte, parallelle traces. Hun productie procede is helemaal ingericht op continuiteit en voorspelbaarheid om zo veel en zo snel mogelijk te kunnen produceren. Overstappen naar een ander productie proces levert een geheugen fabrikant relatief weinig op en kost een hoop, dus dat doen ze in grote stappen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True