Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

SK Hynix onderzoekt combineren dram met soc voor ddr6

SK Hynix overweegt om voor de ontwikkeling van ddr6 het dram te integreren in een soc-ontwerp. De ontwikkeling van de ddr5-opvolger moet over vijf of zes jaar plaatsvinden. Eerst komt ddr5, waarvan de massaproductie in 2020 begint.

Dram-onderzoeker Kim Dong-kyun noemt in een interview met The Korea Herald het combineren van dram met een soc. Het is een van de concepten voor het 'post ddr5'-tijdperk dat de geheugenfabrikant overweegt. Een andere optie is om ddr6 gewoonweg sneller te maken dan ddr5.

Concrete details over de mogelijke integratie van dram in een soc geeft de onderzoeker niet. Het wegnemen van de fysieke afstand tussen het geheugen en de cpu kan de snelheid ten goede komen. De plannen voor ddr6 bevinden zich in een vroege fase. De daadwerkelijke ontwikkeling vindt over vijf of zes jaar plaats, zegt de onderzoeker. Volgens Kim Dong-kyun heeft SK Hynix zo'n twee jaar onderzoek gedaan naar nieuwe technologie voor ddr5.

In november vorig jaar presenteerde de fabrikant de eerste ddr5-geheugenchip. Ddr5 moet sneller en zuiniger worden dan ddr4, en de verwachting is dat het in 2020 op de markt komt, als de massaproductie begint. Aanvankelijk krijgt ddr5 een doorvoersnelheid van maximaal 5200MT/s, maar in 2022 zou dat opgevoerd moeten worden tot 6400MT/s.

Door Julian Huijbregts

Nieuwsredacteur

28-01-2019 • 15:51

44 Linkedin Google+

Reacties (44)

Wijzig sortering
Het eerste wat ik mij afvraag bij de combinatie van SoC en ram, als dat een ding zou zijn, hoe zit het met reken PCs? Waar ik werk zijn er enkele PCs waar toch wel 256 GB+ aan ram in zit. Geven ze dan nog ruimte voor extra ram of is dat een no go?
Dit wil je niet op alles toepassen, maar vooral op plekken waarbij kosten-efficiency belangrijk is. 1 chip in je mobiel, in plaats van 3, met veel minder nare kleine baantjes op je printplaat, scheelt veel kosten.

Voor grote servers heb je het probleem dat je je warmte niet meer kwijt kunt, onder andere.
Maar komen we vandaag al niet in de buurt met POP?
PoP is meerdere lagen silicium op elkaar plakken en met bumps aan elkaar plakken (wat nu al gebeurt, zie HBM). Dit is het daadwerkelijk op hetzelfde stukje silicium bakken van de logica en het geheugen, als ik het goed lees.
De originele quote is "One concept is to maintain the current trend of speeding up the data transmission, and another is to combine the DRAM technology with system-on-chip process technologies, such as CPU". Dat zegt ook niet veel, maar het probleem zit em in de bandbreedte.

PoP lost dat al grotendeels op (je vervangt baantjes op je printplaat door 'bumps' op je die, die relatief duur en wat tricky zijn), maar dit betekent daadwerkelijk 1 grote chip bakken met alles erop en erin.
Wat natuurlijk altijd kan is dat je een aantal gigabyte als DDR6 op de SoC krijgt, en daarnaast met DDR5 in slots kan uitbreiden, soort van L4 cache idee. Dan vraag ik me alleen af waarom je dat zou doen, daar hebben we namelijk al HBM voor.

[Reactie gewijzigd door knirfie244 op 28 januari 2019 16:38]

Daar dacht ik ook aan.
DDR6 kan zomaar meer latency geoptimaliseerd zijn ten opzichte van HBM2. HBM2 heeft nu ongeveer dezelfde latency als DDR4. Voor een CPU die een OS (en dus veel taken) draait kan dat best wel wat schelen.
Ik betwijfel sterk dat sneller geheugen onze pc’s ook sneller zal maken. De grootste bottleneck is gewoom de SSD.

Sneller ram maakt een pc amper sneller. Bij sommige workloads kan het schelen en dan nog afhankelijk of je een intel of amd cpu hebt, maar veel meer dan een procent of twee zit er niet in wat nu al illustreert dat sneller ram weinig effect heeft.

Als we dromen van apps en een OS die in no time opstarten hebben we nood aan ram-achtige ssd’s. Intel Optane komt in de buurt maar is het nog niet.

Maar goed, ze spreken hier over 5-6jaar. Wie weet is het ook wel zuiniger of kostenefficienter. Het past wel in de trend om meer en meer functies in een soc te stoppen (Cpu,gpu,encryptie,modem, neural networks..)
meer verschillende opties? zakelijke varianten kunnen dan gewoon in verschillende grotes gemaakt worden? (misschien te simpel gedacht)
Nee totaal niet . zie het als de toe passing als concurrent HBM geheugen . Een voorbeeld kijk naar de vega 2 van AMD.
Als je naar de plaatjes kijk zitten de GPU en het geheugen op de zelfde Die . 1 grote chip de gpu en vier kleine geheugen chips er omheen. Nvidia werkt met een losse gpu en op de printplaat verder van de cpu vandaan zitten losse geheugen chips . Hoe langer de spoortjes naar de geheugen chips des te meer kans op signaal vervuiling en gaat de snelheid om laag.
True, dan is het een goede oplossing ja.
Wat maakt dat de fysieke afstand tussen geheugen en CPU kleiner kan worden bij gebruik van een SoC? Ik neem aan dat hiermee een soortgelijk "voetje" (socket) bedoeld wordt als bij een CPU?

Of praten we hier over het concept System On a Chip? Zo ja, betekent dat dat je de hoeveelheid geheugen in je systeem bepaalt met de aanschaf van je processor? Of is dit een separate processor voor het aansturen van het geheugen?
System on a Chip
En ja, je geheugen grootte ligt dan vast bij de aanschaf van de SoC. Hierin zullen dan vast opties worden aangeboden. Voor veruit de meeste toepassingen is dit geen probleem. Ik heb in 30 jaar slecht 1x mijn computer geheugen uitgebreid. En dat was alleen van mijn eerste x86. 4 megabyte voor 400 gulden (!).
Ik heb in 30 jaar slecht 1x mijn computer geheugen uitgebreid
Dat is natuurlijk een non-argument, afgezien van je N=1 steekproef. Een modulair ontwerp is er niet alleen voor zodat je makkelijk kan uitbreiden, het is zodat je ook gewoon veel meer keuzemogelijkheden hebt, ook al schaf je de hele set in één keer aan en verander je het nooit. Zoveel verschillende permutaties alleen al op PC geheugenniveau ga je natuurlijk nooit terugvinden in het aantal SoCs.
Dat is natuurlijk een non-argument, afgezien van je N=1 steekproef. .
Nee dat is een ZEER steekhoudend argument. Zelfs in de hobby markt voegen mensen maar zeer zelden geheugen toe aan een bestaand systeem. Zakelijk gezien heb ik in 30 jaar nog nooit gezien dat we geheugen in een bestaand systeem geplaatst hebben (en in totaal betaal ik voor 220 PC's en rond de 55 servers en ontelbare andere dingen die uitbreidbaar zijn met geheugen). Oops ik lieg, nog recentelijk geheugen gekocht voor een printer maar diegene die die besteld heeft maakte een fout.

In de praktijk koop je zeker in de zakelijke wereld een systeem en wil je het nooit meer openmaken want dat kost downtime, arbeid en vaak loop je daarna weer op iets ander vast. Op PC platformen kopen wij 16 Gb standaard en 32 GB voor grafische systemen. Dat doen we al 8 jaar en er is geen enkele aanwijzing dat dat snel gaat veranderen.

Daarom is een systeem waar je CPU en geheugen in een kaartje doet naar mijn idee een prima idee om weer wat vooruitgang te vinden in een CPU markt waar echte snelheidswinst amper te vinden is.
Ik leg net uit dat het niet gaat om het aanpassen van bestaande situaties, en dan begin jij nog een keer over dat dat niet vaak voorkomt 8)7
Ik weet 100% zeker dat 90% van de computers en nog % meer laptops nooit een geheugenaanpassing gehad hebben.

Hoeveel permutaties wil je? De meeste geheugenchips komen uit 2 fabrieken. Kleur en design doet er niet meer toe op een SoC. Voor een paar enthousiastelingen maakt het uit, en dat is meestal ook maar marketing. 99.999% zal niet merken of het cas 10 of 16 is.
Ik vind het een slecht idee. Het aanpassen van je ram configuratie is een groot voordeel van PC gebruik. Hiermee verklein je dadelijk PC configuraties.

Verder snap ik niet dat ze juist de cache gigantish uitbreiden. Cache is gewoon sneller dan Dram. Nou geef ons dan maar 8 gb cache geheugen zodat Dram geheugen nog wel uitgebreid kan worden.
Cache is niet goedkoop. Anders had men dat wel gedaan, want als ze de cache goedkoper in de processor konden verwerken, had Intel / ARM / AMD dat deel van de markt wel gepakt door het op de processor mee te bakken.
Maar waarom zou Dram in een SOC stoppen goedkoper zijn dan meer Cache in een CPU te bakken?
Dram is een heel andere techniek dan het dure sram geheugen wat als cache word gebruikt.
Dram neemt ook veel minder ruimte in.
1GB sram kost al gauw paar duizend euros
Niet overdrijven. Een DRAM bit is 1 transistor, 1 condensator (1T1C). Een standaard SRAM cel is 6 transistoren (6T). De prijs is daarom ongeveeer 3 tot 6 keer hoger per bit.

Sandwalker heeft wel een punt dat cache duurder is, maar dat dat is omdat een cache meer is dan alleen SRAM. Je hebt ook nog content-addressable memory nodig om bij te houden welke addressen waar in de cache staan. (ook wel bekend als Tag RAM). Dat komt bovenop de kosten van SRAM, en is vanwege de functionaliteit fors duurder.
Cache geheugen is niet duur, maar ook niet bijster versnellend. Als je 10% van je data 20% sneller kan krijgen, wat win je dan?
Dat zal vast de reden zijn dat je CPU 3 lagen aan caching gebruikt voor je bij je main memory bent... Sowieso heb je iets als lokaliteit, de kans dat je volgende geheugenaanvraag binnen 1 kB van je huidige ligt is 90+%...
Verder heb je een fikse kans dat het geheugenadres dat je zojuist hebt opgevraagd binnenkort nog een keer gebruikt wordt, daarom hebben we write-back caches.

Misschien moet je ook eens kijken naar van die leuke access timing plaatjes die ze soms her en der schetsen. Zie hier ofzo... Scheelt toch best wel, die snelheid.
Dat was niet mijn betoog, als je het kostenefficient in de package kan stoppen in de vorm van cache (nog even afgezien of besturingssystemen daar wel mee overweg zouden kunnen) dan zou het wel gebeurd zijn, want dan had men een groter deel van de uiteindelijke PC in eigen beheer gehad, dus geen gedoe met geheugen timings en verschillende fabrikanten en zo.
Ik vind het een slecht idee.
Wellicht moet je even met Hynix (en Intel en AMD) bellen want ze zijn allemaal met dit soort dingen bezig en investeren er miljarden in. Als je uitlegt waarom dat een verkeerde weg is kunnen ze misschien nog al die ontwikkelingen stoppen.

Waar de zwakte in je denken zit is dat cache data opslaat die je al een keer gebruikt hebt. Soms is dat goed, vaak heb je vrijwel alles van je cache vol zitten met data waar je niets aan hebt. Om dat probleem te verminderen moet je hele slimme algoritmes gebruiken. Maar slimme algoritmes kosten veel CPU tijd. er zit dus een grens aan waar cache profijt oplevert. In de praktijk is cache voor een CPU of opslag voor een groot deel waardeloos. als je 10% van je bits 20% sneller kan bereiken..... hoeveel win je dan?
Soms is dat goed, vaak heb je vrijwel alles van je cache vol zitten met data waar je niets aan hebt. Om dat probleem te verminderen moet je hele slimme algoritmes gebruiken. Maar slimme algoritmes kosten veel CPU tijd.
Nee.

CPU algoritmes zijn té tijdskritisch om ze in software uit te voeren. Ze draaien volledig in hardware, eigen hardware van de cache. Ze kosten dus 0,0 CPU tijd.
Als ze nu eens tijd zouden steken in het verlagen van de latency ipv. de klok maar hoger zetten en waitstates toevoegen om de latency te maskeren. Geheugen is gegroeid in omvang en in throughput maar de latency is nog steeds die van jaren geleden (volgens mij geen echt relevante snelheidsverhoging meer sinds FPM DRAM en is het sinds die tijd een factor 2 lager geworden, terwijl de throughput een factor 30 hoger is geworden).
Heb nog wat gegoogled. Lichtsnelheid is 299792458 ms.
4ghz = 4 miljard schakelingen per seconde.
Alles wat verder dan 7,5 cm verwijderd zit van de cpu heeft dus 1 tick nodig om aan te komen, los van de schakel tijden die de (tussenliggende) componenten hebben.
Dan moet je alleen niet met lichtsnelheid gaan rekenen, maar met de snelheid van elektriciteit. Die ligt een flinke factor lager.
2/3e is nog dezelfde orde van grootte, niet "een flinke factor"
Dat is volgens mij ook iets wat je (deels) op kunt lossen door het geheugen dichter bij de processor te zetten. Integratie in de soc zou dus een oplossing kunnen zijn.
Het gevaar met een SOC is - dat dat ding programmeerbaar wordt - en dat er dus meer hooks komen om je systeem te hacken. Hoe gaat men die SOC beschermen?
Wat men hier vermoedelijk bedoeld is dat de SoC eigenlijk je hele PC is. Een volledige PC in 1 enkele package. Interessant voor bepaalde toepassingen. Maar het is natuurlijk ook nog maar een idee.
Lekker dan. Ga ik zo upgraden naar DDR4, komt DDR5 dat jaar erna :+.
Tja.... je kan ook een jaartje wachten, dan upgraden, maar.... hee, dan komt DDR-6 al weer om de hoek kijken.... ik heb dus ook maar gewoon een PC gekocht met DDR4 op 2400mhz en een GTX 1050 TI en CPU een i5 7400. Tuurlijk, achterhaald, vorig jaar al, maar binnen mijn budget en het ding zal wel weer een jaar of 3-5 mee gaan. Als ik 'm straks moet upgraden wegens snelheid o.i.d. dan verkoop ik 'm en koop dan wel iets nieuws. (van Apple naar PC / WIN gegaan nu, wellicht Apple, mocht dat ooit nog weer een beetje normaal betaalbaar worden)
Punt is dat er dan 4 jaar tussen zit en geen 1 jaar zoals nu.
Hoi, dat klopt. 'Vroeger' was dat bij mij ook altijd een 'punt'. Echter koop ik nu wat binnen mijn budget past en upgrade ik eigenlijk nooit meer. Vrijwel altijd gaat en PC na 3-5 jaar 'er uit' en koop ik dan wel iets wat op dat moment redelijk up-to-date is. (op mijn 43e let ik minder op specs, uiteraard kijk ik wel wat redelijk recent is en koop iets rond die specs)
Nou ja, om een tegenvoorbeeld te geven, ik zit momenteel met een Haswell systeem uit 2013, met nog DDR3. Ik zat langzaamaan te kijken naar een vervanger, toevallig vorige week nog iets bij elkaar geklikt met de pricewatch. Maar nu ik dit lees denk ik dat ik gewoon nog even een jaartje wacht, mijn 4770k kan voorlopig nog wel eventjes vooruit :)
En de volgende stap is het integreren van dataopslag in de soc, waarbij RAM en ROM gecombineerd worden. De PCB dient dan enkel nog om alle aansluitingen (wellicht enkel in de vorm van USB-c poorten) met de SoC te verbinden.
Een Ssd bedoel je ipv rom :-) rom = read only memory , lijkt me wat onhandig om te gebruiken om data op te slaan. ( en ja in de gsm wereld misbruiken ze de term rom idd om opslag capaciteit aan te geven. )
Is flashgeheugen niet een vorm van EEPROM?
Ergens wel, maar er zitten te veel verschillen in aansturing en daarmee snelheid om het wat mij betreft onder 1 noemer te gooien. Misschien ben ik gewoon te oud en kom nog uit tijdperk dat een rom ook daadwerkelijk alleen als rom in gebruik was 8-) .
Aah... mooie tijden..... EPROM (geen E-EPROM die elektrisch wisbaar is) wissen met een UV lamp (kastje).

EEPROM is elektrisch wisbaar, vroeger tot wel 10.000 keer, tegenwoordig nog veel vaker.
Echter is het bedoeld voor kleine opslag waarvan ook een deel van de opslag naast bestaande data, kan worden gewist. (eigenlijk NOR flash)

FLASH (NAND) is eigenlijk vergelijkbaar of identiek aan SSD opslag (flash)

p.s. correct me if i am wrong....

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische voertuigen

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True