Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Micron wil eind dit jaar gddr6-geheugen uitbrengen

Door , 27 reacties

Micron wil eind dit jaar, mogelijk begin volgend jaar gddr6-geheugen op de markt brengen. Het geheugen bouwt voort op gddr5x maar biedt een bandbreedte van 16Gbit/s, dubbel zoveel als gddr5. Het geheugen is daarnaast zuiniger en Micron denkt het voor veel toepassingen in te zetten.

Als Micron erin slaagt gddr6 eind dit jaar uit te brengen, zoals het bedrijf bij een analistenbijeenkomst heeft verklaard, dan verslaat het daarmee waarschijnlijk Samsung, dat in augustus vorig jaar 2018 aanhield voor de marktintroductie van gddr6.

Micron heeft hoge verwachtingen van gddr5x en gddr6. De geheugenfabrikant denkt dat de beide geheugentypes tegen 2020 al het overgrote deel van de pc-markt bedienen. Tegen 2020 zal ook de consolemarkt grotendeels op gddr5x en gddr6 overgestapt zijn, is de verwachting van Micron. Die adoptie komt later op gang vanwege de tragere upgradecycli, maar zou vanaf dat moment wel sneller verlopen.

De fabrikant denkt gddr6 ook in te kunnen zetten voor andere toepassingen dan gaming. Momenteel levert Micron al zuinig gddr5-geheugen voor netwerktoepassingen onder de noemer gddr5n, met een bandbreedte van 5Gbit/s. Bij gddr6n neemt dit toe tot 10Gbit/s.Ook voor high performance computing gaat gddr5x en gddr6 ingezet worden. Het geheugen kan hier een rol spelen bij machine learning en analyse, waar steeds vaker gpu's voor ingezet worden.

Gddr6 is met een bandbreedte van 16Gbit/s niet alleen sneller dan gddr5, dat een maximum kent van 8Gbit/s, maar ook dan gddr5x, dat volgens de specificatie op 10Gbit/s of 14Gbit/s loopt. Het voordeel van gddr6 is verder dat het 20 procent zuiniger is dan gddr5x. Uiteindelijk gaat het geheugen met name ingezet worden voor mainstreamtoepassingen, is de verwachting. Het high-end segment zal bediend worden door het nog snellere, maar duurdere hbm2.

Verdere besparingen voor zowel gddr5 en gddr5x als gddr6 moeten van de overstap van een 20nm- naar een 1xnm-procedé komen. Micron verwacht eind dit jaar 'betekenisvolle' 1xnm-productie te hebben op dram-gebied.

Micron zegt ook te werken aan een nieuw type geheugen, met de snelheid van dram, maar dat goedkoper te produceren is. Details hierover meldt Micron verder niet. Ook over 3D XPoint, het geheugen dat voordelen van nand en dram moet combineren, meldde Micron niets nieuws.

Olaf van Miltenburg

Nieuwscoördinator

6 februari 2017 11:33

27 reacties

Linkedin Google+

Reacties (27)

Wijzig sortering
Dus GDDR6 is niet meer dan GDDR5X op hogere frequentie wat mogelijk is door de productie op een kleiner productieproces. GDDR5X bleef op 1,75GHz steken en dus komt maar tot 14Gbps, op GDDR5X op 2GHz geeft ook 16Gbps.
http://cdn.wccftech.com/w...k-rates-and-bandwidth.png
En is tot 20% zuiniger.
Dus je overclockt zonder garantie dat het stabiel is of werkt ? Ik snap je redenatie niet helemaal :?
Simpelweg het voltage omhoog gooien om een hogere frequentie te behalen zou veel problemen veroorzaken met de geproduceerde warmte (dit schaalt ruwweg kwadratisch). Actieve koeling van de chip wordt dan noodzakelijk. De sleutel ligt in het kleinere productieproces (20nm -> 16nm (waarschijnlijk). Door de kleinere feature size, gaat de 'gate' lengte omlaag en wordt een lagere elec. capaciteit bereikt; hiermee kan een hogere frequentie bereikt worden op een lager voltage. Hieruit volgt ook een lager verbruik (GDDR5 -> GDDR6 zal rond de 20-25% liggen; source?). Tegelijkertijd kan op een gelijk oppervlakte, meer transistoren geplaatst worden; of de die size kan kleiner zodat er meer dies op één wafer geplaatst kan worden, wat met een kostenbesparing gepaard gaat en hogere omzet per wafer.

Toegegeven: bovenstaande is her en der aardig kort door de bocht.
In hoeverre is gddr verwant aan het ddr geheugen dat we in ons moederbord steken?
Is gddr4 bijvoorbeeld qua specificaties gelijk aan de chips die op een ddr4 reepje zitten?
GDDR en DDR zijn protocolsgewijs incompatibel.

GDDR is specifiek gefabriceerd op de patronen die voorkomen in GPU taken. Bijvoorbeeld hoogst geparalleliseerde taken. Het tekenen van hetzelfde scherm 60x per seconden, bijvoorbeeld.

DDR daarentegen is -net als een CPU ten opzichte van een GPU- breder ingesteld, en meer op alle taken gericht.

We kunnen theoretisch gezien het een voor het ander, en het ander voor het een gebruiken, maar dat zou geen performance-voordelen geven.

Integrated graphics gebruiken al vaker DDR geheugen voor grafische taken, gedeeld met de CPU. Dit kan omdat de iGPU niet zo krachtig is. Zodra er de belachelijke hoeveelheden pixels doorheen worden gedrukt, die je op een moderne discrete GPU verwerkt, volstaat DDR niet meer.

Het langzamere oudere DDR5 zit aan een lekkere 8Gbit/s. In hoeveel andere applicaties zien we dat soort snelheden? Enterprise networking. Maar, dat is niet hyper-low-latency.

De nummers achter DDR en GDDR zijn compleet ongerelateerd, op dezelfde manier dat Windows 7 en OS X (10) ongerelateerd zijn.

Edit: Dit artikel legt het heel mooi uit.

[Reactie gewijzigd door Gamrin op 6 februari 2017 13:57]

Gaat dit gebruikt worden voor nieuwe videokaarten ?
We weten dat HBM (nieuwe techniek met een release date van 2015) pas in 2016 op de markt kwam in de vorm van de RX 480 Fury. Nvidia is nu bezig met het uitrollen van HBM2 in de vorm van de Quadro P6000.

Wanneer we GDDR6 mogen zien is nog een raadsel, maar als Samsung en Micron rond 2018 comfortabel aan het produceren zijn, kunnen AMD&Nvidia dán pas écht aan de gang met de techniek testen. Ik verwacht dat de vroegste GDDR6 kaarten pas rond eind 2018, begin 2019 zullen verschijnen. In hoeverre GDDR6 nog zinvol wordt, met zijn 16Gbit/s valt nog te bezien, wanneer de HBM2 chips met 256Gbit/s (Ja.) in de GTX11 generatie gaan verschijnen.

Misschien is GDDR veel goedkoper, en staat dat meer GB op een kaart toe. Misschien krijgen we wel combo-kaarten, met GDDR voor "Massa-opslag", en HBM2 als cache. Dat zien we nog wel. Tot nu toe is Moore nog niet uitgekakt.

[Reactie gewijzigd door Gamrin op 7 februari 2017 08:32]

De RX 480 is gewoon een GDDR5 kaart hoor. De R9 Fury (X) en de R9 Nano zijn de enige die HBM gebruiken.

Daarnaast is, als het goed is, AMD die als eerste HBM 2.0 grafische kaarten uitbrengt gebaseerd op hun VEGA architectuur.
Excuus, mijn fout. Punt blijft staan. Niet voor eind 2018.
Hoe zit dit dan met maximale snelheid van pci-express ?
De bandbreedte van PCI-E heeft geen effect op de communicatiesnelheid tussen de GPU en zijn RAM. Dat blijft namelijk binnen de grafische kaart.
TNX voor de uitleg :)
Maar wordt ook de Column Access Strobe (CAS) latency, of CL verbeterd?
nee, nooit.
Dit is inherent aan hoe ze elke nieuwe generatie maken. zolang de geheugen cellen zelf niet significant hoger geclocked worden (en dat zijn ze nu ook niet) zal de CAS en CL latency in tijd gemeten gelijk blijven en die per mhz dus verdubbelen (gekeken vanaf gddr5).

wat ze doen is gewoon elke keer dubbel zo veel geheugen cellen tegelijk aanspreken om de hogere bandbreedte te bereiken, maar zolang die cellen zelf dus niet op een hogere mhz lopen zal de latency (in tijd) om iets uit te cellen uit te lezen precies het zelfde blijven.

bij ddr1 400mhz liepen de cellen op 200mhz, en ddr2-800mhz ook op 200mh, bij ddr3-1600mhz ook op 200mhz, en bij ddr4-3200mhz, je raad het al, ook op 200mhz.

en de latency in tijd was dus ook bij al deze ddr standaarden gelijk.

weet niet precies waar de cellen in gddr geheugen op lopen maar ik verwacht exact het zelfde patroon.

[Reactie gewijzigd door Countess op 6 februari 2017 14:40]

"1x nm proces". Dat ze x niet durven noemen is geen goed teken. Hoe slecht is het? Is het 19 nm of 18 nm? Zelfs met 18 nm heb je't nog maar over een 10% shrink, dus dat betekent geen grote stijging van de opbrengst per wafer, en dus ook geen prijsdalingen in het verschiet.
Waarschijnlijk is dit 16nm.
http://www.anandtech.com/...orecasts-and-ceo-retiring
"Last year, Micron ramped up production of their 20nm DRAM, and by the third quarter 20nm was a majority of Micron's DRAM output. In 2017, Micron will be ramping up and begin transitioning to their "1x nm" (16nm) node for DRAM, improving cost per GB by at least 20%. They plan to introduce 16nm GDDR5 later this year."

[Reactie gewijzigd door Allovich op 6 februari 2017 12:08]

Maar zelfs al zouden ze het wel noemen. Tenzij je de volledige ins en outs kent van hun productietechnologie weet je er nog niet veel mee omdat de grootte zoals aangegeven verschilt tussen verschillende technieken. staat uitgelegd in een zeer verhelderende tweakblog.
ze gebruiken al veel langer zo'n indicatie. Eerder was het tussen 20 en 30nm.
Zou dit een positieve invloed kunnen hebben op de nu nog stevig geprijsde 10Gb NIC's? Gemiddelde kostprijs voor dergelijke PCIE kaart is dikwijls +/- 450 euro voor een Ethernet of Gbix gebaseerde oplossing.
Daar heeft dit ongeveer helemaal niets mee te maken.

De vraag is of gddr6 nog zinvol is met de komst van hbm2.
gddr6 is goedkoper, zoals in het artikel wordt uitgelegd. Gddr6 = mainstream en hbm2 = high-end.
We willen dan uiteraard graag weten waar de grens gaat liggen. Welke kaart krijgt een gigje HBM? Welke kaart krijgt er 32GB GDDR6? Welke kaart krijgt 64GBG DDR6 én 8GB HBM?
Zou je hiervoor dan ook een nieuwe generatie pci express voor nodig hebben? (3.x of 4.0?)

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*