Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Submitter: -The_Mask-

Samsung heeft tijdens Hot Chips details gegeven over de komst van gddr6-geheugen. De fabrikant verwacht de opvolger van gddr5 vanaf 2018 op de markt te brengen. De snelheid zal eerst 14Gbit/s bedragen en later stijgen tot 16Gbit/s.

Volgens de slides die Samsung heeft getoond en die door ComputerBase zijn gepubliceerd, kan het nog tot 2020 duren voordat het gddr6-geheugen de maximale snelheid behaalt. Gddr6 wordt de opvolger van gddr5, het geheugen dat op dit moment op de meeste videokaarten wordt gebruikt. Samsung maakt in tegenstelling tot Micron geen gddr5x-geheugen, maar concentreert zich op gddr6.

Het gddr5x-geheugen van Micron, dat op dit moment alleen door Nvidia wordt gebruikt, heeft een snelheid van 10Gbit/s. De Jedec legde begin dit jaar de snelheden voor gddr5x vast op 10 tot 14Gbit/s. Micron wil de snelheid van zijn geheugen nog opschroeven en sprak eerder van een maximaal potentieel van 16Gbit/s, maar wanneer het snellere geheugen in productie gaat en in producten terechtkomt, is nog niet bekend.

Het gddr6-geheugen is niet alleen sneller dan gddr5 en gddr5x, maar ook efficiënter. Tegelijkertijd werkt Samsung aan ddr5- en lpddr5-geheugen, dat eveneens in 2018 gereed moet zijn. Voor die tijd komt er nog een tussenstap in de vorm van lp4x, een variant van lpddr4, dat volgens Samsung 18 procent zuiniger is dan het huidige geheugen voor mobiele apparaten.

Micron meldt volgens ComputerBase eveneens dat er gewerkt wordt aan ddr5. De geheugenfabrikant noemt daarbij 2018 als datum voor de eerste samples en verwacht dat het geheugen in 2019 in productie gaat. Een grote overstap naar ddr5 volgt mogelijk pas in 2020.

Samsung-presentatie op Hot ChipsSamsung-presentatie op Hot ChipsSamsung-presentatie op Hot ChipsSamsung-presentatie op Hot Chips

Moderatie-faq Wijzig weergave

Reacties (46)

Als GDDR-geheugen zoveel sneller is dan normaal DDR-geheugen, waarom wordt dan niet GDDR ingezet als standaard geheugen :?

Als het puur een prijskwestie is, dan zou je wel enthousiast-solutions met GDDR-geheugen in de markt zien, zou je zeggen.
GDDR zit op een hogere voltage, wordt warmer, heeft een andere vorm van caching en heeft volgens mij een hogere latency. werkt uitstekend voor grafische/gpu doeleinden, maar zou voor veel algemenere taken juist weer langzamer zijn vanwege de latency en hoe de CPU het geheugen aanspreekt ( correct me if i'm wrong ).

[Reactie gewijzigd door quintox op 22 augustus 2016 16:59]

Klopt inderdaad! De bandbreedte is veel hoger maar de latency is ook veel hoger. omdat een cpu tijdens die wacht momenten niets doet gaat dit geen koste van performance.
Ik moest ook weer even opnieuw kijken wat nou precies de verschillen zijn.
Hier is een video die het uitlegt: https://www.youtube.com/watch?v=pbgvzVgfoSc

De reactie van matsv201 onder de video is ook wel informatief:

There is some non correct statements in this video. GDDR2 and DDR2 uses basically the same structure, well they use the same basic modulation metod, but the GDDR2 is a port memory (channel terminator) but the DDR2 is a buss memory (non channel terminating). This is also true about GDDR3 and DDR3. But GDDR4 and GDDR5 uses the same modulation method (one generation newer than GDDR3) both uses the same. The difference between 4 and 5 is not the modulation but accessing and caching. DDR4 uses the same modulation and a similar caching/accessing method of GDDR5, so GDDR5 and DDR4 is quite similar. Also, DDR4 is the first (non G) DDR memory using channel termination. Its a ported technology. So DDR4 and GDDR5 is quite simular. There is some difference in addressing and GDDR5 is made for soldered (BGA) mounting only. You can´t use (high speed) GDDR5 in a socket, that's the main reason why its not available for CPU, because on a CPU you want to buy separate memory, but in a console, it does not matter (why PS4 uses GDDR5 and Xbox 360 uses GDDR3).

Is a common miss understanding that GDDR5 have slower latency than DDR3 (as falsely stated in the video). GDDR5 have a higher CAS latency, but that's because it have a higher transfer rate. CAS latency is invert related to the transfer-rate. DDR3 and GDDR5 have i practical application the exact same time period latency.

The reason is that GDDR 1-5 and DDR 1-3 uses the exact same type of ram. Every single chip is a SRAM modul. The speed an CAS is depended on the number of SRAM modules that is multiplexed inside the chip. The SRAM memory is not getting any faster or slower regardless of if its mounted inside a GDDR or DDR. The latency is always the same (for the same quality and line-width). The speed of the memory is increased by having a higher number of multiplexed unit. This increases the CAS time, but NOT the REAL time.

In the olden days people often upgraded there memory's when the memory got cheaper. Buying two modules up front, and adding 2 more later on. To make this possible you have to use a bus solution. A bus solution consumes a lot of power and is slower than a port solution. In a modern computer its only the memory uses a bus solution, witch is ironic because that memory uses the highest bandwidth in total. A DDR3 uses 64 pins + addressing comparied with a PCI-E GPU that uses 8 or 16 pins in total. Memory consumes a lot of pins in the processor socket (and chip) in term dictating a minimum die size of the chip. (in the K7 AMD solved this by making the chip realty rectangular). A additional reason why bus memory was prefered was that a bus DIMM can have 2 or more stacks of memory chip on a single DIMM. Some higher capacity DIMM have 1 stack on both side, and some might have 2 stacks on both side. Making possible for a PC of having up to 16 stacks of modules on one single Chanel. With port memory its only possible to have one stack per channel. Now days its no problem in making a 2GB chip or in same cases 4GB chip, thats why the PS4 can have 8 GB of GDDR because it uses brand new higher capacity GDDR modules.

DDR4 solves a lot of this problem, both lowering the number of pins needed and raising speed (witch will enable CPU to continue using a 128 bit memory system in the future), also enabling cheaper processors of using a 64 bit system with good performance. Thow DDR4 still uses socket, the maximum frequency is limited, so the performance will not match GDDR5, but it will be quite close, aproximlty 20% slower. We probably have to wait for ReRAM or MRAM to get a on Chip RAM memory (for PC, in phones it already exist)

[Reactie gewijzigd door Yamikaminari op 22 augustus 2016 17:15]

De eerste versie van GDDR5x was ook voorgesteld als een DDR4 tegenhanger, en kon in een slot vegelijkbaar met een DDR4 slot gestoken worden.
Dit zou voornamelijk voordeel bieden aan APU's die de extra bandbreedte wel kunnen waarderen, maar met het faillissement van Elpida ging dit plan de prullenbak in.

De PS4 gebruikt ook GDDR5 als normaal werkgeheugen, het is niet beter voor CPU taken, maar wel veel beter voor GPU taken.

Het is dus geen gekke vraag, maar het bied geen voordeel voor de CPU en je kunt het geheugen niet meer uitbreiden met een extra reepje omdat het vast gesoldeerd en dicht bij de chip moet zitten. Daarom zullen niet veel fabrikanten er voor kiezen en daarom ondersteunen CPU's geen GDDR geheugen. (Hoewel de AMD Kaveri het wel had, maar dat was uitgeschakeld)
Voor een videokaart is heel snel geheugen echt nodig. Voor een desktop PC een stuk minder. Het maakt meestal weinig uit of je DDR4 2000MHz of 3000MHz in je PC hebt zitten. Dan kan je wel heel veel geld uitgeven aan iets wat nog veel sneller is, maar je hebt er niets aan.
http://www.techspot.com/c...-and-gddr5-memory.186408/
•DDR3 runs at a higher voltage that GDDR5 (typically 1.25-1.65V versus ~1V)
•DDR3 uses a 64-bit memory controller per channel ( so, 128-bit bus for dual channel, 256-bit for quad channel), whereas GDDR5 is paired with controllers of a nominal 32-bit (16 bit each for input and output), but whereas the CPU's memory contoller is 64-bit per channel, a GPU can utilise any number of 32-bit I/O's (at the cost of die size) depending upon application ( 2 for 64-bit bus, 4 for 128-bit, 6 for 192-bit, 8 for 256-bit, 12 for 384-bit etc...). The GDDR5 setup also allows for doubling or asymetric memory configurations. Normally (using this generation of cards as example) GDDR5 memory uses 2Gbit memory chips for each 32-bit I/O (I.e for a 256-bit bus/2GB card: 8 x 32-bit I/O each connected by a circuit to a 2Gbit IC = 8 x 2Gbit = 16Gbit = 2GB), but GDDR5 can also operate in what is known as clamshell mode, where the 32-bit I/O instead of being connected to one IC is split between two (one on each side of the PCB) allowing for a doubling up of memory capacity. Mixing the arrangement of 32-bit memory controllers, memory IC density, and memory circuit splitting allows of asymetric configurations ( 192-bit, 2GB VRAM for example)
•Physically, a GDDR5 controller/IC doubles the I/O of DDR3 - With DDR, I/O handles an input (written to memory), or output (read from memory) but not both on the same cycle. GDDR handles input and output on the same cycle.
Waarom gddr6 wanneer HBM zijn intrede maakt?
Als ik de toekomst geluiden van HBM moet geloven zal de high end markt binnen 1 of 2 jaar gedomineerd moeten zijn. Daarna zal low end snel volgen met lagere hoeveelheden??
HBM is duurder dan gddr geheugen, maar neemt minder plaats in, is sneller, produceert minder warmte en verbruikt minder stroom. Door de snelheid is het ook beter geschikt voor VR applicaties

HBM2 is sneller dan gddr6 (HBM2 gaat tot 256 GB/s; gddr6 zou maar tot 15gb/s gaan), en er is al ontwikkeling bezig voor HBM3.
Er zijn echter ook plannen voor een goedkopere versie van hbm geheugen, maar de verwachtte snelheid daarvan weet ik niet

[Reactie gewijzigd door graverobber2 op 22 augustus 2016 17:42]

Innovatie is altijd goed, vooruitgang op meerdere vlakken moet altijd aanwezig zijn.. echter vraag ik me af waarom ze zo focussen op snelheid en niet op zaken zoals groter geheugen. Aangezien gddr voornamelijk gericht is op GPU's, zou je denken dat ze veel meer research in het stacken van geheugen zouden steken, het is immers het totale geheugen wat de bottleneck is bij veel games, vooral open-world games. De snelheid van het geheugen was naar mijn weten niet zozeer het probleem.

DirectX12 moet het mogelijk maken dat games van je gewone werkgeheugen kunnen snoepen als het geheugen op de GPU zelf vol zit. Dan lijken mij ontwikkelingen op snelheid veel minder belangrijk. Beetje zoals bij CPU's, ze blijven erg lang op 4 cores plakken ( consumer chips ) en nog steeds niet altijd met volledige support. Tenzij snelheid uiteindelijk ook weer direct gerelateerd is aan hoeveel geheugen een game/engine pakt, maar daar heb ik dan weer te weinig kennis van.

[Reactie gewijzigd door quintox op 22 augustus 2016 16:49]

Wat bedoel je? Titan XP heeft 12GB, en De Fury-X stacked HBM met 4096bit memory bus
Nouja, waarom hebben alleen ultra-highend kaarten ( met absurd hoge prijs ) dit soort geheugen specs? Meeste mid/high end kaarten die uitkomen zitten nog steeds rond de 3gb, 4gb en pas sinds kort dat er 6gb kaartjes uit beginnen te komen. Waarom is 12gb nog zo vreemd voor de gewone high-end serie? Drukt het de kosten omhoog omdat het gewoon heel moeilijk te realiseren is? Of is het een commerciële kwestie ( strategie ).. in het 1e geval is dat dus iets wat d.m.v. efficiëntere/slimmere productiemethodes aan te pakken is.

[Reactie gewijzigd door quintox op 22 augustus 2016 17:06]

RX 480 heeft gewoon 8GB, en is toch echt niet ultra-highend...
Ik denk dat het gewoon ordinaire prijsdifferentiatie is: als een fabrikant een versie van dezelfde grafische kaart maakt met meer geheugen, vraagt hij daar al gauw ¤50 extra voor, net als bij slimme telefoons. De extra kosten zijn vrij laag, een fractie daarvan.

Daarnaast denk ik dat tot zo ongeveer nu de meeste spellen prima draaien op 3GB grafisch geheugen. Er zijn spellen die meer gebruiken indien beschikbaar, maar die draaien ook nog wel prima op 3GB. Maar ik denk ook dat dat niet lang meer zal duren; de komende tijd zal 3GB denk ik wel een bottleneck kunnen worden. Ik dat dat die dat nu al is voor als je een spel draait met veel mods, zoals Skyrim of Fallout.
Alleen de top kaarten hebben wat aan 8 GB tot 12 GB geheugen omdat ze de enigste momenteel zijn die op 4k kunnen werken.
Een gtx 1060 met 12 GB is weg gegooid geld, je hebt een grotere geheugenbus nodig en meer geheugen, beiden kosten geld.

Toen de grafische kaarten nog ddr3 hadden gebruikten ze meer geheugen als verkoop truuk maar nu trappen de mensen daar niet meer in al hoewel amd dat nog wel doet met de rx480 8GB
Het jammere is dat op 4K die Fury wordt tegen gehouden door de limiet van 4GB.
Snel geheugen is fijn, maar je moet er ook genoeg van hebben.
het is immers het totale geheugen wat de bottleneck is bij veel games
De enige games waar we tot nog toe problemen zien met te weinig geheugen (als in: 3GB is niet voldoende) zijn slechte console ports.

Er is een hele goede reden waarom bijna niemand real-world last heeft van de problemen met de 3.5GB grens van de nVidia 970 kaarten en dat is dat nagenoeg geen enkele game dat geheugen nodig heeft. Er zijn ondertussen genoeg kaarten met 8GB aan boord. De combinatie van die twee feiten geeft aan waarom er niet persé een grotere focus nodig is op meer geheugen in GDDR land.
Dat klopt! maar dat komt ook omdat veel games geoptimaliseerd zijn op console hardware ( nieuwe games, niet noodzakelijk slechte ports ). Ga je 4K textures laden of open-world games flink modden zoals Skyrim of Fallout4 ( granted, zijn wel bizar slechte engines :P ) maar dan zie je opeens dat het geheugen in een rap tempo vol komt te zitten.

Dat de grens niet gehaald wordt in vanilla/unmodded games heeft niet zozeer te maken met geen vraag naar meer geheugen, maar hoe games geproduceerd worden. Ze moeten immers fatsoenlijk draaien op consoles. Zijn nog maar weinig games zoals Crysis die flink op de staart trappen en de industrie forceren om te innoveren xD
Ik heb trouwens onlangs gelezen dat software zoals CPU-Z helemaal niet kunnen zien hoeveel grafisch geheugen de kaart daadwerkelijk gebruikt: ze zien alleen hoeveel er gevraagd wordt. Dus het is moeilijk in te schatten wanneer je nu echt last krijgt van te weinig geheugen.
de echte bottleneck is je harddisk toch. dacht juist dat door nvme de noodzaak voor gewoon geheugen overbodig maakt. dus dat is een normale oplossing 2 producten samenvoegen als het toch niet meer de geheugenkaartjes zijn en de hardeschijf. dan blijft je cpu/videokaart over. en daar zitten juist de achterlijke prijzen aan vast.
dus uiteindelijk dezelfde 128Gbit/s als HBM
dat is altijd mogelijk, als je de bus maar breed genoeg maakt. dat kost alleen meer stroom en maakt de chip en het pcb duurder.
Nou dit betekent dat de videokaarten die in 2018 gaan uitkomen nog sneller beeld kunnen verwerken.

Maar ik wacht nog steeds op ddr5 ram :/
Waarom zit je daar op te wachten? Welke doeleinde kan ddr4 zoveel beter als ddr3? voor consumenten moet ik die nog vinden. Maar als je er een hebt hoor ik hem graag.
Ddr4 heeft meer mhz dan ddr3 en is dus sneller. Maar ddr4 zit tot 2133mhz en daarboven is voor overclocked. Hoe meer MHz hoe sneller je ram. Dus ddr5 zal wel rond de 2400mhz met gewoon en ong 3000mhz overclocked.


Ddr4 kan dus sneller gegevens verwerken waardoor je minder problemen heb met bepaalde handelingen

[Reactie gewijzigd door Derekboy2000 op 22 augustus 2016 17:09]

CAS Latency moet je ook nog naar kijken ik heb liever geheugen op 1600MHz dan op 3000MHz met CL13.
waarom?
CAS 8 heeft 8 klokpulsen nodig om de data op de bus te krijgen.
CAS 13 heeft daar 13 klokpulsen voor nodig.....

bij 1600 MHz duurt één klokpuls 1,25 nanoSec.
bij 3000 MHz duurt één klokpuls 0,50 nanoSec

CAS 8 bij 1600MHz heeft 12,50 nanoSec nodig om de data klaar te zetten.
CAS 13 bij 3000MHz heeft 6,50 nanoSec nodig om de data klaar te zetten.

Maar behalve dat de data sneller klaar staat bij DDR4 3000 cl13, is de doorvoersnelheid ook nog eens bijna twee keer zo hoog.

bij ddr3CL8 is de vervolg data na 10.00 ns 11.88 ns en 14.38 ns aanwezig,
terwijl bij DDR4cl12 dit na 8.00 ns 9.00 ns en 10.33 ns is.

http://www.crucial.com/us...performance-speed-latency
https://en.wikipedia.org/wiki/CAS_latency

[Reactie gewijzigd door Fiander op 23 augustus 2016 13:43]

Interessant eens door lezen.
Vergeet niet dat bij ddr3 hogere MHz niet zomaar sneller ram betekent. De latency gaat hoog wanneer de kloksnelheid omhoog gaat.

En ram is zelden de bottleneck in een pc met minimale impact op game performance. Ja voor video editing oid maakt het wel een groot verschil hoe snel, groot, efficiënt je ram is maar voor games is ddr3 vrijwel altijd voldoende.
Beter dat je meer geld in een videokaart of een ssd stopt dan in ultra gamer branded ram met 3000mhz en rgb Led heatsink grills.
1066MHz is wel erg laag, dat kan wel eens gaan bottlenecken met high end hardware, maar 1333MHz kan op dit moment nog prima er is maar 1/2% verschil in games met 2400MHz ipv 1333MHz met zelfde CL

Maar bedoel je niet 1066MHz ( 2133MHz effectief ) ?
1066MHz ram moet wel DDR3 geheugen zijn en aangezien je een 960m hebt moet je eigenlijk wel DDR4 geheugen hebben behalve als je die videokaart er zelf hebt ingezet :)
Nee je hebt dan 2133 MHz geheugen.
DDR = Double Data Rate
Het draait sws op de halve kracht van wat word geadverteerd maar effectief heb je dan het dubbele.
Zie dit topic bijvoorbeeld: http://www.tomshardware.c...er-8gb-1066mhz-speed.html
Sk Hynix is trouwens een van de grootste producenten van RAM, is prima qualiteit.
mijn ram heeft cl15, dat moet dus lager als ik het sneller wil hebben?(2133mhz)

SKHynix HMA451S6AFR8N-TF
Ja, lagere CL is beter, maar ik weet niet hoe je dat op een laptop wilt doen, heb namelijk nog nooit een laptop gezien die te overklokken is.
Betekend niet dat je alleen naar CL moet kijken, want een hogere kloksnelheid geeft ook lagere True Latency.

1866 MHz CL8 is sneller dan 2400MHz CL12
maar 1866MHz CL8 is dan weer langzamer dan 2400MHz CL10 bijvoorbeeld.

Maar even serieus, ik zou er niet in gaan investeren eerlijk gezegd, misschien dat je een paar puntjes meer gaat halen in benchmarks maar in real world usage ga je echt helemaal niks merken als je nou CL 15 of CL13 hebt.
Ja maar waar heb je die snelheid voor nodig? Gaming doet vrij weinig met die snelheid. En videobewerking ook. En voor windows en YouTube kijken heb je het ook niet nodig. Dus waarom heb je sneller nodig.
Het klinkt allemaal heel logisch maar het geheugen is in verhouding een stuk sneller dan wat de cpu aan kan, of in ieder geval de meeste programma's gebruiken niet zoveel geheugen bandbreedte en lopen dan eerder vast op de processor en de HDD/SSD dan het werkgeheugen.

Daarbij komt ook nog de True Latency, die veel belangrijker is bij gewoon DDR PC geheugen.
Zo heeft 1866MHz CL8 een lagere true latency dan 2400MHz CL12 en daarom is de 1866MHz CL8 dus in de basis sneller dan 2400MHz CL12

Zie ook: http://www.crucial.com/us...performance-speed-latency
https://www.youtube.com/watch?v=h-TWQ0rS-SI

Hij is het toch niet met je eens.

https://www.youtube.com/watch?v=cvTWmNEpg3Q

En ook hier zie ik niet in waarom ik nu over zou moeten stappen op ddr4/ddr5/ddr6.

Dan zou ik het eerder uitgeven aan meer ram.

/edit tenzij je je igpu gebruikt. Maar dat is logisch. Daarom zitten ze nu op gddr5x/hbm geheugen.

[Reactie gewijzigd door loki504 op 22 augustus 2016 17:30]

Jij hebt een laptop zonder geheugen? :p |:(
je zegt: "heb me niet in RAM verdiept omdat ik een laptop heb", maar iedere computer, of het nu een desktop, laptop, tablet of smartphone is, heeft RAM geheugen.

Daarnaast is de prestaties van je geheugen beoordelen door enkel naar de snelheid te kijken, net zo iets als op de snelheidsmeter/toerenteller van je auto kijken om te zien wat de topsnelheid is. Het geeft de meest grove indicatie die mogelijk is, vele andere factoren hebben meer invloed.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True