Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'AMD werkt aan gddr6 voor videokaarten'

AMD werkt aan het gebruik van gddr6 voor videokaarten, valt op te maken uit informatie die een technicus van het bedrijf op zijn LinkedIn-pagina heeft staan. Voor high-end kaarten zoals de komende Navi-generatie zou het bedrijf hbm2 inzetten.

AMD heeft gddr5x overgeslagen maar lijkt wel met videokaarten met gddr6-geheugen te komen. Op LinkedIn stond althans bij het profiel van Daehyun Jun, principal member of the technical staff van AMD, dat hij al sinds september 2015 aan een gddr6-controller werkt.

Die passage is nu verwijderd. 3Dcenter schrijft erover nadat een screenshot eerder op Beyond 3D verscheen. Op zijn beurt claimt Wccftech van bronnen gehoord te hebben dat AMD inderdaad videokaarten met gddr6 uitrust, maar dat de kaarten voor de high-end, zoals de komende Navi-generatie, met hbm2 uitgerust worden.

Meerdere geheugenfabrikanten hebben al aangekondigd met gddr6 te komen. Samsung wil vanaf 2018 gddr6-geheugen produceren, Micron zou nog dit jaar gddr6-geheugen gereed hebben en SK Hynix noemt begin volgend jaar als introductieperiode. Het grafische werkgeheugen kan een doorvoersnelheid van 16Gbit/s aan op een lagere spanning dan gddr5. Het geheugen is goedkoper te produceren dan hbm2.

  gddr5 gddr5X gddr6 hbm2
Gpu-Interface flexibel, t/m 512bit flexibel, t/m 384bit flexibel, waarschijnlijk t/m 384bit 1-4 stacks, per stack 1024bit
Kloksnelheid Gem. 4000MHz ddr, Max. 4500MHz ddr Gem. 2750MHz qdr, Max. 3000MHz qdr, planning: 3500MHz qdr planning: 16Gbit/s
(= 4000MHz qdr)
Gem. 880MHz ddr, Planning 1000MHz ddr
Dataoverdracht Ddr (= x2) Qdr (= x4) ? Ddr (= x2)
Geh. bandbreedte praktijk 384GB/s
(Radeon R9 390X)
484GB/s
(GeForce GTX 1080 Ti)
- 900GB/sec
(Tesla V100)
Max.geh. bandbreedte 576GB/s
(4500MHz ddr @ 512bit SI)
896GB/s
(3500MHz qdr @ 512bit SI)
1024GB/s
(16Gbit/s @ 512bit SI)
1024GB/c
(1000MHz ddr @ 4096bit SI)
Geheugen hoeveelheid Tot aan 16GB Tot aan 32GB Nog onbekend
Tot aan 32GB
(4 of 8GB per stack)

Door Olaf van Miltenburg

NieuwscoŲrdinator

04-12-2017 • 08:36

57 Linkedin Google+

Reacties (57)

Wijzig sortering
In hoeverre is het geheugen eigenlijk een Bottleneck voor de hedendaagse kaarten? Klinkt prachtig dat Gddr6, maar plaats het op een GTX 1050 en het zal minimaal effect hebben.. 8)7
Op een GTX1050 werk je met een kleinere bus, dus is de bandbreedte toch weer navenant, ook in het geval je een midrange kaart uitbrengt met GDDR5X en GDDR6. Enkel de top end kaarten zullen de maximale bus krijgen. Je zou kaarten uit lagere segmenten op ouder/langzamer geheugen kunnen zetten, en dat gebeurt soms ook wel (kijk naar GTX1080 met GDDR5x, terwijl de GTX1070 GDDR5 aan boord heeft), zeker als je aan het rebranden gaat.

Maar uiteindelijk is de technologische vooruitgang belangrijk, waarbij net als bij DDR geheugen, nieuwere standaarden zuiniger zijn vanwege lagere voltages. Dus wil je als het even kan ook de goedkopere kaarten ervan laten meeprofiteren.

[Reactie gewijzigd door A Lurker op 4 december 2017 09:26]

Je noemt nu net 1 van de kaarten die juist wel als bottleneck geheugen bandbreedte heeft :+ .
Maar dat komt door de gebruikte busbreedte. Stuur het 256bit aan met het huidige geheugen en geen problemen meer. Gddr6 zal bar weinig uitmaken. Of het is teveel geknepen of gddr5 was al snel zat.
Maar een bredere bus kost geld (meer PCB, meer chips) en energie.

met gddr6 heb je dus meer bandbreedte voor minder geld en een lager verbruik (zodra de chips het zelfde kosten tenminste).
Meer bandbreedte op een toch al overvolle bus zet geen zoden aan de dijk. Je krijgt alleen maar meer file.
Zie HBM, maar 500 mhz en een 4096bit bus. Maar wel snelheid omdat de chips niet op elkaar staan te wachten.

Verbruik en prijs zijn niet relevant als we het puur over de snelheid hebben.

[Reactie gewijzigd door arbraxas op 4 december 2017 13:21]

bandbreedte is een eigenschap van een bus. dus een bus heeft een bepaalde bandbreedte.

dus 500mhz x 4096 bit = 2Tbit/s = 256 GB/s

256GB/s is dan je bandbreedte.

dus zowel breder maken als sneller maken vergrote je bandbreedte.
maar breder maken kost meestal meer geld.
sneller maken kost ook meer energie, maar bij elke nieuwe versie word dat zuiniger.
Verbruik en prijs zijn niet relevant als we het puur over de snelheid hebben.
Die zijn ALTIJD relevant. en de hoofd redenen waarom nvidia of AMD voor een bepaalde configuratie bus kiest bij een bepaalde kaart.
Uiteraard altijd relevant als we het vanuit producent oogpunt bekijken. Niet als je het puur over het technisch aspect van snelheid hebt.
Zo werkt geheugen niet... De bus is niet iets actiefs waar de chips en de geheugen controller mee communiceren, hij is passief meer gelijkend op een snelweg. Als je een snelweg dubbel zo breed maakt, verdubbelt de capaciteit. Als je de snelheid van de autos verdubbelt de capaciteit ook. Zo werkt het ook bij het geheugen. Als je de clocks van de chips verhoogd is het niet ineens zo dat je door de "bus" wordt gelimiteerd. De bus en de controller communiceren met elkaar via de bus, niet met de bus.

[Reactie gewijzigd door Thekilldevilhil op 4 december 2017 14:56]

Hangt af van de productieprijzen en de kaart.
Ik heb een vermoeden dat de komende gemeratie midrange en low-end kaarten gewoon GDDR5 zullen gebruiken. Hetzelfde zag je gebeuren met de RX serie en Vega, goedkoper GDDR voor mainstream kaarten en HBM voor de high-end.

Als de productieprijzen voor 5 en 6 gelijk zijn zullen ze natuurlijk meteen voor GDDR6 gaan: efficiŽnter -> minder nodig -> lagere productiekosten per GPU
Het zou kunnen dat AMD GDDR6 gaat gebruiken voor consumenten Navi en voor de professionele kaarten HBM2. Is veel minder risicovol van GDDR6 te gebruiken dan het dure en moeilijk verkrijgbare HBM2. Hebben ze hun lesje eindelijk geleerd met Vega.
HBM2 zal niet duur en moeilijk verkrijgbaar blijven. Het probleem nu is dat AMD voor een geheugen architectuur heeft gekozen die nog niet eens verkrijgbaar was toen ze het aankondigde en vervolgens vertraging opliep.
Zeer slim dus van AMD.
Het is een gok die niet goed heeft uitgepakt.

Als HBM2 op tijd leverbaar was geweest, dan hadden er nu geen leveringsproblemen geweest voor Vega (aannemend dat de geruchten dat HBM de reden is en niet Vega zelf juist zijn)

In principe is HBM2 de betere keuze voor grafische kaarten vanwege de power/performance ratio. Ik wil er niet aan denken hoeveel stroom een Vega 64 zou vreten met GDDR5X geheugen met vergelijkbare bandbreedte.

Als de productie echt op gang komt zal de prijs ook gaan dalen. Vega is bandwidth starved*, de enige reden die ik kan bedenken dat AMD met twee stacks HBM2 is gegaan ipv 4 zoals bij Fiji is prijs. Als het rendabel wordt om 4 stacks te gebruiken, dan is er een grote bottleneck weg voor Vega.

* Performance schaalt meer dan lineair met overclocken van geheugen.
Maar AMD leert het gewoon niet. Met Fiji hebben ze ook de verkeerde keuze gemaakt door voor HBM te kiezen, dat was toen ook niet goed verkrijgbaar. Daardoor moest AMD noodgedwongen voor een te kleine 4 GB vram kiezen en een te hoge prijs waardoor Fury(X) totaal geflopt is. En dan komen ze na jaren geen tegenhanger te hebben gehad voor Nvidia in het high-end segment terug met Vega en maken ze opnieuw dezelfde fout door voor HBM2 te kiezen. Dat begrijp ik niet. Na de flop van Fiji zou je toch geen risico's meer mogen nemen. Waarschijnlijk kon AMD niet meer anders dan HBM2 te gebruiken omdat ze er al zoveel zelf in geÔnvesteerd hadden door de co-ontwikkeling met SK Hynix.
Ik vrees zelf dat AMD geen keuze had. Vega is een evolutie van GCN een architectuur die op zicht zeer krachtig en flexibel is, maar erg bandwidth afhankelijk is. Vega zou dus altijd bandwidth afhankelijk worden.

GDDR5 gind die bandbreedte niet bieden en GDDR5x zou de kaart door stroom verbruik onverkoopbaar maken; mensen klagen nu al over het verbruik!

HBM2 is de enige logische keuze voor deze architectuur. Ik ben echt nieuwsgierig wat de prestaties van Vega zouden zijn met 4 stacks ipv de huidige 2 en dus dubbele bandbreedte.

Ze hebben gewoon ongelofelijk veel pech dat de ontwikkeling van HBM2 vertraagd was.
Het is niet echt een harde bottleneck. Meer geheugenkanalen kost chipoppervlak en verhoogt het verbruik, maar verbetert ook de prestaties, ze zoeken naar de beste verhouding.

Gddr6 is waarschijnlijk efficienter (dus meer GB/s voor minder verbruik en oppervlak) en zal zo de prestaties verbeteren.
heeft inderdaad te make zoals lurker zecht niet alle kaarten hebben een even groot databus een lowend kaart heeft een 64 bit databus, en een duurdere zou dan dik over de 300 bit gaan.
ik denk dat de midrange en de lowend markt hiervan wel echt snelheis toename voor zal merken.
en volgens mij met een highend kaart is het volgens mij verwaarloosbaar maar misschien toch nog een piekje hoger dan ddr5 en ddr5 x kaarten.
Geheugen wordt een bottleneck als je grafische instellingen meer vragen dan je kaart aan kan, gtaV kan dat, dan loopt het geheugen vol en krijg je rare dips en stutters in je fps.

[Reactie gewijzigd door ChAiNsAwII op 4 december 2017 19:16]

In hoeverre is het geheugen eigenlijk een Bottleneck voor de hedendaagse kaarten? Klinkt prachtig dat Gddr6, maar plaats het op een GTX 1050 en het zal minimaal effect hebben.. 8)7
De memory bandwidth is voor een GPU een belangrijke maatstaf voor performance. De 1050 uit jouw voorbeeld doet 112 GB/s. De 1060 doet 192 GB/s en de 1070 doet 256 GB/sec. De 1080 gaat daar weer overheen met 320 GB/s. Grote verschillen dus!

Ook zijn er in het verleden kaarten uitgebracht die min of meer hetzelfde waren, maar dan met trager geheugen:
The GeForce GTX 660 Ti is derived from the 28 nm GK104 silicon, the same chip that powers GeForce GTX 670, Kepler poster-boy GeForce GTX 680, and the flagship GeForce GTX 690. It is closer to the GeForce GTX 670 in more specifications than the GTX 680 is, down to the same chip. It has the same number of CUDA cores with 1,344, and the same set of clock speeds with 915 MHz core, 980 MHz GPU Boost, and 6.00 GHz memory. The only points of difference between the two are memory bus width with 192-bit (against 256-bit on the GTX 670), and ROP count with 24 (against 32 on the GTX 670). The memory bus is narrower by 25%, resulting in a memory bandwidth of 144 GB/s (against 192 GB/s on the GTX 670
Heel interessant. De impact scheelt per game, gemiddeld over alle games 13% indexatie waarde. In sommige games merkte je het niet (Diablo III) en in Battlefield 3 was het verschil noemenswaardig; 71.2 vs 81.4 fps.

Los daarvan is de bandbreedte een functie van de busbreedte met de snelheid van het geheugen. Een bredere bus maakt een kaart duurder en onzuiniger. Met sneller geheugen kunnen kaarten dus een nog smallere bus krijgen waardoor ze weer zuiniger en goedkoper kunnen worden. Vroeger was het normaal een 384 bit bus te zien met GDDR. Tegenwoordig blijft zelfs een 1080 hangen op 256 bit. Alleen de extreme kaarten krijgen bij Nvidia een bredere bus (1080 Ti e.d.).

[Reactie gewijzigd door sdk1985 op 5 december 2017 05:02]

Op mijn 1080 zie je direct betere prestaties als je het geheugen overclockt. Dat is wel indicatief dat er een geheugen bottleneck aanwezig is. Zelfs met gddrx5.
Wat ik me afvraag dan is.

Omdat ze GDDR5x hebben overgeslagen. De concurrentie dit niet heeft gedaan. En dus makkelijk een grotere voorsprong kan maken weer. Zo blijft AMD dus achterop lopen of niet ?
Ik vermoed dat het stukje risicospreiding is. HBM2 zat met een hoop leverproblemen.
Het was al lang te verwachten dat er gddr6 op Navi zou komen. Roadmap van 1,5 / 2 jaar geleden zij al als opmerking bij navi "next gen memory".
Die term was toen voornamelijk gebruikt voor hbm2, toch?
Toen nog wel ja, inmiddels blijkbaar niet meer.

AMD heeft voor zijn GPU's gddr5x links laten liggen ten behoeve van HBM2. Of dat een goede zet is geweest kan je over discussiŽren, maar inmiddels kijken ze dus vooruit en dat lijkt me hoe dan ook de juiste keuze.
Nee, anders hadden ze er wel hbm2 neergezet, want dat stond namelijk gewoon wel bij Vega. Dus het was meer of gddr6 of hbm3
Ze lopen niet achter.
Ze hebben juist een voorsprong, NVIDIA heeft nog geen evaring met HBM(2) op consumenten kaarten.
Nvidia was de eerste met HBM2 dus ze hebben we degelijk meer ervaring dan AMD met HBM 2. Nvidia toekomstige GPU's gaan waarschijnlijk ook GDDR6 en HBM2 gebruiken.
HBM geheugen is ontwikkeld door Hynix en AMD, daar is NVIDIA Łberhaupt niet bij betrokken. Dus AMD heeft wel degelijk een grote voorsprong daarin.
Maar Nvidia gebruik HBM2 al wat langer dan AMD dus heeft Nvidia daar meer ervaring mee, als je kunt spreken over ervaring want je hoeft er zelf niets mee of voor te doen. Dat AMD heeft meegewerkt aan de ontwikkeling van HBM is een ander verhaal.
Wat ik me vooral af vraag is waarom je over ervaring begint over iets wat standaard werkt op een Nvidia of AMD kaart. Welke ervaring moeten Nvidia en AMD hebben. Er valt na mijn idee geen spelletje winnen aan vast te knopen in de form van AMD vs Nvidia flamewar. Maar goed als jij die kant op wil is dat best, hoe kan het dat AMD hoogte verschil heeft met HBM2 en Nvidia op dat vlak geen problemen heeft met HBM2.
Een grote voorsprong op iets wat in de praktijk eigenlijk helemaal niet zo geweldig bleek te zijn. Ze schakelen niet voor niets over op GDDR6.
Euhm, dat heeft meer te maken met het kostenplaatje, niet omdat hbm slecht bleek..
En dus bleek het niet zo geweldig te zijn in de praktijk.
Volgens mij zag ik ergens 160 euro per kaart voorbij te komen, dat tikt aardig aan dan..
Wat maakt het uit dat Nvidia hbm2 alleen op professionele kaarten heeft m.b.t. ervaring? Niks. Ervaring is ervaring in dit geval.
Teruggaan naar GDDR na overgestapt te zijn op HBM is een stap achterwaarts.
Het is nooit de bedoeling geweest om voor al hun GPU's over te gaan op HBM(x). low end en midrange zullen voorlopig nog op een Gddr(x) variant draaien.
Er staan wel meerder versies van HBM op papier waaronder Low cost HBM wat zou kunnen worden gebruikt voor goedkopere kaarten.
Nee hoor, HBM(2) is een stuk efficiŽnter dan GDDR en dus beter, daar kan je niet onderuit.
En AMD blijft gewoon HBM gebruiken alleen niet voor de mid-range wat ook logisch is.
Dat maakt aval0ne ook duidelijk in zijn opmerking.
Ze lopen niet achter.
Ze hebben juist een voorsprong, NVIDIA heeft nog geen evaring met HBM(2) op consumenten kaarten.
Waarom?

Waarom zou NVIDIA op HBM2 overgaan als GDDR6 binnenkort er is, ik kan je nu al zeggen dat hoogstwaarschijnlijk HBM2 niks bijzonders doet aan de snelheid van de GPU, net zo het geval was van Radeon RX Vega 64 tegenover de Geforce GTX 1080, aangezien ze ongeveer net zo snel zijn, en Geforce GTX 1080 GDDR5X gebruikt, als de GPU niet super is heb je ook geen bal aan super snel geheugen.

En Nvidia gebruik HBM2 al wat langer dan AMD, bij hun highend kaarten.

[Reactie gewijzigd door AmigaWolf op 4 december 2017 16:47]

Eerste HBM kaart was toch echt de Fury (x).
En dat de Vega 64 niet sneller is heeft te maken met waarop de game gebouwd is, NVIDIA heeft een grote vinger in de game industrie.
Zal best, dan nog is de NVIDIA Geforce GTX 1080 goedkoper, zelfs nu nog steeds, en als je een gamer ben ga je voor de snelste die ook goedkoper is, zo hoort het ieder geval, het was gewoon niet echt handig voor AMD dat de Radeon RX Vega 64 meer dan §100,- duurder was de eerste maanden dan de 14 maanden oudere Geforce GTX 1080 die iets sneller is, en nu nog steeds §50,- goedkoper is.

En als je echt snel wil koop je de Geforce GTX 1080 Ti, die §700,- kost en weer §125,- duurder is dan de Radeon RX Vega 64.

[Reactie gewijzigd door AmigaWolf op 4 december 2017 20:12]

En dus makkelijk een grotere voorsprong kan maken weer.
eerder het tegenovergesteld, wet van de remmende voorsprong. nvidia moet 2 keer investeren in een nieuwe geheugen controller en krijgt van de 2de krijgen ze beduidend minder voordeel ten opzichte van wat ze nu hebben als dat AMD krijgt.
Kan iemand mij het tabelletje uitleggen? Bij gddr6 staat bij kloksnelheid een dataoverdrachtsnelheid (16Gbit), ik zou daar 16Ghz verwachten. Ook bij de berekening voor geheugen bandbreedte zou ik weer "1024GB/s (16Ghz @ 512bit SI)" ipv "1024GB/s (16Gbit/s @ 512bit SI)" verwachten
16GBit op quad data rate geeft dus 4000MHz. Dus niet 16GHz. Al zou je kunnen zeggen dat dat ook correct is, gaat het hier om een bandbreedte, dus dan kan bits net zo goed en is misschien nog wel duidelijker.
Tof zo'n uitgebreide vergelijkingstabel @Olaf! :)
Alleen jammer dat hij op de telefoon ook zo goed te vergelijken is
*snip* (verkeerd geplaatst)

[Reactie gewijzigd door Laloeka op 4 december 2017 16:57]

Dat is inderdaad een typo, moet 's' zijn.

Waarschijnlijk stond er overal eerst 'sec', maar dat maakte de tabel moeilijker te lezen en is bij de laatste 2◊backspace de cursor verkeerd neergetzet: --> se|c i.p.v. sec|

In de cel erboven staat 'sec' zelfs nog helemaal uitgeschreven. Het was een zware maandagochtend denk ik.. ;)

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True