Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties

Op internet zijn slides verschenen van een gddr5x-presentatie van Micron. De fabrikant schuift deze uitbreiding van de gddr5-standaard naar voren als de nieuwe generatie voor videogeheugen. Daarmee is het een concurrent voor high bandwidth memory.

Micron maakte begin september bekend aan gddr5x te werken en beloofde de technologie in 2016 officieel te onthullen, maar Expreview publiceert al een presentatie met details over de gddr5-uitbreiding. Het vergroten van de snelheid van gddr5 is een uitdaging, volgens Micron. Bij het ontwikkelen van de standaard was de verwachting dat de doorvoersnelheid op maximaal 5Gbit/s uit zou komen, maar die gaat nu al richting de 8Gbit/s. Daarnaast zou de kloksnelheid van het geheugen aan zijn maximum zitten en loopt ook het command/address-protocol tegen zijn grenzen aan.

Waar echter nog wel rek in zit is de prefetchbuffer, claimt Micron. Door de grootte van de buffer te verdubbelen van acht 'datawoorden' per aanspreken van het geheugen, naar zestien 'datawoorden', zou een doorvoersnelheid van aanvankelijk zo'n 10 tot 12Gbit/s te realiseren zijn. Op termijn moet dan 16Gbit/s binnen handbereik komen. In combinatie met een 384 bits brede bus, levert dat een bandbreedte van in initieel 480GBps en in een later stadium 768GBps op.

Ter vergelijking: het bij AMD's Fury-gpu's gebruikte high bandwidth memory of hbmkomt bij gebruik van vier stacks met vier lagen met elk een datarate van 1Gbit/s op 512GBps uit. Bij hbm is echter veel ruimte voor verbetering, zowel wat betreft het aantal lagen als het aantal stacks. De nieuwe Radeon-generatie van AMD is met hbm uitgerust en ook toekomstige Nvidia-kaarten krijgen het, zodra de nieuwe generatie hbm gereed is. Volgens geruchten gaat Nvidia de mainstream-gpu's op basis van de komende Pascal-architectuur van gddr5x-geheugen voorzien.

In 2016 moeten de eerste videokaarten met gddr5x-geheugen op de markt verschijnen. Volgens Micron is het voordeel van het geheugen dat dezelfde formfactor gebruikt wordt, waardoor fabrikanten de huidige beproefde productiemethoden kunnen blijven hanteren.

Micron gddr5xMicron gddr5xMicron gddr5xMicron gddr5x

Moderatie-faq Wijzig weergave

Reacties (33)

Ik heb niet super veel verstand van dit soort dingen, maar waarom zou iemand GDDR5X gebruiken wanneer AMD en Nvidia beide met HBM2.0 komen in 2016?
Dit is veel goedkoper dan HBM. Productieprocessen en protocollen blijven waarschijnlijk zo goed als gelijk aan die van GDDR5, waardoor met GDDR5X op kosten geconcurreerd kan worden. HBM2 zal waarschijnlijk alleen in de duurste modellen te vinden zijn. (bron)
NVIDIA zal dit geheugen gebruiken voor zijn mainstream en budget line.
Ja leuk die enorme geheugensnelheden maar als ik de benchmarks mag geloven komt de meeste winst nog steeds uit de cores.
geheugen geeft wel een kleine boost maar is naar mijn idee niet de limitatie van de videokaarten.
In dit geval zou ik toch de benchmarks maar eens niet geloven. ;-) De meeste real-world workloads lijken gelimiteerd door geheugenbandbreedte. Het aantal cores en de snelheid van een GPU zijn vaak uitgebalanceerd om zo goed mogelijk de geheugenbus te verzadigen bij een zo laag mogelijk energieverbruik.

Op Linux kan je dit makkelijk zelf testen door in de officiele NVIDIA driver CoolBits aan te zetten. Probeer eens de geheugensnelheid te verlagen zonder de "core" snelheid te verlagen en zie wat er gebeurt met perf. Op Windows moet dit overigens ook mogelijk zijn, maar bij gebrek aan ervaring kan ik je niet vertellen hoe. Uiteraard zal de uitkomst verschillen per benchmark, maar de meeste serieuze games zullen een performance degradatie vertonen.

[Reactie gewijzigd door RSpliet op 26 oktober 2015 14:47]

Coolbits, dat is lang geleden. Die hadden we een jaar over 10 geleden op Windows nodig om de Nvidia kaarten via het control panel te kunnen overclocken.

Op Windows gaat dat tegenwoordig met software afgeleid van RivaTuner. Denk aan MSI Afterburner (gratis) en EVGA precision. Kwestie van sliders.

Verder scheelt het heel erg per game hoe belangrijk de geheugenbandbreedte is. Zie bijvoorbeeld een kaart als de GTX 660 Ti:
The GeForce GTX 660 Ti is derived from the 28 nm GK104 silicon, the same chip that powers GeForce GTX 670, Kepler poster-boy GeForce GTX 680, and the flagship GeForce GTX 690. It is closer to the GeForce GTX 670 in more specifications than the GTX 680 is, down to the same chip. It has the same number of CUDA cores with 1,344, and the same set of clock speeds with 915 MHz core, 980 MHz GPU Boost, and 6.00 GHz memory. The only points of difference between the two are memory bus width with 192-bit (against 256-bit on the GTX 670), and ROP count with 24 (against 32 on the GTX 670). The memory bus is narrower by 25%, resulting in a memory bandwidth of 144 GB/s (against 192 GB/s on the GTX 670).
In veel games is het verschil met de GTX 670 te verwaarlozen (de 660 Ti PE uit het voorbeeld is gemiddeld over alle benchmarks zelfs maar 7% trager dan de veel duurdere GTX 670). Echter in games als Battlefield 3 is het verschil significant... https://www.techpowerup.c...0_Ti_Power_Edition/8.html

edit: Voor de volledigheid is de eerlijkste vergelijking die van de "normale" 660 Ti (94%) vs de normale GTX 670 (107%). Dus dan is de impact van het geheugen iets groter. Impact per game blijft echter even variabel.

[Reactie gewijzigd door sdk1985 op 26 oktober 2015 16:43]

Interessante cijfers, het volledige systeem zit dus al aardig tegen zijn max aan! Daar wil ik echter wel tegenover zetten dat het feit dat de 660Ti (PE) überhaupt langzamer is in al die gevallen, een aardige indicatie geeft dat geheugenbandbreedte toch de bottleneck is.

Helaas schaalt performance lang niet altijd linear met het theoretisch maximum bandbreedte mee, gezien dat theoretisch maximum gemeten is bij linear uitlezen van het geheugen. In zo'n geval worden de mem accesses netjes verdeeld over de verschillende memory chips en worden volledige "burst reads" volgemaakt. In de praktijk echter is geheugen-access lang niet zo voorspelbaar, waardoor de winst die extra bandbreedte oplevert lager uit kan vallen dan gehoopt.

[Reactie gewijzigd door RSpliet op 26 oktober 2015 17:28]

Een core kan maximaal zo snel gaan als het traagste component. Doorgaans is geheugen het traagste gedeelte.
Heb je een bron hiervoor?
Want elk artikel wat ik google refereert duidelijk dat de verhogen van de core MHz een grotere boost geeft dan het geheugen snelheid verhogen.
Als je je core niet verhoogd, maar je memoryspeed wel dan heb je evengoed een boost. Dit maakt daarom dat je gpu wordt tegengehouden door het geheugen.
En als je je geheugen niet verhoogt, maar je core wel heb je ook een boost. Dus snijdt je vergelijking niet echt hout.
Het is dus niet zo zwart-wit. Misschien dat er ergens een test is waarbij de snelheid van beide om de beurt gehalveerd wordt en dan te zien welke het meeste impact heeft. Maar ook dat kan per game verschillen. En per resolutie, etc.
Punt is gewoon dat de stappen groter zijn bij het overklokken van je geheugen, omdat het geheugen al standaard 5-7 keer sneller draait (frequentie) dan de core. En vaak de bovengrens is lager, hoogstens een +10% haalbaar als je geluk hebt. Afhankelijk van de architectuur. Waar je vaak bij je core snelheid al gauw 20+% kunt halen.
Het een complementeert het ander. Denk niet echt dat je kunt spreken van een bottleneck. Althans, niet in het geheel. In sommige gevallen wel, maar dat kun je ook van de core zeggen.
Dat is wel erg kort door de bocht. Een 980TI heeft geen HBM en dus veel langzamer geheugen dan een fury en fury x, en toch is ie sneller.
NVidia maakt sinds Maxwell gebruik van speciale compressietechniek, niet zaligmakend, maar het compenseert grotendeels het tekort aan snelheid tegenover het HBM van AMD.
Je doelt op Delta Color Compression en in Maxwell betreft dat de derde generatie. Ook AMD gebruikt vergelijkbare technieken (die zijn alleen wat minder ver). Het compenseert inderdaad (deels) het verschil met HBM.

Zie bijvoorbeeld: http://international.down..._980_Whitepaper_FINAL.PDF

[Reactie gewijzigd door sdk1985 op 26 oktober 2015 16:11]

Hij roept helemaal niet. Het is jij die direct in de aanval gaat. Ik zou zelf eens nadenken voor je roept want niemand speelt furmark en het is enkel in deze theoretische benchmarksituaties dat dit kan voorvallen. In 90% van de games zal een 980ti sneller zijn.
Vergeijk eens gddr5 met hbm op 4k resolutie.
Das niet altijd waar. Kijk maar eens naar de vergelijkingen tussen de nieuwste radeon HBM kaarten en de GTX980. Op hogere resoluties schalen de HBM kaarten veel mooier mee door de hogere bandbreedte. Zeker met 5 en 8K in het verschiet is gehuegenbandbreedte zeker een punt wat veel verschil gaat leveren.
wat niet meteen duidelijk wordt is of het ook stapelbaar is zodat het minder ruimte op de pcb inneemt... dit was volgens mij toch ook een van de voordelen van HBM
Het lijkt me sterk dat dit stapelbaar is, aangezien het geheugen enorm veel op zijn voorganger moet lijken, zodat kosten-efficient overgestapt kan worden op het nieuwe geheugen (denk aan het behouden van dezelfde productieprocessen/protocollen).

Verder is het met GDDR5 chips ook al een tijdje mogelijk om ruimte te besparen, aangezien deze nu al een dichtheid kunnen hebben van 8GB/chip.
HBM is gestapeld geheugen waardoor je Met 4GB niet meteen een kaart van 30CM lang nodig hebt.
Ik vermoed dat heatsinks en fans grotere beperkingen vormen dan de geheugenchips, wat betreft de lengte van de kaart. Er bestaan bijvoorbeeld korte GTX 970 kaarten, zoals de pricewatch: Gigabyte GV-N970IXOC-4GD. En als je de pcb van deze kaart bekijkt, dan zou je zeggen dat er zelfs meer geheugen op past, zeker als je je bedenkt dat de dichtheid van geheugen ook toeneemt.
Nee maar wel waterkoeling.
De R&D van AMD is duidelijk bezig geweest in 1 richting wat de rebrands ook kan verklaren, de toekomst is HBM.
Het stroomverbruikt van de huidige HBM modules ligt al pakweg 50% lager dan GDDR5.
Ik ben benieuwd wat het verbruik zal zijn maar ik denk dat het wel eens tegen kan vallen.

offtopic:
Voor de laptopmarkt zou ik sowieso geen GDDR5 meer willen


Nog een interesant linkje over HBM en de roadmap.
http://wccftech.com/amd-f...hbm-9x-faster-than-gddr5/
Toch lijkt het erop dat zowel AMD als NVidia met GDDR5X kaarten gaan komen. Dit gaat waarschijnlijk in het "bang-for-buck" segment zijn, waar nu de R9 390 en de GTX 970 zich bevinden. De opvolgers van de Fury en de Titan gaan dan waarschijnlijk dit nieuwe HBM2 bevatten, en wie weet ook nog wat goedkopere kaarten.

[Reactie gewijzigd door JoepD op 26 oktober 2015 14:51]

Echter gaan ze het oude GDDR snel uitfaseren als de prijzen enigszins gelijk liggen, omdat HBM veel minder kaartopppervlak inneemt, en een hoop minder layers vereist op diezelfde kaart. De kosten voor je interposer zijn nu nog hoger, maar gaan ook rap omlaag, waardoor dat in balans is.

Voeg daarbij dat HBM nu nog hele grote sprongen kan maken met weinig moeite (verdubbeling van bandbreedte is geen probleem) en het is een verloren strijd voor GDDR. Niet per direct, niet voor de komende 2 jaar, maar daarna is het over en uit.

Ik verwacht dat Intel en AMD het ook snel genoeg gaan toepassen op hun CPUs, wellicht eerst voor servers, maar daarna zeker ook voor gewone thuisgebruikers. De capaciteitsvergroting is te interessant.
Echter gaan ze het oude GDDR snel uitfaseren als de prijzen enigszins gelijk liggen, omdat HBM veel minder kaartopppervlak inneemt, en een hoop minder layers vereist op diezelfde kaart. De kosten voor je interposer zijn nu nog hoger, maar gaan ook rap omlaag, waardoor dat in balans is.
Zeg je hier nou dat een paar lagen pcb hetzelfde kost als een interposer?
Nu nog niet, straks wel :)
Wat ik mij afvraag is waarom Micron hier mee komt? Naar mijn weten hebben ze een joint-venture met Intel voor het produceren van NAND, maar ik dacht dat ze zich altijd voornamelijk met DDR en flash geheugen bezighielden. Zijn ze ook leverancier van GDDR geheugen voor Nvidia of AMD?
Ik ben erg benieuwd naar het stroomverbruik van gddr5.

HBM is namelijk erg zuinig. Straks geldt de grap dat je in de winter je AMD kaart ipv een kachel moet gebruiken ook voor NVidia kaarten :P
Nvidia gaat het waarschijnlijk alleen bij de mainstream kaarten gebruiken (zoals GeForce 960) zoals in het artikel staat.

Voor de high-end zal nvidia ook voor hbm gaan.

Dat ze voor de mainstream voor gddr5 kiezen zal denk ik zijn om geld te besparen en omdat mainstream kaarten meestal geen grote hoeveelheden geheugen krijgen. Ook ontloop je zo ook een schaarste probleem.

[Reactie gewijzigd door Deadsy op 26 oktober 2015 14:29]

Benieuwd om te weten hoe dit zal presteren met DX12 :)
Maakt niet veel uit welk framework je erbovenoverheen gebruikt, de basis-principes blijven hetzelfde: bandbreedte = king.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True