Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

SK Hynix is de levering begonnen van zijn gestapelde High Bandwidth Memory voor videokaarten van een nieuwe generatie. Daarnaast is de geheugenfabrikant begonnen met de levering van gddr5-chips met een doorvoersnelheid van 8Gbit/s.

Het HBM-geheugen van SK Hynix is beschikbaar in 1Gb-chips en levert een bandbreedte van 1Gbit/s per signaal. Dat staat in het 'databook' van de fabrikant voor het vierde kwartaal van 2014. De bandbreedte voor de gehele stack ligt op 128GB/s. Komende gpu's kunnen uitgerust worden met vier stacks, waarmee de bandbreedte op 512GB/s kan uitkomen. Het gaat om het eerste High Bandwidth Memory dat SK Hynix uitbrengt.

In de toekomst moet een bandbreedte van 2Gbit/s binnen handbereik komen, waarmee de bandbreedte per stack toeneemt tot 256GB/s en gpu's met vier modules dus een bandbreedte van 1TB/s tegemoet kunnen zien. Het HBM van SK Hynix opereert op 1,2V. Ter vergelijking: een Nvidia GeForce GTX Titan Black heeft met zijn 384bits brede bus en 7Gbit/s-gddr5 een bandbreedte van 336GB/s en dat geheugen werkt op 1,5V.

Eerder werden de details over het gestapelde geheugen van SK Hynix al bekend. De fabrikant plaatst vier dram-dies boven op elkaar en verbindt deze lagen via verticale through-silicon via- of tsv-kanalen door het silicium heen. Deze kortere datalijnen dan bij regulier dram brengen voordelen op gebied van kosten, omvang, energie en bandbreedte met zich mee.

SK Hynix werkt met AMD aan de technologie en de mogelijkheid bestaat dat het geheugen voor kaarten uit de volgende generatie Radeon Rx 300-serie gebruikt gaat worden. Geruchten hierover doen al langer de ronde. Nvidia zal het gestapeld geheugen voor zijn Pascal-gpu, de opvolger van de huidige Maxwell-gpu, inzetten.

Nvidia Pascal roadmap

SK Hynix heeft ook in het vierde kwartaal de eerste gddr5-chips met bandbreedte van 8Gbit/s geleverd. Tot nu toe was het maximum 7Gbit/s. Het gaat verder om reguliere 4Gb-chips die op 1,55V opereren. De bandbreedte van een nieuwe GM20x-gpu van Nvidia zou bij een gelijkblijvende geheugenbus kunnen toenemen van 224GB/s bij de GM204 naar 256GB/s. De Hawaii-gpu van AMD maakt gebruik van 5Gbit/s-gddr5. Het nieuwe geheugen van SK Hynix zou eveneens voor de volgende generatie Radeon Rx 300-serie gebruikt kunnen worden.

Moderatie-faq Wijzig weergave

Reacties (39)

Hmm... Leuk, op een GPU, zeker zolang GDDR6 nog niet tot de mogelijkheden behoort. En, laten we eerlijk zijn, GDDR6 laat op zich wachten.

Ik zou graag zo'n stack on-chip op een AMD APU zien. Nog steeds is de breedte van de geheugenbus (die gedeeld wordt met die van de CPU) een beperkende factor in het functioneren van de on-die GPU. Plaats zo'n stack (512 MB) op de chip en het leven kan er al weer heel anders uitzien. Ja, ik begrijp dat daarvoor aanpassingen nodig zijn in de geheugenbus zelf, maar AMD heeft al ervaring opgedaan met GDDR5 op de PS4 custom APU. Problemen zijn er om overwonnen te worden.
Zeker een groot verschil als je kijkt naar twee jaar geleden. Gelukkig werkt mijn videokaart nog goed al zit ik wel te denken aan een upgrade naar SLI.
Zeker een groot verschil als je kijkt naar twee jaar geleden. Gelukkig werkt mijn videokaart nog goed al zit ik wel te denken aan een upgrade naar SLI.
Doe het niet, SLI geeft een te kleine marge profijt, voor een te hoge kostenpost. Ik heb zelf een laptop met SLI, maar ik heb SLI standaard uitstaan. Het idee van SLI is leuk, maar als geen enkele ontwikkelaar deze goed wil ondersteunen. Heb je er niet zo veel aan.

Dat terzijde, ik ga binnenkort een nieuwe game desktop bouwen, en daar past een kaart als dit maar al te goed in. (Budget is 1500 euro, excl beeldscherm want die heb ik nog).
Elk spel wat ik gespeeld heb ondersteunt SLI prima. Ben nog geen zware game tegen gekomen waar het slecht zou moeten werken en voor de kleinere games heb je toch geen SLI nodig.
Ik heb problemen gehad met bijvoorbeeld Watch Dogs. SLI aan, spel onspeelbaar. SLI uit, spel beter speelbaar. (Al waren de bugs bij release ronduit schandalig.)

Bij Total War: Rome 2 had het ook niet veel zin om SLI aan of uit te zetten, want de kwaliteit of speelbaarheid ervan verbeterde amper.

En dan hebben we nog Star Citizen, als je daar SLI aanzet crashte m'n laptop half. Als is dit nog steeds in Alpha fase, dus daar mag ik eigelijk niet over klagen.
Begin alsjeblieft niet over watch dogs want dat is het slechtst geoptimaliseerde spel wat er is.

Bij rome total war 2 zie je toch zeker een gigantisch verschil in FPS met SLI;
http://nl.hardware.info/r...chmarks-total-war-rome-ii

En ja, een spel wat in Alpha zit afrekenen op de SLI optimalisatie vind ik een beetje belachelijk. Dat soort dingen gebeuren meestal pas voor de release. Veel SLI bugs zitten vaak nog in de beta, maar deze zijn er bij normale spellen al snel uit.
Er zijn wel meer spellen geweest, maar Total War heb ik alleen in het begin gespeeld, voordat ze de optimalisaties uit hadden gebracht. De eerste 4 maanden ofzo maakte het niets uit of SLI aan of uit had.
Er zijn altijd spellen waar SLI in het begin niet altijd even vloeiend werkt.
Maar ik heb nu al bijna een jaar een 760 in SLI en heb bij geen 1 spel problemen gehad.

Af en toe bij een release of beta bekende flikker bugs (die er overigens altijd snel uit worden gehaald), maar de performance is altijd een stuk beter.
"Bij rome total war 2 zie je toch zeker een gigantisch verschil in FPS met SLI;"

Ja maar hoelang heeft dat wel niet geduurd... Ik was al klaar met dat spel voor ze ooit SLI ondersteuning toevoegde.
Dan is dat gewoon een hele slechte developer. Alle Triple A titles hebben dat soort dingen vaak wel op orde.

Tuurlijk zullen er specifieke developers zijn die hun spel niet juist optimaliseren.
Rome 2 is gemaakt door The Creative Assembly en uitgeven door Sega en gezien de status van de hele total war series echt wel een triple A title.

Daarbij zijn er veel meer triple A titels met problemen dan zonder. Watch dogs, Destiny en Assassins creed Unity om maar even 3 recente te pakken.
Weer zon leuke titel, assasins creed unity, watch dogs. 2 Dramatische spellen allebei geport door dezelfde oostblok landen via ubisoft.

Een spel wat momenteel problemen heeft met elke videokaart.
Zelfs een 980 komt daar net boven de 60 fps op LOW.

Een spel wat 50.000 draw calls maakt bij directx11 die er maar 10.000 ondersteunt.

Daarbij noem je ook nog destiny, een spel wat niet eens beschikbaar is voor PC.
geport ofniet, dit is wat het vaakst gebeurd en zal gebeuren.. jammergenoeg
De spellen waarvoor je SLI nodig zou hebben en die niet werken met SLI zijn op 1 hand te tellen.

SLI is dus zeker het overwegen waard in bepaalde situaties. Om dit compleet af te schrijven omdat Watch Dogs en Assasins creed unity hier geen grote verbetering mee bieden is natuurlijk onzin.
De hele discussie gaat over SLI. Sinds wanneer kan jij SLI draaien op een playstation?
Je hebt dat spel uitgespeeld?
Ik had daar toch echt het geduld niet voor.(per afgesloten ronde kan je 5 minuten wachten op de stappen van de AI, die altijd retarded was)
Nee, ik heb denk ik 50 uur grand campaign gespeelt. En daarna gestop. Dat was inderdaad omdat de AI te stom voor woorden was maar ook omdat het ontzettend veel herhaling was. Erg jammer, ik heb me ontzettend vermaakt met medieval 2, Shogun 2 en rome 1

[Reactie gewijzigd door Thekilldevilhil op 17 november 2014 15:17]

Eh? Watch Dogs valt toch wel mee zolang je niet in een auto zit? GTA 4 heeft de titel het meest slecht geoptimaliseerde spel ooit. SLI heeft nooit gewerkt en in het begin (tot maanden na release) deed überhaupt het spel op de helft van de hardware waar het op zou moeten werken niet.

Ik heb vroeger vaak genoeg problemen gehad met SLI, dat als je het aan had spellen slecht werkten of überhaupt niet wat wilde doen. Toegegeven ik gebruik al een paar jaar alleen maar solo kaarten, maar SLI was toen ook hot, hip en zogenaamd werkend met spellen.. Spellen die ik vandaag de dag speel zijn ook klachten over SLI support. Het spel wat ik het meeste speel atm is MWO, dat op de CryEngine3 loopt en daar regent het ook klachten over SLI.

Daarnaast staat de prestatiewinst van een 2e kaart in SLI niet in verhouding met het extra energie verbruik en de extra warmte die je krijgt.
Ik zeg ook niet dat SLI altijd de beste oplossing is. Het kan in veel situaties veel beter zijn om je oude kaart weg te doen en een compleet nieuwe te kopen.

Maar zeggen dat SLI geen juiste keuze is, omdat er overal problemen mee zijn is in deze tijd wel een beetje over. Ik kan zo een dikke game lijst opnoemen waar het prima werkt.

NVIDIA heeft hier trouwens ook een aardige lijst van;
http://www.geforce.com/games-applications/technology/sli

En om dan weer elke keer aan te komen met "Ja bij watch dogs en unity werkt het niet goed.". Dat zijn 2 spellen die over het algemeen niet goed werken met niks.
"off topic, i know"
Maar bij Assassin's Creed Unity hetzelfde verhaal, met Sli aan gewoon onspeelbaar, en met Sli uit in ieder geval al 10 keer beter speelbaar.
Maar ook dan nog steeds niet helemaal lekker.
But Who Knows, wie weet wordt het nog weer beter na de 3e update voor deze game.
Toen deze echt net uitwas was, en dus nog geen updates had gehad, was het echt een ramp namelijk (Na mijn mening/ervaring dan) ;)

[Reactie gewijzigd door SSDtje op 17 november 2014 14:04]

Dat is inderdaad ook wel zo, ik zal eens kijken wat de mogelijkheden qua upgrades ik heb. Overigens heb je een mooi budget, kan je zeker een high-end game-pc van samenstellen!
Waarom wordt waarschijnlijk wel de 300-serie van AMD uitgerust en niet de aankomende GM110 GPU van Nvidia? Kunnen ze de grote broer van de huidige GM104 Maxwell chip niet compatible maken voor deze nieuwe geheugen-technologie?
Waarschijnlijk omdat AMD hier samen met Hynix aan gewerkt heeft.
Dus AMD zal hier waarschijnlijk al tests mee hebben kunnen draaien voor de 300 series en waarschijnlijk hebben ze voor gpu's ook een tijdje exclusieve rechten.
Met andere woorden: Je weet niks meer dan ik...
Staat in de tekst :/

Quote:
SK Hynix werkt met AMD aan de technologie en de mogelijkheid bestaat dat het geheugen voor kaarten uit de volgende generatie Radeon Rx 300-serie gebruikt gaat worden. Geruchten hierover doen al langer de ronde.

Dus het is helemaal niet gek om te denken dat iig de 390(x) stacked memory gaat gebruiken.

Waarom nVidia hier binnen een paar maanden nog geen gebruik van kan maken? Hebben ze erin geinvesteerd? Iig uit dit artikel blijkt dat niet, dus dan krijgen ze ook niet als eerste toegang ;)

Zelfde met samsung en 3D nand.
Dat maken ze zelf en de concurentie heeft hier nu iig nog geen toegang toe ;)
Mooi om te zien dat de curve van de grafiek weer steiler wordt. Er worden blijkbaar weer flinke stappen gemaakt in het ontwikkel proces. Ben benieuwd of we nu eindelijk eens de progressie gaan meemaken zoals het afgelopen jaren ging bij de CPU's.
Het artikel heeft te maken met de snelheid van het geheugen <-> GPU.
Echte vernieuwingen komen als je bottlenecks verbeterd of geheel omzeilt.

Momenteel is het moederbord met z'n PCI lanes nog trager dan het geheugen, en is de HD weer een factor trager dan PCI. (specifieke combo's van SSD en PCI16x daar gelaten)
Ik wordt van dit hele verhaal en de databook nou niet echt wijzer...
Een maximale stack kan dus 128GB/s leveren, maar hoe verhoudt dit zich dan tot de busbreedte van de gpu? Of is dat niet meer van toepassing bij dit type geheugen?
Daarnaast krijg ik ook niet duidelijk uit hoeveel GB geheugen 1 stack dan bestaat...
Als ik de databook moet geloven dus 1Gb wat neer komt, bij maximaal gebruik van 4 stacks op 1 kaart, op 512MB vram in totaal?
Ik heb ook meer vragen dan antwoorden.

De toekomstige generatie GPU's kan tot 512GB/s aan bandbreedte krijgen, terwijl de GPU uit het voorbeeld al zit op 336GB/s zitten op basis van gDDR5.
Die GPU heeft dat op basis van een 384bits bus en 7Gb/s gDDR5.
Er wordt in het artikel ook een 8Gb/s gDDR5 module aangekondigd en die zou, in combinatie met een 512bits bus, dus ook kunnen schalen tot 512GB/s.

Er zullen vast andere verbeterpunten zijn, maar dit gegoochel met getallen doet me iets te veel marketing aan...
Is die HBM niet een beetje gelijk aan de hybrid memory cube van micron en consorten. Het is in ieder geval een veelbelovende techniek. Wat betreft bandbreedte is deze techniek in ieder geval bewezen goed als je kijkt naar de xeon phi's van intel, die halen al 500(!)GB/s.
Eindelijk krijgen we 3D-chips :). In de toekomst kan je bolvormige chips hebben, om de electronen zo weinig mogelijk afstand af te laten leggen (=sneller). Een bolvormige chip kleiner dan een speldenknopje en 'supersnel'.

[Reactie gewijzigd door kimborntobewild op 17 november 2014 16:38]

Vraag me af of AMD nu eindelijk weer een beetje een inhaalslag gaat weten te maken tegenover nvidia, ze lopen nu al jaren achter, maar aangezien AMD volgend jaar al met stacked geheugen op hun kaarten komt denk ik dat hier nog best wel eens verandering in kan komen.
Nu nog energiebehoefte van de kaarten omlaag.
Ze lopen achter? Daar ben ik het niet mee eens. De R9 290 en 290x zijn zeer goede kaarten ( met aftermarket koeler dan) voor een leuke prijs, die zelfs de snellere Nvidia's nog weten te verslaan op de wat hogere resoluties. En dat is wel de toekomst. Ik vind dus niet dat ze achterlopen. Op gebied van CPU's dan wel weer enigszins, maar het gerucht gaat dat ze aan een compleet nieuwe architectuur werken, en zoals je weet kan dat de strijd volledig om gooien binnen een week na release.
De 290x verbruikt 2x zoveel energie als de 970 van nvidia terwijl ze qua performance ongeveer gelijk op gaan...dan loop je flink achter wat mij betreft.
Misschien lopen ze nu een keer achter op energie gebruik. De vorige generaties van Nvidia waren pas echte energie zuipers (GTX480/580). Helaas schijnt iedereen dat te vergeten.
Bij de 6xx serie was het ongeveer gelijk, alleen de highend van AMD gebruikte ietsjes meer omdat ze (veel) meer GPGPU power hadden (double precision) de mid en lowend waren even zuinig. Nvidia doet het dus pas sinds 1 generatie (Maxwell dus) echt goed als het aankomt op performance/watt.

Maxwell is een nieuwere generatie, logisch dat hij zuiniger is dan de oude generatie van AMD.
Volgens mij is het ook zo dat terwijl Nvidia investeerde in een lagere verbruik AMD bezig was met investeren in dit technologie. Ik had een op een paar websites gezien dat dit technologie leid tot een vermindering van 48% energie in verbruik t.o.v. GDDR5. Of dit waar is en misschien alleen betrekking heeft tot het geheugenverbuik? Betwijfel het, maar het wordt waarschijnlijk wel aanzienlijk minder en waarschijnlijk ook sneller. Althans zo ziet het er uit, tijd zal het laten zien. Desalniettemin, een vordering lijkt me, anders zou Nvidia het ook niet nu al besloten hebben om in 2016 gpu met HBM uit te brengen.

link
Dat ziet er super interessant uit. Zal wel wat gaan kosten.
Ik heb liever een snelle single gpu dan een SLI setup dus dit klinkt als muziek in de oren. als je een beetje in gamemodden zit dan werken veel dingen gewoon niet met een SLI setup, denk aan Prepasseffects.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True