Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties

Hynix claimt de eerste te zijn die een 2Gb gddr5-geheugenchip op een 40nm-procedé heeft weten te maken. De chip zou niet alleen tot 20 procent minder energie nodig hebben dan de bestaande 50nm gddr5-chips, maar ook stukken sneller zijn.

De 2Gb-gddr5-chip van halfgeleiderfabrikant Hynix wordt op een 40nm-procedé gefabriceerd en heeft aan een spanning van 1,35V genoeg. Door de lagere spanning ten opzichte van gddr5-chips die nog op 50nm worden gebakken, zouden de chips tot 20 procent zuiniger zijn. Behalve zuiniger met energie zijn de chips echter ook tot flink hogere kloksnelheden in staat, tot maximaal 7000MHz. De huidige gddr5-chips op de videokaarten van ATI hebben maximaal een gegarandeerde kloksnelheid van 5000MHz.

Volgens Hynix gaan de chips in de tweede helft van 2010 in massaproductie. De mogelijkheid bestaat dan ook dat de chips gebruikt gaan worden bij de nieuwe generatie videokaarten van ATI. De nieuwe generatie van Nvidia komt echter net te vroeg op de markt om nog van de snelle gddr5-chips gebruik te kunnen maken.

Hynix 2Gb gddr5-chip

Moderatie-faq Wijzig weergave

Reacties (35)

Jammer dat deze net niet op Fermi kunnen. Zou hij denk ik wel kunnen gebruiken. Er staat wel dat de chips 20% minder gebruiken maar wat moet ik me hier nou bij voorstellen? De core gebruikt toch verreweg het meeste stroom van een videokaart?

En alle mensen 7000 MHz is wel erg veel..

[Reactie gewijzigd door Xenomorphh op 21 december 2009 14:22]

Klopt, bijvoorbeeld de geheugenreepjes in je computer gebruiken enkele watts (bijvoorbeeld een reepje DDR2 op 1.8V verbruikt onder belasting ongeveer 1.355W, vandaar dat er ook geen extra koeling voor nodig is.)
Neem dan nog eens zuiniger GDDR5 dat werkt op maar 1.35V, en dan kan je wel stellen dat een high end core wel 100 keer meer verbruikt.
20% is dus relatief wel mooi, maar in absolute cijfers stelt het niet veel voor.

Daarintegen in 7000MHz is wel lekker, met een 256bit bus zit je dan toch al over de 200GB/s aan geheugenbandbreedte!
7000 MHz effectIef. GDDR5 doet per klokpuls vier datasignalen dus het werk eigenlijk op een kloksnelheid van 1750 MHz (wat nog steeds snel is natuurlijk).

En ook al gebruikt de core het meest elke besparing is er één. En het biedt natuurlijk ook het voordeel dat minder energie minder warmte oplevert dus minder of geen koeling nodig voor het geheugen.
Das dus juist het misleidende in het artikel: "hogere kloksnelheden in staat, tot maximaal 7000MHz."
Het is geen kloksnelheid, het is de bitrate/kanaal.

Het originele artikel praat dan ook over "7Gbps"(per kanaal) en 28GB/s bandbreedte met een 32 bit brede bus.

Dus kloksnelheid van 1750 MHz. Als men imposante nummers wil hebben dan doe je de bitrate/kanaal x 512bit bus = 3584 Gbps of 448 GB/s bandbreedte.
Een 512 bit bus komt veelvuldig voor in de highend markt. De rest zit nog op een 256 bit bus. (Smallere bus, minder geheugenchips die parallel moeten draaien, dus goedkoper)
Een 512 bit bus komt veelvuldig voor in de highend markt.
In het kamp van Nvidia dan, bij ATI hebben ook de high end kaarten een 256bit bus.
Maar dan nog geeft het met deze chips dan 224GB/s bandbreedte, wat nog steeds wel genoeg moet zijn. (De Radeon HD5870 heeft momenteel 163.2GB/s beschikbaar..)
Smallere bus, minder geheugenchips die parallel moeten draaien, dus goedkoper.
En niet te vergeten dat ook het PCB minder ingewikkeld is, wat ook weer goedkoper is.
Het lijkt me logisch dat Nvidia de strategie van ATI gaat volgen en zijn high end kaarten uitrusten met 256bit GDDR5 en mainstream 128bit GDDR5.
Ik ben niet helemaal thuis in de markt van gddr, maar hoe zit dat nu met latencys? Ik bedoel, als je 70 cycly moet wachten op toegang, heeft het niet erg veel zin, toch? Wat is eigenlijk het grote verschil tussen DDR en GDDR dat dit bij grafische spulletjes wel zo verrekte snel kan en bij normale processors er nog altijd een gat zit tussen core en geheugen clock?
De vorige generatie van 1250MHz geheugen (effectief 5GHz) had een CAS latency van 6.
Dit komt neer op een toegangstijd van 4,8ns. En ter vergelijking: 800MHz DDR2 met een CAS latancy van 5 heeft een toegangstijd van 12,5ns.

GDDR heeft andere eisen dan normaal DDR. Immers is het niet erg dat er bv 1 keer om de X aantal tijd een pixel in een spel een verkeerde kleur krijgt door het geheugen (de meeste zal je gewoon niet opmerken), maar als er een fout in je ram geheugen voorkomt heb je kans op een BSOD, met alle gevolgen van dien.
Wauw geheugenchips op 5 Ghz 7 Ghz. Dat wordt smullen.

Dat moet ongeveer toch wel echt ongeveer max zijn wat je aan frequentie aan kunt. Ik bedoel wanneer wordt een alternerend signaal met dit soort frequnties uiteindelijk gewoon een 1?

[Reactie gewijzigd door G-bird op 21 december 2009 14:37]

Het is dan ook eigenlijk 875MHz, 7GHz klinkt gewoon leuker.
Het is eigenlijk 1750MHz. GDDR5 verstuurt namelijk 4 bits per kloktik en geen 8.
Eh nooit?

Zodra een alternerend signaal een constant signaal wordt (de 1 waar je het over heb) is het geen alternerend signaal meer :)

Waar ligt de grens dat we nieuwe technieken kunnen verzinnen waarbij we nog steeds het verschil snel genoeg kunnen meten? Goede vraag maar onmogelijk om het antwoord op te geven.

Stel dat je dit aan Babbage had gevraagd, hoe snel zijn machine ooit zou kunnen worden (nou ja, spirituele opvolgers), had hij dan een zinnig antwoord kunnen geven?

We kunnen het verschil zien in veel snellere frequenties, denk maar aan radio.

Ik denk dat het probleem meer zit in hitte en storing.
Zodra een alternerend signaal een constant signaal wordt (de 1 waar je het over heb) is het geen alternerend signaal meer
Precies, volgens mijn prof. electro, van jaren terug, wordt het electrisch lastig om ver boven het Ghz bereik uit komen omdat het ene end een alternerend signaal uitzend maar aan de andere kant een aleen een 1 wordt gezien.
We kunnen het verschil zien in veel snellere frequenties, denk maar aan radio.
Met alle respect radio dat zijn electromagnetische golven en dat is toch wat anders dan louter electrische signalen. Jazekers, dat gaat zelfs tot 300Ghz in een straal verbinding.
Huidige generatie is op 5GHz, deze nieuwe dus op 7GHz.... overigens zijn beide snel ;)
7ghz. 5ghz is wat de memory chips op de nieuwe serie ati kaarten max gegarandeerd kunnen.
en zo loopt Nvidia zodirect "alweer" achter de feiten aan als ATI Inderdaad gebruik gaat maken van deze chips (wat ik wel voorzie) :+
ja inderdaad laten we hopen dat ze bij nvidia nog wat aanpasisngen willen doen :P
Ik zou hiervoor best wel wat langer willen wachten.
Ja ik denk het wel. Waarschijnlijk gaan ze net als de GT 2XX reeks eerst de GTX 3X0 uitbrengen. Vervolgens na een paar maanden gaan ze de verbeterde ( denk dus aan geheugen, Kleinere nm's, koeling, ETC. ) kaarten uitbrengen onder de naam GTX 3X5 ( GTX 280 >> GTX 285 ) En eventuele nieuwe kaarten. Maar voordeel is wel nvidia gaat tenminste niet van die cheap ass 256 bit bussen gebruiken waardoor het veel beter benut gaat worden. Dus ben benieuwd wat deze vooruitgang in de videokaart markt gaat brengen!
Hehe ik zie het nadeel van cheap ass 256bit niet bij GDDR5 geheugen wat op 4,8ghz draait :) Geeft meer dan genoeg bandbreedte :)
Ik hoop dat Nvidia net wél overschakelt op een 256bit bus met GDDR5. Die 512bit bus van de huidige generatie maakt het PCB nodeloos ingewikkeld, terwijl het in combintatie met GDDR5 448GB/s aan bandbreedte zou geven, en dat is toch wel overkill denk ik.
Ik zie liever goedkopere kaartjes komen dan kaartjes met hoge nummertjes..
De kans is klein dat Nvidia hier nog op wacht. Immers heeft AMD/ATI al een nieuwe generatie kaarten op de markt, die qua prijs/prestaties de kaarten van Nvidia overtreft. Nvidia heeft nu nog het geluk dat veel OEM computers met een Nvidia worden uitgerust, waardoor ze nog wel even verder kunnen, maar ze moeten toch opschieten met hun nieuwe GT300/Fermi.
Inderdaad jammer als nvidia hier geen gebruik meer van kan maken. :(
Hopelijk dat ati er nog iets leuks mee kan doen.
:D
Wel mooi dat ze 40nm maar of ze ook echt 20% zuiniger zijn?
Nvidia zal er vast ook wel gebruik van maken met hun high end kaarten. Immers lanceren ze niet op 1 dag de hele reeks, bij ATI kwam de 5890 bijvoorbeeld ook een tijd later pas op de markt. Ook staat het de fabrikanten vrij om de reference model niet te volgen en op hun eigen houtje andere geheugenchips op hun kaarten te voorzien, mits de geheugencontroller natuurlijk GDDR5 slikt.
Wel mooi dat ze 40nm maar of ze ook echt 20% zuiniger zijn?
Ze zijn op 40nm gebakken, en Hynix zegt ook dat ze 20% zuiniger zijn. Waarom twijfel je aan het woord van Hynix?
Het is een beetje dubbel.

Aan de ene kant jammer dat Fermi deze chips niet kan meepakken,
en aan de andere kant wil je ook niet te lang meer wachten op Fermi.

Hoewel ik zelf denk dat Fermi een Flopie word.
To little to late

@drift: thanks... beetje stom
@SRI : niet een flop qua functies en performance, maar qua verkopen. Het ontwikkelen duurt te lang waardoor ATI/AMD te snel met iets beters kan komen.

[Reactie gewijzigd door Fiander op 21 december 2009 15:21]

Niet Femi maar Fermi :Y)
Gewoon een second edtition of een nieuw topmodel uitbrengen met deze chips? Dat iets er met de release niet is betekent niet dat het niet nog kan komen!

(wat nvidia betreft, denk dat het wel een goede kaart wordt als ik het nieuws zo lees maar dat de kosten weer te hoog zullen liggen, de weg die ati heeft gekozen is toch aanzienlijk beter gebleken).
7 GHz is natuurlijk wel veel. Over snel gesproken. Tweede helft 2010 in productie.. Ik denk dat er dan ook al meer soortgelijken op de markt zijn gekomen (of ten minste, hoop ik).
Waarom is zulk geheugen niet te gebruiken als supersnel systeemgeheugen?
Net zoals ik eerder al postte (hier net boven ;)) heeft GDDR5 andere eisen dan normaal DDR geheugen. Het is simpelweg geoptimaliseerd voor videokaarten, en niet voor werkgeheugen.
Verder gaat de overschakeling van DDR2 naar DDR3 traag vooruit. Op de moment dat ze DDR4 maken als werkgeheugen gaat niemand nog DDR3 kopen, de keuze is dan immers goedkoop DDR2 of snel DDR4. De fabrikanten willen natuurlijk ook niet stoppen met DDR3 vooraleer ze de ontwikkelingskosten terugverdient hebben..
damm 7000 MHz is niet niks
Inderdaad Jack Flushell..

OT: jammer dat dit niet in de nieuwe lading nvidia kaartjes komt, maar het beloofd wel veel goeds voor de toekomst! Vraag me overigens af wanneer CPU's weer naar hogere kloksnelheden gaan, of is er iemand die me kan vertellen waarom dat niet zo zou zijn?

[Reactie gewijzigd door Reflian op 21 december 2009 19:57]

De voornaamste reden is dat het opgenomen vermogen (en onrechtstreeks de afgegeven warmte) rechtevenredig oploopt met de frequentie waarop de chip werkt, en exponentieel (kwadratisch) met de spanning. Aangezien beide verhogen heeft het dus een enorm effect op de warmte dat een chip produceert.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True