Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: Qimonda

Geheugenproducent Qimonda maakte vandaag bekend dat het is begonnen aan de ontwikkeling van gddr5-geheugenchips. Omdat het bedrijf geen specificaties wil vrijgeven is onduidelijk wat de prestaties zullen zijn.

QimondaQimonda claimt dat gddr5 de gedoodverfde opvolger is van het nu bij videokaarten veelgebruikte gddr3. De chipmaker zegt voor de omschakeling naar gddr5 samen te werken met de leverancier van testapparatuur Advantest. Naast de verhoogde snelheid wijst de fabrikant op het feit dat de gddr5-standaard al door Jedec, de beheerder van geheugenstandaarden, is goedgekeurd. Door de goedkeuring zijn diverse geheugenbakkers al voorbereidingen aan het treffen voor grootschalige productie.

Hoewel Qimonda de claim neerlegt de gddr4-stap geheel over te kunnen slaan, geeft het bedrijf geen belangrijke details weg, zoals stroomverbruik en de kloksnelheden die de chips kunnen behalen. Ondertussen heeft Samsung al de eerste gddr4-geheugenchips laten zien die op 4GHz lopen, tweemaal zo snel als de nu beschikbare 2GHz gddr3- en gddr4-chips. Oorspronkelijk werd gedacht dat gddr4 in 2007 op 2,8GHz zou zitten en een jaar later zou gddr5 beginnen vanaf 3,5GHz en 4GHz bereiken in 2009. Samsung heeft de klok van gddr4 al een jaar geleden op 3,2GHz kunnen krijgen. ATi en Jedec hebben in 2004 de gddr4-standaard aangekondigd, maar het duurde uiteindelijk tot in augustus 2006 voor de eerste grafische kaart voorzien was van dergelijke chips.

Moderatie-faq Wijzig weergave

Reacties (24)

Wat knap.
Ik vraag me af of dat inhoudt dat in de toekomst cpu's geen multiplier meer hoeven te hebben,
Dat in plaats van 10x200 dat je gewoon 1x2000 krijgt voor een 2000 mhz cpu.
Houd wel in't achterhoofd dat dit GDDR is he.
niet 'standaard' DDR, laatstgenoemde moet tot veel meer in staat zijn, en dat gaat ten koste van de kloksnelheid.
voordat DDR dit niveau haalt (clocksnelheid) dan zijn we alweer 2 jaar verder (misschien meer, misschien minder)
Waarom zou DDR tot veel meer moeten instaat zijn? GDDR en DDR moeten beiden gewoon bitjes opslaan totdat ze opgevraagd of overschreven worden. Niets meer niets minder. GDDR is echter veel sneller, maar heeft minder capaciteit/oppervlakte (hedendaags toch).

Als je processor en je mobo-bus zouden kunnen volgen met GDDR, zou je net zo goed GDDR in je mobo kunnen draaien, waarschijnlijk wel 8 latjes en een koeler om aan 2GB te komen. Tot dan is het niet NODIG om GDDR te gebruiken, omdat je de capaciteit gewoonweg niet gebruikt en DDR is goedkoper.
Omdat GDDR chipjes rechtstreeks in verbinding staan met de gpu, maw een point to point verbinding.
PC ram heeft echter een 64 bits BUS en daar zit het hem.
Een bussysteem heeft meer last van skew, crosstalk en reflection en deze factoren reduceren de performance dramatisch.

Wat ook positief is aan de grafische kaarten is dat het gddr dichter bij de gpu zit en vastgesoldeerd is wat ook weer voor een zuiverder signaal zorgt en dus hogere kloksnelheden toelaat.
Maar dan heb je wel een hele hoge fsb nodig he ;)
Of multipliers <1,
40001/2=2000Mhz

:+
niet te optimistisch he. 4000MHz / 2 = 2000MHz voor je cpu en 2000MHz X 4 = 8000MHz voor je moederboard. Kan je nagaan wat dat zou betekenen als er ook nog een multiplier is. Denk dat ze tegen die tijd wel weer nieuwe snufjes hebben om je processor sneller te laten draaien. :P

En een vraag: wat presteert nou beter? 2 processoren op dezelfde klokfreqentie. de eerste met een lage multiplier de tweede met een hoge multiplier.
lagere multiplayer met hogere fsb.
Niet zo kort door de bocht he ;)

Omdat andere onderdelen in een pc (moederbord, geheugen) ook sneller gaan lopen als de fsb omhoog gaat is in principe een hogere fsb en lagere multiplier sneller. Het hoeft alleen niet altijd uit te maken. Als de cpu (of gpu in dit geval) 20 kloktikken nodig heeft voordat hij weer het geheugen moet gebruiken (om maar een voorbeeld te geven) kan de cpu best 20x zo snel lopen als de fsb en heeft het dus geen zin om het geheugen net zo snel te laten lopen.

Hoeveel mhz de cpu sneller kan lopen hangt van de architectuur van de processor en van de aplicatie af.
Kan me vergissen, maar is die gigahertz-race niet gewoon weer een hype? De werkelijke "responstijd" van DRAM is de laatste jaren niet echt schokkend gedaald, en zit nog steeds op zo'n 30ns vziw. Heel leuk dat je met enorme snelheden kunt bursten, maar is dat waar videokaarten op zitten te wachten?
is dat waar videokaarten op zitten te wachten?

Toch wel ja. Vooralsnog presteert een kaart met dezelfde GPU maar met "sneller" geheugen nog steeds merkbaar beter. Het vertaalt zich niet alleen in hogere fps, maar ook in stableiere fps. De bus gaat minder snel over z'n nek, vandaar. (Mits de GPU "krachtig" genoeg is uiteraard.)

Weliswaar simpel gesteld, maar niet al te ver ver bezijden de waarheid. :)
Ik snap dat het hier over gddr5 gaat, ging in op de post boven mij. Kan iemand mij uitleggen wat het echte verschil is tussen ddr en gddr?
gddr word minder warm en gebruikt minder stroom (voltage) ook het boven genoemde dat het dicht bij de GPU/VPU opereerd zorgt er voor dat gddr hoger geclocked kan worden dan normaal DDR (Double Data Rate) en GDDR (Graphics Double Data Rate) geeft ook al aan dat GDDR voor niets meer dan video kaarten word gebruikt.

Om het simpel te houden ;)
Wat apart, Advantest in de geheugenindustrie. Bepaald een ommezwaai te noemen. Ik heb hier een Spectrum Analyzer van Advantest; totaal maar dan ook totaal iets anders dus...
Behalve dan dat het electronica betreft,
dus het is voor de helft totaal anders of in elk geval kwarttotaal anders.
dat weet ik, maar wat maakt het nou Gddr geheugen, want voorheen werd er vaak gewoon ddr geheugen gebruikt op videokaarten.
nee hoor, naar mijn weten is het altijd gddr 1/2/3/4 geweest.

gebruik anders ff wiki of google.
Nou, de Geforce 256 had toch echt DDR geheugen (en geen GDDR).. Werd ook wel eens de Geforce DDR genoemd.

bron (een review over de betreffende kaart)
http://www.dansdata.com/gwgfddr.htm
Ik kan er helemaal naast zitten hoor, maar volgens mij had zelfs de Radeon 9700 pro ook nog gewoon DDR aan boord.

Al kan het natuurlijk ook zo zijn dat de G voor DDR in die tijd nog niet als terminologie was gemarketeerd.
dit gaat over grafisch geheugen(gddr) voor graka's, is iets anders dan werkgeheugen op je mobo.
Het gaat hier over gddr geheugen, dit wordt dus alleen voor videokaarten gebruikt, dus niet voor processoren.

edit: net te laat |:(
nee de FSB (of hyperbus) blijft nog wel een poosje bestaan, het gaat hier om geheugen voor videokaarten die kunnen veel en veel hoger geclockt worden omdat ze heel dichtbij de GPU zitten en er weinig paden nodig zijn.

in een mainboard ligt dat veel gecompliceerder, daarom gaat dat geheugen niet zo hard omhoog als het GDDR* geheugen :)
ddr is het geheugen wat je op je moederbord prikt (gewoon je ram geheugen) en gddr is het geheugen wat in je videokaart zot

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True