Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties
Bron: X-bit labs

Samsung GDDR4-chipsSamsung is begonnen met de massaproductie van GDDR4-geheugen, zo bericht X-bit labs. Het GDDR4-geheugen doet zijn werk op 2,4GHz en zal zijn weg vinden naar de nieuwe generatie videokaarten van ATi en nVidia. Het GDDR4-geheugen wordt geproduceerd met een 80nm procédé en gebruikt, ondanks de hoge kloksnelheid, minder energie dan GDDR3-geheugen. In vergelijking met het snelste GDDR3-geheugen (2,0GHz) gebruikt het geheugen 45 procent minder energie. Verwacht wordt dat het geheugen als eerste gebruikt zal worden door ATi voor de R580+. Deze kaart krijgt dezelfde core als de Radeon X1900 XTX, maar dankzij het gebruik van GDDR4-geheugen zal de kaart circa 15 procent beter presteren. Verwacht wordt dat ook de ATi R600 en de nVidia G80 vergezeld zullen worden door GDDR4-geheugen.

Moderatie-faq Wijzig weergave

Reacties (20)

waarom focussen de fabrikanten zich niet op GDDR3 geheugen voor op het mobo (voor met je CPU) dan gaat je PC pas echt blazen.

ik vind het ook vreemd dat de V-kaarten voorlopen met hun type geheugen op de moederborden.

iemand een verklaring?

verder valt het nog maar tebezien of de bandbreedte echt fix toeneemt. want net als bij DDRII geheugen, DDRII geheugen loopt op een veel hogere frequentie dan gewoon DDR, maar toch scheelt de bandbreedte niet evenredig veel
gddr en ddr lijken veel op elkaar. De chips zijn identiek (van de buitenkant) grootste verschil zit hem in de gekozen voltages. In eerste instantie werd er voor de grafische kaarten gekozen voor ddr. Ddr hield de kaarten alleen tegen zijn specificaties. Hierdoor hebben ze de onwikkelingen gesplitst in ddr2 en gddr2 en nu dus gddr3.

De gddr2 ondanks zijn lagere voltage dan de ddr2 te warm. Er zijn weer aanpassingen gemaakt aan de gddr2 chip om de hitte afgifte tegen te gaan. Door wat truukjes is dit gddr3 geworden.

1. De gegeugen chips voor moederborden moeten aan allerlij voorwaarden voldoen. Dit houd de ontwikkeling voor de videokaarten tegen. Chipsets moeten aangepast worden door de chipset makers / moederbord fabrikanten. Denk dan bv ook aan het stukje silicium waar de chips op gesoldeerd worden.

2. Videokaarten vragen naar veel sneller geheugen dan moederbord geheugen.

3. Voltages schelen veel met de GDDR tov de DDR.
GDDR3 wordt zoiezo nooit voor de CPU gebruikt, want het is niet voor nix graphisch geheugen

en daarbij trekken processors als de athlon 64 zelden de volledige DDR2 bus vol, eigenlijk gewoon nooit.

en DDR2-800 heeft toch echt wel de dubbele bandbreedte van DDR-400 op een 64 bits bus(single channel)
namelijk 6.4GB tegenover 3.2 GB
dus als GDDR4 geheugen in dual channel wordt gezet, wat meestal gebeurt, komt de theoretische snelheid op 4.8 GHz]
wat dan op ongeveer 38GB/s uitkomt als ik het goed heb

dan vraag ik me af waar de moederborden met pci-e x32 blijven

en @ hierboven, die GPU's komen tegelijk met vista uit

edit @ hieronder, ik denk dat jullie gelijk hebben :o
ik ging uit van 128 bits, zoals bij CPU's het geval is
dat geheugen word erin gezet niet omdat het zo snel kan cumminuceren met de CPU maar, met de GPU.
Ik geloof dat die 38 GB/s van jou niet kloppen want een
X 1900 XT zit al op 56 GB/s d8 ik. GDDR4 zou volgens mij tot 86 GB/s kunnen gaan. Ik herinner me dit ergens gelezen te hebben, Correct me if i'm wrong :+
in 'dualchannel' (op videokaarten staat dat afaik gelijk aan 256-bits) kom je aan
4800000000 Hz * 256 bits / 8 bits = 143 GB/s

edit: dan moet ik natuurlijk de kloksnelheid niet verdubbellen, kom je alsnog op 71.5 GB/s
2 x 1,2 GHz x 256/8 B = 76,8 GB/s !
71,52557373046875 GiB/s :)
En wanneer staan deze kaarten geplanned uit te komen ?
Samples are scheduled for May, while production should start in Q3 between June and August. Such timing clearly indicates that ATI is not in a rush to release the R600 and we know that R600 is actually doing just fine. The R600 needs Vista to glow.

van The Inquirer
Dat "to glow" betekent zeker DirectX 10?
volgens mij komen de pci express-2 (32x?) uit eind 2007. In het toen pci-express uit kwamen waren de snelheden ook niet op max , dat doen ze nooit , ze willen het eerst uitmelken ;(
is niet nodig en onnodig duur, de 16X bus word nooit volgetrokken ;)
net als de ISA en PCI/33 bus? :?
Het lijkt me dat G-DDR 4 weer sneller en dus waarschijnlijk ook meer stroom gaat trekken en warmer wordt... sommige kaarten trekken nu al !!!150!!! watt's en dat vind ik persoonlijk wel erg veel.

Zou leuk zijn als ze nu eens een zuinige videokaart zouden fabriceren die out-of-the-box niet meer herrie maakt dan een Logitech Z5500 en ook wat minder stroom verbruikt...

Just thinking here.
Je bedoeld de plopjes die de set generen????
"Just thinking" maar niet "reading", in het artikel staat dat het geheugen minder stroom verbruikt en dus minder warm word.
Ik denk dat dat komt doordat gddr alleen een deal bij nvidia of ati nodig is en voor gewoon ddr moeten en intel en amd instemmen, en alle mobo fabrikanten weer nieuwe chipset verzinnen?
NIeuwe chipsets worden zowieso verzonnen, en Intel en AMD zijn evenveel partijen als ATI en Nvidia.

Wat het wel is is dat zelfs een X6800 nog niet aan het maxixum bandbreedte van DDR2 zit, dus is het onnodig geheugen met meer te gebruiken. (zoals hierboven gezegd)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True