Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 15 reacties
Bron: Micron, submitter: EaS

Op de site van Micron valt te lezen dat dit bedrijf zijn eerste GDDR3-chips (Graphics Double Data Rate SDRAM) aan ATi en nVidia heeft geleverd. Het op 0,11-micron gebakken geheugen heeft een bandbreedte van 6,4GB per seconde en gebruikt de helft van de energie ten opzichte van de huidige geheugenchips. De snelheid speelt een cruciale rol bij high-end-graphics, spellen en snelle netwerken. Ook point-to-point-applicaties zoals HDTV en set-top-boxes hebben veel voordeel bij snel geheugen. ATi heeft nauw samengewerkt met Micron in de ontwikkeling van GDDR3 dat men nu als DDR3-standaard wil voorstellen. Volgens nVidia brengt het geheugen interessante voordelen:

Micron logo"We are pleased to have the first samples of GDDR3 devices to test with our latest generation graphics processor," said Bryn Young, Director of Memory Marketing, NVIDIA Corporation. "GDDR3 provides tremendous performance gains that will raise the performance bar of next-generation PC graphics."
Moderatie-faq Wijzig weergave

Reacties (15)

@ cybersteef (excuses voor het niet plaatsen in het zijtakje)
Ik zie het einde van de videokaarten molex plugjes al komen . Met PCI Express en deze geheugen modules.
Kleine kans. Voor sommige huidige videokaarten levert zelfs de PCI-Express bus te weinig watt. Ik d8 dat die iets van 50-70 watt ging leveren. (correct me if i'm wrong) De 5900 Ultra en de 9800 Pro zitten daar al overheen. En zoals Mr. Aargh al zegt, het is niet het geheugen dat zoveel stroom slurpt. Die warmte zal wel wat minder worden, maar is dat relevant? Tegenwoordig is de 5800 Ultra zo'n beetje de enige die verplicht met heatsinks erop moet zitten. Dus zo erg is die warmte nog niet.
Tegenwoordig is de 5800 Ultra zo'n beetje de enige die verplicht met heatsinks erop moet zitten.
Nou, van een Radeon 9700 of 9800 zonder fan (of mega-heatsink ala zalman) wordt je ook niet vrolijk hoor.
Kende ge ook een eitje op koken.
ik word anders heel vrolijk van mijn 9700 pro (met zalman) :+
vooral als ik die dawn demo draai (+ nude patch natuurlijk }> )

maar inderdaad, word wel warm, een moderen GPU zuipt gewoon bijna evenveel als een CPU,
dat nieuw geheugen zal daar niet echt verandereing in brengen.
Ik vraag me af of DDR2 een korte levensduur zal hebben aangezien DDR1 al werd verlengd met PC3200 en ze nu al met een voorstel voor DDR3 komen.
DDR1 & DDRII is een multiplatform specifikatie voor CPU en GPU

doordat traces tussen GPU en VidMem korter is zonder conector op een en dezelfde PCB dus zonder enige soort DImm(socket/conector) interface kan DDR1 & II hoger geclocked worden dan bij CPU door de bus implementatie beperkingen.

GDDRIII is puur voor GPU bedoeld en is een specifieke Grafische DDRII variant.
wat ze GDDRIII gedoopt hebben

iig dat heb ik ervan mee gekregen
“GDDR3 operates at 50 percent higher data rates while consuming approximately half the power of graphics DDR2.
klinkt toch wel iets seriuser als alleen een ddr2 variant.
ik heb het nooit zo gehad op ddr2, die hogere latency staat me niet zo aan.
als ze dit GDDR3 ontwikkeled hebben voor GPU's zou je zeggen dat de latency laag zou moeten zijn.
als dat zo is hoop ik dat dit inderdaad de DDR3 standaard word, DDR2 gouw overslaan en verder met DDR3.
Natuurlijk heeft het nieuwe geheugen wel invloed op de hoeveelheid vermogen die verstookt wordt op een grafische kaart.

Ik schat dat een beetje high-end GPU ongeveer 50 tot 65 watt verstookt. De kaart in totaal zit op ongeveer 60 tot 80 watt. Het verschil gaat dus grotendeels in het geheugen zitten. Oftewel 10 tot 15 watt. 50% efficienter geheugen zal dus 5 tot 8 watt betekenen wat het totaal plaatje op 55 tot 73 watt brengt. Nog steeds veel, maar wel een totale besparing van ongeveer 10% en dat alleen door ander geheugen! Als alle beetjes helpen dan is dit best veel en het levert nog extra performance op ook.
als je daar de winst moet halen is dat peanuts. Een slimme processorarchitectuur valt veel meer winst uit te halen (vgl Ati met nVidia).

Vergeet alleen niet dat de meeste pc's de meeste tijd gewoon 2D draaien. In 2D gebruikt een kaart aanzienlijk minder stroom: 10-25W. Als je dan van die 15W van het mem 50% bespaart tikt dat wel degelijk aan. En wat d8 je van laptops?
Gaan de videokaarten dan niet erg veel op elkaar lijken. Iig kwa snelheid. dat lag de afgelopen keer ook niet aan de chip maar aan de bandbreedte van het geheugen. die chip lijkt nu hetzelfde te worden, dus zullen de kaarten kwa snelheid elkaar minder ontlopen dan eerst. En wordt de chip zelf erg belangrijk, en daarmee dus ook de features en warmteproductie.
Gaan de videokaarten dan niet erg veel op elkaar lijken. Iig kwa snelheid.
Het geheugen dat je op videokaarten tegenkomt verschilt niet zo als je vergelijkbare videokaarten met elkaar vergelijkt (GeForceFX met Radeon 9700/9800 of GeForce4 met Radeon 8500 bijvoorbeeld). De kloksnelheid van het geheugen is meestal niet heel erg verschillend, maar de busbreedte vaak wel (GeForceFX5800 met 128-bit vs Radeon 9700/9800 met 256-bit).
de bandbreedte van het geheugen. die chip lijkt nu hetzelfde te worden, dus zullen de kaarten kwa snelheid elkaar minder ontlopen dan eerst.
Vergeet niet dat het geheugen alleen maar voor de benodigde bandbreedte zorgt die de core nodig heeft. Als je twee verschillende cores vergelijkt die ieder hetzelfde geheugen gebruiken, dan is het de core die voor het verschil in prestaties moet zorgen. Het ligt dan ook grotendeels aan de core hoe goed de bandbreedte gebruikt wordt.
Dat gaat veel goeds betekenen over paar jaartjes als het op producten komt. En dat het minder stroom gaat gebruiken is ook zeker fijn. Gaat dit ook minder warmte betekenen? Denk het wel toch? Want wat er niet in gaat komt er ook niet uit.
Ik zie het einde van de videokaarten molex plugjes al komen :D. Met PCI Express en deze geheugen modules. Op een of andere manier vindt ik het gewoon een vaag idee om een molex plugje in een vidkaart te stoppen. Extreem zuipen vind ik dat. Niet dat het niet goed is ofzo maar ik vind het gewoon stom :P

DDR2 is denk ik nu wel een kort leven beschoren als DDR nu al heel snel is en de DDR3 variant al op de lijst gaat komen en vele voordelen biedt.

Edit:
Net te laat met dat DDR2 gebeuren.
Het is niet het geheugen dat veel energie gebruikt.
Maar de grafische chip zelf, je kan ook passief gekoelde oplossingen kopen hoor. En oplossingen die geen molex of AGP3 vereisen vanwege de stroom die ze nodig hebben.

GDD3 is een grafische standaard met enorm lage latencies.
Refreshes van het RAM hebben hier volgens mij minder aandacht gekregen. Er zijn volgens mij wel een aantal verschillen tussen 'normaal' en dit nieuwe type grafische geheugen.
Het geheugen vreet idd niet de meeste energie. Maar ik vind het gewoon van de zotte dat je vidkaart extra power nodig heeft omdat de bus het niet trekt. Tuurlijk werkt het allemaal prima en ik zou best zo'n ding willen hoor. Maar het moet toch ook zonder kunnen? Ik heb zelf een Radeon9000 @ Pro en die is niet passief gekoeld hoor, en toch heb ik geen molex nodig. Nogmaals ik kan het best begrijpen maar ja het is gewoon te gek als je ziet wat die dingen allemaal wel niet slurpen.

En wat is nou precies grafisch geheugen dan? Kun je me uitleggen wat dat verschilt van gewoon DDR? Kwa techniek dan he.
Dus als ik het goed begrijp is dit geheugen gespecificeerd voor 800 mhz.

Immers pc 2700 is 333*8.
6400/8 = 800mhz.

Dan zou dit theoretisch voor een 256bit datapad een bandbreedte van 25600GB/s. Dit is dus minder dan de huidige DDR specs van nVidia kaarten. De 5900 gebruikt immers 850 mhz geheugen.

Maar ik neem aan dat deze snelheid op de termijn nog verder omhoog gegooid kan worden.
Word hard gewerkt aan de snelheid van de geheugensoorten de laatste tijd. Nu de harde schijven nog...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True