nVidia introduceert videokaart met GDDR3-geheugen

Grafische chipmaker nVidia heeft een persbericht online gezet waarin gemeld wordt dat het bedrijf in samenwerking met Samsung videokaarten met GDDR3 gaat introduceren. De eerste videokaarten met het GDDR3-geheugen zullen gebaseerd zijn op de Geforce FX 5700 Ultra GPU met 128 MB aan geheugen. Het GDDR3 is gekozen omdat het hogere snelheden mogelijk maakt met minder stroomverbruik, en minder bijbehorende componenten nodig heeft. Ook het design van de videokaarten wordt met het gebruik van GDDR3 geheugen vereenvoudigd. De eerste FX 5700 Ultra-kaarten met het GDDR3-geheugen zullen volgens het persbericht midden maart op de markt komen. Fabrikanten die de op GDDR3 gebaseerde videokaarten gaan maken zijn onder andere Leadtek, MSI, Asus, Gainward, XFX, Gigabyte en Point of View.

nVidia GeForce FX 5700 Ultra
Een 'gewone' Geforce FX 5700 Ultra videokaart met GDDR-geheugen.

Door Remy Bergsma

Moderator Devschuur®

05-03-2004 • 10:39

43

Submitter: T.T.

Bron: nvidia.com

Reacties (43)

43
43
34
25
9
0
Wijzig sortering
wel interessant maar had de nieuwe kaarten liever met een FX5900 of FX5950 GPU gezien, ben er namelijk bang voor dat de 5700 niet het uiterste van de GDDR3 gaat vragen.

Was het ook niet zo dat de GDDR2 en 3 nog kampen met een hoge latency?

nouja ben iniedergeval benieuwd naar de benchmarks :)
ze "kampen" er niet mee, ze kunnen er namelijk niks aan doen. CL3 is gewoon het laagste wat je kan halen met ddr2 vanwegen het ontwerp, net als cl2, het laagste was wat mogenlijk was op ddr1.
Ik vind dit ook eigen raar ,, de 5700 is eruit gegaan voor de 5900 XT,,,,

Zou wel de bench marc willen zien , voor het zelde geld zouden ze gezien de spec dicht bij elkaar liggen,,,,, en de prijs zal ook niet ver uit elkaar liggen dan dringt de vraag op wat winnen we erbij ??
Is het dan niet slimmer dit geheugen op een nieuwe gpu gebruiken ??? lijkt anders op oude wijn in nieuwe zakken
Ik denk dat nVidia nog een hele hoop FX5700 GPU's heeft liggen...
Er is bewust voor de 5700 gekozen omdat deze "nog" met een 128bits bus werkt. Dus alle winst die het nieuwe geheugen hier haalt, is meegenomen. De 5900 heeft een 256bits bus, dus bandbreedte genoeg. Hier GDDR3 toepassen zou op dit moment niet echt nodig zijn. Daarom denk ik ook niet dat het GDDR3 geheugen op de NV40 toegepast zal gaan worden. Althans, niet in de eerst incarnatie. Misschien in een latere 'turbo' uitvoering.
Het GDDR-3 is gekozen omdat het hogere snelheden mogelijk maakt met minder stroomverbruik, en minder bijbehorende componenten nodig heeft.
Wat ook weer ten gunste komt aan het overclocken :Y)

En uiteraard ook makkelijker te koelen is... :9
..... hoger snelheden met minder stroom verbruik ??

wat word er dan hoger welke snelheden??
Lijkt me duidelijk, als een videokaart minder stroom verbruikt... Met dezelfde of misschien zelfs hogere snelheden... Dat is gewoon dat ie minder stroom verbruikt -> Koeler zal zijn of worden... En misschien zelfs beter te overclocken... ;)

Edit: Waarom nou weer overbodig? :? Het is toch gewoon zo, dat je dan beter kan overclocken... En iemand helpen wordt zo te zien ook niet gewaardeerd... |:(
Anoniem: 89337 @CH4OS5 maart 2004 10:58
Als chips minder stroom verbruiken en daardoor minder warmte afstralen, betekent dit niet per definitie dat deze chips gelijk goed te clocken zijn. Daar spelen ook andere factoren een rol bij
Anoniem: 107988 @CH4OS5 maart 2004 11:04
hee bedankt man
nouja als je een barebone systeem hebt heb je maar

maximaal 200----220 wat voeding maw als je een

snelle processor en een snelle videokaart kan plaatsen met minder warmte opbrengst en minder stroom verbruik kun je eindelijk fatsoenlijk een barebone voor games gebruiken.

ik weet dat er mensen zijn die zeggen dat doen ze al lang nou probeer er maar een samen te stellen met de kap er op en langdurig getest
Anoniem: 84469 5 maart 2004 12:30
Op het eerste gezicht lijkt het me pure marketing...

Sneller geheugen zou je toch als eerste op je allersnelste GPU zetten, i.p.v. mid range..?
En dat stroomverbruik/warmte probleem kwam toch echt van de GPU, en niet van het geheugen...
Ik vraag me af wat dit geheugen nou eigenlijk zo ongeschikt als gewoon werkgeheugen maakt, en juist zo geschikt als videogeheugen? Ze slaan tenslotte beide gewoon bits op en GDDR3 doet dat op astronomische snelheid, als ik het zo lees. Prima opvolger voor DDR400 dan toch?
Sram is supersnel geheugen, helaas gooit de prijs daarvan roet in het eten. Prijs, performance en ontwerp; het speelt allemaal een rol. Geheugen direct op de die zou het allerbeste zijn, maar waarom gebeurt dat nie :? juist
}:O

ps; het gaat er niet om hoe groot de dye zou uitpakken, de prijs is hier DE! factor. Zie maar wat ze vragen voor een 2 MB ondye cache bij de P IV EE. Moet er niet aan denken wat een 64MB of meer ondye variant zou kosten :7
ok hoe groot zou de die zijn als je 256MB geheugen erbij gooit?

is ook minder flexibel als je 128MB en 256Mb versies hebt en met de geheugen soorten.

zullen wel nog meer redenen zijn
Je kunt ook gewoon 64MB (weet ik het als het maar niet te groot wordt) erop zetten en dan die samen met de geheugenbanken op het moederbord gebruiken. dan zou het nodige in het on die kunnen worden geladen en de rest in het andere geheugen.

[/droommodus]
juist niet
GDDR is special voor grafiche aplicaties.

ik dacht dat het als werkgeheugen onbruikbaar was vanwege een te hoge latency en de snelheid zou daar niet tegen op wegen.
omdat een grafische kaart geen probleem heeft met hoge latencys is het voor grafische kaarten geschikt en als werkgeheugen niet.
Anoniem: 76170 5 maart 2004 11:08
Blijft nog de vraag of het geheugen wel de bottleneck is van het hele proces
ik denk het wel
want de PCiXpres heeft meer bandbreedte dan nodig.
en als ze de core speed steeds iets hoger maken dan zal het geheugen denk ik mee moeten gaan n denk ik ook voor andere dingen van een grafische kaart.
Anoniem: 52200 5 maart 2004 14:48
mag ik er ook even iedereen op wijzen dat nvida al 1600mhz gddr 3 heeft gekregen van samsung voor implentatie en tests voor de NV 40.
Niet specifiek voor de nV40, en het is al HELEMAAL niet in dusdanig grote getalen te maken dat je dat soort geheugen op de nV40 mag verwachten. Er zal waarschijnlijk een tragere variant voor gekozen worden. Het geheugen was verstrekt aan nVidia, maar OOK aan andere producenten, alleen die hebben daar niet zo mee te koop gelopen.

De samples die ze kregen zijn dus om mee te experimenteren, en misschien bij een refresh te implementeren, maar ik denk niet dat ze zooo snel van samples naar massaproductie kunnen gaan dat er genoeg is om alle HE kaarten van te voorzien.
Erug benieuwd of dit geheugen NVidia op hoogte van de ATI kaarten kan brengen.
De benchmarks duzz ff af wachten.

Als ze dit geheugen ff op de FX5900 zetten zal die naar mijn idee erg omhoog gaan in de benchmarks en misschien de 9800XT kunnen evenaren.

Maar jah Ati blijft natuurlijk ook niet stil zitten.
;)
De fx5700(ultra) concurreert met de 9600xt (qua prijs) en is gewoon sneller, dus ik gok dat dat met gddr idd wel een nog groter verschil zal zijn (al moet dan de prijs wel enigzins gelijk blijven om de prijs/prestatie te verbeteren
De FX5700 en de 9600XT scheelt niet super veel. Maar de FX5900 ultra en de 9800XT een stuk meer. en dit vind ik eingelijk niet kunnen als ik NVidia was.

Hun top model kan qua prijs al niet komen aan die van de ati, maar ook de prestaties zijn een stukkie minder.
en minder bijbehorende componenten nodig heeft. Ook het design van de videokaarten wordt met het gebruik van GDDR-3 geheugen vereenvoudigd.
Weet iemand welke componenten dan overbodig worden en waarom het design eenvoudiger wordt?
Ik vermoed omdat deze chips minder 'soldeer punten' hebben, zodat er minder lijnen hoeven te lopen zodat je minder kans hebt op storing en zodat er waarschijnlijk minder lagen in het pcb nodig zijn.
Misschien dat de duurdere voltage regelaars (Mosfets ed) misschien goedkoper kunnen of een paar weg kunnen.
Anoniem: 101720 5 maart 2004 11:48
volgensmij doen ze dat gddr3 geheugen niet op hun huidige paradepaartjes anders is misschien de stap van die naar de nieuwe core te klein :+ (je weet maar nooit straks is die nieuwe core niet 2 keer zo snel dan zitten ze bij nvidia met de gebakken peren)

Op dit item kan niet meer gereageerd worden.