Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties
Bron: X-Bit Labs, submitter: T.T.

Bij X-Bit Labs is een artikel verschenen waaruit blijkt dat Samsung, volgens onofficiŽle bronnen, enkele tienduizenden 1600MHz GDDR2-geheugenchips aan nVidia geleverd heeft. Waarschijnlijk zijn deze chips bedoeld om een aantal testversies van de op de NV40-GPU-gebaseerde videokaarten te vervaardigen. Men verwacht da nVidia al ver gevorderd is met zijn nieuwe videokaart of denkt dat deze al vrijwel klaar is. Omdat er nog zoveel onduidelijkheid is over de tegenhanger van ATi's R420 VPU is het nog niet duidelijk of er inderdaad 1600MHz GDDR2-geheugenchips gebruikt zullen worden. Mocht dit echter wel het geval zijn, dan is het een waardige tegenstander voor ATi:

nVidia logoPeak theoretical bandwidth of 1600MHz memory on 256-bit bus is mind-blowing 51.2GB/s. In case NVIDIA utilizes so powerful memory on its NV40-based graphics cards, the latter will unbelievably leapfrog performance of the current GeForce FX 5900 Ultra and RADEON 9800 PRO solutions in a lot of cases. Unfortunately, the NV40 will not be available this year, but will come sometime in late Q1 or Q2 next year.
Moderatie-faq Wijzig weergave

Reacties (44)

Goh en ik dacht nog wel dat toekomstige spellen in verhouding helemaal niet meer zo veel geheugen bandbreedte nodig hadden. Er hoeven steeds minder textures doorheen te gaan, omdat er steeds meer Pixel Shaders gebruikt gaan worden.

De rekenkracht van de kaarten wordt steeds belangrijker en de nadruk komt minder te liggen om de bandbreedte.

In de HL2 benchmarks komt dit al aardig naar voren. Extra bandbreedte levert minder snelheidswinst op in tegenstelling tot een snellere core.....
Goh en ik dacht nog wel dat toekomstige spellen in verhouding helemaal niet meer zo veel geheugen bandbreedte nodig hadden.
De resolutie waarin men een spel speelt gaat langzaam omhoog. Vroegah was het nog 800x600 of 1024x768, maar nu zie je steeds vaker 1024x768, 1280x1024 en zelfs 1600x1200. Dat vereist gewoon meer bandbreedte.

Je ziet de nadruk tegenwoordig veel meer op technieken zoals Anisotropic filtering en anti-aliasing liggen. Die technieke vreten bandbreedte, dat zie je nadrukkelijk in de benchmarks. Meestal presteren de videokaarten met de meeste bandbreedte aanzienlijk veel beter op hoge resoluties met FSAA en AF op max dan videokaarten met minder bandbreedte. Je kan dan technieken toepassen die de efficientie van de gebruikte bandbreedte omhoog krikken, hierdoor hoef je de nadruk niet zo te leggen op het aantal GB/s.
De rekenkracht van de kaarten wordt steeds belangrijker en de nadruk komt minder te liggen om de bandbreedte.
Als je met resoluties, FSAA en AF gaat spelen, dan heeft bandbreedte wel een bepaalde rol in de prestaties. Na het lezen van een aantal reviews van verschillende websites, ben ik tot de conclusie gekomen over de invloed van bandbreedte op de prestaites van een videokaart.

Als je bijoorbeeld een Radeon 9800 Pro 128MB vergelijkt met een Radeon 9800 Pro 256MB, dan is het enige verschil een dat de 256MB versie 5% meer bandbreedte heeft. Als je een test doet op 1024x768 met FSAA en AF uit, dan zullen de twee versies nagenoeg gelijk presteren. Voer je de resolutie op naar 1280x1024 en FSAA/AF op 2x, dan zie je al een groter verschil. Als je op een resolutie van 1600x1200 met FSAA en AF op max benchmarkt, dan zie je gemiddeld 5%, of zelfs meer verschil in prestatie in voordeel van de 256MB versie.

Meer bandbreedte heeft dus de grootste onvloed als je bandbreedtintensief benchmarkt. Hoge resolutie en FSAA/AF aan. De kracht van de core is meer van belang als je op de wat normalere resoluties de prestaties van verschillende videokaarten wil gaan vergelijken.
De bottlenek bij HL2 ligt al op de rekenkracht van de GPU en niet de bandbreedte. En ook dit zal alleen maar erger worden in de toekomst. Tuurlijk helpt extra geheugen bandbreedte. Maar het zal minder belangrijk worden dan tegenwoordig.

Het is ook te zien aan de Nvidia vs ATI, de 5900ultra heeft meer bandbreedte, maar door de snellere berekeningen van ATI wint de laatste. Dit komt omdat de opbouw van de pipelines anders is bij ATI. Voor meer info over deze opbouw:

http://www.beyond3d.com/forum/viewtopic.php?t=8005

Tuurlijk moet de bandbreedte in de toekomst hoger worden, maar het is niet meer zo belangrijk als het eerder is geweest. Tot natuurlijk de GPU qua ruwe kracht weer zo veel sneller zijn dat de bandbreedte weer achterblijft.

Anisotrophic filtering heeft trouwens geloof ik meer invloed op de fillrate dan op de bandbreedte. Als je ook kijkt naar een berekening om de benodigde bandbreedte uit te rekenen:

fps * width * height * [((overdraw * 2 + scene complexity) * bytes per pixel * # of AA samples) + (overdraw * avg # of texel per pixel * bytes per texel)] + bandwidth for downsampling/RAMDAC

Hier zie je dat nergens AF in meegenomen wordt. Wel wordt FSAA meegenomen.
Nou nu speeld ook Vs en PS performance mee als die de boel ophouden zal fSAA en AF geen performance hit geven wat duid op geen memory bottle neck.

Aangezien VS en PS units zijn van de GPU is die dus de bottleneck en is er een bepaalde performance nodig eer memory bandbreedte weer belangrijker wordt.

Hoe groter de reso hoe meer de PS te verwerken moeten.
Volgens mij komt dat snelheidsverschil met AA/AF op 1600x1200 ook omdat de 256MB kaart de AGP-bus minder (bijna niet ?) belast. AGP remt de 128MB kaart af......

Zodra je AA en/of AF uitzet (vooral de eerste) zie je de scores van de 128 MB kaart weer naar de 256 MB-versie toekruipen. Niet zozeer de bandbreedte, maar het minder/meer gebruik van de AGP-bus lijkt hier debet aan . . .

Bewijst nog maar eens wat ik altijd al vermoedde; als het niet anders kan gebruik je de AGP-bus, liever laat je de textures waar ze horen; op de VGA-kaart.....

AGPx1,AGPx2,AGPx4 en AGPx8; wat heeft het ons nou opgeleverd :? 1 ding, meer geheugen als het geheugen op je VGA-kaart niet voldoende is. En da's precies waar het voor bedoeld is. Niet om je kaart sneller te maken, maar om meer "lucht" te hebben. Advanced staat dus niet voor sneller, maar eerder voor een slim truukje om iets wat eigenlijk niet in je video-geheugen past, toch te laten werken.

hiostu Wat je zegt klopt idd. Kan ik goed merken met mijn Radeon 8500 Pro 64mb kaart.
Als ik MET 4xAA speel is de performance-hit veel groter dan met 16xAF. AA slurpt gewoon veel meer bandbreedte en!!! video-geheugen. Ook de AGP word dan meer belast, en je weet hoe ik daarover denk...
Bij X-Bit Labs is een artikel verschenen waaruit blijkt blijkt dat Samsung, volgens onofficiŽle bronnen, enkele tienduizenden 1600MHz GDDR2-geheugenchips aan nVidia geleverd heeft. Waarschijnlijk zijn deze chips bedoeld om een aantal testversies van de op de NV40-GPU-gebaseerde videokaarten te vervaardigen.
Veel geheugen op je videokaart is leuk, maar je kan ook overdrijven :P
Ik kan me welvoorstellen hoor.

Start Als PCI express of hoe het ook mag heten. Kan je, je GPU gebruiken als co cpu en dandie ram....
Enkele tienduizenden chips?? 30.000? 40.000? Lijkt me niet dat ze testversies gaan maken daarmee. En maakt nVidia nog wel zijn eigen kaarten of is het allemaal OEM?

Ik denk dat dit bericht grote onzin is. In 2004 zal die kaart er best komen en tegen die tijd zal het ook best de snelste kaart kunnen worden.

Ik hoop wel dat er dan ook games komen die fotorealistische pixelshaders hebben en dan ook nog die 60FPS kunnen pompen. Dan zou ik wel een dual 1Ghz core-, 2Ghz 512mb ram- met 32 pipelines-kaartje willen.
Dat 1600Mhz zegt niks aangezien we de bit breedte niet weten en ook niet wat bit en clock ratio de R420 zal krijgen.

Bijvoorbeeld als het 128bit zou zijn dan valt het reuze mee als ATI 256bit langzamere DDRII zou gebruiken.

En ja memory is de helft van het verhaal hoe verhouden zich de core tot elkaar.

Als ATI en nVidia de core krachtiger maken door ook meer pipelines dan moeten ze beide ook met aanzienlijk meer memory bandbreedte komen dus ATI ook.
Dat 1600Mhz zegt niks aangezien we de bit breedte niet weten en ook niet wat bit en clock ratio de R420 zal krijgen.
Het lijkt mij (bijna) logisch dat het hier om 256bit gaat. Als je uitgaat van 128bit, dan zou dat in elk opzicht een achteruigang betekenen voor nVidia.

Ten eerste is 128bit 1600MHz GDDR2 gelijk aan een bandbreedte van ongeveer ((1.600.000.000Hz x 128bit) / (1024 x 1024 x 8)) 24.4GB/s. Dat zou dus een achteruitgang betekenen aangezien de GeForce FX 5900 (met 24.4GB/s) en de GeForce FX 5900 Ultra (met 25.9GB/s) daar al overheen zitten. De NV38 zal waarschijnlijk meer bandbreedte krijgen (of in elk geval niet minder) dan de NV35, dus dan moet de NV40 wel een over de NV35 heengaan.

Daarnaast zou een 128bit brede geheugenbus zoiezo zonde zijn. Als er iets ernstig mis is met het ontwerp, of als er conflicten zijn met 256bit, dan zou dat een ramp zijn voor de NV40. Maar dat zie ik niet gebeuren (lees: laten we het niet hopen). Als nVidia bewust kiest voor een 128bit brede geheugenbus in combinatie met de 1600MHz frequentie, dan is er iets goed mis. De 256bit brede geheugenbus is bijna een vereiste voor de NV40, anders kan nVidia net zo goed meteen alle klanten door verwijzen naar Ati ;)
Bijvoorbeeld als het 128bit zou zijn dan valt het reuze mee als ATI 256bit langzamere DDRII zou gebruiken.
Ati en nVidia zitten allebei met de high-end kaarten bijna in de +/- 25GB/s reeks. Ati met de Radeon 9800 Pro 256MB (21.4GB/s) en nVidia met de GeForce FX 5900 Ultra (24.4GB/s). Ati gaat voor de R420 zeker 256bit DDRII geheugen gebruiken, geklokt op minstens Radeon 9800 Pro snelheid (700MHz+). nVidia zal voor de NV38 ook voor 256bit geheugen kiezen, maar waarschijnlijk DDRI.
Memory bandbreedte is zeer belangrijk tot DX8.1

Nu er al wat DX9 shader benchmark en game engines getest zijn blijkt dat VS & PS de GPU zeer belasten waar door de GPU de bottleneck formt en FSAA & AF in sommige gevallen graties komt no performance hit de bandbreedte is dan de bottle neck niet meer maar de PS en VS performance in de GPU.

Als de R420 en nV40 dit opvangen met 'n stuk krachtigere en voldoende Shader units dan schuift de bal weer naar memory performance.

En tja als 1600Mhz DDRII er is dan kan aTI daar ook gebruik van maken

nVidia zal de memory bandbreedte afstemmen op de GPU.

256bit 1600Mhz 51GB/s kan je de kracht van 'n nV40 inschatten gezien de complexe core op 0,13 zal de klok lager kunnen zijn 400Mhz en zal het dus uit de breedte moeten komen meer pipelines.
En vergeet daarbij niet dat we eerst nog de NV38 krijgen, met een nog hogere geheugensnelheid en daarmee bandbreedte dan de 25.9gb/s van de NV35. Dus lijkt het mij logisch om dan aan te nemen dat de NV40 inderdaad over 256bits geheugen met een bandbreedte van 51.2gb/s beschikt. Maar ja, we doen echt alles om nVidia in een kwaad daglicht te zetten, niet jongens?
de chips draaien op 1600 MHZ frequentie, het is DDR geheugen, dus effectief op 3200 MHz :P !? En het is DDR2, Dus effectief nog eens een verdubbeling? :P
Of begrijp ik het verkeerd?
Of begrijp ik het verkeerd?
Kort antwoord: Ja :P
de chips draaien op 1600 MHZ frequentie, het is DDR geheugen, dus effectief op 3200 MHz !?
De geheugenchips in dit verhaal hebben een frequentie van 800MHz, net zoals DDR266 een frequentie van 133MHz heeft. Doordat het hier om DDR SDRAM geheugen gaat, praat je over een effectieve frequentie van 1600MHz. Per kloktik kan er tweemaal data worden verzonden, in tegenstelling tot ťťnmaal bij SDR SDRAM.
En het is DDR2, Dus effectief nog eens een verdubbeling?
Nope, DDR2 is (qua MHz-en) niet sneller dan DDRI. DDRI op 266MHz en DDRII op 266MHz kan je alletwee DDR(1/2)533 noemen. De maximale bandbreedte van beide vormen is zo'n 4.3GB/s.

GDDR2 is eigenlijk DDR2 voor videokaarten. Voor zowel (G)DDR2 als voor DDR1 met een snelheid van 1600MHz effectief kan je de volgende bandbreedte berekening maken:

1600MHz effectief:
1.600.000.000Hz x 256bit = 409600000000bit/s.
409600000000bit/s / 8bit = 51200000000byte/s.
51200000000byte/s / (1024 x 1024 x 1024) = 47.68GB/s.

De reden dat dit afwijkt van de in het artikel gnoemde 51.2GB/s is omdat zei uitgaan van 1.000.000.000bits per GB. Deel je die 51.2GB/s door (1.024 x 1.024 x 1.024) dan kom je uit op de werkelijke bandbreedte, namelijk 47.68GB/s.

Voor meer informatie kan je misschien beter De RAM FAQ raadplegen op het Gathering of Tweakers forum.
DDRII is zelfs nog iets langzamer dan DDR op dezelfde kloksnelheid. Dit komt omdat het een hogere latency heeft. De theoretische bandbreedte is net zo hoog, maar de real-life performance niet. Daarom is het geheugen van een 9800 256mb die DDRII gebruikt net 10mhz hoger geklokt dan een 9800 128 mb om deze latency vertraging enig sinds op te heffen.
Dat valt juist op grafische kaarten wel mee. Grafisch geheugen wordt, in tegenstelling tot systeemgeheugen, veel meer op bandbreedte dan op latency belast. De latencies liggen sowieso vaak al behoorlijk hoog omdat GPU en memory bij praktisch alle kaarten asynchroon draaien.
Deze bandbreedte op je videokaart lijkt misschien wel leuk, maar in weze heb je er niet zoveel aan, aangezien je agp bus nooit zulke snelheiden haalt, oftewel je videokaart kan straks veeel sneller opdrachten verwerken, dan dat ie nieuwe binnen krijgt.

edit:
typo
Ten eerste is AGP alleen van belang bij het laden van textures of als de onboard mem van de kaart te klein is en over wordt gestapt op DME agp maar het verschil is dan zo groot dat je eerder die situatie mijd.
Dan wordt AGP vervangen door 16x PCI express
De nV40 en R420 kunnen wel eens de eerste PCI expres 16x kaarten zijn

Tot nu toe is de frame data zo gering wat over de aGP bus gaat dat AGP 4x en 8x geen ruk uitmaken als de onboard dedicated Vmemory voldoende is.

En PCI express zal dat binnen kort vergroten zodat het geen bottleneck wordt. in de toekomst.
Dit is toch wel gigantisch. Stel de nv40 met 1,6 Ghz DDR2 chips op 256 bit bus. Dat worden 16 tot 20 chips op 1 bord tegenover nu 8 / 12 chips maximum (bij nVidia). Die kaart gaat waarschijnlijk 3 cm langer zijn en de nVidia kaarten zijn al zo lang!
nVidia gaat waarschijnlijk in 'alles of niets' modus. Ze willen hardnekkig weer de eerste worden en ik vrees dat ze dat zuur zal opbreken, een nieuw 3dfx verhaal is in de maak. ATi had het al altijd juist, winst gaat boven marktaandeel.

/edit
beste LaMoS
jawel (eigenlijk een zekere veronderstelling). Er zijn 3 factoren: 256bit bus, 1600Mhz (GDDR of GDDR2) en hoeveelheid geheugen. De enige 3d kaart die ddr2 gebruikt en een 256bit-bus heeft is de Radeon 9800 256 die heeft 16 chips op zijn bord!! Ram en snelheid hebben de volgende relatie, om het snel te laten lopen heb je kleine chips nodig (dit om yieldrenden). Dus is de logische conclusie meer dan 16 chips.
(het is maar een sterk vereenvoudigde voorstelling)
en ATi heeft naar mijn weten de laatste jaren geen verliezen gemaakt, minder verkopen betekent niet altijd verlies (hun omzet daalde geloof ik met 40% maar ze maakten 10% meer winst, je moet je product een plaats kunnen geven in de markt, niet alleen de beste zijn).
Hoeveel chipjes er zijn heeft niets te maken met verschillende busbreedtes...
Op de FX 5900 (NV35) zitten toch ook geen 20 geheugenchips?, en die heeft ook een 256 bits brede geheugenbus. De FX5800 (NV30) had wel een 128 bits bus.

En mag ik erbij zeggen: ATI draaide tot zekers vorig jaar in de rode cijfers en nVidia niet.

[edit] typo's en slechte zinsbouw
Maar daar tegen over staat dat nV nu markt verlies draaid ook imago verlies en ATI het nu voor de wind gaat.

nV40 vs R420 kan hierbij de doorslag zijn als dit voor nVidia weer 'n tegenslag wordt want vergeet niet nV40 moet niet beter zijn dan nV35 maar beter zijn tov R420

Maar ja eerst nog nV38 vs R360
Geheugenchips zitten overigens altijd in factoren van 2. 4, 8 of 16 chips. Nooit 12 of 20.
En mijn Voodoo2 dan, met 24 chips? :P
Dat is volgens mj: 16 + 8 = 24. Ik meen me iets te herinneren van speciale techniek waarbij er 16 voor het een en 8 voor het andere gebruikt werden. Weet niet meer precies hoe het zat.
parhelia had er 12 in zijn eerste revisie, daarna is men overgestapt naar 16
Tja, het klinkt erg lekker "1600MHz GDDR2 geheugen" komt dat zien, komt dat zien...

Waar het volgens mij nog meer om gaat: kan de GPU / CPU combinatie dit geheugen van voldoende informatie voorzien zodat de bandbreedte ook daarwerkelijk word gebruikt?

51,2GB is me nogal wat, dat is een complete HDD in 1 seconde overpompen.

Wel raar trouwens dat er nog steeds geen verdere info is gelekt over de NV-40. Het zou toch zo langzamerhand tijd worden voor wat meer info?
Klinkt wel leuk, die gigantische bandbreedte, maar bij de HL2 benchmarks kan je duidelijk zien dat dat bij de toekomstige DX9 spellen geen belangrijke factor meer zal zijn.
Er wordt hier in het artikel vermeld over een release rond q1/q2 2004, maar als ze de kaart zoals het artikel doet vermoeden al praktisch af is, dan vraag ik me af of we niet al met de kerst die kaart kunnen kopen.

De december maanden zijn nu net de maanden waarop de omzet even lekker kan worden gepushed, en nVidia kan dit na een slecht 2003 qua kaarten in het top segment wel gebruiken.
Als ie nu pas in testproduktie gaat ligt ie niet al met kerst in de winkel. Dat zullen eerder hun respectievelijke tussenkaarten zijn.
Het staat gewoon in dat artikel eronder hoe breed de bus is:

Peak theoretical bandwidth of 1600MHz memory on 256-bit bus is mind-blowing 51.2GB/s.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True