Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: Penstar Systems

Bij Penstar Systems is een artikel geschreven over de geheugen-bottleneck die veel nieuwe videokaarten ondervinden. Dit zien we nu al terug in veel reviews van de GeForce2 GTS. Er wordt voorspeld dat dat bij de ATI Radeon en V5 5500 ook een probleem wordt. Deze tabel geeft weer hoe efficiŽnt de verschillende videokaarten door de jaren heen met hun geheugen omspringen (hogere efficiŽntie = beter). Het valt op dat dit steeds minder wordt.

Product Fillrate (MT/s) Geheugen bandwidth (MB/s) EfficiŽntie (MB/MT)
Voodoo 1 50 800 16
Banshee 100 1760 17.6
TNT2 Ultra 300 2800 9.33
GeForce SDR 480 2656 5.53
GeForce DDR 480 4800 10
Ati Radeon 1200 6400 5.3
GeForce2 GTS 1600 5300 3.31
Voodoo5 5500 667 5300 7.98
[break]Over de mogelijke oplossingen van deze problemen wordt geschreven:[/break]DDR memory is going to go up to 200 Mhz by the end of this summer, but that still will not touch the needs of the current crop of chips (at least the non-scalable ones). Work is now being done on QDR solutions (Quad Data Rate), but we will not start seeing this type of memory for at least another year or so. If the GeForce 2 GTS were supplied by QDR memory, it still would be searching for extra bandwidth in multi-texturing operations!

RAMBUS type memory really is not very attractive for graphics applications for several reasons. While DRDRAM has a lower pin-out count, it requires as many if not more power and ground leads as SDRAM! Even though it does have a higher bandwidth per pin, the costs associated with DRDRAM and boards using that type of memory are much, much higher than a similar solution using SDR/DDR SDRAM.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (47)

Wat nu duidelijk wordt is dat de ontwikkelingen van Chipsets sneller gaat dan dat van het geheugen.

Dit speelt trouwens al vanaf het begin van de computer enzow... (Remember Wait States??? }&gt ;).

Anywayz... Nu pas wordt het echt een bottleneck.

Mijn motto: Al is je G-Force nog zo snel, dat kloterige geheugen verpest het wel... :+
Slashhead:

Voodoo 5 5500 heeft gewoon 2 keer 32 MB gebeugen. Iedere chip doet de helft van het totale werk en -technisch gezien- kan je dus beide chips optellen.

Hoe werkt die benadering?

Geheugen bandbreedte bepaalt (o.a.) hoe veel data je per seconde naar de RAMDAC kan sturen, die het omzet naar een analoog monitor (beeld) signaal. Als er 2 chips aan het werk zijn, kunnen ze dus allebei data naar de RAMDAC sturen. Effectief is de geheugen bandbreedte 2 keer zo groot. En ook precies daarom wordt de V5 6000 een monster, want dan kunnen er 4 chips tegelijk data leveren: nog een keer een verdubbeling.

[UPDATE] onderstaande niet meer van toepassing ;)

Ik vind trouwens dat de titel van dit artikel verkeerd is. "Geheugenproblemen" suggereert bij mij dat er iets fout is met het geheugen. Dat is niet zo, het is alleen niet snel genoeg. Had het dan "Geheugenbeperkingen" genoemd... Het gaat tenslotte om de restricties die worden opgelegd aan een videokaart als gevolg van te 'traag' (nou ja ...) geheugen.
Rare manier om efficientie te definieren. Dat de bandbreedte naar het geheugen een bottleneck vormt is wel duidelijk. Maar volgens deze definitie is de efficientie van de GF2 lager dan die van een Voodoo5 bij dezelfde bandbreedte omdat de GF2 een meer dan twee keer zo hoge fillrate heeft. Wat moet ik daar nu mee?
JumpStart > je hebt gelijk. Ik heb de titel even aangepast.

arjenk > omdat de fillrate van de GF2GTS zoveel groter is, blijft het geheugen achter. En dat is nou juist het idee: geheugen vormt de bottleneck.

Haywire* > Het moest inderdaad MB/MT zijn. De tabel had ik overgenomen uit het artikel (beetje ingekort), waar het dus ook al fout instond. Ik heb het nu gewijzigd.
Het is inderdaad beter als je meer megatexels/s kan berekenen, maar dan moet de geheugen bandwidth wel groot genoeg zijn om deze gegevens aan te voeren! Dat is juist het probleem waar hierover gepraat wordt.
(sorry, je hebt het al gewijzigd zie ik)
Nogal een hele hoop flauwekul dat tabelletje. De 3D chip hoeft namelijk absoluut niet voor iedere pixel alle data uit het externe geheugen te halen.

De efficientie is namelijk afhankelijk van hoe efficient de videokaart omgaat met de externe bandbreedte.

Matrox heeft met zijn G400 (MAX) al laten zien dat ze veel efficienter omgaan met die externe bandbreedte. Als je een G400 MAX en TNT2 Ultra op dezelfde snelheid klokt voor zowel de core als het externe geheugen, zul je bijvoorbeeld zien dat de G400 wint.
Moet je je voorstellen hoe klote nVidia en 3dfx zich voelen op dit moment: Ze brengen de meest krankzinnig snelle chips uit, die compleet lamgeslagen worden door de snelheid van het leverbare geheugen.

Lijkt een beetje op het floppydrive probleem. Al wordt je pc nog 100x zo snel, het beschrijven van een floppy duurt even lang......

De videokaartfabrikanten zullen dit niet leuk vinden omdat dit wel eens kan betekenen dat het geen zin heeft nieuwe chips uit te brengen voordat er beter geheugen beschikbaar is. Als men op een Geforce1 of een Voodoo3 64mb QDR geheugen kwakt, dan zijn ze waarschijnlijk 2x zo snel als een Geforce2 GTS met wat van dat DDR-memory.

Wat is er toch aan de hand met dat geheugen de laatste tijd? Er lijkt niet echt iets nieuws te komen. We zitten al een eeuwigheid met PC100, waar we niet echt vanaf lijken te komen (PC133, tja, nouja. joepie zeg) en Videokaarten worden al sinds jaar en dag geleverd met SGR of SDR, met als grote NIET-klapper DDR, wat een te kleine winst biedt om spectaculair genoemd te mogen worden.

:'( WE WANT NEW MEMORY!!! :'(
Al die nieuwe videokaarten hebben kinderziektes,
vriend van me had een creative geforce met 32mb, soms liet ie 16mb zien, soms 32mb. :9

Creative wist hiervan en het stond zelfs in een faq. Maar een oplossing is er niet, ook lekker genaaid ben je dan. :(
hmm de TNT2 Ultra doet het dus lang niet zo slecht

voorlopig nog maar geen nieuwe Videokaart kopen
das best wel minder voor al die mensen die hun dure zakcentjes steken in een nieuwe vga..en wat zie ik er tussen staan?mijn banshee...nog steeds erg happy mee.Maar ik leef mee met mensen die hun dure centjes in die kaarten steken en zien dat er absoluut niet het optimale mee kan worden bereikt. :'(
dus de GF2 gaat niet echt efficient met zijn geheugen om?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True