Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: Anandtech

Itsme! schrijft dat er bij Anandtech weer een leuke review te vinden is. Eerst gaan ze eens uitgebreid in op de impact van meer fillrate of meer bandbreedte en daarna hebben ze nog een stuk of 10 pagina's vol weten te schrijven over het nut (of het ontbreken ervan) van een 64 MB GeForce II kaart. De bekende conclusie luid: 64 MB is nu eigenlijk nog niet echt interessant, maar voor de mensen die niet elke 6 maanden een nieuwe kaart kopen kan de extra 32 MB en 100 dollar een goede investering voor de toekomst zijn:

As the performance numbers show, the extra 32 MB of memory (as well as $70-$100) results in a very nominal performance increase of about 8% only at very high colors and resolutions when in Quake III Arena. The Unreal Tournament numbers show that the additional 32 MB of memory really does not do anything until 1280x1024x32, where performance increased up to 52%. $70-$100 seems a high price increase to pay for a large performance gain in one specific color depth and resolution and minor performance gains in all others.

In order to determine if the 64 MB GeForce 2 GTS is right for you, one needs to consider how often you wish to walk down the upgrade path. Many users may find it more economically sound to purchase a 32 MB GeForce 2 GTS card now and upgrade around the time of the NV20, slated to be released about a year from now. For those not interested in having top of the line performance no matter the cost, this path seems to make the most sense, as it seems that the 32 MB GeForce 2 GTS, with its S3TC texture compression, will be fine for games in the not so distant future.

A different path, however, should be taken by those who either want the best of the best now and are still willing to upgrade in a year and those who want to upgrade now and hold onto their investment for a longer period of time. For the user who wants the best of the best and is going to upgrade in about a year regardless, go with the 64 MB GeForce. While it dose not make that large of a difference now, future games will only increase the performance gain experienced with the additional 32 MB of memory. For the user who wishes to upgrade now to the best and hold on to their investment the longest, the 64 MB GeForce 2 GTS makes the most sense once prices fall within obtainable ranges. Once again, a user who wishes to retain his/her card for a long period of time will not regret the additional memory that the 64 MB card has to offer.

Moderatie-faq Wijzig weergave

Reacties (24)

Shi'ngoth: dus wel!

Pak een PC met een Geforce erin en draait wat Q3 benches met een Athlon 600 en een Athlon 1 GHz. Je zult nauwelijks verschil zien! Het grote probleem is het geheugen op de grafische kaart ( www.anandtech.com/showdoc.html?i=1263&p=4 ), de chip erop is ook de bottleneck niet ( www.anandtech.com/showdoc.html?i=1263&p=3 ). Bij de Geforce 2 is het probleem puur de bandbreedte van het onboard geheugen.

DSmarty: er zijn geloof ik nogal wat kaarten die niet stabiel op 220/366 lopen, er staat ook op de doos dat ze op 200/333 lopen, dus je kunt ze niets maken als je zegt dat hij niet stabiel werkt. De kaarten die nu verkocht worden lopen geloof ik weer op 200/333, zie het nieuws van gisteren.
Shi'ngoth > de Grafische en Processor markt zijn zulke lucratieve markten, ze zullen nooit stoppen met ontwikkelen (met de rest ook niet) en ze zullen ook zeker niet stoppen met die technologie fatsoenlijk toe te passen, dat is ook de reden waarom op www.tweakers.net (en veel andere sites) het meeste nieuws van de processor of grafische markt afkomt, gewoon omdat de concurentie daar het grootst is.
Het is dan ook een droom om te denken dat de grafische industrie hun aandacht voor een half jaar ergens anders op richt
</div><div class=b4>Scheelt 200 naar 250 core merkbaar iets? Anders kun je hem beter terugzetten, scheelt weer wat hitte met dit weer </div><div class=b1>
Dat scheelt echt helemaal niks, misschien 0,1 fps - zie ook dit artikel van anandtech.

Het geheugen overklocken heeft itt de core wel een flink effect, daarom is dat ook het gedeelte van de vid kaart waar je moet gaan tweaken.
Ricochet:

Waarom heeft de GeForce2 meer profeit van een bandbreedte vergroting dan van een snellere core?

Als je gaat kijken hoe het allemaal in elkaar steekt is het allemaal vrij logisch:

Een videokaart chip kan alleen functioneren als hij data aangevoerd kan krijgen. Die data komt dus vanaf die RAM chips en gaat via de geheugenbus naar de chip. Hoeveel er door deze bus kan is afhankelijk van de interface en snelheid van die interface. De GF2 heeft een 128 bit interface (wat betekend dat er per clock 128 bit ofwel 16byte verstuurd kan worden) met een kloksnelheid van 166 MhzDDR, ofwel 333 effectief. 333.000.000x128 =42.624.000.000 bit/sec = 5.328.000.000 Byte/sec
Het RAM-geheugen van de GF2 kan dus per seconde 5,3 GB aan data naar de videochip (Hier dus de GF2) sturen.

Het probleem bij deze kaart is alleen dat de videochip zelf veel meer data per seconde kan verwerken, hoeveel weet ik niet precies, maar dat is in ieder geval veel meer dan dat het RAM-geheugen aan kan voeren. Wat is dan het gevolg:
Alle data die binnenkomt van het RAM kan met gemak door de videochip worden verwerkt tot beeld, sterker nog, de videochip ligt de halve tijd uit zijn neus te eten omdat er geen data binnenkomt. Dit betekent automatisch dat een verhoging van de coresnelheid niet veel zal opleveren, omdat er toch niet genoeg data aangevoerd wordt.

Een verhoging van de geheugensnelheid levert echter wel iets op. Hierdoor gaat de bandbreedte omhoog en kan de videochip weer meer werk doen, en het is dan ook logisch dat de framerate lineair met de geheugensnelheid omhoog gaat, totdat het punt komt dat het RAM even veel aan kan voeren dan dat de videochip kan verwerken. Dit punt is echter bij de GeForce2 nog lang niet in zicht, zelfs niet bij de geheugensnelheid van 400 Mhz. (200 Mhz. DDR)

Daarom is de GF2 dus zo gebaat bij sneller geheugen en niet bij een snellere core.
</div><div class=b4>
Kun je mij even uitleggen hoe dat komt? Ik lees overal dat juist de bandbreedte omhoog moet en dat het uiteindelijk dat is dat betere prestaties moet gaan geven, niet zozeer het hoger geklockte geheugen. Tuurlijk weet ik ook dat iets hoger geklockt geheugen wat beter is, maar zoveel kan dat toch nog niet schelen?
</div><div class=b1>

Ricochet:
Een hoger geklokt gedeugen geeft een grotere bandbreedte. Er kan dan nl. vaker per seconde een blokje data worden doorgegeven.
Waarom zouden ze UT als benchmark gebruiken? Omdat de meeste spellen die je in de nabije toekomst zal draaien op de Unreal engine draaien. Je had al UT, daar komt Deus Ex nog bij....XCom: Alliance, en niet te vergeten Duke Nukem Forever. En dan krijg je de situatie die de spelers als volgt beschrijven:

"I swapped my GeForce 2 for a V5 5500, not just because I dig the 4x sampling, which I do, but because a Voodoo plays a ton better in just about any Unreal-engine powered game -- as it plays a TON better in Deus Ex..."
Dr_Fripp: dat is wel zo, maar er zijn meer spellen die niet op de Unreal engine gebaseerd zijn.
Je hoeft trouwens helemaal niet te benchmarken. Unreal loopt alleen goed op 3dfx kaarten...
Ik vind die engine dus niet representatief, dwz je kunt 3D-kaarten niet redelijk objectief vergelijken zo. Dat kan wel met 3DMark + Q3 (of een ander OpenGL ding).

Maar Unreal zal voor sommigen zeker een reden zijn om een 3dfx-kaart aan te schaffen...
Aan Vleermuis en Richochet:
Het rekensommetje is eigenlijk heel simpel:
De GeForce2 GTS heeft een piek performance van: 200 MHz * 256 bits (interen architectuur) = ca. 6,4 GB/s. Maar het geheugen kan maar aan: 2 (ddr) * 166 MHz * 128 bits (datapad) = 5,4 GB/s... oeps... Daarom haalt 'ie nooit zijn theoretische max. fill rate van 200 MHz * 4 pixels (per pipeline) * 2 (Texels/pixel) = 1600 MTexels/s. Je ziet dan ook bij opklokken van het geheugen met bijv. 20% meteen een performance verbetering van 20% (high-res) !
Zie ook mijn review in de komende RealGamer :7
Is er al iets meer bekend over die problemen met die Hercules Prophet II 64MB?
Gewoon loos kaartje dus.... GeForce I is nog wel te doen, maar ik denk dat ze nu eens aan andere dingen moeten gaan denken, want de grafische kaart is al lang de bottle0neck niet meer...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True