Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties
Bron: Tom's Hardware Guide

Hoewel de GeForce3 al op de stoep staat vond Tom's Hardware Guide het toch nog even nodig om uitgebreid te testen hoe de hele GeForce2 familie het doet op verschillende processors. De bedoeling van de guide is om mensen te helpen bij de keuze tussen een snellere videokaart of een snellere processor. Veel bedrijven verkopen namelijk PC's door met GHz'en te schreeuwen en vergeten er bij te vertellen dat er slechts een TNT2 videokaart in het 'ultra-moderne multimedia-monster' zit . Na een groot aantal benchmarks komt men tot de conclusie dat je daar zeker niet in moet trappen en dat een extra investering in de videokaart veel meer winst in spellen oplevert dan een GHz+ processor:

I hope that this article underlined precisely that processor clock is not the Holy Grail at all. Many discounters are still selling high-end systems, based on AMD and Intel CPUs beyond 1 GHz, in combination with antiquated graphics cards like a NVIDIA TNT2/Ultra or Vanta, which is definitely the wrong way to keep costs down - even though high processor speeds may sound very attractive.

[...] My outlook for power users is as follows: With a reasonable amount of RAM, the Windows performance is no matter of discussion anyway. Thus the 3D performance becomes the important factor. If your system should be too slow for certain 3D applications, just replace the graphics card with a faster model instead of throwing away the whole system. As of late, new-generation 3D-chips offer significantly larger performance gains than new microprocessors.
GeForce2 CPU scaling

Aikeleer stuurde de link, waarvoor dank.

Lees meer over

Gerelateerde content

Moderatie-faq Wijzig weergave

Reacties (16)

Als gamer heb ik niet veel aan de q3 benchmarks van Tom omdat er niet bij staat welke demo hij heeft gebruikt (althans ik kon het niet ontdekken).
Zal haast wel demo001 zijn oid, daar heb ik dus niet veel aan omdat het mij gaat om real world performance.

In hoeverre de cpu de bottleneck is hang ook af van hoeveel die moet doen. De cpu zal de boel ophouden of niet, afhankelijk van hoe 'druk' het is in het spel, aantal players, rockets enz, gedetailleerdheid vh level, textures, shaders.

Bij een zwaardere benchmark zal de grafiek pas bij hogere cpu clock 'uitvlakken'.
Je kan dus niet zonder meer zeggen dat sneller dan een 1GHz cpu voor een geforce(gts) geen zin heeft.
Dit is handig voor de newbie, maar heeft 99,9% van de tweakers hier nu niet een sterk "Well, duh .." gevoel?
idd, maar 't is toch wel belangrijk, want ik lees net een duits artikel over de GeForce3... ( http://www.rivastation.com/msi822.htm )
Hoe zorg je dat je rare vergelijkingen krijgt is dat:
- test met verschillende drivers
- test op een P3 866, zodat je zeker weet dat iig de bottleneck niet is ;)

Het is dus wel belangrijk dat iedereen weet dat de rek eruit is met een GeForce2, en dat een GeForce3 alleen nut heeft met een echt snelle proc (of veel FSAA)
edit: link was geen link
Hmm.. volgens mij blijkt juist uit bovenstaande artikel dat de processor veel minder uitmaakt aangezien deze altijd wel data voor 60 FPS (zelfs Athlon 800 nog 87FPS) weet te produceren. En bij een GeForce 3 wordt dat alleen maar meer het geval vanwege de sterk verbeterde en programeerbare T&L. Dus des te meer een reden om eerder een GeForce3 te kopen dan een processor upgrade als je een spelletjes fanaat bent. Verder hangt het ook erg van het spel af, UT vreet bv. wel weer veel meer van de processor en ik zie dat ie die nou juist er niet bij heeft staan in z'n tests ;(
Maar waarom als laagste een TB 800 :? laat ze ook een Duron 700 meenemen in deze test ofzo, da's pas cheap en met een GF2 Ultra erin heb je nogsteeds een klein verschil met een TB 1200..
Mja, maar wie koopt er nou een GF2 Ultra in combinatie met een Duron 700? Als je het geld voor een GF2U over hebt, kan die extra paar gulden voor een TB1200 er ook nog wel bij.
Maar voor de volledigheid zou ie er toch eigenlijk wel bij moeten staan, misschien zelfs nog een Celeron 600 o.i.d. om te laten zien dat een C600 + GF2U nou eenmaal zonde van je geld is. Natuurlijk kan een gemiddelde tweaker je dit ook wel vertellen, maar als je toch al zo'n uitgebreid testje op internet zet zou dat er IMHO wel bij moeten.

Persoonlijk kies ik (als ik 'n nieuwe pc zou willen kopen) voor de beste prijs/kwaliteit, een Duron 700 bijv., en ik zou graag willen weten hoeveel het loont om een GF2GTS i.p.v. een GF2mx, aangezien de prijs van de GTS ook al wel stevig aan 't dalen is (voor 400,- kan je zo'n ding al wel kopen). Maar of ik daarbij dan beter een 900MHz Athlon zou kunnen kopen, zou ik in dit testje toch wel graag willen zien. Zien, met een bunch benchmarks, en dan geloven.
Niemand koopt een GF2 Ultra met een Duron 700 omdat iedereen ervan uitgaat dat je met je Duron 700 je GF2 niet volledig kan benutten; DAT is nou precies waar deze test om gaat. Het blijkt idd dat je waarschijnlijk met je Duron 700 niet 100% trekt van je GF2 Ultra, maar hoeveel dan wel? Kan het prijsverschil tussen de Thunderbird 1200 en de Duron 700 de aankoop van de Ultra i.p.v. de GTS of MX rechtvaardigen?
Toch vind ik het onzin om het zo zwart wit te stellen. Ik kan me prima een systeem voorstellen met een tnt1 en een Ghz processor. Niet iedereen speelt spelletjes!! Als voorbeeld kan ik bijvoorbeeld m'n vader geven. Die wil videobewerken en muziek bewerken en verder niets meer dan msoffice. Videobewerken zit de tijdwinst nou net in de processor en de videokaart moet gewoon snel genoeg zijn om het beeld te verversen. Een 16 MB videokaart is dan al voldoende! Na het instellen van volgorde e.d. van videofragmenten met muziek en de hele mikmak duurt het juist renderen van de motion jpeg (mirokaart) ongeveer 8 uur. Dit komt ALLEEN maar door de beperking van de processor.

Mijn vader zou dus het volgende extreem rare systeem prima kunnen gebruiken:
amd thunderbird zosnel mogelijk
64 MB pc133
tnt1 nvidea kaartje.
7200 rpm 45 GB hardeschijf.

En dat zou een prima keuze zijn voor wat HIJ ermee doet! Uiteraard dat ik em toch wat meer geheugen zou aanbevelen, maar een snellere videokaart is gewoon niet aan hem besteed voor wat hij wil.
64MB om video te bewerken? Laat me niet lachen. Da's net genoeg om de applicatie in het geheugen op te slaan. Maak daar maar snel 256MB van. Anders staat je machine vlot naar de harddisk te swappen en gaat je performance helemaal verloren.
En dat tnt1 nvidea kaartje? Voor video bewerking? Ga dan voor 'n goedkope ATI of voor 'n Matrox Dualhead. Die laatste zal hij zeer zeker op prijs stellen!

Ik heb zelf systemen (4-5 jaar geleden) samengesteld voor videobewerking. Ik kan je hierbij garanderen dat de snelheid beperkt wordt door op z'n minst het geheugen en de processor. En dan wel in die volgorde te verstaan!
Beetje zonde van z'n tijd, dat die gast die benchmarks heeft gedaan... En dan heeft ie nog geeneens het plaatje ge-antialiased ;)

Alleen ik vraag me af waarom de procentuele verschillen met de A800 op de GTS en Ultra zo verschillen.
In het benchmark plaatje is duidelijk te zien dat de GF-MX de bottleneck vormt, waardoor er niet hoger dan 36 punten wordt gescoord. Wel erg merkwaardig is dat er bij de Ultra (vanaf 900MHz) sneller de top wordt gehaald dan bij de GTS (1000MHz). Misschien is dan de processor de bottleneck ipv. de videokaart.
Op de specs page van Tom staat iets erg verwarrend. Omdat de GTS en de Pro bijna dezelfde specs hebben. Is het niet leuker om de membandbreedte erbij te zetten X,XGB/s. Want de Pro is hierin toch wel 34MHz sneller.
Kennelijk is dit toch het geheugenprobleem van de video kaarten. Boven een bepaalde processor snelheid heeft deze rekenkracht niet de potentie nog enige invloed op de videokaartsnelheid te hebben.
als je test bij verschillende resoluties kun je pas zien wie (de cpu of de 3d kaart) bottle neck vormt. Als de framerate namelijk gelijk blijft bij verschillende resoluties dan is de cpu de berperkende factor. Gaat echter de framerate omhoog wanneer je de resoltie verlaagt dan weet je dat je 3d kaart de berperkende factor is en vice versa!! Of zie ik dit nu verkeerd?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True