Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: AnandTech

Het leven van een tweaker is niet altijd even makkelijk. Constant in gevecht met de hardware in zijn computer om er het maximale uit te halen. Zoeken naar het onderdeel dat ervoor zorgt dat het niet sneller gaat zodat dit onderdeel vervangen kan worden door een sneller onderdeel. Helaas heeft de tweaker over het algemeen niet de beschikking over meerdere grafische kaarten, moederborden en CPU's om echt goed uit te testen wat sneller is. Maar gelukkig zijn er sites zoals AnandTech die de tweaker helpen. Deze keer met een uitgebreide shootout waarin de huidig verkrijgbare grafische kaarten worden getest met CPU snelheden van 800 tot 1733MHz. De keuze tussen nieuwe grafische kaart of snellere CPU wordt op deze manier wel erg makkelijk.

De testbench die door AnandTech wordt gebruikt bestaat uit een unlocked AMD Athlon XP 2100+. Het spel waarmee getest wordt is Unreal Tournament 2003 in een resolutie van 800x600. Elke kaart wordt op alle beschikbare snelheden tussen 800MHz en 1733MHz uitgetest in zowel hoge details en medium details. De resultaten kunnen uiteindelijk ingedeeld worden in drie categorieŽn:

*GeForce2, GeForce4 MX, Kyro II

PowerVR Kyro logoUit de shootout blijkt dat de bezitters van een GeForce2 MX400 of een Kyro II beter uit kunnen kijken naar een snellere grafische kaart. De GeForce2 MX400 zit al tegen zijn uiterste bij een CPU snelheid van 800MHz en hoewel de performance van de Kyro II omhoog gaat bij het gebruik van een snellere CPU, blijft de performance toch achter op rest van de geteste kaarten. Ook de GeForce2 Pro/Ultra en GeForce4 MX440/460 zitten bij een 800MHz processor snelheid al tegen hun maximum aan als hoge details aanstaan. Bij medium details schalen ze echter mooi mee en blijven ze aardig in de buurt van de op papier snellere kaarten zoals de ATi Radeon 8500 of GeForce4 Ti4200.

*GeForce3, ATi Radeon, Matrox Parhelia

Parhelia LogoDe nVidia GeForce3, GeForce3 Ti200/500 en ATi Radeon 8500 schalen bij hoge details mooi door tot een CPU snelheid van 1200MHz en dan houdt het op. Op medium details is de snelheid van een Radeon 8500 vrijwel gelijk aan een Radeon 7500 tot een CPU snelheid van ongeveer 1200MHz, waarna de 7500 het verliest van de 8500. De meest moderne grafische kaart die uitgetest is, de Matrox Parhelia heeft een snelheid en schaalbaarheid die vergelijkbaar is met die van de ATi Radeon 8500.

*GeForce4 Ti

GeForce4 Ti logo (kleiner) De GPU's die overblijven, de nVidia GeForce4 Ti4200, Ti4400 en Ti4600 blijken het best mee te schalen bij het verhogen van de CPU snelheid. Met de komst van nieuwere GPU's zoals de NV30 van nVidia en de RV300 van ATi zal de bottleneck bij de CPU liggen en niet bij de grafische kaart. In de toekomst zal er dan ook getest moeten worden met de snelste processor die er verkrijgbaar is om het uiterste uit deze nieuwe grafische processors te halen. Het vertrouwde Athlon XP platform waarmee AnandTech tot nu toe heeft getest zal daarom vervangen worden door een Pentium 4 platform.

Moderatie-faq Wijzig weergave

Reacties (58)

waar ligt dat nou aan als de kaart mee kan schalen met de cpu? Hangt dat af van geheugensnelheid en de hoeveelheid berekeningen de cpu van de gpu kan overnemen? waardoor een snellere cpu + gpu dus een hogere prestatie neer kunnen zetten?
Hoe sneller de kaart des te beter hij mee kan schalen.

Verder ligt het ook aan de "taak"verdelingen van de drivers of die data naar de CPU of GPU sturen.
Hoe sneller de kaart des te beter hij mee kan schalen.
Sinds de komst van T&L zegt de snelheid van de GPU en geheugen niet alles meer over de schaalbaarheid van een videokaart. Want de T&L unit neemt werk op zich wat de CPU normaal doet en als de GPU te langzaam is (dus als die de aangevoerde data niet snel genoeg verwerkt) dan heb je niets aan een snelle CPU. De T&L unit is dan de bottleneck en niet de GPU of CPU.

Snelheid zegt dus niet alles.
Verder ligt het ook aan de "taak"verdelingen van de drivers of die data naar de CPU of GPU sturen.
Het ligt er aan welke featureset een videokaart heeft, als de videokaart een geavanceerde T&L unit heeft zoals de GF4 dan kan het best zo zijn dat de videokaart nagenoeg evensnel is met een Pentium 4@3GHz als met een P4 @ 2GHz. Andersom kan natuurlijk ook, mijn oude GF1 heeft een T&L unit maar een beetje CPU is al sneller dan die T&L unit.
en dit:

Het vertrouwde Athlon XP platform waarmee AnandTech tot nu toe heeft getest zal daarom vervangen worden door een Pentium 4 platform.


Hoezo 'daarom'? Alsof de XP niet meer omhoog gaat...
Hoezo 'daarom'? Alsof de XP niet meer omhoog gaat...
Omdat de beste Pentium 4 op dit moment de allersnelste processor is, sneller nog dan de snelste Athlon XP.
De CPU moet de gamelogic verwerken en Non-Ttanform & non Lithe geometry genereren en sturen naar de GPU T&L units.

De CPU heeft zijn tijd nodig om zijn taken uit te voeren en de GPU voor zijn grafische taak.

De vraag is wie zal op wie aan het wachten zijn.

'n G4 Ti4600 zal aan het wachten zijn op 'n Cellie 400 meeste van zijn tijd.
'n P4 2,53 zit voornamelijk te wachten op 'n TNT2m64 / Gf2MX

Het is altijd beter om een meer gebalanceerd systeem te hebben. dan komen de afzonderlijke componenten beter tot hun recht.

P4 2.0A/AXP 2000+ met 'n Gf4ti4400
In Unreal Tournament 2003 blijkt dat een Geforce MX2 400 toch nog 50fps haalt op High Detal op 800x600.

Ik denk dus ook dat het intressant is dat ondanks dat de schaalbaarheid van oudere GPU's achterblijft, je toch nog redelijk kan spelen.

Nu is het zo dat 50+ fijn spelen is in een single player game, maar met multi player zijn die fps toch vaak het verschil tussen leven een dood (virtueel dan wel, al denk ik soms dat dat een fps te weining voor sommigen een reden is niet verder te willen leven :)).

Ook geeft dit je goede info over de combi's van CPU & GPU. Ik ken zat mensen die nu een een Geforce4 Ti4200 op hun Duron 800mhz gooien... zonde dus.

Mooie roundup, goeie info, en tja... we will shell the money again!!!
Niet waar. Je vergeet dat Gforce 3/4 ook goede hardware vertex en pixelshaders bevatten. Dat betekent een hoop 'eyecandy' extra, als daarvoor geprogrameerd is.
Heb je bijvoorbeeld al pixelshaded water gezien? WOW! En dan maakt het niet uit wat vorr cpu je hebt: het ziet er beter uit op een PIII 550 en net zo mooi op een P4 2,x. (ok, iets sneller op de laatste :) )
Geforce3? Geforce4?, Thugbear had het over zijn Geforce2MX en Ik over mijn Geforce2 GTS. Da's heel wat anders.
(1Ghz machine met Geforce2 of soortgelijke Direct3D adapter is het uitgangs punt geweest voor de "recommended" system eisen voor UT2 en UT2k3, niet de "minimal" systeem eisen)

Met een P3 550, hoef je geen Geforce4 te installeren, je CPU kan gewoon weg niet snel genoeg data aanleveren voor fatsoenlijke framerates.
De GPU is nog steeds afhankelijk van de snelheid van de CPU. Deze afhankelijkheid wordt wel steeds kleiner maar met de huidige ontwikkelingen wordt er toch meer CPU snelheid gevraagd voor het berekenen van de A.I. en andere zaken.

De anantech test is een GPU shootout geen spel performance test, laat dat duidelijk zijn. Daarom is ervoor gekozen om het geluid uit te laten.
speel jij ook altijd zonder geluid?
(zie test systeem bij anadtech)

Ik heb de demo gespeeld op mijn
1Ghz CPU+ GeForce2 GTS en je mag blij zijn als je in dat kleine semi indoor DM-Asbestos level 30fps haalt bij 640x480, met geluid aan.

Ik moet toegeven dat ze druk aan het tunen en tweaken zijn bij epic/atari om de boel enigzins speelbaar te maken op meerdere type machines.
De demo welke ik gespeeld heb was al wat maandjes oud, en ik neem aan dat ze wel aardig wat geoptimaliseerd hebben, maar 50fps... nee ik denk van niet en zeker niet in 800x600.
Ook geeft dit je goede info over de combi's van CPU & GPU. Ik ken zat mensen die nu een een Geforce4 Ti4200 op hun Duron 800mhz gooien... zonde dus.
Ik heb verder geen GF4Ti ofzo, maar jou redenatie gaat dus alleen maar op 800x600 op (over hogere resoluties zeggen ze niets...)
Ik denk dat het verschil GF2Ti => GF4Ti4200 op 1280x960 of op 1600x1200 (of met FSAAx4 een Anis. Filter, etc..) een stuk groteer is, dan op 800x600. Ook op een Duron 800 (maar ja voor onder de 100§ heb je al een Athlon XP, dus je hebt wel gelijk dat je beter ook wat aan je proc kunt doen)
wat ik hieruit afleid is dat de CPU's een beetje op de GPU's voorruit lopen, immers in highdetail levels is de lijn vlak, maakt de snelheid v/d cpu dus praktish niks uit en moeten we performance increases aan de kant van de GPU zoeken.

Dit geldt natuurlijk alleen voor ut2003, deze engine is niet representatief voor andere spellen (net als de ut engine dat was)

met gta3 en q3 zul je echt wel meer verschil merken met je gf2 met 800 mhz cpu of een 1700 mhz cpu.

*edit* NeTiZen: jij gebruikt een andere definitie van voorlopen, jij zegt welke het hardst werkt loopt voor, ik zeg degene van de 2 die niet de bottleneck vormt (de cpu) loopt voor :)
Nee, volgens mij is het andersom. Als je een cpu op 800 mhz heb, neemt de 3d kaart zoveel werk over dat je toch kan draaien, dus de 3d kaart doet meer werk, dus loopt voor
Hoeveel werk de GPU over neemt vd CPU hang alleen af vd snelheid vd kaart. de gpu gaat niet -meer- vd cpu overnemen naarmate de cpu trager is.
Op een 800mhz draait het natuurlijk wel, maar niet even snel als op een snellere cpu.
De gpu zelf neemt maar een beperkt aantal % (5 tot 15%) over van je CPU, dit is wat nvidia zelf heeft aangekondigd. het waren kleine dingetjes die de belasting wat lichter maakte (maar wel werkt!).
Een ATI radeon 8500 stopt dus echt niet schalen, waar een Geforce dat wel doet.

Ik heb daar een een hele test/review over gelezen.
Ik ga die ff zoeken :/
Deze stopt wel op een 140 tal frames bij 1733 Mhz, daar waar een GForce 4 begint bij 140 frames bij 800 Mhz. :z
GF 2 ja niet een GF4 TI
Dat is een behoorlijk wetenschappelijk stukje werk van Anand :)

De conclusies van deze test waren ongetwijfeld anders geweest wanneer voor de test gebruik gemaakt was van een game met een ander type engine.

Met andere woorden: de vraag: "wat moet ik upgraden?" blijft vreselijk lastig te beantwoorden. Iedereen gebruikt computers voor andere doeleinden.

Dat beperkt de upgrade-advies-waarde van deze shootout toch tot de die-hard UT-ers.
Dat schalen betekent dat als je GPU stopt met schalen vanaf een bepaalde CPU frequentie, dan heeft het geen zin om een snellere CPU op je moederplankje te stoppen omdat je geen hogere framerate zult merken in je games.

Bv. bij mij, ik heb een Radeon 64DDR Vivo met een 1200MHz Thunderbird. Ik kan wel een Athlon XP 1800+ op mijn plankje stoppen, maar ik zal er in de huidige games geen enkel voordeel mee behalen omdat mijn videokaart gewoon de limiterende factor is. Het heeft voor mij veel meer zin om mijn videokaart te upgraden (ik wacht dan ook met spanning op de ATI R300, wanneer daar de eerste benchmarks voor komen).

Maar heb je bv. een Geforce 3 Ti200 op een Duron 800, dan is je CPU de limiterende factor. Je Geforce kan nog sneller, als je maar een snellere CPU hebt. Dus heeft het in dat geval meer zin om een snellere CPU op je plankje te stoppen.
Hm... ik lees hier veel dat de GPU te traag zou zijn, maar dat is toch niet het geval? Hooguit de videokaart in zijn geheel (en dan vooral het geheugen), niet de T&L unit.
De eerste Geforces met T&L hadden al een T&L unit die 20 miljoen polygonen per seconde kon afhandelen. Dat is echter nooit gehaald, ook niet met de huidige kaarten, omdat de architectuur van de PC momenteel niet toestaat dat de CPU zoveel data naar je videokaart doorstuurt.
Videokaarten zijn tegenwoordig nog steeds bottlenecked door de snelheid van hun geheugen, de GPU's worden bij lange na niet benut. Er komen dan ook steeds nieuwe kaarten uit die eigenlijk nog een redelijk "ouderwetse" core hebben, maar met meer features, hogere kloksnelheden en betere geheugenbesparingsarchtecturen....
Ik kijk trouwens niet uit naar het moment dat je je XP2000+ moet vervangen omdat ie de laatste videokaarten niet meer genoeg kan voeren.... heb dat al eens gehad, een AMD K6 233mhz met een voodoo 2, die voodoo 2 verveelde zich nogal geloof ik :(
Sorry voor een misschien wat domme vraag. Ik begrijp de term "schalen" niet helemaal. Of begrijp ik het goed, dat ik met mijn GeForce 3 en een P4 1700Mhz geen moeite hoef te doen om m'n CPU up te graden? Dat dat geen zin heeft? (qua UT2003 dan) ??
Schalen houdt min of meer in dat als je een 2x zo snelle CPU erin stopt, of je dan ook 2x zoveel performance in je spel kan verwachten - is de videokaart een belemmerende factor dan is de winst bij een 2x snellere CPU veel lager - bijv. 20%... (omdat de CPU dan op de videokaart staat te wachten...). In dit laatste voorbeeld schaalt de videokaart dus niet echt mee met een 2x snellere CPU
Waarom testen ze alleen op 800*600 :?
Zeker de matrox scoort toch bij hoge res...??
Doodgewoon omdat ze bij de eerdere tests al merkten dat sommige van de oudere kaarten niet lekker mee te spelen waren (15 fps of zo iets). Nu laten ze een vergelijking zien waarin al die kaarten nog wel mee kunnen doen.
Oh ja, die Matrox presteert rond het niveau van de Ati Radeon 8500, ook in de hogere resoluties. (zie de vorige UT2003 test)
Ik hoop dat er ook nog zo'n test met de DOOM III engine komt. Volgens Carmack zijn de meeste van de huidige kaarten al niet voldoende. Ik ben wel nieuwsgierig van de schaling die je dan krijgt...

Ik mis trouwens een beetje de G400, G450 en/of de G550 van Matrox, die toch ook uit het ongeveer uit het tijdperk van de Kyro en GF2 komt en veel mensen hebben nogsteeds z'n kaart...
Ik mis trouwens een beetje de G400, G450 en/of de G550 van Matrox, die toch ook uit het ongeveer uit het tijdperk van de Kyro en GF2 komt en veel mensen hebben nogsteeds z'n kaart...
De G400 komt uit een ander tijdperk dan de GF2. Op het moment dat de G400 (zomer 1999) uitkwam had nVidia hier haar RIVA TNT2 tegenoverstaan. De GF2 kwam meer dan een jaar later uit. Overigens is het niet verwonderlijk dat de Matrox kaarten hier niet getest zijn. Het zijn immers geen gamerskaarten, hoewel de G400 destijds nog aardig meekon.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True