Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 32 reacties
Bron: Guru3d, submitter: Falcon

Guru3d vergeleek de nieuwste videokaarten in combinatie met verschillende processors; dit om te kijken wat de invloed van deze rekencomponenten zijn op gameprestaties. Aan gpu-zijde deden ATi's Radeon X800 Pro en XT mee en nVidia's GeForce 6800 Ultra en GT. Uit de cpu-wereld werden een Pentium 4 2,8GHz en Athlon 64 3800+ opgetrommeld. Vervolgens werden alle mogelijke gpu-cpu-combinaties gemaakt en gebenched.

ATi Radeon X800 Logo (nog kleiner)GeForce 6800 Logo (klein) Intel Pentium 4 E Prescott (140 pix)AMD Athlon 64 processors (klein)

Guru3d conludeert aan de hand van de resultaten dat de Radeon-kaarten wat hongeriger zijn naar cpu-power; des te sneller de processor, des te beter komt de X800 XT uit de verf, met name op de hogere resoluties. Op de wat minder supersnelle processors komt de GeForce 6800 Ultra beter uit de bus. Het is dus zaak bij de aanschaf van een (high-end) gamesysteem gpu en cpu goed op elkaar af stemmen. De reviewer adviseert voor systemen met processors tot 3GHz/3000+ op dit moment de Radeon X800 Pro of GeForce 6800 GT aan. Voor met snellere processors uitgeruste systemen van wie het beste van het beste wil zonder zijn/haar banksaldo te hoeven raadplegen, kan de GeForce 6800 Ultra of Radeon X800 XT soelaas bieden.

Moderatie-faq Wijzig weergave

Reacties (32)

Waarom heb je zoveel kracht nodig op dit moment? Far Cry wat toch een redelijk zwaar spel is , draait ook wel op een ati radeon 9800 pro.
Ik snap niet dat het advies niet luid spaar het geld eff voor twee jaar en koop dan een nieuwe high-end videokaart, inplaats van nu voor 600 euro bijvoorbeeld. En dan koop je nu een videokaart voor 200 euro, en dan een voor 400 euro. Heb je veel meer plezier!
Dat verschijnsel heet 'Gamer' of '3dmark03slet'. Die willen graag dat alles het beste en snelste draait. Waarom overclocken als hij het zonder dat te doen ook goed doet? Omdat hij het met overclocken beter doet. Waarom een nieuwe dure kaart kopen terwijl de huidige het ook goed doet? Omdat een snellere beter is.
Niks mis mee, stimuleert de economie en de GPU makers om nieuwe nog snellere GPU's te maken.
Nou, Ik heb een 21.3" TFT staan, met een native resolutie van 1600X1200. Dus wil ik ook graag al mijn games op 1600X1200 draaien.

Far Cry op 1600X1200 met een 9800 Pro zie ik niet gebeuren, zelfs met een X800XT of 6800 Ultra trek je dan iets van 60FPS, wat ik een prettige fps vind. (Moet niet langzamer worden.)

En dan hebben we nog niets eens AA en dat soort gein aangezet. :)

Voor mij zit progressie van de games niet alleen in de gameplay, maar ook in de zo strak mogelijke grafische weergave. Dus hoge resoluties en AA voor Eyecandy. Daar heb je gewoon een dikke kaart voor nodig, zeker straks met Doom3 en Halflife 2.

Nu heb ik nog een 9700 Pro, maar ik heb het geld al klaar staan voor een vervanger (zo'n 500 Euro) als die games uitkomen, om de op dat moment snelste kaart aan te schaffen. :) Die kaart kan dan vervolgens wel weer 2 jaar mee, net zoals mijn 9700 Pro nu, die kan dan naar mijn secundaire systeem.

Kijk, als jij tevreden bent met 1024X768, dan heb je al dat grafische high-end geweld niet nodig. :) Kun je gewoon met een mid-end kaart uit de voeten.

Er zijn ook computernerds/gamefreaks die niet student zijn hoor. ;)
Volgens mij heb je niet echt veel meer aan AA als je op 1600x1200 speelt. De AA is bedoeld om op juist lagere resoluties toch een mooie schuine lijn o.i.d. te kunnen presenteren. Op hogere resoluties zijn de pixels zo klein dat je de lijn al bijna als 1 geheel ziet ipv het bekende trappetjes effect.
Dat dacht ik vroeger dus ook, totdat ik Unreal 2003 ging spelen op 1600x1200. Bij polygonen met veel contrast ertussen (bijvoorbeeld een donkere steen met veel lichtere lucht erachter) zie je nog steeds een kartelrandje zonder dat je daar voor dichtbij de monitor hoeft te zitten.

Het probleem is echter (iets dat weinig mensen blijkbaar inzien) dat je speelplezier nauwelijks omhoog gaat van een hogere resolutie. Zeker niet op lange termijn. Wegwerking van kartelrandjes en hogere texture resoluties (ook van veraf) geven een grotere voldoening en gelukkig is aan AA/AF prestaties overduidelijk gewerkt door Ati en nVidia, het komt steeds dichter in de buurt van de AA prestaties van de oude geflopte doch innovatieve Matrox Parhelia.
De reviewer adviseert voor systemen met processors tot 3GHz/3000+ op dit moment de Radeon X800 Pro of GeForce 6800 GT aan
beetje makkelijke conclusie :) zelfde als dat een weerman zegt: af en toe zon en hier en daar een bui :)
De reviewer adviseert voor systemen met processors tot 3GHz/3000+ op dit moment de Radeon X800 Pro of GeForce 6800 GT aan. Voor met snellere processors uitgeruste systemen van wie het beste van het beste wil zonder zijn/haar banksaldo te hoeven raadplegen, kan de GeForce 6800 Ultra of Radeon X800 XT soelaas bieden.
'Oeps, iets beter lezen, Marty!' |:(
Toch inderdaad vrij loos dat die conclusie getrokken wordt, ja...
tja, maar wat hij zegt hoeft niet te kloppen, als je een GT koopt en je clockt hem over dna heb je een Ultra.
ik vind de conclusie een beetje lame.
"zorg dat je zo veel mogelijk geld hebt, en dan kan je een topsysteem kopen!"
tja dat weten wij ook wel
(en aub geen reacties dat als je je ultra oc't dat ie dan nog sneller is, het gaat puur om deze combo)

Dus:
"if you want to save money, but you want the power of a ultracard, just buy a GT and oc it"
Het ligt er ook wel aan de games of die cpu of gpu hongerig zijn.

UT2k4 is enorm cpu + mem hongerig..

Heb je games die op de quake3 engine draaien dan zie je dat die vooral gpu hongerig zijn.
Da's nie helemaal waar.

Ik haal op mijn machine met een ti4200 300fps in q3 op 800x600.

Met dezelfde machine en een radion9800 pro haalde ik maar 10fps meer (310fps). Overclock ik mijn cpu naar 2800+ (van 2400+) scheelt me dat gelijk 40fps.

De q3 engine is lang niet zo GPU hongerig, sterker nog, bij de meeste benchmarks zonder AA/AF maakt het niet uit of je een GF4TI of een GF6800 hebt.

Nieuwere spellen met veel nieuwere engines (q3 engine is al bijna 5 jaar oud?) hebben veel meer need voor een snellere GPU dan een snellere CPU.
De Q3-engine is weliswaar 5 jaar oud, het is een erg veelzijdige engine die inmiddels ver doorontwikkeld is en (naast natuurlijk in Quake3) onder andere gebruikt wordt in Return to Castle Wolfenstein, Medal of Honor en Call of Duty. Zoals je weet is CoD een DX9-spel en nog lang geen vijf jaar oud, dus dat geeft aan hoe goed deze engine is.

Tweakdude zegt dus dat al deze spellen meer afhankelijk zijn van de videoplank dan van de cpu.
@Lucki3

Wel weten wat je test. Op zeer lage resolutie is bijna ieder spel begrensd door de CPU.

Doe diezelfde test van je met q3, maar nu op 1600x1200 en AA en AF aan. Dan wordt het zaakje waarschijnlijk volkomen door de GPU begrensd.
Je hebt het ook over een resolutie van 3x nix.

Hoe lager de resolutie hoe makkelijker je videokaart het af kan, hoe hoger de fps en des te meer gegevens je cpu moet aanleveren aan de gpu.

Met andere woorden hoe lager de resolutie hoe meer de cpu gebruikt word.

Daarom draaien ze 3d tests ook in hogere resoluties
Dat wordt voor velen (althans ik) nog eventjes sparen... Het is voor mij nooit mogelijk als student zijnde om top of the notch te bereiken.. Maar wat ik mij vooral afvraag is wie dat wel kan. Volgens mij lopen er echt mensen op straat rond die elke keer als er iets high-end uitkomt, het ook direct kunnen kopen.

Ik denk trouwens dat dit het benchmarken er niet bepaald makkelijker op maakt.. Het is net alsof je appels met peren gaat vergelijken.. Hoe kan je nou ooit zeggen dat de een of de ander sneller is als hun prestaties afhangen van totaal andere factoren? Dus als er dan een benchmark met een Athon XP 2600+ wordt gemaakt, en de ATi X800 Pro blijkt langzamer, dan gaat men dit dus als excuus gebruiken? Ik vind die dingen (videokaarten) al duur genoeg, dan heb ik niet nog eens zin om vl geld tegen een high-end CPU aan te gooien.. Want laten we wel wezen, ik vind persoonlijk dat er helemaal niets mis is met een XP 2600/2800+.. Als je de verschillen gaat onderzoeken gaat het misschien om een paar mb/s., een paar frames minder of meer..

Een videokaart moet naar mijn mening zo min mogelijk CPU afhankelijk zijn.. Jah ok, ik moet niet gaan verwachten dat ie fantastische prestaties gaat leveren op een Pentium III, maar bij de CPUs van tegenwoordig zou ik het jammer vinden als de videokaart er teveel van gaat opeisen.. Waarom koop je dan zo'n ding nog, zou je bijna zeggen.. Dat ding moet in z'n eentje werken, luie (en dure) hond!! }>

Het is ook weer zo dat het een review van guru3d betreft.. Die zijn altijd een beetje pro-nvidia, dus laten we ook nog eventjes wachten wat de anderen zeggen... :+ }> }>
Ja tuurlijk lopen die rond. Is questie van prioriteiten he, ik zou 't ook kunnen maar vind dat nogal zonde van me geld. Had 2 jaar terug me radeon9700pro gekocht toen ie net 1/2 mndn op de markt was voor 500 ofzo. Niet omdat ik altijd 't nieuwste v/h nieuwste moet hebben , maar omdat ik toen RTWC speelde met een R7200. Die kaart heeft mij ATI fan gemaakt, al lang voordat de massa een bobbel kreeg van de r9xxx serie. Had toen dus nieuwe kaart nodig, en werd de r9700.

Maarja, kan me voorstellen dat je als afzichtelijk nerd alleen rondwandeld en 't enige waaraan je geld besteed pizza, chips en hardware is. En als je nu student ben, ben je over jaar of 5 lease-bak-aandelen-mannetje, en koop je die dure zooi ook mss wel elke keer.

No offense ;)
Ik vind een P4 2.8 Ghz nou niet echt top of the bill van Intel, als je dat tegenover een AMD 64 3800+ zet, beetje kromme vergelijking imo dus.
Dat is bewust gedaan om te kijken naar het verschil in performance en invloed van verschillende cpu's.
En dat is nou juist niet slim. Je zit dan 2 effecten tegelijk te bekijken, en je kan dus nooit weten welk deel de invloed is van de verschillende cpu's en wat de invloed van de performance.

Zo is het mij in het verleden al regelmatig opgevallen dat ATI beter lijkt te lopen op een Intel dan op een AMD. Maar dat kan je onmogelijk vaststellen in deze tests.
Jah, dat vind ik ook, er worden wel telkens mooie benchmarks gedaan, maar hebben ze er ooit wel eens bij stil gestaan dat een videokaart beter zou kunnen draaien op een intel dan op een amd, of andersom?!? Daar lijken ze eigenlijk nooit rekening meet te houden in een benchmark. En bij een goede cpu-gpu benchmark mag je imo ook wel kijken naar de combinatie merk cpu vs merk gpu, om het geheel wat uitgebreider en informatiever te maken.
en niet te vergeten de chipset... want de Nforce3 chipset biedt een voordeel aan Nvidia kaarten tot wel 20%.
In principe vergelijk je

X800 op P4 2.8 met 6600 ultra op P4 2.8

of
X800 op P4 2.8 met X800 op AMD 3800+

1 ding tegelijk dus. Je kan dus de verschillen per wijziging zien. Wel is het zo dat de invloed van de chipset of het designverschil tussen de Intel en AMD CPU aan het verschil in processorsnelheid wordt toegerekend. Niet helemaal perfect dus maar nog wel nuttig
dan hadden ze nog beter een snelle en een langzame AMD en het zelfde voor intel kunnen pakken.
nu heb je namelijk een snelle AMD, die toch al sneller is bij de meeste games, tegen een langzame intel, zodat het verschil nog groter word.
je kan hier dus eigenlijk geen conclusies uit trekken, omdat je met 2 veranderende factoren zit, en je dus niet weet aan welke van de 2 je het prestatie-verschil moet toeschrijven.
Ze hebben ook gekeken hoe de videokaarten werkten op vershillende CPU snelheden. Zo werkt de X800 XT dus veel beter als de CPU sneller is. Dan moet je dus wel een snelle, en een hele snelle CPU tegen over elkaar zetten, anders schiet het niet op. Het is geen Intel/AMD benchmark.
Een andere conclusie kan zijn:
als je nu een nieuwe videokaart wil kopen, en van plan bent om pas later je CPU te upgraden, dan schaalt een 6800U en vooral een x800xt beter door.
Het probleem is wel dat je dan waarschijnlijk ook een nieuw mobo nodig hebt met PCI Express en dan kan je die videokaart als nog niet meenemen.
Ik zit echter nog steeds te wachten op de Ati radeon X880XT. En ik ben dan niet iemand die altijd voor het beste gaat, maar ik wil wel HL2 graag op >100 fps spelen. Maar als ik nu naar de benchmark resultaten kijk is een goede CPU en geheugen toch echt een must!
Ga je me vertellen dat jij het verschil kunt zien tussen 50 en 100+ fps. Het kan natuurlijk dat jij met wel heel goede ogen bent uitgerust, maar dit lijkt me erg onwaarschijnlijk.
laat ze dan ook even verschillende mobo's testen, als je dan toch bezig ben, ik ben namelijk erg benieuwd of het veel uitmaakt of je een bud-get of een dure mobo heb
Jammer dat ze niet ook de verschillende chipsets hebben meegenomen. Vooral in aanmerking genomen dat de nVidia kaarten beter presteren met nVidia chipsets. Ze hebben nu de Athlon op een VIA chipset getest. Het zou dus zomaar zo kunnen zijn dat een nVidia 6800 op een Athlon 64 3200+ net zo snel is dan een veel duurder systeem met zelfde videokaart en Athlon 64 3800+ omdat het ene systeem een nForce 3 250Gb chipset heeft en het andere de VIA variant. Dat zijn wel leuke dingen om te weten...
wat ie bedoeld met zijn advies, betekent niet dat als je een PRO zou aanschaffen ipv een XT, dat de performance dan minder zou worden... maar dat die XT een beetje ''overkill'' is.... t.o.v je cpu.

Ik met mijn 2.4 ghz systeem zou denk ik het verschil niet merken tussen een PRO of een XT?

aan de andere kant kan die XT natuurlijk net even iets meer ''future proof'' zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True