Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 73 reacties
Bron: AnandTech

De mensen bij AnandTech hebben onderzoek gedaan naar de prestaties van de MMORPG World of Warcraft. Normaal gesproken wordt hardware gepijnigd met First Person Shooters. Dit komt onder andere doordat dit soort spellen vaak ingebouwde benchmarkmogelijkheden heeft, wat het testen eenvoudiger maakt. Verder is het spelverloop statisch, waardoor de onderzoekers ervan uit kunnen gaan dat de belasting van de hardware gelijk is bij het herhalen van de test. Dit is geheel anders bij MMORPG's als World of Warcraft. De belasting kan tussen twee benchmarks sterk verschillen, doordat de virtuele wereld constant verandert. Toch hebben de onderzoekers een betrouwbare manier gevonden om de prestaties van verschillende hardware te testen. Door naar een afgelegen plek te gaan op een rustige server, hadden ze weinig last van wisselende omgevingen, afgezien van enkele beesten en een verdwaalde speler.

In de eerste test werden verschillende GPU's vergeleken. Het blijkt dat de ATi- en nVidia-chips weinig van elkaar verschillen. Vergelijkbare kaarten als de GeForce 6800 Ultra en de Radeon X850 XT en de 6800GT en de X800 XL presteerden vrijwel hetzelfde. Een uitzondering op deze regel was de 6600GT, die een betere framerate kon leveren dan de X700 Pro.

GPU prestaties (1600x1200, maximale details)
ATi Radeon X850 XT 54,1
nVidia GeForce 6800 Ultra 53,9
ATi Radeon X800 XT 50,4
nVidia Geforce 6800GT 49,4
ATi Radeon X800 XL 45,5
nVidia Geforce 6600GT 43,2
nVidia Geforce 5900XT 30
ATi Radeon X700 Pro 28,3
nVidia Geforce Ti 4400 20,3
nVidia Geforce 6200 TC 64-bit 17,6
nVidia Geforce 6200 128MB 17,6
ATi Radeon X300 10

In de tweede test werd gekeken hoe groot de CPU van invloed is op de prestaties. Wat opvalt is dat Intel de AMD processoren aardig bij kan blijven. Normaal gesproken moeten de Pentium-processoren het onderspit delven bij spellen. De AMD Athlon XP staat helemaal onderaan met een aardig framerateverschil tussen de processor en de daarop volgende Pentium.

CPU prestaties (1024x768, maximale details)
AMD Athlon 64 FX-55 75
AMD Athlon 64 4000+ 74,5
AMD Athlon 64 3800+ 74,4
AMD Athlon 64 3500+ 73,7
Intel Pentium 4 Extreme Edition 71,8
Intel Pentium 4 570 71,5
Intel Pentium 4 660 70,5
Intel Pentium 4 560 70,2
AMD Athlon 64 3200+ 69,5
Intel Pentium 4 550 68
Intel Pentium 4 650 67,5
Intel Pentium 4 540 66
AMD Athlon 64 3000+ 65,9
Intel Pentium 4 530 64,2
Intel Pentium 4 640 64,1
Intel Pentium 4 630 63
Intel Pentium 4 520 60,5
AMD Athlon XP 3200+ 48,6

AnandTech's conclusie is dat World of Warcraft een zwaarder spel is dan dat het op het eerste gezicht lijkt. Hoewel oudere hardware het spel wel aankan, moet de speler rekening houden met wat schokken bij het draaien van de camera en lage resoluties. Het bedrijf raadt als CPU een AMD Athlon 64 3500+ of een Intel Pentium 4 650 of 550 aan. De verbeterde prestaties bij hogere processoren wegen volgens hen niet op tegen de prijs. Wat de GPU betreft, geldt zoals altijd de regel: hoe duurder de kaart, hoe hoger de resolutie. De keus of de chip nu van ATi of nVidia moet zijn maakt voor de prestaties weinig uit, hoewel in de lagere prijsklasse nVidia-videokaarten sneller zijn dan die van ATi.

Moderatie-faq Wijzig weergave

Reacties (73)

Ik heb een Athlon XP 2000 met een radeon 9600 en draai het spel vlotjes in 1024*768 met de andere kwaliteitssettings op de standaardinstellingen.

Niet zozeer de cpu/gpu is een bottleneck, maar wel je harde schijf/geheugen.

Dit is bij veel mensen vooral merkbaar in Ironforge: een gigantisch grote ondergrondse stad waar voortdurend enorm veel volk rondloopt. Het spel laadt data bij terwijl je aan het lopen bent, hiervoor moet je voldoende HD snelheid hebben, anders zal het spel van een vlotte 40 fps tot 2-3 fps beginnen stokken. Zelf heb ik 512 meg ram, en vermoed dat dit mede de oorzaak is omdat hij dan ook virtueel geheugen moet gaan aanspreken. Hetgeen ik nu heb aangeraden aan velen, en wat ook een enorme performancewinst blijkt te hebben is gewoonweg het verplaatsen van de windows chachefile naar een andere, fysieke schijf. Op deze manier kan het spel plots probleemloos bijhouden met het bijladen van nieuwe data. Tragere computers kunnen probleemloos drukke decors in WoW weergeven ALS de HD maar meekan. Ik heb om dezelfde reden het spel ook al zeer brak zien draaien op een hagelnieuwe computer.
Ik heb 2 monitoren, en bij wijze van experiment op het secondaire scherm m'n taskmanager open gezet. In ironforge (druk, druk, druk! Hoog lvl quests en Auction house zitten daar!) en op een griff (veel laden) piek ik naar de 700MB memory usage van het WoW proces. Voor de specs van m'n bak check je m'n profiel maar, de bak waar ik op speel heet Zeus.

WoW is één van die spellen die wel draait, maar niet lekker met 512MB RAM.
"High above Dun Morogh is the city of Ironforge" :P. Niet ondergronds dus :).

Maar goed, ik hoor inderdaad van velen dat het allemaal erg stroef loopt in Ironforge en dankzij Cosmos.

Ikzelf draai het op een OC'ed P4 die op 3.5Ghz loopt en heb 1 GBram met een Raptor schijf, als ik het spel op een 7200rpm schijf installeer dan merk ik inderdaad een enorme drop in de performance van het spel. Het kan ook al gauw meer dan 800MB ram in beslag nemen is me al ettelijke malen opgevallen, dus dat zijn ook 2 aandachtspunten.

Als mijn vriendin op haar 2400XP het spel laadt, en de balk van het laden is op 3/4 dan kan ik beginnen met inloggen en zal nog eerder in de stad staan dan zij, op het moment dat ik het spel op de gewon HD opstart haal ik dat bij lange na niet.

Het spel is daarom ook erg groot met 4 installatie cd's en natuurlijk zal HD snelheid er erg mee te maken hebben.
[klaagmodus] Ironforge ligt in een bergtop. dus hoewel het hoog boven het omliggende gebied ligt, ligt het wel degelijk ondergronds :) [/klaagmodus]
Dit merk ik ook, ik heb 1GB geheugen (9800XT en 2800+ Barton), en het draait altijd perfect, behalve als ik met een gryphon Ironforge binnenvlieg, dat is altijd een schokkende ervaring :P

Als ik het op de computer van mijn ouders speel, staat de computer eerst een halve minuut te reutelen, voordat alles geladen is (bijvoorbeeld bij de Auction Hall in IF). Die heeft maar 512mb + 9600xt, en dat merk je goed.
Jammer dat ze de 9800 pro niet meetesten, is toch nog steeds een zeer populaire videokaart, terwijl ze wel AGP kaarten van Nvidia mee laten doen.
Lezen:

This week's WoW patch threw a wrench in our testing, which forced us to keep a couple of cards out of the comparison, mainly the Radeon 9800 Pro and the Radeon 9600XT. Thankfully from a performance perspective, the Radeon 9800 Pro behaves very similarly to the X700 Pro (a big [typo lijkt me, moet waarschijnlijk 'bit' zijn] slower, but nothing huge), so you will at least have a reference point if you are a current 9800 Pro owner.
Ik had ook graag de prestaties van een 9700pro gezien, maar een 9800pro zou voldoende zijn (de prestaties van een 9700pro liggen gemiddeld ~10% onder die van een 9800pro).
schokken tijdens het draaien van de camera ligt zowat altijd aan geheugen, verder lijken de de prestaties mij zoals verwacht.

FX doet het een keer niet slecht, dit is zeker geen DX9 engine? Aan de andere kant doet de nv40 het weer zo goed dat je zou verwachten dat PSM3 gebruikt wordt...

CPU prestaties vind ik grappig om te zien, de AXP doet het niet eens slecht, dat betekent dat latency er blijkbaar niet zo toe doet, dat houd in dat de A64 op pure rekenkracht winnen van de P4.
Als MMorpg addict vertoef ik regelmnatig in WOW land, en qua geheugen is een gieg toch wel het minimum om een heleboel grafische lag te voorkomen (low fps in MMORPG land)

OOC- meer dan 1 gieg geheugen levert helaas weinig perforamce op.

Maar bij deze spelen is de performace erg afhankelijk van de situatie waarin je je bevind.....In een rustig gebied op 1600x1200 met max settings haal ik 60-70 fps in de grote stad waar meer spelers zijn 40-50 fps.

Maar als er 2 grote legers van enkele 10 tallen tot honderden spelers elkaar treffen dan zakt mijn fps even weg naar 6-7 fps, totdat alle nieuwe textures van de HD gehaald zijn (ook met 2 gieg geheugen) om vervolgens weer lekker door te snorren op 20-30 fps

Aangezien elke speler andere textures heeft (iedereen wil er uniek en anders uitzien) is het voor programeurs geen doen om vooraf te bepalen welke textures allemaal benodigd zijn als er plotseling een hele boel nieuwe spelers jou camera gebiedje betreden.
Aangezien het spel ook onder Mac osX draait denk ik dat er uberhaupt geen directX aan te pas komt maar openGL.
Het draait standaard DirectX, maar het kan OOK OpenGL.
De Athlon XP doet het niet slecht :??
Aangezien de Pentium 4 520 op 2.8 GHz loopt en waarschijnlijk trager is dan de Pentium 4 C 2.8 GHz, vind ik de score van de Athlon XP niet echt goed. Dit ligt waarschijnlijk aan de hogere bandbreedte die de Pentium 4 en Athlon64 ter beschikking hebben.
Aangezien WoW ook op de mac kan draaien als ik mij niet vergis, zou het toch ooit wel eens handig zijn om een prestatievergelijking van een mac (G5 bvb) erin mee te rekenen, zeker nu apple stilletjesaan terug marktaandeel begint te herroveren...
Lezen:

Unfortunately, Mac WoW performance is nothing to write home about. Performance on a dual G5 2.5GHz with an ATI Radeon X800 XT Mac Edition is less than half of the performance of a single Athlon 64 4000+ and a Radeon X800 XT.

En nog wat meer over Mac WoW op dezelfde 'final words' pagina
Da's best droevig voor een mac. Daarmee wordt nog eens duidelijk dat windows het beste game platform is.
Óf dat de G5 niet zo'n krachtige processor is als Apple ons wil laten geloven.

Óf dat de Mac versie van WoW gewoon droeving geprogrammeerd is.
enigzins offtopic misschien, maar die nieuwe processor nummering van Intel is echt ontzettend irritant, daar kun je zo op het eerste gezicht nu werkelijk niets aan afleiden.
ik ben er ook steeds mee in de war.

weet nu dat de 530 3,0GHz is dus dan he ik een mooi uitgangs punt 10 er bij is 200MHz erbij
(540 = 3,2GHz)
en dit geld ook voor de neiuwe 600 serie de
(630 = 3,0GHz)
(640 = 3,2GHz)

sla deze op in je favorieten zodat je het nog eens na kan kijken :)
http://www.intel.com/products/processor_number/info.htm
dus een cpu uit de 6-serie op 4,4 Ghz wordt ..uh...een 700? |:(
Als ik mij niet vergis is de Intel 7xx bestemd voor de Pentium M.

Ook is het eerste getal van de Intelnummering de processorfamilie en heeft deze NIETS te maken met de snelheid. Het 2e getal geeft het type aan en is naar mijn weten ook waar de snelheid in verwerkt zit.
@[KoF] Phoenix:
dat begrijp ik wel, mijn punt is dat t systeem de mist in gaat bij een proc op 4,4 Ghz...dat is nu nog niet aan de orde, maar over een klein jaar of zo krijgen we dus weer een ander nummersysteem van intel (in het voorbeeld hieboven een 6-100 ofzo).
Ze hadden toch wel iets kunnen verzinnen dat langer als 1,5 jaar meegaat, straks krijgen we weer hele thread's over de conversie van het huidige naar t volgende systeem...lekker vooruitziend
Bwa, toch een beetje: de laatste 2 cijfers geven (ruwweg) de CPU-klok weer, het eerste cijfer het soort processor, de generatie, zeg maar (dat kan gaan om meer cache, een hogere FSB, dual core of niet,...).
Dan blijkt uit het grafiekje hoger dat een hogere CPU-klok belangrijker lijkt te zijn dan verbeteringen "elders", iets wat bij de meeste games naar voor komt...
Dit is nu precies wat intell hiermee wil bereiken. Feitelijk is het ook niets anders dan wat AMD al jaren doet... een 3800+ of een 4000+ zegt feitelijk ook niets dus of je nou een 560, 570 etc van intell koopt is niet anders.

Voor beide fabrikanten geld... hoe hoger het type nummer , hoe nieuwer/sneller het product. Erg duidelijk dus op termijn.

Ik hoef jou ook niet te vertellen dat een BMW 318 de minder wagen is als ik er een 320 naast zou zetten
Ok, maar bij AMD is in elk geval duidelijk welke processor sneller is:

3500+ < 3800+ < 4000+

Maar dat geldt niet voor Intel
Dit klopt volgens mij niet:
540 < 550 < 560 < 640 < 650 < 660 ?
Dit klopt volgens mij niet:
540 < 550 < 560 < 640 < 650 < 660 ?
Toegegeven, het is niet gesorteerd op prestatie, maar dat is de bedoeling ook niet. De nummers geven de aanwezige technologiëen en de generatie aan.

De verschillen kunnen komen doordat 64-bit niet zo heel voordelig is bij Intel, ze presteren er vaak slechter door.
Niet waar. Dat is alsof BMW zijn 320D als een 320 zou verkopen en daarmee de indruk wekken dat de 2 liter-inhoud van hetzelfde kaliber is als de 318.

Je 318i trekt de 320D er wel uit.
320D: acceleratie 0-100 km/h 8,9 s
318i: acceleratie 0-100 km/h 8,3 s

Ben je knap als jij sneller bent in je 320D :+

Koppel is niet alles... De waardes hierboven wel ;)
niet als ik achter het stuur zit van die 320d
Als je dan een vergelijking maakt doe dan de juiste, deze slaat er niet op.
Die 320d heeft zo'n beestachtig koppel dat ik zonder veel toeren te maken rondjes om je rij terwijl jij nog weg aan het komen bent.
wat ook op het eerste gezicht vreemd is: het verschil van fps tussen de 3200 en 3500. Vooral als je het verschil checkt tussen de 3500 en 3800 en hoger

Pff ik las niet goed, onderste is 3200 32bit.
Maar toch bij de 64 bits, is het verschil iets meer tussen de 3200 en 3500 dan tussen 3500 en 3800 of 3800 en 4000
Die XP 3200+ klopt misschien niet, maar leg het eens uit bij de Athlon 64 processors.
Zie je een AMD 64 3200+, denk je dat ie vergelijkbaar is met op zijn minst een 3GHz Intel. Kom je er mee thuis, blijkt ie net bij de programma's die jij gebruikt eerder te vergelijken zijn met een 1.5GHz Intel processor.
Je hebt er duidelijk echt geen verstand met je dure woorden! :D Ik moet de eerste benchmark nog tegenkomen waarin een 1.5GHz pentium 4 er een Athlon3200+ eruit trekt. :+
Je insinueert dat een 3000+ te vergelijken valt met een 1.5GHz P4. Óf je bent een troll, of je hebt er de ballen verstand van. In beide gevallen raadt ik je aan geen desinformatie te verspreiden...
AMD insinueert dat een 3200+ op dezelfde snelheid werkt als een Intel 3.2GHz, moeten ze ook maar eens mee stoppen dan. Ik probeer alleen maar duidelijk te maken dat ik hun type aanduiding slechter vind als die van Intel. Doe verder alsjeblieft niet zo uit de hoogte en hou je beledigingen voor je.
Vergelijkbare kaarten als de GeForce 6800 Ultra en de Radeon X850 XT ????

is de "tegenhanger" van de 6800 ultra, niet de 800XT ?

de 850XT is toch een opvolger ?


PS : ik speel 1280x1024 max details en view distance. AMD XP3200+, 1GB DDR400, 6800GT. geen enkel hapering.
De 6800u stond vroeger tegenover de X800XT PE, de kaart die nooit fatsoenlijk verkrijgbaar is geweest. Logisch dat ze hem niet meenemen in de test. Net zoals de X700XT, ook een paper edition.
Heb net dezelfde config en draai het op net dezelfde settings, en idd, draait vlot (bijna altijd +50, 60), enkel wanneer je soms op de batrider stapt (vanaf undercity naar ergens anders) waar je van een binnenlocatie naar een buitenlocatie gaat, je hdd teveel ineens moet laten en dan dropt men fps naar 10 of zo
kan je een spel als dit wel gebruiken als benchmark??

WoW heeft ook op de stilste servers een omgeving variable...

en zoals Maverick al aangaf kan je miosch concluderen dat de benschmark niet hellemaal betrouwbaar is.
draai het even om, kun je far cry etc wel als goeie test gebruiken?

Spijt me echt, maar fps vergen over het algemeen veel minder van een systeem, dan een mmorpg. Deze stuurt veel meer data nonstop door je pc heen.
In dat geval worden de CPU, geheugen, videokaart en HD toegang allemaal zwaarder benut.
En mensen willen nou graag weten, wat er gebeurt met pcs onder zware testen.
FPS's zijn echt wel zwaar hoor. Zet Doom3 maar eens aan. Of HL2. In Doom 3 wordt De GPU flink belast. De CPU ook, omdat het geluid helemaal softwarematig gerenderd wordt. Het geheugen wordt vooral bij HL2 veel belast, omdat er veeel textures geladen moeten worden.

Maar waar het mr. tall eigenlijk om ging, was dat de tests niet gelijk zijn, en dat er dus niet teveel waarde aan de test toegekend kan worden. Bij FPS's kan je een bepaald traject precies nog een keer doorlopen.
Opvallend is wel dat een 5900 XT sneller is dan een x700 pro en dus ook een 9800pro
Inderdaad. Ik was ook al verrast door dat relatief oude beestje. Naja, heb ik toch goed gegokt :P ('k heb een 5900XT).
En dan te zeggen dat onze ogen slechts 25 a 30 beeldjes per seconde kunnen zien. B-)

Wat een bitneukerij om verschillen te rapporteren tussen 69.5 en 71.8 frames per seconde. :Z

Zoals reeds op vele andere plaatsen gemeld is: vooral RAM is belangrijk bij WoW.

Maar 't geeft een goed idee hoe de CPU's en grafische kaarten zich tenopzichte van elkaar verhouden.
Het is niet omdat je ogen maar zoveel beelden per seconde zien dat dat genoeg is om een spel er vlot te laten uit zien.

Verschillen tussen de 60 - 80 ga ja natuurlijk nauwelijk zien, maar tussen de 20 - 50 zie je wel degelijk een groot verschil.

Het punt is dat als je een hoge framerate hebt tijdens gewone gameplay, en er gebeurt iets op je scherm wat voor je GPU heel intensief is, dat je dan minder, of minder ergelijke framedrops hebt.

Stel je speelt met 30 fps en je hebt een framedrop van 20 fps, dan is het spel bijna niet meer speelbaar. Speel je met 60 fps en je hebt 20 fps framedrop, dan merk je daar veel minder van, en zo is het dus aangenamer spelen :)
Stel je speelt met 30 fps en je hebt een framedrop van 20 fps, dan is het spel bijna niet meer speelbaar. Speel je met 60 fps en je hebt 20 fps framedrop, dan merk je daar veel minder van, en zo is het dus aangenamer spelen
Eigenlijk is het andersom. Zolang het verschil in tijd tussen 2 frames klein is merk je er niet veel van. Het probleem zit 'm in het feit dat er gebruik wordt gemaakt van de tijd tussen het begin van de huidige frame en het begin van het vorige, terwijl je eigenlijk wilt weten hoe lang de huidige frame, die nog niet geprocessed is, erover gaat doen, zodat de bewegingen synchroon lopen met de werkelijkheid. Bij een framerate drop van 60 naar 20 wordt aan het begin van de frame die uiteindelijk 50ms (1/20e seconde) gaat duren nog de assumptie gemaakt dat hij 16.7 ms gaat duren, en wordt een auto bijvoorbeeld dan ook snelheid * 0.0167 vooruit bewogen. Uiteindelijk blijkt de frame niet 16.7ms maar 50ms te duren, en heb je dus een discrepantie van 33.3ms. Door deze grote verschillen in de framerate speelt een spel heel erg onplezierig, vandaar dat er voor de consoles vaak wordt gekozen voor een target framerate van 30 ipv 60, omdat een constante 30 veel makkelijker te halen is dan een constante 60, en uiteindelijk maakt het niet zoveel verschil kwa ervaring (omdat de responsetijd sneller is op een console, zie ook de post van mij een paar posts naar beneden).
Er komt heus véél meer bij kijken dan enkel die zogezegde 24fps voor je ogen.

Cf. http://www.100fps.com/how_many_frames_can_humans_see.htm
Daarnaast heb je op de PC ook nog zoiets als framelag. Er wordt tegenwoordig iets van 3 tot 5 frames vooruit gerenderd. Als jij dus net een nieuw beeldje op je scherm te zien krijgt, en je beweegt exact op dat moment je muis om de camera te draaien, dan zie je het resultaat daarvan niet in de volgende frame, of soms zelfs de volgende 3 frames. Een lage framerate speelt dan heel erg stroperig.

De huidige consoles hebben hier veel minder last van, omdat ze door veel minder HAL en kernel lagen heen moeten en er dus directer op de hardware gewerkt wordt. Dit zal in de toekomst overigens ook wel weer veranderen, op de Xenon (xbox 2) wordt ook behoorlijk wat vooruit gerenderd, voornamelijk omdat je effectief met 6 CPU's werkt waarover je de taken verdeelt (hoeft uiteraard niet, maar dat is wel de meest efficiente aanpak).
Er moet toch iemand winnen, nietwaar? Je kan moeilijk alle kaarten die 25+ fps scoren op de eerste plaats zetten. Het artikel is immers een prestatievergelijking.
Ik draai 1600x1200 (full detail, zonder anisotrophic filtering) op een P4 2.6GHz en een GeForce4 Ti 4200. Framerate is kwa spelen meer dan acceptabel, maar dat is uiteraard subjectief.
Behalve een snelle processor en videokaart is intern geheugen ook belangrijk. 512Mb is echt veel te weinig en ik heb dus geupgrade naar 1Gb.

Verder wordt het kwa performance volgens mij pas interessant als het wel druk word. Ik heb tussen raids gestaan waar op een gegeven moment 100 of meer characters bij betrokken waren. Dat drukt pas echt op de performance. En misschien dat bepaalde videokaarten dan pas echt het achterste van hun tong laten zien.
13 ¤ is veel, maar voor een deftige 3d kaart kan je wel 'n paar jaartjes spelen hoor...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True