Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties, 19.634 views •
Bron: BodNara, submitter: FFWD

Net na de eerste reviews van de nVidia GeForce 6600 GT, kan er een glimp op de prestaties van de verwachte grote concurrent geworpen worden. De Zuid-Koreaanse site BodNara heeft namelijk de hand kunnen leggen op een ATi Radeon X700 Pro-videokaart en heeft deze kaart meteen aan een aantal benchmarks onderworpen. In hoeverre deze resultaten betrouwbaar zijn, kunnen we natuurlijk pas zeggen wanneer er ook vanuit andere hoeken en gaten reviews op het web verschijnen.

De testen zijn uitgevoerd in een head-to-head met de nVidia GeForce 6600-serie. Verder zijn de volgende benchmarks gebruikt: 3DMark03, 3DMark2001SE, Quake III, UT2003, Aquamark, Doom III en GunMetal. Als testdrivers is voor de nVidia-kaarten ForceWare v61.76 gebruikt en voor de X700-kaart Catalyst v4.8. Wat betreft de specificaties van de ATi Radeon X700, de core draait op een snelheid van 425MHz, terwijl het geheugen op 860MHz zijn werk doet. Alle kaarten hebben trouwens native PCI Express 16x-ondersteuning. Er is verder niet aangegeven welke testmachine is gebruikt. Wat we wel kunnen melden is dat er een Pentium 4-processor plus dito moederbord is gebruikt, aangezien dit platform nog de enige is met PCIe-ondersteuning.

3DMark03 1600x1200 4xAA 8xAF
ATi Radeon X700 Pro 1850
nVidia GeForce 6600 GT 1958
nVidia GeForce 6600 1160
3DMark03 1024x768
ATi Radeon X700 Pro 6915
nVidia GeForce 6600 GT 7930
nVidia GeForce 6600 4641
3DMark01 SE 1600x1200 4xAA 8xAF
ATi Radeon X700 Pro 6823
nVidia GeForce 6600 GT 6188
nVidia GeForce 6600 3916
3DMark01SE 1024x768
ATi Radeon X700 Pro 17554
nVidia GeForce 6600 GT 16884
nVidia GeForce 6600 13269
Scores zijn in punten, hoe hoger des te beter

Wanneer we naar de resultaten van de twee 3DMark-testen kijken, zien we bij de ATi X700 in de nieuwste benchmark vooralsnog een perfomanceverschil ten opzichte van de GeForce 6600 GT. Dat verschil wordt wel een stuk kleiner naarmate er meer van de kaart gevraagd wordt, door bijvoorbeeld een hogere resolutie en meer eye-candy. Dat laatste lijkt trouwens niet altijd het geval te zijn. Zo zijn er twee benchmarks in Unreal Tournament 2003 gedraaid op een resolutie van 1600x1200 en met 4xAA en 8xAF. Deze laten twee verschillende resultaten zien.

UT2003 1600x1200 4xAA 8xAF (botmatch)
ATi Radeon X700 Pro 60,27
nVidia GeForce 6600 GT 47,94
nVidia GeForce 6600 30,06
UT2003 1600x1200 4xAA 8xAF (flyby)
ATi Radeon X700 Pro 77,84
nVidia GeForce 6600 GT 88,35
nVidia GeForce 6600 39,65
De waarden zijn hier het aantal frames per seconde, ook hier geldt hoe meer des te beter de prestatie

nVidia blijkt wel nog steeds over de betere OpenGL-implementatie te beschikken, gezien de uitslagen van de Quake III- en Doom III-benchmarks.

Quake III 1600x1200 4xAA 8xAF
ATi Radeon X700 Pro 104,9
nVidia GeForce 6600 GT 136,1
nVidia GeForce 6600 68
Doom III 640x480 Low
ATi Radeon X700 Pro 72,8
nVidia GeForce 6600 GT 80,9
nVidia GeForce 6600 78,5
Doom III 1024x768 High 4xAA 8xAF
ATi Radeon X700 Pro 18,3
nVidia GeForce 6600 GT 38,6
nVidia GeForce 6600 21,1
Hier geldt hetzelfde met betrekking tot de score als bij de UT2003-grafieken

Met deze resultaten op het netvlies lijkt het erop dat nVidia een iets betere mainstreamkaart op de markt heeft gezet dan ATi. Weliswaar is deze test slechts een indicatie, aangezien niet duidelijk is op welk niveau de ATi Radeon X700 presteert, wanneer er meer van de kaart gevraagd wordt. Vandaar dat het wachten is totdat de videokaart echt aan de buitenwereld getoond wordt. Als de bronnen gelijk hebben zal dit precies over een week zijn.

Reacties (70)

Reactiefilter:-170068+150+216+32
Moderatie-faq Wijzig weergave
leuk doom testen met een radeon kaart tewijl de code voor nvidia kaarten is geschreven..
wil wel een farcry of hl2 test eens zien.. dan draait die X700 vast beter
Tjah maar dat kan je allemaal wel niet eerlijk vinden, maar ik vind het toch best klote dat de nieuwe D3 engine die we binnenkort gaan zien in veel meer games zo slecht presteerd op de ATi kaarten. Buitengewoon slecht zelfs. Dan vind ik die extra OpenGL power die nVidia al jaren bezit toch wat leuker eigenlijk.
Ik vind toch de nVidia in dit geval een betere all-rounder hebben. Meestal zijn ze ook nog eens zwaar over te clocken en hebben ze geen pipelines uitgeschakeld waardoor ze vrijwel hetzelfde schalen als hun grotere broertjes.

btw, toch wel weer erg lage scores hoor bij die laatste Doom3 bench op 1024x768 4xAA 8xAF
Beetje vreemd, te bedenken dat ik Doom3 hier gewoon speel op een Duron 1000 en Radeon 9700 op high in 1024x768 4x AA en 8x AF :?

Nog geen benchmark met D3 gedraait, maar lijkt er toch op dat mijn gemiddelde FPS ergens rond de 10 moet zitten :D
Apart hoe dat spel zo speelbaar lijkt te zijn met extreem lage framerates. in de tijd van Quake2 vond ik 60fps al te laag
Hoe run jij Doom 3 op een Duron van 1GHz :?

De game wil dan eenvoudigweg niet opstarten, omdat de minimale kloksnelheid 1,5GHz (of een 1500+ PR) is :z

Verder gebruiken weinig games de Doom 3 engine.
Apart hoe dat spel zo speelbaar lijkt te zijn met extreem lage framerates. in de tijd van Quake2 vond ik 60fps al te laag
Ook zeer knap, aangezien het menselijk oog boven de 40 beelden per seconde geen verschil meer kan waarnemen :Z
edit:
Voor bewijs en toelichting over frames per seconde en refreshrates, een aantal posts hieronder heb ik het nog eens uitgelegd voor de mensen die het niet meer helemaal weten :)
Ook zeer knap, aangezien het menselijk oog boven de 40 beelden per seconde geen verschil meer kan waarnemen
Ja, dat is dan wel zo, maar als je kaart gemiddeld 40fps trekt, en je komt in een battle terecht in een grote ruimte, met veel tegenstanders waarbij iedereen met rocketlaunchers en plasmaguns loopt te schieten, dan valt je fps terug naar 10 ofzo. Iets dat je juist DAN niet wil.

Doom 3 draait om de singleplayer, en daarbij kom je niet al te veel tegenstanders tegelijk tegen in niet al grote ruimtes. Dan is een gemiddelde van 40 fps wel wat acceptabeler.
De game wil dan eenvoudigweg niet opstarten, omdat de minimale kloksnelheid 1,5GHz (of een 1500+ PR) is
Klets.. Doom start gewoon,al is ie ietswat processor limited :)
Verder gebruiken weinig games de Doom 3 engine.
Goh vreemd he, hij's net een maand beschikbaar :?

Net zoals tientallen spellen de Quake 1/2/3 engines hebben gelicensed is dat ook hier gebeurd, maar die licensed spellen mogen contractueel niet voor Doom3 uitgebracht worden ivm concurrentie, en het zou logischerwijs ook niet of nauwelijks kunnen gezien het feit dat de engine tot de laatste dag is getweaked.
Ook zeer knap, aangezien het menselijk oog boven de 40 beelden per seconde geen verschil meer kan waarnemen
Bull. Zet maar eens een klassieke CRT op 50Hz naast eentje met 60Hz, moet jij eens zien hoeveel verschil je nog ziet in de flikkering. Menselijke waarneming gaat tot de 60 beelden per seconde.

Daarnaast gaat het er zoals reeds gesteld niet om gemiddeld vermogen maar om piekvermogen. Een engine/kaart combinatie die doorlopend 90 frames rendert heeft meer kans om bij stress boven de 50 te blijven dan eentje die normaliter maar 55 haalt.
Bull. Zet maar eens een klassieke CRT op 50Hz naast eentje met 60Hz, moet jij eens zien hoeveel verschil je nog ziet in de flikkering. Menselijke waarneming gaat tot de 60 beelden per seconde.
ook bull (om even jouw woorden te gebruiken) want het verschil tussen 60 en 70hz kan ik heel makelijk zien. net als tussen 85 en 100 (al word dat dan flink lastig)
Daarnaast gaat het er zoals reeds gesteld niet om gemiddeld vermogen maar om piekvermogen
nogmaals bull. ;) het gaat om stressed vermogen. wat is de minimum framerate die je kan verwachten als hij het zwaar heeft.
de piek kan nog zo hoog zijn, als dat helemaal instort als hij het zwaar heeft zegt dat nog geen ruk. (UT botmatch vs flyby is wel een leuk voorbeeld voor deze stellen. Nvidia's frames zakken als een kaarten huis in elkaar (halvering) ATI gaat maar 15-20% lager.)

verder zie ik nog niet zo veel spellen de doom3 engine gebruiken omdat die engine vrij specifiek is geschreven voor binnen en donker.
ook moet je de hoeveelheid "personen" (en ik gebruik die term heel loss hier ;) op het scherm beperkt zien te houden.
al met al zijn er denk ik maar weinig games die genoegen nemen met deze beperkingen.
en als ze het wel doen, dan zal mijn oude 9700pro het spel waarschijnlijk prima draaien net als doom3 er prima op liep.
Quake 4 komt uit op deze engine en die zal weinig kleine hokjes hebben en het donkere zal vast ook weg zijn.
"Hoe run jij Doom 3 op een Duron van 1GHz
De game wil dan eenvoudigweg niet opstarten, omdat de minimale kloksnelheid 1,5GHz is"

ARGG, wat een irritante opmerking zeg... ik zeg zelf dat ik doom op een Duron 1000 speel en jij gelooft het gewoon niet. Vind ik jou even stupid :)

Ik had geen andere keus, me Athlon 2500+ is doorgefikt, en ik kan het anders prima spelen.
Alsof een spel niet zou opstarten omdat je 'maar' een GHz proc hebt... wat een bullshit.

Ga jij eens Quake2 spelen en zet max fps eens op 40, en daarna op 50 en dan 60, je blijft verschil zien. 40 is never de max van een menselijk oog, dat ligt eerder rond de 75Hz. Jij verwart het waarschijnlijk met beeldopname. Videobeeld is namelijk in motion (het blurt als het snel beweegt), dit simuleert wat je ogen doen. Dan is 30/25fps genoeg. Een spel die uit losse 'scherpe' afbeeldingen bestaat simuleert geen motion. Om dat op te lossen moet je boven de 60fps zitten zodat je ogen het niet meer kunnen volgen. Zo wordt het beeld namelijk ook blurry als je heel snel heen en weer kijkt, net als in het echt. Een spel komt dus het beste over als de framerate hoger is dan wat een menselijk oog kan waarnemen, anders zal je steeds statische afbeeldingen zien (soort van snelle dia show) en das onwerkelijk.

@Countess

Als ik het goed begrepen heb zit er in de Doom3 engine genoeg materiaal om landschappen te maken. Voertuigen zitten er ook gewoon in. De Doom3 engine kan meer dan genoeg, het spel Doom3 wat iD Software wilde laten zien heeft alleen geen baat bij deze functies. Jammer dat iedereen bij de Doom3 engine gelijk denkt dat we daar alleen spellen in donkere gangen mee kunnen verwachten. Welnee, Doom3 is wat iD Software met de engine heeft gemaakt, vrijwel alles is mogelijk. Maarja, je moet natuurlijk wel de performance is bedwang houden. Quake3 en Medal of Honor is toch ook niet hetzelfde spel?
Wat een bullshit over wat je wel en niet zou kunnen zien...

Je ogen hebben een detectie limiet tussen de 50 en 70Hz. (Afhankelijk van kleur en positie)
Je hersenen echter, interpoleren deze data, en zullen afbeeldingen die op 24Hz binnen komen als 'vloeiend' interpreteren.
Je kunt dus wel hoger waarnemen, (Nuttig voor het op tijd opmerken van tegenstanders), maar het is niet noodzakelijk voor het verkrijgen van een vloeiend ogend beeld.
het gaat om stressed vermogen. wat is de minimum framerate die je kan verwachten als hij het zwaar heeft.
Ik bedoelde met piekvermogen dan ook 'het vermogen bij een piek in activiteit', pardon ;)
@ Het piek/mediaan/stress vermogen verhaal:
Inderdaad, 40 fps gemiddeld kan best eens te weinig zijn als er opeens 100 mannetjes je beeld in denderen. In de post waar ik op reageerde werd echter gezegd dat de poster '60 fps al te laag vond'.
Op deze manier geformuleerd wordt geimpliceerd dat het om stressvermogen gaat.

@ Curry, Countess, Brutalyst, en de rest die over refreshrate zeurt:

Refreshrate heeft geen moer met je framerate te maken als je het hebt over wel / niet kunnen onderscheiden.
Wisten jullie dat films op 24 fps lopen? Ooit tijdens het kijken van een DVD gedacht 'goh, dat loopt niet smooth'? Toch zie je wel verschil als je naar die film op een 50Hz of op een 100Hz TV kijkt.

Ook is het niet verwonderlijk dat je het verschil tussen 50Hz en 70Hz, 60Hz en 100Hz kunt zien: Een refreshrate van 100Hz is effectief 50 fps. Dat feit ondermijnt eigenlijk al jullie posts in n klap, aangezien jullie allemaal vrijwel als enige argument aandragen dat jullie het verschil tussen 50 en 100Hz kunnen zien :z

Kijk anders eens op de volgende sites:

100fps.com
30 vs. 60 fps
Human Eye Frames per Second
Volgens dit artikel http://www.tweakers.net/nieuws/34168 laat de 6600 in halflife de x600 ruime achter zich, hier de test http://graphics.tomshardware.com/graphic/20040907/geforce_6600-10.html .
De x700 zal beter presteren dan de x600 maar goed genoeg om met eer de kroon te pakken??
Ik denk niet dat het zoveel zal verschillen als ik naar 3dmark kijk, verschillen zijn niet veel, en in FPS zal het hooguit 2 frames per seconde schelen.
<zucht>

De juiste link van de test die Iblies probeert te geven:
http://www.xbitlabs.com/articles/video/display/geforce6600g-games_25.h tml

Komaaaaan, hoe vergist ge u daarin :)

BadLinkAreNoGood™


AndReallyAnnoyingToo™
Doom 3 is niet voor nvidia geschreven he, ze hebben gewoon (al jaren) een betere opengl support
nee het is nog ergen
de nieuwe Nvidia is voor doom3 gemaakt
dat hun opengl beter is is al bekent maar dat scheeld niet zo veel
nee het is Nvidias 0x32 pipelines die het verschil maken
ATI moet het met 1x16 doen, net als nvidia trouwens in elk ander spel en zelfs de helf van de tijd in doom3.

vrij duur, 33% extra transistors om in 1 spel de helf van de tijd het doen lijken of je 2 keer zoveel pipelines hebt als normaal.
Waarom wordt UT en Doom gebruiikt als test ? Dit zijn beide NVidia games. Ofterwijl, een benchmark die niks zegt.
Dat kan wel zo zijn, ik zie eigenlijk nooit ATi extreem veel beter presteren dan een nVidia in een ATi based game.
nVidia heeft de laatste jaren veel te zeggen gehad. Veel games draaien goed op een nVidia met de juiste weergave zoals de maker dat bedoelt heeft.
Ik vind zo'n test als deze dus helemaal niet nutteloos of niets zeggen. Deze benches laten mij zien dat ik GEEN ATi kaart moet aanschaffen, dat vind ik nogal wat hoor.
Ook helemaal niet erg ofzo, want mijn ATi r9700 deed het altijd prima, is het beste dat ATi ooit gemaakt heeft, maar deze keer gaan we weer voor een nVidia... volgende keer misschien weer een ATi. Hangt er van af wat ze mij te bieden hebben.
Ik blijf toch niet stug bij de zelfde fabrikant aanpappen omdat dat stoerder is ofzo?
Soms begrijp ik de reacties niet helemaal, alsof het werkelijk om een battle gaat tussen 2 partijen... man daar staan wij gewoon los van hoor, koop gewoon de beste koop :)
Neu... ATI presteert beter in NVidia games zoals Farcry. ;)

Even serieus: Er zitten in deze generatie relatief weinig verschillen in prestaties bij spellen. Bij de topmodellen is NVidia ietsje sneller zonder eye-candy, terwijl ATI sneller is met AA en AF. Overall zijn de high-end kaarten redelijk gelijk. De shaders zware DX9 spellen lijken wel wat meer ATI minded...

Alleen D3 is de vreemde eend, waarbij de relatieve prestaties volkomen anders zijn dan bij ieder ander spel op de wereld. Carmack heeft al aangegeven dat het bij D3 gebaseerde spellen vermoedelijk totaal anders uitpakt. Geen goede benchmark dus, aangezien het alleen maar iets over D3 zegt, maar niets over de vermoedelijke prestaties bij enig ander spel. (En D3 speel je niet lang genoeg om je videokaart keuze op te baseren...)

Wat betreft de overige overwegingen: NVidia heeft de laatste jaren juist geen donder te zeggen gehad. Game developers gingen met de Radeon 9700 hun spellen ontwikkelen omdat er simpelweg geen DX9 kaart van NVidia was op dat moment. En developers waren ook niet bepaald gecharmeerd van proprietaire NVidia standaarden, en hebben massaal voor DX9 en HLSL gekozen. NVidia stond juist aardig in de kou de laatste twee jaar, en heeft behoorlijk bakzeil moeten halen.

De gouden standaard was de afgelopen twee jaar de ATI R300. En dat zal je de eerst komende jaren blijven merken bij de spellen waarvan de ontwikkeling in the R300 dagen gestart is. (Farcry is daar een voorbeeld van)


Of de X700 of the 6600GT de beste koop is? Uit deze selectie van benchmarks zou iemand die langer kijkt dan zijn neus lang is, volgens mij afleiden dat de kaarten aardig gelijkwaardig presteren....
Ahum Kuch...

Wanneer heb jij voor het laatst een quality benchmark bekeken :? Daar zul je zien dat NVidia textures van veel mindere kwaliteit zijn. Dat is niet mijn mening, dat is een hard feit. Tomshardware, Guru3D, Anadtech: Allemaal komen ze tot die conclusie.

Of ga je me vertellen dat Futuremark de bedoeling had dat de draak in gametest 2 niet gerenderd werd :?

Schiet me nu toch ineens de kaart te binnen waar Half Life 2 op draaide de afgelopen E3's.... Juist, ATi kaarten.
wil UT toch niet direct bestempelen als een Nvdia game
ok je krijgt dat "way its ment to be played" maar in elke non-flyby (botmatch, on-line, timedemo ect) test ligt ATI toch duidelijk voorop, in elke generatie since de 9700pro
brutalist... imo is het net nvidia die het in spellen niet liet zien hoe het bedoelt was...

en ati based games? welke dan? HL is nog niet uit hoor.

't is zelfs zo dat een van die nVidia Tech demo's (met dat elfje dat op een tak aan het dansen is in een bos) beter draait op een Ati kaart mt een wrapper (dus een soort van emulatie, wat op zich al vertragend is) dan op een een nvidia kaart...

we zullen wel zien wanneer meerdere sites benches gaan draaien... want op 1 dag is rome (en een duidelijke beoordeling) niet gebouwd.
Wat is het Ati fanboy gehalte hier hoog zeg.
De X700 serie verliest gewoon van de 6600 serie punt uit.

Doom 3 is nergens voor geoptimaliseerd, want het loopt gewoon op de ARB2 extenties.
Op nVidia hardware is Doom 3 zelfs zwaarder, want dan draaien NV4x kaarten namelijk FP32 in plaats van de FP24 die Ati doet.
nVidia hebben hun kaarten naar de specs van de Doom 3 gebouwd.
Half Life 2 is daarintegen wel keihard voor de Ati kaarten geoptimaliseerd, want Vampire: The Masquerade - Bloodlines loopt ook op de source engine en dan is nVidia ineens weer een stuk sneller.
Ati verliest deze ronde gewoon zowel op mid-end (X600/700 vs 6600) als op high-end (X800 vs 6800).
Get over it!
Ati zal de volgende keer weer sneller zijn.
Je bedoeld natuurlijk te zeggen dat ATI D3 zwaarder draait dan NVidia, aangezien vrijwel alles in D3 partial precision vraagt. Je kunt de shaders er gewoon op nakijken...
M.a.w. de NVidia's staan op FP16 te renderen, terwijl de ATI's FP24 rendereren.

Niet dat dat nou erg relevant is, maar zorg in ieder geval dat je je feiten in orde hebt....

Verder heeft John Carmack impliciet aangegeven dat de NVidia weliswaar de ARB2 voorgeschoteld krijgen, maar dat dat NIET is wat er uitgevoerd wordt door de driver. Anders gezegd, de specifieke NVidia optimalisaties die nodig waren om D3 behoorlijk te laten draaien, zijn verplaats naar de driver. Tevens zat daarbij de waarschuwing dat andere spellen die van de D3 engine gebruik gaan maken daardoor veel lagere prestaties zouden kunnen gaan neerzetten voor de NVidia kaarten.

De hoge NVidia prestaties bij D3 zijn een anomalie. Daardoor nogal zot om D3 uberhaupt als benchmark te gebruiken.
Anders gezegd, de specifieke NVidia optimalisaties die nodig waren om D3 behoorlijk te laten draaien, zijn verplaats naar de driver.
Dit is natuurlijk waanzin. Nvidia draait Doom3 als beste, niet omdat Ati het niet kan, maar idd omdat Doom3 grotendeels voor Nvidia is geoptimaliseerd, net als Half Life 2 voor Ati is geoptimaliseerd. Nu kom jij aan met "die nodig waren om D3 behoorlijk te laten draaien". Hallo, we leven niet meer in het Nvidia 5x00 tijdperk, daar was het zo dat Nvidia-based kaarten vaak FP16 of zelfs FP12 renderden en dat een game echt flinke optimalisaties nodig had om het ook maar een beetje te laten draaien op een Nvidia. En aangezien de engine van Doom3 waarschijnlijk nog bij veel spellen gaat gebruikt worden heeft Nvidia hier dus wel degelijk een voordeel van.

En waarom denk je dat John dat allemaal verteld. Zijn 'meesterwerk' de Doom3 engine moet nog volop verkocht worden. Het is tenminste de bedoeling dat andere games ook van de engine gebruik gaan maken. Als hij nu laat merken dat Nvidia nogal in het voordeel daarvan is, is dat een nog veel groter nadeel voor Ati users, en dus zal game producer dus eerder voor een 'universele'-engine kiezen die niet is geoptimaliseerd voor een speciale kaart, en dat zou verlies beteken voor Carmack en de zijne...
Als reactie op Buck Naked:
1. het is toevallig zo dat X800 (en waarschijnlijk ook X700) kaarten wl in FP32 kunnen renderen, en dan nog: Doom 3 gebruikt het nauwelijks
2. Half-Life is helemaal niet zo zwaar voor ATi geoptimaliseerd zoals je zou denken; kijk de stress tests maar eens goed door (leuk weetje trouwens: in Half-Life wordt ook een Pixel Shader 3.0 functie ingebouwd)
3. ATi Fanboy of nVidiot gehalte heeft hier weinig mee te maken, als ik de reacties zo bekijk lijkt het erop dat iedereen naar de algemene prestaties kijkt, terwijl je eigenlijk moet kijken naar hoe de kaarten in jouw favo spellen presteren
4. de X700XT is nog niet eens getest (REMEMBER XT!!?), de standaard 6600 en SLI evenmin, zolang dit niet het geval is kun je ook niet zeggen wie "de winnaar" is (de prijzen staan nota bene nog niet eens in de pricewatch), je kunt momenteel namelijk nog niets maar dan ook helemaal niets onderbouwen...

KORT:
het ligt er maar helemaal aan wat voor dingen je precies met je grafische kaart gaat doen, zo zijn er veel Doom 3 freaks (6600 GT), maar hetzelfde geldt voor UT2k3/UT2k4 (X700 Pro), het enige wat je uit dit artikel dus kunt concluderen is dat je steeds meer moet gaan kijken naar welke kaart voor jouw het beste draait (ik bedoel wat heb je aan supersnel Doom 3 kunnen spelen als je er toch niet naar omkijkt - totdat er games op de engine uitkomen ben je al weer een hele tijd verder)
De X700 zit echt tussen de 6600 en 6600 GT in. Kvind het wel slecht van ATI dat ze niet zien dat de 6600 serie zo goed, is dat ze de X600 serie hebben laten floppen okeey maar had wel verw8t dat de X700 serie de 6600 GT kon bijhouden maar dat is niet echt het geval.

De X300 wil ik dan helemaal niet zien want dat zal wel een gigantiese terleurstelling zijn.
Wat is het Ati fanboy gehalte hier hoog zeg.
Mischien dat die 'gelokt woden door de 'x700''
Ati verliest deze ronde gewoon zowel op mid-end (X600/700 vs 6600) als op high-end (X800 vs 6800).
Waarom denk je dit eigenlijk?

Mij lijkt dat de x700 nog (lang) niet voldoende getest is om hierover een conclusie te geven.
Bovendien wordt hier de X700Pro getest, terwijl er ook nog een X700XT komt.

Terwijl de X800 het meestal (net) van de 6800 wint.
Wat Buck Naked dus exact zegt:
Wat is het Ati fanboy gehalte hier hoog zeg.
Heeft ie dus idd groot gelijk in. Iedereen zit hier maar te zeuren van "ja...maar....en..." blabla, persoonlijk vindt ik dat echt triest. Nvidia heeft deze ronde gewoon gewonnen ook al draai ik nu zelf Ati. Wat jij zegt over de x800XT dat die wint van de 6800Ultra is echt grote onzin. Ze zijn gewaagd aan mekaar maar over het algemeen wint de 6800Ultra, maar om je tegemoet te komen: in real life zul je het verschil niet merken.
Bovendien wordt hier de X700Pro getest, terwijl er ook nog een X700XT komt.
Ja...maar er komt ook nog een 6600Ultra, das exact hetzelfde als bij de x800 VS 6800 serie:
x800 VS 6800
x800pro VS 6800GT
x800XT VS 6800Ultra
x800XT PE VS 6800Ultra Extreme
Ati verliest deze ronde gewoon zowel op mid-end (X600/700 vs 6600) als op high-end (X800 vs 6800). Waarom denk je dit eigenlijk?
Das toch duidelijk lijkt me. Dat blijkt wel uit de benchmarks, en natuurlijk is de x700 serie nog lang niet goed getest maar zowel de x600 en de x800 serie zijn wel tegen hun Nvidia concurrenten meerdere malen getest en hieruit bleek dat Ati deze ronde (over het algemeen) idd verliest.

Nvidia 'wint' als je over een winnaar kunt spreken want bij beide zijn de verschillen meestal klein. So be it, vorige ronden was Ati de winnaar in de 5x00 VS 9x00 serie, dan moet je nu ook serieus genoeg zijn om toe te geven dat Nvidia wint.
Hmm, niet echt een geweldige kaart dus, ik heb nu een Radeon 9700 Pro en moet zeggen dat ik nog maar weinig kansmakers heb gezien voor een upgrade. Alleen de echt dure kaarten van 400+ hebben prestaties die de moeite waard zijn.

De kaarten in deze benchmark halen in een niet nader genoemd systeem deze prestaties, met mijn systeem haal ik vergelijkbare prestaties wat mij dus wel wat tegen valt. Kaarten die 2 jaar na de 9700 Pro komen hebben zo goed als niks meer aan prestaties.

Leuk dat een kaart in 3D Mark 2001 17000 punten haald alleen doe ik dat nu ook, of 6800 in 2003, ik doe er nu 6000/6100. Niet echt veel verschil dus.

Nee, geen upgrade kaarten voor mensen die het afgelopen 1 a 2 jaar een dure kaart hebben gekocht, voor de mensen met een oudere kaart, GF2/3/4 of Radeon 8000/9000(Pro) wel een verbetering.
ben ik met je eens de verschillen met de nieuwe kaarten worden kleiner...

minder nieuwe features
performace verschil valt tegen

ps ik heb ook een 9700 (non pro @pro snelheid)
Leuk dat een kaart in 3D Mark 2001 17000 punten haald alleen doe ik dat nu ook, of 6800 in 2003, ik doe er nu 6000/6100. Niet echt veel verschil dus.
Steffy, ik haal in 3dmark2003 met mijn x800 pro 10100 punten met de standaard settings... toch wel een serieus verschil lijkt me?

Je mag een oude topkaart niet gaan vergelijken met nieuwe budgetmodellen want die worden toch alleen maar uitgebracht om marketingredenen... een goed voorbeeld daarvan is de FX5200 die +- even traag is als een antieke GF2 GTS of een iets minder antieke GF4 MX.
mijn radeon 9500 non pro 180 euro draait lekker @500 euro radeon 9700 pro :)

da was de beste graka tot hiertoe die ik gekocht heb... en net zoals de twee posters hierboven zie ik momenteel ook geen reden om te upgraden naar een 9800xt of een x800 pro.

Al mijn vorige 3d kaarten gingen hooguit een jaar en half mee... deze heb ik nu toch al bijna 2 jaar, en ik zie mezelf toch nog minstens een half jaar wachten voor ik een graka upgrade doe met dit systeem(koop mezelf dan ineens een ath64 met pci-express mobo)

Hoogstwaarschijnlijk blijf ik weer bij Ati (heb vroeger nvidia gehad), tenzij nvidia dezelfde prestaties neerpoot (midrange cash voor highend prestaties) en minder kost dan ati... ik koop gewoon de beste prestaties voor zo min mogelijk geld... of dat nu ati of nvidia is maakt me niet echt uit eerlijk gezegd, zolang alles goed werkt, dat is het belangrijkste toch?
Met deze resultaten op het netvlies lijkt het erop dat nVidia een iets betere mainstreamkaart op de markt heeft gezet dan ATi.
Beetje raar om dit te stellen aan de hand van zo weinig tests. Dat NVidia in OpenGL beter presteerde was allang bekend, dus dat is niet erg verwonderlijk. Aangezien de meeste games Direct3D zijn hoef je de kaart dan ook niet daarop af te schrijven. Verder zie ik UT2003, waar in benchmark 1 de ATi beter presteert, en in benchmark 2 NVidia.
Ook zijn er 4 3DMark testen, waar NVidia in de helft van de gevallen (de beide 3DMark03 testen) met de hoogste score aan de haal gaat, en ATi in de andere twee.

Hoe je dan toch tot de conclusie kan komen dat NVidia de beter kaart heeft, is me een raadsel. Zeker gezien het feit dat er weinig bechmarks worden gerund waar de X700 z'n grote kracht kan laten zien: AA en AF.
Beetje raar om dit te stellen aan de hand van zo weinig tests. Dat NVidia in OpenGL beter presteerde was allang bekend, dus dat is niet erg verwonderlijk. Aangezien de meeste games Direct3D zijn hoef je de kaart dan ook niet daarop af te schrijven.
Denk er aan dat de games die er nu aankomen uit 3 of 4 engines kunnen kiezen:
1 een eigen engine, niet voor iedereen weg gelegd..
2 UT200X engine, opengl (NV)
3 Doom 3 engine, opengl (NV)
4 Source engine, D3D, KAN heel goed voor ati geoptimaliseerd worden, maar hoeft niet ( Vampire: The Masquerade - Bloodlines) , Volgens Buck Naked iig
Zeker gezien het feit dat er weinig bechmarks worden gerund waar de X700 z'n grote kracht kan laten zien: AA en AF.
Ik tel 6 test met 4x AA en 8x AF van de 9 tests en van die 6 win ATI er 2 dus er zijn zeker wel test met AA en AF geweest maar ATI heeft zijn sterke punten nu dus niet laten zien.
Er zijn veeeeeel meer engines op de markt.

De Farcry engine bijvoorbeeld. Die engine waarmee NOLF2 is gemaakt heeft ook een update gekregen.
Zo zijn er nog tig andere voorbeelden.

Het simpele feit is dat momenteel 90% van de spellen op DirectX draait.
Dit zegt helemaal niks
maar toch bij de x800 verschillen de pro en xt ook niet zoveel van mekaar...

als de 6600gt nice geprijsd word vrees ik dat nvidia deze ronde wint...
Huh? Bij de X800 verschillen de Pro en XT juist heel erg van elkaar!
De enige benchmark die er tussen zit die ik belangrijk vind is UT2003 botmatch(de flyby zegt niks over echte ingame performance). En daar presteerd de X700 juist beter. Quake 3 is zo oud daar kijk ik niet eens meer naar en doom 3 loopt natuurlijk beter op de 6600gt. En 3DMark tenslotte is geen game-bench.
Vind je jouw conclusie wel enigzins objectief ?

Tuurlijk zijn er meer manieren en games om mee te benchen, maar de ATi moet hier gemiddeld genomen, toch echt het onderspit delven ten opzichte van de 6600GT.

Van 3D mark scores lig ik ook niet echt wakker, maar het geeft al wel een leuk indicatie. En zolang de X700 niet op diverse games werkelijke echt sneller is, denk ik dat nVidia de laatste slag op gebied van grafische kaarten gewonnen heeft, daar waar ATi ten tijden van de 9800Pro het beste voor geld te bieden had ( deze kaart is trouwens nog steeds flink 'value for bucks' ).
mensen, jullie (en ook onze makker Jeroen) schijnt het niet helemaal door te dringen dat dit een review is van de X700 Pro, zoals sapphire ook al zo netjes aangaf...

... ga nu ajb geen conclusies zitten trekken als nVidia de 6600 serie en ATi de X700 serie nog niet volledig heeft laten testen, we willen allemaal graag het beste produkt voor een bepaalde prijs kopen en gaan zitten wijzen voordat de hele waarheid bekend is, is gewoon niet zo slim in mijn oculen

> wacht nog een week of 2, dan zit het erin dat er meer reviews van de X700 Pro en XT online zijn, alsmede de 6600 (standaard) en SLI
En zolang de X700 niet op diverse games werkelijke echt sneller is, denk ik dat nVidia de laatste slag op gebied van grafische kaarten gewonnen heeft,
Is 'gewoon' sneller niet voldoende?
Je bent net een politikus die de uitslagen van een statistisch onderzoek beoordeeld.
Waren politici maar zo verstandig

Gasten, hij heeft gewoon gelijk.
Quake3 is oud
3dmark niet interessant
nvidia-kaarten hebben doom3-hardware (wat niet wegneemt dat ze daarom wel gewoon sneller zijn), doom3 = kut (maar er komen wellicht wel goede spelen met de doom3 engine)
en op unreal scoort ati beter.
bijna gelijk spel dus op basis van deze scores (nvidia scoort wel meer beter op doom3 dan ati beter scoort op unreal)
Ik heb nu een 5900 Ultra, vergelijkbaar met een 9700 Pro die ik ook heb gehad.

Toch ga ik eind dit jaar upgraden, want ik moet sowiezo mijn processor en mobo vervangen. Dus dan mijn videokaart ook maar. Bovendien kan ik er dan nog wat voor vangen.

Wel schraal overigens, dat je met een killer systeem met behoorlijke kaart, zo'n povere framerate haalt in Doom 3. Het is duidelijk, Doom 3 had pas eind 2005 moeten uitkomen, want dan pas is er hardware die het echt goed kan draaien.
Een 6800 serie of de x800 serie kan Doom3 volgens jou niet draaien? Dat ze voor jou misschien nu niet betaalbaar zijn betekend niet dat er geen hardware is die het wel kan draaien. Beide kaarten draaien Doom3 perfect op hoogste instellingen met zo'n beetje alles aan met een acceptabele framerate, ja...ook een ati x800 serie.
je had net zo goed je 9700pro kunnen houden want die werkt prima in doom3.
en voor deze game waren hogere framerates niet nodig.
liever wat hoge framerates in games waar het wel uit maakt (on-line uk2k4 of singleplayer farcry ;)
de GT is de snelste van de 6600 serie toch ??
de X700pro niet van de X700 serie, ik wil een vergelijking zien met de X700XT :)
Ati heeft (nog) geen X700 XT en nVidia ook nog geen 6600 Ultra, wat jij zegt is dus wel een soort van onzin ja :)
ow ja:

om even die optimalisaties uit de wereld te helpen:

Doom3 is niet geoptimaliseerd voor de NV en andersom ook niet, daarentegen is HL2 geoptimaliseerd voor de ATI. Iedereen weet inmiddels dat ATIO bijv. 6 miljoen erin heeft gestoken....

Bewijs voor NV-d3? -> Nou, Doom 3 gebruikt wel Ultrashadowing, maar de 32*0-system wordt niet toegepast, wat de grootste impact geeft voor US2. Helaas, want anders werd ATI helemaal geowned, nouja. De 6800 is trouwens ook niet voor OpenGL gebouwd, hij is gewoon all-round, terwijl de ATI (zuigende schijtdrivers, geen goede ondersteuning biedt met zijn architectuur voor OpenGL). Nog iets van die Laksheid. Echt best wel dom |:( van ATI....

Owja, niet lullig bedoelt ofzo: x800-owners, wacht maar totdat jullie de lijpe effecten missen van SM 3.0 in bijv. LOTR: Battle For Middle-Earth, want dan besef je pas hoe zo'n ULTIME MISKOOP je hebt gedaan.

(ja, ik was eerst even weg van ATI :r :Z, maar daar is nu niks meer van over B-)
Gefrustreerd kerel? Ga je eens ergens anders druk over maken dan dit soort dingen.

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True