Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: Hot Hardware

De mensen van Hot Hardware waren er als de kippen bij om de Radeon X700 XT te testen. ATi's nieuwste PCI Express-kaart moet een tegenwicht bieden aan de voor deze prijsklasse superieure prestaties van de GeForce 6600. Deze nieuwste telg in de ATi-familie heeft een R410-core die op 475MHz tikt en is uitgerust met 128MB geheugen. Verder is deze kaart voorzien van 8 pixel pipelines en 6 vertex pipes. Dankzij het single slot-ontwerp neemt deze kaart met zijn fan en heatsink niet onnodig veel ruimte in beslag, maar maakt hij bij hevige belasting best wel wat geluid, aldus de reviewer. Een meevaller is dan weer dat deze kaart geen extra stroomtoevoer nodig heeft. Vermoedelijk zal de AGP-versie, die later beschikbaar zal worden dit wel vereisen aangezien een AGP-slot slechts 45W kan leveren.

Nadat zowel de kaart, de gebruikte architectuur als de software nog wat nader voorgesteld worden, gaat men over naar het testen. Dit gebeurd met de hulp van een Pentium 4 op 3,4GHz op een Shuttle SB81-moederbord met i915G-chipset, uitgerust met 1GB PC3500-geheugen. Als vergelijkingsmateriaal worden een GeForce 6600 GT, een Radeon X600 XT en een GeForce PCX 5750 aangesleept. In de eerste test, waarvoor Final Fantasy XI gebruikt wordt wist de X700 XT zich meteen te onderscheiden ten opzichte van de GeForce 6600 GT. De X600 XT en GeForce PCX 5750 sluiten de rij.

Far Cry (1024x768)
X700 XT 79,56
41,52
42,96
6600 GT 68,45
33,82
Rood = Zonder AA | Blauw = 4xAA, 8xAF (Low) | Groen = 4xAA, 8xAF (High)

Ook in de eerste Halo-test op 1024x768 neemt de X700 XT de leiding, zij het met iets minder voorsprong op de 6600 GT dan in de vorige test. Wanneer de resolutie echter opgeschroefd wordt naar 1600x1200 moet de X700 XT het onderspit delven tegen de nVidia-concurrent. Ook in Splinter Cell, op een resolutie van 1024x768 haalt de X700 XT ongeveer 6 frames per seconde minder maar dit verschil daalt bij een resolutie van 1600x1200 dan weer tot 2 frames. Als volgende test is Tomb Raider: AOD aan de beurt en ook hier weet de X700 XT op 1024x768 de concurrentie netjes de baas te blijven, maar loopt hij op 1600x1200 een nipte achterstand op.

Dit fenomeen herhaalt zich telkens weer bij volgende tests met Aquamark 3, Unreal Tournament 2004, Far Cry, Doom 3 en Counter Strike: Source, waarna overgegaan wordt tot de mogelijkheden tot overklokken. Hiertoe deed men enkele snelle tests op de hoogste instellingen waarbij de kaart wel nog stabiel bleef. Dit betekent een winst van 47MHz op de kloksnelheid en een 120MHz snellere geheugeninterface. In Doom 3 weet de X700 XT de GeForce 6600 GT op 1600x1200 dit keer wel voor te blijven met maar liefst een prestatiestijging van vijftien procent. In Aquamark 3 is de prestatiewinst iets kleiner: ongeveer zeven procent.

Unreal Tournament 2004 (1024x768)
X700 XT 87,94
64,4
72,82
6600 GT 90,71
65,14
Rood = Zonder AA | Blauw = 4xAA, 8xAF (Low) | Groen = 4xAA, 8xAF (High)

In zijn conclusie stelt de reviewer dat het werkelijk een nek-aan-nek-race wordt met nVidia. In de benchmarks weet ATi maar liefst achttien keer beslag te leggen op de eerste plaats, maar nVidia behaalt ook zeventien overwinningen. In de tests waar ATi sterker is, is dat meestal ook met een ruime voorsprong, terwijl nVidia dan weer duidelijk in het voordeel is bij Doom 3. Vermoedelijk zal de X700 XT in Half Life 2 dan weer kunnen profiteren van anti-aliasing, maar het is afwachten geblazen om deze vermoedens aan de realiteit te toetsen.

ATi Radeon X700 XT

Voor meer reviews kan men ook terecht bij:
* Hard OCP
* Toms Hardware
* AnandTech
* Sudhian
* Tech Report
* Bit-Tech
* NeoSeeker
* PC Per
* Driverheaven

Moderatie-faq Wijzig weergave

Reacties (71)

Ik heb gisteren die review van Toms Hardware gelezen, maar daar lijkt de Nvidia overall gezien net even beter te zijn.

Daarbij komt ook nog dat SLI wordt ondersteund bij de 6600GT dus kan je 2 jaar later dezelfd kaart voor een prikkie er bij zetten.

Maar ja dit uiteindelijke verschil in cijfers is niet zo erg dat het heel erg te merken is.
Idd, persoonlijk vind ik de 6600GT ook net iets beter, omdat deze ook nog PS3.0 ondersteunt. Het is echter wel zo dat uit de benchmarkresultaten blijkt dat de kaarten aan mekaar gewaagd zijn, en dat er dus geen echte overwinnaar uit de bus komt.
Ik vind het vergeleken met andere reviews dus wel vreemd dat met op Hot Hardware tot de volgende conclusie komt:
In de tests waar ATi sterker is, is dat meestal ook met een ruime voorsprong, terwijl nVidia dan weer duidelijk in het voordeel is bij Doom 3.
Dit terwijl vaak (op andere reviewsites dan) blijkt dat beide kaarten een nek-aan-nek-race houden, waarbij dan slechts enkele games zijn waarbij de ene of de andere kaart eruitspringt. Maar dit eruitspringen is echter helemaal niet de regel!

hier bijvoorbeeld: nek-aan-nek-race @tomshardware
Het review wat hier geciteerd wordt is dan ook het meest pro-Ati getint wat ik tot nu zag (heb er 8 gecheckt). Zo zeggen ze dat x700 wint in FarCry, maar dat komt ook omdat ze van alle benchmarks in FarCry net degene eruit pakken waar de Gf het tradiontioneel slecht doet(regulator), de rest testen ze niet. Ze zeggen ook keihard dat Ati gewoon de winnaar is, bij andere sites zie ik eerder het omgekeerde, en ook reacties op goT gaan in die richting.
Daarbij komt ook nog dat SLI wordt ondersteund bij de 6600GT dus kan je 2 jaar later dezelfd kaart voor een prikkie er bij zetten.
Ohja, en die kaart prik je dan in je 2e PCI-e 16x slot waarmee ieder moederbord toch al standaard wordt uitgerust????
Natuurlijk is het leuk dat het kan, maar in de praktijk zie ik het dus weinig gebeuren. Je nieuwe moederbord dat 2 PCI-e16x sloten heeft, zal zoveel duurder zijn dat je beter een nieuw mid-range kaartje kan aanschaffen.
Daarnaast kan het technisch gezien nooit goedkoper zijn om 2 kaarten te gebruiken. Ook voor het stroomverbruik, en voor de herrie zou ik het niet willen. Ik denk dat iedereen nu grootst over SLI roept, en dat in de praktijk enkel enkele mensen die een heel erg zware setup nodig hebben dit zullen gebruike met 2 high end kaarten. Voor mid-range is het volgens mij sowieso nooit interessant.
@durona, ik heb nog geen enkele 8x kaart gezien, en ook nog geen enkel moeder bord dat meerdere van deze sloten ondersteunt. Er kan er best een zijn, maar het is zeker niet mainstream (en dus vast duurder dan alternatieve oplossingen, zoals gewoon een snellere videokaart)
Ohja, en die kaart prik je dan in je 2e PCI-e 16x slot waarmee ieder moederbord toch al standaard wordt uitgerust????
Twee 8x-sloten zijn al voldoende voor deze kaarten. Ik dacht dat deze al verkrijgbaar waren :?. Persoonlijk vind ik dit echter geen reden om alleen voor die feature een GF 6600GT te kopen. Binnen twee jaar is er waarschijnlijk weeral zo'n grote prestatiesprong gebeurd (zowel qua aanbod als qua vereisten bij games), dat zelfs twee 6600GTs in SLI niet meer zullen meekunnen en de laatste nieuwe games van dat moment dus niet op de hogere resoluties zullen draaien.
In SLI-mode gebruikt nVidia inderdaad 2x PCI-E 8x, maar de slots op je motherboard moeten echt wel van het 16x formaat zijn. Anders passen de kaartjes nl. niet...
Lijkt me niet dat die kaart 300 euro gaat kosten aangezien je voor bijna 300 euro al een Geforce 6800 hebt met 12 pipelines. Zou een slechte stap zijn van Ati.

Maar verder ziet het er goed uit. Leuk om te zien dat 2 concurrenten van elkaar zoveel moeitje moeten doen om de snelste kaart in handen te krijgen. Wij consumenten kunnen hierdoor een goede keus maken :p
En nu de échte conclusies...

HardOCP
One thing is for sure, the GeForce 6600GT and the Radeon X700XT are very competitive products when it comes to overall gaming performance. If we had to edge out a card that offers up the better value we would have to lean towards the GeForce 6600GT at this point in time. In our two days of X700XT experience we saw it get held out of the top spot in terms of both framerate and image quality by the GeForce 6600GT. Keep in mind that the GeForce 6600 series also packs the performance potential of Shader Model 3.0 once games start using it.

TomsHardware
Regardless, what we can say is that ATi has closed the performance gap to the GeForce 6600 GT with its new X700 XT - and done so at a slightly lower introductory price. The previous model, the X600, is now nothing more than yesterday's news. In the end, the success of the cards of either manufacturer will depend on who will be the first to ship large quantities of their cards, and at what price.


Wat ik persoonlijk zorgelijk vind is de Catalyst A.I.:

As far as the new Catalyst A.I. performance optimizations are concerned, we are left with a bad aftertaste. Due to their adaptive nature, it is next to impossible to judge what is being optimized when and where in what manner. The only control ATi allows the user to have over these optimizations is whether they are turned on or off. Yet even when A.I. is switched off, other optimizations are still present and active.

en

We are concerned about the colored dots or dashes we are seeing crop up in games on the X700XT. Here today we noticed it in DOOM 3, FarCry, and City of Heroes, all of which are popular current games. This does not seem to have anything to do with CATALYST A.I. since when we disabled it they were still present. If it is a game bug or a driver bug perhaps this is something that would benefit from being fixed through application detection.
ik vindt het fantastisch die nieuwe grafische kaarten, voor 300-500 euro heb je een top model op top of iets minder snelheid.

Gaan deze kaarten (6600 en de x700) nu aanzienlijk minder kosten of is het gewoon voornamelijk marketing om zoveel mogelijk verschillende modellen op de markt te proppen, een enorm prijs en prestatiegebied te bestrijken en niemand ziet door de bomen het bos?
Ik zou weleens willen zien hoe de X700 en 6600 het doen tegenover de 6800 en X800.
Als je nou de artikelen zelf zou bekijken, die vergelijkingen worden uitgebreid gedaan bij de diverse sites hoor.
Ik ook...vooral als het gaat om value-for-money.

Kan t.net niet eens een keer zo'n test in elkaar draaien?
Een vergelijking met de 9800 Pro zou ook leuk zijn!
en een Commodore 64!
en ook een voodoo 5500 of 6000 :D
Woila, dit heeft dan weer 2 voordelen nu de 2 groten dicht bij mekaar liggen:

1: daar gaat de hype: ati rulez, nvidea sucks ;)
2: je hebt nu wel een heel ruim aanbod voor als beeldkaartvervanger
3: nvidia heeft z'n les geleerd & ati heeft ook lessen getrokken, bij de reviews valt goed te zien dat beiden goed geleerd hebben ;)
Je vergeet één belangrijk gevolg: dit kan tot een leuke prijzenslag leiden! Met wat geluk zullen beiden proberen hun marktaandeel uit te breiden, en zullen de prijzen dalen...
En dat is goed nieuws voor ons!

ATi moet kennelijk wel nog wat leren over drivers: want met hun 4.10 AI-driver gaan ze voor mij wel wat te ver: zelfs het ATi-personeel weet niet wat er precies bij welke game geoptimaliseerd wordt... (bron: tomshardware) Hopelijk zijn er geen visuele gevolgen van de drivertweaks of ATi krijgt een schandaal over cheats over z'n hoofd! |:(
ATi is 1 en al schandaal van drivertweaks. Bij nvidia drivers kan je ALLE tweaks afzetten, bij ATi kan je nog steeds geen volledige trilineaire filtering krijgen.
Het probleem zit em bijde ATi fanboys, die willen zo hard dat ATi op kop blijft dat ze de huidige cheats door de vingers zien.
Je moest ze vorig jaar maar eens horen.
Bij NVidia kun je absoluut NIET alle tweaks uitzetten. Slechts van een handjevol die naar buiten toe kenbaar zijn gemaakt. De overige 99% zijn bij de consument onbekend, net als bij ATI onzichtbaar, en niet in te stellen.
Ooit een NVidia Doom3 shader replacement uitzet knop gevonden?


De reden dat je dat bij NVidia wel sommige tweaks kunt uitzetten, en bij ATI niet is heel simpel:
De ATI tweaks leveren geen verminderde beeldkwaliteit. Dus onnodig om ooit uit te willen zetten.
Sommige NVidia tweaks leveren WEL verminderde beeldkwaliteit, en die wil je als gebruiker dus uit kunnen zetten.

NB: Dat is geen voordeel, dat is een nadeel! Je wil als gebruiker niet per spel of zelfs per level moeten nadenken of je een tweak moet aanzetten. Dat moet gewoon transparant zijn.

ATI levert keurig trilineaire filtering. Alleen wanneer er aan het eindresultaat (de IQ) niets verandert, wordt er een snellere methode gebruikt. Zolang dat geen IQ verlies op levert is dat volkomen acceptable.
Dat het al een jaar in gebruik is, en nog nimmer is aangetoond dat het een IQ verlies oplevert, is het beste bewijs dat het OK is.
Groot verschil met de NVidia brilineaire filtering, die onmiddellijk door reviewers werd opgemerkt, terwijl dat geheim was gehouden. Dat leverde duidelijk verlies aan beeldkwaliteit op.
Euh, leuk dit maar hoe presteert dit ding te opzichte van oudere kaarten, dit zegt compleet niks, het kan een leuke kaart zijn maar het kan ook niks zijn, deze test valt gewoon niks zinvols op te maken.

Ik zou graag willen weten hoe ie draait ten opzichte van een 9800 Pro of 9700 Pro, 9600 (Pro,XT) en misschien wat andere nVidia kaarten..
Deze screenie van Driverheaven geeft je iig een antwoord voor 3DMark03 - begin maar vast te huilen met je 9600pro.. dat doe ik ook :'(
Dank, nu zie ik wat ik er eventueel aan zou kunnen hebben (@9600XT). Nu is het een heel stuk duidelijker :Y)
Kijk hier eens:http://firingsquad.com/hardware/ati_radeon_x700_xt/
Rare uitslag bij CS:S Beta.
Ben benieuwd of dit nog gaat veranderen.
Interessant dit..

Nvidia en Ati zijn aan elkaar gewaagd, dat is duidelijk. Ik moet zeggen dat Nvidia behoorlijk op de goede weg is nu (5800 anyone? :Y)). Dit zou er ook best voor kunnen zorgen dat mijn volgende kaartje een 6600GT wordt. Al is die X700 XT ook zeer verleidelijk :9~. Momenteel heb ik een Ati en ik moet zeggen dat ik daar uiterst tevreden over ben.

Ik denk dus dat de volgende punten de doorslag gaan geven bij de keuze voor een nieuwe videokaart.

-Overclockbaarheid icm performence
-ViVo mogelijkheden
-De kwaliteit van de ViVo
-Eventueel een Tv tuner? :9~
-Aantal Db die de kaart produceert

en uiteraard niet te vergeten de prijs ;).

Wat al eerder genoemd werd en waar ik ook zeer benieuwd naar ben is het volgende:

Is het nou zo dat 256 bits geheugenbandbreedte nu echt duurder is dan 128 bits om te produceren, of is er een andere reden?

Als laatste had ik graag in de review de volgende kaarten ook graag teruggezien ter vergelijking.

-5700
-5950
-9600
-9800

Ik denk namelijk niet dat er veel gebruikers zijn die een 6600GT, X600XT of PCX 5750 bezitten.
Voor mij had de review dan meer waarde gehad omdat ik het verschil zou kunnen zien.

Dat neemt natuurlijk niet weg dat ik het geen goede review vind :7
ViVo hebben beide merken (afhankelijk van de distributeur), al heeft ATI met zijn all-in-wonder reeks alle mogelijkheden handiger (en beter) gebundeld.

Wat ik persoonlijk relevanter vind is:

- overclockbaarheid (performancewinst)
- drivers
- houdbaarheid (ofwel de rol van SLI en PS3.0)
- performance bij specifieke games (wat ik speel, moet snel gaan. De rest vind ik niet interessant)
In de review wordt wél de Radeon X700 XT opgeklokt maar de 6600GT weer niet....
We achieved a 47MHz gain in the core engine speed and a 120MHz boost in memory interface speed using Entech's PowerStrip utility v3.53.df. In Doom 3 we realized a solid 15% gain, and in AquaMark 3 we achieved about a 7% gain over stock X700 XT speeds
Is opzich een redelijke marge, maar tis ook weer geen overklok wonder. Ik ben dus benieuwd hoe de 2 kaarten zich tot elkaar verhouden in overklokken. Dat zou best eens kunnen bepalen welke kaart geschikt is voor een tweaker :)
De megahertzen maken niet uit. Het gaat, vooral bij videokaarten, om de performancewinst die je ermee boekt.

Lees dit artikel maar eens:
http://www.xbitlabs.com/articles/video/display/pc-radx800pro-extreme.h tml

Daar kun je lezen dat beide merken prima overclockresultaten laten zien, maar eigenlijk alleen nVidia daar ook écht performance mee wint.
Using NVIDIA's Coolbits Registry Tweak, we managed to hit a top speed of 588MHz on the GPU, an increase of over 88MHz equaling 17.6%. The Samsung GDDR3 chips held a little extra headroom as well, adding an effective 180MHz, increasing output by 18%.
van dezelfde site over 6600GT

edit:@kami
6600GT
12.5% is a solid boost in performance overall, and these gains can vary higher or lower depending on the game engine. Ultimately, the GeForce 6600 GT was a great overclocker, offering a nice kick in performance over stock speeds without the need for oversized cooling or increased voltage demands.
X700XT
The card proved very stable at these clock speeds, as well, completing several test runs of our Doom 3 Site3 map demo without so much as even a popping pixel.
uit de tekst hierboven
Dit betekent een winst van 47MHz op de kloksnelheid en een 120MHz snellere geheugeninterface. In Doom 3 weet de X700 XT de GeForce 6600 GT op 1600x1200 dit keer wel voor te blijven met maar liefst een prestatiestijging van vijftien procent. In Aquamark
erg veel verschil in performance na overklokken is er ook niet. en jouw site heeft het niet over deze 2 kaarten. wat ervoor zorgt dat het niet 100% relevant is.
Dxue,

Eens. De link was ook niet bedoeld als argument voor de discussie x700 vx 6600GT, maar om aan te geven dat megahertzen op zich niet interessant zijn. Performancewinst is belangrijk. Daar moet je naar kijken bij vergelijkingen op basis van overlocken, niet naar de megahertzen.
Iemand een idee of de huidige kaarten in een AGP 2x slot geprikt kunnen worden? Ik heb namelijk geen idee of alle AGP kaarten volledig backwards compatible zijn of dat je heel goed op moet letten welke kaart je gaat kopen. Ik wil namelijk mijn GF3 vervangen door iets snellers waar ik ongeveer nog 1 a 1,5 jaar mee kan voordat ik het geheel vervang en dus over ga naar PCIe. Het AGP broertje van de x700 zou dus een aardige kandidaat zijn hoewel ie waarschijnlijk net boven het budget zal vallen.
Bekijk anders even de FAQ @ got hier staat alles in over compitablieteit mbt agp kaarten.

Verder denk ik als je een agp2 slot hebt je de snelheids winst niet eens zal merken omdat je cpu waarnschijnlijk dan ook niet meer toereikend is even als je geheugen en je psu let hier dus ook op om je nieuwe videokaart te kunnen voorzien van genoeg data etc.

Moet ik wel de link geven natuurlijk FAQ
Ik had idd ook al (een beetje) rondgesnuffeld op GoT, maar dan bij V&B en in die FAQ vond ik dus niets.
Met een XP2400+ en 768 MB moet ik wel vooruit kunnen lijkt me, maar 300 Watt zal wel aan de krappe kant worden.
Onzin, het werkt zelfs met 230 watt, het is helemaal afhankelijk van hoe goed de voeding is. Een goedkope 400 watt voeding kan problemen geven terwijl een goede 300 watt voeding het perfect zal doen, met ruim voldoende speling.
Ik zou het er niet op wagen, grote kans dat het niet werkt. Sowieso heb je al een flinke PSU nodig en daarbij denk ik niet...naja weet ik eigenlijk wel zeker dat zo'n nieuwe kaart niet in een AGP2x slot kan. Ik geloof dat de Radeon 9800Pro dat al niet meer kon bijvoorbeeld
Niet doen !

Agp 1/2 werkt op 3,3 volt en agp 4/8 werkt op 1,5 volt (correct me if im wrong)

iig verschilt het voltage en dat is zeker niet bevordelijk voor je videokaart ;)

Voor de zekerheid zou ik in het boekje van je mobo kijken :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True