Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 118 reacties
Bron: Gathering of Tweakers, submitter: T.T.

De eerste reviews van de ATi Radeon X800 Pro en XT worden vandaag op het internet gezet door verschillende techsites. Het Spaanse MeriStation heeft als eerste een review online, later vandaag zullen er meer toegevoegd worden aan dit artikel. In een artikel van enkele dagen geleden werden al enkele zaken omtrent nieuwe features uitgelegd, maar hoe de X800 Pro en XT presteren was nog niet bekend.

Uit de review van Meristation blijkt, dat de X800 Pro zeker een snelle kaart is, maar dat de echte prestatiewinst ten opzichte van het vorige paradepaardje, de 9800 XT, alleen goed te merken is bij de nieuwste games en features. Wanneer alle AA-instellingen op z'n zwaarst worden gezet, staat de X800 Pro tegenover de GeForce 6800 en de 9800 XT wel z'n mannetje:

3dMark03 9800 XT / X800 XT / 6800 vergelijking

Aan de bovenstaande resultaten is te zien, dat de X800 XT en de 6800 nek aan nek presteren in de 'normale' settings van 1024x768 / 32-bits. Een verschil van slechts 3 punten is verwaarloosbaar, de X800 Pro blijft op die settings bij 9718 punten steken. De 11895 punten van de X800 XT zijn echter wel bijna twee keer zo hoog als de 6525 van de 9800 XT, wat een flinke verbetering is. Als er echter een hogere resolutie van 1280x1024 en zwaardere AA- en AF-settings worden gekozen, komt de X800 XT beter uit de bus met 5285 punten tegen 2318 voor de 6800. Dit is vooral mooi met het zicht op zwaardere games in de toekomst die ook nog eens gebruik zullen maken van nieuwe technieken, zoals die in dit artikel zijn besproken.

De review van Chip Online focust op game-benchmarks van onder andere Far Cry, Halo, UT2004, Quake 3 Arena en Splinter Cell. Ook de HD (High Definition) toevoeging aan verschillende ATi-features waar in een eerder artikel al over gesproken is, wordt behandeld. Door de HD bij onder andere Smoothvision worden ingame-beelden nog mooier en vloeiender dan bij de Radeon 9600/9800-serie.

In een post op het forum worden ook benchmarks van Tom's Hardware gepost, de vraag is echter of dit wel de originelen zijn:

X800 benchmark THG UT2004

Uit bovenstaande benchmark is af te leiden, dat de X800 Pro en XT op de zwaarste settings betere scores neerzetten dan de GeForce 6800 Ultra van nVidia. In dit discussietopic op het forum heeft men de mogelijkheid om meer benchmarks en screenshots te zien, en kunnen de nieuwe kaarten worden besproken.

Reviews:

MeriStation (Babelfish vertaling van Spaans naar Engels)
Chip.de (Duits)
Tom's Hardware
Hot Hardware
Beyond3D
Hardware Analysis
Tech Report
HardOCP
K-hardware
Ascully
AnandTech

Meer reviews zullen later toegevoegd worden aan dit artikel als ze online komen.

ATi Radeon X800 Pro

Lees meer over

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (118)

Best knappe resultaten van ATI. Want die X800 neemt niet 2 sloten in beslag vanwege de extreme koeling die de 6800 wel nodig heeft..
Gevoelsmatig heeft het ATI design dus wat meer rek om later the upgraden/overklokken?. Ik vraag me dan ook af hoe de ATI geklokt zou kunnen worden met een gelijkwaardige koeling van de 6800.

Overigens vind ik wel dat beide kaarten veeeeel te veel energie slurpen. Maar ze moeten wel want anders gaat de concurent met de snelste kaart er vandoor. Het feit dat de ATI slechts 1 molex gebruikt vind ik ook een voordeel. Want 2 onafhankelijke molexen moeten gebruiken voor de 6800 is toch wel iets waar je serieus rekening moet houden...
ik raad je toch niet aan om een grote kaart onder die radeon te stoppen.
Zo'n lage koeler geeft het bedrieglijke beeld. Je kan er idd een kaart onder stoppen. Maar als dat een groot ding is, raid kaart, capture kaart, audigy,.... dan is de airflow voor je kaart barslecht. Een low profile modempje ofzo lukt dan weer wel.
@ CARman : waarom heeft deze een slot meer nodig? En wat betreft die grote koelers van onder andere de GeForce FX 5800 hebben een koeler die idd 2 sloten in beslag neemt. De luchtaanzuiging is echter in de lengterichting van de kaart en niet in de dwarsrichting. Er kan dus probleemloos een andere kaart vlak onder zitten.
Zoals je dus al zei : je bent zo goed als altijd een pci slot kwijt. Misschien moeten moederbordfabrikanten er eens aan denken het AGP (of PCI-express 16x) helemaal beneden te plaatsten. Of de fabrikanten van grafische kaarten hun chip met koeler boven op de kaart.
In de regel gebruik je toch het erste PCI slot onder je AGP niet, dus ik voorzie hier niet echt problemen.

En hoe je het ook wendt of keert, de nVidia heeft dus gewoon 1 slot meer nodig, dan deze low-profile oplossing van ATi.
Ik heb zelfs helemaal geen PCI-slots meer in gebruik.. Op mijn Asus P4C800-deluxe zit alles wat ik nodig heb onboard.. Wel lekker hoor zo'n lege kast.. :)
Daar heb je gelijk in..onboard netwerk doet niet onder voor losse goedkope kaarten ( sommige moederborden hebben zelf 3com ge-integreert )

Ik gebruik zelf nog wel een Audigy II omdat dat nou eenmaal beter gamed en geluid heeft als mijn P4S8X te bieden heeft. maar geluidskaart/videokaart is... eigenlijk alles wat ik in gestoken zit.

Nu nog ge-intergreerde TV kaart :-p
Dat het maar 1 slot ingebruik neemt is ook interessant van lanparty-barebone-bakkies als die de stroom tenminste kunnen leveren..

Ik zie trouwens dat de kaart op het plaatje ook genoegen neemt met een mini-molex (handig want veel mensen gebruiken de floppy toch niet meer -> cardreader)
Die gele stekker is geen mini molex
is een video aansluiting zodat je de video in ook op de voorkant van je pc kan aansluiten, mocht je zo'n aansluiting aan de voorkant hebben.
Overigens vind ik wel dat beide kaarten veeeeel te veel energie slurpen.
de X800pro verbruikt MINDER energie dan de 9800XT.

http://www.anandtech.com/video/showdoc.html?i=2044&p=7
Ik moet zeggen dat als de kaart op vol vermogen i.d.d. maar max 80 Watt verbruikt, het slurpen behoorlijk mee valt.

*Edit* Volgens Beyond 3d en diverse andere sites is het max vermogen maar een schamele 65 Watt, ruwweg de helft dus van de 6800 Ultra , en nog meer dan de Ultra Extreme.
Aangezien het totale vermogenverbruik van een heel systeem met een RX800XT maar 20 Wat verschilt met een systeem met een GF6800 Ultra, kan het niet dat de GF6800 Ultra dubbel zoveel zou verbruiken als de RX800XT...

Dit is te zien op de pagina waarnaar BizonKid al naar verwees: powerconsumption

Dit verschil is echter al aanzienlijk. Het is mss niet belangrijk voor high-end systemen, maar de mobileversies die op de RX800s zullen gebaseerd zijn, zullen dus waarschijnlijk minder gaan verbruiken dan de mobileversies gebaseerd op de 6800s.
Ook het aantal molexaansluitingen kan belangrijk zijn: indien je veel HDs in je systeem zitten hebt, heb je nl. geen overschot aan stroomvoorzieningskabels.
Waar staat dit in de review, bij die spaanse?
Beetje veel om 28blz. te doorlezen om het wattage te vinden :P

Gaat dit trouwens over een X800Pro, of XT.Dit vind ik dus echt niet, zie:
http://www.tomshardware.com/graphic/20040504/ati-x800-09.html

Nergens iets te vinden; piekvermogen is zelfs het dubbele of meer.
nee, dat is de wattage van wat het >> heel systeem << bij elkaar gebruikt.. bij een bepaalde load.. das wat anders dan de consumptie van de videokaart zelf..
Ach een echte knutselaar/patser die voor een net uitgebrachte nVidia-kaart in zijn veel te grote bigtower gaat kan best een extra voedinkje op de kop tikken en deze dedicated voor de videokaart gebruiken.
Och, die twee molexen van de FX6800 zijn gewoon overbodige crap. De ogen alleen maar snel/krachtig, omdat het er twee zijn. Immers, alle molexen komen voort uit 1 kanaal (1 voor 12V en 1 voor 5V) uit je voeding. Maw, met een splitter kun je een FX6800 ook aansluiten.

ATI laat het er nog een beetje normaal uit zien, alhoewel ik het gebruik van een molex bullshit vindt. Overduidelijk is AGP nooit ontworpen voor zulk enorm vermogen. Getuige de "verkeerde" plaatsing van de GPU (zou naar boven moeten liggen). Ik kan wat dat betreft nog steeds wel respect opbrengen voor de kaart-makers die geen molex-aansluiting eisen, zoals Matrox.
Ik ben eerlijk gezegd wel Ati fan, maar het lijkt erop dat het niet echt heel erg veel uitmaakt welke high end kaart je koopt.

En de sprong vooruit tov de vorige lichting kaarten is zeer duidelijk.

Nu even wachten op de prijsdaling en dan wordt de eventuele aanschaf wel wat interessanter voor de gemiddelde gamer.

true Groca....
je hebt gelijk, post was een beetje voorbarig.
Al gebruik ik zelf nooit superhoge FSAA en AF. Ik gebruik het idd wel, dus idd, de X800 XT is de betere.

(ben ik eigenlijk wel blij mee :P)
maakt niet uit welke kaart je koopt??

Dus jij gebruikt eigenlijk nooit FSAA en AF settings? Jij speelt gewoon op normale blokkerige schermen?

Als ik kijk naar de 3dmark scores dan lijkt mij persoonlijk duidelijk dat als je mooi beeld wilt, je het beste voor de ATi kaarten kunt kiezen. Zelfs de oude series 9800XT is vergelijkbaar met de gloednieuwe nVidia 6800Ultra....

Jammer dat deze laatste informatie bij de tests van de eerste 6800's niet getoond werden.....
Ik moet er wel even bij zeggen dat 80% van de die hard gamers geen fsaa en af gebruiken, puur om meer fps te halen en smoother te kunnen spelen. Het blokkerige maakt niet zoveel uit zolang de gameplay dat kan compenseren he :+.
Daarom koop je dus ook een high-end kaart he! dan heb je EN hoge framerates EN FSAA/AA ;)

Met de X800Pro kun je dus gemakkelijk wat meer FSAA en AA toepassen en dan nog dezelfde framerates halen als iemand met een iets oudere kaart... Een aantal games worden zelfs voorzien van framecappers om in multiplayer mode de voordelen van superveel fps te elimineren. Doom 3 krijgt ook zo'n begrenzing volgens John Carmack... En als je dan toch al aan het maximum aantal frames zitten dan wil ik de overcapaciteit wel voor kwaliteit hoor ;)
RE: Cyberangel
Alsof je nu geen overcapaciteit hebt? in veel spellen trok m'n radeon 9800 sowieso meer dan 60 fps op 1280x1024. (hij is nu ernstig overleden... fannetje ging dood) Als je een CRT gebruikt kun je vaak tot wel 85 of zelfs 100 fps halen (zo hoog als je refreshrate, zeg maar) maar daarboven haal je alleen maar meer als je vsync uitzet en dat is natuurlijk niet het idee: dan scheurt hele je beeld verrot, en zie je netto nog geen bal. Dus alleen met nieuwe spellen heb je geen overcapaciteit om je games er extra ph4t uit te laten zien. Maar dat is niet nieuw, toen ik een voodoo2 kocht kon ie ouwe spellen al perfect (alle 1 die het ondersteunden, zijnde GTA) en nieuwe spellen OK op het toen redelijk modale 800x600 draaien, maar zonder bijzondere effectjes (particles uit e.d. om glkwak speelbaar te houden)
Toen er een TNT2 kwam, gingen m'n oude spellen ineens veel beter, in hi res met alle details op max. het nieuwe spul gewoon in 800x600 met detail op medium tot hoog, of in 1024x768 met lo tot medium details. de tnt2 ging, de geforce3 kwam, de spellen die voorheen op lo detail goed liepen lipen nu op high detail in 1280x1024, en het nieuwe spul in 800x600 of 1024x768 op medium detail. de gf3 ging, de radeon 9800 kwam, en het ouwe spul fietst met maximale framerate in 1280x1024 op vol detail over m'n scherm, en het nieuwe spul loopt lekker op 800x600 of 1024x768 op medium detail.

Wat verandert er nou wezenlijk door die framerate limiter?
wat een onzin. Echte gamers zoeken een instelling waarbij de gameplay het beste is. Dat hoeft echt niet de hoogste framerates te zijn.Wel mag de framerate niet te laag zijn. Dus het is gewoon een kwestie van geld of je aa en fsaa aanzet of niet.

Of een framerate nog zichtbaar is heeft en met je menselijke capaciteiten te maken en zeker ook het scherm waarachter je zit. Als je scherm maar 80fps kan weergeven dan heeft meer dan die 80 fps geen zin. Volgens onderzoek ligt de grens voor menselijke capaciteiten nog een stuk lager dan die 80 fps. Daarnaast als je naar effectieve reactietijd tussen zien en reageren kijkt zal het nog veel lager liggen.
t maakt wel uit, voor je muis
als jij in 2sec 180 graden draait met je muis zie je liever 160 beelden in die draai dan 60 ofzo
Hoe zo maakt het niet uit. Als alles kwa prestaties gelijk is is alles in het voordeel van ATI, minder energie en kleiner. Wat wil je nog meer.
Wat ik me afvraag is of deze x800 net als z'n voorganger met 24 of met 32 bits floatingpoint nauwkeurigheid rendert.

Anders blijft het (mijns inziens) appels met peren vergelijken. Naar veluid is de DX9.0c specificatie daar namelijk duidelijk in.. alles moet op 32bit nauwkeurigheid gebeuren, en ondanks dat ATI de snellere kaarten heeft, heeft nVidia meer ervaring op het gebied van 32bit fp renderen (daarom zijn de GFFX kaarten ook trager dan hun ati tegenhangers....) en ik meende te hebben gezien dat ait ontwikkelaars dit zelf ook onderkennen. Aangezien ze zelf propageren nog maar lekker van 32bit renderen af te blijven... (omdat nVidia hier stukken beter in is dan ATI...)....


Leuke wereld momenteel in elk geval :)
Wat ik me afvraag is of deze x800 net als z'n voorganger met 24 of met 32 bits floatingpoint nauwkeurigheid rendert.

Anders blijft het (mijns inziens) appels met peren vergelijken. Naar veluid is de DX9.0c specificatie daar namelijk duidelijk in.. alles moet op 32bit nauwkeurigheid gebeuren,
DirectX 9.0c specs melden dat het fp24 of hoger moet zijn, dus ATI is wel degelijk compliant, dat zij besloten hebben dit pas met de R500 te gaan doen is aan Ati, zij hechten denk ik minder aan de marketing nummers zoals nVidia dat doet (hoger is beter?)

En ik denk dat als de codepaden kunnen bepalen of iets in 24 of 32bit gerenderd moet worden, ik verwacht dat ook de nvidia gewoon op 24bits gaat renderen omdat deze dan meer performance zou geven, ik zou als ik jou was nog maar eens wat gerenomeerde hardware freak sites lezen voor je een duidelijke conclusie aanneemt.
Er bestaat ook helemaal geen DX9.0c specificatie.

Er is gewoon de DX9 specificatie en dat is het.

DX9.0c is gewoon een kleine update om wat compatibliteits probleempjes met nieuwe kaarten te fixen. Aan de specificaties is met die update echter helemaal niets veranderd.
DX9.0c is gewoon een kleine update om wat compatibliteits probleempjes met nieuwe kaarten te fixen. Aan de specificaties is met die update echter helemaal niets veranderd.
Ooit gehoord van Pixel Shader 3.0? Dit zit wel degelijk verwerkt in DX9.0c. Aangezien deze PS3.0 niet veel verschilt van PS2.0 (het is enkel sneller) is dit geen nieuwe DirectX-versie geworden. :z
Wil niet vervelend doen hoor maar Nvidia ondersteunde dan misschien fp32 maar dat werd meestal niet eens gebruikt door de zeer terleurstellende resultaten hiermee. Daarom werdt vaak (zoals in FarCry) teruggevallen op fp16 of zelfs fp12 (door de game developers) om een beetje acceptabele performance te krijgen.

ATI gebruikte dan welliswaar fp24 maar wel met betere performance dan Nvidia op fp16 kon waarmaken. Dat is nu met de 6800 dus inderdaad niet meer zo.

Het valt me trouwens in de review van de 6800 van toms hardware op dat Nvidia eindelijk iets aan de beeldkwaliteit heeft verbeterd. Dat is tot nu toe voor mij de reden geweest om een ATI kaart te kopen.

Ben dan ook benieuwd wat ATI op de nieuwe kaarten heeft gedaan om op dit gebied toch weer voor te blijven liggen.
voor pixels shader model 2.0 is 24bit preciesis voldoende.

verder is het verschil tussen 24 bit renderen of 32bit redeneren niet zo groot. alleen je moet je hardware er op aanpassen.
de reden dat het bij Nvidia mis ging qua 32preciesis was omdat die kaart eigenlijk was gemaakt voor 16bit precies en 32bit in een aantal opzichten werd gesimuleerd door 2x16 te gebruiken (in de registers bv, blijft er nog maar de helf van het normale aantal over)
Hoe is het gesteld met het stroomverbruik van de Ati ten opzichte van de nVidia? misschien handig om dat mee te nemen in de overweging om een videokaart te kopen, omdat de nVidia 6800 en de ati x800 Xt toch bijna gelijkwaardig presteren (als de AA instellingen niet op zn zwaarst staan)
bij hogere resoluties doet de ati het ook beter als de nvidia.
maar aangezien de ati maar 1 molex nodig heeft is het redelijk om aan te nemen dat hij ook minder stroom verbruikt.

edit : www.chip.de/ii/21775380_f7b6a623ae.gif
nowja gelijkwaardig...
Nvidia gebruikt 2 molex connectors vanwege het borddesign. Het kan zijn dat 3rd party bedrijven ook met 1 molex uitkomen. of de 6800 veel meer verbruikt dan the 800xt dat weet ik niet :)
volgens de PDF die ik heb van ATi is het stroomverbruik van de X800XT idle iets lager dan de 9800XT, en under load identiek (-0.1%)

best indrukwekkend, de X800XT zou dus zuiniger n sneller zijn (en ook minder warm aan de cooler te zien)
Weer is te zien dat bij de benchmarks op hogere settings de Radeon beter presteert dan een Nvidia. Dit was bij de vroegere kaarten al zo (Rage 128 vs RivaTNT op 32-bit) en zie je nog steeds terug.

Bovendien spelen steeds meer mensen op een hogere resolutie en settings waarbij de 6800 toch een stuk slechter presteert. Wie wil nou met zo'n topkaart niet op de hoogst denkbare settings spelen?
Mja, niet iedereen vind fsaa zo belangrijk denk ik, verder valt me op dat ze eigenlijk best dicht bij elkaar liggen, ik ben dus wel benieuwd naar hoe hoog de uiteindelijk retail van de 6800 ultra geklokt gaat worden
Sterker nog, de meeste niet-tweakers weten niet eens wat FSAA is :)
Als de layout van de XT hetzelfde is als van de Pro, dan heeft deze een groot voordeel ten opzichte van de nVidia kaart, deze moet namelijk worden gevoed door 2 extra stekkers, de X800 maar met 1. nVidia raad ook een 450 Watt voedig aan, wat voor veel mensen zal betekenen dat ze naast een nieuwe videokaart, ook nog een nieuwe voeding moeten kopen ( 100 euro). Voor de X800 is dat zo te zien niet nodig en heeft deze dus een groot voordeel ten opzichte van de GeForce 6800.
het is maar net wat je in je pc heb zitten heb nu een 30 watt voeding en een fx 5900xt en heb een nieuwe voeding nodig.

puur omdat ik er nog 3 harde schijven in heb zitten een dvd-speler , brander en een dvd brander en een lading usb apparaten.

ben benieuwd wanneer ie bij mijn leverancier licht :9 8-)
Als ik deze review bekijk, dan vind ik eigenlijk dat het gat tussen nVidia en ATI een stuk kleiner is geworden. De beeldkwaliteit en de performance liggen mijns inziens dicht bij elkaar. Zeker als je dit vergelijkt met hoe de stand van zaken een half jaar gelden was, met ATI oppermachtig met de Radeon 9800XT. nVidia moest toen lijdzaam toezien hoe hun paradepaardje met een gebroken poot verder moest.

Conclusie: de consument profiteert! ;)

edit:


http://www.anandtech.com/video/showdoc.html?i=2044&p=8

Nou, zo slecht zijn de yields van de Geforce 6800 blijkbaar toch niet als nVidia het waagt van nog een hoger geklokte Geforce 6800 op de markt te zetten.

En dan brengt Nvidia binnenkort weer een 6900 Ultra uit; Ati volgt daarop met de x900XT(?)
X880 XT is eerstvolgende die nu gepland staat (R420 met PCI-X aansluiting)
Als er echter een hogere resolutie van 1280x1024 en zwaardere AA- en AF-settings worden gekozen, komt de X800 XT beter uit de bus met 5285 punten tegen 2318 voor de 6800.
Dit is fout, zoals je in het grafiekje kunt zien, bij de instelling die genoemd word, presteert de X800 XT: 5285 en de 6800: 4860

en in de 1024x768 maxim is het: X800 XT: 5572 en de 6800: 2319

Dus de getallen waren verkeerd en de vergelijking was ook verkeerd.
een Nederlandse review is ook zeer gemakkelijk :9

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True