Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: AllStarShop

Personeel van de Amerikaanse hardwareboer AllStarShop is zo vriendelijk geweest om de ATi Radeon X800 Pro videokaart een paar dagen voor de officiŽle introductie al in de virtuele etalage te leggen. Voor een bedrag van 499 dollar per stuk kunnen er pre-orders geplaatst worden bij de winkel, die ze vanaf 7 mei verwacht te kunnen gaan uitleveren. Verder weet men een uitgebreide beschrijving van de eigenschappen te geven. De X800 Pro is zoals verwacht voorzien van twaalf pipelines en zes vertex shader units. De chip draait op 500MHz met een single-slot koeler en levert een theoretische fillrate van zes gigapixels per seconde. Het graphicslandschap van deze zomer komt er volgens de laatste geruchten als volgt uit te zien:

NaamCoreGeheugenPipelinesFillratePrijs
Radeon X800 XT525MHz?1,1GHz?168,4 GP/s??
GeForce 6800 Ultra400MHz1,1GHz166,4 GP/s$499
Radeon X800 Pro500MHz1,1GHz?126,0 GP/s$499
GeForce 6800 Pro350MHz1,0GHz124,2 GP/s$399
GeForce 6800350MHz700MHz124,2 GP/s$299

In het marketingverhaal rond de nieuwe Radeon-chip hebben alle bekende ATi-termen zoals Smartshader, HyperZ en Smoothvision de toevoeging HD gekregen, waarnee het bedrijf lijkt te refereren aan zijn actieve ondersteuning van HDTV. Geruchten wijzen er al geruime tijd op dat Shader Model 3.0 niet (volledig) wordt ondersteund door de R420, en die claims worden door dit document in ieder geval niet tegengesproken. Smartshader HD bevat wel een aantal duidelijke veranderingen, waaronder de overstap van 24-bits naar 32-bits rekenprecisie en het toevoegen van een aantal extra mogelijkheden voor langere shaders. Sleutelwoorden zoals "dynamic flow control" die bij de 3.0-shaders horen ontbreken echter.

Smoothvision HD kent twee belangrijke nieuwe features. De eerste is Temporal AA waar we donderdag al over schreven. De tweede is 3Dc, een datacompressietechniek die het gebruik van gedetailleerde modellen minder zwaar moet maken. Bandbreedtebepaarder HyperZ HD is voor de R420 geoptimaliseerd voor hoge resoluties en VideoShader HD maakt gebruik van de pixelshaders om videocoderingen zoals MPEG2, DivX, Real Media en WMV te versnellen en van kwaliteit te verbeteren. De kaart zelf heeft een drietal uitgangen: VGA, DVI en S-Video.

ATi Radeon X800 Pro perspic

Helaas is er nog weinig bekend over de prestaties. De winkel zelf beweert dat de Radeon X800 Pro "tot twee keer sneller is" dan de huidige 9800 Pro, wat hem dicht in de buurt van de GeForce 6800 Ultra zou doen belanden. Ook de theoretische prestaties en prijs van de twee liggen dicht bij elkaar, waardoor de uitkomst van de eerste reviews komende week nog even afwachten blijft.

Moderatie-faq Wijzig weergave

Reacties (86)

nee de 6800ultra is lekker leverbaar wou je zeggen :? die kaart is er alweer een paar weken en is nog nergens te krijgen de x800pro kan je bij introductie tenminste al kopen, al is de prijs veel te hoog :( Ik had eerder een prijs van 400 dollar verwacht. Maar 500dollar is een beetje teveel van het goede, hoeveel willen ze voor de xt gaan vragen dan? 700dollar ofzo |:( als ati slim was geweest hadden ze hem voor 400 dollar oid verkocht dan hadden ze nog een duidelijk voordeel boven de 6800ultra. Want als je zo leest dat de pro +/- evensnel is als de 6800ultra en ook even duur dan kan je imo beter een 6800 kopen want dan hebje tenminste ps3.0 t enige nadeel is dat het je 2 molex stekkers kost.
Voor graka fabrikanten is het topmodel altijd hoofdzakelijk een uithangbord. The big money zit in de iets lagere regionen. Het maakt voor ATi weinig uit of ze nu veel of weinig XT's verkopen. En de mensen die van plan waren een XT te kopen doen dat toch, of het nu 100 meer of minder kost...

The bottom line voor ATi is waarschijnlijk dat ze meer verdienen aan een hogere prijs. Zeker omdat de kaarten niet makkelijk te produceren zijn kunnen ze beter de vraag een beetje drukken en maximaal winst pakken.

Bedrijven zijn er om winst te maken, niet om de consument een plezier te doen.
En de prijs zal zeker in het begin altijd hoog liggen omdat de early adopters ze toch kopen, onafhankelijk van de prijs. Als deze markt is uitgemelkt en ATi merkt dat de verkopen sterk dalen dan zullen ze de prijs een beetje laten dalen zodat de volgende groep die iets minder wil uitgeven kan aanspreken, dan weer een beetje de prijs laten zakken, enz enz... je snapt hem wel.

Dat is gewoon om er maximale winst uit te halen :)
Er werdt al vaak zat gezegd dat dat pre kaarten waren en dat na 45 dagen de echte kaart in de schappen zou liggen. Eerst info opzoeken dat pas reacties plaatsen aub.
Wat er nu wel van komt (mits de 6800U en X800Pro om en nabij gelijk presteren) dat de prijzen van beide kaarten omlaag gaan.
Dit zal dan met zo'n tempo gaan dat tegen de tijd dat de X800XT het daglicht ziet (zo rond juli) die rond dezelfde prijs als deze komt te liggen.
A: Je hoeft hem niet te kopen
B: Persoonlijk vind ik de technologie die ze bieden (FarCry 2x zo snel draaien) ook zeer veel waard.
(heb je Łbehaupt wel een idee, van wat het kost om een R420, te ontwikkelen ?)
C: w8 3 jaar en je kunt hm afhalen voor nog geen honderd euro. (kan je wel lekker goedkoop de games die op de Unreal 3 engine werken, draaien)
als ati slim was geweest hadden ze hem voor 400 dollar oid verkocht dan hadden ze nog een duidelijk voordeel boven de 6800ultra.

Ik denk dat Ati hier weinig mee te maken heeft. Het is eerder het bedrijf in kwestie die hieruit een slaatje wil slaan. Uiteindelijk bepaalt die de prijs.
Heel leuk die X800 Pro maar $499 is natuurlijk te veel van het goede.
Wat zal dan de X800XT gaan kosten :(
De x800XT would waarschijnlijk pas later uitgebracht als de X800 Pro als in prijs gedaald is ( mede omdat de x800xt op de markt komt )
gezien de clockspeeds van de X800Xt vraag ik me af hoe goed leverbaar hij zal zijn als hij gereleased word.

hij mag dan wel een hogere clock hebben dan de 6800ultra en dezelfde aantal pipes maar zal zo te zien ook een goed stuk duurder zijn.

ik mag dan pessimistisch klinken maar ik vraag me echt af hoe het met de X800Xt zal gaan.
ook al gaat zou hij over een paar dagen in de benches sneller zijn dan de 6800ultra maar als je de x800xt de komende maanden nergens kunt krijgen dan heeft het punt van sneller zijn niet echt veel nut.
In dit segment is er puur voorkeur voor een merk dat doorslag geeft, of er wordt uitsluitend naar performance gekeken.

Ik vind het erg kort door de bocht om te zeggen dat de X800XT te duur is, als je niet eens weet welke performance dat ding gaat geven.

Als de X800 Pro ongeveer net zo snel is, als de 6800 Ultra, is de meerprijs voor een nog snellere X800XT al verantwoord. Nog even wachten dus tot de NDA opgeheven wordt, en de prestaties van de X800 Pro overal vergeleken gaan worden met die van de 6800 Pro en de 6800 Ultra.
dat een kaart die sneller is ook duurder is en of dit verantwoord is heb ik niet betwijfeld (als je het geld ervoor hebt is het altijd leuk).

wat ik betwijfel is of hij wel goed leverbaar gaat zijn en dat als hij dit niet zou zijn ATI er niet veel aan heeft
nvidia had dit probleem ook met de 5900ultra toen hij er net was.

en btw als toevoeging,
de X800Pro kost nu al 499 dollar volgens de post, dus de X800XT zal als hij kort na de pro verschijnt al meer dan 499 gaan kosten. beter dan de Pro zal hij wel zijn no question asked, vraag is of veel mensen dit geld ervoor over hebben want ik denk dat de X800pro ook al een erg vette kaart zal zijn.

verder denk ik dat nvidia intelligent bezig is door 3 kaarten te bouwen gebaseerd op 1 GPU.
heb je geen 499 dollar over voor het snelste high end model dan kun je vor 299 het langzaamste high end model hebben of het tussen model.
dus voor elk budget iets en de kaart makers zullen wel met de prijzen gaan rond spelen.

de geforce 6800 ik weet niet hoe goed hij of de 6800pro zijn maar ze zullen met die specs lang niet slecht zijn en de prijzen zien er ook erg leuk uit. en in die lijst mis ik een goedkope ATI high end kaart die zich met de 6800 en 6800pro kan meten kwa prijs.

verder zullen benches waarin de X800pro en de 6800 en 6800pro met elkaar vegeleken worden nogal moeilijk zijn uiteindelijk.
want volgens de lijst in het bericht is de 6800 200 dollar goedkoper dan de X800Pro en de 6800pro 100 dollar goedkoper.
hoewel ik erop gok dat de X800Pro sneller zal zijn dan de 6800pro.
Zeg nou zelf, die Nvidia 6800 Ultra ziet er toch veel indrukwekkender uit met die enorme koeler :+
Persoonlijk heb ik liever een kaartje die net zo snel is en dat er maar een kleine fan op zit.

Ziet er misschien wel leuk uit maar je stopt het toch in je kast en zie je hem niet meer.
nou nee, met kleine fans heb ik slechte ervaringen: meer herrie en onbetrouwbaar. Liever een grotere fan op lagere rpm die betrouwbaar zijn rondjes draait dan zo'n gierend fragiel fannetje.
.....Sidepanel met Window :p
Wacht maar tot de ASUS versie uitkomt ;)
Dan zal er wel weer zo'n mooi "shiny" dingetje op zitten :+ B-) Hopelijk met minder herrie deze keer ........
tja het blijft natuurlijk allemaal mooi dat grafisch geweld maar ben meer benieuwd naar de middenklasse modellen omdat de prijs prestatie verhouding daar over het algemeen beter is.

maar ik denk dat het nu mooi gelijk aan het opgaan is wat de snelheden van ati en nvidea
eerst maar es echte benchmarks afwachten met modellen die in de winkel liggen. en dan nog es gaan kijken of een 9800 pro misschien niet verstandiger is.
ziet er allemaal erg goed uit maar ik vraag me af of ik nu weer een dikke 500 euro uit wil geven voor een videokaart...
Kijk ik nu verkeerd of zijn de kloksnelheden van mijn 5900XT hoger dan die van de standaard 6800?

Wat voor voordeel zou een 6800 dan moeten hebben?
Ik dacht dat die 5900XT maar 8 pipelines heeft en die 6800 dus 12, dat zal waarschijnlijk wel wat schelen.
de 6800 heeft 16 pipes dacht ik.
Meer pixelpipelines, ander type geheugen, betere AA, 3.0 shaders en ga zo maar verder...

Kloksnelheid zegt niet alles :)
Je ziet het compleet verkeerd ten eerste is dit een X800 pro, ten tweede hebben alle kaarten van de volgende generaties veel meer pipelines dan de oude, zijn ze moderner, is het geheugen veel sneller, zitten er nieuwe versnellende technieken in etc. Een fx9500xt is totaal niet te vergelijken met een X800 of een 6800, hij wordt op alle fronten met bijna de dubbelle cijfers eruit gefietst :Z
Jij bent er zeker ook zo een die zegt dat de FX5200 met 256MB geheugen even goed is als die 6800Ultra, omdat ze allebei evenveel geheugen hebben? ;)
Met de Radeon 8500 werd destijds TruForm geÔntroduceerd... is dat 'effect' niet meer aanwezig of wordt het niet meer ondersteund?
Jawel, truform is nog steeds geschikbaar in ut2004 via de .ini files
Dit is echter, net als Anti Aliasing nu, een 3D functie van de toekomst. Waar spellen steeds meer details krijgen en kartelrandjes steeds beter worden weggewerkt blijven polygonen recht en dit is bij veel berglandschappen e.d. nog steeds goed te zien.

Truform kan hier verandering in brengen. Het stelt software ontwikkelaars in staat geen levels en models te hoeven bouwen van oneindig veel polygonen, omdat deze door ATi kaarten geinterpoleerd kunnen worden.

Het is jammer dat er in bijna alle spellen geen standaard menu optie voor bestaat. Misschien een idee voor ATi grote spel ontwikkelaars te helpen in de ondersteuning voor Truform, het is de moeite waard. De vraag is of de Truform performance vooruit zal gaan. Dit gebeurt wel met algoritmes die altijd nog geoptimaliseerd/veranderd kunnen worden.
TruForm is sinds de Radeon 8500 niet meer verder ontwikkeld. Wordt wel ondersteund door de nieuwe kaarten, maar softwarematig via de driver, dus met de nieuwe kaarten kost het stevig performance.

Jammer, want het werkte ongelooflijk goed. Was absoluut geen functie van de toekomst. Het was een feature die op dat moment al perfect bruikbaar was. Het leverde super prestaties.

Was weer zo'n typische ATI slimmigheid. Maarja... wanneer niemand het ondersteund, heeft het geen zin het verder te ontwikkelen.

Wil trouwens niet zeggen dat het concept van Truform verdwenen is. Het is in geavanceerde vorm terug te vinden in DX9 in de vorm van 'continueous tesselation' Lijkt heel sterk op Truform, maar nu aangepast, zodat alleen objecten die dicht bij staan die extra polygonen krijgen, en er geen rekenkracht wordt verspild aan objecten waar er toch geen zichtbaar effect is.

Omdat dit in DX9 zit, is er meer kans dat het zal worden gebruikt door game ontwikkelaars.
Of dat al zo ver is... geen idee.
ik denk dat het nu mooi gelijk aan het opgaan is wat de snelheden van ati en nvidea betreft
Als Temporal FSAA goed blijkt te werken bij de ATI kaarten, dus dat het gebruik van FSAA vťťl minder impact op de prestatie's heeft dan normaliter, dan heeft ATI hiermee een troef in handen die allesbepalend is. Tenminste, voor mij dan. Ik vind de FSAA prestatie van een kaart een van de belangrijkste eigenschappen die ik in overweging neem bij een aanschaf. (Ben daarom toendertijd ook voor de 9800pro gegaan i.p.v. een FX5900, ondanks dat mijn hart voor Nvidia uitgaat. FSAA van ATI zag (ziet) er gewoon beter uit.)

Ik zag in de 6800u benchmarks van Tom's H. dat de 6800u het benauwd krijgt als je UT2004 in 1600x1200 speelt met 8xFSAA. Temporal FSAA (wat Nvidia dus niet heeft) zou hier wel eens verlichting kunnen brengen. Maar dan moet 't wel goed werken natuurlijk...
Ik zag in de 6800u benchmarks van Tom's H. dat de 6800u het benauwd krijgt als je UT2004 in 1600x1200 speelt met 8xFSAA. Temporal FSAA (wat Nvidia dus niet heeft) zou hier wel eens verlichting kunnen brengen. Maar dan moet 't wel goed werken natuurlijk...
In de huidige generatie videokaart (Nvidia: 5x00, Ati: 9x00) was 6 x FSAA het maximale. 8 x FSAA is dus weer meer en 'nieuwer'. Het ziet er allemaal nog strakker uit. Daarbij is een resolutie van 1600*1200 niet mis hoor, uiteraard wil de die-hard gamer (waar deze kaart uiteraard voor is) op zo'n resolutie gamen. De meeste mensen (en ook echte serieuze gamers doen dat nog) spelen games op een resolutie van 1024*768 (de gewone 'gamer') en 1280*1024 is voor de meeste gamers goed genoeg. Ik ken eigenlijk niemand die echt een game gaat spelen op 1600*1200, enorme resolutie. Dat daardoor de prestatie van zo'n videokaart daalt vindt ik niet vreemd. Zo'n nette precisie op zo'n hoge resolutie eist z'n tol op. Ik verwacht dat ati het niet veel beter zal doen. Ik denk dat Nvidia een goede zet heeft gedaan om hun AA en AF en algehele beeldkwaliteit flink omhoog te doen en de prestaties zijn niet misselijk. Prachtig als Ati hetzelfde kan doen wordt een mooie strijd.

troll?? mag ik weten waarom...?
Voor een fps ben ik het met je eens. 1600*1200 is dan niet interressant om mee te kunnen winnen. Maar voor een rts als CnC Generals, heb je een enorm groter overzicht en daar ben je veel meer bij gebaat.
waarom denk je dat er matches zijn waarbij de resolutie gelockt wordt op 800*600.

Voor de singleplayer heb je dan wel 1600*1200 maarjah, van de AI win je toch wel/
Nvidia heeft inderdaad de beeldkwaliteit van hun kaarten flink omhoog geschroefd. Ze zitten nu bijna op het nivo van ATI.
Alleen gaat ATI nu nog een stap verder dus.
Nou, sorry hoor, maar bv de ATI Radeon 9800 Pro kaart die ik nu heb vind ik maar gewoon een klote kaart, ik heb nog nooit zoveel problemen (graphix glitches) gehad met deze kaart, als dat ik ooit met mijn Geforce2 gts heb gehad.
Dus voor mij wordt het hierna gewoon weer NVidia, waar ik altijd zeer tevreden over ben geweest.
Even voor de goede orde... De AA levels van ATI en NVidia zijn totaal onvergelijkbaar.

ALLEEN de 4xAA van de 6800u is vergelijkbaar met 4xAA van de ATI R3xx. Komt omdat NVidia eindelijk ook een rotated grid gebruikt voor die mode.

Maar dat geldt niet voor al die andere AA modes in de 6800. Daar komt de aloude shit weer in naar voren. De 8xAA van de 6800u is beduidend slechter dan de 6xAA van ATI. (Om over de prestatie nog maar niet te spreken).
En wat betreft de NV3x lijn, geldt grofweg n x AA van ATI komt overeen met 2n x AA van NVidia.

M.a.w... NVidia kan op dit moment al niet concurreren met ATI wat betreft AA. Niet qua snelheid, en niet qua kwaliteit.
En met die nieuwe temporal variant, kan ATI zijn AA kwaliteit verdubbelen zonder prestatie verlies...

Op AA gebied zal NVidia het verschrikkelijk zwaar krijgen, vooral omdat temporal AA technisch niet mogelijk is voor de NVidia kaarten...
Je kan je voorstellen dat als ik een mooi lcd-scherm heb dat native op 1600 x 1200 draait. Dat ik dan ook op die resolutie wil gamen.

T'is dus toekomst gericht denken.
toekomst gericht hoor ik toch?
nou slaap maar lekker verder want over een jaar kan deze kaart dus geen enkele nieuwe topgame op die resolutie draaien met alle settings op het hoogste niveau.
wat een dus duidelijk nodig is (ik vind detail belangrijker dan een "leete" resolutie)

Als er straks doom3 uitkomt en HL2 denk ik dat ze het ook maar net zullen trekken.
Maar als dan daarna Q4 en Unreal zullen uitkomen ddenk ik dat je aan deze kaart niet meer genoeg zult hebben hoor.
dus "toekomst gericht" gaat maar voor een deel op.
weet iemand wanneer ze in nederland worden geintroduceerd? of is het wereld wijd vanaf 7 mei al??
hoop het wel, dan zal de prijs van de 9800XT en 5950 ultra hopelijk wel gaan dalen...
Verwacht geen grote prijsdaling, de Radeon 9800XT ligt al op een gigantisch laag prijspijl (en is zonder meer ook de kaart met de beste prijs/prestatie verhouding van het moment). Voor 193 euro heb je al een Sapphire Radeon 9800 Pro 128MB.

Toen de Radeon9800Pro uitkwam daalde de Radeon 9700 ook nauwelijks in prijs, omdat deze toen ook nog maar rond de 210 euro kostten. Binnen enkele maanden verdwenen deze toen van de markt.
maar weet iemand nu ook wanneer deze uitkomt?
Dat SM3.0 niet ondersteund wordt is inderdaad wel zo een beetje bekend (zo een hardnekkig gerucht wordt weinig ongelijk bewezen).
Enkele functies van SM3.0 zitten er blijkbaar wel in. Bijvoorbeeld dat de precisie is toegenomen maar dat vind ik dan nog niet eens zo belangrijk, het is niet zo dat de zichtbare kwaliteit er zo super op vooruit gaat.
Wat ik me wel afvraag is of er displacement mapping door de kaart ondersteund wordt. Deze techniek geeft Nvidia op beeldkwaliteit (in 3D games/apps) toch wel een voorsprong als Ati het niet heeft.
Displacement Mapping is een techniek die al in de eerste versie van DirectX 9.0 zit. Bijgevolg ondersteunen alle DX9 kaarten deze techniek, dus ook de nieuwe ATI. ;)
Dat is maar een nogal beperkte versie van displacement mapping. De nV40 ondersteunt het op een flexibele manier, heeft ook vertex texuring, dat is het echte werk.
De DM die de NV40 ondersteunt maakt gebruik van VS3. Alle geruchten gaan er vanuit dat ATI ook VS3 ondersteunt. (maar niet PS3)

Verder heeft ATI al vanaf de R300 andere DM support. Net zoals de Parhelia ook al een andere vorm van DM ondersteunt.

Je kan in die zin ook niet spreken over het "echte werk". Nvidia ondersteunt gewoon een andere versie.

Het lijkt er op dat HL2 voorlopig het eerste spel blijft dat DM gebruikt. Zij hebben het al geshowed met een R300. Maar ze claimen dat ook een FX het zal kunnen draaien, dus waarschijnlijk doen zij het in software.
Ik zie jammergenoeg geen vertex texturing tussen de feats van de x800 staan.
De R3xx heeft ook DM maar dan alleen presampled en geÔmplementeerd als fixed function.
BTW je mag de performance hit van vertex texturing bij de nv40 niet onderschatten. Ik denk dat we nog 1 generatie moeten wachten voordat we displacement mapping in actie gaan zien in games.
Er is natuurlijk nog offset mapping (doet hetzelfde maar enkel het licht, dus zonder de geometrie te vervormen) die kan met de huidige gpu kracht goed worden gebruikt. Voor voorbeelden zie de Unreal Engine 3 screenshots en de Far Cry screens op het SM2.0/3.0 pad.
Vertex texturing is een onderdeel van VS3. En aangezien ATI dat volgens alle geruchten ondersteund, is de NV40 op dit punt dus helemaal niet bijzonder.

Ik denk trouwens dat het belang van DM zwaar overschat wordt.

Echte DM op muren e.d. is alleen maar mooi, als er ook dan dynamisch schaduw gerenderd wordt. M.a.w. een gigantische performance hit. Hoogst inefficient dus. Daar zul je DM dus niet voor gebruikt zien worden.

ALLE DM plaatjes die de afgelopen tijd de revue hebben gepasseerd, waren virtuele DM.
Hetgeen gewoon een super geavanceerder bumpmap is. Hetgeen dus gewoon met pixels shaders gaat, en niet met vertex shaders.
En dat kan je dus gewoon met PS2.0 doen.
Je krijgt dan nog een extra probleem. Die schaduwen van DoomIII bv werken bv niet met Displacement Mapping.
Ah dat wist ik niet :)
Maar displacement mapping wordt tot nu toe niet veel gebruik van gemaakt dan.
Tenminste, ik heb het toch goed dat in het unreal engine 3 filmpje van laatst, ze displacement mapping bij stenen op de muur lieten zien waarbij de schaduw mooi meeberekend werd?
Dat heb ik namelijk nog niet in een spel gezien (misschien niet goed opgelet :P)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True