Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties
Bron: HardwareAnalysis, submitter: stunter

Wie de ontwikkelingen in videokaartenland volgt, weet het: ATi zal binnenkort een aantal grafische kaarten met de nieuwe R520-core uitbrengen. De introductiedatum is ondertussen zo dicht genaderd dat het team van Hardwareanalysis al tijd voor een degelijke shootout wist te vinden: ze bemachtigden een X1800 Pro en een X1800 XT en lieten die het tegen ATi's eigen X850 XT PE en tegen de diverse nVidia-concurrenten opnemen.

ATi R520-vraagteken Over de specificaties is het laatste woord nog niet gesproken. Hoewel we eerder deze week nog wisten te melden dat er toch 24 pipelines op de kaart zouden zitten, zijn het er volgens Hardwareanalysis uiteindelijk 16 geworden. De gpu van het topmodel, de XT, is deze keer op 600MHz geklokt en is uitgerust met 512MB geheugen dat op 700MHz loopt. De goedkopere Pro-editie moet het met de helft minder geheugen doen, en zowel core als geheugen draaien op 500MHz. Vooral de prijs valt tegen, schrijft de site: 600 dollar voor een XT en 450 dollar voor een Pro zijn prijzen die een pittig stuk hoger liggen dan de bedragen die voor vergelijkbare modellen van nVidia neergeteld moeten worden.

De benchmarks laten wisselende resultaten zien. Hardwareanalysis vindt de prestaties niet meevallen; hoewel de ATi-kaarten bij bijvoorbeeld Far Cry als vanouds heel behoorlijk presteren, zijn de nVidia's over het algemeen goed tegen de nieuwe concurrenten opgewassen. In het overzicht hieronder zijn voor de duidelijkheid de geteste SLI-opstellingen weggelaten; in veel gevallen legden de nieuwe ATi's het af tegen twee nVidia's. Wie een geschikt moederbord heeft en niet opziet tegen extra stroomconsumptie en geluidsproductie, moet in plaats van een enkele X1800 dan ook zeker twee goedkopere nVidia's overwegen. Een opstelling met twee 6800GT's hoeft niet (veel) duurder te zijn dan de nieuwe paradepaardjes van ATi.

resolutie7800 GTX7800 GT6800 Ultra6800 GTX1800 XTX1800 ProX850 XT PE
Half-Life 2
1024*768121.17113.3789.3284.82123.18112.11116.08
1280*102498.1883.7262.2857.3297.287.1187.51
1600*120076.6262.7647.7942.2268.4159.6764.23
Doom III
1024*76863.559.845.842.553.844.730.6
1280*102444.641.133.631.237.333.523.5
1600*120033.830.826.424.627.122.418.4
Far Cry
1024*768102.8891.836964.26107.9298.5490.81
1280*102473.462.5348.845.574.465.1963.51
1600*120053.1744.9636.133.4753.8348.6747.32
Splinter Cell: Chaos Theory
1024*768102.4286.5271.3370.5689.8879.466.21
1280*102477.8464.8451.4847.2366.3152.4348.32
1600*120058.5348.4739.2436.2352.3342.7139.08
Voor alle tests geldt:
* frames per seconde: hoger is beter
* 4*AA, 8*AF

Strafhoekje De conclusie moet zijn dat ATi leuk meedoet, maar een nVidia-killer heeft het bedrijf niet in handen - het bedrijf is domweg een half jaar te laat met de nieuwe gpu. Vooral bij hogere resoluties leggen de nieuwelingen het af tegen de met meer shaders uitgeruste kaarten van de concurrentie, en bij de Half-Life-tests weet de X1800 Pro het zelfs niet van de 'oude' X850 XT PE te winnen. Crossfire-opstellingen zullen het ongetwijfeld van de meeste 'enkele' nVidia-kaarten kunnen winnen, maar voor serieuze concurrentie zullen de kaarten dan een stuk goedkoper moeten worden. Met prijzen die vijftig tot honderdvijftig euro hoger liggen dan die van de directe concurrenten gaat ATi geen potten breken. Er is nog wel een sprankje hoop: ATi heeft vroeger meermaals nog flink wat extra prestaties uit driveroptimalisties kunnen halen. Het is te hopen dat ze dat kunstje kunnen herhalen, en het is ook te hopen dat ze iets anders níet herhalen: moeizame levering in de eerste maanden na lancering. Kortom: als ATi deze kaarten niet snel in grote aantallen goedkoper kan aanbieden, kon nVidia het de komende tijd nog wel eens makkelijk gaan krijgen.

Lees meer over

Alle 23 producten

Gerelateerde content

Alle gerelateerde content (30)
Moderatie-faq Wijzig weergave

Reacties (96)

Jongens jongens, zijn de 15 jarigen weer achter de computer gekropen?

"Het einde van ATi" |:(
"Hahahaha, ATi kan nog niet eens meekomen" :Z
"ATi blijft achterlopen" }:O

Jullie begrijpen er werkelijk weiig van, sorry to say. nVidia heeft hier de mogelijkheid gehad een nieuwe kaart neer te zetten op een proces dat ze al erg goed onder de knie hebben, wel te verstaan het 110nm proces. En even van te voren; ik vind beide partijen erg sterk in de markt en ze doen het erg goed.

Maar denk hier eens over. ATi is nu het diepe in gedoken met de 90nm technologie en daar betalen ze nu een achterstand van anderhalve maand voor, vervolgens hebben ze wel een werkende techologie waar ze steeds meer de vruchten van kunnen plukken. Als nVidia de overstap moet maken kost ze dat ook tijd. Dat -kost- gewoon tijd, veranderen van producite proces. Heel simpel.

En dat ATi nu moeilijk meekomt is niet zo raar hoor, hun ontwerp cyclus zal korter geweest zijn doordat ze tegelijkertijd (of van te voren) die 90nm moesten implementeren. Ik denk dat de R580 (en nagezaten) heel wat beter uit de verf zullen komen.

De strijd is er nog steeds, en alstjeblieft hou het niveau hier een beetje op peil. Dat geblaat zonder argumenten, bagger hey.
Je hebt zeker gelijk. Overstappen naar 90nm kost veel tijd. Van de andere kant, dat hebben ze zelf besloten. Blijkbaar hadden ze het nodig. Laten we eerlijk wezen, als ze deze chip op 110nm hadden gebakken dan had de chip zéker geen 600mhz kunnen klokken. En was daarmee dus alleen nóg meer tegen gevallen. nVidia heeft hier een voordeel mee. Ze hebben een kaart die op 110nm de concurrent verslaat die al op 90nm zit. Als zij straks die overstap maken (of daar al mee bezig zijn) terwijl ATI vrolijk aan de R580 werkt dan kan het best zo zijn dat de G80 nog een stuk hoger kan klokken (en uit de overklokresultaten op internet blijkt al dat de huidige 7800GTX redelijk veel headroom heeft).
Ivm het overclocken :
'k heb hier een 7800 GTX steken van MSI, en die garanderen met hun DOT-techniek al een 10 % OC op zowel geheugen als Core.

De kaart draait idd ten alle tijden stabiel op 10 % OC (8.8 % effectief te zien in benchmarks).

Waarschijnlijk zal ze wel 12-15 % OC'en, redelijk wat :) , op standard cooling.
Gewoon onzin, de xeon gpu van de xbox is ook 90nm en heeft geen problemen. Nvidia heeft de RSX op 90nm en heeft ook geen problemen. Beide hebben al een tijdje goedwerkende 90nm produkten. De problemen van de R520 waren gewoon niet voorzien omdat de xbox gpu zo vlotjes ging. Door deze onvoorziene problemen hebben ze vertraging opgelopen.
Dus je onzin dat ati minder tijd had klopt gewoon niet, zowel ati als nvidia hebben al werkende produkten op 90nm.
Dus je onzin dat ati minder tijd had klopt gewoon niet, zowel ati als nvidia hebben al werkende producten op 90nm.
Voor zover ik weet, wordt de productie nog steeds uitbesteed aan grote chipfoundries. Dus het kan makkelijk zijn dat de xeonGPU in een andere fab wordt geproduceerd dan de GPUs van deze kaarten. Het al dan niet al een werkende kaart op 90nm hebben maakt dan geen verschil meer uit: indien de fab nog geen "ervaring" had met 90nm, zitten ze weer met dezelfde overgangsproblemen.
Het blijft natuurlijk wel gissen, het kan evengoed zijn dat deze benchmarks idd vals zijn. Het blijft dus wachten op een betrouwbare review.
Dat ding in de XBox2 heeft de Xenos
laat aub de leeftijd buiten beschouwing, fanboys zijn er in alle soorten en maten, verder heb je overgens helemaal gelijk

overgens heeft ATI nu wel een probleempje, de XT heeft slechte yields en kan goed met de 7800GTX mee komen maar is dus te slecht verkrijgbaar en te duur, ik hoop dat de volgende ronde weer gelijkwaardiger word hoewel ik denk dat nVidia dan nog een voorsprong heeft.

overgens is de rede om naar minder aantal nm productie overtestappen natuurlijk simpel, het gebruikt in princiepe minder energie (jawel teoretisch bij de P4 bleek dat nog al tegen te vallen) en er gaan meer chips uit een wafer, goedkoper dus op de lange termijn
Ik heb het echt gehad met al die speculaties. Ik wacht op een officiële review van een gerenommeerde site, en dan kan er pas een uitspraak gedaan worden.
Hierop reageren en discussiëren is echt zinloos.
Dit is een echte review, dit is een betrouwbare site. Heb je de site al eens bekeken? Weet je wel wie de reviewer is? Het is niet omdat je ati fan bent en omdat de resultaten tegenvallen voor ati dat je maar besluit de alles onbetrouwbaar is.
Dit een echte review? Heb je het artikel wel gelezen?

Als dit een echte review is, dan zijn alle geruchten van The Inquirer zeker ook echte reviews volgens jou?
Hier ben ik het 1000% mee eens. Check alle bronnen/fansites. Ik ga niet praten in termen als 'fanboy's' of andere dingen, maar _iedereen_ gaat ineens flink overreacten over scores die buitengewoon onbetrouwbaar zijn. Ik ga wel eens serieus een kijkje nemen wanneer de grote sites allemaal een review plaatsen betreffende de X1800 series.
wel geinig om te zien dat de 7800 gtx op de meeste benchmarks sneller blijft dan de x1800 xt :P terwijl ze bij ati 'meer' tijd hadden voor verbeteringen... en de 7800 kan makkelijk hoger geklokt worden, ik vraag me af of de ati's goede overklokkers zijn
Vrij zeker van niet, ze hadden enorm veel moeite om de topmodellen in 90 nm te maken, weet je nog?
edit: 65 naar 90
65nm? Dat gebruiken ze niet hoor. ATI gebruikt het 90nm procédé voor hun nieuwste serie. nVidia gebruikt overigens nog het 110nm procédé.
Idd, sorry. Ik wist nog dat ze een trapje kleiner bezig waren dan nVidia, daarmee...
Dat was 90nm, en ook de yields die moeilijk hoog te clocken zijn.

(Edit: ThaMind was me voor)
Dat hadden ze niet, hun topmodel voor de xbox is ook 90nm en werkt perfect, alle andere X1800 kaarten buiten de XT zijn ook 90nm en hebben ook geen problemen.
zelfs met Half-Life 2 waar Nvidia altijd langzamer was :D.
Ik zit nog te wachten op de becnhmarks in Crossfire, dan ownt ati geloof ik makkelijk!

Omdat ze hier ook tegen SLI deden, en dat is niet 100% eerlijk, ook vind ik de becnhmarks erg tegenvallen!

(zijn het wel 2 dezelfde PC's qua proc en ram?)

Opmerking van iemand van MSN:
Ze zijn erg partijdig, ze pakken erg veel nvidia spellen! Doom 3, Splinter Cell en Far Cry zijn geoptimaliseerd voor nvidia!

Meer becnhmarks:
http://www.hardwareanalysis.com/content/article/1813.1/


Omdat niet allemensen helemaal tot onderkijken:

Gepost door wagnef - vrijdag 16 september 2005 - 20:11 Score: 2 (Informatief)
Volgens ATI klopt deze bench totaal niet:

ATI's (Chris Hook) first reaction to this article was: " Fiction. I don't believe these numbers were ever run on a 520 ".

A second response just came in:

"This is a complete hoax - done with an OC'd X850, we think. Call our partners yourself and ask if they have R520XTs in house. The numbers aren't even close."

Bron:
http://www.guru3d.com/newsitem.php?id=3069
Opmerking van iemand van MSN:
Ze zijn erg partijdig, ze pakken erg veel nvidia spellen! Doom 3, Splinter Cell en Far Cry zijn geoptimaliseerd voor nvidia!
Doom3 is inderdaad geoptimaliseerd voor nVidia, maar Splinter Cell is gewoon geoptimaliseerd voor Shader Model 3.0 (wat de X1800 ook ondersteunt), en FarCry draait sinds release juist altijd harder op ATi hardware (ook in dit geval), net als Half/Life2.
Lijkt mij dus gewoon een eerlijke set games...

De X1800XT blijft net als de X850XT PE gewoon een op de R300 architectuur gebaseerde 16pp videokaart die - met wat optimalisaties - slechts ~13% harder loopt dan de X850XTPE. Dat zie je ook gewoon terug in de resultaten.

De X1800Pro loopt trouwens op 500/1000, en is door de verbeterde architectuur in de meeste gevallen wel sneller dan de X850XTPE (540/1180). Alleen in Half Life2 hangt de grafische snelheid blijkbaar meer af van de core/memspeed (i.c.m. het aantal pipes) dan van de betreffende optimalisaties. Dit zag je ook al eerder duidelijk terug bij de Geforce 6800 series in vergelijk met de Radeon X8x0 serie... dus ook dat resultaat is niet zo verassend...

Wat betreft de response van ATi:
ATI's (Chris Hook) first reaction to this article was: " Fiction. I don't believe these numbers were ever run on a 520 ".
A second response just came in:
"This is a complete hoax - done with an OC'd X850, we think. Call our partners yourself and ask if they have R520XTs in house. The numbers aren't even close."
Als Chris even een X850 kan leveren die op 500/1000 de prestaties van die "hoaxed" X1800Pro neerzet, en die op 600/1400 gelijk optrekt met de getoonde X1800XT scores... heel graag a.u.b..! ;)

Zonder gekheid: Wat zou het voor zin hebben om een X850 hoog op te kloken en te beweren dat die performance dan wel ongeveer gelijk zal staan aan een X1800Pro of X1800XT? Die opmerking raakt i.m.h.o. kant nog wal. Kijk ook naar de Doom3 performance in die charts: die ligt bij de X1800Pro tot 50% hoger dan bij de X850? Hoe hebben ze dat geflikt dan, met een overklokte X850?

Wat eventueel natuurlijk altijd nog zou kunnen is dat ATi - als surprise voor nVidia - alsnog een 24pp XT zou releasen, en de 16pp XT scores van HardwareAnalysis zijn behaald met een overklokte XL. In dat geval kloppen de getoonde XT scores inderdaad niet.
Een driverupdate kan ook nog helpen, maar ik verwacht hier niet meer dan 5 tot maximaal 10% verschil mee.

Wie er in dit mediacircus gelijk heeft? Only time will tell ;)
Wat eventueel natuurlijk altijd nog zou kunnen is dat ATi - als surprise voor nVidia - alsnog een 24pp XT zou releasen, en de 16pp XT scores van HardwareAnalysis zijn behaald met een overklokte XL. In dat geval kloppen de getoonde XT scores inderdaad niet.
Dat lijkt me erg waarschijnlijk, maar dat zal dan wss wel weer zo'n papieren launch zijn, om toch maar de nVidia's te kunnen verslaan.
En die driverupdate die zal er wss ook wel komen, maar de vraag is dan wel in hoeverre de beeldkwaliteit aangetast zal worden... Want als deze benchmarks echte benchmarks zijn van ATI's nieuwe paradepaardje, dan zit ATI met een mindere generatie kaarten. ATI mag dan vooral geen "driveroptimalisaties" doorvoeren zoals die van nVidia ten tijde van het FXdebacle. Het hele verhaal doet me er in elk geval aan denken: die bemoeilijkte overgang naar 90nm van ATI, terwijl nVidia op het vertrouwde procédé blijft. Alleen zijn de rollen nu omgedraaid.
Ik zit nog te wachten op de becnhmarks in Crossfire, dan ownt ati geloof ik makkelijk!
Wie zit er in godsnaam te wachten op crossfire |:(, alsof één X1800 XT al niet genoeg kost...
Ik zit nog te wachten op de becnhmarks in Crossfire, dan ownt ati geloof ik makkelijk!
Ach je mag dromen zoveel je wil maar crossfre gaat SLi helemaal niet ownen want Crossfire is berperkt tot maximaal 1600x1200 @ 60Hz. Dit is te belachelijk voor woorden. Crossfire is een doodgeboren kind.

Flicker free, high resolution gaming? Alleen met SLi
Jep, en dit is ongetwijfeld waar, want het is nu al zo'n beetje confirmed dat het met een X850 was:
Currently im under NDA so I can not post benchmark results regarding ATI's forthcoming R520 board, but after reading an article today over at HardwareAnalysis I feel its worthwhile giving my views on this.

Hardwareanalysis have been snubbed by ATI and claim to have some results running with the R520 (X1800) which he states have been ran in conjunction with a board partner :

"Normally we would’ve adhered to ATI’s NDA and published results the moment it expired. However this time around ATI decided to just not bother with us as they made it very clear that we did not make the cut, as we have written some articles about CrossFire, R520 and ATI’s financial situation that were apparently not appreciated. Hence we’ve not been briefed by ATI, nor did we sign an NDA, or have been invited to the launch event, so basically they decided to cut us off."

With the help of a board partner we’ve been able to run the same set of benchmarks we’ve previously run on NVIDIA’s GeForce 7800GT and GTX"

Most of you will realise when a website is given hardware by a company like ATI or NVIDIA, testing is done internally by a site reviewer, a member of the reviewing team, I find this article a little disturbing, is this the way hardware sites are going to handle benchmarking in future when "snubbed" by a manufacturer? to have AIB's run tests for public viewing within environments outside our control? There are so many variables involved in this it would certainly not be something I would ever feel comfortable with on any level. It is a website's duty to print their findings to their readers.

I have had some experience with a R520 and I have to say I find the results somewhat suspect. I am not going to get into an "Nvidia V ATI" debacle, the current Nvidia 7800 hardware is first class and has received a heavenly hardware gold award on Driverheaven, the issue at hand are the methods it appears some sites are getting their "results" of unreleased hardware. The results at Hardwareanalysis are scores ive achieved with an overclocked X850XT PE and not a R520 graphics card. I can't help feel with the context of the editorial is it merely a "stab" at ATI for being kept out of the loop.

Speaking with ATI today one of my sources was keen to say "Everyone will see in October that the only board Sander tested was a Ouija board."

My suggestion for all our members reading this is to not get too caught up in "previews" clearly based on bitterness from websites out of the loop but to wait until respected sites like Hardocp, Hexus and ourselves bring figures by testing first hand not via other sources.
ben geen nvidia fan ofzo maar het ligt neit an de spellen ofzo, nvidia is gewoon net ietsjes sneller, ze hadden ook gelijk de 580 moeten uitbrengen echt doodzonde na al die maanden hadden ze 2 maanden wel erbij kunnen zetten aan wachten
Volgens ATI klopt deze bench totaal niet:

ATI's (Chris Hook) first reaction to this article was: " Fiction. I don't believe these numbers were ever run on a 520 ".

A second response just came in:

"This is a complete hoax - done with an OC'd X850, we think. Call our partners yourself and ask if they have R520XTs in house. The numbers aren't even close."

Bron:
http://www.guru3d.com/newsitem.php?id=3069
Dat is grappig want later bevestigde Chris ( een andere ATI insider ) dat de nummer close zijn.

Ook zo een grappig zaak is hoe de D3 nummer niet overeenkomen met wat een oc'ed x850, waar ze een duidelijker verbetering hebben.

Dit is bijna paniek voetball. Je moet een kijken op rage3d ( ATI fansite ) hoe er geroepen & getiert word hoe de nummers niet kloppen, hoe de newsposter ( de review was gedaan door iemand anders ) "ati bias" is, hoe de site eigenaar van rage3d op zijn dak krijgt omdat hij deze niet zo positieve newspost durfde posten etc ...

Men is lang alle kanten aan strohalen zich aan het vasthouden. Eerst was men aan het beschuldigen dat de review niet klopt omdat men "dacht" te lezen ( met de roze brill ) dat een mede reviewer die wel kaarten had ze gedaan had. Terwijl de newsposter duidelijk aangaf dat het van een kaartproducent zelf kwam ( tot 2 maal toe ), en niet van een reviewer. Dan kwam men af dat ATI enkel XL's naar reviewers gestuurd heeft & dan deze cijfers niet klopts volgens een bron ergens.

Grappig, mensen keken weeral over de informatsie dat het van een kaartmaker kwam. Toen dit niet lukte, begon men de site's & de eigenaar integriteit aan te pakken omdat hij niet gekozen was door ATI voor reviews ( wat niet verbazend is als men ook de minder goede PR stukjes van ATI durft posten ;) ).

*zucht* Nu is men bezig weer langs een andere hoek aan te vallen. Wat een fanboy'ism dat er aan de hand is...

De resultaten zijn in de verwachtingen van de mensen die niet geloofde in al die 32 pipes 700mhz crap waar de fanboys zich aan vastklampte.

Jongens toch, wat een frenzy op de fansites. Het is geleden sinds de nvidia FX serie dat ik nog zo een overreactie gezien heb.
Och, dat geld niet alleen voor Rage3D.

Op Beyond3D is ook iedereen het er over eens dat wat die figuur bij hardwareAnalysis heeft gedaan absoluut niet aanvaadbaar is.
En dat is niet de mening van ATI fans, maar van reviewers van allerlei sites die op dat forum posten.
(ook de mening van mensen die er van overtuigd zijn dat de R520 'maar' 16 pipelines heeft)

De cijfers hebben hetzelfde betrouwbaarheids gehalte als een gerucht op The Inquirere en het is duidelijk dat het er alleen maar om ging om extra hits op de site te krijgen, en een stuk frustratie tegen ATI te uiten.

Maar ach, dat is nou eenmaal de realiteit van internet. Je hebt er goede en betrouwbare sites, maar je komt net zoveel troep tegen. De truuk is het onderscheid te maken.
Hmmm, nog nooit van die hele site gehoord, dus wacht nog wel even met conclusies trekken tot er meer benchmarks zijn van bijvoorbeeld anandtech en xbitlabs...

maar als deze benchmarks kloppen, dan zal nVidia deze ronde in ieder geval de High End winnen, nu nog afwachten hoe het afloopt met de mainstream en budget segmenten...

edit: Als ati z'n X1600 reeks snel op de markt kan krijgen kunnen ze hier wel heel goed mee scoren
Je trekt de bron in twijfel, maar zo'n onbekende is Hardware Analysis niet hoor. Persoonlijk vind ik het zelfs één van de betere hardware sites, vooral voor hun configuratie tests, die bijzonder goed gedocumenteerd zijn en waarbij er een zeer goede follow up vind ik legendarisch.
Misschien een erg persoonlijke menig maar ik wou toch even tegengeluid horen omdat je de betrouwbaarheid van de bron erg sterk aanvalt.
En niet alleen deze ronde, dit kan zo'n beetje het einde van ATi als grote concurrent van Nvidia betekenen, wat in principe het begin van het einde is.

Als de nieuwe generatie, de r580 heel goed uitpakt kunnen ze nog wat terugpakken, maar als dit zo doorgaat zal ATi op desktop gebied weinig meer kunnen doen tegen Nvidia.
Dit is natuurlijk niet echt waar aangezien de midrange van ati wel gewoon goed verkoopt en vorig jaar liep nvidia achter met ze 5 serie ! en zie waar ze nu weer zitten misschien dat volgend jaar ati wel weer heer een meester is !! dit blijft gewoon een leuk spel :D
volgens mij heeft hij het over de verkopen, niet de prestaties ;) bovendien ownt intel ze allemaal vierkant qua marktaandeel dus tja :/
reality check: de enige markt waar ati goed in scoorde was de high end. Mid range en low end waren volledig nvidia (6800GT - 6600GT)
STERK te betwisten hoe waardevol deze preview is.
reviewer heeft de kaarten niet eens gekregen, en via via wat resultaten opgevangen.

dit kan je geen review noemen.
ik hoop het voor Ati, want de X1800 doet het nauwelijks beter dan de X850 XT PE in HL2 zou hij zelfs trager zijn
alleen doom3 is een stuk sneller, maar nog steeds trager dan de 6800
een echte killer wordt het wel niet volgens dit
De X850XTPE is een refresh editie en die valt eigen uit tegen 'n refresh editie die nV heeft over geslagen dus je pakt de 6800 en de 7800 en daar de gemiddelde van
6850 Ultra extreem. dus die valt ergens tussen de 6800U en de 7800GTX in
Als ik de resultaten zie dan presteerd de X850XTPE zoals 'n 6800GT SLI of aardig tegen de 7800GT aan.

Aangezien de X1800pro 'n normale BIN produktie GPU is en X800XTPro 'n lage BIN produkt is dit zeker niet slecht.

Daarnaast heeft ATI 'n driver achterstand dus kan 'n stuk beter worden.
Daarnaast kunnen nV en ATI nog altijd 'n
7800Ultra & X1800XT PE uitbrengen om het gat tussen vorige gen nog te vergroten. En dat is de X850XTPE
Een game-engine wordt geoptimaliseerd voor een kaart. Neem bijvoorbeeld Doom 3. Carmack heeft gezegd dat hij zn engine voor de GeForce 3-4 reeks heeft geoptimaliseerd. Dan is het ook logisch dat nVIDIA dan beter uit de test komt dan ATi. Volgens mij kan je een game niet voor beide merken optimaliseren, omdat de verschillen tussen de kaarten te groot zijn.

edit: game -> kaart :P
Beide chips gebruiken dezelfde API: DirectX. Als men dus gewoon de DirectX standaard volgt, zou het op beide kaarten even goed moeten draaien (mits de kaarten an sich natuurlijk even snel zijn). Bij Doom3 heeft nVidia speciaal in de 6800 serie (en dus nu verder ook in de 7800 serie) wat nieuwe hardware technieken ingebouwd, waar Doom3 veelvuldig gebruik van maakt. ATI heeft deze niet, en daar ligt dan het probleem voor ATI.

Edit @Comp_lex: goed, OpenGL...DirectX, het blijven API's die ze eigenlijk gewoon beide volledig horen te ondersteunen. Dat ATI dat niet volledig doet, is dan ook meteen hun probleem. Ik doelde meer op nVidias CineFX wat een bundel is van allerlei nieuwe hardwaresnufjes bij elke generatie. Die waren bij de 6800 serie duidelijk gemaakt voor Doom3 (en andersom). OpenGL of DirectX, dat maakt in dat geval niets uit. Het gaat om bepaalde hardware technieken die de implementatie van de (beide) API's sneller maken, en nVidia heeft zich daarmee vooral geconcentreerd op de door Doom3 veel gebruikte technieken.
Volgens mij maakt Id Software veelvuldig gebruik van OpenGL. Ik heb ff wat research gedaan en het blijkt dat ATi niet alle OpenGL functies (goed) ondersteund. (nieuws: ATi belooft betere OpenGL-driver voor Doom 3) Vice versa kan dus ook...
Doom3 maakt gebruik van een aantal technieken op de 6800 series. Daarbij zijn er in code inderdaad optimalisaties voor de GeForce series.

Er zijn door even te googlen diverse shaders optimalisaties te vinden voor doom3 welke een prestatiewinst van zon 15% tot 30% weten op te leveren.

Wat ik erg grappig vond aan een aantal hievan is dat deze er meestal op gebasserd waren om de kaart berekeningen te laten doen terwijl de methode die door ID gebruikt wordt een voorberekende tabel is waar een waarde uit geslecteerd wordt.

Wat een leuk voordeel is van het werken met OpenGL is dat je via dezelfde api ook hardware specifieke functies kan gebruiken. Zoals b.v. de ultrashadow functie.

Daarbij was het overigens al langer bekend dat ATI niet de meest fantastische open gl driver had. Echter ATI was zich toen volledig aan het focussen op het bouwen van een modulaire driver met als eerste mikpunt DirectX. Hiervoor waren op dat moment ook de meest spelen beschikbaar. Open GL werd eigenlijk niet veel gebruikt behalve door b.v. de Quake-engine
en de r580 komt er ook nog aan :) en die zou wel nog een stuk beter zijn dan de r520, beetje andere core, compleet andere team
ja maar die moet het tegen de G80 opnemen en niet tegen de G70
Hun release schema is niet meer synchroon.j
Voor alle nee-knikkers en anderen die ATI propaganda als zoete koek slikken, hier nog even wat feedback.

Slander Sander? A reply to ATI
http://www.hardwareanalysis.com/content/article/1814/
Jij bent wel verdomd dapper in deze heftige wereld waar relaties en "vrienden" binnen de "journalistieke wereld" behouden belangrijk lijkt om in zo'n world of hurt terecht te komen.
Best grappig om al die reacties te lezen overal... Misschien was wel de bedoeling van die gast om gewoon een beetje opschudding te veroorzaken in videokaart-land, is m goed gelukt hehe, ik heb wel lol.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True