Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 121 reacties
Bron: DailyTech

DailyTech heeft de eerste benchmarks van de Radeon X1900 XT gepubliceerd. De nieuwe generatie videokaart van ATi neemt het in de test op tegen de nVidia GeForce 7800 GTX (de gewone versie met 256MB videogeheugen, niet de 'Ultra' met 512MB). De Radeon-kaart heeft wel 512MB geheugen, maar is volgens de geruchten ook niet de snelste van de serie: boven de XT zou namelijk nog een XTX-versie worden uitgebracht met een iets hogere kloksnelheid. Het systeem bestaat verder uit een Opteron 165 (1,8GHz dualcore) en 2GB geheugen. Voor de nVidia-kaart werden de laatste officiële drivers gebruikt, maar omdat ATi Catalyst 6.1 de nieuwe Radeon nog niet herkent moest men daarvoor terugvallen op een bèta uit december. De preview bestaat uit drie benchmarks: Fear, Call of Duty 2 en Battlefield 2. De spellen worden in hoge resoluties getest, met en zonder AA ingeschakeld. De resultaten zijn als volgt:

Prestaties Radeon X1900 XT (rood) vs. GeForce 7800 GTX (groen)
Fear 1600x1200 61
" 48
Fear 1920x1200 55
" 41
Fear 1600x1200 4xAA 45
" 25
Fear 1920x1200 4xAA 37
" 21
CoD2 1600x1200 39
" 31
CoD2 1920x1200 35
" 31
CoD2 1600x1200 4xAA 35
" 25
CoD2 1920x1200 4xAA 29
" 22
BF2 1600x1200 63
" 61
BF2 1920x1200 60
" 60
BF2 1600x1200 4xAA 57
" 53
BF2 1920x1200 4xAA 57
" 51

Het is duidelijk dat de nieuwe X1900 XT op alle fronten sneller is dan de 7800 GTX, hoewel het sterk per spel verschilt hoe groot de voorsprong precies is. Dit kan verklaard worden door nieuwe architectuur van de R580, die vooral geschikt is voor spellen die veel gebruikmaken van pixelshaders. ATi zou de X1900-serie dinsdag (24 januari) willen introduceren, waarbij de kaarten tegelijk met het persbericht beschikbaar zouden moeten zijn. Het antwoord van nVidia, de GeForce 7900-serie, wordt pas over enkele maanden verwacht.

Moderatie-faq Wijzig weergave

Reacties (121)

nuja, veel meer dan zeggen "dat ze de snelste zijn" is het toch niet... of die xtx zou toch nog een heel stuk hoger moeten scoren :)

what's in a name btw, kunnen ze niet gewoon iets zoals
B = budget, M = midrange H = high-end
en dan b-m-h <> low mid high
dus Bb, Bm, Bh, Mb, Mm, Mh, Hb, Hm, Hh

dan kunnen ze al 9 versies maken, en is het eens duidelijk, met de generaties mee
gewoon (als ze dat willen dan toch) x1800, met al die extensies, x1900, ook met al die extensies
nv 6800, alles erachter enzo... maarja aan consumenten denken ze voor zo'n zaken niet :)

vroeger was het ook nog virj makkelijk, met de geforce 2 bv had je (eerst toch) een GT, mx en ultra als ik me goed herinner

nu heb je voor elke "reeks" 20 kaarten... en iedere reeks die erbij komt is de benaming die bij de vorige reeks de highest end was, een stapje of 2 naar benedne op de ladder


edit: nog wat aangevuld en typo, en euhm, zat fout'je' in men benamingen ;(
En dan koopt iemand die er niks vanaf weet een high end kaart Hh, want dat is het neusje van de zalm. En dan klaagt hij dat het zo langzaam is. Terug naar de winkel. Wat blijkt? Het was een Hh op het moment dat de kaart uitkwam, een echte GeForce2 GTS Hh!!!

Helaas heb je daar nu een andere kijk op dan toen de kaart in het doosje werd gestopt met de aanduiding Hh.

Dus ik denk dat ze het daarom niet doen :P
toch niet?

een geforce 2 Hh is nogal logisch niet sneller dan een geforce 4 Hh, maar door de Bb's zou het inderdaad nog wel door elkaar kunnen lopen, toch is het zoiezo handiger, want nu loopt écht alles dooreen...

en dan bedoel ik dat een GT ooit de absolute snelste was, evenals de pro, de gtx, maar nu is dat de xtx, waar in de volgende generatie het den da uxt ofzo zal zijn..

en dan zie je staan "radeon x2000 xtx" en denk je, dat zal wel de snelste zijn, en is het eigenlijk maar gewoon introductiemodel, en komen er nog 4 snellere, en 5 tragere modellen uit...

mijn verhaal zal niet perfect zijn, maar door standaardisering ofzo van de benamingen schep je gewoon veel meer duidelijkheid

dat de beste geforce x beter is dan de slechtste geforce x+1, jah... dan moeten ze maar zo'n grote stappen nemen dat dat wel is :P dan gebruiken ze de hardware nog efficienter ook wsl.
Och,.. al die benamingen dwingen je wel een beetje om je erin te verdiepen voordat je weet wat je koopt.
Handig voor vergelijking, FEAR-scores van de 512MB-versie van de GeForce 7800 GTX. Het systeem is helaas niet te vergelijken, maar wel is te zien dat de 512MB-versie het ongeveer 30% beter doet dan de 256MB-versie. In de benchmarks zonder AA zou het gat tussen de 7800 GTX en de X1900 XT daarmee wel gesloten worden. Maar het is natuurlijk ook nog de vraag hoeveel het verschil er nog is tussen de XT en de XTX, en vooral wat de 7900 GTX brengt.
Met AA zou de Ati dus wel degelijk weer flink sneller zijn
]eep: ik heb helemaal niets gezegd over AA-scores.
appels en peren

de 512MB versie is ook hoger geklokt. Als ik de scores bekijk (62 om 62) zijn de 1900XT en 7800GTX 512 even snel op 1600x1200 zonder AA. Met AA zou de Ati dus wel degelijk weer flink sneller zijn (vergelijk de 1800XT en 7800GTX256 met 4xAA hier)

25+(verschil gtx256 en 512=7)=32 om 45 voor de 1900XT.

edit: oops. We keken al naar dezelfde pagina :P
Krijg je natuurlijk weer reactie's dit val reuze mee. Het kan inderdaad beter, maar de driver scheelt denk ik een boel.
Dit zijn toch flinke verschillen. Van 5% tot bijna 100% sneller, de driver zal wel een klein beetje effect hebben, maar niet dusdanig dat het vreselijk opvalt.

Wel jammer dat ze niet de Gforce 512 hebben gepakt, dan sluit je uit dat het aan een geheugentekort zou liggen.
Misschien wel sneller dan de 7800GTX.
Aangezien ik deze link gesubmit heb heb ik d'r al eens eerder op gereageerd.

Een paar dingen die mij opvallen.

Deze kaart word vergeleken met een 7800GTX 256Mb.
Welk een tragere is dan de 512Mb versie.
De reden is echter wel uitgelegd in het document.

Echter globaal genomen zijn de verschillen die de X1900XT heeft tov de 7800GTX niet boven de 50% te noemen.

En de 7800GTX is een kaart die tot de vorige generatie behoord. (* met de X1900XT meegenomen *).

Dus naar mijn mening is dit de 7800GTX 512 met de X800XT vergelijken.

En wanneer je dat zou doen zie je dat de 7800GTX globaal genomen meer dan 50% sneller is.

Logisch, tis de nieuwe generatie.

Echter de X1900XT is niet 50% sneller dan de 7800GTX 256Mb.

En zoals de foto's al laten zien met een monstreuze koeling en de opmerking van de revieuwer dat de kaart zeer heet word trek ik de conclusie dat deze kaart niets anders is dan een volwassen versie van de X1800XT die een beetje opgeclocked is. :)
En zoals de foto's al laten zien met een monstreuze koeling en de opmerking van de revieuwer dat de kaart zeer heet word trek ik de conclusie dat deze kaart niets anders is dan een volwassen versie van de X1800XT die een beetje opgeclocked is
Dat is niet waar, de R580 heeft een hele andere configuratie dan de R520, met 48 in plaats van 16 pixel shader units. De core is daardoor wel groter geworden, wat samen met een iets hogere klok natuurlijk niet gunstig is voor de warmte. Verder klopt het dat spellen die niet gebruikmaken van die extra shader units verder ook weinig voordeel hebben van de nieuwe core, maar het is zeker niet zomaar een opgeklokte X1800 :).
En zoals de foto's al laten zien met een monstreuze koeling en de opmerking van de revieuwer dat de kaart zeer heet
De cooler is identiek aan de X1800XT cooler en de X1900XT loopt zefls koeler dan de X1800XT. Voltages zijn omlaag gegaan van zo'n 1.35V naar 1.2V en toch lopen de kaarten op gelijke kloksnelheden.

ATi heeft zelfs al officieel aangegeven dat de X1900XT niet zo heet wordt als de X1800XT. De conclusies die je trekt zijn dus heel erg voorbarig en nergens op gebaseerd.

De X1900XT is in veel gevallen zelfs met gemak te overklokken naar 700Mhz of meer.
Ik vind het generatieverhaal van tankeriv een beetje onzinnig. De 2 grote kaartenbakkers hebben gewoon andere momenten van vernieuwen en ik denk dat je generaties van kaarten alleen op 1 merk kan projecteren.

De X800 reeks is een generatie nieuwer dan de 9x00 reeks. Dat mag duidelijk zijn. Je vindt de vergelijking niet logisch omdat de kaarten van verschillende generaties zijn?

Nou is het bijna de beste vergelijking, omdat gewoon de 2 high end kaarten worden gebruikt, waarbij dus alleen gezegd dient te worden dat de 7800 GTX niet over 512 MB beschikte, wat natuurlijk beter zou zijn.
vergelijken met een product dat amper verkrijgbaar is (gtx 512 mb) lijkt me niet erg zinvol. Beter om met 256mb versie te vergelijken dus.
ik vind het juist erg mooie scores.

en vrijwel in lijn met de verwachting.
hogere FPS juist in de games waar het echt telt : games waar je nu een relatief lage FPS hebt, meestal vanwegen de hoeveelheid pixel shaders.
het verhogen van de hoeveelheid pixel shaders met 3 keer (van 16 naar 48) heeft ATI duidelijk geen wind eieren gelegt.

ben wel benieuwd wat de resultaten zijn met een iets snellere CPU (een 1.8ghz k8 is nou niet echt high end) eentje met 2.4 echte AMD ghz ofzo.
FEAR is totaal (lees TOTAAL) niet gebottlenecked door de CPU, veel meer zal betere of zelfs overclockte CPU er niet uit krijgen, dit geld al bij 640x480, en wordt op hogere resoluties uiteraard alleen maar erger.

Ik zou bijna verwachten dat deze benches fake zijn, ik kan me niet voorstellen dat een GPU met meer dan 3 keer de pixelshading kracht niet wat beter scoord dan dit...
Eerst: Het verschil lijkt heel groot maar men weet dat een GTX 512 mb ook zo'n 25% sneller is als een gewone. Dus dan blijft er in de meeste spellen al weinig verschil meer over. Bovendien zal de nieuwe 7900 een klok hebben die nog eens minimaal 30% hoger is (en misschien 30 pipes??) Dus wat valt er dan te verwachten? Dat de 7900 dik veel beter is dan de 1900. Alleen bij Fear zijn de verschillen dan minimaal.
met een clock die vergelijkbaar is met de X1900's en met maar 2/3de van de hoeveelheid pixel shaders (32 tegen 48) zal de 7900 zeker in nieuwe games toch het onderspit moeten delven tegen de X1900's denk ik zo.

dat de 7900's veel hogere FPS kan gaan halen als de X1900's in oudere games waar je toch als ruim voldoende FPS had om goed speelbaar te zijn zal mij een worst wezen eigenlijk.
Maar die Nvidia kaart kan meer ruwe pixels per seconde verwerken. Wanneer de shaders iets minder sterk (dus simpele en snelle shaders) om de hoek komen kijken kan de Nvidia kaart ineens 32 pixels per seconde leveren, dus ietsjes meer dan die ATi die er 16 kan :)
zoals ik dus al zei, de 7900 zal in oudere games zeker meer FPS gaan halen als de X1900.
maar of je er nou 100 of 150FPS hebt maakt niet echt uit wel?

we hebben al genoeg ruwe pixel per seconde power.
zelfs op 1920x1600 +4xAA kun je met 16 pipelines @ 600 nogwat mhz speelbare FPS op het scherm zetten (zie BF2 scores). waarom zou je er nog meer willen?

bij alle nieuwe spellen zijn shaders de bottlenek voor de huidige kaarten. (zie fear)
nvidia kan 1 pixel shader opperatie uitvoeren per pixel
ATI kan 3 pixel shader opperatie uitvoeren per 1 pixel
ati kan wel minder van die pixels maken, maar kan wel veel complexere scenes aan als Nvidia.
(hierboven ge-edit van 2 op 3 naar 1 op 1 voor nvidia)

en zodra een spel even niet veel of niet zo'n ingewikkelde pixel shaders op het scherm wil zetten zal de FPS van Nvidia idd waarschijnlijk een stuk boven dat van ATI gaan zitten, maar dat is meestal alleen het geval als er toch niks te doen is op je scherm.
en als je vervolgen een grafiek bekijkt van de FPS over het hele spel genoemen kan je er de donder op zeggen dat de de minimum FPS bij Nvidia een stuk lager gaan liggen als die bij ATI.

en waneer wil je juist veel FPS en krijg je dat juist niet? juist, als het druk is op je scherm. want dat betekend meestal dat er veel te doen is.
die minimum FPS zijn dus veel belangrijker voor de gameplay als het gemiddelde en zeker belangrijker als het maxium... maxium is eigenlijk totaal niet interestant.

door deze grote verschillen in ontwerp tussen ATI en nvidia word het nu dus belangrijker dan ooit dat benchmark scores het minimum FPS laten zien en niet alleen het gemiddelde.
nvidia kan 2 pixel shader opperatie uitvoeren per 3 pixels
ATI kan 3 pixel shader opperatie uitvoeren per 1 pixels
Je bedoelt 3 operaties per 2 pixels (G70) of 2 operaties per 1 pixel (G71) voor nVidia.
nee het is echt 2 pixel shader opperaties per 3 pixels.

ze hebben 32pixel pipelines namelijk en 24 pixel shader units op de G71
verhouding 2 op 3 dus.
totaal anders als de 3 op 1 verhouding van ATI.

nvidia heeft dus meer pixel pipelines als pixel shader units en ATI heeft juist meer pixel shaders als pixel pipelines.
Nee, de G71 heeft 32 pixel shaders en 16 render outputs, zie deze post. Het enige waar er misschien 24 van op de G71 zitten zijn texture mapping units, maar die hebben weinig te maken met de verhouding tussen pixels en shader-ops per klok.
die render outputs hebben niks met preformance te maken. (heb ook geen idee waarom die er ineens bij staan, ineens heeft iedereen het er over maar, maar ze zijn nog nooit bij ook maar enig spel de bottnek geweest)

maar ik had het wel verkeerd onthouden.
nvidia heeft een 1 op 1 verhouding pixel shaders pixel pipelines (zowel g70 als g71)
ATI een 3 op 1 verhouding.
maar mijn standpunt blijft overeind.
zal mijn posts wel fff aan gaan passen.
Wat is dat jouw definitie van een pixel pipeline? Want waar jij het over hebt met je 1:1 zijn dus texture units. Een ROP is hetgene wat uiteindelijk een pixel uitspuugt, dat lijkt me logischer om aan te houden. Misschien kun sowieso beter het idee van pipelines uit het raam gooien en kijken naar de absolute aantallen, dan zie je bij de R580 48 pixel shaders en bij de G71 32 pixel shaders, een verschil wat wel duidelijk is (50%) maar niet zo groot als 1:3.
een ROP spugt alleen een pixel uit naar de display buffer.
filerate dus, het heeft verder weinig met het berekenen van het scherm te maken.

en ik bedoel met 1: 3 dus de verhouding tussen de texture units en de shader units.

het staat zelfs in het artical waar je zelf heen linkte
nVidia lijkt te gaan voor 2:2:1, terwijl ATi voor een extremere 1:3:1 kiest:
alleen hebben ze hier ook de ROP's mee genomen.
Lijkt me niet. Ik denk als in deze test een 7800 gtx 512(die heeft ook standaard hogere clocks) tegen wordt gezet dat de x1900 xt daar al veel meer een flinke kluif aan kan hebben, zeker omdat de 512 mb in de test met hogere res en AA een duidelijk voordeel laat zien(in deze test delft vooral hier de 7800 het onderspit). De 7900 zal zeker niet onder doen voor de 7800 dus een kratje bier op dat de 7900 van de x1900 wint :P.
Waarom vergelijken ze hem niet met de 512mb versie van de GTX..... ?. Die is ook nog eens een aardig stuk sneller....
omdat de 512mb versie nergens te krijgen is?
zelfs nvidia zegt dat het om een "limited release" gaat.
net als de phantom edition van de 850, de 850XT PE dus zeg maar.
en waar is de X1900 te krijgen, nu op dit moment?
hij ligt in het magazijn bij de winkels wachtend op de OFFICIELEN RELEASE!
waar zou hij anders zijn?

(en volgens de laatste berichten is dat de 24ste deze maand, 2 dagen geduld nog dus)
Dat zou dan voor het eerst zijn bij ATi! Stappen zij hiermee dan ook eindelijk van de paper releases af??
Volgens de reviewer: "omdat ik die niet heb" :).
Idd, de X1900 XT zal heus wel sneller blijken maar ik verwacht toch echt dat een groot gedeelte van de verschillen een stuk minder zouden zijn :Y)

Plus, ik vind het vreemd om 2 kaarten met verschillende geheugens te benchen - dat is net zo iets als een budget kaart met 64 of zelf 32 meg er tegen over te zetten en te concluderen dat de ATI sneller is... :Z
de hoeveelheid geheugen is van weining invloed op de prestaties. 256MB is voor alle games waarvan je hierboven een benchmark ziet genoeg.
Als dat dan zo is, waarom test men dan niet gewoon met de 512MB versie van de GTX, om elke schijn van partijdigheid te vermijden? Een beetje een krom verhaal, vind je ook niet?
zoals gezegt omdat ze er geen hadden omdat die dingen nergens te krijgen zijn.
als je geen grote review site bent of ander hardware blad ofzo dat heb je er gewoon geen, punt.
Dat bedoel ik, zeg dat dan gewoon, in plaats van excuses te verzinnen. :) Alsof die X1900 wel overal te verkrijgen is. :D

De 512 MB GTX is weldegelijk (soms een flink stuk) sneller dan de 256 MB versie. Daarom is het gewoon jammer dat ze die 512 MB versie niet hadden, dat geeft toch een beetje een oneerlijke vergelijking.

Daar hoef je toch niet omheen te draaien?
Hoe de 512 MB GTX gepresteerd zou hebben in deze specifieke test, dat zullen we nu nooit weten hè. En dat maakt het nu juist zo jammer dat de testers niet over een 512 MB exemplaar beschikten! :o

Wel zag ik gisteren in de gauwigheid een andere test voorbijkomen, waar de 512 MB GTX een flink stuk hoger scoorde (ongeveer 20%) dan de 256 MB. Magoed, dat was in 3DMark2006. ;)
Is die 512MB GTX dan inderdaad zoveel sneller in deze benchmarks?
Toch wel iets dat je eerste even moet controleren voor je roept dat het een oneerlijke vergelijking is.
Mooie resultaten. Met een Opteron 165 games benchmarken, dat is ook weer nieuw voor mij :D . Weet iemand eigenlijk hoe server cpu's het doen in games in vergelijking met desktop cpu's?
*Causing gaat nu q4 op zn server installeren :+
De Opteron's doen ongeveer hetzelfde als de Athlon 64 processoren, met als voordeel dat ze goed te overclokken zijn, en ze hebben extra cachegeheugen.
De Opteron 165 is praktisch identiek aan een Athlon 64 X2 met 1MB L2-cache per core. Het enige verschil is dat de X2 niet op 1,8GHz beschikbaar is.
de 165 is in amerika een heel gewilde cpu voor overklokkers. Hij heeft 1MB cache en loopt standaard op 1,8GHz, vrij laag dus, maar over te klokken tot 2,6 en kost daar minder dan een X2-3800+.

Al met al toch een mogelijke bottleneck voor games benchen als de game maar 1 core gebruikt, zeker voor een super GPU als deze! Dat lijkt me dan ook niet de meest slimme keuze. Maarja, als je niet anders hebt. Er staat trouwens niks over de kloksnelheid van de cpu.
Ik vind de voorsprong van ATi toch best groot. Gemiddeld is het zo'n 20%.

De Battlefield 2 benchmarks kan je eigenlijk verwaarlozen, EA staat nu niet echt bekend voor het optimaliseren van hun games.
Ik vind de voorsprong van ATi toch best groot. Gemiddeld is het zo'n 20%.
Is ook wel het minste dat je mag verwachten. Tis immers een nieuwe generatie (iets van 9 maanden jonger dan de 7800gtx)

Als je een echt grote voorsprong wilt zien, moet je een nog oudere kaart pakken ;)
het is geen nieuwe generatie. Het is gewoon een verbetering van de X1000 lijn.

edit: idd, of het nou een aanpassing is of een totaal nieuw ontwerp, je mag wel verwachten dat hij sneller is. Maar ...
dan moet je ook niet zeggen dat de laatste 7800GTX512 al 9 maanden oud is want dat is gewoon niet zo. De eerste foto's doken pas 12 november op bron. De gewone GTX is ook pas 21 juni gelanceerd. Dat scheelt dus een goed half jaar (komt de wet van Moore ook weer inzicht).

Bovendien is de 7800GTX met 512MB is weer zo'n prestigekaart die de wisselbeker voor de hoogste prestaties in eigen huis moet houden, want hij gaat over een paar maanden alweer verdwijnen (net als je centen als je er een gekocht hebt).
De 7800gtx is van april 2005, de x1900 van januari/februari 2006. We kunnen hier gaan discussieren over wat een generatie definieert, maar feit blijft dat de x1900 9/10 maanden jonger is, dat hij 20% sneller is, is dus wel het minste dat je mag verwachten.
Er zijn in het verleden veel refreshes geweest die lang geen 20% sneller waren. (geld voor vrijwel alle refreshes van beide partijen)
Dus dat dat het minste is wat je mag verwachten is onzin.
Wel is het zo dat de X1900 wat meer is dan een normale refresh door die extra shader units. En in dat opzicht is een verwachting van 20% wel gerechtvaardigd.
EA heeft BF2 niet gemaakt.
dat de scores in battlefield niet hoger zijn is natuurlijk niet verwonderlijk. dat spel gebruikt niet echt veel pixel shaders en de FPS is eigenlijk al hoog genoeg om goed speelbaar te zijn.
ook ziet het er naar uit alsof het spel CPU limited is (verschil tussn 1600x1200 en 1920x1600+ 4xAA is relatief klein)

dat is zo'n beetje in lijn met de verwachtingen. deze nieuwe ATI (met 3 keer meer pixel shader units) zorgt voor hogere framerates juist in de spellen waar het echt telt, de nieuwere games met veel pixel shader gebruik.
de oudere games zullen er niet veel sneller op worden in vergelijken met bv de x1800.
Met de huidige krachtige videokaarten zie je dat steeds vaker terugkomen. Benches die hardstikke cpu limited zijn, en allerlei mensen die dan denken dat de kaarten dus even snel zijn.
In feite moeten de kaartenbakkers zich schamen. Als je een auto koopt moet ie ook wel 120 halen. Nou en dan ik hier fps's zie waar je je inprincipe voor moet schamen. Je geeft er wel 500-750 euro voor. en je kan eigenlijk nog steeds niet voluit....
Ja marketing en blabla bla maar ik hoop dat jullie mijn punt wat begrijpen.
Voor de zoveelste keer: waarom mogen amd en intel wel meer dan 1000 euro vragen voor een cpu en nvidia en ati niet voor een gpu? Een gpu die veel ingewikkelder in mekaar zit dan cpu btw.
En als je dat teveel vindt koop je toch gewoon een budget kaartje? Niemand verplicht je om het beste van het beste te nemen. Maar als je dat wel wil is het toch niet meer dan normaal dat je daarvoor veel moet betalen.
waarom mogen amd en intel wel meer dan 1000 euro vragen voor een cpu en nvidia en ati niet voor een gpu
omdat die dure cpu's professioneel door bedrijven gebruikt worden. En aangezien daar geldt: tijd is (een heleboel) geld... De professionele videokaarten zijn immers ook een stuk duurder.
Zolang die gtx512 net zo makkelijk te krijgen is als een spaceshuttle is de x1800xt 512mb gewoon de de snelste kaart die je op 22 januari kan bestellen/kopen.
heb je de resoluties wel gezien waarmee hier getest werd? om van de vrij langzame CPU (1.8ghz) nog maar te zwijgen.
de meeste kaarten mogen van geluk spreken als ze deze FPS kunnen halen in FEAR op 800x600 met softshadows aan.
Ik zag wel ergens een suggested retal price van $1098 voorbij komen voor deze kaart.

Da's zo'n 900 euro. Haal je daar grofweg 20% vanaf voor de winkelprijs zit je toch nog op een 725 euro.

Dan mag de kaart zeker wel een stuk beter presteren tegenover de 7800GTX van 450 - 490 euro. Is toch een prijsverschil van ongeveer 33%.

Ik vond mijn 7800GTX eigenlijk al veel te duur....ik zla zelf in ieder geval nooit meer dan dat voor een videokaart betalen.

Neem daarbij dat de X1800XT ook al niet best leverbaar is (even als de 7800GTX 512MB overigens) dan verwacht ik persoonlijk niet dat dat bij de 1900XT veel beter zal zijn in de eerste maanden.

Ik zie nog geen reden om te opgraden met mijn 1280 x 1024 resolutie in ieder geval.

Wacht wel op de 2100GTX of 2100XT ofzo ;)
de x1800xt is lastig te krijgen
de 7800GTX 512MB is gewoon niet te krijgen (zelfs nvidia zegt dat een "limited release" is).

maar leveringen van de x1800xt chips vanuit ATI zijn al gestop eigenlijk, en ze zijn daarom niet heel lang in productie geweest.
ze zijn al helemaal over gegaan op x1900's
de gtx512 was overal te krijgen bij de lancering en nu ook nog als je even geduld hebt. Dit in tegenstelling tot de x1800xt, een kaartje dat amper 3 maanden op markt is geweest. Dat ati deze kaart zo snel vervangt is natuurlijk toegeven dat de R520 is regelrecht fiasco is geweest.
bullshit.
bij lanchering hadden ze idd wat, maar inmiddeld echt nergens meer op voorraad.
het is gewoon net als de phantom edition alleen voor de press ontwikkeld.

en de GTX512 is ook 3 maanden op de markt geweest... so whats your point?

de r520 was geen fiasco het was een verlate chip.
een verlate chip waarop de r580 ook is gebazeerd.
hij was verlaat omdat er een ontwerp fout zat in een deel van de chip die ATI van een ander bedrijf gekocht had,
dit zelfde deel zit ook in de R580, die was toen ook al in ontwikkeling namelijk.
maar de r520 was al veel verder, en was eigenlijk al klaar voor productie.
dat oplossen koste veel tijd (3 maanden ongeveer), terwijl de ontwikkelingen van de r580 gewoon door gingen zoals gepland.
vandaar dus dat er zo weinig tijd zit tussen de r520 en de r580. de r580 word dus gewoon volgens de planninggelancheerd. dat hij nu zo dicht na de release van de r520 komt is bijzaak.
ATI had dus gewoon pech met de r520. als je dat al een fiasco wilt noemen hoe zou je de fx5800 dan wel niet noemen?
dat je een fout ontwerp koopt van een bedrijf is maar al te erg
Ik weet niet waar je deze suggested retails gelezen hebt, maar volgens andere bronnen komt de prijs lager te liggen dan de virtuele 7800 GTX512 editie.
Therefore, ATI is planning to settle for the same suggested retail price. The fastest X1900XTX card clocked at 650MHz core and 1500MHz memory should cost $649. The second fastest X1900XT should cost $549 while the Crossfire X1900 XT card should cost around $599 in retail.
Dit zijn imho meer realistische prijzen. Ik denk eerlijk gezegd dat de 1000 dolar prijzen die her en der geroepen werden meer te maken hebben met een poging deze kaart in discrediet te brengen dan dat ze op waarheid berusten.
Vreemd dat Anand niet gebonden is aan een NDA. Dat zullen ze bij ATi niet graag hebben.

De hit die de X1900 ondervindt als de resolutie van 1600x1200 4xAA naar 1920x1200 4xAA gaat is opmerkelijk groter dan bij de GTX. Drivers?
Natuurlijk is Anand ook gebonden aan een NDA.
Maar zo'n NDA geldt normaal gesproken alleen op informatie die je van de partij krijgt met wie je de NDA afsluit. Als je via een andere weg informatie krijgt dan valt die niet onder de NDA.

Overigens zie ik geen enkele aanleiding om over drivers te beginnen. Het is veel meer waarschijnlijk dat je tegen een bottelneck aan loopt die niks met de shaders te maken heeft. Bv memory bandwith.
Misschien wel, maar ik vind het vreemd omdat het normaal de nvidia kaarten zijn die een grotere performance hit ondervinden wanneer de resolutie omhoog gaat.
als je de scores van fear bekijkt zie je dat de FPS op 1600x1200 met en zonder 4xAA bij nvidia bijna gehalveerd worden. (48 naar 25) die van ATI gaan 'maar' met zo'n 25% omlaag (61 naar 45).
denk eigenlijk eerder dat de bottle nek bij de nvidia kaarten gewoon ergens anders ligt als bij ATI kaarten.
even simple gezegt (en dit is puur als voorbeeld berust niet op feiten) : de nvidia kan bv niet meer polygonen renderen maar heeft nog wel veel filrate over, als je dan de resolutie verhoog zal de FPS van de nvidia ongeveer kaart gelijk blijven omdat de hoeveelheid polygonen niet veranderd en alleen de filerate meer word gebruikt.
als ATI dan wel meer polygonen kan renderen maar daardoor al dichter bij hun max aan filerate zitten, dan kan het verhogen van de resolutie zorgen voor een stuk lagere FPS als daarvoor omdat hun filerate gewoon niet hoger wil.

nogmaal dit is puur als voorbeeld van hoe verschillende argitecturen verschillende bottleneks kunnen hebben heeft verder geen basis in de spec's van een van beide kaarten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True