Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 121 reacties
Submitter: tankeriv

Zoals te verwachten na de release van twee nieuwe videokaarten zijn er op het web diverse reviews verschenen waarin de nieuwe modellen worden vergeleken met hun voorgangers en natuurlijk ook met de concurrentie. De specificaties en features van de Radeon X1900-serie zijn eerder al uitgebreid besproken, waardoor we ons hier nu vooral op de ervaringen van de testers zullen richten. De eerste benchmarks - die vorige week verschenen - gaven al een voorproefje van hetgeen ons te wachten stond: de GeForce 7800 GTX werd in alledrie de geteste spellen verslagen door de X1900 XT. Over het algemeen wordt in de officiële reviews niet afgeweken van dat beeld: als er iets is wat gezegd mag worden, dan is het wel dat de nieuwe Radeons snel zijn, misschien zelfs wel té snel voor de meeste mensen.

Steeds meer reviewers komen er namelijk achter dat sommige (nieuwe) spellen zoals Quake 4 en Half-Life 2 tegenwoordig eerder door de snelheid van de processor beperkt worden dan door de videokaart. Of anders verwoord: dat sommige games onvoldoende gebruikmaken van de mogelijkheden die de nieuwste generatie videokaarten te bieden heeft. Zelfs 3DMark06 - dat probeert te voorspellen hoe toekomstige spellen in elkaar zullen zitten - blijkt erg gevoelig te zijn voor de snelheid van de processor. In 3DMark06 is het natuurlijk niet de enige factor, en er zijn gelukkig ook genoeg andere benchmarks te vinden waarin de grafische chip nog steeds een belangrijke rol speelt. Toch moet ook daar vaak de resolutie naar 1600x1200 worden opgeschroefd om echt grote verschillen te kunnen zien tussen twee kaarten, wat voor mensen met een standaard tft-scherm bijvoorbeeld een probleem kan zijn. Dit probleem geldt natuurlijk niet specifiek voor ATi of de nieuwste Radeons, maar wie een high-end videokaart koopt zonder goed te weten waar hij aan begint kan wel teleurgesteld worden, en dat soort waarschuwingen keren steeds vaker terug in reviews.

ATi Radeon X1900

De X1900 is voornamelijk verbeterd op het gebied van pixel shaders, wat betekent dat hij zijn tanden vooral in spellen met een moderne engine vol speciale effecten kan laten zien. In andere spellen - die (relatief) simpel in elkaar steken - is daarentegen weinig verbetering te zien ten opzichte van de X1800-generatie. Zo blijkt de nieuwe Radeon nu de beste keus voor Splinter Cell en Black & White 2 te zijn, terwijl die benchmarks tot nu toe in het voordeel van nVidia uitvielen. Ook in spellen als Far Cry en Serious Sam 2 wordt de X1900-serie niet meer verslagen. In Doom 3 en Call of Duty 2 daarentegen kan nVidia met de GeForce 7800 GTX 512 nog net het hoofd boven water houden. Een van de beste spellen om de mogelijkheden van de X1900 XT mee te demonstreren is wel Fear. Niet alleen gebruikt deze titel heel veel shaders, maar ook is er de mogelijkheid om soft shadows in te stellen, een techniek waar de ontwerpers van de R580 erg hun best voor hebben gedaan. Dat blijkt uit het feit dat de veel natuurlijker ogende schaduwen de prestaties nauwelijks negatief beïnvloeden.

Fear benchmarks

Hot Hardware heeft een originele invalshoek aan zijn test gegeven door niet alleen naar de prestaties te kijken maar ook naar de beeldkwaliteit. De X1900-kaart verliest doorgaans erg weinig snelheid als AA ingeschakeld wordt. Dit in tegenstelling tot de GeForce 7800, die er duidelijk trager van wordt. De kwaliteit van AA zou bij nVidia (daardoor?) echter wel iets beter zijn; de reviewer merkt op dat de X1900 tijdens het wegwerken van de kartelrandjes net iets meer details meeneemt. Dat wordt vervolgens wel goedgemaakt door betere AF en hogere beeldkwaliteit (plus een iets lager processorgebruik) bij het afspelen van (HD-)video.

Ook kijkt de site naar zaken als stroomverbruik en overklokken. De nieuwe kaarten blijken niet bepaald koele kikkers te zijn: een systeem met Athlon FX-55 en Radeon X1900 XT bleek onder belasting 323 watt nodig te hebben, terwijl dat met een X1800 XT nog maar 263 watt was. Een andere review heeft het over een kleiner verschil: daar voegt dezelfde stap maar 17 watt toe aan het verbruik van het systeem. Hoe dan ook wordt een dikke voeding (>500 watt) met een stevige 12 volt-lijn aangeraden, vooral voor mensen die van plan zijn met Crossfire te spelen. Hoewel de kaart van zichzelf uit al redelijk warm wordt blijkt de koeler die erop zit afdoende en zelfs ruimte over te laten om nog wat over te klokken: verschillende sites duwen de core van 650 naar 690MHz, en het geheugen wilde op zich ook nog wel iets harder, van 1,55 naar 1,6GHz.

X1900 overgeklokt

De conclusies zijn het allemaal met elkaar eens: de X1900 XT en vooral XTX zijn de snelste videokaarten van dit moment. Er is dan wel een dikke processor, goede monitor en een zwaar spel nodig om ervan te kunnen genieten, maar dan is er ook wel de garantie dat er in ieder geval de komende paar maanden niets beters te koop is. Extra fijn voor de mensen die steeds het beste van het beste willen hebben: ATi belooft dat de kaarten direct leverbaar zijn. Hoewel onze Amerikaanse collega's dat wel bevestigen, vinden we in de pricewatch op dit moment nog maar één vermelding terug, een pre-order met onbekende levertijd voor maar liefst 700 euro. Wie dus ook maar enigszins beperkt is qua budget doet er waarschijnlijk veel beter aan om dit soort kaarten links te laten liggen en voor een bescheidener model te gaan. Vooral de XTX-versie lijkt puur voor de patsrechten te bestaan: de XT is direct 100 dollar goedkoper en levert in de meeste gevallen bijna precies dezelfde prestaties.

* Links naar de reviews

Reacties (121)

Reactiefilter:-11210115+173+214+33
Moderatie-faq Wijzig weergave
vergeet niet dat Ati al over is op het nieuwe/kleinere procede(core) en dan nVidia daar nog mee bezig is. Dus ik vind het knap dat ati met de 2de versie van het kleinere procede(core) al zo goed is.
Een kleiner procede is niet zaligmakend. Kijk maar naar Intel en AMD. De laatste nam z'n tijd voor 90 nm maar deed het dan ook bijzonder goed.

De belangrijkste les is: Iedereen profiteert mee van de evolutie in procestechnologie, vroeg of laat. Da's hoogstens een paar maanden verschil. Op het vlak van architectuur kan men echter jaren voorsprong nemen.

Zo hoeft een Athlon 64 op 130 nm zich niet te schamen tegenover een Pentium 4 op 65 nm, dankzij z'n ijzersterke architectuur. Het kost Intel jaren om z'n architectuurfouten sinds de Prescott recht te zetten en compleet nieuwe architecturen te ontwikkelen. Terwijl een procesverkleining schering en inslag is.

Natuurlijk is het ideaal om een goede architectuur op een klein proces te krijgen, maar ik heb zo de indruk dat dit mekaar uitsluit en een focus op architectuur een stabielere toekomst verzekert...
Je kan ook zeggen dat Nvidia meer uit het 90nm procede haalt dan ATi doet.

Maar de X1900XTX valt helaas tegen. En denk zelfs als ze de 7800GTX 512 over haden geclocked dat de X1900XT aardig aan het zweten komt.

Vind persoonlijk dat ATI hier helaas geen goede zet mee heeft gedaan. Nvidia kan zo met de 7900 verder uitlopen.
Heel leuk, de GTX 512, maar vraag je 1 ding goed af..

Hoe beschikbaar is de GTX 512? Dat ding is schaars, heel schaars. Ook in de US.

Integestelling.. de hard-launch van 1900 XT, waarvan zelfs mensen VOOR de release date de artikelen konden bestellen en op de 24ste opgestuurd kregen.. aangenomen dat 1900 XT(X) geen "limited" edition is, en eigenlijk goedkoper is (of gelijk) denk ik dat dat al genoeg zegt voor de komende maand(en?)..
Het ding is gewoon beschikbaar als je genoeg zoekt. En hoe hard is deze launch? Dat zullen de komende weken uitwijzen. Ik zie in ieder geval nog geen X1900Cf kaarten in de winkels liggen.
De X1900-kaart verliest doorgaans erg weinig snelheid als AA ingeschakeld wordt. Dit in tegenstelling tot de GeForce 7800, die er duidelijk trager van wordt. De kwaliteit van AA zou bij nVidia (daardoor?) echter wel iets beter zijn; de reviewer merkt op dat de X1900 tijdens het wegwerken van de kartelrandjes net iets meer details meeneemt.
Hier worden oorzaak en gevolg omgedraaid, het is door de betere kwaliteit van AA bij nVidia dat de prestaties lager zijn, AA wordt niet beter omdat de prestaties lager zijn.
Naar mijn mening heeft ATI WEL veel progressie gemaakt. Als je kijkt naar fps zal je wellicht een verkeerde indruk krijgen over mijn statement.
Bij "oude" spellen is het verschil niet zo veel ten opzichte van de gtx512, maar bij FEAR is de 1900 veel sneller. En dit spel is toch wel het meest revolutionaire spel op dit moment. Als we meer naar cinematische graphics willen, moeten we stoppen te kijken naar FPS en meer kijken naar Special Effects. FEAR is op dit momen het enige spel dat zoveel shaders gebruikt en dan komt de ATI het best tot zijn recht. Natuurlijk is de Doom3 engine mooi, maar ID software gaf zelf aan dat het bedoelt is om op 60 fps te draaien. Vanaf de x1800XT haalt met Quake 4 in 1920x1200 al 70 + FPS met 4x aa en 16xAF. Dit is een resolutie die je niet kan draaien op een normale tft scherm. Wat ATI nu doet is een rete snel GPU maken die het beeldkwaliteit met effecten wil verbeteren, vandaar het hoge aantal ALU's. Het verschil tussen de 1800xt en hoger tov Nvidia's GTX512 is enorm in FEAR.
Wat ik ook netjes vind is de Memory ringbus, die al klaar is voor de volgende generatie geheugen. En het feit dat ze ondanks een iets mindere kwaliteit AA, toch al bijna geen prestatie verlies hebben. (dat had 3dfx ook, en ondanks dat 3dfx overgekocht is door nvidea hebben ze de techniek nog niet over kunnen nemen)
Met de nieuwe 7900 ben ik benieuwd hoe snel Nvidia hun core zullen klokken en wat voor vernieuwingen zij zullen aanbrengen. En ongetwijfeld zullen ze sneller zijn dan de 1900xtx, anders brengen ze hem niet uit toch?
En ongetwijfeld zullen ze sneller zijn dan de 1900xtx, anders brengen ze hem niet uit toch?
dat is pure onzin. ze zijn al zeker een jaar bezig om dat ding te ontwerpen en te testen, dan gaan ze hem niet zomaar niet uitbrengen omdat hij niet sneller is als die van de concurent. (dan zou nvidia de FX serie ook niet hebben uitgebracht bv omdat die ook veel langzamer was als de 9700pro's)

en of hij sneller gaat zijn of niet... in traditionele games zal hij zeker sneller zijn (maarja of je nou 250 of 300FPS hebt maakt niet echt uit of wel) , maar in de nieuwe kan de g71 het nog wel eens zwaar gaan krijgen tegen de r580's.
Ik vind dat er wel érg de nadruk wordt gelegd op de noodzaak van een snelle processor in dit nieuws item. Op hogere resolutie's (1280 en 1600 of hoger) incl. AA/AF is dit niet zo van belang, en zal je in veel gevallen weinig verschil zien tussen bijv. een A64 3200 en een FX57. Op hele hoge settings telt puur de GPU power.
Niet helemaal waar, als een spel qua AI of physics heel zwaar is zal je een snellere cpu nodig hebben om het maximale uit je videokaart te kunnen halen.
Niet helemaal waar, als een spel qua AI of physics heel zwaar is zal je een snellere cpu nodig hebben om het maximale uit je videokaart te kunnen halen.

Uiteraard, maar het ging hierbij om de resolutie. Als de resolutie omhoog gaat, gaan de eisen aan de processor normaal vrijwel niet omhoog. In ieder geval niet voor de AI en de Physics. Hooguit moet er wat data aangeleverd worden voor details die bij een lagere resolutie helemaal niet zichtbaar zijn.
De meeste spellen hebben een vast blikveld, en tonen bij een hogere resolutie een gedetailleerder beeld. Dit kost over het algemeen weinig extra processorpower, maar heel veel GPU power.

Er zijn ook programma's die bij een hogere resolutie meer laten zien. Dan merkt de processor ook direct.
dit gaat vooral om de mensen met een tft scherm
Toch moet ook daar vaak de resolutie naar 1600x1200 worden opgeschroefd om echt grote verschillen te kunnen zien tussen twee kaarten, wat voor mensen met een standaard tft-scherm bijvoorbeeld een probleem kan zijn. Dit probleem geldt natuurlijk niet specifiek voor ATi of de nieuwste Radeons, maar wie een high-end videokaart koopt zonder goed te weten waar hij aan begint kan wel teleurgesteld worden, en dat soort waarschuwingen keren steeds vaker terug in reviews.
ATI heeft problemen gehad met nieuwe architecturen. NVIDIA heeft dat gebruikt en is een tijdje sneller geweest dan ATI. Maar het mag nu toch wel gezegd worden dat ATI weer terug op schema ligt. De nieuwe generatie videokaarten zullen wel weer gelijktijdiger uitkomen dus het wordt weer spannend
ATI heeft problemen gehad met nieuwe architecturen.
eigenlijk had ATI meer gewoon pech.
er zat een bug in een deel van de chip die ze van een ander bedrijf hadden gekocht waardoor de chip na zo veel keer gebruikt te zijn ineens kompleet dood was.
omdat het zo'n rare bug was duurde het ook heel lang voor hij aan het licht kwam, eigenlijk pas toen hij in de practijk al gemaakt was)
Ik geloof niet dat het enkel pech is. Een bedrijf zoals ATI beschikt over meer dan genoeg simulatietools om de stabiliteit van die componenten na te gaan alvorens ze in productie gaan.

Als ze blind die componenten gebruikt hebben zonder grondig testen, met het gedacht dat dit hen tijd zou winnen, vind ik het net iets meer dan pech. Da's een verkeerd ingeschat risico waarbij ze veel te snel die component wilden inzetten. Het is eerder geluk dat dit soort management niet voor meer problemen zorgt...

Soit, die achterstand is ingehaald, maar ze zullen nu wel wat minder risicos nemen.
Er is geen enkele fabless semiconductor company die *geen* externe componenten gebruikt.

Kijk alleen maar al naar de standard cell library: daar zitten honderden verschillende soorten gates in. Het duurt gemakkelijk een week om 1 zo'n gate volledige the karakteriseren.

Alle fabless bedrijven gaan ervan uit dat hun standard cellen correct gedesigned zijn. Maar soms is er wel eens een celletje met een bug. Als je tegen zoiets aanloopt, kan het maanden duren voor je het probleem gevonden hebt.

Op dat moment zit er niets anders op dan naar een speld in een hooiberg te beginnen zoeken.

Dat heeft niet met risico's te maken, het is gewoon een feit waar je als fabless bedrijf mee moet leren leven... en hopen dat je er niet door gebeten wordt.
Een bedrijf zoals ATI beschikt over meer dan genoeg simulatietools om de stabiliteit van die componenten na te gaan alvorens ze in productie gaan.
ze konden simuleren wat ze wilde maar deze bug kwam pas aan het licht toen de chip geproduceerd was en ze een echt exemplaar in handen hadden.
de simulaties waren niet ontwikkeld om zoiets eruit te picken.

ATI net als elk ander bedrijf test hun ontwerpen door en door in de simulatoren, zowel losse stukken als de hele chip.
denk je nou werkelijk dat ze het risico willen lopen dat er iets mis is met de dingen en er pas na de milioenen euro kostende tape-out achter komen?
dat is wel zo ongeveer de grooste nachtmerie die ze kunnen bedenken. ATI had gewoon pech dat deze bug niet in de simulaties naar voren kwam omdat de simulaties dat gewoon niet konden.
en de chips werkte ook gewoon.
ze gingen alleen spontaan dood na een tijdje. dat zijn nooit makkelijke bugs om te traceren.
Exact daarom juist. Men wist dat de overstap naar 90 nm en de eis voor hoge kloksnelheden en yields een extra risico inhield. NVIDIA nam hiervoor z'n tijd (ongeveer een half jaar meer), en deed ervaring op en beperkte het risico door de overgang te beginnen met de low-end. De kans is groot dat ze met gelijkaardige problemen te maken kregen, maar dat dit niet de release van belangrijke producten in gevaar heeft gebracht.
de PE net als de gtx512 was nooit bedoeld om er veel van te maken nog om er veel van te verkopen beide zijn puur voor de press gemaakt.

het yield probleem van de r520 kwam pas laten, toen ze al een maand of 2 vertraging hadden opgelopen, en dat was normaal niet zo'n probleem geweest het komt wel vaken voor dat er een retape out nodig is.
Exact daarom juist. Men wist dat de overstap naar 90 nm en de eis voor hoge kloksnelheden en yields een extra risico inhield.
die bug had helemaal niks met 90nm te maken. die had er ook in gezeten als ze bij het oude productie process waren blijven zitten. de fout zat in het ontwerp!
daarom moet de chip voor een heel herontworpen worden en dat koste VEEL meer tijd dan die retape out om de yeilds te verhogen.
en nu zeg je dat het in het ontwerp zit en procesonafhankelijk is (RTL)? Dat valt dus volledig te simuleren.
ik zeg dat hij op ontwerp nivo zat, en dat hij er met testen niet uit kwam omdat alles gewoon werkte in de simulator.
en ook de eerste sampels werkte ook gewoon een tijdje en hielder er toen ineens mee op (ineens waren ze dood).
simulators zijn nog niet 100% perfect, en ze kunnen dus blijkbaar niet alles detecteren.
gewoon pech dus voor ATI.

en ik heb wel wat PE's in de schappen zien liggen anders bij verschillende web winkels.
Countess: was er niet een bugje in het R520 ontwerp waardoor er geen hoge kloksnelheden gehaald konden worden met fatsoenlijke yields?
Je kan dit inderdaad pech noemen, en dat zal dan wel zo zijn, maar vergeet niet dat er ook veel problemen met de R420 waren (X800XT PE), de yields waren ook enorm slecht. En ezel stoot zich geen 2 keer aan dezelfde steen zou ik zeggen, het verschil is dat ze ervoor kozen de R520 niet te launchen en de X800XT PE wel..
De GTX 512 is beschikbaar voor wie de prijs wil betalen. De PE was nog niet te vinden als je het dubbele van de prijs op tafel gooide. Feit is dat de G70 zeer goed overklokt terwijl R420 met geen stokken vooruit te krijgen is.
die bug had helemaal niks met 90nm te maken. die had er ook in gezeten als ze bij het oude productie process waren blijven zitten. de fout zat in het ontwerp!
Euh... eerst zeg je dat het niet te simuleren valt, dan zit de bug dus op procesniveau, en nu zeg je dat het in het ontwerp zit en procesonafhankelijk is (RTL)? Dat valt dus volledig te simuleren.
Die 60 extra Watt ten opzichte van de XT1800 is wel een beetje verontrustend. ATI slaat dan een andere weg in dan waar ze de laatste jaren duidelijk beter in waren dan Nvidia: stroomverbruik.
Zijn Intel en AMD hen leven gaan beteren met stroomgebruik, gaat het er bij de videokaarten weer net zo hard af :P
Volgens mij verbruikt een 7800GTX nog altijd minder dan een 6800 Ultra.

Ditzelfde zie je geloof ik niet terug bij de X850XT PE - X1800XT.

Dus om nou te zeggen dat ATI beter bezig was met stroomverbruik klinkt mij nogal onzinnig in de oren.
Maar als je een generatie of twee verder terug gaat en de 5800/5900 vergelijkt met de 9700/9800 dan lijkt me dat nAFutro wel degelijk gelijk heeft.....
nou hierdoor word het voor mensen misschien wel aantrekkelijker om een amd te kopen aangezien die toch nog steeds minder watts gebruiken dan de intels.

misschien krijg amd hiervoor wel een grote voorsprong op intel. :?
@ nAFutro
Dat is toch niet erg? De zuinige processor compenseert je videokaart ennn je kan nogsteeds 100% gebruik maken van je dure 500 watt voeding, anders had je hem voor niks gehaald ;) :Y)
Hmm... ligt het aan mij of is die 1900 xtx niet eens zo goed als iedereen suggereert?

Ik zelf had namelijk veel meer voorsprong verw8 ook door dat bericht over de technologie.

Hier gaat nvidia vrees ik makkelijk overheen als de 7800 gtx dat al doet op sommige fronten
Het is al heel lang zo dat Nvidia beter presteert in OpenGL.
Laten nu net deze games (doom3, etc) het zijn waarin de 7800 GTX beter in is.

Zoals verder op te lezen is: maakt het uit of je 60 fps of 58?

volgens mij zie je het niet eens.
ATI heeft laatst zijn drivers geoptimaliseerd zodat ze ook met de X1800 serie van Nvidia winnen op het gebied van OpenGL

Klikkerdeklik
omdat in q4 technieken worden gebruikt waar ATI nog geen antwoord op had.
nu hebben ze dat wel met fetch4, maar dat werkt alleen als er ondersteuning voor is in de games. net als bij die techniek van nvidia trouwens.
als de doom3 engine daar ondersteuning voor krijgt kan de techniek van ATI in theorie 2 keer sneller zijn als die van Nvidia (niet dat je framerates 2 keer sneller worden, maar het zal wel een grote bottlenek kompleet opheffen)
Waarom winnen ze dan nog steeds niet in Q4?
Dit idee had ik dus ook...Ik had eerlijk gezegd meer verwacht van deze kaart. Technisch gezien wordt de 7800GTX makkelijk voorbij gestreeft, maar performance wise vind ik het nog wel meevallen...

Mijn vermoeden is dat de 7900GTX (en de snellere versies ervan) de 1900XT "dik" voorbij gaan streven.

Wat ik me ook afvraag is hoe goed deze kaarten leverbaar gaan zijn, iets wat ook niet vergeten mag worden (zie de laatste battle tussen nvidia 7800gtx & ati x1800xt)

Tijd zal het leren I guess :)
de 7900TX zal ATI zeker wel in games voorbij streven maar gan je meestal van 250FPS bij ATI naar 300FPS bij nvidia.
daar heb je niks aan,
maar bij nieuwe games gaat ATI heersen met een verschil van 30 bij nvidia en 50 bij ATI, wat vanuit een gameplay perspectief veel interesanter is.

de verhouding texture units shader units is bij ATI gewoon veel vooruitstrevender, bij Nvidia zijn ze veel te conservatief.
Heb je een glaze bol of zo ? Als je die had gehad had je ook rekening gehouden met heb belang van shader pipes in nieuwe games.

In 2003 was de verhouding textures/pixelshaders 1:1. in 2004 ging dit meer naar 1:2 toe. In 2007 zullen we naar de 1:7 gaan.

Nu is het zo dat de Nvidia G71 waarschijlijk 32 pixel pipes krijgt de R580 heeft er nog steeds 48. Dus hier heeft ATi een klein voordeel.

Nu zal de G71 wel hoger geclockt worden dus ik denk dat het nog best spannend kan worden. meer in de zin van 10% verschil mischien ietsjes meer.
Deep6: Misschien heeft Countess geen glazen bol, maar jij wel blijkbaar. Je weet al wat de verhouding van textures/pixelshaders gaat zijn en nvidia niet? Sterk hoor. Ze zijn toch zo dom bij nvidia dat ze dat allemaal niet weten.
Nee echt, denk je nu echt dat als dat waar is nvidia het aantal shader pipes niet drastisch zou verhogen? Denk eens na. Ik denk wel dat Nvidia weet waarmee ze bezig zijn.
amper 10% sneller dan de GTX512 bij 3Dmark vind ik een flinke teleurstelling. Gezien de berichtgeving de laatste tijd had ik zeker iets van +/- 20% verschil verwacht.
geef de driver makers nog maar fff. de prestaties van een kaart gaan de eerste paar releases het meest omhoog.
Het is duidelijk dat er niet veel meer van de drivers verwacht hoeft te worden. De R580 is geen nieuwe architectuur zoals de R520 was. Uiteindelijk is de X1900 een X1600 op steroids, een X1600 die al geruime tijd op de markt is en waarvoor de drivers al goed geoptimaliseerd zijn.
vaak worden kaarten sneller door betere/snellere software... doordat instructies beter/sneller worden uitgevoerd en dus meer per tijdseenheid gedaan kan worden.
Dat valt wel mee. De winst kan oplopen tot 50% In als je naar de HQ settings van NVidia VS HQ ATi gaat kijken was hij soms 2x zo snel.

Verder wordt de 7900 Natuurlijk sneller. Maar de X1900 blijft meer shader power houden. De 7800 nu en de 7900 zijn nog erg gemaakt om textures te verwerken. En die worden steeds minder gebruikt. Zie ook X1600 VS 6800 GS. Daar hetzelfde verhaal. Daar zie je ook dat in de nieuwste games de X1600 net zo snel is als de GS. En in de oudere gewoon gebrek aan Texture power heeft en dus achter raakt.

In games als Unreal III wordt dit alleen maar meer. + ATi komt rond maart waarschijlijk met de X1700 en de X1950 op de proppen. De X1950 zal de R590 core krijgen. Dat is een R580 @ 0.08u en zal wat hoger geclockt worden ( 50-100 mhz meer ) Dus dan wordt het verschil tussen de 7900 en de X1950 aanzienlijk kleiner.
Wow, je hebt 2 glazen bollen.
nVidia heeft een tijdje geleden de 7800 Ultra geschrapt omdat ATi "toch niet" zo snel zou zijn. Nu de x1900 er is kun je toch wel verwachten dat nVidia de Ultra uit de ijskast haalt. Vooral omdat ze nu toch even het nakijken hebben.
ooit van de gtx512 gehoord?
nVidia heeft een tijdje geleden de 7800 Ultra geschrapt omdat ATi "toch niet" zo snel zou zijn. Nu de x1900 er is kun je toch wel verwachten dat nVidia de Ultra uit de ijskast haalt. Vooral omdat ze nu toch even het nakijken hebben.
ooit van de gtx512 gehoord?
Jah inderdaad :P Op sommige cores van de 512MB GTX valt ook ultra te lezen :Y)
Vergeet niet dat de X1900 *** een andere core heeft dan de X1800 ***! De r520 core is vergelijkbaar met de g70 van nVidia. De r580 is vergelijkbaar met de g71 core en die moet nog uitkomen!

Dat Ati deze kaart zo snel na de release van de X1800 XT uitbrengt komt omdat nVidia hun antwoord op deze kaart al kant en klaar hadden in de vorm van de gtx512! Dat antwoord was niet echt wat ATi zich had voorgesteld! Immers: nog voor de Topkaart te verkrijgen was had nVidia deze alweer overtroffen met een kaart die, weliswaar mondjesmaat, al meteen te krijgen was!

Ik vermoed dat de g71 core kaarten (7900 gtx) meteen al in 512 versie uit zullen komen en dan kunnen we opnieuw vergelijken met gelijke generatie kaarten! Nu worden weer de oude en nieuwere generatie vergeleken!
@ TheAxeEffect

Je kan het ook anders zien, ATI geeft de vorige generatie eigenlijk ongewild overgeslaan (de 1800 reeks was zodanig laat dat bijna iederen al een 7800 had), maar is nu wel eerder met de nieuwe generatie. nVidia's nieuwe zal waarschijnlijk wel sneller worden, maar ATI loopt nu voor op nVidia en mss kan het daar vruchten van plukken en ook de volgende generatie met wat voorsprong op de markt brengen.
Je vergist jezelf in 1 klein detail: Dit is niet de nieuwe generatie maar een step-up! De nieuwe generatie worden respectievelijk de r600 core en de g80 core!

Dit is niet meer dan een tusentijdse release in aanloop op/ ter overbrugging tot de echte nieuwe cores! En die komen dan weer over een half jaar!
dat is precies hetzelfde wat we de afgelopen 6 jaar gezien hebben.....niks nieuws onder de zon :S

Dit nieuws gaat echt nergens over...

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True