Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties
Bron: X-Bit Labs, submitter: Wouter Tinus

Hoewel de release van de GeForce FX alweer enkele weken geleden plaatsvond, is er nog verdacht weinig officiŽle informatie beschikbaar over de kaarten en kloksnelheden. X-Bit Labs heeft nu echter weer wat nieuwe informatie verzameld. De Russen beweren dat de core van de normale GeForce FX 5800 zal draaien op 400MHz, en gevoed wordt 900MHz geheugen. De Ultra-versie maakt daar 500/1000MHz van, en dat is dan ook degene waar de dikste koeler op geplakt moet worden. Alle kaarten zullen in principe worden voorzien van 128MB geheugen en D-Sub, DVI-I en TV-Out aan boord hebben:

Prices on the actual graphics cards are to be determined and announced later. The GeForce FX powered products will make their massive appearance in February 2003, nevertheless, some sources claim that NVIDIA may allow some of their partners to supply a handful of graphics cards earlier, but for much higher price.
nVidia GeForce FX reference design

Lees meer over

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (61)

Volgens mij probeert nVidia de kaart al erg maximaal op snelheid te krijgen. Ik hoop dat de stabiliteit nog wel wat verbeterd (nog een driver-probleempje?).
http://www.giga.de/help/helpnite/grafik2.wmv
De link met dank aan Robin.

De nieuwe kaart heeft nog wat nadeeltjes ten opzichte van de Ati Radeon 9700 Pro. Te weten een 128bits geheugenbus tegen een 256bits geheugentoegang voor de Ati. Het worden dus spannende tijden! Hoeveel baat zal de kaart hebben van de hogere kloksnelheden voor het geheugen en processor?
Volgens mij probeert nVidia de kaart al erg maximaal op snelheid te krijgen. Ik hoop dat de stabiliteit nog wel wat verbeterd (nog een driver-probleempje?).
http://www.giga.de/help/helpnite/grafik2.wmv
De link met dank aan Robin.
Het filmpje waar jij een link naar geeft laat zien wat de GeForceFX kan. De GeForceFX die in het filmpje de 3D rendered is echter nog niet de final versie. Kortom, je zou het een test-exemplaar kunnen noemen. Het is niet meer dan logisch dat een test-exemplaar fouten bevat, anders zou hij allang in de winkel liggen ;)
De nieuwe kaart heeft nog wat nadeeltjes ten opzichte van de Ati Radeon 9700 Pro. Te weten een 128bits geheugenbus tegen een 256bits geheugentoegang voor de Ati.
Ik zie het nadeel niet :? De Radeon 9700 Pro heeft wellicht een grotere geheugenbandbreedte, maar de compressie van de GeForceFX zorgt er voor dat de GeForceFX zuiniger met z'n bandbreedte omgaat. Knap werk van nVidia dus om de bandbreedte efficientie te optimaliseren in plaats van de bandbreedte te verhogen.

Behalve de hogere doorvoersnelheid van 256-bit geheugen vergeleken 128-bit geheugen heeft 256-bit geheugen weinig voordelen.
Het worden dus spannende tijden! Hoeveel baat zal de kaart hebben van de hogere kloksnelheden voor het geheugen en processor?
Een hogere kloksnelheid van het geheugen en de kern is natuurlijk een van de grote factoren die bepalen wat de uiteindelijke prestatie van de videokaart zal zijn. Maar ook de technieken die worden gebruikt om de bijvoorbeeld het gebruik van de aanwezige bandbreedte te optimaliseren heeft grote invloed.
AAAh, dus jij bent een van de mensen die in de PR praat van nVidia is getrapt? Ga maar eens zoeken hoe ATi gereageerd heeft toen iemand vroeg wat ze vonden van de theoretische getallen door compressie. De 9700 gebruikt ook compressie, sterker nog het resultaat van de 9700 heeft een hogere maximum compressie, maar ga maar ff rondsnorren dan zal je de grap er wel van inzien allemaal.
Silent Snow, als verwoed Beyond3d bezoeker moet ik hier toch een kleine kanttekening plaatsen. Het type uitgebreidere shaders wat hier bedoeld wordt is van een dermate grote complexiteit dat zowel R300 als NV30 hier grote moeite mee zal hebben om die op een respectabele real time snelheid te draaien. Dit is dus een vrij nietszeggend "voordeel".

De 1024 instructies lange pixelshaders die de NV30 kan boven de 160 van de R300 zijn bovendien totale overkill over de 96 instructies die de DirectX 9 spec voorschrijft. Oftewel, ook al kan NV30 heel lange pixelshaders aan, een spel ontwikkeld voor DX9 mag hier niet eens gebruik van maken om DX9 compatible genoemd te worden.

Het blijft dus wachten tot DirectX 9.1 voordat hier gebruik van kan worden gemaakt. En laat de release hiervan nou eens eind 2003 gepland zijn, net rond de tijd dat NV40/R400 op de markt gaan komen...

Samengevat: het kleine voordeel in benutten van bandbreedte (vergelijkbaar met meerdere textures in een of meer passes toepassen, oorspronkelijke radeon (1 pass)tegen GF2(meer passes) dat in toen in het voordeel van Nvidia uitviel) dat NV30 hier in vergelijking met R300 heeft zal buiten een enkele Nvidia tech demo niet te zien zijn, of pas in een tijd dat niemand zich meer om deze chips boeit.
AAAh, dus jij bent een van de mensen die in de PR praat van nVidia is getrapt? Ga maar eens zoeken hoe ATi gereageerd heeft toen iemand vroeg wat ze vonden van de theoretische getallen door compressie. De 9700 gebruikt ook compressie, sterker nog het resultaat van de 9700 heeft een hogere maximum compressie, maar ga maar ff rondsnorren dan zal je de grap er wel van inzien allemaal.
Als jij het zo wilt uitdrukken, ja, ik ben erin getrapt :P Maar niet zonder reden!

Hier een stukje uit bericht

"Zowel nVidia als ATi leggen de nadruk op programmeerbaarheid, efficiŽntie en precisie. Doordat nVidia weinig nadruk legt op de bandbreedte van de NV30, stelt Beyond 3D dat de NV30 waarschijnlijk met een 128bits geheugenbus wordt uitgevoerd. Door de uitgebreide instructieset van de pixel en vertex shaders van de NV30 is het mogelijk dat de NV30 sommige programma's in een keer kan uitvoeren terwijl de R300 daar meerdere stappen voor nodig heeft wat tot een toename van bandbreedte gebruik kan leiden."

Hieruit kan ik concluderen dat Ati eigenlijk de makkelijke weg heeft gekozen. nVidia heeft daarentegen besloten tijd te besteden aan de optimalisatie van de kern.

Misschien kunnen we over een tijdje wel een vergelijking trekken tussen het bandbeedte verschil tussen de AMD en Intel processoren en de Ati en nVidia videokaarten. De Intel processoren gebruiken aanzienlijk meer bandbreedte dan de AMD processoren. Toch is het verschil in prestatie van een Intel processor en een vergelijkbare AMD processoren niet groot. Wellicht dat we over een tijd hetzelfde kunnen zeggen over Ati en nVidia. Ati met veel bandbreedte tegenover nVidia met minder bandbreedte maar met een efficienter gebruik van deze bandbreedte!
De 1024 instructies lange pixelshaders die de NV30 kan boven de 160 van de R300 zijn bovendien totale overkill over de 96 instructies die de DirectX 9 spec voorschrijft. Oftewel, ook al kan NV30 heel lange pixelshaders aan, een spel ontwikkeld voor DX9 mag hier niet eens gebruik van maken om DX9 compatible genoemd te worden.
De NV30+ zit boven de specificaties van zowel vertex shader 2.0 als pixel shader 2.0. Ik zie dat niet als nadeel, eerder als een voordeel. Het zal ongetwijfeld enige invloed hebben op de huidige 3D applicaties zoals spellen en 3D rendering. Daarnaast is het marketingtechnisch gezien ook nog eens een bijkomend voordeel. Wie wil er nu niet een grafische kaart die een stel technieken gaat ondersteunen die over een aantal maanden pas een standaard zal worden? Je kaart blijft bovendien langer up-to-date, of langer deels up-to-date.

The nVidia NV30 beschikt niet alleen over een veel complexere vertex en pixel shader, maar deze twee kunnen functioneel gezien meer dan de vertex en pixel shader die de NV25 bij zich draagt. Ja, dit zal een moeilijke klus worden voor programmeurs, maar speciaal hiervoor hebben nVidia en Microsoft samen de taal Cg ontwikkeld. Deze taal is dus juist ontwikkeld om spelontwikkelaars aan te sporen de geadvanceerdere technieken waar een grafische kaart over beschikt te gaan gebruiken.

Mede door de extra sterke vertex en pixel shaders en Cg zal het mogelijk worden om spellen er erg realistisch uit te laten zien. Met deze stap zullen spellen er dus veel realistischer uitzien en daarmee zal het er bijna als een film uit gaan zien. Vandaar dat de kern van de GeForceFX de naam CineFX draagt.
Het blijft dus wachten tot DirectX 9.1 voordat hier gebruik van kan worden gemaakt. En laat de release hiervan nou eens eind 2003 gepland zijn, net rond de tijd dat NV40/R400 op de markt gaan komen...
Volgens theinquirer (url) zal DirectX 9.1 in de herfst van 2003 worden gereleased. Zeker met de release van DirectX9.0 waarschijnlijk nog voor de kerst schiet het al aardig op :)
De NV30+ zit boven de specificaties van zowel vertex shader 2.0 als pixel shader 2.0.
klopt, het zal echter duren tot DirectX 9.1 voor hier gebruik van kan worden gemaakt. Zolang de API het niet exposed kan er niet voor worden geprogrammeerd, zelfs niet met een Higher Level Shading Language als Cg

The nVidia NV30 beschikt niet alleen over een veel complexere vertex en pixel shader, maar deze twee kunnen functioneel gezien meer dan de vertex en pixel shader die de NV25 bij zich draagt. Ja, dit zal een moeilijke klus worden voor programmeurs, maar speciaal hiervoor hebben nVidia en Microsoft samen de taal Cg ontwikkeld. Deze taal is dus juist ontwikkeld om spelontwikkelaars aan te sporen de geadvanceerdere technieken waar een grafische kaart over beschikt te gaan gebruiken.
De shaders van R300 kunnen ook veel meer dan NV25, zelfs de Radeon 8500 kon al meer dan NV25, dus hiervan zie ik de relevantie niet zo :?
Verder is Cg een eigen taal van Nvidia die weliswaar compatible is met de Microsoft HLSL, maar hier bovenop draait. Voordeel van Cg is wel dat hij in principe ook shaders voor OpenGL kan compileren, al zal OpenGL 2.0 hiervoor ook zijn eigen taal aandragen.

Mede door de extra sterke vertex en pixel shaders en Cg zal het mogelijk worden om spellen er erg realistisch uit te laten zien. Met deze stap zullen spellen er dus veel realistischer uitzien en daarmee zal het er bijna als een film uit gaan zien. Vandaar dat de kern van de GeForceFX de naam CineFX draagt.
In iets meer passes (en meestal ook gewoon in eentje) kan de R300 exact hetzelfde als de NV30. CineFX is natuurlijk gewoon een marketingnaam (zoals de hele laatste alinea in je betoog direct uit de Nvidia marketingbundel gehaald lijkt ;) ) voor DirectX9 level pixel en vertexshaders.

Begrijp me niet verkeerd, ik vind het mooi voor ze dat Nvidia al in hun eerste generatie DX9 product verder voorbij de 2.0 specificaties gaat. Het is alleen jammer dat het net als met de PS1.4 support van de radeon 8500 in echte spellen nooit gebruikt zal worden.

--edit: ff juiste manier italic gemaakt
klopt, het zal echter duren tot DirectX 9.1 voor hier gebruik van kan worden gemaakt. Zolang de API het niet exposed kan er niet voor worden geprogrammeerd, zelfs niet met een Higher Level Shading Language als Cg
Dus als ik het goed begrijp is het eigenlijk ook marketing van Ati dat de Radeon 9700 Pro DirectX 9 compatible is? Want dat is in principe wat er nu gaat gebeuren met de GeForceFX. Wellicht in een wat mindere mate, maar het gaat toch om een onderdeel van een toekomstige DirectX versie.
De shaders van R300 kunnen ook veel meer dan NV25, zelfs de Radeon 8500 kon al meer dan NV25, dus hiervan zie ik de relevantie niet zo
Juist doordat de NV30 over een veel ingewikkeldere vertex en pixel shared bechikt, kan er een veel realistischer beeld worden opgezet in vergelijking met de NV25 of de R300. Zeker met de extra optimalisaties die de CineFX kern bevat. Of begrijp ik het nu verkeerd :?
Verder is Cg een eigen taal van Nvidia die weliswaar compatible is met de Microsoft HLSL, maar hier bovenop draait. Voordeel van Cg is wel dat hij in principe ook shaders voor OpenGL kan compileren, al zal OpenGL 2.0 hiervoor ook zijn eigen taal aandragen.
Ok, dus Cg en Microsoft's HLSL staan totaal los van elkaar. Ze zijn echter wel volledig compatible met elkaar, en dus qua functie vrijwel identiek op het kunnen compilen van OpenGL na, maar Cg is OpenSource. Dus begrijp ik het goed als ik zeg dat Cg ok OpenGL kan compilen? In dat geval zou het kunnen zijn dat de extra lange pixel en vertex shader die de NV30 heeft wellicht bedoeld zijn voor OpenGL2.0 :)
De vraag is of de game developers nVidia gaan voortrekken zoals met de 8500 extra features niet is gebeurt.
nVidia bied meer ATI toen ook maar werd zelden gebruikt.
Maarja als ze dat bij nVidia wel doen.
Wat ik eigenlijk toch wel verwacht
Of ze pakken de deel features die bijde DX9 kaarten ondersteunen.
Aangezien ATI tegenwoordig wat meer present is op de 3D gamers markt.
Leuk dat iedereen nu steeds de GeForceFX tegen de Radeon9700Pro uit zet, terwijl ATi zelf heeft aangegeven dat de R350 het tegen de GeForceFX moet opnemen.

Vergeet niet dat de 9700Pro nu al zo'n 6 maanden op de markt is, en het in Februari dus tijd wordt voor een nieuw product uit de halfjaarlijkse cyclus van ATi. Tegen die tijd komt ook GeForceFX uit, dus heb je twee producten die je qua specs goed tegen elkaar uit kan zetten.

Okay, je kan beargumenteren dat het niet eerlijk is, want ATi loopt nu eenmaal een generatie voor (zij komen namelijk al met de DX9-product refresh, waar nV nog moet wachten tot half 2003). Maar het is ook niet eerlijk om de GeForceFX te vergelijken met een product dat al meer dan een half jaar oud is. Dat is net zo gemeen als de Radeon8500 vergelijken met de veel nieuwere GF4Ti serie, terwijl die als concurrent van de GF3 bedoelt was.
Leuk dat iedereen nu steeds de GeForceFX tegen de Radeon9700Pro uit zet, terwijl ATi zelf heeft aangegeven dat de R350 het tegen de GeForceFX moet opnemen.
Ja en :? Dat Ati de R350 graag als tegenhanger van de GeForceFX ziet betekend nog niet dat dat werkelijk zo is! Als de topkaart van Ati de Radeon 9700Pro is en de topkaart van nVidia de GeForceFX, dan krijg je dus de vergelijking GeForceFX vs Radeon 9700Pro.

Op het moment dat de R350 in beeld komt zal dat allemaal veranderen. En dan komt de NV35 en de R400 en de NV40 etc ...
Laat ze nou eens komen met dat ding, ik mag dan wel nVidia fan zijn, maar ondertussen wordt ik echt flink irritant van al die nieuws posts met geruchten, terwijl de kaart al gereleased is :P
Het was een paper launch... wat zeg ik een tisue launch...

Er is enkel een presentatie geweest waarbij zeer weinig details bekend zijn gemaakt. Ja dat hij DX9 features had en wat dat waren dat wisten we natuurlijk al. Op dit moment hebben enkele sites waarschijnlijk referenceboards gekregen en zodra de NDA voor reviews afloopt zullen de eerste verschijnen.
En wat voor een presentatie....de kaart crashte 2 keer de presentatieopstelling :D

Maar zonder b, het duurt misschien wel wat lang, maar dat is altijd zo. Tegenwoordig komen de previews sowieso veel sneller dan een paar jaar geleden omdat iedereen tegenwoordig alles acuut op internet zet. Dus dan gaan de geruchten ook veel sneller...maar dat wisten jullie allemaal al lang :)

En onno2, damn wat heb jij voor een leven als je om 5:40 nog (of al) zit te posten :D
Ik heb hetzelfde !! Alleen denk ik dat we de eerste review of preview met benchmarks pas na oude en nieuw maar in ieder geval na de kerst zullen zien.
Denk maar na: Stel dat de FX maar iets sneller is dan de 9700pro dan zullen veel mensen besluiten om voor de kerst gewoon de ati te vragen/nemen. Nu men in onzekerheid is zullen veel mensen het risico niet nemen en wachten op reviews.
Op deze manier zal nVidia de kerstverkopen voor ATI negatief kunnen beinvloeden. En haar eigen verkopen in februari positief.
volgens die redenatie moeten we er dus vanuit gaan dat de FX maar weinig sneller is dan de 9700Pro. Anders hoeft Nvidia die tactiek niet toe te passen.

(Ik denk overigens dat je gelijk hebt)
Dit slaat nergens op....
Jullie zijn allemaal appels met peren aan het vergelijken :P,
de radeon 9700 Pro is niet bedoeld om de strijd aan te gaan met de FX, maar de R350 wel
Wees eigenlijk ook eens eerlijk .. welke games kun je niet fatsoenlijk spelen op een GF4 Ti4200 64 MB ?

Natuurlijk veranderd dat wel over een tijdje, maar IMHO is een Radeon 9700/GeForce FX nu gewoon overkill. Net als destijds met de GF3, die was ook dikke overkill toen de kaart uitkwam, en tegen de tijd dat je de kracht nodig had was de GF4 al uit voor minder dan de helft van de nieuwprijs van een GF3.

Als echte tweaker wil je natuurlijk altijd het nieuwste van het nieuwste, maar als prijsbewuste tweaker zeg ik: ik zing het nog wel een jaartje uit met mijn Ti4200.
Welke afstand kun je niet afleggen in een fiat panda?

Maar toch hebben veel mensen een duurdere auto, en sommigen zelfs een ferrari.

Als er alleen maar ontwikkeld werd wat noodzakelijk was, dan hadden we niet veel. Ik vind deze ontwikkeling wel okay.

Mijn persoonlijke mening is, dat Nvidia niet kan aankomen met een kaart, die ongeveer gelijk presteert met de Radeon 9700 Pro. Dus ze moeten een kaartje op de markt zetten dat veel beter is. Maar dat is maar mijn mening.
Zal wel een aardig wat power gebruiken te zien aan de 12volt aansluiting aan de zijkant !
Kijk eens even jongens, over een tijdje wordt je video kaart een compleet moederbord met geheugen sloten en GPU socket!!! :o :D ;)
Ik ben er ook niet blij van hoor, hoe meer watt's hoe meer koeling, hoe meer herrie. Ik hoop dat de non-ultra geen extra power nodig heeft. Dan kan de koeler ook normaal blijven. Als je goed kijkt zie je wel lijntjes rond de FX chip lopen die in de vorm van een standaard geforce4 koeler lopen. Ik denk omdat deze warmer zou worden er wel een groter koelblok doorloopt naar het geheugen (een hele plakaat). Het kan namelijk alleen maar opzij, in de hoogte kun je niet bouwen i.m.v. het pci slot wat eronder zit.

Ik zie zelfs een tweede fan connector rechts achterop de kaart zitten. Laten we niet hopen dat dat standaard is.

* typhon slikt even , 2 fans
Het is geen 12V stekker maar een molex-stekker. Een molex stuurt zowel een 12V- als een 5V-signaaltje door zijn stekker.
Heb je ook bij de Radeon 9700 (en ik denk ook de 9500). :)
Zouden er ook 256 mb versies komen? want dan ga ik er wel een kopen, dan lig ik weer een beetje voor, en dan hoef ik er voorlopig geen te kopen... (nu 64 mb)
Zouden er ook 256 mb versies komen? want dan ga ik er wel een kopen, dan lig ik weer een beetje voor, en dan hoef ik er voorlopig geen te kopen... (nu 64 mb)
Aan 256MB heb je in dit stadium niks. Het verschil tussen 64MB en 128MB is al bijna niet te merken in de meeste spellen. Het volladen van het geheugen duurt immers veel langer omdat het geheugen niet sneller is.

Ook heb je kans dat als er een versie komt met 256MB gehuegen, deze een lagere klok krijgt dan de 128MB versie. Dit zagen we al gebeuren met de GeForce4 Ti4200 64MB en de 128MB versie. De 64MB versie kreeg sneller geheugen en presteerde daarom een stuk beter dan de GeForce4 Ti4200 met het langzamere 128MB geheugen.

Aan veel geheugen op je videokaart heb je in de meeste gevallen niks aan. Het enige wat je ermee kan is opscheppen, maar iedere tweaker weet natuurlijk dat veel geheugen op je videokaart minder stoer is dan sneller geheugen op je videokaart :+

Tot slot wil ik graag zeggen dat je waarschijnlijk alleen een verschil in prestatie merkt als je spellen speelt die hoge textures gebruiken en dus veel gehuegen vreten. UT2003 is hier een goed voorbeeld van met vrij zware textures. Ook zal je in zware 3D rendering applicaties wellicht een verschil merken aangezien veel geheugen in dat geval geen overbodige luxe is.
<Flame (not) intended, volgens mij wel volledig off-topic>

All about comaptibility. Had nVidia niet een megadeal met Intel? Altijd graag gewerkt met zowel ATi als nVidia (Matrox te duur), nu echter blijkt nVidia meer comatible, meer value for money.

Verwacht dat ze dat met de FX willen bestendigen; bewerkstelliging is al daar. Zolang mensen geloven in de stabilitiet ervan, zullen ze beter verkopen.

De minor flaws kunnen ze wegpoetsen met credibility en zo, zoals Intel probeert met de Prescott, ATi de loef afsteken.
All about comaptibility. Had nVidia niet een megadeal met Intel? Altijd graag gewerkt met zowel ATi als nVidia (Matrox te duur), nu echter blijkt nVidia meer comatible, meer value for money.

Verwacht dat ze dat met de FX willen bestendigen; bewerkstelliging is al daar. Zolang mensen geloven in de stabilitiet ervan, zullen ze beter verkopen.

De minor flaws kunnen ze wegpoetsen met credibility en zo, zoals Intel probeert met de Prescott, ATi de loef afsteken.
Ik heb meer het gevoel dat Intel en Ati samenwerken om tegen de combinatie nVidia en AMD op te boksen. Ati heeft immers een chipset voor het intel platform, de IGP serie. Daartegenover staat de nForce van nVidia die voor het AMD platform is bedoeld.

Ik kan het fout hebben, maar ik heb zo'n idee dat Intel en Ati echt goede bandjes met elkaar hebben. Veel berichten bewijzen mijn stelling, onder andere het bericht dat Ati en Intel elkaar een cross-licentie gaven en het bericht dat Ati als eerste een Pentium 4 licentie ontving.

Hetzelfde is waar voor nVidia en AMD. Onder andere alle nForce chipsets en verschillende berichten dat nVidia en AMD elkaar toch wel mogen.

Ook wel relevant is de review op xbitlabs over de cpu afhankelijkheid van een nVidia en een Ati videokaart. Zo blijkt dat de "OpenGL-drivers van ATi matig geoptimaliseerd zijn voor Athlon XP" in tegenstelling tot Intel processoren.

Ati heeft echter wel producten op de markt die voor het AMD platform bedoeld zijn. Enkele voorbeelden zijn de A3/A4 en de RS380 voor de Athlon64 :)
Wat lopen jullie allemaal toch te speculeren over de performance van de GeForce FX.
Nvidia heeft zelf gezegd dat de GeForce FX twee keer zo krachtig is als de GeForce 4 TI4600 op ruwe power dus niet met AA en ASF aan.
Uit testuitslagen blijkt dat de R300 helemaal niet zoveel krachtiger is dan de GeForce 4 TI4600 op ruwe power dus geen AA en ASF aan (het scheelt hoogstens 10-15fps).
De GeForce FX is de tegenhanger van de R300 en de NV35 is de tegenhanger van de R350.
Dacht toch echt dat nVidia juist zegt MET FA & FSAA enabled.

Tuurlijk scheeld het soms niet echt veel maar ja er zijn veel games en benchmark die nogal CPU dependend zijn als 'n 8500 ook in de buurt van 'n G4Ti4600 zal de 9700Pro dat ook doen als de 9700Pro echt beter scored zal de 8500 ook veel lager scoren dan de Ti4600
Daarom is het mogelijk dat de 9500Pro de 9700Pro met oud drivers een keertje verslagen heeft in CPU/driver dependend bench.
Dus 'n snelle CPU is ook 'n vereiste voor sommige games. Met de laaste drivers.
Het is dus heel belangrijk om de relevantie tov de component die je test te analiseren en dan conclusies trekken.

De Geforce FX is nu nog een vraagteken aangezien er alleen spect bekend zijn maar geen reallife benching dus geen uitgebreide review's

Dus loop zelf niet te veel te speculeren.
je gebruikt nu nog niet eens... of mischien amper je 64 dus, ik denk niet dat 256 nuttig is! ik denk dat je meer hebt aan 128mb ddr2 op 1200 mhz... dan dat je zou hebben dan 256 op 800mhz!! maarja........ je weet nooit wat de softwaredevelopers doen, mischien dat je toch over een half jaar gelijk hebt, maar dan is er weer een andere geforce familielid :7
niet helemaal waar, moet jij maar eens fijn gaan UT2003en en met een kaart met 256MB de game instaleren, kan je nog een tandje hoger qua texture detail :)
Klopt. En ik geloof dat FSAA ook graag wat ruimer in het geheugen zit. Hoe meer geheugen hoe hoger je het kan draaien (GeForceFX gaat tot 8x en Radeon9700Pro tot 6x) en tevens op hogere resoluties aan kan zetten (alhoewel je het op bv 1600x1200 minder snel aan zal hoeven te zetten). Dit werd ook gezegd op Rage3D door een ATi medewerker.
Hoewel de release van de GeForce FX alweer enkele weken geleden plaatsvond
Hoezo de kaart is toch nog niet uit gebracht, hij is alleen aangekondigt dat is toch wel even wat anders als een release...

Even over die clocksnelheden, de ultra heeft toch niet alleen een hogere clocksnelheid neem ik aan, anders vind ik het maar weinig toegevoegde waarde..
Ik ben een videokaart leek, maar ik vroeg me af. Ik wil dus een nieuwe kaart kopen, en ik zat te denken aan een Geforce 4 Ti4200, want deze schijnen goed te zijn, en ze zijn het max wat ik kan en wil betalen (rond 220 euro). Is het de moeite waard om er nu eentje te kopen, of moet ik wachten tot de FX, of is die alleen in de dure categorie verkrijgbaar. Gaan de prijzen van de Ti4200 dan ook dalen als die FX uitkomt? Dus, nieuwe kaart met kerst of niet?

Groetjes,
Thomas

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True