Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 94 reacties
Bron: The Inquirer, submitter: XWB

Naast MSI en LeadTek zal ook Club-3D een van de eerste fabrikanten zijn die een GeForce FX videokaart op de markt brengt, aldus The Inquirer. Deze nieuwe videokaart krijgt een dual RAMDAC van 400MHz, waarmee een resolutie behaald wordt van 2048x1536 op een refresh-rate van 85Hz, en support voor dual link DVI. Vermoedelijk zal de kaart in twee varianten te verkrijgen zijn: de eerste met 128MB RAM aan boord en de tweede variant krijgt 256MB. De snelheid van het geheugen bedraagt 500MHz, wat resulteert in een bandbreedte van 16GB/s:

Specifications of one card we've seen show it has full DirectX 9 support, 128/256MB of memory, 16GB/s bandwidth and a memory clock of 500MHz (1GHz DDR II) running at two nanoseconds, and rendering 350 million rather than the 325 million triangles of the Radeon 9700 Pro, just as we suspected and Nvidia hinted.

One distributor close to the manufacturers' plans said Club-3D would be one of the first off the block with an NV30 card, using dual 400MHz RAMDACs up to and including 2048 x 1536 pixels at 85Hz, integrated NTSC/PAL support, video mixing rendering, and support for dual link DVI.
nVidia GeForce FX reference design
Moderatie-faq Wijzig weergave

Reacties (94)

Hmm, van videokaartsnelheden en bandbreedte enzo heb ik niet veel kaas gegeten.
Ik heb nu eindelijk een Geforce4Ti4600 128MB en ben wel supertevreden maar of ik nou echt zoveel verschil merk bij mijn oude comp 667 + TNT32MB...hmm mischien bij spelletjes....Kan iemand mij uitleggen wat 256 MB nu eigenlijk voor nut heeft op een videokaart. Ik heb me ooit laten wijsmaken dat spelletjes makers toch niet meer als 32 MB gebruiken omdat het anders niet verkoopbaar is voor tragere systemen?
Kan iemand mij uitleggen wat 256 MB nu eigenlijk voor nut heeft op een videokaart. Ik heb me ooit laten wijsmaken dat spelletjes makers toch niet meer als 32 MB gebruiken omdat het anders niet verkoopbaar is voor tragere systemen?
Inmiddels zijn er genoeg games (en komen er genoeg games aan) die veel MBs aan textures gebruiken wat in het geheugen geladen wordt van de videokaart.

Een game als UT2K gebruikt geloof ik al meer dan 80MB aan textures in hi-res, en DoomIII zal daar straks zeker niet voor onder doen. Al die textures passen niet in het geheugen van een kaartje met 64MB, laat staan 32MB.

Op die oudere kaarten zullen deze games dus ook wat langzamer spelen. Je begrijpt dan waarschijnlijk wel dat een kaart met 128MB minder moeite heeft met deze grote textures. 256MB is op dit moment nog wel overkill, maar over een jaartje ofzo dan zal het wel weer standaard zijn.

On-topic. In het verhaal wordt Creative vergeten, die naar eigen zeggen de eerste zal zijn die de GeForceFX exclusief in Europa zal verkopen.

Denk niet dat je moet verwachten dat de kaart massaal verkrijgbaar zal zijn in het begin...
Wat versta je onder genoeg :?
Volgens mij zijn het aantal spellen wat meer dan 64mb nodig heeft nog op 1 a 2 handen te tellen.
Nauwlijks "genoeg" lijkt me.....

Goede aanwijzing: kaarten met 128Mb scoren in veel game-benchmarks lager dan hun 64mb broertje.....
IIg is het voordeel (snelheidswinst+ beschikbaarheid games 128mb+) nog niet groot genoeg om (weer) een dure aanschaf te rechtvaardigen.
En ook de beschikbaarheid van DX9 spellen is vrijwel nul. Maw: goed voor de Frame-fanaten en haantjes de voorsten. Overkill en onnodig voor de overigen (99% :+)
Waarschijnlijk doel jij op de lager geclockte 128mb versie van de Ti4200. Sommige fabrikanten leveren de ti4200 met 128mb op dezelfde snelheid als de 64.
256MB is echt voor de toekomst, als je nu een 64 MB versie koopt zit je over een jaar met te weinig geheugen voor die games. Zie het als 'vroeger', toen had je ook een GeForce2 met 64 en 32 MB. 64Mb was toen een beetje overkill. Maar nu ben je blij dat je toch een 64 MB versie hebt gekocht, je kunt nog steeds (redelijk) nieuwere games spelen, tot nu toe dan. Een jaar later ben je blij dat je een 256MB versie hebt aangeschaft, doom 3 gebruikt ook veel textures, misschien wel meer dan 128 MB, correct me if I'm wrong....Over 2 jaar zal 256MB een standaard zijn, dan zit jij lekker nog met je GeForce FX'je te gamen. Voor echte gamefreaks geld dit niet omdat die telkens upgraden, maar de FX wordt nog goedkoper en voor een doorsnee gamer met een krappe portomonee die niet elk jaar zijn videokaart kan upgraden is dit wel interessant.Ik hoop ook dat de nv31 met een 256MB versie komt.........

Nu de verkopen eindelijk op gang komen, ik hoop dat we binnenkort ook de eerste benches kunnen verwachten, het zal mij benieuwen. Ik vraag me af wanneer FutureMark (voormalig MadOnion) met een DirectX 9 Bench komt....Volgens hun kon het nog een hele tijd duren.En wanneer microsoft met een Bug-vrije Direct X komt, anders is er niet eens een fatsoenlijke DirectX bij de Kaart geleverd. Ik vind dat DirectX 9 gedoe allemaal wel erg traag, de radeon 9700 is al een half jaar te koop en heeft DirectX 9 ondersteuning en microsoft komt nu pas aanhobbelen met een (volgens hun) 'goed' werkende direct x 9. En vervolgens zitten er bugs in.....link naar nieuwspost over fouten in DX9.
Drop DirectX enjoy OpenGL }> ;)

Reactie op Typhon
Inderdaad, een game als UT2003 gebruikt voor veel levels al 64 MB of meer aan textures.

Verder is het ook van belang te kijken naar wat de Framebuffer aan geheugen opneemt. Aangezien het hier om High-End kaarten gaat willen we die natuurlijk in hoge resoluties met 4x FSAA gebruiken. Laten we er ook van uit gaan dat Triple buffering aanstaat om het geheel wat soepeler te laten draaien.

dan komen we uit op: 1600x1200x32bits= 7.3 MB
Dit keer drie (Triple buffering)is al 21.9 MB.

Maar we hadden ook nog 4xFSAA aanstaan, dit is dus nog een extra buffer, 4 keer zo groot als de Framebuffer, dus 29,2 MB extra erbij.
Hierbij komt dan nog een 32 bits Z/stencil buffer, ook ter waarde van 29,2 MB (voor iedere AA'd pixel een z-waarde), dus we zitten al over de 64 MB!

Als we een spel dus op 1600x1200 in 32bits kleur draaien met 4xFSAA en triple buffering is er al zo'n 80 MB geheugen op. Voor een 128 MB videokaart is er dan nog 48 MB over om vertex data (voor de Transform en Lighting) en textures in op te slaan. Bij een modern spel als UT2003 zul je dan in veel situaties al te weinig geheugen hebben waardoor AGP texturing gebruikt moet worden, wat ontzettend traag is in verhouding tot het geheugen van de videokaart (zelfs AGP 8x is al 10 keer langzamer dan onboard geheugen).

Voeg aan deze berekening 128 bits kleur toe en het is al snel duidelijk dat 256 MB op een moderne videokaart zeker geen overbodige luxe zal zijn.
Even wat onzin ontkrachten :+
Inderdaad, een game als UT2003 gebruikt voor veel levels al 64 MB of meer aan textures.
Gelukkig hebben we daar textuurcompressie voor :)
Maar we hadden ook nog 4xFSAA aanstaan, dit is dus nog een extra buffer, 4 keer zo groot als de Framebuffer, dus 29,2 MB extra erbij.
Onzin. Er worden geen uitvergrote frames in de framebuffer opgeslagen, bij FSAA old-style werd de resolutie gewoon verdubbeld en daarna weer teruggerekend naar de eigenlijke resolutie wat een vervagend effect had, waarna het in de framebuffer werd opgeslagen. Bij nieuwere versies wordt ook niet meer geheugen gebruikt. De hoeveelheid geheugen die als framebuffer gebruikt wordt neemt dus niet toe als je FSAA aanzet!!
Hierbij komt dan nog een 32 bits Z/stencil buffer, ook ter waarde van 29,2 MB (voor iedere AA'd pixel een z-waarde), dus we zitten al over de 64 MB!
Gelukkig is ook daar een zeer efficiente compressie voor :)
Inderdaad wat onzin ontkrachten ;)

Op het gebied van texture compressie heb je gelijk, dit heeft daarom ook niet zo heel veel invloed op de gebruikte geheugenruimte. Toch zal een modern spel zelfs met gecompresste (of hoe spel je zoiets :D )textures wel 32 MB of meer gebruiken.

Over Z/framebuffer compressie:
deze beide buffers worden inderdaad gecompressed.
Maar aangezien deze er iedere keer anders uitzien (ieder frame is anders!) kan niet iedere keer dezelfde compressie gehaald worden. Twee verschillende JPG plaatjes van een zelfde resolutie hebben ook verschillende grootte.

Er moet dus nog steeds de volle hoeveelheid ruimte in het geheugen van de videokaart voor al deze buffers gereserveerd worden!! Je weet namelijkt nooit of er goed of zeer slecht gecompressed kan worden. Deze technieken worden dan ook alleen gebruikt om het gebruik van bandbreedte omlaag te brengen, meer geheugenruimte leveren ze niet op.

Alle buffers die dus bijdragen aan die 80 meg die ik hierboven berekend heb worden dus volledig gereserveerd in het geheugen van je videokaart, dus is 128 MB nog steeds het minimum voor een high performance kaart als een Geforce FX of Radeon9700

Als ik jouw was zou ik ook nog maar wat research op het gebied van FSAA doen, de enige kaarten die geen hogere resolutie (extra)buffer nodig hebben zijn Tile based renderers, zoals de Kyro kaarten.

Van Beyond3d:
SuperSampling means you are increasing the framebuffer size. That means with 4X SSAA, you've got a 4X bigger buffer.
However, MultiSampling means you're increasing the number of buffers. That means that with 4X MSAA, you've got 4 buffers of the same size as the 1 you got without MSAA.

How is this important? Well, that means that with MSAA, it's simply rendering the screen several times. With SSAA, it's rendering a bigger screen.
edit: mijn smilies deden het niet, quote toegevoegd
Idd, draai het level "december" maar eens in max detail, ik heb het idee dat die nog meer dan die 80 mb gebruikt.
Kan iemand mij uitleggen wat 256 MB nu eigenlijk voor nut heeft op een videokaart
Je vraag luidt nu eigenlijk wat voor nut het heeft om een nieuwe video-kaart te kopen als spellen nooit te zwaar zullen worden voor de geforce 2.

Maar die stelling klopt niet want spellen zullen altijd zwaarder worden ,want spel makers zullen elkaar moeten overtreffen om goede verkoop cijfers te scoren.
Dit gaat moeilijk als je spellen nooit mooier kan maken.

Dus het heeft wel degelijk zin om een video-kaart up2date te houden als je de nieuwere spellen wil spelen.

Op dit moment heb je 64/128 mb kaart nodig om op redelijke frame/rate te kunnen spelen. Hangt natuurlijk ook af van de cpu. :+

edit:
hmm, 3 reacties op vorlox,op zelfde tijd, hoe verwijder ik mijn post? ;(
nou op dit moment nog niet echt.
Meer end users zullen nu echt zo iets hebben van wauw 256MB zoveel heb ik net aan intern geheugen.
Ze zijn bezig om naar 64Bits kleur te gaan.
Waardoor je 2 keer zoveel geheugen/bandbreede nodig heb.
maak dat maar 128bits kleur van en dus 4x zoveel geheugen / bandbreedte.

64 bits is een modus waarmee je een beetje van de beeldkwaliteit van 128bits kunt snoepen richting de rendersnelheid van 32 bits. dus een tussenmode ;)
Als jij het verschil niet merkt tussen een TNT 32 MB en een GF4 4600 draai je of de verkeerde spellen of je draait op een te lage reso :)
Ik ben benieuwd of dit zal leiden tot de daling van de Ti4X chips. Ook vraag ik me af of in deze roerige tijd van slechte economie deze chip (lees videokaart) aan zal slaan en of de mensen 500 dollar voor een weer iets sneller chippie willen weggooien.

Als je nu nog een GeForce 2 hebt (zoals ik :p) dan is het misschien de moeite waard om is naar dit te kijken. Ik denk dat als je een GeForce 4 Ti serie kaart hebt dat het dan een beetje tegen het zinloze aanligt om de kaart te kopen.
Zinloos?! Een GF4 is niet Directx 9.0 compatible. Aankomend jaar komt een titel uit die volgens veel analysten bijna zoveel upgrades gaat veroorzaken als een nieuwe versie van windows: DOOM 3 :9~ En juist.. wil je dit spel met alle eyecandy etc. spelen op een fijne framerate.. dan is het is het wel interessant.

Ga zelf trouwens ook upgraden aankomend jaar.. waarschijnlijk rond de geplande release.. nu nog een GF2 pro die nog aardig voldoet!
DIII wordt een DX8 game. De engine is geschreven voor een GF3. Voorlopig nog geen DX9 games dus. Die kan je toch pas verwachten als DX9 kaarten mainstream worden...
Kwa framerate is een DX9 kaart wel interessant hoewel DIII ook heus goed gaat lopen op een GF4 4200 [ik schat zo 35 fps].. De lage alpha build fps kunnen we gerust negeren.
John Carmack had het over een redelijk top-of-the-line systeem met Radeon 9700 Pro waarmee ze op gemiddeld 30fps mikten...
\[off-topic]
Ik vind 35fps gemiddeld dus echt niet redelijk.
Het is ook niet redelijk, want dan kun je ook gewoon rekenen op stotteringen. Het is ook gemiddeld, dat betekent dat er framedrops tot in de 10 FPS mogelijk zijn in drukke momenten (bijvoorbeeld een stuk waar je 5 monsters je aan vallen in een grote ruimte), en er kunnen dan ook stukken zijn waar je 80 FPS haalt (een kleine ruimte waar je alleen bent). Ik denk dat de FX dit wel aankan op gemiddeld 40 FPS, maar of dat genoeg is.Uiteindelijk zal het nog wel mee vallen, omdat dit allemaal gebaseerd is op een demo.
\[/off-topic]

Ik ben benieuwd of Club 3d ook zo'n 'ufo' koeler erop kwakt, angezien mij dit niet echt nodig lijkt. De radeon 9700 heeft ook een extra stroomplug, en zuipt dus bijna even veel watt's. Hercules' radeon 9700 komt eraf met een piepklein koperen koelertje met fan (met nog een heel klein heatsinkje aan de andere zijde van de kaart). Het lijkt mij dan ook verstandiger om de FX met een double sided koeler te produceren, met een extra heatsink aan de onderzijde, dat schijnt heel effectief te zijn. Kijk maar naar de Zalman HP-80. Bovendien hoeft er aan de onderkant geen fan te zitten en wijst die kant in de kast naar boven en zal de lucht van de heatsink opstijgen.......

Ik zou grote voorkeur hebben voor een kaart die zonder een luidruchtige koeler :z.
Dat is toch vreemd, ik kan me nog herinneren van een half jaar terug: John Carmack beweerde dat Doom3 met een toemalig top-of-the-line systeem met Geforce3 Ti500 30 frames per seconde neer moest kunnen zetten met alle opties aan.

Wat ik concludeer is dat je niet teveel waarde moet hechten aan de geschatte framerates m.b.t. de uiteindelijk versie. Tenzij ze bijvoorbeeld een maand van de release afzitten.

Wat technieken betreft is deze kaart dus misschien geen noodzaak, maar voor een redelijke framerate met alle opties aan is deze kaart volgens mij zeker een goede ontwikkeling. Ik ben benieuwd hoe hij het tegen de Ati Radeon9700pro zal afleggen, ookal heeft hij monsterlijk hoge clocksnelheden. Wat FSAA heeft de Ati Radeon9700pro (en consorten) nog altijd een overduidelijke voorsprong op nVidia.
die "leuk" zal zijn maar om een game goed te maken is goede gameplay een eerste vereiste
Dat ben ik helemaal met je eens, maar dat is een andere discussie. Het gaat hier gewoon om de kaart en zijn prestaties. Ik denk dat het vooral interessant wordt wat deze kaart gaat presteren met FSAA 4x etc.
In FSAA+ Anisotropic filtering loopt de Radeon9700pro namelijk nog enorm voor. Alleen een hogere clocksnelheid is daar geen compensatie voor. Lijkt me dus interessant om te zien of de GF FX de Radeon9700pro ook MET FSAA 4x/6x/8x en anisotropic filtering gaat overmeesteren.
Ik vind 35fps gemiddeld dus echt niet redelijk.
Zelf speel ik mohaa, BE1942, pas lekker op 1024*768*32 met alle opties liefst high met een framerate van 80 tot 100. Sterker nog eigenlijk wil ik het liefst gemiddeld => 100.En reken maar dat je die verschillen tussen 35 en 100 heel goed merkt!!!
Als ik die framerates niet haal dan zet ik gewoon bepaalde eyecandy uit.
Wil je Doom III conform mijn eisen spelen dan heb je waarschijnlijk de opvolger van de geforce FX nodig.....

Verder vraag ik me af wanneer die reviews en benchies nou komen gezien het feit dat hij binnen 2woches op de markt zou moeten zijn.

Tom schiet nou ns op joh !! :)
zoals the source ook al zei, het is toch echt een openGL game..
Ik vind 35fps gemiddeld dus echt niet redelijk.
vergeet niet dat we het hier over Doom hebben, geen online shooter. 35 fps is voldoende voor een game die voor het grootste deel gebaseerd is op sfeer en spanning
Denk dat je met je schatting er aardig naast zit. Zeker op medium settings zul je zeer redelijke framerates kunnen halen. (Mensen zullen vooral upgraden om de game met alle Eye-candy aan te kunnen spelen, die "leuk" zal zijn maar om een game goed te maken is goede gameplay een eerste vereiste)
Jij maakt deze inschatting aarschijnlijk omdat je je baseerd op de Alpha leak van DoomIII (e3).
Waar je vergeet mee rekening te houden zijn de volgende 2 puntjes:

1) de alpha was geoptimaliseerd voor ati kaarten
2) een alpha heeft zowieso geen geoptimaliseerde code

Desalniettemin zullen veel mensen, waaronder ondergetekende, toch voor deze game gaan upgraden
DOOMIII is een OpenGL-game, maar het geluid zal waarschijnlijk via de DXSound-API verlopen. Dit was in QuakeIII al zo (kijk maar op je install-CD, daar staat niet voor niets een redist van DirectX op... ;) ).
Reactie op Brian Dickens:

Dat was met een ongeoptimaliseerde engine.
UT2003 draaidde eerst ook niet goed met de oudere videokaarten, maar mijn Geforce DDR voldoet nu wel!
Reactie op boesOne:

Ik zou de voorkeur geven aan een grotere koeler die trager draait (met natuurlijk een grote koelblok gelijk zalman): geen lawaai en koelt genoeg om te kunnen overclocken ;)!
Reactie op Brain Dickens:

dan mag John Carmack van mij Doom 3 in z'n r**t steken, ZO bijzonder is Doom 3 nu ook weer niet :Y)
DOOM 3 is gebaseerd op directx 8 en niet directx 9. Daarbij is een GF4 wel DX9 compatible, maar niet compliant.
Doom 3 is geen DirectX 8 game maar een OpenGL 2.x game
Conclusie: koop een kaart als Doom 3 uitkomt (als je de game daar belangrijk genoeg voor vindt).

Tegen die tijd zijn ze ook een stuk goedkoper. IMHO is alles boven de GF4 Ti4200 (nog) vette overkill in games. Er is geen spel wat je niet soepel kunt draaien op een Ti4200 met een beetje redelijke PC erachter (XP1800+ ofzo).
Ti4X chips worden al een maand of 3 niet meer geproduceerd. Dus alles wat op dit moment nog te koop is dat is oude voorraad. Oude voorraad is tegen de toen geldende prijs ingekocht dus of die tegen lagere prijzen (evt. met verlies) worden verkocht zal vooral afhangen van de prijsdalingen van de Ti8X chips.
Dat lijkt me dus echt onzin! Waarom zou je je high-end chips niet meer produceren? nVidia heeft momenteel niet veel anders. Volgens mij fabriceert nVidia dit nog:
-GeForce Ti4x00
-GeForce MX4x0
-TNT2
En natuurlijk hun mobiele en mobochippies...
dit is net wat ik vrees... zo'n kaartje zal al gauw meer dan Ä 500 kosten (zie maar de GF3 en GF4 bij introductie) en die prijzen gaan niet snel naar beneden... (zeker in Belgie/Nederland niet, door de importkosten, en volume-inkoop) ik schat een prijs van Ä 600 - Ä 650...

ik hoop dat ik niet nog tot maart/april moet wachten om mijn GF2 aan de kant te kunnen leggen...

[edit] off-topic??? heb ik het plots over het broedgedrag van de in het oerwoud wonende girafkever met korte nek gehad of zow???
Vraag me inderdaad af of al deze snelheidswinst wel merkt in een spel. Hoeveel is dit nu sneller dan een GF4600? Ik denk niet al te veel, zeker niet merkbaar voor het blote oog.

Maar ja, het is inderdaad gewoon de kick om het nieuwste en snelste te hebben, dus ik denk dat deze chip zeker zal aanslaan.
De kaart gaat ongeveer dubbel zo snel worden dan en TI4600 en ongeveer 35% sneller dan een ATI 9700 PRO. Dit zijn claims die nog niet gebenchmarked zijn.

Met een snelle VGA kaart kun je niet alleen een spel in hogere resoluties draaien daarnaast ook met betere beeldkwaliteit. Wat te denken van een spel op 1280 met FSA, etc, daar naast komen er dit jaar spellen die gebruik gaan maken van de DX8 / 9 technologie waardoor een spel nog mooier eruit gaat zien.

De snelste kaart is maar een paar % van de omzet... het gaat vooral om image. Naar verluid gaat deze kaart in de retail ~ 500 / 600 $ kosten. Op de Comdex wordt de NV31 gelanceerd en dat is eigenlijk de GFX4600, dus de performance van de TI4600 maar ipv de G4 core gebaseerd op een FX core.
De kaart gaat ongeveer dubbel zo snel worden dan en TI4600 en ongeveer 35% sneller dan een ATI 9700 PRO. Dit zijn claims die nog niet gebenchmarked zijn.
En het was ook nog niet helemaal duidelijk onder welke omstandigheden dit is, want een 9700Pro is met 16xAF en 4xAA in veel gevallen al dubbel zo snel als een Ti4600.

En dan te bedenken dat de GeForceFX een 53% sneller geklokte core en 61% sneller geklokt geheugen heeft... dan vind ik 35% wel wat tegen vallen. Je zou dan ook minstens 50% boven de 9700Pro verwachten.

Maar goed, het is zeker mogelijk dat-ie 35% sneller wordt dan een Radeon9700Pro...

Om dit te staven even het volgende... Men neme bv de 9500Pro test van Anandtech: http://www.anandtech.com/video/showdoc.html?i=1756&p=4

Hier zie je in UT2K3 op 1024x768:
- Radeon9700Pro 191,2 fps
- Ti4600 162,9 fps
- Verschil = 17%

GeForceFX zou dan op 258,12 fps (35% bovenop Radeon9700Pro) zitten, wat dus 1,5x de Ti4600 is. Ga je uit van 2x Ti4600 dan kom je uit op 325,8 fps, wat dus 70% sneller is dan de 9700Pro. Dit laatste lijkt me onwaarschijnlijk.

Gooi je de resolutie omhoog dan wordt het verschil groter tussen 9700Pro en Ti4600:

Op 1600x1200 in UT2K3:
- Radeon9700Pro 108,6 fps
- Ti4600: 77,6 fps
- Verschil: 40%

GeForceFX zou dan op 146.61 fps zitten, wat dus inderdaad bijna zo'n 2x sneller is als de Ti4600 (1,9x om precies te zijn). Dus in deze situatie zou de claim van 35% sneller dus precies kloppen.

Maar onthoudt dat deze test zonder AA en AF is gedaan. Met AA en AF dan loopt de 9700Pro rondjes om de Ti4600.

Dus met 4xAA en 8xAF op 1024x768:
- Radeon9700Pro 85.3 fps
- Ti4600 47.2 fps
- Verschil: 81% oftewel 1,8 keer zo snel.

GeForceFX zou dan op 94.4 fps zitten (2x Ti4600), maar dat is dus niet 35% sneller dan de 9700Pro (nl maar 10,7%) , want dat zou moeten zijn: 115.16 fps. Maar 115,16 fps is 2,4x zo snel als een Ti4600.

Dus ik mag voor nVidia hopen dat de FX minstens 35% keer zo snel wordt, want het verschil met de 9700Pro lijkt me anders toch vrij klein. Alleen kun je zoals je ziet deze claim op heel veel verschillende manieren interpreteren. Ik ben dan ook heel erg benieuwd onder welke situaties deze waarde van 35% en 2x Ti4600 tot stand zullen komen.

En nu ga ik slapen, want al die cijfertjes beginnen me nu te duizelen. :+

*Als er fouten in de berekeningen zitten, feel free to correct them.* :+

edit:
typos
Reactie op WC-Eend:
Je berekeningen met FSAA kloppen niet want vergeet niet dat de Geforce FX door verbetering in architectuur,... beter met FSAA om kan. Dus het verschil tss de Geforce FX en Radeon 9700pro zullen toch waarschijnlijk (?boven?) 35% zijn :P.
(nogmaals de link...)
http://www.guru3d.com/tech/geforcefx/?PHPSESSID=10a33802b67fdabd2c8b42 391d1a3e03
Hier zie je DUIDELIJK hoe de NV25 AFGEMAAKT wordt door de NV30 in 4xFSAA.
Ik zie niets "duidelijk". :7

Mag ik je er op wijzen dat:
1) dit artikel de resultaten gebruikt van een sheet die afkomstig is van nVidia en dus verre van objectief is.
2) er op pagina 1 staat dat het doorgaans 2x de performance van een Ti4600 zal hebben, om vervolgens met een benchmark aan te komen zetten die 2 tot 4 keer de performance laat zien. Smells a bit fishy to me.
3) het heel erg verouderde benchmarks zijn (2 maanden voor de presentatie)
4) de prestaties van de 9700Pro inmiddels weer een paar procenten hoger liggen door driverupdates.
4) nVidia waarschijnlijk die 35% met moeite gaat halen, aangezien we anders al lang met 'echte' benchmarks om de oren werden geslagen, zoals in het verleden altijd gebeurd is bij nV.
5) ook de Radeon9700Pro een heel erg efficient (geheugen)architectuur heeft waardoor het heel erg goed met FSAA om kan gaan?

En dan nog kloppen de berekening wel degelijk. ;) Ik ben gewoon uitgegaan van de situaties:
- 35% sneller dan Radeon9700
- 2x Ti4600
- zonder en met AA en AF

In de meeste gevallen met 4xAA en 16xAF is de Radeon9700 gewoon ruim 2x sneller dan de Ti4600. Of zoals jij het zou zeggen: "Je ziet DUIDELIJK dat de NV25 AFGEMAAKT wordt door de 9700Pro". ;)

Een claim van nVidia dat de GFFX 2x zo snel zal worden als een Ti4600 komt op mij dan niet echt indrukwekkend over... want de Radeon9700 doet dat ook al. En ik hoop van harte dat het hoger ligt, want anders kunnen we nog langer wachten op de R350 (februari/maart) en R400 (zomer). Een beetje competitie moet er wel blijven, anders wordt het zo saai op de 3D-kaartenmarkt.
Je zegt het zelf al....het komende jaar komen...blablabla....

Precies DE! reden om nog even te wachten met de aanschaf van zo'n peperdure kaart. Ten eerste heb je er nu toch niet veel profijt van, ten tweede betaal je een premium bedrag terwijl je over pakweg 6 mnd. dezelfde kaart koopt voor Žen aantrekkelijker prijs.
Kan je gelijk dat VETTE DX9 spel erbij nemen :P
http://www.guru3d.com/tech/geforcefx/?PHPSESSID=10a33802b67fdabd2c8b42 391d1a3e03
NVIDIA claimt anders wel, volgens dit tabelletje, dat de Geforce FX tot 3x/4x sneller zou zijn dan zijn voorganger de NV25 (deze 'tests' waren wel met 4x FSAA).
Ik denk dat het eerder gaat om het design van de kaart. Pipelines etc.

Een vriend van me heeft een Ti4200 op 150/200mhz laten lopen en krijgt nog 5000 3DMarks terwijl, als ik met mijn Gf 2 MX 400 op 200/334 3DMark run, maar 2300 3DMarks krijg.
Een vriend van me heeft een Ti4200 op 150/200mhz laten lopen en krijgt nog 5000 3DMarks terwijl
zou je me misschien willen vertellen waarom die vriend zn ti4200 omlaag geklokt heeft? lijkt me een beetje onnodig/overbodig/[vul maar in] :?

en 5k punten is wel ERG weinig voor een ti4200, een GF4 MX440 kan al 5000 halen
Lekker lekker lekker, maar ja heo lang moeten wij nog in nederland hier op wachten, denk namelijk dat de beschikbaarheid bij de leveranciers pas tegen het 2e kwartaal 2003 gaat liggen..
Met videokaarten is het vaak beter geregeld dan met CPU's, dus het zal heus wel 1Q 2003 worden :)
Denk het dus niet.....kijk maar naar de GF3 of ati 8500, die waren echt eerste half jaar niet betrouwbaar leverbaar..oftwel je kon er niet van op aan dat de leverancier de juiste datum opgeeft
In januari worden de eerste samples verwacht en begin februari ligt hij ook (in zeer beperkte mate) in de Nederlandse winkels. Je zult m echter niet zien liggen want de exemplaren die worden uitgeleverd zijn natuurlijk meteen door freaks gereserveerd / verkocht. Het zal tot ergens in maart / april duren voordat de volume productie echt op gang komt, dit mede omdat de yields op dit moment erg laag zijn.
de yields waren een tijdje geleden al hoger dan 50%, en ze hebben al laten weten dat de yields hoog genoeg zijn om massaproductie te starten...
Ik betwijfel het ten zeerste dat een relatief klein bedrijf als Club-3D als een van de eerste fabrikanten met hun FX kaart op de markt komen.

nVidia heeft vele partners en maar enkel zullen voorrang krijgen bij de productie. Dat zijn; MSI (veruit de grootste VGA product ter wereld), LeadTek en Asus (alhoewel hun VGA verkoop afgelopen jaar hard ineen is gezakt). Deze bedrijven hebben als eerste de FX chips gekregen en zullen in staat zijn om deze als eerste op de markt te brengen in grote aantallen.

Het nieuwsbericht van de altijd betrouwbare Digitimes dat MSI en LeadTek met de eerst GeForceFX komen geloof ik direct, de Inquirer met hun horen zeggen bericht daarin tegen niet.
er is al een tweede nieuwsbron die dat ook al beweerd:

http://www.nvnews.net

dus het lijkt erop dat Club-3D wel een van de 1e zullen zijn..
En T.net is zeker de 3de nieuwsbron die het vermeld... Ik zie totaal geen verschil in het bericht, komt allemaal van dezelfde bron af.
Ge-force 3,4 of FX maakt allemaal niet uit je kunt er alles op draaien en met een snel systeem erbij is het zinloos om een FX te kopen als je tenminste een Ge-force 3 hebt. Alleen voor de echt Frame freaks is het aantrekkelijk ;)
als je op 640x480 speelt gaan alle vidkaarten goed jah...

tegenwoordig is 1024x768 toch wel het minimum (1280x960 is bij de tweakers denk ik zelfs gangbaarder). Als je dan ook nog eens 4xfsaa en 16x aniso wilt ( en dat zit er wel lekker uit, kan ik je vertellen :)), dat kun je wel vergeten met de <gf4. de gf4 heeft daar zelfs veel moeite mee. Daarom heb je snellere kaarten nodig, omdat we niet meer in het doom 1 tijdperk zitten.
Dat is duidelijk onzin; ik heb een GF3 met een P4 2,4 eronder en in ut2k3 kan ik op 1024*768 niet met alles hoog lekker soepel draaien. Dan zal ik toch echt een Ti4400 / 9700 Pro of liever een FX'je erin moeten hangen...
Deze kaart is duidelijk weggelegd voor de fanatiekere online gamer.

Voor hen is iedere extra fps van levensbelang. :)
Deze kaart is duidelijk weggelegd voor de fanatiekere online gamer.

Voor hen is iedere extra fps van levensbelang.


Spreek voor jezelf ... als bij mij de fps tussen de 30 en 40 blijft liggen richt ik me veel meer op het instellen van resoluties en grafische extra's (textures, shadows, object details, etc.) ... zolang die fps maar op 35 blijft hangen is "elk fps-je hoger" echt niet van "levensbelang" voor me ..
Absoluut niet mee eens, als fanatieke ex q2'er heb ik duidelijk gemerkt dat 300 fps beter speelt dan 150 fps, en 500 fps was al helemaal genieten, raar maar waar, 35 fps is absoluut onspeelbaar voor de wat fanatiekere gamers, als bq2c winnaar kan ik er opzich wel iets over zeggen ;)
Absoluut niet mee eens, als fanatieke ex q2'er heb ik duidelijk gemerkt dat 300 fps beter speelt dan 150 fps, en 500 fps was al helemaal genieten, raar maar waar, 35 fps is absoluut onspeelbaar voor de wat fanatiekere gamers, als bq2c winnaar kan ik er opzich wel iets over zeggen

Misschien is het leuk voor je om dit artikel even te lezen. Het legt in bepaalde mate uit wat fps betekent en dat het erg individualistisch is.

Een voorbeeld van een quote uit het artikel is de volgende:
There are records of experiments with fighter pilots where images of enemy planes were flashed before them for less than 1/100th of a second, and the pilots could not only spot it, but identify the plane as well. Granted, fighter pilots represent the upper limit of human vision.

Wat concreet betekent dat piloten bij 100 hz (dus 100 fps) het nog voor elkaar kregen om een vliegtuig te herkennen. Echter is de 500 fps die je aanvoert verschrikkelijk overdreven ... maar je zal wel gewoon je punt hebben willen maken ...
500 fps, ? en je Hz van je refresh rate dan ?
Heb wel gemerkt dat in bep DM levels van q2 het plafond wat trilt. Maar 500 fps lijkt me wat overkill ???
.... dat heb je dan ook wel natuurlijk... overkill... als je winnaar was van bq2c of zo
Mee eens dat het erg individualistisch is, idd dat veel mensen 50 fps al goed speelbaar vinden, maar als je eenmaal iets anders hebt geproeft wil je niet anders, het is ook een luxe probleem ;)

500 fps is messchien overkill toch geeft het een beter gevoel dan 100 fps, dit heeft waarschijnlijk niet eens met het hele visie gedeelte van je hersenen te maken maar ook een soort van onderbewust zijn, echt verklaren kan ik het niet, maar zoals je zei het is idd erg persoonlijk.
Yeah right! Jouw monitor kon zeker ook een refresh vaan 300 Hz aan? :Z
Die fps zitten waarschijnlijk tussen je oren :)
Het is zelfs zo, dat als je met 500 fps speelt, en je monitor staat op 100 Hz, dan zie je van elk van die beelden maar 1/5 :D dus loop je het risico dat je bepaalde dingen helemaal niet ziet! :D
De fanatieke online gamer zit meer te wachten op een snelle internet verbinding met een lage latency dan op een paar frames meer per seconde in een spelletje :Y)
waarom 2 ramdacs ? op 400 mhz kan 1 ramdac toch wel 2048x1536 @ 85 Hz trekken ?

't valt me trouwens op dat je op die foto geen koeler ziet :) doet me denken aan die foto's van die hamburgers bij mcdonalds (je krijgt nooit al dat moois dat je ziet op de foto's)
Voor de tweede monitor.
ik zie maar 1 vga out..
DVI heb je geen Digital to Analog Convertor voor nodig :) tis al Digital ;)
tenzij je m.b.v. een convertor een tweede analoge monitor op je DVI aan wil sluiten. Dat heb ik nu namelijk gedaan bij m'n Ti4200. Die heeft ook 2 RAMDACs en 1 vga out.
Aangezien bij de meeste mensen de tweede monitor een oud beestje is (en dus geen TFT ofzo), heb je die tweede RAMDAC dus wel nodig. Mijn oude 15" die dienst doet als tweede monitor weet iig geen raad met DVI.
Ben benieuwd of deze zal aanslaan, de 9500 Pro is net een groot deel van de markt aan het veroveren.

Maar ik meende dat ik een week geleden al een Sparkle Geforce FX te koop zag staan, kan dat kloppen?
De 9500 Pro is een totaal ander marktsegment namelijk dat van de TI4200.

Er zullen genoeg winkels zijn die aandacht proberen te trekken door producten in hun lijsten te zetten maar dan hebben ze gewoon iets van hun leverancier vernomen en willen ze media aandacht. Het zal toch nog echt tot en einde van deze maand duren voordat ze uitgeleverd gaan worden. Er zullen ook al wel winkels zijn die K8 Hammer CPU's verkopen... gewoon gebakken marketing lucht dus!
9500Pro / 4200 is high end range geen mid range.
Dus ik vindt wel dat het in hetzelfde marktsegment ligt.

Ook moet je natuurlijk rekening mee houden dat de 9500LE dr ook aan komt.
Deze zal volgens echt gaan knallen.
Zal rond prijsniveau van de 4200 normaal liggen
zou er ook nog enig snelheids verschil in de kaarten zelf zitten b.v een msi of de club 3d of leadtek?
De eerste kaarten die op de markt komen zijn allemaal gebaseerd op het nVidia reference design (wat MSI overigens altijd maakt voor ze). Daardoor is de eerste generatie allemaal gelijk aan elkaar en zal elkaar nog geen 1% in snelheid ontlopen, dus niet de moeite. Maar enkele maanden daarna (gok april, mei) dan komen alle fabrikanten met hun eigen design waarin bv sneller geheugen wordt gebruikt, etc. Dan ga je dus wel snelheids verschillen kunnen zien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True