Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 189 reacties
Bron: Computer-Trend, submitter: Xerazor

Na lang wachten is het zo ver: de eerste benchmarks van de GeForce FX Ultra 5800 zijn gesignaleerd. De kaart is nVidia's antwoord op de Radeon 9700 Pro van ATi, de kaart die bij zijn introductie afgelopen zomer de snelheidskroon overnam van nVidia. Dat bedrijf heeft momenteel met de GeForce Ti4600 een snelle kaart in handen, maar deze kaart is merkbaar trager dan de 9700 Pro en moet het bovendien zonder ondersteuning voor DirectX 9.0 stellen. De nieuwe kaart, voorheen bekend onder de codenaam NV30, moet aan deze beperkingen een einde maken.

nVidia Logo (graphics^n)De GeForce FX Ultra, die geproduceerd wordt op basis van een 130-nanometerprocédé, is een 256-bit chip met maar liefst 125 miljoen transistoren, tweemaal zoveel als de Ti4600. Via een 128-bit DDR II-bus op 500MHz wordt met 128 of 256MB geheugen gecommuniceerd. Dat levert een bandbreedte op van zestien GB/s, iets minder dan de 19,8GB/s die de Radeon 9700 Pro kan verwerken. Het verschil ontstaat door de geheugenbus: die is bij de Radeon 256 bits breed. De GeForce FX beschikt verder over een AGP8x-interface en ondersteunt volgens nVidia 'DirectX 9.0+', wat erop neerkomt dat de chip in sommige gevallen meer kan dan de standaard voorschrijft.

De belangrijkste vraag blijft of dat alles in de benchmarks iets oplevert. De tests worden uitgevoerd met een Pentium 4 op 3,5GHz, om invloeden van een trage processor uit te sluiten. Met de resultaten lijkt het goed te zitten: in 3D Mark 2001 komt de kaart bij een resolutie van 1600x1200 tot een score van bijna 20.000 punten, tegenover ongeveer 12.000 voor de Radeon 9700 Pro en circa 8.000 voor de Ti4600. Bij Quake3 kan de Radeon een stuk beter meekomen, maar de winst gaat toch naar de GeForce FX. De kaart maakt de stand van zaken duidelijk in Unreal Tournament 2003: met ruim 130 frames per seconde is de kaart meer dan twee keer zo snel als de geteste Radeon.

Het staat vast welke kaart de snelste is voor het moment, maar daar komt wel een prijskaartje bij kijken: de GeForce FX Ultra 5800 die Gainward zal introduceren moet volgens het bedrijf ongeveer zeshonderd euro gaan opbrengen. Gainward spreekt over half februari als het moment dat fanatieke computeraars de kaart kunnen bemachtigen. Dat is iets later dan fabrikanten als Club-3D en Creative, die zeggen de kaart eind deze maand al te kunnen leveren. De conclusie van de testers is in ieder geval positief:

Mit der GeForce FX ist nVidia wirklich wieder ein Meisterwerk gelungen. Vor allem durch Microsofts DirectX 9 sehen Spiele so aus wie sie noch nie ausgesehen haben. Eine Karte die so viele Effekte gleichzeitig darstellen kann hat es bisher noch nie gegeben. Vor allem die präzise und detailgenaue Grafik ist wirklich atemberaubend. Sie lässt wie man in unseren Test sehen kann ihre Kontrahenten weit hinter sich.
Gainward GeForce FX Ultra 5800 (zonder koeler)

Update: zoals gebruikelijk bij eerste benchmarks zijn er heftige discussies gaande over de echtheid ervan. De geloofwaardigheid van de bron is in de loop van de dag door verschillende mensen en sites onderuit gehaald. We raden daarom aan om dit bericht tenminste met een korreltje zout te nemen.

Moderatie-faq Wijzig weergave

Reacties (189)

1 2 3 ... 8
Nice!! De FX is werkelijk dubbel zo snel als een 9700pro!
Trouwens die benchmarks in UT2003 zijn met 4xFSAA en 8xAnisotropic! En zelfs daar haalt de FX nog 130FPS! Het is duidelijk dat NVIDIA z'n FSAA-technieken veel verbeterd heeft aangezien de Radeon ook hierin verpletterd wordt.
Die Quake3 benchmark, waarin de Radeon 9700pro toch nog meekan, vind ik irrelevant. De engine is totaal verouderd en vergt bijna niets van de videokaarten. Hier zie je duidelijk dat de CPU toch nog bottleneck blijft, ondanks dat de CPU overclockt is en dat de benchmarks bij 2048x1536x32 (!) worden gedaan
Volgens mij heeft de FX nog veel meer potentieel dan dat hier in de benchmarks wordt getoond: de CPU is volgens mij nog steeds de bottleneck. Als er games uitkomen met directX9 zal de FX nog meer superieur zijn want NVIDIA heeft nog wat extra's toegevoegd dan nodig om het directX 9-support label te halen.

[i] * 786562 Durona
[edit]
Vals??? Damn, bestelling afzeggen... :)
Dan maar wachten op officiële benches.
Mss toch "maar" 33% sneller dan een 9700pro?!
[/edit]
:o
De benchmarks zijn echt overtuigend. De FX is echt een radeon killer als de radeon een GF4 killer was :).

Ik denk dat we maar op de resultaten met 3d mark 2003 moeten wachten om ook zonder te veel CPU invloed de prestaties van de r9700 en GFX te gaan bekijken. Vanwege DX9.Jammer dat Futuremark daar zo lang aan bezig is.....

DirectX 9 ontlast de cpu van instructies in toekomstige spelen, dus de vereiste CPU voor de hoost haalbare scores kan wel een 3Ghz proc zijn.

En voordat de FX massaal verkocht wordt is een 2.8 Ghz of 2800+ mainstream, als je dat gaat vergelijken met de introductie van de GeForce 4 kom je bijna op het zelfde uit. De FX loopt op 3,6 Ghz maximaal, en mainstream is 2,8 Ghz. Dat is 800 Mhz verschil. Als je dan een Geforce4 pakt; Toen was 1,8 Ghz mainsream en hij loopt maximaal op 2,6 Ghz ofzo, daar zit ook 800 Mhz tussen. Dat valt allemaal nog wel mee.

Ati moet flink hard gaan werken om weer de snelste te worden. Alleen hun kaarten zijn wel een hele tik goedkoper. Hij is misschien 2x zo langzaam, maar ook 2x zo goedkoop. En hij maakt minder herrie (edit:qua std.koeler). De r350 is nog steeds in de generatie van de Radeon 9700, ik weet niet of die 2x zo snel kan worden in verband met Anti-aliasing preformance, het is natuurlijk moeilijk om daar aan te gaan sleutelen met het zelfde ontwerp chippie. Ik hoop wel dat Ati ervoor kan zorgen dat de r350 DirectX 9.1 kan maken. Dan hebben ze in elk geval een streepje voor op de FX :).

En ddr-II op de r300 en r350 kan nog wel eens interessant zijn aangezien de radeon 9700 zoals gezegd meer data kan verwerken dan de FX. Als ze het geheugen bij Ati nou een beetje goed opklokken tot 800Mhz of 1,2 Ghz kan de Radeon 9700 nog best goed weerstand bieden (30% meer preformance :?, is mogelijk dacht ik zo). En dan hebben verkopers weer een mooie 1 Ghz kreet als tegenwerking van de AGP 8x en Ti4800 naamveranderingen bij nVidia :).
Nu maar hopen dat de kaarten ook hier in nederland goed verkrijgbaar worden. En een beetje betaalbaar.

edit:
Met die herrie bedoel ik de 'ufo' die op de FX zit.....Op de radeon zit een meer bescheiden koeler. Ik zei het misschien een beetje krom, maar nu moet het duidelijk zijn......
En hij maakt minder herrie
Waar slaat dat op :? Net alsof je zou zeggen "Een Athlon 2800+ maakt meer herrie dan een Pentium 2.8 GHz".

Dat zal volledig van het merk dat ze uitbrengt afhangen, dus welke cooler er op gezet wordt. Neem als voorbeeld de Geforce 4 MX, sommige merken zetten er een grote heatsink met dikke fan op, bij andere merken was hij gewoon passief gekoeld.
Inzichtvol :? een 4 :? Belachelijk :+

FX = radeonkiller = FOUT

Baseer je altijd een stelling op een onbetrouwbare informatiebron. Deze is nml. zeer discutable.....

DX9 onltast CPU = FOUT

Simpel door de bocht. Sinds wanneer ontlast de software de CPU :? |:(
Er zit dan wel degelijk hardware achter (GPU) waar DX9 dan gebruik van maakt.
Volgens mij heeft de FX nog veel meer potentieel dan dat hier in de benchmarks wordt getoond: de CPU is volgens mij nog steeds de bottleneck.
Aangezien de gebruikte CPU een P4 op 3,5GHz is, hoop ik voor nVidia dat dat niet zo is, want anders zou dat betekenen dat mensen die een Geforce FX kopen minimaal een P4 op 3,5GHz moeten hebben en dat wordt lastig. Ten eerste is de P4 op die snelheid nog niet te koop en ten tweede wordt dat dan wel een erg dure zaak. Niet alleen een videokaart van 600 Euro maar ook een CPU van rond die prijs.

Maar weinig gamers kunnen zich 1200 Euro veroorloven voor alleen een videokaart en een CPU.

Ik denk dus niet dat de CPU in deze test nog steeds een bottleneck is, dat zou niet erg slim zijn van nVidia, je kan beter een kaart ontwerpen die optimaal presteerd met een middle-end CPU dan met een high-end CPU.

Daarnaast is het niet helemaal in de geest van de GPU. Want de GPU (de eerste was de Geforce 1) is juist ontworpen om zelf een hele bups berekeningen uit te voeren i.p.v. de CPU. Als de CPU dan nog steeds de belangrijkste factor is betekend dat, dat het eigenlijk geen GPU is maar gewoon een grafische chip.
Als er games uitkomen met directX9 zal de FX nog meer superieur zijn want NVIDIA heeft nog wat extra's toegevoegd dan nodig om het directX 9-support label te halen.
De vraag is of die extra feature's ook gebruikt gaan worden door de diverse game developers, want anders heb je er natuurlijk niets aan.
Aangezien de gebruikte CPU een P4 op 3,5GHz is, hoop ik voor nVidia dat dat niet zo is, want anders zou dat betekenen dat mensen die een Geforce FX kopen minimaal een P4 op 3,5GHz moeten hebben en dat wordt lastig.
Dat zie je verkeerd. Er is weinig CPU voor nodig om een videokaart op volle toeren te laten draaien, namelijk gewoon simpelweg zoveel mogelijk tekenen. En dat is met een paar commando's te doen.

Dat de CPU in een spel de bottleneck is is een goed iets, dat betekent namelijk dat de videokaart het hele systeem niet ophoudt, zodat er meer besteedt kan worden aan complexe berekeningen zoals AI en collision detection & response. Ook wordt de CPU gebruikt voor ingenieuse occlusion culling, maar dat wordt bij de supersnelle kaarten natuurlijk wel ietwat overbodig, als de cpu toch de bottleneck is kun je beter wat meer tekenen zodat de cpu op dat gebied minder belast wordt. Je videokaart kan het immers toch wel aan. Maar goed, dat zou natuurlijk niet helemaal eerlijk zijn ten opzichte van de mensen met de wat langzamere kaarten ;)
Daarnaast is het niet helemaal in de geest van de GPU. Want de GPU (de eerste was de Geforce 1) is juist ontworpen om zelf een hele bups berekeningen uit te voeren i.p.v. de CPU. Als de CPU dan nog steeds de belangrijkste factor is betekend dat, dat het eigenlijk geen GPU is maar gewoon een grafische chip.
zie boven. De GPU kan transformeren, belichten en rasterizen, maar heeft verder nog geen weet van de totale geometrie. Bijvoorbeeld collision detection door een videokaart zou ook echt totaal nutteloos zijn, temeer omdat de AGP bus er niet voor ontworpen is om data terug te sturen, en die feedback heb je bij zoiets nou net nodig. Een videokaart zal dus ook nooit alles over kunnen nemen
De vraag is of die extra feature's ook gebruikt gaan worden door de diverse game developers, want anders heb je er natuurlijk niets aan.
heb helaas nog niet de tijd gehad om naar de dx9 SDK te kijken, maar als het is zoals de vorige edities van directx dan zijn er nog steeds geen mogelijkheden om andere features te gebruiken die niet door de API naar voren worden gebracht, dit in tegenstelling tot bijvoorbeeld opengl. Maar dat had je ook al sinds de geforce3, die shadow buffers ondersteunde. Er was echter geen DirectX8 functie voor om daarvan gebruik te maken, dus als je dat wilde moest je toch echt OpenGL gaan gebruiken

Ik vind de 'DirectX 9.0+' opmerking dan ook behoorlijk nutteloos (tja, martekting he ;))
uhm als de cpu in een spel de bottleneck is betekent dat dat de gpu uit zn neus zit te eten.
juist, en waarom is dat verkeerd? Dat is het niet! Nu is er namelijk de optie om de grafische kwaliteit te verhogen (en dat kan zonder dat daar extra CPU kracht voor nodig is), door bijvoorbeeld de resolutie te verhogen of FSAA aan te zetten. De CPU kan lekker verder waar ie mee bezig was, zoals idd complexe AI en realistische collision detection.

Maar goed, dus volgens jou is het niet goed dat de CPU de bottleneck is, en moet de GPU dat zijn. Waarom? Zodat de framerate zakt bij hoge kwaliteit? Dat zorgt er niet voor dat de CPU ineens meer te doen heeft hoor, en dus zal er nog net zo weinig tijd zijn om complexe AI uit te voeren als eerst. Alleen heb je nu een nog lagere framerate, aangezien de GPU het ook niet aankan.

Nee, er is wat mis met je logica zoals je het nu brengt :)
Dat de CPU in een spel de bottleneck is is een goed iets, dat betekent namelijk dat de videokaart het hele systeem niet ophoudt, zodat er meer besteedt kan worden aan complexe berekeningen zoals AI en collision detection & response.
uhm als de cpu in een spel de bottleneck is betekent dat dat de gpu uit zn neus zit te eten. gooi complexere AI in het spel en je cpu krijgt het nog drukker > minder fps dus en je vid kaart gaat nog meer uit zn neus eten, je cpu doet nl alle AI berekeningen, niet je gpu.
Dat is in zoverre "verkeerd" omdat ook mensen met een iets tragere CPU (niet iedereen heeft 3.0GHZ+) met bijv 400 mannetjes in Warcraft willen kunnen spelen zonder dat de CPU de boel gaat "laggen" (denk maar aan Age of Empires2).

Een goede GPU scoort ook op een iets trager systeem goed, juist omdat ie de CPU niet teveel werk laat doen. Die CPU heeft het al zwaar genoeg met de geavanceerde Ai en grote speelvelden van vandaag.

En alle berekingen van de game-engine worden door de CPU gedaan, de GPU is een "sim-pele" pixel-cruncher.
ik zeg niet dat het beter is als de gpu ipv de cpu de bottleneck is, liever helemaal geen bottleneck maargoed dat kun je toch nooit uitsluiten, als 1 van de 2 aan zn top zit zitten er altijd nadelen aan, voordelen des te minder
Een goede GPU scoort ook op een iets trager systeem goed, juist omdat ie de CPU niet teveel werk laat doen.
een gpu is zo goed als de software developer hem maakt.
nvidia/ati kunnen alleen maar hopen dat de devvers hun hardware stuff en dergelijke asap gebruiken, op dit moment heb je nix aan een radeon 9700/geforce fx
een goed ontworpen gf3/4 zal op de zelfde snelheid echt niet minder scoren, immers nog nix van de extra stuff van de radeon 9700/geforce fx wordt gebruikt(behalve dan die interne kleurprecisie maar dat helpt de fps nou ook niet bepaald).

een gpu kan nog zo goed zijn, als hij niet gebruikt wordt zal hij de cpu nooit en te nimmer ontlasten
die GPU word nu juist gebruikt om! de CPU te onttlasten cq je spellen sneller te laten draaien. Hij word dus ten alle tijden gebruikt. Hoe effectief dat is, hangt af van de implentatie van de chipbakkers.

MAW: er is altijd wel iets sneller/langzamer. Maar ideaal is het als de video-kaart het met langzamere (lees: niet de snelste) CPU ook al goede prestaties neerzet dan een slechte video-kaart die pas "los" komt met de snelste (en nog niet verkrijgbare) en dus peperdure CPU's....

Dat ie met een tragere CPU iets geremd word, is dan niet zo'n probleem. De spellen lopen dan tenminste soepel. AGPx8 is ook al zo'n hype. Weetjenog de discussies over APG in de begindagen ? Niemand wou eraan, ze vonden het bijna allemaal een vertagingsfactor. En dat is het ook. Reden dat het toch gebruikt word is eerder een economische dan dat er performance-winst mee geboekt word.

De snelste GPU is er eentje zonder AGP die al! het rekenwerk/3D vewerking zelf uitvoert zonder al die data door het systeem heen te pompen. Helaas is zo'n kaart er niet (bij mijn weten) en als die er zou zijn zou de prijs gevoelig hoger liggen.

wij als consument worden constant op het verkeerde been gezet, neem bijv. het geheugen.
DDR SDram PC2100 266mhz is eigenlijk een leugen.
WaaroM? Omdat die chips helemaal niet op 266mhz draaien, daarom. Dat verklaart mede waarom ze niet 2x zo snel draaien als SDR Sdram 133mhz.
Rambus, RDram, idemdito. PC800 = geen 800mhz, maar gewoon 400mhz.
Terwijl het zo sim-pel is. Klok=klok en DDR = DDR.

Waarom trappen wij er dan met open ogen in ?
Neem bijv. een auto (altijd leuk vergelijkings materiaal)
Pik je het dan ook als de verkoper een DEP(double engine powered) 400KMH mercedes aan je verkoopt ;?
Tja, 1 motor draait 200kMH en we hebben er 2 ingezet dus 2 x 200kmh= 400kmh |:(

Zo werkt dat dus niet he, die auto gaat dus never nooit 400kmh. Want er komt meer bij kijken om dat voor elkaar te krijgen, dat geldt dus met geheugen, AGP etc. precies zo....
daar heb je wel enigzins gelijk in maar wat ik wil zeggen is:
een GPU mag nog zo goed zijn, nog zo snel, en nog zo ingewikkeld etc etc. als hij niet gebruikt wordt/kan worden heb je er 0,0 nix aan.

tuurlijk is agp8x nutteloos, behalve dan de 2e agp kaart die je mag plaatsen, dat is imho iets waar ik al heel lang op wacht
Zo snel zijn die GPU's nou ook weer niet..

GPU > 275/375mhz
CPU > 1200/3000mhz

Rara wie de bottleneck is....
De GPU is nog steeds meer een pixel-wonder dan een rekenwonder, maw. hij mag dan nog zo snel die pixels verwerken, de berekeningen die erbij komen en vele malen complexer zijn laat ie liever aan de CPU over. Daarom is daar nou juist zoveel winst te boeken. Meer rekenwerk aan de GPU overlaten en de CPU wat meer lucht geven. Gegeven het feit dat de CPU's al supersnel zijn verdenk ik de GPU van "luiheid"....
dus dan heb je 'n 4GHz of meer nodig

GFX alleen voor extreem OC'ers
Heb je als tweakers dan iets beter de doen ? :+
De link is dood omdat het artikel fake was.

Het volgende heeft op de site gestaan voordat deze down ging:
- Update -

Der Test ist jetzt komplett online. Weitere Benchmarks werden folgen

"The Benchmarks were fake."
The benchmarks were fake op een Duitse site zeker! Al eens naar het Engels van bv Rammstein geluisterd? Niet veel zaaks he?
We zouden beter gewoon wachten tot er benchmarks op Tomshardware staan, die zijn ZEKER te vertrouwen.
edit:

Dgust Dgoking... :)
Ik wil niet veel zeggen, maar er zijn genoeg Duitsers die goed Engels praten. Je doet alsof dat niet zo is.

Zelfs op nV-minded sites wordt er gezegd dat de preview FAKE is. Check http://www.nvnews.net maar eens. Het stond op de frontpage, maar toen mensen eens rustig alles doornamen, kwamen ze tot de conclusie dat het wel fake moest zijn.

- Degene die het geschreven had beloofde mensen in allerlei andere forums dat hij deze week een recensie van de GFFX zou plaatsen.

- Niemand geloofde hem vooral ook omdat hij over een onbekende site sprak waar het op zou komen te staan.

- De website bestaat nog maar net een week. Zou nVidia echt een GFFX aan een onbekende site geven om te previewen VOORDAT andere bekendere sites de kaart hebben?

- Z'n site heeft nu wel heel erg veel hits gekregen door deze stunt...

- Hij schrijft over een GAINWARD kaart met een andere koeler dan de referencekaart van nV. Maar waar zijn dan de plaatjes van die kaart met nieuwe koeler?

- Alle plaatjes van de kaart zijn afkomstig van nV's reference kaart. Hun kaarten zijn GROEN. Gainwards kaarten zijn ROOD.

- Het verschil tussen de Ti4600 en R9700Pro is vaak heel erg verkeerd.

- De schrijver is eerder op verschillende forums/fora gebanned en al z'n threads zijn geclosed.

- nVidia heeft zelfs meerdere malen tot aan Comdex 2002 gezegd dat het 35% sneller zou worden als de R9700Pro. Waarom komen in hemelsnaam die 65 extra procenten dan vandaan, terwijl nV in November dus een kaart had die 35% sneller is. Door driveroptimalisaties in de laatste twee maanden? Daar geloof ik geen ruk van...
Idd, we zullen dan pas zien of het verdwenen artikel van vandaag toch de waarheid sprak of fake was... dat wordt bang afwachten :?
Laten we hopen dat die ¤600 ook fake is :D
Raar, dat staat in geen verhouding met de benchmarks van http://www.maximumpc.com/features/feature_2003-01-03.html

Daar wordt de GeForceFX verslagen door een 9700Pro in de Game4 benchmark van 3DMark 2001:SE
GeForce FX
Quake3 Demo001, 1600x1200 2xAA: 209fps
UT 2003 Asbestos, 1600x1200 2xAA: 140fps
3DMark Game4, 1600x1200 2xAA: 41fps

Radeon 9700 Pro
Quake3 Demo001, 1600x1200 2xAA: 147fps
UT 2003 Asbestos, 1600x1200 2xAA: 119fps
3DMark Game4, 1600x1200 2xAA: 45fps
De kaart getest in jou linkje is een sample release... misschien dat het geheugen nog niet op volle toeren draaide? of misschien wel de core... of misschien de link tussen die 2... ik heb geen idee, maar het kan aan zoveel dingen liggen...
Ik denk eerder dat het aan de drivers ligt. Drivers ontwikkelen voor een compleet nieuwe videokaart is al een heel groot ding. Vervolgens al die C/pp/ASM code optimaliseren is al een tweede super grote ding (denk aan de snelheid winsten van de eerste detonator drivers van NVidia, die konden wel met bepaalde instructies 200% stijgen).

Kortom, met goeie drivers kom je al een heel eind, met 125 miljoen transistors geoptimaliseerd laten doen waarvoor ze bedoelt zijn, ben je zeker wel een paar maanden verder. Dus ik zie die resultaten nog wel hoger worden.
ik denk dat 't voordeel in de drivers hem ook veelal zit in de CPU load, en niet zozeer dat ze de VGA kaart beter laten presteren.
Omdat dit met 'n P4 3,066@3,5 is gebenched en de meeste mensen moeten toch met minder doen.

Dus hoe doet de GFX & 9700PRO het met 'n
2400+ AthlonXP of 2,4 P4

'n krachtige kaart moet ook snel gevoed worden dus vereist een hele snelle CPU
De 9700 pro haalt op een Athlon 2200 xp

12831 3dmark 2001 se

Ík heb er een !

;)
vaag is dat ook 1600*1200?
want bij de test stond 8000 voor gf4-4600
Dan is er iets niet helemaal lekker bij je want ik haal met de 2200+ en een 4600Ti 11500 ofzo...
Het is niet helemaal duidelijk of het om final sillicon gaat, bovendien wordt er bij maximumpc met 2xAA getest en bij deze test zonder AA.
Dit zullen dan de echte benches zijn... Hopelijk voor NVIDIA zijn dit ook valse want als ik het zo bekijk, zou de R350/R400 dan toch weer de snelheidskroon kunnen overnemen.
da's dus
+/- 40% sneller in quake3
+/- 15% sneller in UT2003
+/- 10% langzamer! in Game4 (3dmark)

Dit zijn meer geloofwaardige scores, die andere neem ik met een korreltje zout. Valt me toch een beetje tegen....

Geef mij dan maar een 9700 pro met 10 a 20% slechtere performance maar dan wel een dikke 50% goedkoper....
Bovendien moet je ook niet vergeten dat met een tragere CPU de verschillen nog! kleiner zijn. Niet iedereen heeft een 3.0/3.5 Ghz voor het oprapen...
Ik geloof het pas als de grote jongens als anantech etc met dezelfde resultaten komen. En ik wil ook wel eens tests zien met 4fsaa en 8 en 16 aniso. Dat is tenslotte wat je wil. Eyecandy!! (8>
uhum...
UT2003-bench was met 8xAnisotropic en 4xFSAA. Eyecandy genoeg??? (met 130fps trouwens)
Hier wordt het getest zonder AA, bij die maximumpc benches wordt er telkens met 2xAA getest, toch, dat zou de verschillen, vooral bij de nature test, kunnen verklaren :)

Ja, enkel bij die UT2K3 bench wordt er 4x AA gebruikt, blijkbaar is daar dus de FX wel beter dan de 9700 met AA, maar bij de nature test niet... vaag, hoor :)
Wat een flut test zeg, 3 benchmarks maar en dan ook nog niet eens gekeken wat echte brute kracht is van beide kaart (16 fsaa en dergelijke tests). Beetje jammer dit, lijkt wel of nvidia niet echt wil laten wat deze kaart nu echt werkelijk kan. Het gaat nog altijd om eye-candy....voor mij dan :y) Quake 3 spelen met +3xx fps intreseert mij niet. Unreal2k3 met alle eye-candy's aan wel. Dat is ook het sterke punt van de Radeon 9700PRO. Ik kan me namelijk ook benchmarks herinneren dat de TI4600 mee kon komen met de Radeon 9700PRO maar zodra AA en FSAA omhoog werden gezet de kaart niet meer bij te benen was...

Nvidia show your real power! 8-)
Ik twijfel ontzettend aan de echtheid van deze test.

Ik geloof de score van 27000 of zo in 3dmark2001 gewoon niet. Dat is best wel onrealistisch.

Op zich hoop ik wel dat deze uitslagen kloppen, want dat zou weer een enorme boost qua prestaties betekenen. Maar ik wacht toch liever op de tests van de wat meer gerenommeerde sites. Niet zo'n vaag siteje met een preview van maar 1 pagina.
je moet je wel inbeelden dat dit met een P4@3.5 met HT gaat, PC1066 RDRAM, enz...

samen met een GPU die zoveel krachtiger is...

27000 is zeker te doen !!! (ze halen nu al 21000 met "gewone OC's")
Ik vind dit allemaal een beetje voorbarig.
Die Geforce FX is gewoon "maar een half jaartje" later uitgekomen san de radeon 9700 pro en nu zitten mensen al weer te blaten dat ATI ten onder gaat of zo.

Laatste gegevens over de ati R350 laten zien dat hij 2xzoveel texture units per pipe krijgt (was 8 totaal, worden er 16), dat de R350 ook in de buurt van de 500 mhz core-snelheid gaat lopen(was 325) en dat hij wordt uitgerust met DDR-II op 550 mhz(1100 mhz effectief, was 650 mhz effectief op 9700 pro) en dit op 256- bit bus (Nvidia 128-bit bus). En met al deze verbeteringen zou ATI niet in de buurt kunnen komen van de Geforce FX?denk het wel, ik denk dat ATI in alle rust(half jaar) al een antwoord heeft zitten te bedenken op de Geforce FX en dat ze niet meer genoegen nemen met de tweede plaats.
En dat van die driver-bugs is gewoon onzin, 80% van de genoemde bugs komt door tweakers die geen goede fresh windows-install kunnen doen en maar wat aanrommelen met windows.Ik heb echt alle games en 95% loopt gewoon zonder problemen.

BTW een maandje of 5 nadat de geforce FX goed verkrijgn=baar is komt de volgende kaart van ATI al weer uit de r400 en beginnen we weer opnieuw
Die UT2003 bench is waarschijnlijk gedraaid in Direct3D?, Terwijl ik thuis op een Ti4600 er nogal wat op vooruit ga als ik UT2003 in OpenGL laat draaien!, meestal zijn die Nvidia kaartjes beter in OpenGL dan in Direct3D wat bij de Radeon weer het tegenover gestelde is. Ik ben benieuwd wat de FX in staat is als UT2003 onder OpenGL gedraaid wordt.

(btw, voor diegenen die zeggen dat UT niet in OpenGL kan, het kan wel :P )

Verder lijkt die FX me wel erg geil als dit allemaal waar is. Hopelijk komen er snel meer benchmarks. Aan de andere kant geloof ik niet dat de scores ineens heel erg tegen gaan vallen, je mag van deze kaart ook verwachten dat ie sneller is als de 9700Pro anders hadden ze hem ook niet uit hoeven brengen.

En jah dan zal de volgende kaart van ATi wel weer sneller zijn dan de FX? is nog even afwachten maar ligt wel voor de hand.

Wat kunnen sommigen zich toch druk maken om de strijd tussen Ati en Nvidia, wat boeit het nou in hemelsnaam!, ze bouwen allebij prachtkaarten waar ik een hoop lol aan kan beleven, welke je dan koopt boeit eigenlijk vrij weinig, zelf koop ik het liefst de snelste kaart die er is, of dat nou een Ati of een Nvidia is maakt dan toch geen hol uit, het gaat toch om de spelletjes die je er mee speelt en de lol je je daaraan beleeft?, toch niet om welke fabrikant je moet supporten of afkraken?
hetzelfde geld voor AMD vs Intel (offtopic I know)
Ik heb momenteel een radeon 9700 pro en ik snap best dat de geforce fx de radeon 9700 verslaat, maar tegen die tijd dat nvidia de fx op de planken heeft liggen komt ati alweer met de r350 en ik geloof er heilig in de de r350 ver voorbij de geforce fx komt.

Conclusie is dat nvidia een beetje achterligt in de 'race' momenteel.
ATI's R350 zal dan wel héél veel in zijn marge moeten hebben om die grote achterstand om te buigen in een deftige voorsprong. Ik ziet dit nog niet zo snel gebeuren. Dat zou betekenen dat de R350 méér dan dubbel zo snel zou moeten zijn als de R300 van nu... Vergeet ook niet dat NVIDIA voorloopt op gebied van drivers en dat de prestaties nog wel aanzienlijk zullen verbeteren met nieuwe drivers.
De R350 is voor zover ik begrepen heb niets anders dan een Radeon 9700 Pro geproduceerd op een kleiner procede. Dus in andere woorden, een Radeon 9700 Pro die hoger geklokt is voor zowel de core en het geheugen.

Als deze benchmarks van de Geforce FX representatief zijn, dan zou de R350 inclusief geheugen tweemaal zo hoger geklokt moeten worden t.o.v. de Radeon 9700 Pro en dat zie ik echt niet gebeuren.

Nee, ik zie de R350, als deze benchmarks waar zijn, de Geforce FX echt niet verslaan.
je vergeet ook dat de r350 een 256 datapad heeft voor DDR2 RAM.
Nogsteeds is de bandbreedte van elke vidkaart een bottleneck, tegenwoordig zijn de cpu's dat ook weer!!!

En het geld nog altijd: niet blaaten voor de de benchmarks van beide kaarten hebt gezien!!!
D'r is nog niet veel bekend over de R350 maar

d'r is wel een 500 vs 325 Clock verschil tussen de huidige 9700 en aankomende GFX
das 50% en dat zal in GPU intensieve games duidelijk merkbaar zijn. vooral met een snelle CPU.

de vraag is dus als de r350 gewoon r300 op 0.13 zal zijn moet ie dus een clock hallen van iets voorbij de 500Mhz.

550Mhz zou mooi zijn mee rook aangezien de r300 wat minder transistoren heeft schaald ie misschien wat beter door.

De r300 is er al een tijdje uit dus de r350 kan ook een rework zijn dus geoptimaliseerd en op 0,13

Zoals de GF4ti tov de Gf3ti

dus dat wordt gewoon afwachten. wat ATI gaat doen
en wat uitgebeidere praktische reallife benchmarking voor meer down to earth situatie met normale CPU's

zo te zien heeft dat ding al prescott P4 nodig.
Duidelijk een ATI fan :Y)

R350 zal ongeveer evensnel zijn als de FX.
R350 zal ongeveer evensnel zijn als de FX.
Tja, daar heb je dus nog geen benchmarks van, misschien is ie sneller, misschien is ie trager, dat kan/mag je dus nog niet zeggen.
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True