Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: VR-Zone

Een oplettende lezer van de VR-Zone forums ontdekte in de performancedatabase van 3DMark 2001 op MadOnion.com de testuitslag van iemand met een GeForce4 Ti4600. Deze videokaart wordt pas komende woensdag door nVidia aangekondigd en er zijn nog geen eerdere benchmarks van bekend. Het wordt in ieder geval de snelste van de nieuwe GeForce4 serie, voorzien van een 330MHz NV25 met 128MB 660MHz DDR geheugen. De test werd uitgevoerd op een 2,2GHz Northwood systeem dat was overgeklokt naar 2,6GHz, met als software Windows XP en Detonator versie 27.20. Als referentiepunt wordt een systeem met GeForce3 kaart gebruikt, maar dat is een compleet andere configuratie met een Pentium III 1,7GHz en minder intern geheugen. Bovendien staat niet vermeld om welk type GeForce3 (Ti200 / classic / Ti500) het precies gaat. Niet bepaald een eerlijke vergelijking dus, maar beter dan helemaal niets.

De fillrate van het GeForce4 systeem ligt zo'n 30% hoger dan die van het GeForce3 systeem. In de multitexture-mode duwt de NV25 chip een zeer indrukwekkende 2,4 gigatexels per seconde naar de framebuffer. Ook het aantal polygonen per seconde is niet laag; dik 45 miljoen met n lichtbron, en met acht verschillende lichtbronnen tegelijk ingeschakeld nog steeds acht miljoen in een seconde. Wat dat betekent voor het aantal frames per seconde is moeilijk te zeggen. Tussen de geteste systemen was er een gemiddeld verschil van 40% in het voordeel van de GeForce4, maar houdt in de gaten dat de GeForce3 in een andere configuratie draaide. De eindscore van 3DMark 2001 voor de Ti4600 was maar liefst 11565:

GeForce4 Ti4600 3DMark 2001 resultaat

Hier kunnen ongeduldige figuren met 525 euro overschot de nieuwe kaart trouwens al bestellen. Bedankt voor de tip NightZhark33!

Moderatie-faq Wijzig weergave

Reacties (75)

mooi hoor, maar wat heb je dr aan.
ik denk er niet over om allejezus veel geld uit te geven aan een videokaart die maar n kunstje (goed) kan.
Dan maar lekker de AIW Radeon das meer het multipurpose kaartje wat ik zoek.
'k vraag me ook af wanneer de spellen gemaakt gaan worden waarvoor dit kaartje bestemd is :)

JR
Aangezien het grote marktaandeel van NVIDIA denk ik dat ontwikkelaars liever de NVIDIA GeForce 3 mogelijkheden in hun spellen / programma's stoppen i.p.v die van de Ati Radeon 8500 kaart :)
Men richt zich denk ik niet specifiek op een kaart maar op de mogelijkheden van OpenGL en DirectX.
Daarbij komt dat ik had gelezen dat Microsoft bij de ontwikkeling van DirectX9 de opvolger van de ATI Radeon 8500 als referentie punt gebruikt.

Ik kan het mis hebben maar goed.
Dat weet ik zo net nog niet, het ligt er ook aan welke feature's nuttig zijn, en die dus ondersteund gaan worden, en welke feature's relatief makkelijk zijn om te gebruiken als game ontwikkelaar. Puur op marktaandeel afgaan zal ook wel gebeuren, maar niet alleen maar.

Ik hoop zo en zo dat er wat meer overleg komt door de games industrie en de fabrikanten van GPU's, zodat de games en de GPU's beter van elkaar gebruik gaan maken. Dat lijkt me een stuk beter dan de situatie nu, waarin de game fabrikanten achter lopen op de mogelijkheden van de GPU's.
Feit blijft dat het ontwikkelen van Games over het aflgemeen langzamer gaat dan het ontwikkelen van een nieuwe chipset. Elk half jaar komt NVidia met een nieuwe chipset.

Daarbij komt nog dat het overgrote deel van de kopers hardware koopt die conform de systeemeisen van spellen is. Dit komt voort uit het feit dat de allernieuwste hardware voor velen niet te betalen is. Wanneer een spel dus volledig gebruik maakt van de functionaliteiten van een chipset zijn er maar relatief weinig mensen die daarvan profiteren
Games worden ontwikkeld voor wat vandaag mainstraem is en wat binnenkort mainstream zal zijn met extra opties voor de huidige top kaarten.

Omdat 'n vers gereleasde GKaart nooit Mainstream kan zijn zal er ook niet direct voor ontwikkeld worden dus zal de game software altijd achterlopen

De ontwikkel tijd van games zit ongeveer tussen de 18maanden 3jaar nVidia's Gkaart Update Cycle is 6maanden en om het jaar 'n Nieuwe GPU.

Men maakt gewoon geen games voor 'n doelgroep van 1%, mainstream is nu rond de G2, G3 aandeel is nu ook aardig dus G3/R200 features in games is nu rendabel om te ondersteunen.

Het is ook belangrijk om het grote verschil te weten tussen de G3 en de G4 bied deze geen extra features die afhankelijk zijn van 'n API Direct3d/OpenGL dan is het gewoon 'n krachtigere G3 type dus is het 'n DX9 of gewoon nog DX8,1 featureset.

Is het gewoon nog DX8.1 dan ondersteunen de huidige DX8,1 games deze kaart ook volledig
helemaal gelijk, Tim sweeney van "unreal2" heeft het volgende over de unreal2 ontwikkeling gezegd.

link : http://www.voodooextreme.com/3dpulpit/Main.html

(Reverend 3dpulpit)
BTW, I'd have to assume there would be some level of vertex programs in the engine (and Epic's next game). What about pixel shading? Will you be using any (taking into account what can be done on a NV20-class accelerator)?

Tim Sweeney : Almost everything we're doing can be done on DirectX7 as a fallback (though requiring more rendering passes). We'll be adding more support for DirectX8-focused features in time, but there are still an awful lot of GeForce2-class cards being sold.

het komt er op neer dat er nu pas echt met dx7 wordt ontwikkeld met kleine uitschieters naar dx8 technologie.

Zolang je maar mainstream blijft hoef je nog geen gf4 ofzelfs gf3 te kopen... (geld vangen van producenten)
Zoals eerder al gezegt, het is geen eerlijke test. En ik vraag me echt sterk af of het werkelijk de GeForce 4 is aangezien 3DMark de graphics chipset niet herkent. Het is namelijk niet zo moeilijk om wel een drivername door te geven. Het is wel veel moeilijker om de dus die chepset naam door te geven.

Maar goed, mocht dit waar zijn en mocht het prestatie percentage verschil nu op de zelfde systemen nog ongeveer even veel zijn dan ga ik gelijk na de release snel maar 1'tje halen bij de hardwareboer.
Ik denk toch dat de GeForce 4 een hele stap in de goede richting is voor gamers!

Als ik de scores zo zie is het echt een hele vooruitgang met de GeForce 3, nu maar hopen dat ie niet zo achterlijk duur gaat worden, :9
[qoute]
Ik denk toch dat de GeForce 4 een hele stap in de goede richting is voor gamers!
[/quote]

Ik vind het persoonlijk niet erg interessant allemaal. Er is geen hond die het verschil ziet tussen 128 of 180 fps en er zijn nog niet eens spellen die een GeForce3 of R8500 helemaal benutten. Om dan 525 neer te leggen vind ik echt niet normaal. En de GeForce 4 heeft maar weinig echt nieuwe functies tov de GeForce3.
Dus zo'n vooruitgang is het voorlopig nog niet...
SoF 2 en unreal 2 en UT 2 zullen toch wel erg veel vragen van je videokaart.

de verwachting is dat je op 1600*1200 niet op het allerhoogste detail kan draaien met een geforce 3!

dus dat zegt wel genoeg
Slik, op 1600*1200 niet op het hoogste detail?

Hierbij denk ik dat 99% van alle mensen die een TFT monitor willen aan gaan schaffen de GF4 dus nooit nodig hebben.
Die schermen halen die resolutie niet....
De markt voor super snelle grafische kaarten neemt op die manier gewoon langzaam af.

Hoeveel mensen draaien nu echt super hoge resoluties op hun beeldscherm?
Draaid je GF4 100fps terwijl je monitor interlaced staat ;)
Op 1600*1200 kan je niet eens de text meer lezen, die wordt nog steeds niet aangepast aan de resolutie waarin je speelt.

En wat maakt het uit of je video kaart 60 of 130 fps haalt? Alleen voor je ego, niet omdat je dan ineens beter speelt.
Lekker onzinnig argument, dat kan toch aangepast worden per resolutie, omdat het in UT1 of in Unreal 1 niet meer te lezen is, hoeft niet zo te wezen dat het in UT2 of U2 ook zo is.

Lijkt me dat ze deze spellen gaan voorbereiden op hoge resoluties, is wel een must vind ik.
-- reactie op TheGhostInc --
Hierbij denk ik dat 99% van alle mensen die een TFT monitor willen aan gaan schaffen de GF4 dus nooit nodig hebben.
Die schermen halen die resolutie niet....
De markt voor super snelle grafische kaarten neemt op die manier gewoon langzaam af.

Hoeveel mensen draaien nu echt super hoge resoluties op hun beeldscherm?
- Een TFT monitor is niet echt geschikt om games op te spelen, alleen de echt goede/dure TFT schermen gaan nog een beetje. Voor een goed gamers scherm kun je nog steeds het beste een CRT monitor nemen met een 'Aperture Grill' beeldbuis nemen. Ikzelf heb een 19" CRT monitor met zo'n beeldbuis en 1600x1200 @ 90 hz ziet er nog heel fatsoenlijk uit.
Ikzelf gebruik af en toe wel 1600x1200 ja, vooral in de wat oudere games.

-- reactie op mister8 --
Op 1600*1200 kan je niet eens de text meer lezen, die wordt nog steeds niet aangepast aan de resolutie waarin je speelt.

En wat maakt het uit of je video kaart 60 of 130 fps haalt? Alleen voor je ego, niet omdat je dan ineens beter speelt.
In Quake 3 bijvoorbeeld blijven de text/icoontjes onderin beeld even groot, onafhankelijk van je resolutie. De text in de console wordt wel kleiner ja, maar het blijft leesbaar (vind ik).
En wat maakt het uit of je 60 of 130 fps haalt? Lijkt me logisch: in drukke momenten in games (in Q3 knalt iedereen met een rocket launcher op elkaar in een kleine ruimte) dan zakken je fps behoorlijk in elkaar, dus als je gemiddeld 60 fps hebt is de kans groot dat je onder de 30 komt in die drukke momenten en dus schokkend beeld hebt. Bij 130 fps is de kans hierop een stuk kleiner.
Die schermen halen die resolutie niet....
Het gaat niet alleen om de resolutie maar volgens mij ook om het aantal Hertz waarop je beeldscherm in die resolutie draait.
Als je beeldscherm op 90 hertz draait maakt het natuurlijk niet uit of je videokaart 90 fps haalt of 200 fps. Je ziet het in beide gevallen toch met 90 fps op je beeldscherm.
Medal of honer zeker nog niet op zn mooist proberen te spelen met een GF3 Ti200. Gaat niet relaxt boven de 1024 reso's
Ligt er natuurlijk helemaal aan in wat voor een systeem een Ti200 zit, in een hoog geklokte XP of Northwood zal MoH zeker goed te spelen zijn in de hogere resoluties.

En ook al is 1280x1024 misschien net onspeelbaar (wat ik overigens niet denk), dan heb je altijd nog de FSAA en andere methode's om toch een heel mooi beeld tevoorschijn te toveren op de wat lagere resoluties.

Het is jammer dat de games fabrikanten steeds verder beginnen achter te lopen op de mogelijkheden die een moderne GPU heeft. Dat is ook niet raar als je naar de supersnelle ontwikkelingen kijkt op videokaart gebied, de ene videokaart is nog niet uit en de andere komt er al aan.

Ik hoop dat de game industrie en de verschillende GPU fabrikanten in de toekomst wat meer met elkaar gaan overleggen zodat de games en de GPU's beter op elkaar afgestemt gaan worden.
En ook al is 1280x1024 misschien net onspeelbaar (wat ik overigens niet denk), dan heb je altijd nog de FSAA en andere methode's om toch een heel mooi beeld tevoorschijn te toveren op de wat lagere resoluties.
Volgens mij gaat FSAA erg ten koste van de prestaties van je GeForce3. Het lijkt mij dan ook niet echt handig om dit aan te zetten op het moment dat je videokaart het al amper bij kan houden. Ik denk dat een resolutie terug en dan met FSAA aan de framerates niet ten goede zal komen. Ik heb helaas zelf geen GeForce3 en ik kan het dus niet testen, maar wat ik uit de vele benchmarks opmaak is dat FSAA een hoop performance kost (ook al zegt iedereen dat dit niet zo is).

Correct me if I'm wrong...
oeps, reactie moest eigenlijk onder Se7enth_son terecht moeten komen

resoluties ophogen doet veel auw voor systeem
bedenk maar:
- 640 * 480 = 4 x 320 * 240
- 1280 * 1024 = 4 x 640 * 480

Dat betekent vier keer zoveel pixeltjes tekenen. Reken maar uit wat dit kost in 32 bit per pixel...

ik ben lui
Ik denk toch dat de GeForce 4 een hele stap in de goede richting is voor gamers!
Goh, deze opmerking lees ik bij ieder nieuwe chipset van Nvidia. Dit werd al bij de introductie van de Geforce 256 gezegd. Wat een onzin!!!!
Wat me opvalt is de de PIII op 1696 Mhz, met een FSB van 140 Mhz.
Dat zou dus betekenen dat ie een tualatin zou hebben met geen multiplier lock.
Wat me opvalt is de de PIII op 1696 Mhz, met een FSB van 140 Mhz.
Dat zou dus betekenen dat ie een tualatin zou hebben met geen multiplier lock.
Sterker nog: Hij zou dan een multiplier van 12,1 moeten hebben....toch een beetje raar dit moet ik zeggen! Bij een mp van 12 zou het nl 1680 MHz zijn ....
Nee dat kan wel, Abit geeft altijd +/- 15mhz meer weer mij Cellie op 129mhz bus geeft ook in windows en 3dmark een bus van 130mhz, dat verschil is dus verklaar baar
ja da is vrij straf dan hij op 133 op 1596 mhz moeten lopen :))

tis ook nie eerlijk dat de GF3 op een Tualatin wordt getest en de GF4 op een P4

ik denk dat die P3 zelfs beter is :))
maja de P4 heeft ook maar 128 MB ram ...

GF4 is wel sneller :)
het aantal polygoontjes is inderdaad indrukwekkend

conclusie: de GF4 zal tussen de 30 en de 40 % sneller zijn dan de standaard GF3 , niet slecht

ik denk dat het verschil zelfs nog groter zal zijn met andere benchmarks,games
Wat me opvalt is de de PIII op 1696 Mhz, met een FSB van 140 Mhz.
Dat zou dus betekenen dat ie een tualatin zou hebben met geen multiplier lock.
nee het verassende is dat een tualatin door 3dmark als 'Unkown Intel' wordt weergegeven, dit moet dus een classic p3 zijn op met een .18 core ipv een .13 dit moet dus wel fake zijn want een p3 met een .18 core kan van z'n leven niet op 1,7ghz....
hmz, niet echt de vergelijking waar je op hoopt... 2 totaal verschillende systemen !
Maar jahm beter dan niks natuurlijk :D
Ik ben helemaal met je eens dat het om een oneerlijke vergelijking gaat. Maar dit kan je zeker als een vage indicatie over de echte prestaties beschouwen. Want hoe dan, zeker met een p3 1,7Gig, is de grafischekaart de bottelneck in een systeem als je naar de grafische-benchmarks gaat kijken.
Zoals met alle gepubliceerde 3DMark 2001 scores kun je deze ook naast je eigen systeem zetten. Zo krijg je een indruk of de kaart de moeite van een upgrade waard is voor je:
http://gamershq.madonion.com/compare2k1.shtml?2550927

edit:
Het gaat hier zo te zien om een ander systeem, maar deze is ook voorzien van een GeForce 4.
HAHA, lijkt me ook sterk.
Een FSB van 0Mhz :d
Dat van die FSB lijkt me een bug van 3Dmark.

Bij mij zegt ie dat ik een FSB van 100 heb, terwijl die toch echt 133 is.
Yep - en een redelijk vergelijkbaar met het mijne - behalve dat het het dubbele van de ram en die GF4 heeft ipv mijn GF3 (original) - en het puntenverschil is maar 1000....

EDIT: Effe een beetje getweakt - m'n score is nu 8491 - 200 punten verschil dus - en ik zit bij vele testen dik boven zijn resultaat... Alleen al door een gewone gainward TI200 een beetje te oc'en moet dat gemakkelijk te behalen zijn...
Het geposte ding is niet te vinden...

alleen bij het 3dmark2000 overzicht staat een kaart met chipset missing met een score van 11565 ...

En daar zat volgens de driver een NVIDIA Quadro2 Pro in ... die chipset moet ie toch wel herkennen ?

//Edit: Aznil.nl: Volgens 3dmark2001 heb ik ook een FSB van 0 mhz, terwijl ie gewoon 100 is, dus dat kan nog
(ik zou ook maar ff wachten met het vermelden van deze score op je lijst :) )
fl 1155,- dat gaat wel voor de next top High-end kaartje.
Doe nou eens in euro's man. Anders wennen we er nooit aan.
Eerste release prijzen van Geforce 256, Geforce 2 GTS, Geforce 3 zijn altijd gereleased met de Valuta van voor 1-1-2002 dus NFL.

vind dus onder de fl 1200,- wel mee vallen.
Bij de alledaagse boodschappen denk ik al helemaal in 's maar bij grote bedragen reken ik nog steeds om
Let op dat dit niet het high end kaartje is, deze kaart is net als die pentium4 natuurlijk flink opgefokt.
Die Ti4600 werd toch pas later uitgebracht en zou in het begin niet beschikbaar zijn ? Lijkt me sterk als juist van die kaart de eerste benchmarks uitlekken...

En wat ik me ook afvraag, is de manier waarop 3Dmark2001 de chipset-naam uitleest...
de drivernaam kun je zelf heel makkelijk veranderen (hint: regedit), dus dat die op Ti4600 staat is niet betrouwbaar.
Ok, maar als ik van m'n GeForce 256 de naam verander haalt ie nog geen 11.000+ punten ;).
Nee, daar moet ik je gelijk in geven :D

Maar als ik een Pentium 4 op 2606mhz heb, en m'n Radeon 8500 op 330/330 mhz flash mbv John Hoek's programma (en bv kan zorgen dat de chipsetnaam veranderd wordt, als dat is waar 3dmark naar kijkt: hardwarematig ingebakken chipsetnaam) , dan kan ik al akelig dicht in de buurt van die score komen :)
Als je een radeon met 128 MB had zou dat kunnen ja :)

Edit: Dit geld ook voor Magestic hieronder. Ti500 met 128 MB???
die 64MB xtra verbeten de score met misschien een paar honderd marks, nix bijzonder dus, voor dat xtra geheugen te benutten is meer nodig dan "maar" 3dmark2k1, ik denk daarbij dus aan 2k2 als die komt, en ook doom3 :9
die 64MB xtra verbeten de score met misschien een paar honderd marks, nix bijzonder dus, voor dat xtra geheugen te benutten is meer nodig dan "maar" 3dmark2k1, ik denk daarbij dus aan 2k2 als die komt, en ook doom3
ik denk dat zelfs 3d mark 2k2 en doom 3 meer dan 64mb niet eens goed benutten, meeste games hebben toch wel een soort van texture compressie wat al heel wat scheelt
En als je systeem dan ook nog 512MB ram heeft (of meer)

Andere optie is gewoon een GeForce 3ti200 ofzow nemen en hem geforceerd in 640x480 laten draaien op een of andere manier
Hmm begrijp ik het goed dat ze in nature een gelijke score halen ? En dat terwijl de pc met de geforce3 een lager geklokte is ?

Zou het dan zijn dat de GF3 in nature een betere score zou kunnen halen ofzo :?
Daarom lijkt me dit meer op een goed overgeklolt Radeon systeem.
De radeon haal normaal een veel lagere score als de TI500, maar als alles hoger geklokt is :p
De Radeon8500 haal juist een hogere score dan de GeForce3Ti500 in 3dmark2001. En zoveel scheelt het niet.

Ziehier
Ik weet niet heb niet echt vertrouwen in deze grafiek...

Als je alleen al kijkt bij de Nature Scene... onmogelijk dat beide testsystemen PRECIES dezelfde score halen, dit terwijl de GF4 een nieuwe T&L engine heeft op hogere clockspeeds draait en het test systeem zelf ook veeeeel sneller is dan die van bij de GF3....

Kijk ook eens naar de enorme lage prestatie van LObby High Detail en Car Chase High Detail.... met mijn GF2PRo op mijn TB@ 1500Mhz haal ik bijna even hoge score. En ook de VErtex Shader zit ik niet ver van deze GF4 score met mijn systeem...


Beetje verdacht is het niet?
waarom denk je dat er dan 3 verschillende game tests zijn, puur en alleen voor 'het oog wil ook wat' ?? inderdaad dat die tests gelijk uitkomen zegt misschien wel wat, maar in alle tests worden andere aspecten van de kaart betrokken... ok of dit een hoax is of niet, dat betwijfel ik... maar goed das IMO

verder natuurlijk wl erg leuk om te merken dat er nou al vergelijkingen uitkomen.. misschien het aanschaffen waard
Nou vind je het niet raar dan dat ik met een GF2 PRO in die High Detail tests bijna even hoge scores haal??? ik wel dus...

Denk gewoon dat ze een GFkaart genomen hebben en Bios ervan hebben gedit...

Ander verhaal ik ben op MAdonion VAAK scores tegengekomen in 2001 mark van 10000 met een Celeron400 ed... Dat kan dus ook niet. er zijn trukjes om die hele test te faken...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True