Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: FiringSquad

Bij FiringSquad vonden ze het nodig om een final retail GeForce3 plankje nog eens flink bezig te houden met een uitgebreide benchmarksessie. Er werd gebruik gemaakt van een P3-700 en een Athlon 1,1GHz systeem, die beide waren uitgerust met Quake III, MDK2, Evolva en Serious Sam. Waar mogelijk werd ook onderzocht hoe de 2x, en 4x en Quincunx FSAA prestaties van de GeForce3 waren. De kaart werd alleen vergeleken met zijn voorgangers, de GeForce2 GTS en Ultra.

Het advies van het vuurpeleton is weinig verrassend; de GeForce3 laat goede resultaten zien in FSAA, wat momenteel zo'n beetje zijn enig belangrijk pluspunt is. Als je bent voorzien van een krachtige CPU (en een dikke portomonnee) is hij daarvoor zeker het overwegen waard. Ben je wat minder veeleisend dan doe je jezelf waarschijnlijk meer goed door nog een half jaartje te wachten :

Were we right? After looking through our benchmark results, I think that we can all agree that the GeForce3's main strength in today's games is its FSAA performance. Judging by our Quake 3 screenshots, NVIDIA's new Quincunx AA does look better than normal 2x FSAA. In fact, we found it so difficult to tell the difference between Quincunx and 4x that we regret not grouping our Quincunx scores with the 4x graphs.

Should I buy a GeForce3?
If you have anything slower than a P3-700, and you're entertaining the thought of buying a GeForce3. Stop right now. Go out and get yourself a 1GHz (or faster) CPU. The GeForce3 needs a fast processor for today's games. You might be able to get away with having a slower processor in future DX8 games that take advantage of vertex and pixel shaders, but today's games are still extremely CPU dependent.

For those of you who already have fast CPUs, the decision is simple. If you really want to play with FSAA at high resolutions and you don't mind shelling out $500-$600 for the privilege, go ahead and pick up a GeForce3 along with that bottle of Caymus Special Select.

If you're like the rest of us Snapple drinkers, you can probably hold off on buying the GeForce3 and suffer through the jaggies until the technology becomes more affordable at the end of this year. That's also when we should start seeing games that can actually take advantage of the GeForce3's advanced DX8 functions.

Met dank aan vinz voor de link.

Moderatie-faq Wijzig weergave

Reacties (38)

Kan iemand mij misschien ff uitleggen waarom je een beest van een CPU nodig hebt voor dit veel te dure, maar goed presterende, vga kaartje?
Dit is toch een GPU, en de bedoeling daarvan is toch dat deze voor het grafische werk de CPU ontlast? Of ben ik nu heel erg verkeerd aan het denken?

Mijn mening: Een dergelijk zwaar uitgeruste grafische kaart zou op een lichte configuratie (met agp uiteraard) een superkaart moeten zijn.
dat zou natuurlijk mooi zijn maar helaas gaat het niet op. er zijn zes stappen om een beeld oftewel frame te maken nodig. ik weet niet meer hoe ze heten, maar de laatste 2 werden altijd al door de gpu gedaan. nu is er met de lingtning engine op sommige gpu's de derde en de vierde stap bijgekomen. nu blijven dus alleen de eerste 2 stappen over. alleen die stappen moeten wel volbracht worden, door de cpu. als die niet snel genoeg de eerste 2 stappen kan voltooien, kan de gpu niet verder met de laatste 4. dan heb je er dus niks aan en zit de kaart niks te doen. vandaar dat je bij zo een kaart toch beter een goed systeem kan plaatsen :)

ik heb de 6 stappen even opgezocht op hardwareinfo.net, bij hun 3d videokaarten guide. (http://www.hardwareinfo.nl/achtergrond.php?id=10&page=2)

1. Applicatie specifieke berekeningen
2. ScŤne berekeningen
3. Transformation
4. Lightning
5. Triangle Setup
6. Pixel Rendering Engine

zoals je ziet zijn heten de derde en vierde stap transformation en lighting, vandaar dat ze die extra proccesors op de videokaart vaak ook Transformation&Lightning Engine noemen.
een voorbeeld van zo'n engine is de charisma engine op de ati radeon.

Zo alle duidelijk ?? :)
Dit is mij nu wel duidelijk, totaal nieuwe informatie die ik niet kende.
Eigenlijk kun je hier dan uit concluderen dat een gpu een soort van co processor is voor de computer, het verschil is alleen dat deze van de CPU verwacht dat die aan de eisen van de GPU kan voldoen.

Zeer interessante info allemaal.
Klopt niet.

Als je een CPU hebt van mhz X, en GEEN geforce3, dan moet hij EN de transformations EN de vertexlighting zelf doen. Kost extra tijd dus zakt de performance NOG meer in dan wanneer hij een geforce3 zou gebruiken. Al wat de CPU moet doen is dan vertexarrays vullen met data en naar die kaart sturen. Daar heb je geen zware CPU voor nodig, elke CPU kan dat.

Het slaat echt nergens op om te beweren dat je een snelle CPU nodig hebt voor een geforce3. Wat nodig is voor een geforce3 is software die goed is geschreven. Aangezien de HUIDIGE software die op de markt is niet ten volle gebruik maakt van technieken om zoveel mogelijk een GPU te gebruiken voor rendering, is het zinloos om nu die geforce3 te testen.

Als je goede scenegraphs gebruikt, goede cullmethods, zodat je alleen DIE geometrie klaarzet die naar de kaart moet en dat SNEL doet middels goede algoritmen, dan is die geforce ook snel op een p2-400, sneller dan een geforce2 of wat dan ook met een p2-400.

Punt is alleen dat veel rendersoftware vrolijk hun eigen lighting doen, geen vertex shaders in hardware gebruiken en geen pixelshaders, maar vrolijk via tig texturestages alles erop plakken (dus meerdere keren dezelfde polygon renderen, veelal ook nog zonder geavanceerde technieken, terwijl dat ook in 1 keer kan met pixel en vertexshaders in hardware). Dit is hetzelfde als rijden in een ferrari en maar de 1e 2 versnellingen gebruiken want je bent een automaat gewend.
Pricewatch: PowerColor GeForce2 GTS 64DDR TV F558,-
Minder dan drie keer zo weinig harde guldens, en het verschil in kwaliteit tussen de Geforce 3 vind ik maar klein.
dan neem je ook wel het slechtste merk wat er is, maar goed. ik ben het met je eens alleen zou ik dan voor een ati radeon 64mb gaan die heb je al voor rond de 550 en heeft een betere beeld kwaliteit in hoge resoluties (ik weet het word vaak gezegd, maar voor mij met 19"monitor heel belngrijk)

toch is het geen slechte kaart, lees de reviews er maar op na van bv hardware info, 3dmark 2001 ziet er uit als nooit tevoren, dat doet een geforce 2 hem niet na. en het gaat toch om de technieken, niet om de snelheid, want 60 frames op 1200x1000 is al lang bereikt en hoger is toch niet nodig. ook een reden dat ik nu eerder een radeon zou aanschaffen (sterker nog hij komt morgen binnen :P) dan een geforce 2 gts, die is dan wel net iets sneller maar de radeon ondersteunt wel directx 8 hardware matig en dat ga je over n half jaartje toch goed zien bij nieuwe games, dat de radeon sneller en mooier beeld zal geven als de gts.
en heeft een betere beeld kwaliteit in hoge resoluties
Waar kan ik daar de 'bewijzen' voor vinden? TIA .

_____________________________________________
edit: dit is dus geen overbodige/trollerige vraag, maar een legitieme kwestie. Lees hieronder maar verder.
ik spreek uit eigen ervaring

maar goed, of ik nou zo'n betrouwbare bron ben??
Mijn ervaring met een ErazorX (Geforce1 SDR) en een Radeon Vivo (64 MB DDR), vlak achter elkaar op mijn systeem met IIyama 22", was dat ik geen verschil in 2d beeldkwaliteit kon ontdekken. Misschien als je 2 identieke monitoren naast elkaar plaatst dat het dan iets anders zou zijn. Maar ik denk dat het verschil in monitoren onderling af fabriek, dan al snel meespeelt. Qua performance was de Radeon natuurlijk beter, maar da's logisch. Ik lees in reviews nooit iets over die vermeend slechtere 2d beeldkwaliteit van Geforce 2 kaarten. Daarom vraag ik ook naar hardere bewijzen voor deze zo vaak herhaalde uitspraak. Het is tť gemakkelijk om het maar te roepen of van elkaar domweg over te nemen.
d'r is ook zo iets als 3D beeldkwaliteit niet alleen 2D
d'r is ook zo iets als 3D beeldkwaliteit niet alleen 2D
Ligt eraan wat jij daarmee bedoelt. Ik kijk naar een 2d scherm, de eerste 3d schermen zijn weliswaar al uitgevonden maar nog niet in de handel. Een plaatje op de monitor is 2d en dan kijk ik naar beeldscherpte, kleurdiepte en contast. Dat is waar iedereen het ook over heeft, als het over "brakke" beeldkwaliteit gaat. Als je het hebt over artefacten in bijv. OpenGL, dat is een driverskwestie. Die was in de beide eerder genoemde kaarten die ik geprobeerd heb vrij goed, ookal liet de Radeon in 3DMark2001 op 1 bepaalde plek soms iets vreemds zien. In 3dsMax voldeden beide OpenGL drivers naar behoren in een korte proef. Maar voor echt professioneel gebruik zijn deze drivers natuurlijk niet echt bedoeld.
je hebt gelijk het word vaak gezegd. maar het is toch waar denk ik. toen ik voor mijn radeon die hopelijk morgen binnenkomt in een lokale pc zaak was om even te kijken, vroeg ik er naar. is dat nou echt waar van die geforcen die slecht beeld geven op hoge resoluties? hij zij ja (en het was niet zo iemand uit een pc zaak die maar wat zegt hij leek er verstand van te hebben). Hij zei dat sommige geforce kaarten (verschilt ook nog eens per exemplaar) niet "stil"waren op hoge resoluties. Hij zie dat 3dfx, Ati en Matrox kaarten het beeld veel scherper en stiller hielden.

ok ok, weer net echt een hard bewijs. maar ik begin er toch sterk genoeg in te geloven, in ieder geval zo sterk dat ik een radeon en geen gts heb besteld ......
Hij zei dat sommige geforce kaarten (verschilt ook nog eens per exemplaar) niet "stil"waren op hoge resoluties
Kijk, dŠt wil ik best geloven, dat er onderlinge verschillen zijn, omdat niet iedere fabrikant dezelfde componenten gebruikt en misschien ook nog verschillend binnen 1 merk bij de verschillende types (MX/GTS/Ultra). Kwestie van goed uitzoeken dus.
Reactie op cookie

3D kwaliteit is afhankelijk hoe de 3dvirtuele game wereld word omgezet naar een 2D plaatje door de 3d hardware
Bijvoorbeeld om intern op 32bit te bewerken en het resultaat in 16bit wegschrijven sommige kaarten doen dit ander niet die hebben dan een betere 16bit performance maar een mindere 3d beeld kwaliteit.

3dfx zou intern op 48bit willlen werken voor de 32bit kleurdiepte voor nog betere beeld kwaliteit tov 32bit naar 32bit
Heb wel over 3d beeld kwaliteit problemen met bepaalde elsa GTS2 Ulra's gehoord of was h't hercules weet 't niet meer zeker welk merk
Of de kaart ven Marteltor nu blubber is of niet doet niet zo veel terzake. Ander GF2GTS kaarten zijn zeker de helft goedkoper dan de GF3.
De kaart moet eerst maar eens bewijzen of hij werkelijk veel beter is.
Gewoon en kwestie van wachten dus op goede software e.d. voor de GF3.
De kans is dan ook groot dat de prijs voor deze kaart een beetje dragelijker is geworden. :> :7
De geforce3 is een goede kaart.
Ik denk dat de programmeerbare T&L unit, goede FSAA ondersteuning dit een zeer goede kaart maken, met functies waar zeker in de toekomst veel gebruik van zal worden gemaakt.
Ik vind alleen dat de gewone real worldperformance van vandaag de dag weinig is toegenomen t.o.v de Geforce 2 Ultra.
Weet iemand al wat info over de nv17??(budgetversie van de Geforce3 voor de beginnende tweakers)
Ik hoop dat ie 128 bit DDR ondersteuning krijgt met geheugen. Zal dan wel door nvidia zo worden gemaakt dat het geugen niet te hoog te clocken is anders helpen ze hun eigen geforce 3 uit de markt.
Ik denk dat Kyro na deze Kyro2
ik denk dat je nu nog niet veel aan een G-force 3 zal hebben ik heb zelf een G-Force 1 en ik draai alles nog prima ...

gewoon w88 tot dat de kaart betaalbaar gaat worden en dan kijken we wel verder :)
ik denk dat je nu nog niet veel aan een G-force 3 zal hebben ik heb zelf een G-Force 1 en ik draai alles nog prima ...
Dat moet je niet zeggen..

Ik heb een Iiyama 22", en op 1600x1200 is de geforce3 eigenlijk wel wat waard! want daar haald hij onwijs veel winst op de andere kaarten! Kep nu een GF1 (v6800) die draait alleen op 1024x768 lekker daarboven niet meer. En das toch zonden op een scherm wat 2048 x 1536 @ 75Hz aankan (2x zo hoog)

Je heb er dus degelijk wel "iets" aan. Maar ik denk niet dat het de standaard videokaart om te kopen wordt anytime soon, nee. Als ik geen 22" had zou ik er niet naar om kijken en voor een GTS gaan.
Ik heb een Iiyama 22", en op 1600x1200 is de geforce3 eigenlijk wel wat waard!
dat vraag ik me dus af, ik weet niet precies hoe het zit, maar ik geloof niet dat de 2d kwaliteit nou ineens geweldig is en dat heb je wel nodig op een 22" in een 2d omgeving...
* 786562 Ritch
Je gaat voor je 2D omgeving dan toch ook geen onwijs dure 3D kaart kopen?

Lijkt me dat alle "een beetje recente" kaarten 2D prima afhandelen..

* 786562 pistole
De GF is gewoon goed op 2d gebied? waarom doet iedereen alsof de GF alleen 3d kan? nee.. hij kan op 2d ook gewoon goed mee komen, hij is daar alleen geen kop loper in. Dat Matrox op 2d beter is vind ik fijn voor Matrox, maar 1600x1200 gamen op de G400Max kan je dus wel vergeten, (en de eerst komende resoluties daaronder ook). Het ligt er dus aan wat voor jou het zwaarste weegt 2d of 3d. En sinds GF een GAME kaart is. Vind ik niet dat mensen moeten blijven ZEIKEN over dat 2d brak is wat dat is niet zo. Misschien wat minder als andere.. achja.. dat interesseert mij niet. 2d kan ik nog perfect internetten, office applicaties draaien & Acad tekenen. No problem! (ik zie het verschil niet eens)

:)

edit:
Hoezo troll?
Wat voor fps wil je dan ik haal tussen de 30 en 60FPS in 1600x1200x32 met een ati64 vivo oem wel met een 1200TB
mijn Geforce mx speel ik in 800x600x16 met dual 400Mhz cellie
ik sla meestal wat generaties over.....ben van voodoo2 naar geforce 2 gegaan....en bevalt me momenteel prima, dus ik zal wel weer wat generaties overslaan :D
...is wel leuk om het allemaal te volgen :)
Dit ding is ZEKER wel revolutionair.. hij heeft een ->programmeerbare<- pixel pipeline.. denk aan dingen als realtime fur, en nog veel meer dingen die je ogen versteld zullen doen staan
maar inderdaad....niet zo revolutionair als de voodoo1
Ik denk van wel, hij heeft namelijk allerlei super deluxe nieuwe dingen, zoals programmeerbare texel-shaders, T&L units etc.
Waarom nog snellere kaart? GeForce GTS doet het toch nog goed?
Da's waar, en tegen de tijd dat er games komen zoals Unreal 2 en DOOM III, komt de Geforce4 (of een Geforce3 ultra :?) al weer uit, waardoor de Geforce3 in prijs daalt, net zoals nu met de Geforce2 gebeurd.

Als ik nu een nieuwe videokaart zou moeten hebben zou ik voor de Radeon ViVo gaan, veel fps'en en goede 2D kwaliteit.
niks nieuws dus eigenlijk
naja, zoals elke kaart eigenlijk he? beter/sneller/mooier.....maar inderdaad....niet zo revolutionair als de voodoo1 :)

Wat kan-ie...tja, mooie snelle FSAA ..kunnen we nu ook, alleen minder snel.... nu pas een kaart die wat FSAA betreft beter is dan voodoo5 en dan voor zo'n prijs? ....pfoei....


enne...leuk maar duur....

* 786562 samor

is de koffie nu eindelijk op? ;)
Ik had anders gehoord dat de kwaliteit van (Quincunx)FSAA van de Geforce 3 bijna de FSAA 4x setting van de voodoo 5 evenaarde. Dus niet beter... maar wel sneller of course...
Voodoo1 was toen revolutionair nu alleen maar antiek

V5 heeft mooie FSAA maar maakt het wel traag

Dan heb ik toch liever die revolutionaire G3 hij is dan wel duur maar dat was die Voodoo 1 toen ook en 3D only

* 786562 SG
De link naar het orginele artikel (is vergeten).

http://firingsquad.gamers.com/hardware/gf3q3/
EDIT: Ik zie dat het bij "BRON" staat. maar in de tekst zelf erbij vond ik altijd wel makkelijk.
Hij staat bovenaan achter de dubbele punt en het woordje bron:
hmm als ik zo die bedragen zie kies ik toch liever voor de Ati Radeon :) Heeft vergelijkbare resultaten een beter effect op je portemonnee (lees: minder duur) :P
had ik ook toen ik net een leuke first post bedacht had. Ach ja het was geen inzichtvolle bijdrage.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True