Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: Digit Life

Digit-Life heeft de primeur met een review van de GeForce3, inclusief een hele lading benchmarks. Ze hadden al de beschikking over GF3 kaarten van Asus, Leadtek en Gigabyte, de fabrikanten die als eerste hun hardware in de schappen zullen hebben liggen. Dat deze review, in tegenstelling tot de andere artikels, wél benchmarks heeft komt omdat Digit-Life gewoon de 10.50 beta drivers heeft gebruikt. Het is dus niet ondenkbaar dat de final driver-release, die binnenkort uitkomt, nog voor een verbetering zal zorgen.

De GeForce3 werd vergeleken met een GeForce2 Ultra en een ATi Radeon 64MB. Dit trio werd voornamelijk getest op T&L, bumpmapping, FSAA en standaard Quake III performance. Hieruit bleek dat, ondanks de afwezigheid van GeForce3 geoptimaliseerde software & games, er in bepaalde gevallen toch een aardige snelheidswinst te behalen valt. Zo kwam bijvoorbeeld de T&L unit vaak al een stuk beter tot zijn recht, en bleek uit de VillageMark benchmark dat Hidden Surface Removal goed kan zijn voor een winst van 300%. Quake III laat in 32-bit een winst zien van een kleine 30% maximaal, waardoor zelfs 1600x1200x32bpp speelbaar werd (60fps). Dankzij de hardwarematige 'Quincunx' FSAA techniek bleef de framerate op een zeer acceptabel niveau, met een beeldkwaliteit grenzend aan die van 4xFSAA. Al met al, gezien de omstandigheden, geen verkeerde resultaten.

Samenvattend was men dus erg onder de indruk van de mogelijkheden van de GeForce3. Het blijft toch jammer dat we het op korte termijn er niet uit kunnen halen, maar we er wel een ongekend hoge prijs voor moeten betalen.

At last, we have received a totally balance 3D-accelerator, a video memory bandwidth of which doesn't cut the a half of the GPU potential. Usage of technologies of caching, optimized working with the Z-buffer leads the GeForce3 to a success which at the frequency less than that of the predecessor (and the same pipeline architecture) could perform quite well and left 16-bit color in 3D as a part of history.

New technology of anti-aliasing with the method of multisampling, and especially patented Quincunx mode give users perfect 3D quality without strong performance decrease.

I'm glad to see that many manufacturers are going to produce their cards on the base of the new GPU. In this article we have shown the top ones, as well as some video cards received right from the manufacturers. Soon such cards will hit the streets.

Of course, their price is a downside. These devices are not very popular mainly because of their prices. On the other hand, there is such a concept as a market. It forms prices. The experience shows that if a company starts lifting prices, it will got in bankruptcy (Hercules, 3dfx). A NVIDIA European sales director (Roy Taylor) on the question about a price increase for their products said that they set the price to $50 and were predicted overfull stocks. They sold all the chips. Then they set the price to $75 - the situation was the same. Only when the sales volumes get reduced tremendously, they will think whether it's overprice...
nVidia GeForce3 benchmark

Hopelijk zien we spoedig de eerste échte GeForce3 review, als over een paar dagen de drivers gereed zijn. Thanks Hielko voor het achterlaten van de link!

Moderatie-faq Wijzig weergave

Reacties (52)

Ik begrijp al die komotie niet over die paar fpsjes meer. 160 of 180 ? wat maakt het ook uit. Waar het om gaat is of die kaartje goed draait op de toekomstige spellen. Als ik die details op Macworld zag, Doom3 heb ik het over, dan pas zullen de verschillen tussen een Geforce2 en GF3 veel duidelijker zijn. Carmack zei zelf al dat je alleen profeit hebt van de Geforce3 met nieuwe spellen die al die features ondersteunen. De Geforce3 komt pas echt tot zijn recht als er gebruik wordt gemaakt van Vertex Shaders, Pixel Shaders, Quincunx Anti-Aliasing, Quincunx Anti-Aliasing, Lightspeed Memory Architecture.

Een Snelle Porsche is in een grindbak even snel als een Eend. Maar als je de Porsche een snel wegdek geeft zie je pas het verschil.

Het heeft daarom zeker geen zin om dit ding nu al te kopen. Geen enkel spel maakt er tot nu toe gebruik van. Pas als het gross van de spellen er gebruik van maakt is het zinvol om dit ding te kopen.

* 786562 Erhnam
De volgende specs zijn meteen van toepassing:
-Quincunx Anti-Aliasing
-Lightspeed Memory Architecture
Dit omdat de eerste waarschijnlijk gewoon een driver instelling is en de tweede tja zonder geheugen doet ie niet veel.

De overige vereisen een aanpassingen in het spel en gaan voornamelijk om het toevoegen van meer effecten doordat er meer invloed uitgeoefend kan worden op het T&L gedeelte (Vetex Shaders) en het texture mengen in de rasteriser (Pixel Shaders). Aangezien hiervoor stukken assembly geschreven moeten worden voor de GPU is het nog maar afwachten hoeveel games dit oppakken omdat er nog maar 1 kaart is die dit ondersteund. Wel stoer trouwens 5 processoren in je videokaart (1 Vertex Shader met SSE(SIMD) achtige instructies om in 1 instructie vier 128 bit floating point getallen te bereken), (4 Pixel Shaders ongeveer hetzelfde maar dan met meer combineer functies). Voor het gehele technische verhaal moet je bij Toms Hardware zijn.
Aan de grafiek te zien is er niet eens zo heel veel verschil in prestaties tussen de GeForce 2 ultra en de GeForce3. Alleen vanaf 1280*1024 is er opmerkelijk veel snelheidswinst. Voor de meeste mensen maakt het qua snelheid niet uit en dus alleen de details... :'(
huil, huil !!


De framerate komt niet boven de 130 uit! Traaaanen met tuiten.


Vergeef me mijn sarcasme hoor, maar op een gegeven moment boeit framerate gewoon niet meer. Het verschil tussen 30 en 60 is goed zichtbaar, en aangezien ik het bij monitor refresh rate ook kan zien wil ik ook nog wel geloven dat het verschil tussen 60 en 90 zichtbaar is, maar daarboven maakt het echt geen reet meer uit. De winst van deze chip zit hem in de extra mogelijkheden die je binnen je 60 fps hebt (FSAA, hogere resolutie). Je mag er best anders over denken hoor, maar voor mij geldt dat de framerate me verder volkomen aan mijn reet kan roesten, zodra die boven een comfortabel minimum is.

* 786562 Barend
Maar dat was ook voorspelt. De FSAA snelheid is wel erg goed. Voor de effecten die de nFiniteFX engine kan laten zien moeten we helaas wachten totdat nieuwe games uitkomen. In de meeste previews zijn al pics te zien van de spellen in ontwikkeling.
Ja, maar op deze manier is het dus gewoon hardstikke zonde van je geld om nu een GeForce 3 te kopen. Er is géén snelheidswinst en de grafische details worden pas volledig benut bij nieuwe games.... :(
Yup, I know, snelheidswint is met de huidige games duidelijk niet de moeite waard. Dus: wachten en sparen :).
Hehehe, het is quake3, die GF3 is wel veel sneller, alleen 130 FPS is gewoon de top van een 1Ghz P3, ze hadden dit op een P4 1,5 Ghz moeten testen, dan had je het verschil wel goed gezien....
Als ik zo kijk denk ik dat ie c.a. 1,5 x zo snel is als de GF2 ultra...
Van 77.4 naar 100 is nog altijd 29.2% snelheidswinst. En in 1280*1024 speel ik nu ook m'n spelletjes. Gezien het feit dat de ultra en de GeForce 3 hetzelfde geheugen gebruiken is het zelfs een hele verbetering. Dit zou kunnen betekenen dat als ze een GeForce 3 met 22.6% langzamer geheugen uitrusten hij nog steeds hetzelfde presteerd als een Ultra. Dus dat zou uitkomen op 460-22.6%=356Mhz geheugen. Als ze dit doen hoeft de kaart niet veel duurder te zijn dan m'n asus V7700. Maar goed ze zullen zoals altijd wel eerst de highpaying customers uit willen melken.
Woeha! Dat valt aan de ene kant errug tegen, want je wilt direct verbetering tov je vorige kaart/product. Aan de andere kant is deze kaart erg toegespitst op die speciefieke eigenschappen van nieuwe 3d API's.

Dus: Koop over een half jaar deze kaart en je zit goed ;) Want dan pas zijn er een knap aantal games met die nieuwe features (tenzij je verslaafd bent aan 3Dmark 2001 ;) )
Koop over een half jaar deze kaart en je zit goed
Of niet, want dan staat de Geforce4 alweer op de schappen, en dan voel je je weer genaaid als die nog meer features heeft (die waarschijnlijk weer niet tot zijn recht komen tot een jaar na release)
en dan voel je je weer genaaid als die nog meer features heeft
Waarom?
Ik vind het onzinnig om je "genaaid" te voelen omdat er weer iets is uitgekomen wat "theoretische" beter is, dan kun je het beste ophouden om pc-hardware te kopen...je moet gewoon kijken naar real-life prestaties...dan zie je ook dat de 2d van nvidia met een goede monitor prima is (zelfs vergeleken met de g400)..

maar ja, iedereen focust zich alleen maar op het nieuwste, snelste en duurste en vergeet gemakshalve maar eens dat het allemaal weinig meerwaarde heeft..
Ja, en hoe zou het nou eigenlijk zitten met die 2D van dit ding?
Het is natuurlijk leuk als je 1600x1200 kunt Q3en op hoog detail :9, maar het zou jammer zijn als de lettertjes in Windows rare dingen met je gaan doen op 1600x1200 ;)
Hoe zit het nu met de duurdere Geforce 2's op 1600x1200 + een monitor die dat makkelijk aan kan?
Hoe zit het nu met de duurdere Geforce 2's op 1600x1200 + een monitor die dat makkelijk aan kan?
Prima op mijn GeForce 2 van Asus, 7700.
Draai em standaard op 1600*1200*32 en nog geen lijntje of pixel raar zien doen op 85Hz.
Mijn huisgenoot heeft hier een geforce2 met een 19' en het 2d-beeld ziet er echt perfect strak uit op 1600x1200...(ook vergeleken met een g400)
Wat is er mis met naaien?
Of, als je huidige kaart een TNT is, dan heb je wel performance winst :)
en jahoor daar gaan we weer he.... weer zeiken van:
he geen snelheidswinst???

kijk toch eens naar andere dingen dan allen de mhzjes en snelheid... oftewel verder kijken dan je neus lang is :) NVIDIA brengt echt geen troep op de markt hoor...

hallo?? BEELDKWALITEIT misschien nieuw voor sommige?
ja sorry hoor... de snelheid is al super... sneller is gewoon nutteloos( nu ff dan) NVIDIA heeft de GeForce3 zo ontwikkeld dat die details kan laten zien als de beste en als geen andere kaart op dit moment....
snelheid?tja daar kan je eindeloos over doorzeuren... nu gaat beeldkwaiteit even voor...

als je de GF2 Ultra en GF3 vergelijkt qua beeldkwaliteit merk je echt wel wat verschil hoor... en nogmaals...de snelheid was al goed.. dus waarom zou je sneller gaan als dat niet eens echt noodzakelijk is...

BTW: Dit is gewoon mijn mening, en als je logisch nadenkt is het te begrijpen wat NVIDIA doet.

oja en het duurste is zeker niet altijd het beste hoor....maargoed

triest mannetje hier onder me :) wat denk je nou man... dat NVIDIA zomaar even TROEP op de markt gooit wat totaal(amper0 geen verbetering is ?? dacht het toch ff niet he... dat is niet de STYLE van NVIDIA gast.... in die GF3 zitten zoveel nieuwe technieken dat belooft toch wel veel.....ennuh.....der was vandaag al eerder een artikel met een plaatje van een voetbal spel waar je de graphics kon bekijkuh van de GF3 dus tja ik lul niet uit mijn nek ofzo.
"als je de GF2 Ultra en GF3 vergelijkt qua beeldkwaliteit merk je echt wel wat verschil hoor"

Ow? Heb je 'm al in je pc zitten dan, of ergens op een expo real time meegemaakt? Lijkt me niet. Het valt maar te hopen dat de beeldkwaliteit goed is. (Hoewel het met de (ani-)filtering wel goed zit, ik hoop alleen op een goede 2D en FSAA quality)
Misschien heeft die hem bij http://www.alternate.de gekocht. Die hebben al een gforce 3 in het assortiment.
Ik weet dat het voor sommige mensen die met 1600x1200 aan de maximum resolutie van hun monitor zitten de snelheidswinst niet interresant is. Maar ik wil benchmarks zien van die Geforce3 op 2048x1536. En dan zou een beetje snelheidswinst toch wel fijn zijn!!
Bij Tommie's harware stond ergens op één van zijn plaatjes het volgende:
P4-1.40, Geforce3, Quake3, 160fps
En dat zonder antianliassing natuurlijk ;)

Toch wel een stapje sneller, afgezien van de P4 processor.
Ligt denk ik een beetje erg aan de instellingen/het tweaken van Q3 denk je niet?

Komen die 160 fps van een lagere resolutie ofzo?
P4-1.40, Geforce3, Quake3, 160fps
Dit zegt toch helemaal nix?

Ik haal met m'n GF2 en Duron op 900 ook 160 fps in Q3 op 1024x768 maar dan wel 16 bit met een behoorlijk getweakete config.
Het gaat om 1024*768 op Toms Hardware en er staat een in game framerate bovenin het scherm. Deze kun je niet vergelijken met de score's hierboven want daar gaat het om het afspelen van een hele demo. Als je in het spel naar de vloer kijkt op een plaats waar er niks onder die vloer zit kun je extreem hoge in game FPS halen dus dat zegt helemaal niets voor een vergelijking.
Denk dat ik deze maar koop.


http://gfx.gnw.de/n/17000/17773_1b.jpg

:7

En als ik mijn bankafschrift krijg, dan zuip ik me net zo blauw, als de kleur van deze kaart.
Aah, Elsa, laten we meteen maar de duurste nemen :) Waarom wacht je dan niet ff op de Canopus ? Weet je zeker dat je de beste en ook de duurste te pakken hebt :P
Ja leuke grap eikel :(
Leadtek GeForce3 64MB TV-Out FL 1829,-

Was het maar zo :)
Zoveel betalen voor zij weinig winst...

Ik ben gekke harrie niet....

Pas boven de 1024 heb je echt wat verbetering, maar ik vraag me af of dat zin heeft. In vette actie zoals UT of quake merk je het verschil tussen 1024 en hogere toch bijna niet (ik iig niet) dus wat heb je er aan.

Het wordt natuurlijk pas leuk als er echt geoptimaliseerde software komt...
ik las ergens in een preview [volgens mij van anand] dat dit ding gewoon zijn tijd vooruit is. net als eigenlijk de p4. dit ding word pas echt nuttig als met kerst ofzo de eerste echte dx8 titels uitkomen. dan zal er ook veel meer ondersteuning zijn voor de p4.

ik denk dat ALS je nu zon ding met een p4 koopt je met kerst/nieuwjaar de nieuwe spellen goed kunt spelen. maarja.. dan kun je IMHO beter nu een duron[nee ik ben niet zon AMD zealot, kheb een celly]+gf2 kopen. en een beetje bijsparen.

koop je bij kerst een p4-2+ghz met een gf3-pro of ultra. DAN komen volgens mij beiden een STUK beter tot hun recht.
Dit is de review waar ik op zat te wachten.
Boordevol interresante details, met name de anisotropische filtering tot 32 samples en de nieuw vorm van anti-aliasing is natuurlijk een sprong voorwaards!

Ik krijg echter de indruk dat hsr nog niet (optimaal)actief is, anders waren de verschillen in Q3 groter.
Temeer omdat de site VCnews, de voormalige 3dchipset, de benchmarks in twijfel trekt...
Misschien dat de 10.50 drivers die fuktie amper of slecht ondersteunen, het is even wachten op officiele drivers met benchmarks.

Ik vraag me nog steeds af of de games daar geheel voor herschreven moeten worden, of dat het mogelijk is met een patch deze geschikt te maken met de lightspeed architecture.
Verrassend genoeg komt de Radeon in veel tests goed mee, maar dat kan met de drivers te maken hebben...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True