Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: [H]ardOCP

Bij HardOCP is een artikel neergeplant waarin wordt onderzocht hoe de GeForce3 het doet ten opzichte van zijn broertje, de GeForce2 Ultra. Om te onderzoeken hoe de kaarten ten opzichte van elkaar presteren werden 3DMark 2001, Aquanox en Dronez uit de kast getrokken. Twee DirectX benchmarks en ťťn OpenGl benchmark die de mogelijkheden van de GeForce3 aardig kunnen benutten.

Zoals te verwachten is doet de Geforce3 het flink beter dan de GeForce2 Ultra in deze nieuwe generatie spellen/benchmarks. In 3DMark 2001 en Auqanox zijn de verschillen tussen de beide kaarten enkele tientallen procenten. In Dronez wordt de kracht van de GeForce3 pas echt duidelijk: 21 tegen 60FPS behoeft weinig toelichting.

Jammer is natuurlijk dat er voorlopig nog geen spellen op de markt komen die gebruik kunnen maken van al het lekkers wat mogelijk is met GeForce3. Dit doet de reviewer dan ook tot de volgende uitspraak komen:

The GeForce3 is the card of the future, today. Man, that sounds really cornball, but it fits perfectly.[break]Nog een paar extra hapjes conclusie :[/break]The GeForce3 chipset is all about eye candy. If you don't want eye candy and more life-like graphics, then buying a GeForce3 should not even be thought about. It will only cause you pain and torment. "Pay my rent, or GeForce3? ARGH!!!!" I think, as you see above, there are many configurations of this particular game that can be handily played with a GeForce2 level card. Now of course you will be sacrificing all the goodies, but you will still be able to play. Will it be a game you would want to play without all of the frills? Who knows for sure, but I have a pretty good idea.

Still, it will be a while till we see a bevy of games on the market that will even come close to utilizing the full potential of the GeForce3. My take on the whole thing is that peak sales of GeForce3 chipset cards will not be realized till we see a DOOM3 box sitting on the retailers shelves. Then I think the GeForce3 will be in high demand. Maybe I am totally wrong on this, but by that time we should see some decreases in the pricing almost for sure and an affordable GeForce3 will certainly warm the heart of the buying public a bit more than the forecasted US$550 (give or take) pricing level we have seen. For those of you screaming that the price is an outrage, I also remember that it was not too long ago that I had a $600 set of 12Meg Voodoo 2s in my box. Even though the stair step in the buying process made it seem a little bit saner at the time. But gawd, how I loved them...
Auqanox screenshot
Moderatie-faq Wijzig weergave

Reacties (36)

Als ik jou was zal ik nog ff op de GeForce 4 wachten, die levert nog betere/mooiere prestaties.
Zo kun je toch altijd blijven wachten op iets wat beter is :?
Dit is gewoon bullshit, in 32 bit presteerd ie beter maar in 16 bit is er zowat geen verschil, en hier zie ik toevallig geen 16 bit verglijkingen, met als stoopid exuus dat bijna niemand spellen in 16 bit speelt.. onzin!! |:(
Tsja, er zullen best mensen zijn die in 16 bit spelen,
maar hoeveel geforce2 Ultra/Geforce3 eigenaren zouden dit doen? :?
Ik gebruik vooral 16bit met low resoluties op mijn MX omdat ie het anders niet trekt kwa fps.

maar mijn ATI sysje kan het wel daar gebruik ik dus 32bit bij maximum resolutie
niet omdat ze het zo graag willen ofzo
Dacht dat de bedoeling was om de geforce 3 te benchen met OpenGL & DX8 --> GF3 optimized game engines.
Omdat vele andere reviewers ze al voor zijn gegaan met 16 bit en voorral huidige en ouwere games te benchen waar de GF3 ietsie pietsie beter is.

Dus deze review willen ze aantonen wat de potentie van de G3 is in de near future met DX8 en G3 optimized games.

En die nieuwe eye-candy leunt sterk op 32bit voor goede en mooie beelkwaliteit in 3d, omdat het ook vooral om toekomstige game engin's gaan en die worden vooral voor 32bit gebruik 16bit is een compabiliteit modes voor ouwere langzamere kaarten om het spel nog te kunnen spelen zonder GF3 met voldoende fps.

De GF2 houd de GF3 goed bij in 16bit t.o.v. 32bit maar dat is wel bij ouwere en huidige Games die de GF3 niet ondersteune maar de ouwere T&L of zelfs zonder T&L

maar je vergeet dat deze review speciaal gericht is op de nieuwere games die GF3 ondersteunen dus Met G1 en 2 krijgt je een minder mooi gedetailieerd beeld dan de GF3 (door de Speciale features en die nieuwere T&L met ook nieuwe features)

voor dat ouwere spul verwijzen ze je naar de andere reviews die de huidige stand van zaken benchen en de G3 wat tegenvalt.
sjezus man, kun je nog onduidelijker zijn? Leer eerst eens wat Nederlands voordat je wat post
Als je het niet volgen kan, ben je blijkbaar geen tweaker maar een wijsneus die niks te doen heeft
en blijkbaar niets te doen heeft en dus een tweakende analfabeet lastig valt.

Wordt nederlands leraar ofzo
Dit is gewoon bullshit, in 32 bit presteerd ie beter maar in 16 bit is er zowat geen verschil, en hier zie ik toevallig geen 16 bit verglijkingen, met als stoopid exuus dat bijna niemand spellen in 16 bit speelt.. onzin!!
Ik in ieder geval niet, en ik heb al een redelijk oude videokaart (G1 DDR). En ik denk dat meer mensen alle games in 32-bit spelen, zeker de kleurrijke zoals Quake3 etc.

Verder vind ik het logisch dat de prijzen zo omhoog gaan, nVidia moet toch ergens de ontwikkel kosten vandaan halen en volgens mij zijn de DDR-RAM modules ook niet echt goedkoop voor de kaartenbakkers zoals Asus en Gainward. Alleen nu nog een geldboom vinden, want dit kan niet ff 1200 piek ophoesten :).
Ik ben ook benieuwd hoe deze kaart op 2D gebied presteerd. Ik hoop beter dan de andere Geforces.
aan 2d hebben ze niks gedaan, precies het zelfde als de andere Geforce kaartjes...
Volgens de review op www.avault.com zit het wel goed met de 2D

Quote:
2D Performance and Quality: This is the first Nvidia based card that provides us with high quality 2D images. Resolutions all the way up to 1600x1200 were crisp and clear with vibrant, well saturated colors. The color quality and clarity is right there at the very top of the heap with ATI and Matrox. Speed is not as good as we would have liked, but it was within acceptable ranges.
/Quote

Dit zou als dit waar is een goede stap voor uit zijn op 2D gebied
En tegen de tijd dat hier spellen voor zijn is de Geforce 4 al uit. :o
Daar zit een jaar tussen. Eerst wordt de mx versie van de GF3 uitgebracht een half jaar nadat deze kwam. Dan duurt het weer een half jaar voor de GF4 er zal zijn. Correct me if i'm wrong maar zo was de planning van nVidia toch? Om het half jaar een nieuwe uitbrengen ?
Waarschijnlijk zal de GF2 nu een stuk goedkoper worden en daar ken je ook nog wel 1,5 jaar mee vooruit die kaart is zo achterlijk snel. Zelf heb ik een GF en die doet het ook nog perfect
Ze worden niet goedkoper, ze gaan er straks gewoon uit. Die (nieuwe) MX'en moeten dat opvangen. Ze kunnen die kaarten maar tot op zekere hoogte (laagte?) goedkoper maken in verband met de productie kosten. Of dat al-dan niet een smoes is is de vraag maar je kan er donder op zeggen dat ze eruit gaan bij nVidea voordat ze ECHT goedkoop worden..
komt wel goed met die GF3. Kaartjes beginnen al wat goedkoper te worden, elsac zit nu maar net iets boven de prijs van de ultra....
Waar ik alleen bang voor ben is dat de kaarten (lees cpu's) elkaar steeds sneller op gaan volgen en ook steeds onbetaalbaarder worden.
Ben nog steeds niet van plan om (veel) meer dan 1000 pieken uit te geven voor m'n kaart en zie de kaarten 'overall' steeds duurder worden :(
Dat is niet helemaal waar. Zoals de reviewer ook al terecht opmerkte in zijn artikel: I remember paying $600 for my 12MB voodoo2 card.

Daar heb je het dus. Vroeger waren ze ook al zo duur, maar toen wist je het waarschijnlijk niet. Pas toen ze betaalbaar werden en doordrongen op de 'echte' consumenten markt hoorde jij ervan. En toen waren ze al gezakt tot 500/400 gulden. :)
yup klopt. Bv 500,- voor een Voodoo1 kaart. En dan moest je nog een 2D kaart er naast hebben (Matrox mill 2 was toen ook 400,-)
En wil je in een iets wat hogere resolutie spelen dan moest je twee maal V2 en een losse 2d kaart hebbe aangezien er toen ook gamers waren met 17"monitor.
Woei ... leuk kaartje! Nu nog hopen dat er een beetje games voor uit komen :-)
Maar ja ... zelfde verhaal als met P4 dus ... die loopt ook wat voor }>
De P4 loopt wat voor ? Kwa prestaties of kwa prijs :)
P4 loopt voor kwa prijs. knap logisch. maar ook kwa prestaties. er is nog geen (niet veel) goeie software die de P4 CPU + RAMbandwith optimaal benut dus tsja eigenlijk op beide punten...
Je bedoelt dat er geen goede applicaties zijn die de instructie set waarover de p4 beschikt benut..
Als de p4 en Geforce 3 voorlopen, dan loopt mijn portomonee achter }>
In principe hadden we dit allemaal wel verwacht , maar dat het zo erg was met die nieuwe specs van de gf3.... :(
(ik heb zelf een gf2 Ultra)... :'(
Maarja de prijs van zo'n kaart is de eerste maanden toch nog veel te hoog voor de meeste tweakers.
Ik hoop dat wanneer er een beetje spellen voor de gf3 uitkomen de prijs al een stuk is gezakt.
Ik ben benieuwd of die goed gaat verkopen, want hij is lekker aan de prijs. Het wordt ook weer eens tijd voor nieuwe opvolgers van Half-Life en Quake, want de games lopen flink achter op de hardware. :'(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True