Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties
Bron: Riva Station

Bij Riva Station is een zeven pagina's tellende review te vinden van MSI's StarForce 822 videokaart. De StarForce is voorzien van de GeForce3 chipset en in de review zijn uitgebreide benchmarks te vinden die de performance van de GeForce3 met die van de GeForce2 Ultra vergelijken. Helaas is de test-opstelling niet ideaal, het gebruikte systeem was een Pentium III 866MHz en beide kaarten gebruikten verschillende drivers (10.60 (hij wil ze niet lekken ) voor de GeForce3 en 6.50 voor de Ultra). De tekst is in het Duits maar dat mag de pret van de benchmarks en screenshots niet drukken. Naast benchmarks in 3DMark 2000, GLMark, Quake3 en Evolva wordt uiteraard ook naar de verschillende FSAA modi gekeken.

De conclusie is duidelijk; de oudere GeForce2 Ultra is minstens even goed, zo niet beter, geschikt voor het gros van de huidige toepassingen. Pas als er gebruik gemaakt wordt van FSAA, grote hoeveelheden polygonen, hoge resoluties en 32 bit kleur kan de GeForce3 zijn spieren laten zien en moeten alle andere kaarten stof happen:

Ein finales Fazit wage ich derzeit noch nicht zu ziehen. Obwohl alle Tests ohne große Auffälligkeiten durchliefen, bleiben Zweifel an der Marktreife des GeForce 3, denn die 16Bit Schwäche im Vergleich zu GF2 Ultra bei annähernd gleicher Fillrate und Speicherbandbreite deuten auf unfertige Treiber hin. Das Potential ist aber da: GeForce 3 ist am (32Bit) Limit deutlich schneller. Warten wir also auf neue Treiber und auf Marktreife Karten...

Mit den derzeitigen Schwächen wird es NVIDIA trotz der Lichtblicke jedenfalls schwer haben die sündhaft teuren Karten an den Mann zu bringen und die Gamer zu überzeugen. Vielleicht hätte NVIDIA mit der Vorstellung des Chips noch etwas warten sollen. Dem entgegen stehen Meldungen das erste GeForce 3 Karten in Japan bereits im Handel zu finden seinen...
GeForce3 benchmarks

Het wachten is nog altijd op officieel door nVidia goedgekeurde reviews. De reden waarom alle grote sites nog geen benchmarks hebben is omdat nVidia de drivers nog niet in staat acht om de werkelijke kracht van de nieuwe chipset te laten zien. Hints van insiders lijken erop te wijzen dat er nog een flinke verrassing aankomt, maar het valt te betwijfelen of hier iets van waar is.

Update: Riva Station heeft nu ook de naar Engels verstaalde versie online staan.

Moderatie-faq Wijzig weergave

Reacties (29)

Ik denk (vrees) dat het beest in de GF3 pas echt los komt als de spellen HSR (hidden surface removal) gaan ondersteunen, uiteraard zullen de nieuwe drivers van Nvidia voor de GF3 ook hun werk doen maar ik denk (vrees weer ;)) dat dat maar een klein verschil zal zijn met de GF2 Ultra
spellen hoeven HSR niet te ondersteuning. Dat gebeurt door de drivers en hardware.
Kijk naar de village mark benchmark, deze maakt daar optimaal gebruik van, op Evil Kyro kaarten en de GF3 geeft dat een ongeloofelijk hoge score, wel 300% meer als een GF2 ultra volgens mij, dat ligt dus niet alleen aan een drivertje... als het echt goed moet werken zal de engine het ook aan moeten kunnen.
HSR heeft er niet zo veel mee te maken. Het gaat om de effecten die je kunt doen mbv de vertexshaders en de pixelshaders. Die kosten NU (dus in bv D3d7 gebruikende routines) veel meer renderpasses dan op een GF3 waar het bv in 1 pass kan en zelfs met betere kwaliteit.

Wat hier dus in feite gebeurt in dit review is op de oude manier (dus zonder vertex/pixel shaders) de effecten renderen en ja, daar zit niet zoveel verschil in. Dat zie je pas wanneer dezelfde effecten worden gerendered mbv vertex/pixel shaders op de GF3 en de 'oude manier' op de gf2. Dan zul je zien dat die gf3 gehakt maakt van de gf2. Helaas NU nauwelijks zichtbaar in veel games, en daardoor eigenlijk niet zo heel nuttig, maar hetzelfde gold voor T&L bij de geforce256. na een paar maanden verschenen de eerste titels die er gebruik van maakten en nu is het gemeengoed. Q3A gebruikt trouwens al vertexshaders alleen met een eigen systeem. Zo zie je maar dat wanneer die hardware beschikbaar was geweest bij de release van Q3A je wel degelijk de verschillen HAD kunnen zien, mits Carmack natuurlijk een extra routine had gemaakt voor een poort naar de vertexshaders van nvidia. De vraag is er aan de kant van de developers, de hardware is er nu ook, ik denk dat over een tijdje dat wel zn vruchten zal opleveren.

De keuze of je NU 1500 piek voor een gf3 of voor een gf2 moet investeren is niet zo moeilijk: de gf2 is oud, de gf3 heeft de toekomst. als je nu een gf3 koopt heb je er de komende 2 jaar veel aan. koop je nu een gf2 dan zit je over een jaar tandenknarsend te denken "had ik maar..... :)"
HEJ
jongens, een GF2 is toch ook bagger met 5.33 drivers??? SOF loopt dan amper man!
als die drivers geupdate zijn naar het in verhouding niveau 6.50, komt het wel goed hoor echt wel
die chipset is pretty geil
Goed punt!
Ze gebruiken gelekte drivers waarvan al is gezegd dat ze niet af zijn. Tov drivers die (in mijn ogen) het beste presteren. Ook gebruiken ze 3d Mark 2000 die is geoptimaliseerd voor DX7.
Ook hierbij komt kijken dat de nieuwe generatie driver (7.xx en hoger) allemaal bedoeld zijn voor DX8.

Ook zeggen ze dat de GF3 pas lekker gaat presteren als FSAA aan gaat. Dat lijkt me alleen al een reden. Voor zover ik het weet hoef je voor FSAA geen speciale software te hebben en zijn de effecten er leuk.
De GeForce 3 kan dan misschien qua standaard features niet beter presteren dan de huidige generatie (GF2) kaarten, maar we moeten wel rekening ermee houden dat het een kaart voor de toekomst is.
De GF3 heeft zoveel nieuwe features, dat het nog een tijdje duurt voordat de programmeurs hier gebruik van maken. En zoals de reviewer al zei, zullen dan de andere kaarten achter gaan blijven.
De GF3 is dus ontworpen met de toekomst in de gedachte en dat vind ik prima. Wat is alleen wel tegenwoordig jammer vind is dat de hardware de software bepaald en nog andersom. Dat is een tijdje anders geweest, zodat men continue met nieuwe hardware moest komen om de software bij te kunnen benen. Tegenwoordig lijkt het net andersom. Da's natuurlijk mooi voor iedereen die niet continue wil upgrade, maar ik heb het idee dat toen de software dus alles nog bepaalde, dat toen de ontwikkeling van de hardware sneller ging... maar ja.
DirectX 8 (software) heeft er anders wel voor gezorgd dat deze hardware er gekomen is. Tevens zal dit zorgen voor een versnelling in de ondersteuning van de GeForce3. In DirectX kan een programmeur prima vaststellen wat een kaart wel of niet ondersteund en aan de hand hiervan effecten in of uitschakelen of soms desnoods door het door de software emulatie(erg traag) in DirectX af te laten handelen.

offtopic:
Offtopic? Wie modereert hier toch zo krom
Ik ben het totaal met je eens. Vroeger moest je nog opletten of een spel VGA of hercules, etc.. ondersteunde. Ik ben wel blij dat de hardware sneller gaat en hiermee de software bepaald. Want zeg eens eerlijk wat is duurder om te upgraden? Harware of software??
Voor de toekomst????

Tegen de tijd dat alles ondersteund gaat worden wat men nu weer verzonnen heeft zitten we al bij de geforce 5 en is deze kaart alweer "veel te langzaam" en is het een low cost kaartje geworden.

Sorry mensen maar ik zit er toch hevig aan te denken om voor een Radeon of KyroII te kiezen.

KyroII: Minder toeters en bellen maar een zeer interessante techniek

Radeon: Heeft alle toeters en bellen in is een stuk goedkoper dan de geforce 3. ok minder snel maar tegen de tijd dat spellen te langzaam worden is de geforce 3 dat ook.
FPS benchmarks tussen de ultra en de de GeForce 3 zoals de grafiek hierboven zijn niet erg zinvol 51FPS is het laagste en dit is prima speelbaar. Het gaat mij er meer om of de 3D kwaliteit beter wordt of FSAA speelbaar is etc. En dat is juist waar de GeForce3 veel sterker in is en hopelijk nog veel meer moet worden met nieuwe games. Hopelijk is ie in November op de HCC een beetje betaalbaar want dan is het weer tijd voor een PC upgrade :)
Hardwareinfo.net heeft een preview van de GeForce3 chipset. Hierin worden deze nieuwe functies besproken. Interessant leesvoer en uiteraard nederlandstalig :):

http://www.hardwareinfo.net/reviews.php?id=128
Ben benieuwd of deze gf3 echt nog aanzienlijk beter gaat presteren...
uhm wacht maar tot er games komen die gebruik maken van die programeerbare vertex engine en pixel shader...daarmee behoren de huidige lijsten met features tot het verleden omdat je nu oneindig(infinite) veel effecten(fx) kunt creeren. vooral dat vlak me bumpmapping en een spiegelend oppervlak ziet er erg mooi uit en is nog NOOIT vertoont in een game, slechts in 3dmax etc.

edit:
waarom is de test opstelling niet ideaal?
omdat beide kaarten verschillende drivers gebruikten terwijl ze beiden met 10.60 om kunnen gaan.
Er wordt hier 1 ding vergeten, de GeForce 2 Ultra is ook gemaakt om heel snel te zijn maar op productiekosten is absoluut niet gelet, de GeForce 3 wordt echt niet duurder dan 1400-1500 piek van de GF2, als hij veel wordt geproduceert gaat die GF2 Ultra vanzelf dood.. Vraag me af of GF2 ultra allicht slimme zet was want nu komen ze zichzelf tegen, als ze op die GF3 ook het duurst mogelijke geheugen ed. zetten wordt hij in begin meer dan 2000 piek maar wel weer veel sneller dan GF3.. ze kunnen niet de prijzen STEEDS hoger laten komen..
Ik krijg hier een beetje hetzelfde gevoel als bij de Pentium IV. Langzamer dan zijn voorgangers bij de (ver)ouder(d)e toepassingen, maar verschrikkelijk retesnel bij de nieuwe ... mjammie :9
De vraag is altijd weer bij dit soort vernieuwingen, hoe lang gaat zoiets mee voordat het weer (te) outdated wordt en dan ook : Moeten we tevreden zijn met een Geforce II MX of toch maar weer die 1000+ gulden neerleggen voor een onderdeel (hoe snel hij dan ook wel of niet is!) ? Zelf heb ik nog een Viper 550 dus voor mij is de keuze wel duidelijk :) maar voor iemand met een MX kaart, die zal toch wel een bewuste keuze moeten maken en zich dan ook toeleggen op de nieuwste games of applicaties die gebruik maken van de nieuwe technieken.
De kaart is veel belovend enzo eigenlijk meer GeForce2 kunnen heten omdat deze kaart echt vernieuwede technologieeen bied, de VERTEX SHADER die meer een VERTEX PROCESSOR zou moeten heten, omdat je individuele 128 instructions in kan laden in de kaart, naas de nFiniteFX engine waar ongeveer het zelfde mee kan worden gedaan. Daarmee word het mogelijk om erg veel nieuwe effecten te designen en hoeft er niet uit een effecten pallet gekozen te worden.. waardoor individuele games er écht anders uit gaan zien! T'is dus een oplossing en niet zo zeer een uitbreiding van! Dat maakt deze kaart zo goed, de effecten zijn slechts gelimiteerd tot de fantasie van de programmeur, en 128 instructies.. Waar voorheen iedereen uit de zelfde fog of blur moet kiezen kunnen nu compleet eigen effecten worden gebouwd. De 128 instructies worden er vast veel meer in de toekomst, als programmeurs nou ook geForce effecten gaan sharen word et helemaal leuk.. ''k kan niet wachten tot ik zo'n snoeppie in me kassie zet!!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True