Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

De eerste previews van de GeForce3 chip zijn vandaag eindelijk verschenen. Waarschijnlijk zullen een flink aantal sites vandaag of morgen een mooi verhaal online zetten over het nieuwste speeltje van nVidia wat uit 57 miljoen transistors bestaat en 500 ~ 600 dollar gaat kosten. De belangrijkste nieuwigheid is, zoals gebruikelijk niet de snelheid, maar de features:

* Vertex Shaders
Het meest revolutionaire aan de kaart zijn de zogenaamde vertex shaders die de programmeur de mogelijkheid bieden om een bijna oneindige hoeveelheid effecten te bouwen (de 'nfiniteFX Engine'). Zoals je waarschijnlijk weet bestaat elke 3D scene uit een enorme hoeveelheid vertexen die bepaalde waarden hebben zoals een x, y en z positie, kleur, fog informatie enz. Met behulp van kleine scriptjes kan de programmeur deze naar believen laten veranderen door de kaart. Een oneindige hoeveelheid effecten zijn niet mogelijk, maar met 128 instructies maximaal en 12 SIMD-registers kan heel wat gedaan worden. Denk hierbij aan bijvoorbeeld skeletal annimation.

* Pixel Shaders
Ook leuk zijn de programmerbare pixel shaders, hiermee zijn een aantal effecten mogelijk die nog nooit eerder in realtime door een videokaart gedaan konden worden. Goede dynamische schaduwen, of leuke lichteffecten met breking en weerkaatsing heb je vast nog nooit gezien in een spel.

* Quincunx Anti-Aliasing
Naast het normale anti-aliasing, wat tegenwoordig elke videokaart kan, heeft de GeForce3 ondersteuning voor een nieuwe, efficiëntere vorm van anti-aliasing. Met Quincunx anti-aliassing wordt het gerenderde beeld simpelweg gekopieerd en een eindje verschoven waarna het eerste beeld geantialised wordt door middel van het tweede beeld. Een erg fijne techniek gezien de geringe bandbreedte eisen en nog kleinere fill-rate eisen.

* Lightspeed Memory Architecture
Om de snelheid van de kaart een flink stuk boven die van de GeForce2 Ultra uit te laten komen is er geen sneller geheugen gebruikt, maar een techniek in de core geïntegreerd om effecienter gebruik te maken van het geheugen. Met behulp van 4 aparte 32-bit DDR bussen naar het geheugen wordt er minder bandbreedte verspilt en is er dubbel zoveel aanwezig dan bij de GeForce2 Ultra met één 128-bit DDR bus. Daarnaast is er een soort van Hyper-Z aanwezig en een soort van tile-based rendering .

Al met al erg leuke features waar in ieder geval ome Tom erg van onder de indruk is:

nVidia GeForce3 chip (klein)Could there possibly be a conclusion without any hard benchmark data? Not in case of a high-end 3D-chip. However, I can certainly offer a summary and a personal opinion about GeForce3's technology.

First of all I would like to say that this article is not just incidentally the longest article I have ever written. If you take in consideration that it doesn't even include one benchmark graph, you will get an idea how huge this article really is. The amount of technology provided by NVIDIA's new GeForce3, the Xbox predecessor chip, is simply overwhelming. This processor doesn't 'just' have 57 million transistors. They have actually been USED! If it is the Vertex Shader, the Pixel Shader, the High Resolution Anti Aliasing, the Crossbar Memory Controller or the Z Occlusion Culling, this chip has been STUFFED with high-tech! Let me now take a deep breath and go through the new technologies one by one.

Klik hier voor meer text van Tom. Kies voor meer previews een site uit het onderstaande lijstje :

Moderatie-faq Wijzig weergave

Reacties (46)

Zoals het nu lijkt is de Geforce3 vooral een soort van technology demonstration voor wat de X-Box allemaal moet kunnen. Niet betaalbaar maar meer een soort van incentive voor de spellenmakers om straks ook de specifieke XBox features te ondersteunen.

Bot gezegd is dit een soort van beta test voor de uiteindelijke X-Box chip.
Wat ik me eigenlijk afvraag is waarom die dingen zo f*cking duur zijn! De X-box wordt dacht ik z'n 700-800 piek en da's INCL. Harddisk, cpu, NV20, soundkaart.......Zo'n GF3 kost zo'n 1500 piek......zou het niet mogelijk zijn om dingen uit zo'n x-box te rippen?

Bijvoorbeeld dat een of ander taiwanees bedrijf zo'n GF3 uit x-box ripped en er een kaartje van maakt met SDram (net als nu GF2MX.....) zou stukken goedkoper zijn en je hebt ook nog eens leuke extra HD's ;) .......
De reden waarom de xbox (en alle concoles) zo goedkoop zijn is omdat ze met verlies worden verkocht... En dat verlies wordt dan opgevangen door de verkoop van spellen (spellen voor concoles zijn stukken duurder dan die voor pc's).
Vind jij de PSX2 goedkoop dan?

Reden waarom de PSX2 zo duur in Nederland is komt door het feit dat er ontieglijk veel gekopieerd wordt in Nederland en dat de enige winst die behaald kan worden (percentueel gezien dan) is door het verkopen van de console zelf.

De XBOX gebruikt trouwens als backbone de kaarten van Nvidia, dus de power van GF3 is misschien de power van XBOX en daarom wordt/is ie zo duur IMHO
De NV20 in de Xbox heeft minder geheugen en dat geheugen is ook minder snel... Verder zal hij wel op het Xbox mobo gesoldeerd zitten en een BGA afsolderen gaat helaas niet...
In de X-box komt de NV25, het grote broertje wat nu in ontwikkeling is zeg maar.
Nee, de x-box krijgt de nv2a
een gemodificeerde nv20

het plan om de nv25 te gaan gebruiken is al tijden terug herzien door ms / nvidia

heeft dacht ik ook zeker te maken met de vertraging van de nv20
Omdat hij zo f**king nieuw is. Toen ik bijna 2 jaar geleden een Motorola "schildpadje" mobieltje kocht kostte die nog fl 1200,- piek. Nu krijg je hem al gratis bij een abonnement. Met andere woorden nieuwe produkten zijn altijd duur, en het leuke is je hoeft ze niet te kopen.
Trouwens,

Ook dat 'schildpadje' kostte twee jaar terug echt geen 1200 piek aan productiekosten hoor.
Die werden gewoon met VETTE winst verkocht.

Dat zie je met videokaarten ook. Een GeForce 256, die anderhalf jaar terug nog onbetaalbaar is, vindt je nu in de winkel voor een paar knaken!
De reden volgens Tweak3D.net:

Why would Nvidia ask such a high price for this card? Well you've got to consider a few things. Other than the fact that the price will drop very quickly once it hits the market, the card is priced reasonably well. For one, you're getting the first fully DirectX8 compliant video card, that simply put, rocks. Nvidia explained to us that the profit margin is quite narrow for a new chip. There are several reasons for this, but the primary reason is the .15 micron process.

Since it's a new thing using a .15 micron process for gaming video cards, TSMC (the company that actually makes the chips in a big expensive fabrication plant) charges Nvidia an arm and a leg for the chips.
Vergeet niet dat het gedeeltelijk ook zit in het feit dat Nvidia om het half jaar een nieuwe Chipset, of in iedere geval een ge-update variant uibrengt.

Dat hakt natuurlijk gigantisch in je R&D kosten, aangezien je een produkt ontwikkeld, wat je zelf na een half jaar al weer in een uitfaserings-trajekt plaatst.

De opbrengsten van een Chip zijn dus lager dan als je een productcycle van een jaar zou aanhouden, dus wordt iedere volgende chip automatisch weer een stukkie duurder.

En tja, als de consument het iedere keer maar weer er voor over heeft, zet natuurlijk ook niet aan tot het verlagen van je prijs-segment.
> first fully DirectX8 compliant video card...

Ehh, correct me if i'm wrong, maar volgens mij is de ATi Radeon dat al! En die is toch al een tijdje op de markt.

http://www.ati.com/na/pages/products/pc/radeo n64_ddr /index.html

edit:

Kee, ik las over fully heen. Fruffelwoord :(
Niks beta voor de X-Box chip. Deze chip heeft de ontwikkelingsfase al achter de rug, en NVIDIA is al druk aan het bakken volgens mij...
Ik zie nergens beta staan hoor :+ Er wordt bedoeld dat de game-developers een platform hebben om te ontwikkelen, de x-box krijgt een nv25 wat zoiets is als de geforce 2 in vergelijking tot de 1e geforce.
Tot nu toe ziet het er allemaal heel veelbelovend uit, maar dan krijg je de volgende vragen :

- Wanneer gaan die nieuwe gimmicks gebruikt worden ? (We zijn al weer bij de 3e generatie T&L ondersteunende kaarten, maar de hoeveelheid Games die het supporten komt ook niet boven de 10 uit...)

- Hebben ze nu het 2D gedeelte ook een keertje netjes gemaakt ?

- Is het uberhaupt interessant de eerste generatie van een dusdanig vernieuwende kaart aan te schaffen ? Gezien de features en de support ervoor kun je denk ik beter op de NV25 wachten, zeker als je dan ook nog eens de prijs van dit vette ding in overweging neemt...)

- Hoe performed de kaart met de huidige generaties games ? Al die features worden niet gebruikt. (Afgezien van de opsplitsing van de databussen, iets wat de Matrox G400 al ondersteunde, samen met EMBM. (EMBM is ook bijna geen support voorgekomen, hoewel het hele stoere effecten gaf))

- Ik ben benieuwd naar de benchmarks... !
Wanneer gaan die nieuwe gimmicks gebruikt worden ?
Pas eind dit jaar is dat goed op gang. (en dan is de NV25 er ook alweer)
Hebben ze nu het 2D gedeelte ook een keertje netjes gemaakt?
Is onveranderd gebleven. De fout ligt bij fabrikanten die door het gebruik van slechte filters de prijs laag willen houden.
Is het uberhaupt interessant de eerste generatie van een dusdanig vernieuwende kaart aan te schaffen ? Gezien de features en de support ervoor kun je denk ik beter op de NV25 wachten, zeker als je dan ook nog eens de prijs van dit vette ding in overweging neemt...)
Lijkt me, zeker bij de GeForce3, wel het geval ja.
Hoe performed de kaart met de huidige generaties games?
Niet (veel) sneller dan een GeForce2 Ultra. De GeForce3 is wel een stuk sneller in FSAA (één keer zo snel als het goed is)
één keer zo snel is dus NET zo snel.

(muggenzifter)
Vergeet niet dat er een zelfde chipset in de XBox komt te zitten. En wij als PC games moeten onwijs blij zijn met die Xbox!

Waarom? Ten eerst is het heel makkelijk porten van games van de Xbox naar de pc en vica versa. Games voor de Xbox gemaakt zullen vrij wel zeker alle features van de Geforce3 gaan gebruiken.

Het enige nadeel is dat ie pas in 2002 komt.
Ten eerste moeten we niet blij zijn om de X-BOX!!!

Waarom?? MS heeft gewoon een heleboel in ontwikkeling zijnde spellen opgekocht, die ze dan exclusief voor de X-Box willen uitbrengen (hebben ze zelf gezegd), of met maanden vertraging.

Nou zeg, daar ben ik erg blij om!! :(
Sharky concludeert dit, en moet duidelijk genoeg zijn.
even geduld aub

Do we have some reservations about the GeForce3? Sure. Mainly, NVIDIA has already admitted that DirectX 8 games will start emerging around Christmas 2001. Along the same lines, they've reiterated that every six months will see the announcement of a new product, meaning we can expect NV25 in the fall. Do you really want to spend $499 on a card that will mainly offer faster anti-aliasing until Christmas, when DirectX 8 games hit the shelves? Remember, by that time NV25 will be the rage.
Ik zeg altijd maar zo:

Je leeft nu.

Daarmee wil ik zeggen dat wanneer je wacht op de GeForce 4 ze allang weer bezig zijn met de 5 en dat die ook weer binnen een paar maand op de markt wordt gedumpt. Deze kaart is echt geen miskoop en wanneer je echt niks anders doet dan games spelen een must.

Maar speel je amper games koop dan een kaart die goedkoper is. Bv een leuk gerpijsde GTS, die kan nog heel aardig meekomen en die kun je nu op de kop tikken voor 500 piek. Toch nog altijd 1000 piek goedkoper dan dit monster.

En voor die 1000 piek kun je heel veel andere goodies halen waar je misschien veel meer an hebt.
Hmmm....
Daarmee wil ik zeggen dat wanneer je wacht op de GeForce 4 ze allang weer bezig zijn met de 5 en dat die ook weer binnen een paar maand op de markt wordt gedumpt. Deze kaart is echt geen miskoop en wanneer je echt niks anders doet dan games spelen een must.
Hangt er een beetje vanaf. Als je huidige kaart het nu nog best wel okee doet, kun je nog wel ff een generatie afwachten. Totdat de NV 25 uitkomt bijvoorbeeld. (Of je dan de NV20 of de NV25 koopt, hangt natuurlijk van je budget af... ;) )

Dat stukje over dat het een must is als je alleen Games speelt vind ik een beetje stierepoep.

Dat hangt namelijk volledig van jezelf af.

Voorbeeld : Met mijn secundaire bak (PIII-500@560/256 TNT2-Ultra) trek ik nog prima Quake 3 op 1024X768X16 met genoeg FPS. 32 bit gaat niet vloeiend nee. Is het zoveel mooier, ja... het is mooier, maar zo super nu ook weer niet.

In mijn primaire bak zit een Geforce DDR. Daar kan ik _alles_ op 1024X768X32 spelen. Als ik dat prima vind, hoef ik toch niet deze kaart te kopen ?

Zo'n must is het dus niet.

Tegen de tijd dat de NV25 uitkomt, zie ik wel weer verder.
Dat is het inderdaad ook.

Ik heb zelf ook een 21" thuis staan, en mijn desktop op 1600X1200 (zuigt overigens best wel met een Geforce, maar dat terzijde) en tuurlijk is het mooier als ik al mijn games op 1600X1200X32X4XFSAA zou kunnen draaien.

Maar de vraag is, hoeveel voegt dat toe aan de lol die ik beleef aan een spel ? Ik bedoel, het verschil tussen 640X480 en 800X600 is best groot in beeldkwaliteit. Het verschil tussen 800X600 en 1024X768 is ook zeker aanwezig.

Als je gaat kijken naar het verschil tussen 1024X768 en 1280X1024 is dat best klein. Tuurlijk wel aanwezig, maar niet echt schokkend.

De vraag is of iedereen daar 1500,- voor wil neerleggen voor dat verschil. Ik in ieder geval niet. ;)

Dus als jij kunt leven met de huidige "beperkingen" van de performance van je videoaart, is het geen must. Het zou wel leuker zijn natuurlijk, maar een must ?

Nah.

Je mag mij er wel een geven hoor, zo bedoel ik het niet, maar ik denk dat je wel snapt wat ik bedoel. :P
Mij is altijd verteld dat een echte gamer lekker veel FPSen wil en een 19" heeft.

Je gaat geen 1024 op een 19" draaien lijkt me.

Dus minimaal 1280 en dan 32 bits kleurtjes natuurlijk. Dus is een GeForce 2 GTS 64/Ultra toch wel aan te bevelen.

En daar komt bij Quake 3 al relatief oud is en er games komen/zijn die veel meer eisen van je hardware.

/edit

Tiepfaut
ja, dan kan je overal wel op gaan wachten, en dan kom je natuurlijk noot aan een snellere PC: is het eindelijk kerst 2001 de NV25 is uit, "lat ik nog maar wachten op de NV30, die is een stuk sneller, dat word de rage" |:(
Je kunt idd blijven wachten op iets NOG snellers, maar daar is bij de GF3 helemaal geen sprake van. Als je de reviews leest kun je zien dat de GF2 sneller was dan de GF1, maar de GF3 is niet echt sneller maar heeft meer features dan de GF1/2. Volgens NV komen eind dit jaar pas spellen die echt gebruik gaan maken van deze features, tot die tijd moet je het maar doen met de bench van madonion....

Kortom: als je´m nu koopt betaal je dik voor een GF2 ultra met extra features waar je toch nog niet van kunt genieten omdat ze niet gebruikt worden
Voor de hedendaagse spellen is de GeForce3 inderdaad gewoon GeForce2 Ultra, die echter wel een veel snellere FSAA performance heeft (1024x768x32bpp @ 74fps in Quake III, 4xFSAA kwaliteit). Het heeft weinig zin om nu al 1800 gulden daaraan te besteden lijkt me. Echter, als games dadelijk gebruik maken van de nfiniteFX engine doe ik graag die investering in een GeForce3 (of tegen die tijd de opvolger daarvan).
of leuke licht effecten met breking en weerkaatsing heb je vast nog nooit gezien in een spel
De X-Isle technology demo voor de Geforce 2 heeft hele mooie realtime breking en weerkaatsing van licht... kijk maar eens op www.crytek.com.

Verder inderdaad een heel leuk speeltje, maar veel te duur. Je kunt beter een X-Box kopen dan deze geforce 3 lijkt mij, qua prijs verschilt het niet zo heel veel, maar bij de X-Box krijg je er ook nog een complete console bij ;)
Ja, maar als je een X-box goed wilt gebruiken moet je er ook een HDTV bij. Een x-box met een oude TV met een maximale reso van ongeveer 640x480 is ook niet alles. Dan heb ik toch liever een 22" CRT @ 1600x1200 met FSAA aan :).
Het is inderdaad allemaal heel mooi, die nieuwe opties. En tuurlijk ben ik er een voorstander van, want behalve die FPS willen we natuurlijk iets moois zien !! Maar ik vraag me af hoe lang het gaat duren totdat de games developers het ook gaan gebruiker. Ik heb zelf een Matrox G400 MAX, en dat was de eerste kaart met Enviremental Bumpmapping. En ja, in de DEMO was het allemaal heeel erg mooi, maar ik heb maar een paar games die het gebruiken, en we zijn al zeker 1 jaar verder !!! :'(
We zullen alle leuke effecten voorlopig alleen zien in 3dMark2001 gok ik.

Ook mooi.
Om de snelheid van de kaart een flink stuk boven die van de GeForce2 Ultra uit te laten komen is er geen sneller geheugen gebruikt, maar een techniek in de core geïntegreerd om effecienter gebruik te maken van het geheugen. Met behulp van 4 aparte 64-bit bussen naar het geheugen wordt er minder bandbreedte verspilt en is er dubbel zoveel aanwezig dan bij de GeForce2 Ultra met één 128-bit bus. Daarnaast is er een soort van Hyper-Z aanwezig en een soort van tile-based rendering
betekend dat als er dan nog een keer sneller geheugen op geplaatst word, op bijv. een deluxekaart, dat dat niet zoveel effect meer heeft omdat de bandbreedte zo nuttig gebruikt word, of is het nog niet zo efficient, dat het nog wel zin heeft als je je memory gaat overclocken :9
Mooi techniek hoogstandje. Al met al toch weer veel inventieve dingen van nVidia. Eerst dacht ik de Geforce3 wordt gewoon een opgekrikte Geforce 2. Maar eigenlijk is juist het omgekeerde het geval. De Mhzén zijn niet veel meer geworden het zijn juist de nieuwe trukjes en instructies die hem sneller maken en vooral zijn geheugen beter laat benutten.
Om de snelheid van de kaart een flink stuk boven die van de GeForce2 Ultra uit te laten komen is er geen sneller geheugen gebruikt, maar een techniek in de core geïntegreerd om effecienter gebruik te maken van het geheugen. Met behulp van 4 aparte 64-bit bussen naar het geheugen wordt er minder bandbreedte verspilt en is er dubbel zoveel aanwezig dan bij de GeForce2 Ultra met één 128-bit bus. Daarnaast is er een soort van Hyper-Z aanwezig en een soort van tile-based rendering
zon idee van aparte memory bussen heb ik al een tijdje in mijn hoofd zitten, ik dacht echter eerder aan geheugen blokken, dus dat je bijv 4 geheugen blokken hebt van elk 16mb met elk een eigen bandbreedte echter dna krijg je problemen als je bijv in geheugen blok 1 15.5 mb hebt staan en er een file komt van 0.6mb of groter alleen het idee lijkt me goed ;)
http://gathering.tweakers.net/showtopic/123153/9
hey is het trouwens niet mogelijk om videokaarten met meerdere geuheugen "blokken" te maken. bijv dit:
de kaart heeft 2x 32 mb en elke geheugen "blok" heeft een eigen bandbreedte etc. dan gaat de bandbreedte enorm omhoog, of je kunt een aparte blok voor Z-buffer T&L etc dan heb je dus nog 32/64 mb voor de textures. ik weet niet of het kan hoor maar heb er al vaker aan gedacht, dit moet de GPU dan wel ondersteunen
nvidia komt zeker ook op GOT ;)
van het artikel van anandtech:
The GeForce3 will be available within a matter of weeks, however NVIDIA is caught in a very interesting predicament. There are currently no DirectX 8 titles available that can truly show off the power of the GeForce3. In DirectX 7 titles, the GeForce3 is actually very similar to the GeForce2 Ultra because its programmable nature is not being harnessed in which case it is nothing more than a GeForce2 Ultra. This is actually why NVIDIA is refraining from pushing forward with review samples of the GeForce3, since any review that would be published would generally paint the picture of the GeForce3 being no faster than the GeForce2 Ultra except in regards to FSAA performance.
Dus ome tom zegt dat de geforce 3 sneller wordt, en anand zegt dat ie weer langzaam wordt...

Maar indien de geheugenbandbreedte idd. word verdubbeld dmv. de lma (4*64=256 bit bus) dan zal de geforce3 toch echt de geforce2 ultra alle hoeken van de ring laten zien in hoge resoluties...

* 786562 shevar
Ik heb nog niet alle reviews doorgelezen, maar wie kan me antwoord geven op de volgende vragen?
-moeten de games eerst geoptimaliseerd wordenvoor de bandbreedte besparende technieken, zoals die door Lightspeed architecture worden gedaan?
-is er daadwerkelijk wat aan de texture filtering gedaan, zodat er hogere anisotropische filteringen worden mogelijk gemaakt?

Verder had ik benchmarks verwacht, volgens mij zijn er problemen met drivers?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True