Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: Planet Quake

Reptile schrijft dat meneer Carmack een interessante .plan update online heeft gezet over de GeForce3. Om het heel kort samen te vatten: de GeForce3 is fantastisch, vergelijkbaar met de Voodoo 2 toen die uitkwam. Carmack is erg blij met het feit dat de interne precisie flink omhoog is gegooid, er een goede ondersteuning aanwezig is voor 3D textures (beter dan bij de Radeon) en de vertex programs zijn helemaal leuk aldus Carmack. Verder is de kaart fijn snel, en zijn de drivers al prima in orde. Helemaal perfect is de kaart echter niet. De consument heeft in het begin weinig aan alle leuke features die mogelijk zijn met deze kaart en voor de programmeur zijn er toch nog een paar dingen die te gelimiteerd zijn:

nVidia GeForce3 chip (klein)Here is a dump on the GeForce 3 that I have been seriously working with for a few weeks now. The short answer is that the GeForce 3 is fantastic. I haven't had such an impression of raising the performance bar since the Voodoo 2 came out, and there are a ton of new features for programmers to play with.

Graphics programmers should run out and get one at the earliest possible time. For consumers, it will be a tougher call. There aren't any applications our right now that take proper advantage of it, but you should still be quite a bit faster at everything than GF2, especially with anti-aliasing. Balance that against whatever the price turns out to be.

While the Radeon is a good effort in many ways, it has enough shortfalls that I still generally call the GeForce 2 ultra the best card you can buy right now, so Nvidia is basically dethroning their own product.

[...] Now we come to the pixel shaders, where I have the most serious issues. I can just ignore this most of the time, but the way the pixel shader functionality turned out is painfully limited, and not what it should have been.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (57)

hij wordt al vergeleken met de voodoo2 toen die uit kwam. dat belooft dus heel wat als john dit zegt. maar toen der tijd was een voodoo ook te dure overschakeling en werd alleen door de echte freaks gekocht. omdat deze prijs weer zo hoog ligt (in verhouding tot de rest) zal de verkoop voorlopig laag zijn en alleen voor de die-hards. maar goed je hebt wel een goed eind product
Maar was de V2 niet gewoon een snellere V1 met meer geheugen (dus hogere resoluties mogelijk)? Volgens mij had de V2 niet echt spectaculaire nieuwe functies.
de v2 had ook 2 tmu's ipv 1,
(toen) tamelijk spectaculaire nieuwe functie: 2 texture layers renderen in één pass.

het ding was ruim 2x sneller dan de v1
Het is wel mooi dat één van werelds grootste developers van topgames (ons aller John) zegt dat dit een nieuwe mijlpaal is in de videokaarten geschiedenis. Nu is het maar hopen dat alle game-developers dit overnemen en enthousiast zijn over de nieuwe features. Zodat fabrikanten van andere videokaarten een dergelijk systeem op de markt zullen moeten brengen om de concurrentie (nVidia) bij te benen. Want anders zullen we binnenkort héél veel verschillende chips zien, met elk unieke functies, en een spel zal nooit alle functies ondersteunen dus ondersteund het alleen de functies van bv. nVidia, en een ander spel alleen die van ATi, enz.
. Nu is het maar hopen dat alle game-developers dit overnemen en enthousiast zijn over de nieuwe features.
Het is zowiezo een vooruitgang! Ze mogen niet teveel in 1 keer verbeteren, want dan zijn de kaarten niet meer te betalen.
Dit had 3DFX toen toch ook met hun Glide spellen? En ook met quake toendertijd.. Geschiedenis blijft zich gewoon telkens herhalen..
Daarom is Microsoft in DirectX8 voor gaan lopen op de hardware wat betreft geimplementeerde functies als de markt dat oppakt zoals de Geforce 3 doet (met programeerbare shaders) krijgen alle kaarten dezelfde opties via 1 manier van programeren en kunnen we daar dus als consument en programmeurs van profiteren.
En weer wordt er niks gezegd over de beeldkwaliteit :(, alleen maar over de snelheid, nieuwe features enz......
leuk voor over een poos wanneer de nieuwe features in de spellen zitten geprogrammeerd.
Op dit moment maakt het voor de gamers niks uit omdat de grafische kaarten die je op dit moment in de kunt krijgen (de geforce series, radeon enz..) snel genoeg zijn voor zo'n beetje elk spel dat er is.
Mjah jij zegt dat et snel genoeg is.. ik vind dat dus niet... en ookal is die beeldkwaliteit gewoon hetzelfde als wat ik nu zie dan kan het me eigenlijk niet echt veel schelen, want ik lees toch alles prima op 1600x1200 85Hz...
Je hebt altijd een groep die dat belangrijk vind. Ik vind het gelukkig iets minder belangrijk waardoor ik gewoon hardstikke blij zal zijn met de Geforce 3 :)
En wat noem jij snel genoeg?

Alleen een Geforce2 Ultra kan 1600x1200x32 fatsoenlijk draaien, en over FSAA etc zullen we het maar niet hebben...
HEthoeft natuurlijk niet dat alles appart geschreven word, ze hebben wel een eigen manier van werken, maar het eindresultaat is vaak het zelfde. Kijk naar het T&L gebeuren, Radeon en Geforce gebruiken een verschillende manier van berekenen en uitvoeren, maar het resultaat is nagenoeg het zelfde, net als EBM op de Matrox en de Radeon. Dus het zal zo'n vaart niet lopen met verschillende dingen.
komt nog eens bij dat de producenten niet onafhankelijk zijn van software, er moeten toch echt allerlij dingen geimplementeerd worden in DX en OpenGL, dus zijn ze wel genoodzaakt een zelfde implementatie te gebruiken? Ze gaan geen kaart uitbrengen waarvan ze niet zeker weten dat de functies ooit benut zullen worden, ik zeg ooit, want alle functies die de Radeon al sinds Juli vorig jaar rijk is zijn nog amper tot uiting gekomen, die 2 texture komt nog amper voor, waarschijnlijk pas als de nieuwe spellen zoals Halo en Doom 3 en serious sam komen, en dat zal dan ongeveer een jaar na het invoeren van de techniek zijn. aangezien ATi en nVidia nu een beetje gelijk komen kwa features/mogelijkheden zijn er wel meer videokaarten die het ondersteunen, en zal het dus ook sneller geaccepteerd worden bij het schrijven van spellen.

Einde van het verhaal is dat we weer een tijd tegemoet gaan waarin videokaarten ongeveer de zelfde funties hebben met de zelfde snelheid, en het eigenlijk een prijsverhaal word, althans dat is te hopen... want als ATi zich aan de prijsbelofte houd (rond de 1000 voor Radeon II) en die verschijnt in massa rond Juli dan heeft nVidia toch een probleem met zijn 1500 gulden+200 import/omrekenfactor
en die prijzen zie ik niet zo een twee drie 500 gulden verlaagd worden. Kyro er nog bij en dan zijn we wer gelukkig, ATi heeft ook het een en ander op de mauw, met de technieken die we gaan zien van hun kaartje in de GameCube van Nintendo, minstens zo indrukwekkend als die van nVidia, was een goede aankoop van ze dat bedrijf waar ik de naam ff van kwijt ben.
Over de prijs... ik hoor altijd iedereen klagen over de prijs van de snelste videokaarten.
Tegenwoordig is een snelle videokaart minstens zo belangrijk als een snelle CPU. Hand in hand zorgen ze voor een fantastisch beeld.

Ik zie hier ook mensen die terugkijken naar de voodoo2 kaart. Fantastisch apparaat... maar wat kostte toen een Voodoo2 SLI oplossing 2x12MB? Volgens mij zo'n 1400 piek... Maar dan had je wel iets echt FANTASTISCH!

Nu schijnt het (ik denk dat het ook veel marketingpraat is van John en van Nvidia, die hebben elkaar immers nodig) dat de Geforce3 een echt fantastisch nieuw product is. Als dat zo is, vind ik het niet raar als het erg veel geld moet kosten. Business = Business. Mensen die er niet zoveel geld aan willen geven, kopen dan toch gewoon een MX-kaartje? Die is bijzonder acceptabel en kost maar 1/4 - 1/5 van een Geforce3...
En John kan het weten. Die speelt niet alleen Quake, maar maakt het ook nog eens :-)
Check www.gamespot.com

Daar is movie te zien van presentatie en movie van doom III
Alleen die movie is wel erg onduidelijk
iets te veel shading misschien?
naar mijn weten is dat een truukje om eventuele "bugjes" te verstoppen.
maar dat kan ook speculatie zijn.
pixel shading heeft daar echt helemaal nix mee te maken
't is om gave effecten per pixel te doen
zoals per pixel reflecties
edit:
Movie doet et al.. Heb em maar ff op 56k gezet, we zijn namelijk niet allemaal gezegend met een kabelverbinding.. ;(


Jammer dat de GF3 zo duur is. Maar ja, als hij net zo revolutionair is als de V2 destijds is het misschien relatief gezien wel de goede prijs. Je kunt dus zien dat de prijs van videokaarten de afgelopen jaren flink zijn gestegen in relatief opzicht, je betaald nl. nu veel meer voor een goede videokaart dan laten we zeggen 2 jaar geleden. En dat is wel weer een grotere aanslag op je portemonnee... :Y)
Dat is toch eigenlijke een zeer korte tijd dat de geforce 3 de geforce 2 opvolgt. Was daar soms iets mis mee?
ter info, nvidia heeft de policy om ieder 6 maanden een nieuwe chip uit te brengen.
en dat lukt ze tot nu toe erg goed :)
Kort? De GeForce2 was er al in april 2000, de GeForce3 had eind vorig jaar al uit moeten komen
Ten eerste is dit geen "review"van de GeForce 3. Dit is gewoon de persoonlijke mening van een professionele gast die games ontwikkeld en dat graag met zijn publiek wilt delen.

Ten tweede wordt hij inderdaad gesponsord door nVidia. En door Ati en door Matrox en door (vroeger) 3Dfx en door iedere andere serieuze 3D chip ontwikkelaar.

Carmack heeft namelijk de neiging om eerlijk te zijn over hetgeen hij gebruikt. Als hij iets goed vind zegt hij het en als ie het slecht vind zegt hij het ook!

nVidia stuurt hem wat graag een pre release versie van een nieuwe videokaart op, omdat die gast ECHT weet waar hij over praat, hij kan ook nog eens verbeter punten aanwijzen en info geven over waaron die wijzigingen plaats moeten vinden.
Tuurlijk, een van s'werelds beste 3D engine developers heeft een mening en nu wordt dat weer afgedaan als 'sponsoring'...
Misschien was het een wat overhaaste blik op het geheel, echter huiver ik altijd bij dit soort enthousiaste reacties, heb er al eerder dingen door gekocht die mij in het geheel niet bevallen waar "de kenners" het een fantastisch goed product vinden.

Aan de andere kant moet je voor een GeForce3 ook wel flink wat geld neertellen.... blijkbaar is dit niet voor niks.
de GeForce3 is gewoon de nieuwste 3d-kaart, met weer een aantal nieuwe mogelijkheden..

't lijkt me niet vreemd dat je als 3d-programmeur/ontwerper, ook enthausiast bent over zoiets..

en of het dan een goed produckt is voor consumenten, of dat het de prijs rechtvaardigd, daar wordt helemaal nix over gezegd, alleen dat ie mooie plaatjes kan maken. (en als je naar het filmpje kijkt ziet het er idd goed uit!)
Hmm, ik wil benchmarks zien!
En de prijzen staan ook nergens..
$ 600.- as optie op iederePowerMac G4 Notebook.
dacht toch niet op de powerbook ;) Die zal het voorlopig moeten doen met een ATi rage mobility chipje.
Da's niet de demo :( da's het filmpje dat in de post hierboven ook al wordt genoemd...
Een filmpje is ook een Demo(nstration), maar alleen geen speelbare demo ;)
Het spel is gewoon nog niet af....
wat ik mij afvraag is hoe groot die zip wel niet is..
zit nu al tijden te downloaden..

btw de link is :
ftp://ftp.zdnet.com/gs/action/doom3/doom3_pc_1_wm.z ip

en hij is zo'n 24 mb groot..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True