Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: Stomped

John Carmack heeft in zijn nieuwste .plan update zijn mening gegeven over de videokaarten van nvidia (GeForce 2), ATi (Radeon) en 3dfx (Voodoo5). Kort samengevat komt er uitgerold dat hij een voorkeur heeft voor de GeForce . Hieronder een gedeelte uit zijn verhaal, ik heb er het een en ander uit moeten knippen dus klik hier voor het hele zaakie.

I have gotten a lot of requests for comments on the latest crop of video cards, so here is my initial technical evaluation. We have played with some early versions, but this is a paper evaluation. I am not in a position to judge 2D GDI issues or TV/DVD issues, so this is just 3D commentary.

Nvidia

The DDR GeForce is the reining champ of 3D cards. Of the shipping boards, it is basically better than everyone at every aspect of 3D graphics, and pioneered some features that are going to be very important: signed pixel math, dot product blending, and cubic environment maps.

The GeForce2 is just a speed bumped GeForce with a few tweaks, but that's not a bad thing. Nvidia will have far and away the tightest drivers for quite some time, and that often means more than a lot of new features in the real world.

GeForce is my baseline for current rendering work, so I can wholeheartedly recommend it.

ATI

Marketing silliness: "charisma engine" and "pixel tapestry" are silly names for vertex and pixel processing that are straightforward improvements over existing methods. Sony is probably to blame for starting that.

The Radeon has the best feature set available, with several advantages over GeForce

Depending on the application and algorithm, this can be anywhere from basically no benefit when doing 32 bit blended multi-pass, dual texture rendering to nearly double the performance for 16 bit rendering with compressed textures. In any case, a similarly clocked GeForce(2) should somewhat outperform a Radeon on today's games when fill rate limited. Future games that do a significant number of rendering passes on the entire world may go back in ATI's favor if they can use the third texture unit, but I doubt it will be all that common.

The real issue is how quickly ATI can deliver fully clocked production boards, bring up stable drivers, and wring all the performance out of the hardware. This is a very different beast than the Rage128. I would definitely recommend waiting on some consumer reviews to check for teething problems before upgrading to a Radeon, but if things go well, ATI may give nvidia a serious run for their money this year.

3DFX

Marketing silliness: Implying that a voodoo 5 is of a different class than a voodoo 4 isn't right. Voodoo 4 max / ultra / SLI / dual / quad or something would have been more forthright.

Rasterization feature wise, voodoo4 is just catching up to the original TNT. We finally have 32 bit color and stencil. Yeah.

The real unique feature of the voodoo5 is subpixel jittering during rasterization, which can't reasonably be emulated by other hardware. This does indeed improve the quality of anti-aliasing, although I think 3dfx might be pushing it a bit by saying their 4 sample jittering is as good as 16 sample unjittered.

I haven't been able to honestly recommend a voodoo3 to people for a long time, unless they had a favorite glide game or wanted early linux Xfree 4.0 3D support. Now (well, soon), a Voodoo5 6000 should make all of today's games look better than any other card. You can get over twice as many pixel samples, and have them jittered and blended together for anti-aliasing.

It won't be able to hit Q3 frame rates as high as GeForce, but if you have a high end processor there really may not be all that much difference for you between 100fps and 80fps unless you are playing hardcore competitive and can't stand the occasional drop below 60fps.

There are two drawbacks: it's expensive, and it won't take advantage of the new rasterization features coming in future games. It probably wouldn't be wise to buy a voodoo5 if you plan on keeping it for two years.

Dank aan Slashhead voor de tip.

Moderatie-faq Wijzig weergave

Reacties (31)

Daan B.

Dat is maar een deel van wat JC over de Voodoo 5 te zeggen had.
</div><div class=b4>

There are two drawbacks: it's expensive, and it won't take advantage of the
new rasterization features coming in future games. It probably wouldn't be
wise to buy a voodoo5 if you plan on keeping it for two years.
</div><div class=b1>

Voor rond de 1000 gulden is het wel heel veel als het maar even een goed idee is.
Even een paar verbeteringen:

De Geforce2 rendert 1,6 GTexels/s, niet Gpixels/s. daar rendert ie er 'maar' 800 van /s.
en het is Giga Texel Shader.

Ik ga gewoon ff afwachten, deze kaarten zijn allemaal niet spectaculair (ok behalve de v5 6k, maar die is duur) ze hebben allemaal wel iets negatiefs, en dan bedoel ik niet de naam van de kaart ofzo.

Ik ga gewoon de G800 afwachten, die waarschijnlijk een stuk betere geheugenbandbreedte en -gebruik heeft, en daarmee veel beter gaat presteren in 32bit. natuurlijk allemaal geruchten, maar het lijkt me de moeite waard. Ik zie het nut gewoon niet om 900 piek voor een GF2GTS neer te leggen als ik weet dat hij kreupel presteert in 32bit, door de lack of geheugenbandbreedte.
Maar een DDR Geforce 1 is bijna net zo duur als een ASUS V7700 GTS pure (840,-)
Of ik nu 700,- moet uitgeven voor een DDR of 840 voor een GF2 heb ik liever de GF2.
Heeft wel een T&L van 25 milj tr/s i.p.v. 15
Je kiest niet een kaart vanwege de naam van de producent, maar gewoon om de features die jij belangrijk voor jezelf vind.

Ik heb eerst een Voodoo2 gehad, omdat toen die uitkwam er eigenlijk geen andere spelers op de markt waren.

Daarna wilde ik een Voodoo3 (want nVidia, Matrox, etc. kende ik zelfs niet eens ;-) ), maar toen de TNT2 en G400 werden aangekondigd met 32 bits kleur, was de Voodoo3 uit zicht.

En nu heb ik sinds een hele tijd met een G400 aangezien ik 32 bits zeer belangrijk vond en vind en daar scoorde die kaart het beste in. En geloof me, als je eenmaal gewend bent aan 32 bits, dan kun je niet meer zonder. ;-)

Mijn volgende kaart zal waarschijnlijk T&L hebben, maar zal hoogstwaarschijnlijk geen Geforce 2 GTS of Voodoo5 zijn omdat ik hun performance van beide eigenlijk zwaar vind tegenvallen.

Persoonlijk verwacht ik dat zowel de G800 en de ATI Radeon voor mij aantrekkelijker zijn. Op papier mag de Radeon qua theoretische fillrate niet even imposant zijn als Geforce 2 GTS, maar het is al vaker gebleken dat praktijk en theorie door allerlei bottlenecks ver van elkaar afliggen.

De G400 en TNT2 hebben op papier dezelfde theoretische fillrate, maar de G400 wint in de praktijk qua fillrate met 1 hand op de rug. ;-)
Waarom koop je een GeForce?
Omdat je 'het snelste' en 'het beste' wilt hebben. Ok, dat lukt je dan. Twee weken later echter is er weer een model wat sneller is dan de jouwe, of zelf een heel nieuw soort kaart. Geen succes dus.
Waarom koop je een voodoo 4/5/6 ?
Omdat je de beste in-game beeld kwaliteit wilt genieten. En wat er daarna ook uitkomt. Aangezien jij toch niet voor 'het snelste' ging, maar voor kwaliteit, ben je dus succesvol in je keuze. Wel succes dus.

Het is dus zaak om kwaliteit boven snelheid te waarderen omdat snelheid de laaste tijd maar heel betrekkelijk is.
Waarschijnlijk kun je langer van je kwaliteit genieten, die blijvend is, dan van snelheid, die zo 'verouderd' is. Hetgeen inhoud dat je je 'snelle' kaart zeer snel weer mag vervangen. Hieruit blijkt dat het houden van kwaliteit als belangrijkste criterium bij de aanschaf van een videokaart, niet enkel een meer succesvolleaanschaf oplevert, maar ook goedkoper is.
Is de Voodoo5 6000 nog steeds de enige kaart die over de 1 gigapixel / sec. gaat?


nog effe een vraagje tussendoor:

Kan iemand mij misschien uitleggen hoe dat werkt met die scores en niveaus hier op tweakers.net?? Ik ben hier nog niet zo heel lang bekend. Graag (als iemand er de moeite voor wil nemen om het uit te leggen) mailen naar:
ROBBIEK@SIMAC.NL Om de boel niet te veel te verstoren!

Alvast bedankt!

(Of staat de uitleg ergens op deze site?)
hehehehe........als ik al dacht, 3dfx heeft de grootste moeite om Nvidia bji te houden, als ze dat uberhaupt zouden willen, zo te lezen niet echt............maar wat er niet is kan nog komen natuurlijk..............maar ik ga toch voor de GeForce GTS terzijnertijd. :) :) :)
Die gast heeft alleen maar verstand van spellen en niet van 3d kaarten.
''Now (well, soon), a Voodoo5 6000 should make all of today's games look better than any other card''

}> Deze wordt van mij! }>

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True