Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 15 reacties
Bron: Reactor Critical

Reactor Critical heeft een aantal pagina's vol geschreven over Transform & Lighting. Na eerst uit de doeken te hebben gedaan hoe TnL werkt hebben ze wat leuke benchmarks gemaakt: deze laten zien dat de maximale TnL snelheid in de meeste gevallen op een GeForce kaart hoger is dan op een Pentium III of Athlon :

The first that leaps to the eye is the obvious dragging of Celeron. The intensive optimization of Direct3D Software T&L Engine for the SSE not only gives Pentium III a clear advantage over Celeron, but also makes it on some occasions faster than the hardware T&L. The same applies to Athlon.

[...] Nevertheless, the example of GeForce shows that the T&L chip running at the frequency of 120 MHz won't run a poor second to the all purpose processors having the frequency close to 1 GHz. Considering the rate at which graphic chips develop, one can safely say that if not the next generation of T&L units comprised by GeForce 2 GTS and Radeon 256 chips, then the one after it will surely outperform all purpose processors in their capabilities. The processors will no longer be quick enough to perform even an ordinary vertex transform in order to load videocards with data. And then the extensions of the geometry pipeline will become a must for game developers.

TnL benchmarks

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (15)

</div><div class=b4>
en er is ook een extensie van OpenGL om hardware T&L te ondersteunen.
</div><div class=b1>
Er is geen extensie voor nodig. OpenGL's glTranslatef en glRotate() routines zijn standaard al jaren opgenomen in de api, en worden door drivers voor HW T&L direct vertaalt in hardware T&L.

Zoals al 10.000 keer eerder is vermeld:HW T&L heeft een heel erg groot voordeel: als de GPU een vertexarray aan het transformeren is, kan de CPU fijn iets anders gaan doen. Per seconde (of per frame, zo u wilt) heb je dus meer CPU power tot je beschikking. Als je geen HW T&L hebt, moet de CPU de T&L doen en kan hij niet per frame OOK nog ergens anders aan werken in de tijd die hij besteedt aan de T&L code. Erg simpel allemaal. Dit is ook een van de redenen waarom gfx toch best wel snel waren op de Amiga: de blitter liep in de pas met de CPU, waardoor je EN de blitter werk kon laten doen EN de CPU, waardoor je dubbele power had.

De vraag is dus niet of een Athlon of Coppermine of Willamette sneller is dan de GPU van nvidia of Ati. de vraag is of je er een hebt in je systeem of niet: alleen DAN profiteer je namelijk van de extra power in je totale system :)
Otis:
Helemaal mee eens. Helaas kijken al die testers blijkbaar niet naar alle extra CPU-power die je overhoudt met T&L, maar alleen naar de pure FPS. Goed dom eigenlijk, want het ontlasten van de CPU is een van de dingen waar T&L voor bedoeld is, dus je zou verwachten dat er toch wel ergens een goede tester is die dat dan ook gaat meten...
In een situatie waarbij de videokaart toch al de beperkende factor is, zal de FPS zelfs alleen nog maar afnemen als de videokaart ook nog eens de T&L van de processor erbij moet doen; maar dat wil niet zeggen dat T&L dan niet werkt, want de processor zou wel eens veel meer tijd over kunnen hebben die voor andere taken kan worden ingezet.
Begint een beetje kortzichtig en irritant te worden, die focus op FPS.
Beeldkwaliteit is minstens zo belangrijk, en ook het over hebben van processortijd kan heel voordelig zijn voor betere AI, betere response op user-input, etc.
Of, nog eenvoudiger, met een goedkopere processor toch gamen met dezelfde kwaliteit.
En bij de beroerdste games (die helemaal geen gebruik maken van de extra beschikbare CPU-capaciteit) kun je in ieder geval nog je }:O laten grazen tijdens het gamen of tegelijkertijd een CDtje fikken ofzo. Ik merk het nu tenminste nog wel iets met m'n TNT2 als ik een cdtje fik terwijl ik UT aan het spelen ben, zou leuk zijn als dat met een GF2 helemaal niet meer merkbaar is :) . En ook andere achtergrondtaken (ISDN antwoordapparaat/faxservice, hardware monitor, virusscanner etc) hoef je dan niet allemaal meer uit te gaan zetten als je lekker wilt gamen.
Naar verwachting zal ik maar zeggen, bezit al een tijdje een Athlon met GeForce, en het is een top combinatie!!!
Ach ik zit sowieso wel gebakken met mijn Athlon en GeForce!
Toch el frappant dat de Coppermine beter scoort dan de Athlon: Kom op AMD!!!
Reactor Critical zuigt, ze hebben niet eens drivers voor GeForce!!! :(
De coppermine draait op 770 Mhz en de Athlon op 650, dus niet helemaal te vergelijken.

Welke drivers zijn overigens gebruikt??
Ikzelf denk dat ze te optimistisch zijn over de T&L mogelijkheden van de geforce2. Als je kijkt dat de geforce2 maar marginaal sneller is dan een videokaart zonder t&l, terwijl de specs toch wel errug dicht bijelkaar liggen. Dan kan je toch echt wel concluderen dat t&l niet werkt. Tenzij er voor word geoptimalizeerd (sp), maar ikzelf zie dit de komende tijd niet gebeuren vanwege het feit dat er verschillende t&l engines gaan uitkomen (ati's radeon gaat er een krijgen en 3dfx werkt aan de sage). En voor zover werken die allemaal niet op exact dezelfde manier.
Dus dan ga je hetzelfde gezeik krijgen als met de sse-3dnow, maar dan dit keer met groepen met zo'n beetje allemaal dezelfde marktaandeel.
Dus ik blijf erbij dat hardware t&l nutteloos is en de komende tijd nutteloos zullen blijven.


Ik hoop dat er mensen zijn die het zullen begrijpen, want het is redelijk vaag geschreven :'(.
Reactor Critical was juist een van de sites waar de uitgelekte 5.1x drivers van nVidia stonden... Ik heb ze daar ook vandaan, voor m'n Geforce...
:r slechte vergelijking :r
Nou maar hopen dat er veel spellen komen die geoptimaliseerd zijn voor de Geforce, sorry, T&L in het algemeen.
Hoe zit het eigenlijk met de schaalbaarheid van een Geforce i.c.m. die CPU's?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True