Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties
Bron: HardOCP.com

JumpStart schrijft: "De luitjes bij HardOCP hebben een aantal benchmarks op een niet nader genoemde GeForce kaart los gelaten. Software T&L blijkt in 3DMark 2000 sneller te zijn dan hardware T&L. Op de vraag waarom dat zo is heeft de auteur op dit moment nog geen antwoord":

When we turn OFF the T&L and dump the load back onto the PIII processor, you see the AMAZING difference in the count. Even with 8 lights used the count is almost as high as when the T&L is utilized under ONE LIGHT.

Now what I am wondering here is this. nVidia has totally hyped the T&L for the GeForce card, but it seems to me that the T&L could possibly be the downfall of the card WHEN AND IF it is utilized with newer games to be announced, if they in fact use more than one light. Right now I don't know of any games that utilize all these lights EXTENSIVELY (so it really does not mean dick right now) but I know the Max-FX engine by Remedy is used by Mad Onion for the 3D Mark2000 set of tests.

[...] Also I was lucky enough to catch Alex "Sharky" Ross of Sharky Extreme at home yesterday and discuss this issue with him. While I am not going to try to paraphrase his words here they are going to look into it further. Honestly, as I mentioned above, the mechanics of this are a bit beyond me and what I understand about it. Sharky Extreme does has a REAL Doctor over at their site that will hopefully help us figure some of this out. They will surely give us a heads up on what they find. I have enough trust in those guys' expertise to either validate what we think or to tell us we are full of BS. Either way will will give you a heads up on what is found out.

Lees meer over

Gerelateerde content

Moderatie-faq Wijzig weergave

Reacties (35)

Misschien is de High Polygon Count wel lager met T&L aan, maar de rest is allemaal significant hoger! Dus zoals elke medaille heeft ook deze een keerzijde. En waar het normaal om gaat is de framerate in games, en niet de Polygon Count.. toch?

Maar dat is idd nu. Als er strax games komen die 8 lights ofzo erin stoppen ben je 't zaadje met de Geforce, dan hoop ik voor je dat je T&L uit kan zetten, anders kan je 't schudden - dan wordt je compleet weggeperformd door een V3-3000 en een Tnt2.. :)

Zoals men daar zegt is dit weer een schitterend voorbeeld van een Hype:
"nVidia has totally hyped the T&L for the GeForce card"

Lachend wacht ik op meer reviews, want voordat ik geloof dat het echt bagger is wil ik meer zien.
Geld dit nu voor alle T&L kaarten of alleen voor de vu10 chip. heeft bv de Viper2 of straks de g450 daar ook last van ?
Wie weet het ?
Ik denk dat dit in principe voor elke T&L kaart geldt. Voor zover ik het snap komt deze domper door een gebrek aan kracht van de T&L processor. Met andere woorden, de processor op je moederbord is krachtiger dan je T&L GPU. Daarom gaat het met T&L uit beter.

Als deze redenering juist is geldt het voor elke kaart, tenzij daar een veel krachtiger GPU op zit, en dan ook echt veel krachtiger, want hier is het echt zeer matig. En een GPU moet je CPU overtreffen, niet evenaren...
Frogman: ik ben het niet helemaal met jou eens. De GeForce profiteert wel degelijk van een snellere processor, zoals we zien in alle benchmarks die op de GeForce worden gedraaid. Vooral de GeForce DDR heeft veel baat bij een snelle processor. Het is dus niet zo dat een GeForce een kaart is voor mensen met een langzame processor: ook bij een snelle processor is deze sneller dan de concurrentie.
Ik denk ook net als zonoskar dat het komt omdat de T&L op een GeForce kaart onwijs nauwkeurig is... en dus veel tijd in beslag neemt
Kijk hier eens naar:

http://www.rivastation.com/review/geforces2/3mark2000_g.gif

In de bijbehorende review lees je dat processor een PIII-700 is.

En let dan vooral op de High Polygon Count ( 8 Lights). Niet echt anders dan bij de HARDOCP test. Bij 8 Lights is de Voodoo 3000 verreweg de snelste, maar bij de Game tests is de performance dan weer een stukje lager.

Dit effect is nooit opgevallen klaarblijkelijk. Een c onclusie die je kunt trekken tot nu toe is dat het onduidelijk is hoeveel HW T&L (vooral Lighting) de performance beinvloedt.

De High Polygon Count-test lijkt me echter niet
helemaal representatief voor een real-world applicatie. Onduidelijk is bijvoorbeeld de nauwkeurigheid waarmee de SW en HW lichten
berekend worden. De HPC-test bevat een zeer complex model. De complexiteit neemt zeker niet linear toe met het aantal lichten, maar eerder
exponentieel en dan speelt die nauwkeurigheid ineens wel een rol.

Interessant punt blijft: hoeveel lichten is realistisch in een gemiddeld spel? Wanneer het aantal lichten beperkt blijft zie je dat een scene in de GF wel behoorlijk in aantal poly's kan toenemen ,waarbij
ook de performance nog hoger blijft, dan bij de vorige generatie 3D kaarten. Wellicht hebben de
ontwikkelaars dit effect ook al ontdekt, en zullen ze het aantal lichten beperken of in als SW lighting implementeren( als dat kan).
Hallo GTST kijkers,

Met uitzondering van wicky de viking, moeten jullie de oogjes beter opendoen en een posting beter lezen :( voordat jullie gaan reageren.

Want het gaat erom dat <B><U>BOVEN</U></B> 1600x1400 het niet meer uitmaakt.

Uch ik heb gesproken (jjord dan welteverstaan)
Mmm, als alle conclusies alleen getrokken worden uit de polygontest van 3dmark2000, vind ik dat nogal eenzijdig. Je zou het ook kunnen zien: door specifieke taken als lights en geometrie aan de videokaart over te laten, houdt de cpu genoeg kracht over voor bijv. de AI van vijanden, vliegtuigen of wat dan ook, waardoor het spel in zijn totaliteit beter wordt.

M.a.w. met het juiste gebruik van T&L in combinatie met de CPU is er nog hoop voor de Geforce gebruikers :)
Mja... het aloude verhaal. via integermath en slimme truuks is het wellicht voor elkaar te krijgen om een bepaald stukje code een mesh sneller te laten transformeren naar eyespace dan via T&L in hardware, maar ik heb ZEER mn twijfels. En hoe zet je die T&L uit? via een checkbox? (ik heb geen geforce , ik weet het dus niet).

Het efficient gebruiken van HW T&L komt neer op het efficient doorsturen van de vertexdata naar de kaart. Om in OpenGL land te blijven, als je voor elke vertex een glVertex3f() plus een glTexCoord2f() call doet, zal HW T&L niet zo bar veel uitmaken. Gebruik je compiled vertex arrays, en ook nog op de juiste manier, dus bv bij multipasses alleen texturedata arrays uppen en niet weer de vertices, dan scheelt het ENORM.

Als ik het verhaal lees kan ik niet anders zeggen dan dat ze EN een brakke kaart hebben gebruikt, EN intens slecht geprogrammeerde code, EN een ZEER oude driver EN een ZEER snelle processor.

Ik bedoel, met een mesh van 100 faces heeft een athlon 800 niet bar veel moeite, dus verschil zal je niet echt zien. Met een quake3 level van 4 a 5000 faces, multitextured, echter.. geloof ik niet dat een athlon 800 een GeForce er uit gaat trekken.

Je moet ook niet vergeten: als een GeForce de eyespacecoords per vertex en de vertexcolor staat klaar te stampen, kan de CPU gewoon iets anders doen. AI routines uitvoeren bijvoorbeeld. Of backend rendering routines, zoals het langssjouwen van de BSP tree, ondertussen polys verzamelend voor het volgende frame.

DAT is het voordeel zowiezo, bovenop het voordeel dat die GeForce sneller vertexlighting uitvoert dan een CPU daar de floating point calculaties, NODIG voor lighting, veel sneller zijn bij een GeForce.

En verder zou het me niet verbazen als die oude Future Crew knarren die aan 3dMark hebben zitten proggen vrolijk eigen lighting routines gebruiken in veel delen.
Je moet het niet gelijk verkeerd zien het is de eerste vorm van T&L en zal nog wel het een en ander verandert worden, maar Burat als je een videokaart heb die een high polygoon count aankunnen kan je dus spellen/programma's maken waarbij de rondingen veel mooier worden. Je krijgt een soort Q3A idee.

En dan nog elke nieuwe functie in een videokaart wordt geheel gehyped en waarom niet als je op die manier meer kaartjes kan verkopen zou ik het ook doen, en dan nog zo slecht zijn die kaarten niet. Alleen die prijs :(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True