Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: Computer!Totaal

Eric meldt dat ze bij Computer!Totaal een review hebben gemaakt van de Elsa Gladiac. Ze hebben geen schokkende informatie maar wel een stapel leuke benchmarks waar je goed kan zien hoe belangrijk je CPU is en hoeveel je hebt (of niet hebt) aan T&L :

Laten we beginnen met de 3DMark 2000 resultaten. 3DMark is een zeer interessante benchmark voor processor schaling. De benchmark laat namelijk kiezen of de T&L berekeningen door de processor (CPU) of door de grafische chipset (Hardware) gedaan moeten worden. Hierdoor is goed te zien hoeveel verschil het maakt wanneer de grafische kaart de T&L voor zijn rekening neemt en daarmee de processor ontlast.

Wat duidelijk opvalt is dat de T&L unit bij de snellere systemen alleen nut heeft in de lagere resoluties. De processor heeft het dan zo druk dat T&L erbij een tikkeltje te veel wordt en de resultaten dalen wanneer de processor ook dit voor zijn rekening moet nemen. In de hogere resoluties is de grafische kaart echter de limiterende factor en heeft de processor tijd 'over'. Wanneer de T&L nu door de processor wordt gedaan ontlast dat de grafische kaart waardoor de prestatie stijgen.

Bij de langzamere processoren is dit echter niet het geval. Bij de resultaten van de Pentium II 400 en de Celeron 300a ziet u dat T&L door de grafische kaart altijd sneller is dan T&L door de processor. Op een langzamer systeem levert de hardwarematige T&L versnelling procentueel veel meer winst dan bij een sneller systeem. Toch zakken de scores duidelijk naar mate de processor langzamer wordt. Heeft u een langzaam systeem, dan kan een kaart met hardwarematige T&L veel winst leveren, maar is het de vraag of de upgrade het geld waard is.

Die upgrade is zijn geld wel waard (ik heb het gedaan), voor een verdubbeling in peformance moet je toch wel ergens een goedkope GeForce SDR kunnen vinden .

Moderatie-faq Wijzig weergave

Reacties (34)

wat ze dus zeggen is dat de HW T&L de videokaart met de rest mee kan helpen. Dat is wat ik ervan maak. Dat T&L extra geheugenbandbreedte kost is zo, en dat is nou net wat de Geforce2 mist, dus heb je al snel geen nut meer van T&L.

OK, stel je hebt een oneindige geheugenbandbreedte. Dus T&L aan of uit heeft geen effect op de beschikbare geheugenbandbreedte voor de rest van het renderproces. Als je dan T&L aan of uit zet, dat maakt dan toch helemaal NIETS uit omdat T&L alleen T&L kan doen, als het niet gebruikt wordt staat het toch gewoon standy/maakt idle cycles?

dat is dus wat ik bedoel. dat je als je de CPU de T&L gaat doen je geen extra fillrate erbij krijgt.


Waarom ik dacht dat ze dat zeiden is denk ik vooral omdat ze het helemaal niet over geheugenbandbreedte hebben (dat zou te moeilijk worden voor de gemiddelde C!T lezer misschien?) en dat daarom het zo lijkt dat de T&L engine de rest van de core mee gaat helpen, wat dus niet kan.


Het resultaat van dit alles is dus de conclusie dat de GeForce2 veel te weinig geheugenbandbreedte heeft om de chip volledig tot z'n recht te laten komen, en zeker in 32bits, waar de performance zeer kort bij de Geforce1 ligt, en upgraden van je GeForce bijna weggegooid geld is. (kun je het beter storten op Giro7666398 :D) Ik hoop voor nVidea dat ze ook FCRAM support ingebakken hebben, tegen de tijd dat dat dan beschikbaar is kan deze chip misschien wel volledig tot z'n recht komen. Uitbreiding van de geheugenbusbreedte van 2x64bit naar 4x64bit is natuurlijk ook mogelijk, maar dat is behoorlijk duur, en maakt het plankdesign behoorlijk ingewikkelder en duurder om te produceren..
=Alpha=Psycho :

Ik ben de auteur van het verhaal en wat daar staat kopt in de basis zeker wel:

Uiteraard neemt de fill-rate niet toe wanneer T&L door de CPU wordt gedaan, maar hardwarematige T&L heeft nu eenmaal geheugen bandbreedte (en AGP bandbreedte) nodig waardoor het in de hoogste resoluties gewoon efficienter is wanneer de CPU dit voor zijn rekening neemt.

Het uitschakelen van T&L zorgt ervoor dat de rest van de chip efficienter kan werken wanneer de CPU niet langer de limiterende factor is omdat de dat nodig voor / geproduceerder door de T&L engine) niet langer over de AGP bus hoeft te gaan.
nog iets wat me net te binnen schiet: John Carmack heeft laatst gezegd dattie graag 64bits rendering zou willen zien. www.tweakers.net/nieuws.dsp?ID=10620 dan krijgen we dus aleen maar meer problemen met geheugenbandreedte. Tijd voor nVidia om hun geheugenbus van een kleine upgrade te voorzien dus. (de huidige is niet aangepast sinds de TNT1) zelfs met DDR FCRAM krijg je dan nog problemen. Ben benieuwd hoe de fabrikanten dat op gaan lossen zonder dat wij er flink diep voor in de portemonnee mogen grijpen.

Sake: ik weet wat je bedoelt, de Computer!Totaal Topper :+. Ik vind dat je met zo'n naam alleen de allerallerbeste produkten mag nomineren. Dat doen ze dus niet, nee ze geven het aan elk redelijk ok produkt. Dan voel je je dus flink genaaid als je blindelings zo'n produkt gaat halen. Slechte zaak dus.
Eric: het is wel correct wat er staat, maar het is een beetje onvolledig. Je zegt dat de geforce wordt ontlast als de HW T&L niet wordt ontlast, en dat daarmee de prestaties stijgen. Dus het klinkt alsof de chip doordat de T&L uitstaat meer fillrate krijgt. maar eigenlijk krijgt hij meer geheugenbandbreedte. Maar dat staat er dus niet bij, en klinkt het net of de T&L engine dan mee gaat helpen met renderen. maar dat is niet zo.

nog iets: de Geforce2 GTS gebruikt de helft van de stroom van de Geforce 256 op dezelfde corespeed, de corespeed van de Geforce2 GTS is bijna 2x zoveel(120Mhz vs. 200Mhz), dus zullen er nog steeds veel problemen ontstaan met minder capabele moederborden en voedingen. misschien dat het slim is om er even bij te zeggen.

Verder goede review, ik probeer je niet naar beneden te halen ofzo, alleen gezond commentaar van mijn kant.

kleine vraag: met welk texturedetail zijn de 32bits quaver Q3 benchmarks genomen?

ik ga pitten, morgen is er weer een dag. Cya all.
Eric: Wat je daar zegt klopt niet (en dan ben ik nog zo vriendelijk niets over de laatste alinea te zeggen). Als je T&L gebruikt wordt de AGP bus minder zwaar belast dan wanneer de processor T&L doet, omdat er nu eenmaal veel minder vertices dan pixels zijn.
Je moet ook niet de bandbreedte van het video geheugen en bandbreedte van de AGP bus op een hoop gooien, dat zijn twee heel verschillende dingen. De fillrate hangt af van de bandbreedte naar het videogeheugen en dat is de belangrijkste bottleneck bij hogere resoluties in 32 bit. Het feit dat je bij de meeste apps nauwelijks verschil in performance ziet tussen AGP 1x, 2x of 4x duidt er op dat de AGP bandbreedte zelden de beperkende factor is. Dat is alleen zo bij onbehoorlijk grote aantallen polygonen (3dmark200 doet dat) zodat je meer vertices dan pixels krijgt (driehoekjes van enkele pixels) of wanneer je grote aantallen grote textures gebruikt zodat deze niet gecached kunnen worden in het videogeheugen (kijk maar eens naar wat testjes van GeForce 32 MB vs. 64 MB).
Wel is het zo dat een snelle CPU in een groot aantal gevallen T&L sneller kan dan de GPU op de videokaart. M.n. wanneer de berekeningen complexer worden (multiple lights bijvoorbeeld) blijft een GPU op 200 MHz gewoon achter bij een CPU op 700 MHz of meer. Maar dat wil niet zeggen dat de GPU de CPU niet kan ontlasten. E.e.a. heeft ook te maken met de software; PC software is nog niet geschreven met T&L in het achterhoofd. Het nut van T&L staat al lang niet meer ter discussie bij het gebruik van professionele software op werkstations. SGI heeft al veel geld verdiend aan agressieve acceleratie van graphics in hardware. Dat levert heel wat op omdat er ook heel wat rekenwerk gedaan moet worden dat niets met T&L te maken heeft, wat dus parallel gedaan kan worden aan de T&L als daar een GPU voor is. Je haalt het dan niet in je hoofd te denken aan het uitzetten van T&L. Met de beschikbaarheid van T&L op de PC is het een kwestie van tijd voordat PC software (games!) dit gaan uitbuiten. Domweg omdat de ontwikkelaar er achter komt dat er meer rekencapaciteit beschikbaar is, en er is altijd nog wel iets dat je daar mee kan doen.

Ik verwacht van een journalist die professioneel zijn vak uitoefent dat hij weet waar hij over schrijft en dat op een manier doet waar de lezer (met minder kennis) wat aan heeft. Als je niet weet waar je het over hebt, schrijf er dan ook niets over op.
Ik denk dat het wel klopt wat Eric zegt, de verschillen tussen tnl op cpu of op kaart zijn niet schrikbarend groot op hoge resuloties maar precies groot genoeg om te laten zien dat er een klein beetje agp bandbreedte wordt opgegeten door de tnl en wat geheugen wat resulteerd in een klein verlies in performance.

Arjenk: bij tnl wordt de agp bus echt wel zwaarder belast dan zonder, dat mooie verhaaldje verticles en pixels klopt niet. Voor bewijs kan je geloof ik wel wat op THG vinden.
alfa-> De Quaver demo's zijn allemaal gerunt met maximale beelkwaliteitssettings maw, 32 bit, geometry detail max, texture detail max (4).

arjentk ->
Welke laatste alinea heb je het over ??

Anyway, ik volg je niet totaal. Je redeneert dat: "Als je T&L gebruikt wordt de AGP bus minder zwaar belast dan wanneer de processor T&L doet, omdat er nu eenmaal veel minder vertices dan pixels zijn. "

Wat heeft het een met het ander te maken? Wanneer T&L door de CPU wordt gedaan krijft de grafische kaart geen losse pixels aangeleverd o.i.d. ! De geomety word alleen van 3D omgezet naar een 2D 'vector' model uit polygonen... Dit gaat al jaren zo. Het is uiteindelijk altijd de grafische kaart die de triangle setup en het renderen doet.. Of begrijp ik je verkeerd?
Hehe, het 'grootste computerblad van Nederland' komt ook met een GTS review! Sjongejonge, dat werd wel eens tijd! Maar ik ga 't effe lezen en me vergapen (nog steeds!0 aan de benchmarks! :9
De GeForce van Hercules The Prophet(OEM) is relatief goedkoop , ik kocht 'm voor 424,- :koopje toch?
De snelheidswinst was zeer goed te merken
B.v bij Counter-strike (Half-life MOD) had ik een winst van 25 % :) (Detonator 3.68) t.o.v. mijn vorige visualbuddy Asus V3800 Ultra Deluxe 32mb. Ook Quake3 ging er zeker op vooruit
Kreeg teminste en beetje beweging te zien in nvidia's Area_51 map
T&L is momenteel de feature van dit moment!!

Ben benieuwd wat er nog komen zal }>

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True