Dit is toch niet echt de test waar ik op zat te wachten. Het is veel te simplystisch aangepakt en er wordt met name gekeken naar pure 'output', maar ik wil vergelijkingen zien op rendergebied!
Het is algemeen bekend dat een ATi kaart hogere precisie hanteert dan een nVidia kaart en dat een ATi minder hoge AF en "quality" instellingen nodig heeft dan een nVidia om gelijke renderkwaliteit te waarborgen. Dit is van essentieel belang, want zo kunnen benchmarks beter uitgevoerd worden. Huidige testen zoals vandaag de dag worden uitgevoerd met 4xAA/16X AF en High quality voor nVidia en ATi ingesteld. Dit is niet eerlijk want 16x AF op ATi is zwaar overkill en nekt de kaart gigantisch terwijl dit bij nVidia niet het geval is. Zo krijg je altijd verkeerde scores waaruit blijkt dat een nVidia kaart sneller is terwijl op gelijke kwaliteit de ATi misschien wel sneller is. Een ATi kaart heeft in principe de gave om een boven de 'high quality' van nVidia nog een extreem hoge render kwaliteit in te stellen, maar zo wordt het niet genoemt en zo is een wezenlijk verschil met nvidia niet op te maken uit de driverinstellingen maar het is weldegelijk te zien als je goed kijkt. Deze supergoeie details zijn opzich een leuke bijkomstigheid van ATi kaartjes, maar je mag niet die superkwaliteit gaan vergelijken met de 'high quality' van nVidia. En aangezien mensen alleen maar getalletjes met getalletjes vergelijken en aan de hand daarvan ook testen maken we ongezien een grote fout door de renderkwaliteit niet in acht te nemen.
Een test zoals deze die gebasseerd is op de rauwe output van je videokaart is tegenwoordig ook echt bollux te noemen. Het gaat niet meer om output kwaliteit, die tijd is van de analoge uitgangen en goedkope videokaarten met slechte filters. Hoe een DVD gerenderd wordt boeit me ook niets, want ik gebruik altijd externe filters zoals de libavcodec van FFDshow en dan is er geen verschil tussen videokaarten omdat er geen interne hardwarematige accelleratie algoritmes worden toegepast en het beeld dus ook niet verziekt kan worden. Hoewel het opzich een test waard kan zijn omdat er nou eenmaal grote verschillen kunnen optreden vind ik enkel wat plaatjes met elkaar vergelijken eerder een beeldschermen test dan een test tussen ATi en nVidia. Dat beide kaartjes eventueel een iets ander kleurbeeld oid zouden leveren is zo nihil dat ik het eigenlijk niet testwaardig vind.
jammer, het is toch net alsof die testers eigenlijk helemaal geen verstand van videokaartjes hebben, altijd zo half/half. Ok ok, niet zeuren dan moet ik het zelf maar testen nietwaar...
Als ik in andere benchmarks de screenshots vergelijk op gebied van AA etc. zou ik persoonlijk de voorkeur geven aan de 8 serie van nVidia. Maar op AF niveau de voorkeur aan ATi. Maar als je de plaatjes van verschillende kwaliteit naast elkaar bekijkt is er eigenlijk geen wezenlijk verschil te noemen en zijn beide kaarten op dat gebied wel aan elkaar gewaagd. Zet je echter een nVidia en ATi kaart op "quality" mode (1na beste stand)en op 4x AF dan zie je dat de nVidia kaart een stuk minder mooi is geworden terwijl de ATi nog veel beter beeld heeft wat in de buurt komt van een nVidia kaart op hoogste instellingen. Vrij krom dus allemaal, en ATi heeft dit principe niet slim aangepakt. Ze zouden een hoop performance kunnen winnen door de grafische instellingen meer in lijn te leggen met die van nVidia. Of nVidia moet gewoon eens wat hogere kwaliteit waarborgen. Ik denk dat nVidia een hoop performancewinst behaalt door slim om te gaan met kwaliteitsinstellingen waardoor het lijkt alsof de kaart op gelijke instellingen beter presteert dan ATi.
Overigens ben ik geen ATi fan, maar ik probeer wel zo goed mogelijk de verschillen op een rijtje te zetten en deze test helpt daar helaas niet bij
[Reactie gewijzigd door BruT@LysT op 22 juli 2024 13:38]