Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties
Bron: Computerbase, submitter: Deadsy

Computerbase.de is er gisteren in geslaagd om het originele algortime voor trilineair filteren in te schakelen op de ATi Radeon X800 videokaart. Vorige maand ontdekte dezelfde site dat ATi's drivers deze techniek om textures van verschilend detailniveau vloeiend in elkaar over te laten lopen hier en daar optimaliseren. Dit gaat ten koste van een stukje beeldkwaliteit, een verlies dat het bedrijf naar eigen zeggen tot een minimum heeft willen beperken. Er was tot nu toe geen methode bekend om de optimalisaties uit te schakelen, maar het is de Duitsers door middel van een registry hack gelukt. Om te testen in hoeverre de prestaties door de optimalisatie beÔnvloed worden zijn paar rondjes Unreal Tournament 2003 doorlopen. Het blijkt dat de X800 zonder de optimalisatie ongeveer 30% performance verliest in deze test, terwijl dat bij de Radeon 9600 variŽert van 17 tot 41%:

ATi Radeon X800 trilinear filtering modes getest

Overigens wordt in het bronartikel ook gemeld dat nVidia in ForceWare 61.32 een optie heeft toegevoegd om zijn eigen variant van deze optimalisaties uit te schakelen, dus dat NV40 en R420 binnenkort vergeleken kunnen worden met full trilinear filtering ingeschakeld.

Moderatie-faq Wijzig weergave

Reacties (85)

Het belang van dit word wel eens onderschar. nVIDIA is er in de GF6 serie voor uitgekomen dat er bepaalde optimalisaties zijn en ze zorgen ervoor dat ze uiteindelijk ook uitgeschakeld kunnen worden. In tegenstelling tot ATi die het in het geheim deden en dus claimden dat hun kaart sneller was dan NV kaarten met optimalisaties uit.

Het belang bestaat erin om op een eerlijke en gelijkwaardige manier te kunnen testen. Om te spelen maakt het natuurlijk helemaal niets uit.

Er zijn ondetussen tests gedaan op de optimalisaties (o.a. THG) en met het blote oog zie je het normaalgezien niet. Ik vraag me nu wel af wat er gaat gebeuren met het snelheidsrecord van ATi bij 3Dmark.
Nvidia begon net zo geheim als ATI nu doen, met het verschil dat er bij ATI geen merkbaar verschil in de beeldqualiteid is, wat je bij Nvidia niet altijd kon zeggen.

bij nvidia was vaak duidelijk merkbaar en meetbaar dat de kaart niet liet zien wat de makers van het spel/programa bedoeld hadden.
ATI heeft dat bij mijn weten niet gedaan since de 8x serie.
dat ATI nu een andere manier van triliniar filtering toepast een iets ander, maar geen slechter beeld op leverd vind ik het meer een inovatie als cheat.
beetje zoiets als temperal FSAA, maar dan zonder andere naam.
Wat is volgens jou een eerlijke en gelijkwaardige manier van testen?

Er zijn twee manier om te testen:
1) Je houdt beeldkwaliteit gelijk tussen twee kaarten en test de resulterende snelheid.
2) Je houdt de snelheid gelijk tussen twee kaarten en test de resulterende beeldkwaliteit.

Dat zijn de enige eerlijke en gelijkwaardige tests die je kunt doen. En als de beeldkwaliteit niet vermindert wordt, dan is er dus geen enkele reden om die optimalisaties uit te zetten.

Helaas testen review sites op een oneerlijke en ongelijkwaardige manier.
Ze testen namelijk kaarten met dezelfde of soortgelijke instellingen in de drivers en kijken dan naar de prestaties. En daarom zit je dus kaarten met verschillende beeldkwaliteit te testen op hun verschil in prestaties, aangezien die instellingen niet exact gelijkt geimplementeerd zijn. Dat is dus absoluut geen gelijkwaardige test. (Gelukkig heeft HardOCP wel ingezien dat dat soort tests niet juist zijn)
Ik begrijp niet dat mensen over een optimalisatie gaan klagen als er geen kwaliteits verlies is.

Ik begrijp dat mensen er een ophef van maakte toen Nvidia hetzelfde deed, maar dit had invloed op de beeldkwaliteit.

Ati met deze optimilisatie heeft nog steeds een hogere beeldkwaliteit als Nvidia zonder optimalisatie dus waaom zon ophef.
Idd, en zelfs als het een klein beetje merkbaar wordt in een snapshot van 1 Frame, who carez ??? De meeste gamers rennen door zo'n ruimte met wat ? 120 / 180 frames ps en zien de kleine verschillen dus toch niet, alleen hun target verderop.

Ik heb nog nimmer iemand op zijn dooie gemakje rond zien sjokken in UT2K3 ofzo om eens mooi van het uitzicht te genieten en zich te verbazen over dat kleine vlekje ergens op de vloer of plaffond.

9 van de 10 keer zijn er speciale filters nodig in photoshop om afwijkende pixels te tonen in een bepaalde screenshot omdat deze met het blote oog gewoonweg niet meer waarneembaar is in het origineel, dus ik vind die discussies over 'kwaliteits verlies want ik mis 4 pixels' erg overtrokken.
Ati met deze optimilisatie heeft nog steeds een hogere beeldkwaliteit als Nvidia zonder optimalisatie dus waaom zon ophef.

En heb jij deze 2 nieuwe kaarten dan al naast elkaar zien draaien?
Ik niet, maar alle review sites wel. En waar sommige review sites op dat punt niet betrouwbaar zijn, is Beyond3D dat wel. Maar allemaal zijn ze het er overeens dat er geen zichtbaar verschil te ontdekken valt.
Verder zijn er al de nodige mensen die een X800Pro in het bezit hebben die ook geen verschil kunnen waarnemen.
omdat ze niet vertellen dat ze het doen
Das natuurlijk gelul je vraagt toch ook niet als je een auto koopt hoe het komt dat die beter rijdt en zuiniger is !!! Ja meneer hier is de blauw druk dat hebben we zo gedaan |:(
uuu ja dat vraag ik wel.

omdat ik niet alles gelijk geloof wat er op de verpaking staat.

een voorbeeld maar wel heel ver. katten voer van Shiba O ja daar staat dus op het doosje Met Zwaart vis wat ze je niet vertelen dat er wel 4%zwaart vis in zit en wat ze je dan ook niet vertelen dat het hier gaat over de ingewande.

DUS JA IK WIL ALLES weten heb ik recht op als consument
Wat zou er in frikandelen zitten

Eens een brief sturen naar Mora
/offtopic

In frikandellen zit nog niet eens wat er in de verhalen gezecht wordt :). Gewoon het "mindere"vless van verschillende dieren door elkaar gemixt.

/ontopic

Ik vind dat het er vanaf hangt wat het eindproduct is, wanneer ik alelen voordelen heb en geen (merkbaar) nadeel dan hoor je mij niet klagen. Ik beoordeel het procut op wat ik zie en welke voor/nadelen ik heb. Wanneer ATI een suppersnelle kaart maakt met drivers die hem zo sloom maken als een ati rage fury pro (welke andere slome kaart dan ook :P) dan moeten ze dat zefl weten alleen beoordeel ik hem op zijn prestaties en koop ik dus niet, als ze nu een ati rage fury pro zo optimaliseren dat het een X800 (kwa prestaties) wordt, intereseert het me niet HOE ze het doen (uit consumenten kant gezien, wel uit de tweakers kant maar das omdat je dan nieuwschierig bent, en mischien iets wilt leren ervan), het intereseert me alleen hoe hij presteerd. (ja nu nog die drivers vidnen die dat voor elkaar krijgen :P)

Het kattevoergeld opzich hetzelfde voor, maar als er 4% zwaardvuis inzit (waar heb je dt gevonden? achterop bij de ingredienten? Want dan stond het er wel) en ik wil meer dan bevalt dat kattevoer me gewoon niet, wanener ze er met een gratis verkrijgbare "bijvul verpakking" extra zwaardvis in doen laat je die toch ook niet weg? P

ps weer VEEL te lange tekst, en vast vol spelfouten maar gee tijd de tekst te controleren, weer fijne gebruikers die niet kunnen inloggen :P
Ik vind het bovenstaande wel een beetje vergelijkbaar met zeggen dat een BMW met het motorvermogen begrenst zodat hij niet harder rijdt dan 250 km/u, de boel bedriegt als ze zeggen dat er een 300pk v8 met 3 liter in het vooronder ligt.

Het is toch aan ATi om te bepalen welke performance ze op welke wijze uit hun chips willen halen?

Als er dan tweakers zijn die die begrensingen eraf willen halen, moeten ze dat zelf weten, maar het levert m.i. geen aanklacht tegen ATi op.

Sterker, de ware tweaker zou het leuk moeten vinden met hacks, cracks en mods hun (nu nog) veel te dure kaart qua performance e.d. geheel te laten afwijken van de kaart zoals moeders hem zonder nadenken in de Aldi-PC ramt.
Mensen, we denk toch niet dat we alle optimalisaties kennen die deze kaarten gebruiken (al dan niet met enig verlies van beeldkwaliteit). Dus een zogenaamd eerlijke vergelijking zonder optimalisaties is toch onmogelijk. Leuk om te weten dat je deze optie uit kan zetten maar imho totaal zinloos om hiermee te gaan testen.
Ik snap uberhaupt niet waarom mensen zo'n drukte maken om twee videokaarten, het is ffs alsof je naar ajax-feyenoord zit te kijken, wat maakt het in jezusnaam uit welke beter is? Daar komt bij dat techniek nou eenmaal verandert over de jaren. Paar jaar geleden had niemand nog van trilinear filtering gehoord en nu is iedereen ineens expert? Techniek verandert, en als je bij elke verandering als een speenvarken gaat lopen krijsen dat het een "cheat" is dan moet je toch echt eens naar de ernst van de situatie kijken en kijken of dit het wel waard is om over druk te maken. Maar stel nou dat je het er niet mee eens bent, en je wilt per se de beste kaart op de markt (voor die 2 maanden dat dat duurt) dan wil je toch de kaart die het beste presteert? En in dit geval met die zogenoemde "cheat" van ATi presteert hij beter dan NVidia. Het maakt in dit geval geen donder uit of dat met optimalisaties of zonder is gebeurd, dat zijn technieken. En mensen die vinden dat ATi dit had moeten toelichten zijn niet goed wijs want die overschatten zichzelf nogal, je weet niet half hoeveel optimalisaties er in zo'n kaart zitten waarvan je het bestaan niet eens had kunnen dromen. En dan nog een laatste ding, wat heb je liever.. Een kaart zonder optimalisaties van $700 of een kaart met optimalisaties voor $500? Waar gaat het hier om mensen :/
Dit gaat ten koste van een stukje beeldkwaliteit
Waarbij het wel handig is op te merken dat alleen een computer het 'kwaliteits'-verschil tussen met en zonder optimalisaties kan zien (=uitrekenen aan de hand van twee verschillende screenshots). ;)

Deze registry setting lijkt mij dus niet een echt zinnige vonst.
Het is weldegelijk een zinnige vonst, het geeft ons de gelegenheid om eerlijk te testen, verder is er inderdaat geen toepassing voor.
Maar het is wel even belangrijk dat er getest wordt, natuurlijk is het acceptabel dat er optimalisaties gedaan worden, zeker als deze alleen maar positieve gevolgen hebben, maar we moeten wel even duidelijk hebben dat we dat van af nu gaan accepteren en dat we alsnog wel willen weten hoe de kaarten het tegen elkaar doen zonder deze optimalizaties. Als we dat eenmaal weten kunnen we gaan kijken hoe ATi en nVidia hun best gaan doen op optimalisaties en wat voor'n effect dat heeft op de beeld kwaliteit heeft, zonder dat we moeten gaan uitvogelen wat ze nou precies doen en of ze optimaliseren of niet, het is geen punt dat ze het doen, als ze maar niet gaan verkondigen dat ze het niet doen en we er uiteindelijk toch achter komen.
Integendeel, het zorgt juist voor ON-eerlijke testen.
Wat ATI doet is een daadwerkelijk optimalisatie om het simpele feit dat er GEEN kwaliteits verlies is.

Dat soort optimalisatie ga je nooit uitzetten.
Waarom zou jij dat zelf willen weten?

Waarom zou een fabrikant in godsnaam de volgende optie moeten toevoegen: met deze checkbox kan je je prestaties 15% verminderen zonder dat je er een betere beeldkwaliteit voor terug krijgt

Nee, dat is echt heel zinvol. Dat wil je echt zelf beslissen, en dat is echt heel erg als een fabrikant je die optie niet geeft.

Waar ATI wel fout zit, is dat ze niet gemeld hebben dat ze een optimalisatie gemaakt hebben, en dat ze in de docs suggereren full-trilineairi te gebruiken. Als ze dat hadden vervangen door full-trilineair beeldkwaliteit, dan was er niets aan de hand geweest. Op dat punt kun je ATI inderdaad terecht ATI aanvallen.

Maar ook voor de veeleisende gebruiker is er geen kwaliteitsverschil te ontdekken. Al 4 weken probeert iedereen verschil te ontdekken, maar niemand ziet ergens IQ issues die met die filtering te maken hebben. En reken maar dat Nvidia ook druk is met zoeken, maar zelfs zij hebben nog niets kunnen vinden.

Maar helaas wordt dat laatste in deze discussie steeds vergeten. Ja ATI zat fout dat ze er niets over gezegd hebben. Maar als je er niets van kan zien, dan zitten ze niet fout dat je de optimalisatie niet uit kan zetten.

Als je namelijk EERLIJK wil benchmarken dan vergelijk je de snelheid bij GELIJKE BEELDKWALITEIT.
Als ATI met die optimalisatie gelijke beeldkwaliteit heeft aan een ATI of Nvidia kaart zonder optimalisatie, dan is er geen enkel probleem om met die optimalisatie geactiveerd te testen tegenover een kaart die die optimalisatie niet heeft.

Dat is ook precies de reden waarom er bij NVidia wel geeist werd dat brilineair uitgezet kon worden, want daar was geen sprake van gelijke beeldkwaliteit.
maar mogen we dat wel zelf weten? en kunnen ze de volgende keer gewoon melden dat ze een andere aanpak hebben? zodat we voortaan gewoon puur naar subjective performance gaan kijken. het is natuurlijk wel een beetje appart om te zeggen dat je Tri Linear filtering doet en ondertussen heel iets anders hebt geimplementeerd. en vervolgens te weizen op de benchmarks en te zeggen, " kijk wij zijn sneller in Tri linear filtering" terwijl ze helemaal geen Tri linear filtering doen. Natuurlijk maakt het voor de gemiddelde gebruiker niets uit, maar deze kaart is niet voor de gemiddelde gebruiker bedoelt, en het is weldegelijk belangrijk in de high end markt om te weten hoe een chip bepaalde functies afhandelt. Ik kijk uit naar de volgende ronde driver releases van ATi en nVidia
Maar als een fabrikant stiekem xyz-filtering doet, terwijl ze zeggen dat ze trilineair filteren.

En dan blijkt dat het met xyz-filtering gegenereerde plaatje bit-voor-bit identiek is aan het trilineaire plaatje.

Is er dan een probleem of niet? :z
mr-a. Je hebt een goed punt.

Maar ik zou het willen aanvullen, met: Nou blijkt het plaatje niet bit-voor-bit identiek te zijn, maar in een dubbelblinde test kan men geen kwaliteitsverschil zien.

Is er dan een probleem of niet.

Uiteindelijk is het het eindresultaat dat je waarneemt dat telt.
Zie reactie hierboven, wel degelijk interessant!

En wat mij nog veel interessanter lijkt: zou je zoiets ook in kunnen schakelen voor oudere kaarten?
Kent iemand nog het begrip Tile based rendering?

Zover als ik het me kan herinneren was dat ook een optimalisatie waarbij enkel de zichtbare polygonen in een 3d applicatie werden berekend: hierdoor ging de performance met sprongen vooruit ten opzicht e van videokaarten die gewoonde gehele scene rederden, inclusief 'onzichtbare' polygonen.

Dat was ten opzichte van videokaarten die dat niet deden ook cheaten?

Wat een gemekker weer: Als je het met het blote oog niet kan zien, maar wel merkt in snelheid, dan is het inderdaad een optimalisatie en GEEN cheat.

Bovendien is dit weer een ATI/NVIDIA fanboy clash. :Z Ik denk dat alle argumenten die ik heb gelezen al minimaal 3 keer op tweakers nieuwsposts zijn terug te vinden, als het al niet meer is. |:(
Bij Beyond3D was er in twee dagen een thread van 40 pagina's. :)

Maar het meest interessante van al die discussies de afgelopen weken is dat de Nvidia fanboys nog steeds nergens problemen met de beeldkwaliteit hebben kunnen ontdekken die door deze filtering optimalisatie veroorzaakt worden.

(Wel lijkt het er op dat AF weer iets aangepast is tov de R300, waardoor je af en toe wat meer shimmering kan krijgen. Maar dat heeft hier dus niets mee te maken)
@duce.

Je reactie is veel te kort door de bocht. Wat namelijk erg belangrijk is in deze discussie is of de beeldkwaliteit verminderd word. Dat gebeurt bij de ATI optimalisatie niet.

De maker van een game wil iets laten zien. En zolang je dus de beeldkwaliteit niet aantast, IS ER DUS NIETS AAN DE HAND.

En wat betreft die Starwars beelden. Daar zit je er compleet naast. Ten eerste is het niet waar dat de gloed niet te zien was. Die gloed was er wel degelijk.
Ten tweede had dat niets met een optimalisatie te maken, maar was het een verschil in de manier waarin ATI en NVidia de gloed geimplementeerd hadden.
Ten derde weet niemand hoe de fabrikant daar de gloed bedoeld had, dus kan je niet nagaan wie er het beeld juist heeft gemaakt.
Ten vierde scheen bij Nvidia de gloed door het hoofd van de speler weer wat zeer onrealistisch is, terwijl dat bij ATI niet het geval was.
Ten vijfde lijkt de gloed zoals die bij ATI werd afgebeeld veel sterker op de gloed zoals die bij elke StarWars film en ander spel getoont is.

Conclusie: je bewering dat ATI hier fout zat is nergens op gebaseerd.
ik wil wel eens een fullscreen mouseover ongecomprimeerde screenshot zien van de verschillende instellingen...
dan kan je pas zeggen of het uit maakt of niet.
@mr_a (fout gepost, i know ;))
Waarom niet echt een zinnige post?

Als we ervan uitgaan dat andere kaarten wel puur beoordeeld worden op hun technisch kunnen via benchmarks waarom dan deze kaart niet.

Dat de verschillen met het blote oog niet te zien zijn maakt (bij het vergelijken met andere kaarten) toch geen verschil?

In de conclusie van benchmarks staat toch ook 'kaart x presteert beter dan kaart y'.
En niet 'kaart x is evenwaardig aan kaart y want je zal de verschillen met het blote oog niet zien'

edit:
Typo's


edit:

Voor alle duidelijk:
Ik ben niet uitgesproken pro NVidia of pro ATI, heb die hele heisa rond NVidia een beetje aan mij laten voorbij gaan (geloof het of niet ;)).
'Beschuldigingen' in de richting dat ik anti ATI zou denken zijn dus onterecht :?
Het trilineaire filter systeem met optimalisaties van ATi is juist een technische verworvenheid van deze ATi chips, ATi verdient lof in plaats van gezeik. ATi heeft goed nagedacht hoe dit geimplenteerd dient te worden en ze hebben het op zo'n manier gedaan waarbij het niet in de beeldkwaliteit zichtbaar is dat het gebruikt wordt.

Optimalisaties die NVIDIA toepast zijn bepaald wel met het blote oog te zien. Dit geeft aan dat ATi's consequente keuze voor beeldkwaliteit.

Het uitzetten van deze mogelijkheden en de kaarten dan gaan vergelijken met andere kaarten is pas zinloos: je maakt de ATi dan langzamer zonder geldige reden daartoe te hebben. Het enige doel van zo'n actie kan dus zijn een andere kaart, waarmee vergeleken wordt, er beter uit te laten komen. De conclusies uit zo'n review vertalen zich dan niet naar hoe de kaarten real-world gebruikt gaan worden.
Je hebt wel gelijk met dat er bij ATi geen zichbaar kwaliteits verlies optreed, maar ze lieten in eerste instantie niet eens weten dat ze optimalisaties hadden gebruikt en vervolgens wisten we nog niet hoe de kaart nu presteerde, zonder optimalisaties.
ATi zou geprezen moeten worden als ze het als feature hadden gepresenteerd en hadden laten zien dat ze met een combinatie van Bi en Tri linear filtering het zelfde beeld resultaat konden krijgen als de concurentie puur met Tri, maar ze hebben het er als trukje ingestopt, om sneller te lijken in pure Tri linear filtering dan de concurentie, en daarom komt ze geen lof toe. De concurentie houd zich met de zelfde praktijken bezig, en dat is net zo fout.
Maar het gaat een beetje ver om ATi te prijzen omdat ze beter kunnen vals spelen. laat ze allemaal maar eens open kaart gaan spelen, en ons vertellen wat ze presies allemaal uit haalen. dan kunnen we gegrond zeggen; "ATi, knap werk"
@adV (thread gaat niet dieper)

Het is wel belangrijk dat hier aandacht aan besteed wordt. Als we alle optimalisaties blijven accepteren en maar zeggen 'Je ziet 't toch niet, nie zeuren.', dan krijg je op een gegeven moment dat de beeldkwaliteit steeds minder wordt. De grens wordt dan steeds verschoven.
Hier is dit natuurlijk overdreven, omdat het totaal onzichtbaar is, maar ze hadden het wel moeten presenteren als een optie.
@DOT. Ik begrijp dat je bang bent dat de beeldkwaliteit gaat lijden onder de concurrentie tussen ATi en NVIDIA.

Ik ben daar niet bang voor. Dit blijft namelijk een innovatieve industrie, waarin fabrikanten elkaar naar het leven staan en iedere 6 maanden proberen een beter product neer te zetten. Wat beter is?
Kwaliteit van een 3D chip bestaat (onder meer) uit de volgende twee aspecten:
- snelheid,
- beeldkwaliteit.

Een fabrikant die consequent denkt het een ten gunste van het andere te kunnen opofferen, die snijdt zichzelf in de vingers, want hun producten worden minder aantrekkelijk voor de gamers community.

Daarnaast is er sprake van snelle mythe-vorming en hype-vorming. Beide fabrikanten zijn zich hier bewust van. Toch denk ik dat ATi dit beter is gaan beheersen, dat ze beter aanvoelen wat ze wel en wat ze niet kunnen flikken. NVIDIA brandt zichzelf iets te te vaak hieraan. Ik denk dat dat een van de redenen is dat ze minder populair zijn geworden dan dat ze vroeger waren.
Optimalisaties die NVIDIA toepast zijn bepaald wel met het blote oog te zien.
Tuurlijk, als nvidia iets optimaliseert (sorry, maar ik kon de verschillen zelden zien) dan heet dat een cheat en bij ati is een optimalisatie ineens iets wat lof verdient.

Nu ati de underdog lijkt te zijn kunnen ze ineens niets meer fout doen (terwijl ze nooit echt de underdog zijn geweest, ik heb helaas hand-on ervaring met hoe ati vroeger te werk ging, de reden dat ik destijds voor 3dfx en nvidia heb gekozen)

Mja, zolang ati zich alleen focust op d3d en windows en opengl (op window en linux) links laat liggen (getuige de mindere performance) zal het wel een tijdje duren voordat ik ooit weer aan ati begin
Het is totaal irrelevant hoe de kaart presteert zonder die optimalisatie, aangezien NIEMAND die ooit uit zal zetten.
@blouwKip.
Optimalisaties die NVIDIA toepast zijn bepaald wel met het blote oog te zien.

Tuurlijk, als nvidia iets optimaliseert (sorry, maar ik kon de verschillen zelden zien) dan heet dat een cheat en bij ati is een optimalisatie ineens iets wat lof verdient.
Je spreekt jezelf tegen.
Je zegt zelf dat je de verschillen zelden kon zien. Maar zelden betekent dus dat jij soms ook wel degelijk verschillen kon zien.
M.a.w. je geeft dus zelf toe dat de verschillen bij Nvidia met het blote oog te zien zijn.
Bij ATI is dat na 4 weken zoeken door alle review sites + Nvidia + nvidia fanboys, nog steeds niet het geval.
En dat is dus de reden dat het ene een cheat is en het andere een optimalisatie.

Dat heeft er dus niets mee te maken dat ze ineens niks fout meer kunnen doen.
Optimalisaties zijn niet erg zolang je niet merkbaar achteruit gaat in beeldkwaliteit is mijn mening .. maar ik vind wel dat ze een optie aan moeten maken in de drivers.
Zoals bijvoorbeeld een optie dat je kan kiezen om de optimalisatie aan of uit te schakelen zodat je bij spellen die je makkelijk zonder optimalisaties kan spelen met full eye candy kan spelen.
Die optie gaat er ook in komen als ik het goed heb. ;) Dus straks mag je zelf kiezen of je de optimalisaties aan wilt laten of niet.

Zelf ben ik van mening dat niemand het verschil zo ziet. Het verschil zie je toch pas als je er met een vergrootglas op gaat zitten en begint te staren naar framecaptures.

De 9600-serie is al meer dan een jaar op de markt en niemand heeft daar geklaagd over slechte filteringtechnieken, nee... deze serie kwam soms met de beste beeldkwaliteit uit de bus...
Als de beeldkwaliteit niet merkbaar achteruit gaat, waarom zou je dan minder veeleisende spellen de optimalisaties uit zetten?

Als de beeldkwaliteit immers niet merkbaar achteruit gaat, dan heb je al full eye candy, en verandert er niets aan het beeld als je de optimalisaties uit zet.
ATI is hiermee echt een slechte beurt aan het maken.
Niet dat het voor gamers echt veel verschil zal maken. Maar ATI is sinds de R350 aan een opmars begonnen bij professionele gebruikers. Ik ken een groot aantal Autocad gebruikers, niet de powerusers, die zich een 9600 of 9800XT met 256mb geheugen hebben gekocht owv de redelijke prestaties tegen een vrij goede beeldkwaliteit. Voor die nichemarkt tussen de high-end workstationgebruiker en de modale thuisgebruiker zou ATI dit nooit mogen doen.
Ik ben helemaal gewonnen voor het principe van automatische settings. Maar voor een tekenaar, die alles perfect afgelijnd wil zien gaat kwaliteit boven snelheid.
Een mogelijkgheid tot vrije keuze in het menu zou een minimum moeten zijn.
Je krijgt van ATI 30% performance winst, terwijl je helemaal niets aan beeldkwaliteit inlevert...

Waarom maakt ATI dan een slechte beurt?
omdat ze niet vertellen dat ze het doen
In de drivers van NVidia en ATI zitten vele honderden van dit soort optimalisaties, die allemaal onbekend zijn.

Claimen dat ATI dit openbaar moet maken, is zoiets als vragen van MS om een whitepaper, wanneer ze een optimalisatie in hun sorteer algorithme van Excel maken.
je verdraait het een beetje, natuurlijk draait het in drivers om optimalisaties, en natuurlijk is het mooi dat er een flinke performance winst te halen valt, en ze hoeven echt niet alles te melden, de meeste optimalisaties zullen bestaan uit het slim uitrekenen van een sometje. maar claimen dat je Trilinear filtering doet en het niet doen is waar men hier over struikeld, als ze hadden gezegt "kijk we doen het anders maar met het zelfde effect" was het al een heel ander verhaal geweest. wat er becritiseerd wordt is de manier waarop, niet wat
Dat ze geclaimed hebben dat ze full-tri doen en dan een optimalisatie hebben is inderdaad fout van ze.
Maar daarmee is de optimalisatie nog niet slecht. En dat onderscheid wordt steeds maar niet gemaakt in deze discussie.

De optimalisatie is een goede zaak. Dat ze er niks over verteld hebben is een slechte zaak.
En daarmee is volgens mij de zaak af.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True