Door Jelle Stuip

Redacteur

Nvidia's mfaa van dichtbij bekeken

18-11-2014 • 15:33

60

Multipage-opmaak

Nvidia's Multi-frame anti-aliasing

Nvidia heeft dinsdag zijn nieuwe driver, met nummer 344.75, uitgebracht. Behalve wat verbeterde prestaties in nieuwe games als Far Cry 4 en Dragon Age: Inquisition, geeft de driver ook de mogelijkheid om mfaa in te schakelen. Mfaa staat voor multi-frame sampled anti-aliasing, een feature van Nvidia's nieuwe Maxwell-videokaarten: de GTX 970 en 980. Het doel van mfaa is een hoge kwaliteit anti-aliasing, zonder daarmee al te veel in te leveren op de framerate in de game.

Anti-aliasing wordt onder andere gebruikt om de gekartelde randjes van objecten in games een gladdere afwerking te geven. De kartels ontstaan doordat objecten opgebouwd zijn uit pixels en de pixels op een beeldscherm zijn vierkant. Om er toch voor te zorgen dat een object rond lijkt, neemt msaa op een aantal punten van de pixel een sample, of steekproef, en gaat het na welke kleur de pixel op die plek zou moeten hebben.

MSAAMSAA

Geen aa (links) en 2x msaa

In de rechterafbeelding is te zien dat er twee samples per pixel worden genomen, waarbij bij twee pixels de resultaten van de samples van kleur verschillen. Vervolgens wordt de kleur van die pixel gemiddeld naar de twee kleuren van de samples, waardoor de pixel grijs wordt. In bovenstaand voorbeeld wordt msaa met behulp van twee samples toegepast, maar hoe meer samples, des te beter de kleur van de tussenliggende pixel berekend kan worden, waardoor je game er nog minder kartelig uit zal zien.

mfaamfaamfaa

Een nadeel van msaa is dat het nogal wat kracht van de gpu vergt, wat ten koste gaat van de framerate in de game. Nvidia's oplossing is mfaa, dat in hoge mate hetzelfde doet als msaa. Het verschil is dat de situatie niet per frame wordt bekeken, maar dat ook het vorige frame in beschouwing wordt genomen. Op die manier kun je in theorie de kwaliteit van 4x msaa bereiken, terwijl je de framerate houdt die je bij 2x msaa zou verwachten.

Een tweede mogelijkheid die de Maxwell-gpu biedt, zijn flexibele sample patterns. Bij 2x of 4x msaa staan de locaties waarop de samples in de pixel worden genomen normaal gesproken vast, maar dat hoeft bij Maxwell niet het geval te zijn. De driver of de applicatie kan de posities per frame en zelfs binnen het frame aanpassen.

Screenshots en benchmarks

MFAA Nvidia control panelMet de 344.75-driver is de mfaa-functie nog verstopt in het Nvidia Control Panel. In latere versies van de driver zal de functie ook geïntegreerd worden met de met de driver meegeleverde GeForce Experience. Mfaa doet zijn werk als de functie is ingeschakeld in het Nvidia Control Panel en er in een ondersteunde game minstens 2x msaa wordt toegepast. Het aantal ondersteunde games is op het moment van schrijven nog laag. De onderstaande twintig games kunnen gebruikmaken van mfaa.

Asassin's Creed IV
Black Flag
Asassin's Creed Unity Battlefield 4 Civilization V
Civlization: Beyond earth Crysis 3 DiRT 3 DiRT: Showdown
F1 2013 F1 2014 Far Cry 3 Far Cry: Blood Dragon
Grid 2 Grid: Autosport Hitman: Absolution Just Cause 2
Saints Row IV Splinter Cell: Blacklist Titanfall Wargame: European Escalation

Drie van de bovenstaande games komen regelmatig terug in onze benchmarkartikelen en daarom hebben we gekeken naar de framerates en beeldkwaliteit in Battlefield 4, Crysis 3 en Grid 2. We hebben de drie games op de hoogste instellingen, met verschillende varianten van anti-aliasing gedraaid.

Battlefield 4

Battlefield 4 geen AABattlefield 4 2xMSAABattlefield 4 2xMSAA + MFAABattlefield 4 4xMSAA

Battlefield 4, vlnr: geen aa, 2x msaa, 2x mfaa, 4x msaa

In Battlefield is het effect van anti-aliasing goed te zien bij de randjes van de planken op de grond. Zonder anti-aliasing lopen de planken, vooral achter in het frame, door elkaar. Met 2x msaa ziet het er al een stuk beter uit en 4x msaa geeft het beste resultaat. Mfaa zorgt er ook voor dat de planken vloer er goed uitziet, maar laat wat ons betreft geen duidelijke verbetering zien ten opzichte van msaa.

Battlefield 4
GPUMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 980 - 2xMSAA
****
+
***
61,3 / 99,2
GTX 980 - 2xMSAA + MFAA
****
+
***
60,7 / 96,5
GTX 980 - 4xMSAA
****
+
**
56,0 / 87,0

Als we mfaa inschakelen in Battlefield zien we de framerate iets dalen, maar we komen niet op een grote daling uit. Daar staat tegenover dat we de beeldkwaliteit ook niet enorm veel beter vonden worden.

Crysis 3

Crysis 3 Anti aliasing

In Crysis 3 hebben we ingezoomd op een roestig balkonnetje van een nooduitgang om het effect van anti-aliasing te zien. Zonder anti-aliasing heeft de balustrade van het balkon flinke kartels. Bovendien is de onderkant van het balkon voorzien van een aantal lichtgekleurde pixels, omdat het rooster waarvan het balkon gemaakt is licht doorlaat. Door een gebrek aan anti-aliasing is het licht dat door het balkon schijnt echter onnatuurlijk fel. Net als in Battlefield 4 is in Crysis 3 het effect van msaa goed zichtbaar. Hoe hoger het aantal samples, des te gladder lijkt de balustrade te worden. Opvallend is dat mfaa, in tegenstelling tot msaa, de balustrade een soort zaagtandpatroon lijkt te geven, terwijl het met msaa blokkerig blijft. Ook de gaten in de onderkant van het balkon lijken minder licht door te laten, waardoor het balkon er natuurlijker uitziet. We zijn in Crysis 3 echter, net als in Battlefield 4, niet enorm onder de indruk van het effect van mfaa. Vooral de kartels in de balustrade worden door msaa mooier weggewerkt dan door mfaa.

Crysis 3
GPUMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 980 - 2xMSAA
*****
+
**
45,3 / 64,4
GTX 980 - 2xMSAA + MFAA
*****
+
**
43,3 / 63,2
GTX 980 - 4xMSAA
****
+
**
36,7 / 55,8
GTX 980 - 4xMSAA + MFAA
****
+
**
37,7 / 54,7
GTX 980 - 8xMSAA
***
+
**
29,0 / 44,0

Het effect op de framerate is in Crysis 3 net als in Battlefield 4 niet groot. De gemiddelde framerate gaat maar een procent of twee omlaag als we mfaa inschakelen.

Grid 2

Grid 2 anti aliasing

Ook in Grid 2 is het effect van anti-aliasing duidelijk zichtbaar. De vangrail aan de rechterkant van het screenshot en het spoilertje van de auto zijn een stuk mooier afgerond met anti-aliasing ingeschakeld. Het verschil tussen msaa en mfaa is goed te zien als je 2x msaa en 2x mfaa vergelijkt. Msaa is nog vrij kartelig te noemen, terwijl mfaa weer het kenmerkende zaagtandpatroon laat zien.

Grid 2 msaa vs mfaa

Grid 2
GPUMinimum- / gemiddelde framerate in fps, hoger is beter
GTX 980 - 2xMSAA
******
+
**
122,4 / 151,7
GTX 980 - 4xMSAA
*****
+
*
116,8 / 146,9
GTX 980 - 8xMSAA
*****
+
*
107,4 / 135,9
GTX 980 - 2xMSAA + MFAA
*****
+
*
104,8 / 127,0
GTX 980 - 4xMSAA + MFAA
*****
+
*
101,6 / 124,6

In Grid 2 is mfaa wel duidelijk van invloed op de framerate, die er gemiddeld een procent of twaalf op achteruitgaat. Daarmee schiet mfaa zijn doel voorbij; de game draait zelfs soepeler met 8x msaa ingeschakeld dan met mfaa, waarmee het in deze game een overbodige functie wordt.

Conclusie

Het idee achter mfaa is mooi; je haalt dezelfde framerate als met een laag niveau van anti-aliasing en krijgt toch de kwaliteit van een hoger niveau. In twee van de drie games die we hebben getest heeft mfaa inderdaad een kleine invloed op de framerate, maar in Grid 2 loopt de game wel degelijk een stuk langzamer dan met alleen msaa. Van de kwaliteit van de anti-aliasing konden we in de drie geteste games niet onder de indruk raken. Er is duidelijk verschil te zien tussen msaa en mfaa, waarbij mfaa een soort zaagtandpatroon laat zien, doordat het pixels om en om contrasterende kleuren geeft. Wellicht valt dat op een scherm met een hoge pixeldichtheid niet op, maar op een standaard-full-hd-scherm van 23" is het verschil wel goed te zien. Hoewel mfaa op papier dus interessant lijkt, vinden we het in de drie geteste games nog niet de moeite waard. Wellicht dat de kwaliteit er in de toekomst dankzij driver-updates of geoptimaliseerde games nog op vooruitgaat.

Reacties (60)

60
60
36
4
0
22
Wijzig sortering
Fijn om te zien dat er weer eens een echt ouderwets tech-artikel op Tweakers staat die iets de diepte in gaat.

Wat ik wel nóg mooier had gevonden, was als ook de reeds bestaande gebruikte technieken zoals MSAA, FXAA, etc. waren toegelicht, al was het maar op één pagina op een beeld te krijgen van de diverse bestaande mogelijkheden, en hun voor- en nadelen.

Daarnaast was het natuurlijk fantastisch geweest als werd toegelicht welke technieken AMD gebruikt en beschikbaar heeft en die tegenover de implementaties van Nvidia waren gezet, zo hadden we ook een in-depth vergelijking kunnen zien van de strategie van Nvidia v.s. AMD, zodat toekomstige flamewars ook daadwerkelijk onderbouwd konden worden ;)

Voor de geïnteresseerden zijn dit aardige Youtube-video's, die mooi uitleggen welke vormen beschikbaar zijn. Ze worden geloof ik niet allemaal genoemd maar och.

https://www.youtube.com/watch?v=hqi0114mwtY <-- Wat is AA eigenlijk?
https://www.youtube.com/watch?v=NDo5TKr6pyc <-- Beschikbare soorten AA

Verder kunnen geïnterresseerden uit het groene danwel rode kamp hun hart ophalen in deze topics:
nVidia GeForce GT(X) 9xx Serie Ervaringen - Deel 1
CJ's Radeon Info & Nieuwsdiscussie - Deel 128
Was TXAA ook niet zo iets "zinloos"? Wellicht dat dit wel echt werkt maar TXAA maakte het er echt niet mooier op.

Persoonlijk vind ik games er zonder AA mooier en scherper uit zien als met AA. Wellicht ook te maken met de resolutie waarop je speelt maar ik vind het te wazig en blurry worden met AA, zelf op de zwaarste instellingen dus ik zet het altijd uit.
Jammer dat in de 'mini review' hierboven bij Crysis 3 SMAA niet wordt meegenomen. SMAA is voor Crysis 3 ontwikkeld maar open source en door iedereen te gebruiken.
SMAA presteert visueel ook zoals MSAA, maar qua frame rate is het geweldig.
http://www.tweakguides.com/Crysis3_6.html
http://www.hardocp.com/ar...d_performance_iq_review/6 (pagina 6 t/m 9)

Ik snap niet waarom niet alle games deze vorm van AA gebruiken.
Ik speel ook altijd met SMAA, bij Crysis 3, AC IV, Watch Dogs. Het heeft minder impact op de snelheid, en blijft er toch nog scherp uitzien. Ik vind zelf MSAA achterhaald. Met MSAA zie je nog steeds overal Jaggies, omdat er ook jaggies zijn op plaatsen waar je niet de randen van een object hebt. Die worden niet meegenomen.
Dat is waar TXAA bijvoorbeeld wel een uitkomst biedt, echter maakt dat het beeld wat softer, maar minder flikkerende delen op je scherm. Dat is een kwestie van smaak en het heeft meer effect als je verder van je scherm zit. Dan mis je het gebrek aan details iets minder.
Ik vind het allemaal goede alternatieven voor wie het wilt gebruiken, ik blijf nog gewoon bij SMAA op 1440p.
Ik snap niet waarom niet alle games deze vorm van AA gebruiken.
Volgens deze comment op slashdot is dat simpel te verklaren, NVIDIA zou de developers van games en game engines grof geld betalen.

http://games.slashdot.org...?sid=6048819&cid=48382141
Als ik hier de plaatjes van zie wordt het er ook hier niet mooier op en gezien het feit dat het blijkbaar meer resources vraagt maakt dit imo weer de zoveelste proprietary meuk die een roemloze dood zal sterven (tenzij de producent er geld op blijft stukslaan zoals Physx dat maar niet dood wil gaan (niet te verwarren met physics!))
Physx was een beetje de aftrap richting CUDA. Iedereen verklaarde Nvidia destijds voor gek (in de comments). Ondertussen weten we dat het Nvidia honderden miljoenen winst heeft gebracht in de pro markt.

Ik heb overigens ooit één keer een game gespeeld waarbij PhysX me daadwerkelijk 20 FPS opleverde. Dat was de racegame Blur waar ik toen een cpu bottleneck had (e6750@3.8 GHz). Anno 2014 heeft het verder weinig nut meer inderdaad.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:39]

Bij PhysX gaat het niet zo zeer om een FPS boost, maar om het kunnen simuleren van veel meer objecten. Bij sommige games maar het een fors verschil. Persoonlijk vind ik met name met de batman games dat het soms hele mooie effecten geeft. Ik weet nog dat er een collega bij me was die het originele batman arkham asylum bij mij zag terwijl hij het ook speelde op de PC met een ander merk 3dkaart. Die zat te kijken of hij water zag branden bij sommige stukken.

Helaas word het omdat het Nvidia only is niet gebruikt voor dingen die invloed op de gameplay hebben, maar het bied enorm veel extra mogelijkheden.

De volgende stap gaat Nvidia "flex" zijn. Ik hoop dat AMD er toch ook support voor gaat krijgen zodat we games kunnen verwachten die het ook daadwerkelijk goed gebruiken voor de gameplay. Afwachten dus. Maar het doel van Physx is niet om een boost te krijgen, het is om extra's toe te voegen. Doorgaans worden je FPS toch trager, omdat je GPU ook al die extra particles moet renderen bovenop het simuleren.
Alleen is het zo, dat dat prima op de CPU kan of via OpenCL.
Maar binnen openCL heeft nog niemand een echt goede vergelijkbare implementatie gemaakt die met physX kan concurreren. En op de CPU kan je voorlopig echt nog niet zo veel "objecten" verwerken als op een GPU. met GPU physics kan je momenteel echt nog veel meer mee dan CPU physics. Tenzij de CPU's nog een fors aantal extra cores gaan krijgen blijft dat zo.

Ik zou ook graag een wat meer open standaard zien, maar Nvidia heeft met hun physX implementatie gewoon een verdomd goed product neergezet. Ik lees intussen sinds 2008 of 2009 ofzo al overal dat PhysX geen toekomst heeft en binnen een jaar door concurerende producten zal zijn achterhaald, en dat AMD met veel betere open oplossingen zal komen enzovoorts. Maar ik moet zo'n product nog altijd zien verschijnen. Tot dusver heb ik uit het AMD kamp dat aankondigde dat physx binnen een paar jaar achterhaald zou zijn alleen tressFX zien verschijnen. En dat zou ik zeker geen directe concurent noemen.
"Veel objecten" ?
Noem eens een voorbeeld met "veel objecten"?
Een wapperende vlag? Wat rond vliegende bladeren?
Water, rondvliegend gruis van een explosie of auto die aan het scheuren is, een raam wat kapot gaat en het glas in stukjes springt, etc etc etc.
En over welke game(s) heb je het dan? Dit soort dingen kan prima zonder physx...
Physx kan alles mooier maken en echter, ja het kan op je cpu, maar dit is veel minder krachtig en krijgt het dus nooit voor elkaar om het soepel te draaien. Je kan ook spellen softwarematig laten renderen door je cpu, maar dat doen we ook niet om precies dezelfde reden.. die trekt dat niet omdat deze daar niet goed in is. Het is te veel werk om al die "zooi" te berekenen.

Om een paar voorbeelden te noemen: Borderlands maakt gebruik van physx voor gruis, water en doeken. Batman Arham asylum/city maakt er helemaal mooi gebruik van voor mist/rook (als je erdoorheen loopt wijkt het voor je uit en gaat het langs je heen ipv dat je door een wolkje loopt), tegels kun je slopen die gruis achterlaten, je cape die niet clipped door Batman maar netjes om hem heen wapperd, papier en blaadjes dwarrelen rond/op en om je heen als jij erdoorheen loopt. Let wel, de nadruk ligt niet op het effect, maar op de interactie met de omgeving. We kennen allemaal de lobby scene van the Matrix game wel waarbij je heel fijn die palen kapot kan schieten waarbij er allemaal zooi vanaf komt, echter blijft dit niet liggen.

Als je het met "dit kan prima zonder physx" hebt over dit zou elke graka kunnen, dan ja, physx is een technologie net zoals Tesselation, alleen heeft nVidia het alleenrecht erop.
TresFX (AMD) en de Hair/Fur (nVidia) zijn ook physx achtige dingen zonder dat je daar physx voor nodig hebt.

Voorbeeld:
https://www.youtube.com/watch?v=lpLtTBdq9cs
Waar wil je dit anders mee doen? Het kan zijn dat ik je niet snap.
Misschien heb je het onstaan van PhsyX even gemist?

Het idee achter PhsyX was een losse expansion card. Dus net als een videokaart of een geluidskaart aan te sluiten op de PCI-Express interface. Je kon hier destijds ongeveer €200 euro voor neerleggen: pricewatch: Asus Ageia PhysX P1 128MB DDR3 (PPU, CPU/GPU Enhancer) .

Toen Nvidia in 2008 Ageia en daarmee PhysX overnam werd het vrij snel 'gratis' voor iedereen met een Nvidia kaart beschikbaar. Het concept is er echter op gebaseerd dat het de cpu ontlast. "Het kan ook op de cpu" is dus juist niet de bedoeling.

http://en.wikipedia.org/wiki/PhysX

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:39]

Ik heb het Ageia tijdperk meegemaakt ja. Maar als directx nou geen draak van een api was, had je ruimte te over op de CPU. Aangezien we naar dx12 gaan, wat ook CPU ontlastend werkt, is physx gedoemd om uit te sterven (op een grafische kaart dan). Aangezien de GPU het dus drukker krijgt zal er weer meer naar de CPU verschoven worden.

Maar goed, de moraal van het verhaal is dat physx of open moet worden, of gewoon dood moet. Havok e.d. kunnen dit ook prima en dat draait op alle hardware.
Zonder directX ruimte te over op de CPU? Ik zou me er eens in gaan verdiepen, dan zou je snel genoeg zien dat een hedendaagse (gangbare) CPU absoluut geen match is voor een GPU.

Overigens, Nvidia heeft al vaak genoeg aangegeven dat AMD/ATi ook CUDA/PhysX mag implementeren op hun kaarten, maar AMD heeft zn zinnen gezet op een "eigen betere oplossing" die ze in 2008 al noemden maar we eigenlijk nog altijd niets van gezien hebben.

Er zijn zelfs ontwikkelaars bezig geweest met CUDA/PhysX porten naar AMD kaarten, en dat hadden ze zelfs al deels werkend. Ze gaven aan dat ze alleen wat hulp van AMD en Nvidia nodig hadden om het qua snelheid en volledigheid bruikbaar te krijgen. Die steun hebben ze van Nvidia gehad, maar AMD weigerde mee te werken, omdat ze niets zagen in CUDA/PhysX omdat ze zelf met een betere oplossing bezig waren

Later is AMD een klein beetje bijgedraaid, MAAR, Nvidia moest dan het ontwikkelwerk doen, en het mocht niet slechter presteren dan op NV kaarten.
En Nvidia zegt: jullie mogen het best implementeren, maar je moet het dan zelf doen en bent ook zelf verantwoordelijk voor de performance.

Hoe dan ook, Havok is prima, maar is ondanks het feit dat het sinds 1999 bestaat (ver voor physx) nu nog zn achterstand aan het inlopen op physx. Ik zou persoonlijk liever een volledig open en gratis oplossing zien voor physics in games, maar helaas is dat er gewoon niet op het moment. Het commentaar dat het zelfde ook gewoon op de CPU moet kunnen is totale bullsh*t. Ook havok gebruikt tegenwoordig de GPU, en er is een verdomd goede reden voor dat alle grote spelers op physics gebied dat doen, en dat is (tenzij CPU's op de schop gaan en honderden zo niet duizenden cores krijgen, of er weer dedicated physics accelerators komen) gewoon de toekomst.

Ik zeg: kom op AMD, zorg eens voor cuda/physx support zodat game developers optimaal er mee kunnen gaan werken, en het kunnen gaan gebruiken voor andere dingen dan alleen gimmicks. Helemaal gezien de gave "Flex" techdemo's van Nvidia zou het gewoon heel mooi zijn als ontwikkelaars dat optimaal kunnen gaan benutten.
"en gezien het feit dat het blijkbaar meer resources" ... nee, zo als je kon zien is het afhankelijk van de game, en vraag het vaak minder van 4xMSAA.

"Als ik hier de plaatjes van zie wordt het er ook hier niet mooier op". Die screenshots hier zijn dan ook onzin. In MFAA word de sampling gevarieer tussen pixels en tussen frames. Er word een "temporal filter" gebruikt, die iets van de samples uit het vorige frame in het huidige frame gebruikt.

Maar het grootste temporal filter zijn je ogen/brein zelf. Oftewel als je een foto zou maken van je beeldscherm, waarbij de sluitertijd meerder frames beslaat zal je geen verschil zien met 4xMSAA
Anoniem: 390875 @jezzer18 november 2014 18:50
Er was onlangs nog een mooi relaas op Slashdot over TXAA, het (gebrek aan) nut ervan, de politiek die NVidia ermee kracht bij zet, en meer:

http://games.slashdot.org...?sid=6048819&cid=48382141

tl;dr: TXAA is algeheel flut, wordt gepushed als zijnde 'de' AA oplossing in diverse populaire engines ten koste van andere technieken (zoals de elders genoemde SMAA) met dank aan druk van NVidia, en - geheel toevallig natuurlijk - draait voor geen meter op AMD kaarten

MFAA een beetje een gevalletje TXAA versie 2.0? Wie weet. Hoe dan ook lijkt er geen goede reden te zijn om het ook echt te gebruiken.
De voordelen van MFAA lijken zich toe te spitsen op voorspelbare, simpele vervolgframes. Polygonen waar je tijdens het verloop van een korte periode statistisch nog wat gegevens uit kunt plukken als deze zich verplaatsen of langzaam transformeren (draaien, enz.).

Bij realistische (=complexe) graphics zou ik geen voordelen kunnen opnoemen met het truukje dat ze bij MFAA presenteren. Je hebt domweg dan niet meer die makkelijk voorspelbare polygonen waar je met MFAA op hoopt.

Je kunt dan wellicht weer trucjes bedenken om het complexe model deels te simuleren met simpelere polygonen en dan op de Photoshop-manier "onzichtbaar" te rommelen in het plaatje. Risico is dat je dat weer gaat zien, omdat dat gerommel meer opvalt van frame naar frame. En daar moet je dan weer wat op bedenken... Niet veel aanleiding voor veel winst dus.
Ik heb laatst Neverwinter opgestart en ik zie daar een enorm vershil tussem MSAA en TXAA.
Erger zelfs zonder TXAA vind ik het er veel minder uitzien. TXAA lijkt ervoor te zorgen dat allemaal lekker glad eruit ziet en de kleuren zijn ook van invloed. MSAA is te scherp waardoor er een minder mooie kleurensamenstelling lijkt te zijn.

Ofwel ik vind dat TXAA wel degelijk anders is en mooier, in ieder geval in Neverwinter.
Uiteraard is het anders - en of het mooier is, is en blijft altijd subjectief* Echter zou ik wel willen uitlichten dat je het hier over MSAA lijkt te hebben, en niet over SMAA? Blijkbaar valt dat via SweetFX dan wel weer uit te proberen, mocht je daar behoefte aan hebben :)

Mij ging het meer om de politiek erachter.

* Even ter duiding, een voorbeeldje van NVidia zelf:
http://international.down...rison-1-smaa-vs-fxaa.html

Je moet al goed opletten om de verschillen te zien, maar laat ik 2 gebieden even specifiek noemen:
De boom midden boven: Bij SMAA voor de een wellicht te scherp, bij FXAA wellicht voor de ander te blurry.
De elektriciteitskabels bovenein: Bij SMAA voor de een wellicht te soft, bij FXAA wellicht voor de andere te 'ropy'.
Voor het gros van het beeld zijn ze verder hetzelfde, echter is FXAA proprietair, en draait alleen lekker op NVidia hardware, terwijl SMAA volledig open is en prima draait op alle platforms.
En dan is dat nog een voorbeeld van NVidia zelf, waarbij je kanttekeningen kan plaatsen :)
Die voorbeelden zijn inderdaad precies hoe ik het ervaar.

Denk niet dat bij alle games TXAA de oplossing is, zoals ik aangaf heb ik dit alleen bij Neverwinter ( waar overigens na de patch geen TXAA meer lijkt te werken ).

Was laatst een groot artikel over de fabrikanten ( AMD en Nvidia ) en waarom ze niet samenwerken aan een goede innovatieve AA.

Maarja misschien over een paar jaar weer een nieuwe "technologie" ;)
hoe hoger de resolutie, hoe minder AA nodig is... Nouja correctie, hoe hoger de DPI hoe minder AA nodig is... want als je een hoge resolutie hebt op een heel groot scherm dan heb je het misschien wel weer nodig, dan diezelfde resolutie op een postzegel formaat als een smartphone...

[Reactie gewijzigd door SuperDre op 22 juli 2024 15:39]

Het kan mijn persoonlijke voorkeur zijn maar ik vind MSAA er toch een heel stuk beter uit zien als MFAA.
Het is wel beter dan geen AA.

Het voorbeelt plaatje van de auto spoiler in grid laat wat mij betreft het probleem zien. het lijkt alsof het algoritme soms foutjes maakt en dus blokjes te donker maakt. Ik vind het MFAA plaatje echt heel veel lelijker.

Ook in het crysis 3 voorbeeld heb ik een sterke voorkeur voor MSAA. Maar het wellicht een mooie techniek voor mensen die het wel iets mooier willen maar geen performance in willen leveren.

Zelf wacht ik met smart op de volgende generatie 4K schermen want dat blijft in mijn ogen de beste manier om het beeld mooi scherp te krijgen. Het grote nadeel is de GPU power die daar voor nodig is. Maar dat moet je er dan maar voor over hebben :)
Die artefacten komen blijkbaar doordat dit (net als txaa) niet op screenshots verschijnt.

http://forums.guru3d.com/...hp?p=4962113&postcount=73

Vraag me af of dit artikel niet een grote tijdverspilling is geweest.

Hier zien ze er wel normaal uit, hardwarecapture.
http://www.pcper.com/revi...-GTX-980/Image-Quality-Co

[Reactie gewijzigd door haarbal op 22 juli 2024 15:39]

Ik heb het artikel van PcPer gelezen en kan je verzekeren dat ik in Grid 2 (op 120fps / 60Hz scherm) toch duidelijk de kenmerkende jags van mfaa heb gezien, die overeenkomen met de screenshots. Wat mij betreft zijn de screenshots dus wel representatief.
vreemd, bij pcper is het niet te zien. Je draait je games fullscreen en niet full window?
1920x1080 op een 4k-scherm, full screen
scaling op de monitor?
De komende jaren zie ik 4K in combinatie met 60+ FPS niet echt gebeuren. Immers als er zoveel rekenkracht 'over' is dan zal eerder de kwaliteit van de effecten toenemen. Resultaat is dat je dan weer je resolutie moet gaan verlagen... of 20 jaar terug in de tijd moet en op 30 FPS moet gaan spelen.

Bij een normale pixeldichtheid wordt het beeld onwijs onscherp zodra je non-native gaat. Ik ga er even vanuit dat dit op een 4K scherm niet anders is (ivm dat de pixels dan net niet uitkomen). Iemand dit al zelf geprobeerd?
Non native draaien is nooit goed ook niet op 4K schermen daar wordt het inderdaad onscherp van.

En dat 4K niet met 60FPS kan is onzin. 2560x1600 is 4,09 megapixel en dat kan met 60+ FPS met een kaart. 4K kan dus soepel draaien maar dan moet je twee kaarten in Crossfire of SLi gooien. En dat is prima te doen.

BV 2x een R9 290 of 2x GTX970 zou al volstaan. De kosten vallen dan nog wel te overzien (de R9 290 set zou 560 euro kosten maar iets meer dan een GTX980)

Het gaat denk ik nog wel 2-3 jaar duren voordat een Single GPU het aan kan. Of er moeten ineens zo veel 4K schermen verkocht worden dat AMD en nVidia nog meer hun best gaan doen om de Single GPU prestaties op te krikken.

We gaan het wel zien. Met het nieuwe Stacked memmory zal geheugen bandbreedte in ieder geval geen probleem meer zijn. Nu de GPU power nog. Maar met 16nm FinFet zetten we al een stap in de goede richting.
Niet vervelend bedoelt maar je slaat de plank flink mis. 4K heeft namelijk niets met 4 megapixels te maken...

4K resolution, also called 4K2K, refers to a display device or content having horizontal resolution on the order of 4,000 pixels

Ofwel 4096 x 2160. In de praktijk is het nu 3840 x 2160 ivm de aspect ratio. De laatste heeft 8,25 miljoen beeldpunten ipv de 2,07 miljoen van 1080p.

Volgende probleempunt de SLI suggestie. Ten eerste haalt de GTX 970 47 fps in een verouderde game. Zelfs de GTX 980 haalt het niet.
http://www.guru3d.com/art...tx_980_sli_review,22.html

Combineer dat even met de recente trend dat games 4-6 GB vram snoepen (Shadows of Morder, Evil Within).

Tel daar nog even bij op dat een SLI/Crossfire setup buitensporig veel geld kost EN een flink negatief effect heeft op je frametimes. Immers bij AFR hoort nu eenmaal micro stutter. Dan ga je dus 1000 euro uitgeven terwijl je spelervaring afneemt. Niet echt logisch toch? (Random voorbeeld met FCAT: http://media.bestofmicro....inal/far-cry-variance.png ).

Ik zie voorlopig nog geen reden om zo positief te zijn. Hoe lang heeft de stap van 60+ fps op 1920x1080 wel niet geduurd?

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:39]

Heb je wel goed gelezen? ik geef aan dat 2560x1600 = 4,09 Mpixel.
Ik zeg niet dat 4K dat is.

Het staat er misschien een beetje knullig omdat ik het daar na over 4K heb en die resolutie niet noem maar 4K is zo goed als het dubbele en daarom geef ik in diezelfde zin ook aan dat je daar twee kaarten in CF of SLI voor nodig hebt.

Sommige games zullen de 60FPS niet halen andere wel. Maar als je de meest zware settings wat terug schroeft is het geen probleem. Sommige settings leveren amper wat op qua mooier beeld maar hakken er extreem zwaar in qua prestaties.

Misschien ben ik iets te positief maar ik denkd at er genoeg mensen op 4K gaming zitten te wachten dus de GPU vendors zullen daar wel tijd en moeite in gaan steken om dat goed te laten draaien. Er wordt nu al veel mee getest.

Ik denk dat vele 4K toch wel als de opvolger van 1080p zien. waar 1440 meer een tussen stap is.
Ik lees daar gewoon je die resolutie gelijk stelt aan 4K inderdaad :P.

Er zijn gewoon bijna 400% meer beeldpixels. Los van eventuele geheugen bandbreedte problemen is er dus gewoon 400% meer performance nodig. Rendering schaalt immers best wel lineair.

Persoonlijk zie ik liever nog meer stappen richting realisme dan een 4x hogere resolutie. Ik kan me eigenlijk niet voorstellen dat game ontwikkelaars daar niet ook zo over denken.

Ut99 op 4K spelen is natuurlijk leuk maar een nieuwere game ziet er een stuk beter uit ;). Zelfs UT 2004 op 4K is nog erg matig.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:39]

Ja ok dan heb je het dus niet goed begrepen :)
Ik had het dan duidelijker moeten schrijven.

Ik niet VR is leuk maar motion sickness is nog een te groot issue door de lagg. Wellicht dat het ooit wat wordt maar dat gaat nog veel langer duren dan 4K.

Daarnaast heeft het ook iets om gewoon achter een scherm toetsenbord en muis te zitten. Toch iets relaxer. Maar alles op z'n tijd is mooi.

Ja duh dat UT 2004 op 4K niet echt mooi is. De moddels en textures zijn gigantisch veroudert :)
Ik vraag me af hoelang AA nog nuttig blijft. Als je een scherm hebt met een "retina" resolutie waarvan je de indididuele pixels niet kan onderscheiden, zal je dan het effect van AA nog merken?
Jazeker, indien je op een lager-dan-de-native-resolutie speelt. Of als de game wordt geupscaled naar een hogere resolutie.

[Reactie gewijzigd door paulr84 op 22 juli 2024 15:39]

De game upscalen (supersampling) is de beste vorm van AA. Het vreet alleen resources dus is het bijna niet te doen. The Witcher 2 is een van die games die dit ondersteunde (met oog op toekomst) en er kan geen AA techniek tegen op.

GeDoSaTo is een mooie tool waarmee je feitelijk alle D3D applicaties kan scalen naar een resolutie naar keus, wordt dan ook vaak gebruikt om games met beperkte mogelijkheden toch een stuk mooier te maken d.m.v. upscaling. Recent voorbeeld is FFXIII voor PC op Steam.

http://www.polygon.com/20...to-durante-resolution-fix
Met die 5k-schermen in het vooruitzicht (geef het 5 jaar voordat die meer mainstream worden, eerst maar eens de 4k-schermen massaal opnemen in onze inventarissen :+ ) zal dat minder het probleem gaan worden.

Maargoed, een game op full-HD en 8x AA spelen, of een game op native 5k-resolutie en 0x AA spelen is allebei best zwaar voor een grafische kaart, lijkt me. Ik vraag me af of er kaarten bestaan die een zware game op een 5k-resolutie mét 4x AA kunnen spelen. Dat wordt vast SLi of Crossfire gebruiken...
Zelfs op retina-resoluties zie je het verschil nog duidelijk. Voordat het niet meer opgemerkt is hebben we het waarschijnlijk over tienduizenden pixels in de breedte/hoogte.
Hoe zit dan dan met FXAA?
Dat vind ik het beste van beide werelden namelijk.
FXAA zorgt ervoor dat textures vervaagd worden, maar gebruikt erg weinig kracht. Als ik moest kiezen, dan gebruik ik liever geen AA dan FXAA. Gelukkig heb ik 2x GTX 780's dus kan ik minimaal 4x MSAA aanzetten.
Ja, maar voor normale gamers is FXAA de perfecte oplossing..
http://www.radeonpro.info/features/post-processing/fxaa/
http://www.kotaku.com.au/2011/12/what-is-fxaa/

prima dus..
want 95% van gamers heeft geen dual GTX780 en 95% zal daar ook nooit aan beginnen.
FXAA is geen echte antialiasing, het is postprocessing.
Persoonlijk vindt ik FXAA, eh, well

In sommige games is het een verbetering ja. Maar het is meer een soort blur filtering dan een echte anti aliasing en zeker in het texture werk merk je dat.

Als je FXAA dan vergelijkt met 2x MSAA or 4x MSAA dan zie je dat textures met MSAA niet zo geblurt worden.

En in skyrim, ik ben niet echt een shooter fan, vindt ik mooie textures belangrijker dan iets performance. Zeker aangezien deze pc makkelijk 4x 4x draait.

Op mijn oude laptop gebruikte ik gewoon FXAA. Duidelijk minder kartels en was al blij dat Skyrim redelijk draaide. Totdat de koeling naar de klote ging en ik er genoeg van had.
Ik had de indruk dat het juist de bedoeling was MFAA te gebruiken in plaats van MSAA, niet in combinatie met. Daar leek het toch op bij het filmpje met uitleg!
Ja dat idee had ik ook.

Daarbij kon ik dit ook al niet rijmen:
Mfaa zorgt er ook voor dat de planken vloer er goed uitziet, maar laat wat ons betreft geen duidelijke verbetering zien ten opzichte van msaa.
Wat ik uit het filmpje begreep was ook dat MFAA in plaats van MSAA gebruikt moet worden en ongeveer overeenkomt met 2xMSAA maar minder performance kost.

In principe kun je daaruit ook concluderen dat 4xMSAA er per definitie beter uit ziet...

Van deze bench/conclusie snap ik dus ook niet veel.

[Reactie gewijzigd door freaky op 22 juli 2024 15:39]

Het werkt alleen maar in combinatie met elkaar, omdat mfaa in principe msaa is, maar dan wordt het vorige frame ook meegenomen in de berekening, oftewel geen msaa=geen mfaa.
In mijn optiek is elke vorm van AA mooier dan geen AA, maar ik vind het alleen wat toevoegen in de rustigere games waar je wat aandachtiger naar het hele beeld kan kijken. In games als Battlefield, CoD waar de actie eigenlijk constant aanwezig is valt het verschil me vaak niet eens op. Bovendien heb ik niet een PC waarop ik alles rustig op vol kan gooien en nog steeds een steady 60 FPS kan behouden, dus AA is vanwege de performance impact dan wel één van de eerste dingen die uit gaat.
Uhhmmm niet om het een of ander maar werkt MFAA juist NIET met bewegende ipv stilstaande frames?
Met andere woorden: is dit in beweging niet scherper dan stilstaand aangezien hij ook de frames voor en na dit frame meeneemt?

Overigens moet ik zeggen dat als je een game echt hard op pauze zet of een printscreen neemt dat het er dan altijd slechter uitziet dan wanneer het in beweging is.

Zeker geen mogelijkheid dat jullie korte (2-10sec) filmpjes maken hiervan? :D
Misschien ook wel leuk om h.265 performance van de nieuwe grafische processors te testen.
Bv met 720p 30fps encoding voor real time videoconferencing en 4k 60fps decoding voor uhd videoweergave.
Mmm tja, wat kan ik zeggen.
In sommige situaties ziet MFAA er mooier uit maar het blijft mierenmelken he. Is het de moeite waard? Om dit moment weet ik dat nog niet zeker. Het ziet er in ieder geval niet uit als een cuincux-je [ah die goede oude tijd ;)]

Op dit item kan niet meer gereageerd worden.