Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia onderzoekt 'subpixel reconstruction antialiasing'

Medewerkers van Nvidia hebben in samenwerking met de technische universiteit van München een techniek ontwikkeld die zij subpixel reconstruction antialiasing noemen. De techniek zou een concurrrent voor AMD's mlaa vormen.

AMD ontwikkelde mlaa, ofwel morphological antialiasing, als een methode om kartelranden te verminderen door post processing-filters te gebruiken voor de video-output. De mlaa-techniek houdt rekening met de vorm van objecten, om zo de antialiasing efficiënter te maken. AMD introduceerde mlaa bij zijn Radeon 6870-videokaarten met Catalyst-driver 10.10a. Nvidia zou met zijn nieuwe techniek, die het subpixel reconstruction antialiasing ofwel sraa noemt, een concurrerende technologie hebben ontwikkeld, die eveneens antialiasing moet bewerkstelligen zonder veel rekenkracht te vergen.

De onderzoekers hebben een samenvatting van hun techniek op Nvidia's website gepubliceerd, waarin ze uitleggen hoe de sraa-techniek werkt. Door single pixel shading te combineren met data op subpixelniveau willen de ontwikkelaars betere beelden zonder kartelrandjes leveren. Daaronder zouden de prestaties van de videokaart weinig te lijden hebben, aangezien de techniek werkt met gerenderde afbeeldingen en data uit buffers gebruikt.

Volgens de drie onderzoekers zou sraa een afbeelding van 1280x720 pixels in 1,8ms verwerken en een antialiased beeld leveren dat vergelijkbaar is met 4x tot 16x AA. Net als AMD's mlaa zou Nvidia's sraa via drivers geïmplementeerd kunnen worden. Zolang de gpu programmeerbare shaders heeft, kan de techniek gebruikt worden.

Door

Redacteur componenten

77 Linkedin Google+

Submitter: player-x

Reacties (77)

Wijzig sortering
Als ik zo lees doet dat het alleen op de 6870 en niet op de 6850? Dus dan heb ik nog weinig aan met mijn 6850. :'(
Nee, die hebben dezelfde core en zijn qua ondersteuning volledig gelijkwaardig. Een AA-methode die voor een HD6870 werkt werkt ook voor een HD6850.
Waarom noemen ze het niet gewoon cleartype? Dat is een term die iedereen al kent. Nu hebben weer het zóveelste 4-letter-acroniem erbij.

Hoe zit het met support? Werkt dit op oudere kaarten? Moeten games het expliciet anzetten/ondersteunen?
omdat cleartype betrekking heeft tot letters.
Nou en? Het gaat om de term. Het is een bekende term en iedereen die cleartype weleens aangezet heeft, weet dat cleartype==scherper op de juiste monitor. Beetje zonde om dan een hele nieuwe nietszeggende term te bedenken. Helemaal zonde om dan ook nog es een andere term te gebruiken dan de concurrent, dat is helemaal dom.
Toen ik de titel las dacht ik: eindelijk zijn we van die vervelende dead-(sub)-pixels vanaf! En nog wel een oplossing in software - mooi zo!

Helaas, 't is iets anders... winkels zullen geld blijven scheppen met hun "0-dead-pixel guarantees", wat eigenlijk gewoon wil zeggen dat je meer kans hebt op een dead pixel als je de garantie niet koopt ;(

Nog wat leesvoer over over al dan niet overleden pixels hier
Dode pixel garantie is onzin als je via internet koopt. Je kijkt of het scherm geen dode pixels heeft en als het dat wel heeft dan zeg je tegen de winkel dat het product toch niet is wat je verwachtte en stuur je het terug.

In een gewone winkel hoeft het ook helemaal geen toegevoegde waarde te hebben, gewoon even vragen of ze dat even voor je willen nakijken. Met beleefd blijven en netjes vragen kom je een heel eind, een beetje verkoper zit het ook niet lekker als hij jou een product verkoopt wat niet in orde blijkt te zijn.
Wil dit nu zeggen dat zowel ati als nvidia gebruikers eindelijk AA hebben in games met deferred shading als gta VI en maffia II ?

Persoonlijk haat ik het gebrek aan AA. Liever een sobere game met AA dan een grafische topper zonder AA...
Ik heb moeite met de logica te vinden. liever een lelijke game met AA dan een ultra schone game zonder AA? :s
Het gaat bij mij meer om de properheid van het beeld.
Wazige textures en gekartelde lijnen zijn storend. Zaken die opvallend in het beeld springen of verdwijnen (LOD van gebouwen of autos etc) zijn ook onrealistisch en storend.

Ik heb liever minder details, objecten of effecten, maar wel een rustgevend beeld zonder storende zaken.
AMD heeft deze techniek al onder de naam MLAA, dus een stapje voor kun je het volgens mij niet meteen noemen. De versie van Nvidia hoeft niet meteen efficiënter te zijn, maar dat kan natuurlijk wel.
De techniek van nVidia is sneler als die van ATI.

Beide technieken gebruiken het eindbeeld en hebben in theorie dus maximaal de breedte*hoogte aan pixels te verwerken, maar ATI's MLAA techniek detecteerd lijnen op een andere manier, waardoor MLAA niet een vast aantal operaties doet per pixel. Voor SRAA van Nvidia geld dit wel.

Je zou het ook zo kunnen zeggen:

De complexiteit van SRAA is O(breedte * hoogte) waar de complexiteit van MLAA gelijk aan of groter is als O(breedte * hoogte) afhankelijk van het gegeven image.
Wel leuk, dat NVidia claimt dat hun techniek sneller is, jammer genoeg slaat dat nergens op. Het is namelijk een andere techniek, die toevallig hetzelfde effect probeert te bereiken.

Als de NVidia variant minder hoogwaardige output geeft dan de AMD versie dan is de hele vergelijking dus mank.

Vergelijk het met een 128Kbit MP3: op 128Kbit met een vaste bitrate heb je een vaste kwaliteit met een bepaalde grootte. Maak er een variable bitrate van en neem als gemiddelde 128Kbit en je grootte neemt niet/nauwelijks toe of neemt zelfs af maar de kwaliteit neemt gegarandeerd toe...
Je spreekt jezelf tegen. Als NVidia's SRAA een vast aantal operaties per pixel doet betekent dit dat statistisch gezien zowel de kans dat er teveel als te weinig operaties gedaan worden ongeveer 50% is. Bij MLAA wordt er gedaan wat nodig is, niet meer en niet minder. Zo kun je alles dus wel gaan goedpraten, alleen de praktijk zal uitwijzen welke techniek efficiënter is.
??
Nee hoor, nVidia kan een vast aantal operaties doen en altijd te weinig doen. Of altijd teveel.
Als je hun proces niet beshrijft dan kan je niet stellen of ze teveel of te weinig doen of statischtisch gemiddeld (50% teveel en 50% te weinig).
Je kunt zonder meer info geen enkele uitspraak doen over hoevaak ze een berekening te weinig of teveel uitvoeren.
Ik dacht dat de performance impact van MLAA minimaal was te noemen t.o.v. non-post processing AA's. Die van Nvidia kan sneller zijn, maar maakt dat uiteindelijk zoveel uit?


Ik heb begrepen dat MLAA overigens niet foutloos is. Vooral huds en non 3d overlays kunnen met het effect uit de toon gaan vallen. Als nvidia dat weet op te lossen, hebben ze een leuke techniek in handen.
Nee hoor het was een inhaalslag, en het staat nu gelijk (kwa AA dan)...

En we moeten de verschillen nog maar zien in onafhankelijke benchmarks, iets claimen en daadwerkelijk kunnen zijn namelijk 2 verschillende dingen :)
Idd want de volgende regel maakt het naar mijn mening niet representatief:
Volgens de drie onderzoekers zou sraa een afbeelding van 1280x720 pixels in 1,8ms verwerken en een antialiased beeld leveren dat vergelijkbaar is met 4x tot 16x AA.
Hoe kan iets vergelijkbaar zijn met 4x tot 16x AA... Zou hier niet iets van 1,8ms voor 4X AA en meer ms voor 16X AA?
Nee, want de manier waarop de techniek werkt (lees maar eens als je het boeiend vind) zorgt er voor dat bepaalde delen veel beter verwerkt kunnen worden dan andere delen. Niet elke groep van pixels is gelijk aan een andere, en dat zie je ook als je MLAA gebruikt. Op sommige delen van een afbeelding werkt het geweldig, op andere niet zo zeer.
Nee, de resulterende kwaliteit is (net als met MLAA) variabel, in sommige scenes en voor sommige delen van de scene vergelijkbaar met 4xAA en in andere met 16xAA (en alles daar tussenin).

[Reactie gewijzigd door knirfie244 op 31 januari 2011 13:21]

Niet in het bijzonder, MLAA bestond al voor SRAA. Daarbij moet SRAA nog geimplementeerd gaan worden, en in principe doet het hetzelfde, als wat MLAA van ATI al reeds deed. If anything, komt Nvidia nu in de buurt van ATI, maar naar mijn mening, heeft ATI altijd een stapje voorg gehad, mbt hun video kaarten.

[Edit]

@MazeWing: Ik bedoelde niet zozeer vanaf het begin, daar heb je namelijk zeker gelijk in. Ik doel meer over het afgelopen jaar. Daar heeft naar mijn idee, ATI toch de betere kaarten uitgebracht.

[Reactie gewijzigd door Nazanir op 31 januari 2011 13:54]

ehm.. altijd stapje voor gehad op nvidia?

- geforce 1: eerste hardware matige T&L unit
- geforce 3: eerste werkbare programmeerbare pixel shaders (1.1 en niet 1.0 zoals de eerste radeon, met als gevolg dat dit niet gebruikt kon worden)
- geforce 8: eerste DX10 kaart

Dan hebben we nog een aantal algemene dingen die in de loop van jaren erin zijn gestopt:
- SSAA
- Transparancy AA
- CUDA

Dus om te zeggen dat Ati altijd een stapje voor heeft gehad op nvidia slaat nergens op. De ene keer staat nvidia een stapje voor en de andere keer weer Ati.
Voor de doorbraak van Nvidia had je Trident, Diamond, SiS.

NVidia heeft vanaf de tnt rage kaarten de markt gedomineerd.

Plotseling was daar de Ati Radeon 9700, terwijl nvidia nog in de ti4x00 zat. Die radeon was een vette kaart die zijn gelijke niet kende,

En daar heeft nVidia enkele generaties lang tegen op moeten boxen.
Vervolgens kwam nvidia met de geforce 6x00 en waren ze weer de snelste..
de 8x00-serie versloeg Ati, maar die ging concurreren op prestaties per euro.

Dit heet concurrentie. Als de ene een voorsprong neemt, moet je die inhalen.
Vervolgens treedt de wet van de remmende voorsprong op waardoor je weer wordt ingehaald.
En begint het spel opnieuw.
en wie had de eerste dx11 kaart en wie negeerde een jaar lang het nut van dx11?

Ontopic: mooie concurrentiestrijd tussen de 2 technieken!
Voor zover ik weet heeft Nvidia DX11 niet zozeer genegeerd, maar was het meer dat ze gewoon stomweg hun nieuwe chips nog niet klaar hadden.

Als je nou zou zeggen dat ze DX10.1 genegeerd hebben - ja. Sterker nog, de eerste patch voor Assassin's Creed deed weinig meer dan de DX10.1 functionaliteit eruit slopen zodat Nvidia geen modderfiguur sloeg met hun "The Way It's Meant To Be Played" slogan in een game die op een Radeon sneller liep.
SSAA is gejat van 3DFX ;)


Voor de rest heb je gelijk, nVidia heeft ook vaak genoeg een stapje voor gehad op ATi. Elke 2-3 generaties wisselen ze elkaar een beetje af welke voorloopt op de ander.

[Reactie gewijzigd door knirfie244 op 31 januari 2011 13:26]

Was 3dfx niet de eerste met FSAA?
SSAA is niet gejat van 3Dfx hoor.
nVidia heeft 3Dfx overgekocht dus ook de techniek, rechten en pattenten van 3Dfx.
Wat een onzin, 3Dfx hield vast aan GLIDE, hun eigen API terwijl alle andere kaarten van dat moment DirectX en OpenGL gingen gebruikten, plus dat 3Dfx alleen als bijzetkaartje kon werken en je nog een aparte 2D kaart nodig had.
Andere kaarten ontwikkelden zich gewoon sneller, alleen kon op gegeven moment niemand nVidia bijhouden, toen die alleen leek over te blijven was daar ineens ATI.
plus dat 3Dfx alleen als bijzetkaartje kon werken en je nog een aparte 2D kaart nodig had.
De Voodoo Rush (voodoo 1 gebaseerd) en de Voodoo Banshee (Voodoo 2 gebaseerd) hadden beide een, tamelijk lelijke, oplossing om toch 2D te kunnen leveren. Vanaf de Voodoo 3 konden alle 3Dfx chips gewoon 2D leveren.

Voodoo Rush haalde zijn 2D uit een lelijke constructie met een 2D chip op een apart bord dat op de kaart gebouwd was. Dus 2 PCBs om 1 kaart te maken.
De Voodoo Banshee was een enigszins kreupele Voodoo 2 waar on-die een 2D chip aan geplakt was.
Wat wel frappant is, is dat MLAA door een onderzoeker van Intel (Reshetov) bedacht is: http://visual-computing.i...ns/publications.htm#Y2009 en nu gebruikt wordt door AMD. God of War III was de eerste game die zo de AA deed.
Dus omdat nvidia zegt dat het beter gaat worden, denk jij dat ze meteen een stap voor op amd hebben?

Ik denk dat het gewoon dezelfde resultaten zal brengen, en dat nvidia de stap die ze achterliepen weer opgepakt hebben, meer niet.
Ik heb een HD5870.
En ik heb die MLAA al op een paar spellen losgelaten.
Om eerlijk te zijn vind ik dat het op niets trekt.
Alles wordt een grote waas en het ziet er ook zeer hard uit.
AMD introduceerde mlaa bij zijn Radeon 6870-videokaarten met Catalyst-driver 10.10a.
Uhh hoezo heb jij die op je 5870 losgelaten als het pas vanaf de 6870 pas geïntroduceerd is? Misschien dat het er daarom niet mooi uit ziet?

OT:
Mooie ontwikkeling weer. Ben blij dat ze flink blijven concurreren tegen elkaar! Levert alleen maar betere en goedkopere kaarten op!
Je kunt MLAA forceren in de drivers van 6870 kaarten, maar programmas kunnen zelf een post processor schrijven die deze techniek gebruikt.

Het is net zoiets als AA forceren in je drivers.
Waahhh!

Ati/NVidia
Amd/Intel
Apple/Linux/Windows
Android/iPhone

Waarom moet die rivaliteit altijd bestaan?
Ik koop X, dus X is het beste, en wie dat niet vind moet afgebrand worden.
Dat het met religies gebeurd is nog daar aan toe, ik kan me voorstellen dat het moeilijk verkroppen is dat iemand je levensbeeld probeert te ontkrachten.
Maar bij apparaatjes en chipjes??
Veel plezier met de hoofdprijs betalen in een concurrentieloze wereld...Wees nou maar blij dat technologische vooruitgang aangejaagd wordt doordat bedrijven elkaar willen aftroeven en prijzen laag blijven omdat iedere fabrikant aantrekkelijker wil zijn dan de ander voor de consument.
Google maar eens in en out groups. Dan weet je waar het vandaan komt.
Ontzettende fanboy!

Lees eens goed. AMD ontwikkelde MLAA voordat Nvidia bedacht dat ze maar beter een concurrerende technologie zouden moeten ontwikkelen.

Edit: spuit 11

[Reactie gewijzigd door Joep op 31 januari 2011 12:50]

Heb je een paar maanden opgesloten gezeten in je kamer ofzo ;) (ati bestaat niet meer amd is nu de algemene naam)
Dit zou nvidia uit de brand kunnen hallen(tesalation was ook een flink succes)
Dus mischien worden ze met deze techniek weer de snelste en marktleider(snelste per kaart dan heh ;) )
Ik hoop dat nvidia deze techniek nog op hun 590gtx serie's zullen zetten maar ik denk dat ze pas volgende generatie hiermee zullen komen
(januari was een goede maand met de 580 3072mb van palit/gainward(zelfde berdijf))
(februari word een top maand met hun 590gtx slaan ze de 5970 aan de kant en bieden ze een flinke dosis tegenstand tegen de nieuwe 6990)

Ps:ik zit me ook lekker te maken op die 6990 :)

[Reactie gewijzigd door maarten12100 op 31 januari 2011 20:16]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*