Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia onderzoekt 'subpixel reconstruction antialiasing'

Medewerkers van Nvidia hebben in samenwerking met de technische universiteit van München een techniek ontwikkeld die zij subpixel reconstruction antialiasing noemen. De techniek zou een concurrrent voor AMD's mlaa vormen.

AMD ontwikkelde mlaa, ofwel morphological antialiasing, als een methode om kartelranden te verminderen door post processing-filters te gebruiken voor de video-output. De mlaa-techniek houdt rekening met de vorm van objecten, om zo de antialiasing efficiënter te maken. AMD introduceerde mlaa bij zijn Radeon 6870-videokaarten met Catalyst-driver 10.10a. Nvidia zou met zijn nieuwe techniek, die het subpixel reconstruction antialiasing ofwel sraa noemt, een concurrerende technologie hebben ontwikkeld, die eveneens antialiasing moet bewerkstelligen zonder veel rekenkracht te vergen.

De onderzoekers hebben een samenvatting van hun techniek op Nvidia's website gepubliceerd, waarin ze uitleggen hoe de sraa-techniek werkt. Door single pixel shading te combineren met data op subpixelniveau willen de ontwikkelaars betere beelden zonder kartelrandjes leveren. Daaronder zouden de prestaties van de videokaart weinig te lijden hebben, aangezien de techniek werkt met gerenderde afbeeldingen en data uit buffers gebruikt.

Volgens de drie onderzoekers zou sraa een afbeelding van 1280x720 pixels in 1,8ms verwerken en een antialiased beeld leveren dat vergelijkbaar is met 4x tot 16x AA. Net als AMD's mlaa zou Nvidia's sraa via drivers geïmplementeerd kunnen worden. Zolang de gpu programmeerbare shaders heeft, kan de techniek gebruikt worden.

Door

Redacteur componenten

77 Linkedin Google+

Submitter: player-x

Reacties (77)

Wijzig sortering
In dat laatste geval: als je 2 schermen neemt met een native resolutie zoals je daar stelt, zul je dat vast wel merken. Als de resolutie (en pixelpitch) voldoende hoog zouden zijn, zouden we het niet kunnen zien, zoals men probeert met bijvoorbeeld de iPhone 4 met meer dan 300 ppi. Allleen wordt de resolutie op een 20" of 24" scherm dan zo absurd hoog dat je dan zelfs niet het lichtste spelletje op native resolutie kunt spelen met laten we zeggen een quad-sli gtx 580 opstelling.
Valt wel mee, hoor. Zolang de meeste developers gewoon de cheap way out kiezen en hun game op de PS3 bouwen, zitten moderne videokaarten nog lang niet aan hun tax - de GPU uit een console loopt inmiddels drie à vier generaties achter. Het wordt pas lelijk als je dan een PC-only titel voluit wil gaan draaien.
wat heeft dit nu er mee te maken? Consoleports zijn juist berucht voor hun belabberde performance. Als ze PC only maken en goed optimaliseren met PC technieken dan krijg je juist games die een stuk beter draaien. Natuurlijk geven ze dan ook opties om meer eyecandy toe te voegen waardoor de spellen op max een stuk zwaarder zijn, maar dat neemt niet weg dat veel PC only games juist uitstekend draaien zelfs op iets oudere systemen, terwijl verschrikkelijke ports zoals GTA4 niet vooruit te branden zijn op moderne game systemen.

Een 16:9 24" scherm is 20.8inch breed en 11.7inch hoog. aan 300ppi is dat dus een resolutie van 6240x3510, bijna 22 megapixels. Dat is meer dan de resolutie waarin de meeste films worden in opgenomen! Dat is 10 keer meer dan FullHD, de maximale resolutie van de PS3. Stel nu dat we een scherm hebben van deze resolutie. Met eyefinity kan je tot 6 FullHD schermen tegelijk van beeld voorzien. We kunnen dus op dit moment met consumer electronics maar 60% van de benodigde pixels leveren, puur hardwarematig. We zijn nog niet gaan kijken naar hoeveel kracht er nodig is om dat beeld te berekenen. De performance is ruwweg ook een tiende van de FullHD performance, maar dat is maar een deel van het plaatje. Als we per pixel dezelfde kwaliteit willen moeten we ook 10 keer grotere textures pakken, en 10 keer meer tesselation toepassen. De grafische kaarten hebben gewoon niet genoeg bandbreedte voor al deze gegevens, en ze zijn ook gewoon niet snel genoeg om al die gegevens dan ook nog te verwerken aan een normaal tempo.

De komende paar jaar gaan al deze dingen zeeeeker nog te veel zijn voor consumer PCs. AA blijft op dit moment dus een veel efficientere oplossing
Zolang je fps nooit onder de 50/60 komt heb je nergens last van. Speel je met een minimum van 120+ fps ben je bezig met overkill. Je mooie LCD/TFT scherm geeft er namelijk maar 60 per seconde weer. Alles dr tussen wordt...weggegooid/niet getoond.

Als je dus in intensieve scenes er maar voor zorgt dat je fps nog steeds op 60 of meer staat is alles prima.
als je competief speelt kijk je niet naar hz, maar naar imput lag, anders heeft die 120hz ook geen hol zin ;)

[Reactie gewijzigd door flippy.nl op 31 januari 2011 16:32]

Dat is niet persé waar. In de Call of Duty engines (specifiek die van cod4 in dit geval) is 125,250 of 333fps halen een must als je bepaalde "jumps" wilt kunnen doen. Er zijn jumps die in competitieve play toegelaten zijn die enkel mogelijk zijn als je 250fps stabiel hebt.
Dit is natuurlijk meer een bug in de engine dan iets anders, maar op hoger niveau pakken ze je erop als je geen 250fps haalt.
hz <> fps. Het ene gaat over de snelheid waarmee de videokaart rendert, het andere over de gameloop. Een "slimme" driver die bekend is met deze COD bug zou gewoon elk 5de frame kunnen pakken, en dat renderen op 50Hz, terwijl de engine denkt dat het hele spel op 250 fps draait. Weet dat ding veel dat 4 van elke 5 frames genegeerd worden.
die gameloops zitten wel vast aan de frames. De engine heeft de vorige frame en de status van de physics en speler nodig voordat hij de volgende kan berekenen. Het splitsen gaat misschien, maar dat hangt echt van de engine af en moet ook in de engine zelf worden aangepast. Het is en blijft ook een bug natuurlijk. Een bug die misschien morgen gepatched kan worden. Dan zit je daar me je driver die niet doet wat er verwacht wordt. Een driver moet doen wat de engine zegt wat hij moet doen, zo snel mogelijk. Als de engine zegt dat de driver 250fps moet berekenen, dan moet die driver dat doen, ookal worden er maar 60 of 120 echt gebruikt
AMD ondersteund als enige van de twee OpenCL. Alleen Nvidia weigert dat te doen, omdat Nvidia altijd eigen technologie wil gebruiken. Roep dus niet voordat je je bronnen hebt gecheckt.
Loop niet zo te trollen op Nvidia, Relief2009. Zoals de mensen onder jou ook al zeggen heeft Nvidia wel degelijk ondersteuning voor OpenCL. bron
OpenCL is OpenCL; er zijn meerdere versies.

nvidia heeft CUDA en OpenCL, AMD heeft OpenCL.

OpenCL draait, zover ik weet, op alle DX11-compatible kaarten, net als OpenGL 4.0, zowel op nvidia's als AMD's kaartjes.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2018 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*