Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties
Bron: Sharky Extreme

En van de stappen die een 3D videokaart moet uitvoeren voor het beeld naar het scherm kan worden gestuurd is het zogenaamde texturing, waarbij het skelet van polygonen behangen wordt met kleurwaarden, vaak onderdeel van bitmaps (textures) uit het videogeheugen. Omdat dit n van de makkelijkste en snelste manieren is om een realistisch beeld te doen onstaan is het verreweg de meest gebruikte methode in spellen. Moderne videokaarten kennen allerlei trucjes om het plaatsen van de textures zo realistisch mogelijk te doen. Doormiddel van texture filtering worden overgangen tussen verschillende textures en verschillende pixels binnen deze textures zo onzichtbaar mogelijk gemaakt.

In dit artikel op Sharky Extreme worden een paar van de meest gebruikte vormen van texture filtering uitgelegd, van het simpele point sampling tot het moderne anisotropic filtering, inclusief screenshots van Quake3 met de verschillende methodes. Ondanks alle nieuwe FSAA methodes is de conclusie dat in de kruistocht naar foto-realistisch 3D beeld filters een steeds belangrijkere rol zullen gaan spelen:

Anisotropic is going to quickly become an important feature. The next generation of graphics boards will most likely bring new forms of anti-aliasing to the consumer market. Specifically, we will be seeing multi-sampling and edge coverage mask anti-aliasing. And these new forms do not address texture aliasing, as does super-sampling, so the need for improved texture filters such as anisotropic is apparent. It will, in essence, replace super-sampling as the "fix" for texture aliasing, though as discussed above anisotropic brings advantages other than just the repairing of general artifacts. And further down the road, we can expect hardware to support even higher levels of anisotropic filtering, such as 128-tap, yet another step down the technology path that leads to the merging of real world and rendered images.

Point Sampling - Quake3
Point Sampling
64-tap anisotropic filtering - Quake3
64-tap Anisotropic Filtering

Bedankt meendering voor de tip.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (30)

Mapping, dat is wat alle kaarten nu nog doen. Al die andere truukjes zijn puur om het op te leuken. Op een gegeven moment kan het niet veel realistischer op deze manier en ik moet zeggen dat het verschil tussen mijn voodoo2 en tnt2 redelijk tegeviel.

Voxels, dat is de toekomst. Geen driehoekjes meer waar een plaatje overheen wordt gespannen, maar strakke sinusjes waar slechts een kleur aan wordt toegekent. OK dit staat nog in kinderschoenen (zie Outcast) maar dit is wel de methode om bijvoorbeeld mooi golvend water, een echt-lijkende boom (dus niet zo opzetkartonetje of cone-cilindertje) te verkrijgen. En hoe gedetaileerder de sinus-(met kleur)beschrijving hoe realistischer alles wordt. Op zich zouden er nu al spellen kunnen worden gemaakt die pas over 20 jaar outdated zijn (omdat er dan pas procs zijn die het spel op de hoogste kwaliteit kunnen draaien)

Nog een voordeeltje van voxels: videokaarten van 1200 piek zijn verleden tijd
Lijkt me redelijk overtrokken. Als je 800x600 polys op je scherm hebt kun je een haarscherp natuurgetrouw beeld opbouwen op 800x600 wat niet natuurgetrouwer kan want je hebt niet meer pixels om het op 800x600 te laten zien.

Als je dus mathematisch gegenereerde geometrie gaat tessalaten totdat de resolutie gelijk staat aan het aantal polys in screenspace heb je geen voxels meer nodig. En op die weg zitten we nu al. Verder is het zo dat niet elke geometrie gebogen is. Je kunt dus door te emuleren met convex polys, mits voldoende klein qua grootte, informatieverlies grotendeels voorkomen.

De berekeningen per pixel zijn nu vrij klein, omdat je veelvuldig interpoleert. Bij voxels zit je aan veel meer calculaties vast per pixel, zeker als je meerdere textures per voxel neemt.

Ook zijn veel geometrische figuren moeilijk te omschrijven in voxels. Terrein gaat nog wel, maar een kerk interieur al veel veel lastiger.

Vandaar dat er meer gewerkt wordt naar: real time tessalation van mathematische vlakken of benadering van die vlakken en die resultaten renderen met bestaande technieken. Je krijgt zo EN je oneindige LOD zoom EN je hebt snelle rasterisatie dmv de convex poly techniek.
Ik zit nog steeds te wachten op een videokaart die lifetime realistic Video achtige spellen/beelden kan produceren, nu de snelheid redelijk tot zeer goed te noemen is lijkt me het moment daar om eens wat dieper in te gaan op bovenstaande matererie en image quality <daar draait het tenminste om> wat meer op te schroeven. En daar zijn deze features leuke onderdelen van.

Maar ik vraag me af of bovenstaande technieken toerijkend zijn om dit waar te maken.

Er zijn kaarten die megabakken met MB's tegeleik kunnen verwerken crosslinktechnoligie? goed plan?.

Het zal wwarschijnlijk nog een paar jaar duur duren voordat dit echt mogelijk wordt.
<NViea schijnt op de goede weg te zijn met de NV20> Nu maar ff wachten wat de concurentie te brengen heeft.
Realistic beelden kan al redelijk doormiddel van raytracing. Elke pixel wordt hierbij berekend door middel van het tracen hoveel licht er van de verschillende source opvalt. Hierbij kun je brekingsindexen opgeven van objecten en nog veel meer. Het bestaat al jaren alleen het probleem is het koste m'n amiga bijna 8Mhz 32bit proc(68000) 10 jaar geleden de hele nacht om 1 frame te berekenen en dan had ik 1 glazen bol boven een checkerboard. M'n huidige computer is meer dan 1000x zo snel maar dat is nog steeds niet snel genoeg voor realtime, mischien als over 10 jaar de computers weer 1000x zo snel zijn. Tot die tijd moeten we het maar doen met allemaal texture en bumpmapping trucjes die toch al steeds dichter in de buurt komen en wel realtime kunnen, ik heb zelfs op de NVidia site al voorbeelden gezien van een glazen bol voorzien van reflectie en lenseffect door middel van de vertexshaders in combinatie met multitexturing, enviroment mapping en alpha-blending (doorzichtige texture voor degenen die niet bekend zijn met die term).
Die gasten van beyond3d zijn wel geldhoeren, zeg ;)
Eerst een artikel op Firingsquad over AA door n van de beyond3d editors, en nu weer 1 over filtering op sharky...
Achja....aan de andere kant, op dit soort sites lezen wel veel meer mensen 't, dus zo erg is het niet.
Toch wel jammer dat ze hiervoor niet meer hun eigen site gebruiken :(

Gillish

[edit] volgens mij weet niemand waar ik het over heb...
De schrijvers van dit artikel en van het artikel dat laatst op firingsquad stond over verschillende soorten anti-alliasing, zijn eigenlijk editors bij www.beyond3d.com maar freelancen er wat bij door dit soort artikels te verkopen aan grotere sites zoals sharky en firingsquad, ipv ze gewoon op www.beyond3d.com te zetten, omdat daar veel minder mensen komen, en het ze (dus) niets oplevert.
Dit artikel is een week of twee al verschenen op Beyond3D en is geschreven door "Reverend". Het heet openGL Basics- texture mapping.
www.beyond3d.com/articles/opengltexmap/index1 .php
anitropic filtering gaat mipmapping vervangen gwoon, principe van mipmapping is dat objecten die verder weg staan ander (kleiner) texture gebruikt die scherper is ipv bilinear filtering te gebruiken, dit effect zie je redelijk sterk in Halflife (vet spel nog steeds ;) ) maar raytracing is gwoon niet te realiseren nu (misschien wel in de CAD wereld maar dan betaal je je blauw)
huh? dat is NIET mipmapping. Mipmapping wordt gebruikt om kleine polygonen mee te texturen zodat de hardware toch aaneengesloten pixels uit de texture kanlezen ipv dat hij om de pixel moet springen in de texturemap.

Anisotropic filtering is een filtering die bilinear filtering gaat vervangen bij mipmapped polys. Mipmapping zal altijd blijven.
ja maar de manier waarop wordt gemipmapped is wel anders

nu wordt er gemipmapped door elke texture steeds door 4en te delen (helft van de breedte en helft van de lengte) dus bijv. 256x256 -> 128x128 -> 64x64 -> enz.
De totale geheugenruimte die hiervoor nodig is is 4/3x de (oorspronkelijke) grootte van de texture

voor anisotropic filtering wordt er voor de hoogte en de breedte AFZONDERLIJKE mipmaps berekend, waarbij de texture steeds door 2en wordt gedeeld
Bijv. 256x256 -> 256x128 -> 256x64 -> enz.
EN 256x256 -> 128x256 -> 64x256 -> enz.
De totale geheugenruimte die hiervoor nodig is is 3x de oorpronkelijke grootte van de texture

edit:

dus om anisotropic filtering volledig te benutten bij een programma met veel textures is 64+ MB vid. geheugen ook zeker een must
het feit dat je het sterk ziet in halflife komt omdat er geen trilinear filtering wordt gebruikt. Dwz dat er wordt geinterpoleert tussen 2 mipmaps ipv dat er van een mipmap ineens naar de kleinere mipmap wordt overgesprongen als de polygoon kleiner wordt

edit:

mipmapping wordt dus gecombineerd met bilinear filtering, en niet 'in plaats van' zoals jij zei
BAN DIE KNAKKER NOU EENS!
Ik heb hem net even netjes gewezen op z'n fout, mocht hij doorgaan volgen verdere maatregelen...
Ik vindt dat hier veel strenger moet worden opgetreden tegen dit soort SPAM.
zoiets van :
1e keer, waarschuwing
2e keer, het ontnemen van de mogelijkheid om de reageren voor een bepaalde tijd.
3e keer, bannen van t.net
De GeForce3 gaat al 32 taps anisoptropische filtering ondersteunen, iets wat in de previews nauwelijks aan bod is gekomen, maar in mijn ogen mooier is dan AA.
Hmmm ja dat ene plaatje is een stuk kleiner dan het andere natuurlijk ziet het grotere plaatje er gedetailleerder uit.... |:(
Hmm.. ik moet binnenkort toch maar eens uit gaan kijken naar vervanging voor m'n tnt2 en 15 inch monitor. :'(
het grootste probleem van die texture filtertjes en dergelijke zijn doorzichte "grate" textures zoals in quake 3, dan zie bijvoorbeeld in het begin(meest gedetailleerd) 60 ijzeren "pinnen" na een klein stukje nog maar 45 enz enz waardoor je dus een lelijk beeld krijgt daar moeten ze echt wat op vinden door grate textures bijv apart te renderen.
Meer info over anisotropic filtering kun je vinden bij Silicon Graphics: http://www.sgi.com/software/performer/brew/anisotrop ic.html

Met plaatjes wat nu eigenlijk het verschil inhoud. Het kost wel veel meer textures dan bv mipmapping en trilinear filtering dus 64MB memory op een kaart is dan geen luxe

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True