Op Beyond3D is een uitgebreid artikel geplaatst over de features die mogelijk in 'DirectX Next' zullen verschijnen, en dan natuurlijk met name over Direct3D. Hoewel deze API van huis uit een Microsoft-product is, wordt de koers al jaren in goed overleg met fabrikanten van 3d-hardware en -software uitgestippeld. Een indicatie van wat Direct3D in de toekomst gaat doen, is dus tevens goede wegwijzer voor het pad waar de hele industrie de komende jaren in zal slaan. DirectX Next zal het in DirectX 8 onstane idee van de programmeerbare GPU maximaal uitbuiten. Er zal geen expliciet onderscheid meer worden gemaakt tussen pixel- en vertexshaders, en alle limieten die nu nog gelden voor het aantal instructies of textures dat een shader mag gebruiken gaan overboord.
De manier waarop videogeheugen werkt moet daarvoor veranderd worden, het is de bedoeling dat toekomstige videokaarten net als de huidige processors met virtueel geheugen gaan werken. Deze ontwikkeling wordt aangevuld met een geheel nieuw I/O-model waarin geen onderscheid meer wordt gemaakt tussen verschillende soorten data zoals pixels en vertices. Verder kan de videochip tijdens iedere stap in de pipeline data wegschrijven die volgende instructies weer op kunnen pikken. Bepaalde algoritmes kunnen door deze minder lineare opzet vele malen efficiënter worden uitgevoerd. Een andere verbetering in shader 4.0 is het toevoegen van integer-instructies. Op dit moment kan er alleen gewerkt worden met floating point getallen, wat prima is voor kleuren, maar voor de programmeur niet handig wanneer hij een lijst wil nummeren of naar een geheugenadres wil wijzen.
Ook nieuw is de toevoeging van de topology processor, een onderdeel van de pipeline die point sprites, schaduwen en 'fur'-effecten (zie onderstaand plaatje) kan laten zien zonder de CPU te belasten met de benodigde berekeningen. Daarnaast wordt het gebruik van high order surfaces (het beschrijven van vormen met behulp van wiskundige formules in plaats van met driehoekjes) wederom makkelijker gemaakt. Iets anders wat men probeert te doen is het reduceren van de overhead die het gebruik van de DirectX-API veroorzaakt, voornamelijk door een strakke integratie met Windows Longhorn, maar ook door meer flexibiliteit van de functies in het algemeen. In de conclusie merkt te schrijver op dat veel features die op het verlanglijstje voor DirectX Next staan makkelijker te implementeren lijken in tile-based architecturen dan in standaard videochips, en hij ziet dan ook een interessante kans liggen voor PowerVR. Er is echter nog een lange weg te gaan, en in hoeverre de genoemde features (verplicht) aanwezig zullen zijn op DirectX Next-videokaarten is dus nog maar de vraag:
The new memory management model, which allows virtually unlimited resources, also allows the implementation of virtually unlimited geometry storage, which has always been a concern for the deferred rendering implementations. Access to current frame buffer values from the pixel shader is also very easy to do on a tile-based deferred renderer since all the data is already in the on-chip tile buffer. So there are no costly external memory accesses required or expensive pipeline and back-end cache flushes. The front-end changes to the vertex/geometry shader side are independent of the tile-based deferred rendering principle and are thus not as big of a problem to support on tile-based deferred renderers as they are for immediate mode renderers. It will indeed be very interesting to see whether PowerVR, who has been laying pretty low lately, will take this opportunity to put out a really awesome DirectX Next implementation.
It will also be fairly interesting to see exactly how the proposed features develop - it's unclear, for example, where exactly in the pipeline the topology processor will reside. It has also yet to have been determined whether or not the new tessellator will be programmable, highly configurable, or simply purely fixed function.
Since the API is still in an extremely infantile state, much of this probably will not be known for some time, and much of what was discussed in this article will probably undergo several changes or be completely scrapped; but all in all the next few years of real-time computer graphics should prove to be quite interesting.