Hardware vs Software rendering in de toekomst

Ga'ash Soffer van Voodoo Extreme heeft een artikeltje over de toekomst van hardware en software 3D acceleratie online geplant. Heel toevallig sluit dit artikel nauw aan op de de uitspraken die Tim Sweeney gisteren deed in een interview met Hardnews.org. Ga'ash noemt grote flexibiliteit als één van de voordelen van software rendering:

With so much power at developers' disposal, they are going to want to try unique things, new things. For example, CPUs may be powerful enough so that certain objects can be rendered realistically with raycasting techniques; or curves (real curves, not triangle approximated). If the 3D hardware does not have options to do this, developers will use software rendering. A developer may want to perform exotic per pixel effects, or geometry effects which are not well suited for hardware because they may be dependent on lots of different variables which cannot be fed to the hardware. This developer will use software rendering. Software rendering provides ultimate flexibility. Every little operation is controlled; the developer not only tells the computer what to do, but how to do it. Hardware rendering (of today) allows the developer to tell it what to do, not how. If the how in hardware isn't good enough, they'll use software. Remember, we're talking several years in the future, when CPUs will be capable of high quality 3D rendering.

Door Femme Taken

UX Designer

24-01-2000 • 14:41

25

Bron: Voodoo Extreme

Lees meer

Reacties (25)

25
25
12
0
0
0
Wijzig sortering
Eerlijk gezegd zie ik dit nog niet zo heel snel gebeuren. CPU's zullen wel sneller worden enzovoort, maar uiteindelijk kom je toch op een grens (Waar weet ik niet, maar ik denk dat ie er wel is). Daarnaast is het ook nog zo dat je, als je het goed wilt doen, voor rendering allerlei extra instructies nodig hebt...

Die extra instructies zullen dus alleen handig zijn voor software rendering en dus eigenlijk alleen van toepassing op gamers. En nou is het wel zo dat een groot deel van de tweakers ook vaak wel gamers zijn, maar niet iedereen is dat en is dus ook niet iedereen gediend van een processor die voor een groot deel niet gebruikt wordt. Zeker in het bedrijfsleven zijn ze daar niet zo van gediend.... Dus ik denk dat die processors wel sneller gaan worden, maar dat er toch nog wel hardware rendering zal blijven. Ook om de redenen die ik hierboven heb beschreven, maar ook omdat het toch ook bedrijven zijn die winst willen maken, dus die vinden wel dingen waardoor hun hardware rendering beter zal zijn dan de software rendering via een processor..

En als laatste wil ik ook nog even opmerking dat er op dit moment wel een hype is om spellen er zo realistisch mogelijk uit te laten zien en dat veel van de resources van een PC daarvoor gebruikt worden, maar dat houdt op een gegeven moment ook op. Dan willen mensen spellen die intelligenter reageren en dat gaat ook een zooi processor tijd kosten...en zullen processors ook zo worden dat ze daar beter op kunnen reageren....

Maja, toekomst voorspellen...
Neelix: Ik denk dat dit wel degelijk gaat gebeuren. Vergeet niet dat een 3D hardware nooit een BETER beeld kan geven als software, uiteindelijk worden er immers stomweg pixeltjes in het videogeheugen geplaatst. En wie die pixeltjes berekent, maakt voor de kwaliteit van het beeld niet uit. Wel is het zo, dat de hardware van nu sneller is als de software van nu, maar aan die ontwikkeling gaat een eind komen. Als je over 6 jaar kijkt, zit je op processoren die ___16___ keer zo snel zijn als nu (elke 18 maanden verdubbelt de snelheid, dus 4x verdubbelen). Dat is zo ontzettend veel meer rekenkracht dat je weer terug kan naar software rendering. Misschien niet eens voor een hele scene, maar dan toch op zijn minst voor de speciale effecten, waarmee Quake-Weet-ik-veel-hoeveel zich kan onderscheiden van Unreal-Nog-een-beetje-meer (of andersom).

Martijn
Hier geloof ik dus niet in. 3D chips zijn er juist om de processor te ontlasten. In de toekomst moeten spellen alleen maar realistischer worden, ze moeten dus steeds meer natuurwetten ed. berekenen, als je dan het 3D gebeuren over kan laten aan een dedicated 3D chip ga je er in snelheid altijd op vooruit. Een speciale videochip zal altijd sneller kunnen renderen dan dat je het kunt met x86-codes.

Wat mischien wel zou kunnen is dat videokaarten straks uitgerust worden met die nieuwe Transmeta chip(s) zodat je makkelijke nieuwe functies (Als bevoorbeeld voxel rendering) kan toevoegen door de software-core van de processor te updaten. Als ze dat bedoelen met software-rendering dan geloof ik wel dat dit de toekomst is.
Waarschijnlijk zal in de toekomst wel een soort van Crusoe processor op video kaarten geplaatst worden.
Zo'n processor kan dan in een bepaalde modus gezet worden (hetzij voor 3D berekeningen, Video (de)compressie etc.) Op die manier koop je niet een kaart specifiek voor spelletjes, of voor DVD-tjes maar moet je 't zien als een coprocessor voor hardware.
Op die manier krijg je (lokaal) extra real-time processor kracht. tegen een leuke prijs.

En om Neelix te quoten:"Maja, toekomst voorspellen..."
Hmmm, ik denk dat meneer soffers wel een beetje gelijk heeft. Op het moment dat je als Game-developer in je creativiteit geremd word omdat de 3d versnelling niet dat kan wat jij wilt en de processoren zijn snel genoeg, dan ga je dat wel in software doen. :) Wat volgens mij voor een 3d gfx supplier dan een mogelijke oplossing is, is ervoor te zorgen dat die grafische kaarten zelf flexibeler worden. Kijk naar Transmeta. Zij hebben een stuk van een processor in software uitgevoerd. Het zou mij niet verbazen als dat in de toekomst ook met 3d kaarten gaat gebeuren. De game-developers kunnen dan zelf kiezen welke effecten door de chip ondersteund worden, en welke algoritmes daar bij gebruikt worden. Als dit zou gebeuren kunnen er waarschijnlijk meteen meerdere units op 1 chip gebouwd worden waardoor de chips ook weer sneller worden. :D Op die manier moet het mogelijk zijn om de processoren kwa snelheid en flexibiliteit voor te blijven.
Hoevaak zouden mensen dit in het verleden al gezegd hebben? Mensen die een topfunctie hadden in de IT, mensen die er verstand van zouden moeten hebben? Hoevaak zou er al gezegd zijn "maar er komt vast en zeker binnenkort een grens".

Dat dacht men al bij de 386. Dat dacht men bij de 486, etc. Toch blijft het maar doorgaan, processors worden sneller, hdd's worden groter, geheugen wordt groter, etc.. En dit alles onverminderd snel.

Dus ik denk dat er inderdaad in de toekomst een moment komt dat 3d kaarten niet meer voldoen. Dit omdat de 3d kaart slechts uitblinkt in een aantal functies, en als er moet worden geray-traced enzo, en nog veel meer andere vage dingen, dan zal de pure floating point kracht van de processor veel meer kunnen doen dan de 3dchip dan.

Wanneer het zal zijn? Tsja.. ik hoor lui hier zeggen "dat duurt nog heeel lang". 5 jaar in de computerwereld IS ook heel lang. 5 jaar geleden was er nog niet eens een 3d kaart...
Wat ik zie gebeuren is dat er een aparte proc comp voor 3D rendering, dus gewoon een P2 als "videokaart" met een aantal aparte 3D instucties en veel software matig renderen, van 2 werelden wat.

Zeker omdat een P2 of 3 desnoods in aangepast vorm op bv 600MHz best kunnen software renderen.
Ik vind dat "vooruit" kijken niet zo verstandig, want iedereen zei in het begin dat bijv. alle games in de toekomst alleen voor glide geschreven zou worden, nou dat is dus niet gebleken, iedereen zei dat de opvolger van de TnT2 Ultra echt zou uitblinken nou das ook weer niet het geval. m.a.w er zijn te veel factoren die mee spelen om een goede prognose te maken. Vooral in de computer wereld zijn dingen zo onzeker als wat.

En dat onzin van CPU's worden zo snel dat het wel mogelijk wordt ??? echt dikke onzin !! toen ik nog een 100Mhz systeem had dacht ik dat als ik een 500Mhz systeem had ik wel alles kon emuleren.. nou mooi niet dus !! m.a.w. hoe sneller een CPU des te meer opties softwares mee krijgen dus des te meer die cpu moet doen ! Alles volgt elkaar op bijna..
TriLithium, in feite is een grafische versneller gewoon een processor. Maar de grafische processor heeft een veel specifiekere taak als een CPU en heeft daarvoor allerlei instructies. Er komen steeds meer nieuwe instructies. De laatste is T&L. Maar er komen vermoedelijk nog veel meer uit in de toekomst die in de dan nieuwe videokaarten worden gezet.
Hmm, Ulio, ik denk dus echt wel dat cpu's zo snel gaan worden. Alleen denk ik dus dat er wel een dedicated cpu blijft voor het grafische deel en een (of meerdere) voor algemene zaken en een voor geluid etc. De situatie zoals die er nu is zal dus echt niet zo heel veel veranderen. Alleen denk ik dat de eerste gfx chip fabrikant die hun chip zo bouwt dat de algoritmes via software aan te passen zijn (zoals al eerder geopperd werd, ala Transmeta) wel een heel flexibele kaart kan maken. Bugs in de T&L layer (S3!) kunnen via software updates gefixed worden, nieuwe algoritmes via software aanpassen etc. Ook zal het dan waarschijnlijk veel eenvoudiger zijn om een deel van je fx verwerking op de 'centrale' cpu te doen en een deel door '3D' hardware uit te laten voeren. En op die manier heb je dus wel software rendering (met de voordelen daarvan) en tevens hardware rendering (met de voordelen daar van :) )
M.a.w. de toekomst zal niet zwart/wit worden. Ik vermoed alleen dat de grens software/hardware wat gaat opschuiven in het 'voordeel' van software.

Op dit item kan niet meer gereageerd worden.