Het verschil tussen FireGL / Radeon zit hem met name in de firmware (software ingebakken op de videokaart) en drivers (software op de PC).
De FireGL firmware is o.a. geoptimaliseerd om samenstellingen van 10.000+ onderdelen te kunnen renderen. Om van al die 10.000+ onderdelen de plaats in de ruimte te onthouden is veel RAM nodig, dus CAD-kaarten hebben vaak veel RAM. Vooral 'meervoudig gekromde' oppervlakken, zoals deze veel voorkomen in gietwerkstukken (wegens lossingshoeken) en gebogen plaatwerk dat in het zicht van de gebruiker eindigt (autocarosserie, custom-motor frame/tank e.d.) of aerodynamische oppervlakken (wielrenner-helm) vreet heel snel enorm veel RAM.
Heel erg belangrijk is ook de precieze plaatsing van de onderdelen, zit er net wel of geen ruimte tussen twee vlakken of lijnen, zijn twee lijnen parallel of evenwijdig? Is er geen ruimte tussen twee vlakken of snijden twee vlakken elkaar, dan is de kans namelijk groot dat je samenstelling niet in elkaar gaat passen (zonder voorhamer), of als ik een 3d-vorm aan de hand van de buitenvlakken opsla daar een miniscuul klein gat inzit, waardoor degene naar wie ik het bestand stuur er geen inhoud meer aan kan geven wegens het 'lek' en de boel overniew moet tekenen (eigen ervaring helaas).
Omdat het veel rekenwerk is om voor die 10k onderdelen plaatjes op de vlakken te projecteren, de schaduwverschillen op een onregelmatige structuur te berekenen (bumpmappen), mooie lijnen voor het menselijk oog te maken door anti-aliasen en de richting van de structuur beter aan te geven door middel van anisotropic filtering, wordt op die gebieden 'bezuinigd'. Behalve dat het namelijk veel rekenwerk is, is het voor een product engineer ook niet echt belangrijk. Is het wel belangrijk, omdat hij een presentatie met 'mooie gedetailleerde' plaatjes aan z'n baas wil geven, moet hij dus langer wachten.
Veel grafische programma's draaiden vroeger op het van oudsher voor graphics gebruikte IRIX van het op graphics gefocuste bedrijf SGI dat vandaag de dag grotendeels vervangen is door Linux; (aangezien Linux meer op IRIX lijkt dan Windows was dat goedkoper). Goede ondersteuning voor Linux is dus ook belangrijk, al wordt dat minder omdat meer en meer CAD/CAM software ook op Windows draait.
Echter, de meeste games hoeven niet 10.000 onderdelen weer te geven, dus hebben minder videoram nodig. Het boeit me ook niet zoveel 'hoeveel centimeter ruimte er tussen twee aliens zit', hoe aerodynamisch die alien is of hoeveel graden de boog van het frame van die leger-motor, en of de horizon precies evenwijdig met de bovenkant van een jeepje loopt of niet. Nauwkeurigheid is dus minder belangrijk; met (getal)-afrondingen kan volstaan worden. Echter, ik wil wel graag structuur zien, ik wil een schuine lijn niet 'trapperig/blokkerig' zien en ik wil mooie plaatjes op oppervlakken geprojecteerd zien. Dus daar moet de software (firmware / drivers) voor geoptimaliseerd zijn. Verder wil ik dat de boel met name goed op Windows draait, en Linux boeit me niet echt, want van oudsher is Windows het gamingplatform, al is dat ook aan het veranderen.
Het beste zou zijn om de hardware ook af te stemmen op het gebruik, maar het is als fabrikant goedkoper voor beide doeleinden dezelfde hardware te gebruiken en het gebruik hiervan te optimaliseren met firmware/drivers. Vandaar dat de Radeon hardwarematig 'mogelijkheden' zoals in 'talent' heeft voor CAD en vice versa. Dat 'talent' word echter niet benut door de firmware / drivers, maar wie de firmware weet te veranderen (drivers is een fluitje van een cent) kan de talenten dus op een andere manier benutten. Helaas niet allebei tegelijk, d.w.z. en mooie plaatjes en veel objecten zoals in 1000+ orc scenes als in Lord Of The Rings, daar worden computerclusters (Linux overigens, vanwege het IRIX-verhaal) voor gebruikt.
[Reactie gewijzigd door kidde op 8 augustus 2024 02:00]