Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: FiringSquad, submitter: T.T.

Op FiringSquad lezen we dat Epic een softwarematige renderer voor Unreal Tournament 2003 heeft uitgebracht. Epic heeft Pixomatic van RAD Game Tools gebruikt als renderer. Michael Abrash en Mike Sertain hebben dit programma geschreven. Abrash is onder andere bekend van zijn boeken en natuurlijk zijn bijdrage aan het spel Quake. Pixomatic is bedoeld om een breed publiek aan het gamen te krijgen. Langzame of ontbrekende 3D-kaarten mogen volgens Epic geen belemmering zijn voor gamers. Het programma biedt MIP mapping, bi-linear filtering, alpha-blending, alpha-test, point sprites, multi-texture en een scala aan andere features. Pixomatic produceert on-the-fly MMX-, 3DNow!- en SSE-code op een acceptabele snelheid. De reacties op het forum van FiringSquad zijn verdeeld maar redelijk positief:

Pixomatic logo kleinJust given it a shot, not bad actually certainly not as bad as I thought it would be. You certainly need a very fast CPU. On my 2.5GHz P4 @ 800x600 it was barely playable, and at 320x240, although the frame rate was smooth, it looked like a GameBoy Advance game blown up on a large TV.

[...] This would be a good idea for laptop owners with poor 3D cards (read no 3D cards), or for office PC owners for the same reasons. It would certain help people like me who works in a game shop and have to put up with people bringing these games back coz their graphics card isn't fast enough, don't have the right drivers etc.
Moderatie-faq Wijzig weergave

Reacties (33)

altijd handig, een software renderer. Bijvoorbeeld als je 3D kaart het net heeft begeven, en je alleen een El Cheapo-PCI VGA kaartje heeft.

Of misschien zelfs om je CPU snelheid te benchen (!)
Af en toe kan het inderdaad handig zijn even terug te vallen op de software-renderer, bijvoorbeeld als je eindeloze driver-problemen hebt. (Wat ik met UnrealTournament, de oude, eindeloos gehad heb, dan startte hij mn GeForce256 weer in de software-renderer). Toch hebben ze wel gelijk als ze dit een a
"neat, but why?" move
noemen ;)

Overigens zou ik wel eens wat benches willen zien, want wat "vloeiend" en wat "acceptabel" is qua framerates is nogal subjectief. Zelf was ik in UT zo ongeveer 30 à 40fps gewend en dat vond ik prima spelen. Met mn nieuwe pc is dat plotseling 120 à 150fps en nu kan ik echt niet meer op die oude bak gamen... traaaaaag :)

Maar het zou me niets verbazen als een pc met een snelle proc (>2Ghz), maar brakke 3d kaart (bijv. oude TNT, of misschien zelfs de eerste GeForces) sneller rendert met deze software renderer dan hardwarematig. Benches, dus, graag ;)
Erg handig voor als je een Matrox kaart hebt gekocht...
Wacht maar tot dit mooie stukje software antialisaing 4x, 8x of zelfs 16 gaat doen :D Zeg maar dag tegen je Ghz' en
Dat zal bijna nooit gaan lukken. Dit is natuurlijk altijd een leuk concept maar we gaan hier weer terug in de tijd :S
Het hele idee waarom een GPU is ontwikkeld is om de processor te ontlasten van alle berekeningen op 3d gebied. Het voordeel van een GPU is dat die snel berekeningen kan uitvoeren en zijn eigen geheugen beschikbaar heeft. De verbinding van geheugen naar GPU is enorm snel (20 gb/s ofzo tegenwoordig al) en daarom halen we nu van die hoge snelheden met videokaarten.
Wil je nu alles laten berekenen door je processor en het geheugen op het moederbord dan heb je een enorm trage verbinding. Om naar je scherm te kunnen moet je sowieso je videokaart aanspreken. Je AGP bus heeft niet de snelheid / bandbreedte om veel gegevens etc. door te sturen van processor naar videokaart. Normaal gesproken hoeft dat ook niet aangezien de videokaart zelf al vaak mooie opties heeft ingebouwd (vertex shader, pixel shader etc.) die enorm snel die berekeningen kunnen maken.
Denk wel dat hier een groot verschil tussen 4x agp en 8x agp in performance is te merken.
Bullshit , wie gaat er nou ut2k3 spelen op z'n werk of laptop met "atari2600" graphics! :Z

wel handig voor een servertje idd, verder onzin!
wie praat er nou bullshit, software render voor op een server !? een dedicated UT2003 server gebruik helemaal geen renderer.
Dit nieuws is al een tijdje bekend. Gebruikers van de renderen moeten wel ik acht houden dat je op bagger instellingen het spel zult kunnen spelen, het beeld wat je te zien krijg is totaal niet representatief voor hoe het spel om een beetje normaal videokaart eruit ziet.

Persoonlijk vind ik het een 'waste of time' Als je hardware er niet aan voldoet, jammer dan. Ik zal nooit een spel op lage instellingen met eventueel een renderer gaan spelen. Je gaat geen spel kopen om vervolgens het op 640*480 op low instellingen te spelen.
Een beetje post E3 gekunstel met PixoMatic door Daniel Vogel zie ik niet als een echte waste of time. De mensen van RAD Game Tools hebben er de meeste tijd in gestoken, Daniel Vogel heeft slechts de interface geschreven tussen UT2003 en de PixoMatic renderer.
Jij mist het hele punt hardware accelerated houd in hoge performance door hardware.

Geen dedicated hardware gebruik maar puur CPU die dat niet in die verhouding aan kan is een grote stap terug.
Hou er vooral rekening mee dat de Pc van de massa waar géén 3D accelerator in zit de CPU vaak ook een oudere type is of budged.

In mijn ogen en voor de game markt 'n waste of time maar de bedoeling van epic zal anders zijn.
[quote]

Abrash is onder andere bekend van zijn boeken en natuurlijk zijn bijdrage aan het spel Quake. [b]Pixomatic is bedoeld om een breed publiek aan het gamen te krijgen. Langzame of ontbrekende 3D-kaarten mogen volgens Epic geen belemmering zijn voor gamers.[b]
[/quote]
Leuk hun markt vergroten maar heeft het zin mischien een beetje maar als je van huis uit geen gamer bent zal je dat door UT2K3 Soft renderer het ook niet worden.

Heden ten dage zijn alle genres al lang over gestaped op 3D en eisen zelfs een bepaalde niveau van 3d hardware acceleratie

De meeste games eisen als minimum een 3Dkaart mensen die zoiets niet erin hebben of een achterhaald exemplaar zijn geen gamers of hun rig is daar niet voor bedoeld.

misschien op eerste gezicht waste of time of een discutable zet van Epic maar is dit nu zo belangrijk voor de echte gamers de massa is dit dus overbodig maar voor die ultra budged gamers studentjes of kinderen die pa's oude PC toegewezen krijgen kunnen alvast gestrest games spelen aangezien door de performance hit de gameplay aangetast wordt.
FPS drop naar 10fps is zeer irritant.
Vooral als ze op pa's riks een veelvoud aan FPS kunnen ervaren.
Aangezien mensen die géén 3dkaart kunnen veroorloven zullen geen krachtige CPU hebben.

'n TNT2U komt wel es voor dat ie aan een P4 2,4 hangt maar eerder 'n PIII 500 ofzo, iets meer of stuk minder.
Er staat niet voor niets ATARI op de speldoos. :*)
Op zich een zeer goed staaltje van programmeren, maar helaas kan een CPU nu eenmaal niet tippen aan de power van een GPU, zelfs niet een hele simpele. Een 2.4 GHz CPU die staat te stampen voor een paar frames per seconde is natuurlijk geen realistische oplossing voor ontbrekende 3D kaarten.

Microsoft levert ook een reference rasterizer met DirectX mee die alles software matig kan oplossen, maar zodra er een ingewikkelde routine uitgevoerd moet worden die normaal een fluitje van een cent zijn voor een 3D kaart gaat de CPU over zijn nek. Je kan dan met wat MMX en SSE truken wel wat % winst halen, maar ik denk lang niet genoeg om een 3D kaart te emuleren.

Om over het emuleren van pixel en vertex shaders al helemaal niet te praten...
Misschien ietwat te snel door de bocht.

Deze software renderer kan de GPU min of meer emuleren neem ik aan. En als je dan voor GPU's geoptimaliseerde code hebt dan is het nogal logisch dat een CPU daar iets meer werk mee heeft.

Stel nou eens dat je een dual CPU systeem zou hebben en die 2e CPU alleen voor die GPU emulatie zou kunnen gebruiken (stel). Wat zou het effect dan zijn. Dat lijkt me wel grappig om te weten.
Het lastige is dat de twee heel moeilijk te mengen zijn. Niet alleen omdat de drivers dat niet toelaten maar ook de architectuur niet.

Er is reeds een hoop wat door de CPU gedaan wordt, zoals logica, bones (wanneer een 3D kaart deze niet hardware matig ondersteund), Aritifical Intelligence, procedural textures, shadows, etc... hoe meer de GPU in hardware ondersteund, hoe minder de CPU te doen heeft.

Dit is precies de reden waarom een snelle CPU en GPU goed samengaan. Anders zit de GPU op de CPU te wachten en andersom.

Ook is het lastig een tweede CPU te ondersteunen omdat games nu eenmaal per frame berekend worden, en multi-threading daarom heel lastig is.

Maar het is inderdaad interessant om mee te maken, maar ik denk dat de snelheidswinst marginaal zal zijn...
Om over het emuleren van pixel en vertex shaders al helemaal niet te praten...
Op dit vlak is er een enorm interessant SourceForge-project aan de gang. Het heet swshader (http://sourceforge.net/projects/sw-shader) en is gebaseerd op een project van een flipcode-member. Dit project, softwire, kan ook on-the-fly ASM code genereren. Hiermee is het goed mogelijk om pixelshaders te emuleren. swShader is in staat om PS2.0 te parseren en uit te voeren :) maw, het laatste woord is hier nog niet over gezegd...
Ik gebruik de software render op mijn dedicated server, omdat de commandline executable dingen niet mee neemt uit het inifile. (kreeg de webserver steeds niet goed geconfigureerd)

Start "normaal" op en gebruik de game interface om mijn dedicated server op te starten.

Btw. er zit maar een Riva128 PCI kaart in m'n servertje.. dus normaliter wilde UT2k3 niet eens starten vanwege de ontbrekende render capaciteiten van mijn Rivaatje..
Eindelijk een leuke CPU-benchmark: UT2003 default benchmark met soft-renderer!

Let the benching begin!

Hier alvast mijn scores:
UT2003(build2225)@640*480, AthlonXP-2400+, GF4Ti4200@AGP4x:

Flyby = 20.6 fps
Botmatch = 14.7 fps

Kan iemand ff de Opteron-scores posten? :+
Mmm, even wat tests met verschillende kaarten op hetzelfde systeem (XP2400+) gedaan, de scores verschillen toch nog wel een klein beetje:

Flyby:
19.311 Viper770
19.531 Rage 128 Pro
20.566 GF4Ti4200

Botmatch:
14.057 Viper770
14.253 Rage 128 Pro
14.740 GF4Ti4200

Zou 't met de AGP en/of de geheugen-snelheid te maken hebben?
dat zijn verwaarloosbare verschillen, waarschijnlijk ligt het er aan dat je pc net wat anders aan het doen was op dat moment. een scriptje meer draaien, of een ander programmatje dat een cpu-cycle meer vreet dan in een andere benchmark.
Is het dan ook mogelijk om de krachten te bundelen van je cpu en je gpu? Want dat zou dan betekenen dat mijn dual-XP misschien nog wat gewicht in de schaal kan leggen.
Multi-threading voor games is lastig, omdat je per frame aan het werk bent, het is mogelijk, maar dan moet je dingen vooruit berekenen via een andere thread (denk aan dynamics en character bones).
erm... nee? Je GPU is er om de graphics af te handelen voor je CPU, net zoals de FPU dat doet voor floating point operations. Je kunt de GPU dus sowieso niet gebruiken voor andere berekeningen dan waar hij voor gemaakt is: heel erg snel 3d renderen.
Sowieso een beetje weird natuurlijk... je CPU+GPU inzetten bij wijze van 2x CPU maar dan slecht in renderen :?

Los daarvan, een dual systeem zou hier natuurlijk best heel erg snel mee kunnen zijn, zolang het render-proces maar op een andere CPU draait dan het spel zelf.

* 786562 PowerFlower
Bedoel je mischien dat de 1ste CPU de spel voor zijn rekening zou nemen en de andere het werk van de software rendering zou doen?

Dit zou inderdaad heel handig zijn, maar dat zou specifiek voor zon configuratie ontworpen moeten zijn. In dit geval is de rendering en het spel zelf een geheel-> een thread.. so no bananan's
Als reactie op E.T.O. zijn verhaal:

Wat gebruikt een bedrijf dat GPU's ontwikkeld dan voor hardware om zijn nieuwe GPU te emuleren?

Misschien een beetje off-topic maar toch wel boeiend om te weten.
Waarschijnlijk een shitload aan cpu's die gekoppeld zijn.

Maar waarom zouden ze een GPU moeten emuleren om te testen of iets op de GPU snel is?. Dat merk je pas als je de kaart zelf kan testen.
Je kan ook gewoon onafhankelijke berekeningen laten doen. Zodat je per functie van de kaart kan zien hoe snel die is. Dus een berekening in een emulatie, dit hoeft dan niet in frames/seconde te gaan. Maar gewoon om te zien hoe snel dit gaat.

Bijvoorbeeld een berekening nadoen van pixel-shaders. En dan bijvoorbeeld de tijd meten hoelang er over gedaan word. Model aanpassen en dan weer kijken hoelang er dan over gedaan word.
wat dacht je van een 64way gevalletje?
denk niet dat dat een probleem is
Als je geld hebt voor een PIV 2.5 ghz kan een Radeon 8500 er ook wel af. En met die combo kan je best UT2003 spelen.

Afijn heb je op je werk wat te doen he als je genoeg vna patience had. ;)
radeon 8500 - heb ik
P4 2 ghz - heb ik

alleen zit die P4 in een laptop met een GF2go en de 8500 in een athlon 700 systeem dus UT2k3 draait alsnog kut hiero :'(
Dat is dan wel zo, maar als je
A) een laptop hebt en niets te kiezen qua 3d kaart (what you have is what you get), of
B) een pc op je werk krijgt die aangeschaft is met een lijstje van eisen waar "extreme fps in 3d games" niet op stond (daar ga je meestal niet zelf alsnog een dure 3d kaart inhangen alleen voor dat kwartiertje tussen de middag),
dan denk je daar toch heel anders over ;)
B zal waarschijnlijk niet uitgevoerd mogen worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True