Ageia PhysX-kaart getest

De mannen van Hexus.net hebben een blik geworpen op de Ageia PhysX-kaart van BFG. De PhysX-kaart is ontworpen om natuurkundige berekeningen over te nemen van de processor wat moet resulteren in realistischere games. De kern van de kaart is een parallel rekenmonster dat, volgens schattingen, ongeveer 50 gigaflops kan leveren aan 32-bit floatingpoint berekeningen bij een kloksnelheid van 250MHz. Exacte specificaties zijn echter niet vrijgegeven door Ageia. Ageia heeft aangekondigd dat er al ruim honderd games in ontwikkeling zijn die de kaart ondersteunen, maar momenteel zijn alleen Ghost Recon: Advanced Warfighter, Rise of Nations: Rise of Legends en Bet on Soldier: Blood Sport geschikt. Deze games weten de reviewer niet te overtuigen van het nut van de Ageia PhysX-kaart. Explosies zien er wat beter uit, maar het is niet te vergelijken met het wow-effect dat veel mensen hadden bij het zien van de eerste games met 3d-acceleratie. De review concludeert dan ook dat de Ageia PhysX-kaart broodnodig een killerapplicatie nodig heeft aangezien er momenteel weinig goede redenen zijn om er ruim 250 euro aan te spenderen.

BFG GX-021-BG Ageia PhysX -kaart

Door Hielko van der Hoorn

04-05-2006 • 20:18

85

Bron: Hexus.net

Reacties (85)

85
84
34
14
3
29
Wijzig sortering
Goed voorbeeld van wat?

De cellfactor demo die in het artikel genoemd word is een veel beter voorbeeld.

Maar wat je in demo's van fabrikanten ziet, zie je zelden of nooit terug in spellen.
Heeft iemand al een spel gevonden dat zo'n realistische omgeving neerzet als in de ATI Toy shop demo?

Wat er uiteindelijk telt is wat je er van terug ziet in spellen. En de eerste twee spellen zijn wat dat betreft niet best!
Uuuh, kunnen ze daar niet gewoon de tweede core van je cpu voor gebruiken? Veel meer PC's zullen een dual core hebben dan een PsyiX-card, en tijdens gamen wordt deze toch nog zelden gebruikt
Lekker kortzichtig.

Dualcore wordt NU nog niet veel ondersteund in spellen, maar dat komt wel. Quake IV is gepatched voor gebruik van de dualcore/hyperthreading.

Dus op dit moment misschien nog niet, maar later wel.

En over 5 jaar vraag je je af hoe konden we toch vroeger zonder PhysX kaart leven.

Misschien.
Over vijf jaar misschien. Maar ik zie echt geen reden om deze kaart nu aan te schaffen. Een update van de CPU is in bijna elk geval effectiever.
Als je naar de toekomst gaat kijken is Havok GPU physics weer interessant. Als je kijk naar de verwachte ontwikkeling van de rekenkracht van 'general purpose' videokaarten (bron, slide 34), dan lijkt het er op dat dat GPU's deze kaart al snel weer flink in het stof zullen laten bijten qua botte GFLOPS nummers (doen ze dat niet nu al?).

Daarnaast hebben videokaarten ook weer het voordeel dat de geometry data veelal aanwezig is in lokaal videogeheugen voor zowel de physics berekening als voor het renderen. Data locality op de videokaart is een belangrijk punt voor efficient renderen en voor zo ver ik het kan inschatten is dit niet goed te optimaliseren als je data de hele tijd moet pendelen tussen physics<->cpu<->gpu.

Maar misschien zit ik er ook helemaal naast en wordt de physics kaart een grote hit. Ik wacht in ieder geval nog even af :)
over 5 jaar inderdaad, maar dualcore is nu oook nog steeds nutteloos (veelal). Al komen er mondjes maat programma's op de markt die handig gebruik weten te maken van 2 (of meerdere) cores.
Echt waar Ackermans1973?

Oblivion: tussen de 70 a 90% op beide cores. Heroes of Annihilated Empires Open Beta beide cores op 100% ( was een leger van 800 vs 1000 a 1500 AI lol ).

Dit zijn de 2 games die ik geinstalleerd heb sinds ik dual core gegaan ben ( een maand geleden ), en beide maken er gebruik van. In HOAE was het verbasend om zo een legers vs elkaars te zien ( note: het is een gewoon RTS game, en dan bijna 2000 verschillende AI's die het uitvochten, nice ).

En als je een ander OS gebruikt ( iets dat bedoel is voor servers maar veranderd kan worden naar workstation ), zal je merken dat de load uitstekend verdeelt word over de CPU's. Ik heb tot op heden geen enkel situatie gezien waar 1 core 100% belast word & de andere leeg of bijna leeg draait. Nowp ... Meestal zitten beide cores met een max verschil van 25%.

Zo zie je maar, voor 250€ koop je een dual core 3800+ ( maw, 2 * 3200+ cores ). Waartegen die Pysics kaart enkel een paar objects kan optoveren, en 99% van de tijd nutteloos is ... Hell, moest het tenminste in staat zijn de bulletholes, body's & andere physics effecten te kunnen berekenen & onthouden!, dan het het nuttig zijn. Op deze manieer haal je meer realisme in een spel, maar mja, zelf dat doet het niet :(

Net zoals men meer dan een jaar geleden dual cores aankondigde, zei ik nog, te vroeg om aan te kopen. Pas binnen een jaar doen, en bingo. Idem hier, koop dat ding pas aan binnen een jaar, jaar & half. Dan zal je er meer nut van hebben, dan een early adaptor te zijn.
Ik heb een dual cpu systeem.
En als je een ander OS gebruikt ( iets dat bedoel is voor servers maar veranderd kan worden naar workstation ), zal je merken dat de load uitstekend verdeelt word over de CPU's. Ik heb tot op heden geen enkel situatie gezien waar 1 core 100% belast word & de andere leeg of bijna leeg draait. Nowp ... Meestal zitten beide cores met een max verschil van 25%.
jij begrijpt er dus duidelijk geen ruk van.
Dat dat toevallig bij jou spel zo is hoeft niet meteen voor alles te gelden.

Als ik 1 (! één) rekenintensief programma draai, dan wordt 1 van me Xeon CPU's loei heet en de andere niet.

Je kunt een process niet in 2e splitsen ofzo.
Wat die patches voor Doom 3 enzo doen is eigelijk feitelijk je geluid process en video process ofzo in 2 exe's splitsen. Zo kan je ene CPU of Core het geluid en de I/O doen, en de ander het grafische deel.

Dus als ik met lame een mp3 zit te encoden en ik raak me computer verder niet aan, is me 1e CPU voor de volle 100% aan het rekenen, de ander is idle.

Pak ik nog een terminal erbij (ik draai Linux) en zet ik een 2e lame aan het werk, dan zijn beide CPU's 100% aan het werk, en het ene process vertraagd het andere (op de andere CPU) niet.

Hetzelfde geld ook voor al jou mooie Dual Core dingetjes, want het zijn in feite 2 CPU's in 1 chip. Ze delen hier en daar wat resources, verder zijn het onafhankelijk opererende chipies in één.
Ja, wat zeg ik dan he?

Het wordt nu NOG NIET VEEL gebruikt.

Weer lekker blaten...
Deze opmerking komt iedere keer weer naar voren. Een toegewijde PPU is in theorie veel krachtere voor natuurkundige berekeningen dan een CPU, mits je die met de API volledig kan benutten. Dat hebben de game makers tot nu toe nog niet gedaan blijkbaar. Het wachten is op UT3...
Anoniem: 77640 @phusg5 mei 2006 02:04
Tegen dan is Core wijdverspreid. Die heeft het dubbel aantal floating-point eenheden, en samen met dual-core zorgt dat dus voor een verviervoudiging van de rekenkracht!

AGEIA zal het knap lastig krijgen. En terwijl CPU's aan parallelisme winnen worden GPU's steeds meer programmeerbaar voor 'general-purpose' toepassingen, dus ook fysische berekeningen. Denk ook aan DirectX 10 met unified shaders en willekeurige geheugentoegand.

De niche markt van PhysX krimpt zienderogen... enkel in consoles zie ik het nog overleven.
Core of geen core. Een single purpose chip als deze Ageia kaart kan veel goedkoper, veel betere prestaties leveren dan een multipurpose chip. De concurrentie komt dus niet van de CPU maar eerder van de GPU. De GPU is namelijk een sinlgle purpose chip die bedoeld is voor vrijwel dezelfde bewerkingen als een PhysX kaart. Echter de GPU wordt in veel grotere hoeveelheden gemaakt van een Physx kaart en kan dan ook goedkoper geproduceerd worden. De vraag is dan ook of Ageia op prijs/performance kan concurreren.

Ik denk persoonlijk van niet. Maar het kan altijd meevallen.
Plus dit ding is op 130nm ze kunnen voor de volgende in een keer de stap maken naar 65nm maar 90nm is dan ook nog een verbetering.
Q4 gebruikt Dual core om de renderpijp vlink de prformance van op te drijven.

DC is niet voor Physics alleen het is om de stagnerende klok schaling te compenseren en dus performance groei te handhaven. Het is niet extra het een logis gevolg van ipv 3 naar 16 way Out-of-Order architekturen is multicore een veel betere performance groei.

D'r is wel SMP design voor nodig om e rvan gebruik te kunnen maken. Zie Quak4 Meer rneder performance.

Niet voor Physics in het bijzonder. kan natuurlijk ook maar dan plijft de renderpijp aansturing achter.

Tenzij je zoiets als Fear ontwikkel zwaar GPU afhankelijk.

Daar naast is 'n PPU 'n heel stuk krachtiger dan 'n DC in Physics.
Ik heb me laten vertellen dat de (sm3) kaarten van Nvidia en Ati dit soort berekeningen ook kunnen uitvoeren. Hiervoor is nog wel een stukje driveraanpassing nodig. Nu vraag ik me af hoe deze implementatie presteert t.o.v. de aparte PhysX kaart. En dan bedoel ik, is NU een Ati/Nvidia voldoend voor de games, maar later...? Of werkt een Nvidia/Ati aanpak nu en in de toekomst ruim voldoende (of niet).
Dat klopt ed, dit kwam naar voren in On the Spot van Gamespot van 27 april. http://www.gamespot.com/pages/features/onthespot/index.php
Ze hebben het bijvoorbeeld over het berekenen van de golven in water.

Hier laten ze ook wat features van directx 10 zien.
Anoniem: 39362 4 mei 2006 22:28
Als je op dit moment een compleet nieuwe pc zou aanschaffen voor een vast budget, dan kan je volgens mij die 250 beter investeren in een duurdere videokaart in plaats van een 250 euro goedkopere videokaart samen met die physics kaart...

Als er vele games op de markt zijn die zwaar leunen op de physics kaart, dan zou de laatste optie mogelijk interessanter worden.
Anoniem: 175233 5 mei 2006 11:01
Ik zie één heel groot probleem van een dergelijke kaart.

Weliswaar laat zo'n hardware kaart het toe dat je de physics van een enorme hoeveelheid objecten berekent... Maar die moet je daarna ook afbeelden! En dat wordt problematisch.

De standaard vuistregel voor grafische kaarten is dat je alles tot het laatste moment uitstelt. Je wilt vooral de bottleneck tussen grafische kaart en de rest van de computer ontzien.
Liever vertex shaders, dan de CPU de vertexen te laten berekenen. Liever bumpmapping met een pixel shaders, dan echte displacement mapping met een vertex shader.

De haren van NVidia's zeemeermin konden realtime gerendered worden omdat vrijwel alles binnenin de GPU gebeurde. Maar het zou onmogelijk zijn wanneer die haren door een physics engine zouden zijn berekent, omdat je die data gewoon niet snel genoeg naar de GPU krijgt. Moet je je ook nog bedenken dat een hardware physics engine niet beschikking heeft over dezelfde snelle PCIe 16x verbinding als een grafische kaart....
Zoveel kan je nou ook niet weer verwachten met de bandbreedte van een PCI-slot ;)
Dat ligt eraan wat hij teruggeeft he, als hij een aantal getallen terug moet geven dan is een pci slot ruim voldoende. Het is geen echte videokaart dus deze kan waarschijnlijk makkelijk met minder bandbreedte af.

precies wat mtjdevries hieronder zegt
Je kan nog zon ingewikkelde berekening hebben als hij bijvoorbeeld (is geen reeel voorbeeld maar goed) true of false terug moet geven heb je met 1 bitje genoeg ;)
Als hij meer resultaat moet leveren dan m'n processor dan heeft hij ook wel wat bandbreedte nodig. Een PCI slot is 32 bit @ 33Mhz, oftewel +/- 1Gbit of +/- 133Mbyte. mijn processor haalt al snel het 24voudige van dat aan bandbreedte naar het geheugen.

Als ik als game-engine nog wat anders te doen heb dan kan het een winst zijn, maar ander moet dit ding gewoon sneller zijn dan mijn processor en daar heeft hij bandbreedte voor nodig,
Wat een onzin zeg.
Het resultaat van een berekening heeft geen enkele relatie met de lengte van de berekening.
Het ding kan wel een half uur staan te stampen, om vervolgens als resultaat alleen maar : "1" terug te moeten sturen.
Kun je eigenlijk met dit ding ook andere dingen? Dus stel: ik open een leuke dvd fzo, kan dit ding dan ook wat (hetzij minieme) taken op de achtergrond overnemen of niet?
Anoniem: 130302 @Kaaswagen4 mei 2006 21:53
Airflow.
Misschien is het in theorie wel mogelijk zoals je met videokaarten eigenlijk ook bepaalde taken kunt uitvoeren.

Het kan echter alleen als in de software geschreven staat dat er gebruik van een extra kaart gemaakt kan worden. Aangezien alleen games dit hebben op het moment denk ik niet dat jouw DVDtje afspelen een taak is voor deze kaart ;)
Nou nee het zou specialised FIX hardware zijn. Zoals de eerste T&L GPU. Die Pixel shader unit van d elaaste tijd zijn juist goed te misbruiken voor andere dingen. Omdat ze meer general purpouse zijn geworden maar dan in veel voud.
Natuurkundehuiswerk zeker :P
Misschien dat ze kan ingezet worden voor projecten zoals folding at hme als die software word aangepast?
Anoniem: 47200 @Blokker_19995 mei 2006 10:42
http://graphics.stanford.edu/projects/brookgpu/

daar zijn ze al mee bezig hoe ver het staat zou ik niet weten maar het is wel interessant omdat gpu's steeds sneller worden :)
ruim 250 euro dat vind ik toch echt te duur om zon ding aan te schaffen 150 euro zou ik er wel aan willen besteden, mar als ik een high end video kaart koop en dan ook nog zon ding van 250 275 euro moet kope wordt het mij iets te duur.
Anoniem: 399 @dewil19905 mei 2006 08:17
Nou, als het ding nut zou hebben kan 250 best de goeie prijs zijn (als je geen scholier bent, dan is het al snel te duur) maar met die games (geen van allen grafisch van het type "oh wow!") wordt het nooit wat. de Doom engine, de Unreal engine en Halflife moeten er gebruik van maken, dan zie je nog wel een redelijke hoeveelheid verbetering.
Gemod als "Inzichtvol"???
Niet in de Nederlandse taal in ieder geval!
;(
Anoniem: 107924 5 mei 2006 01:06
Om dit soort innovaties nou meteen een flop te noemen vind ik wel erg ver gaan... Als ik die demo's zo bekijk denk ik dat er best wel wat potentie in dit soort hardware zit.. Ik weet nog dat 3DSMax ergens rond het jaar 2000 een paar uur stond te renderen op zo'n scene zoals die demo movie met napalm.. dat was in de goede oude tijd van de dual P3 350's...

Als ze goede drivers, development kits & API's aanbieden dan zie ik ook zeker mogelijkheden in toepassingen zoals realtime visualisation en VJ apps.. maar ook zeker in de CAD wereld! Alles dat meehelpt om de processor te ontlasten zie ik wel als vooruitgang.. De CPU heeft het vaak al druk genoeg met o.a. de software logic en interfaces..

Misschien dat ze qua marketing wat breder moeten inzetten, niet puur op games waar over het algemeen de shaders ook een groot deel van de eye candy voor hun rekening nemen..

Het blijft momenteel inderdaad even afwachten, maar als de toepassingen langzamerhand steeds breder worden en de ondersteuning voor games uitgebreider zal worden dan gaat dit stukje hardware zeker wel meerwaarde bieden!
Voor de CAD wereld is de kaart waarschijnlijk niet flexibel genoeg.
Het ding heeft maar een heel beperkte instructieset.
Anoniem: 50893 4 mei 2006 21:20
Persoonlijk vind ik het prijskaartje voor gamen met vernieuwende techniek behoorlijk kostbaar worden op het moment. Het is leuk dat we Sli, Crossfire, dual CPU en nu deze kaart hebben, maar het verleden wijst uit dat er nog nooit een game is geweest die vol gebruik heeft gemaakt van alle nieuwe features.

Hartstikke leuk om te zeggen, er worden nu honderd games gemaakt met ondersteuning voor deze kaart, maar het word afwachten of het wel zo is en of er, tegen de tijd dat de games uitkomen, ook nog wel allemaal nodig is. Vind het knap dat ze daarmee eigenlijk al stellen, deze kaart word een succes. Tegen de tijd dat de spellen uitkomen zijn er al quad cores, lijkt me sterk dat daar ook al niet vast aan word gewerkt.

Zet deze kaart af tegen een Xbox360 standaard model, dan heb je voor 50 euro meer een game platform met alles erop en eraan. Tuurlijk zal er wel markt voor zijn maar denk niet in die mate als ze nu voor doen. Als het al zo bijzonder zou zijn, dan zouden Nvidia en Ati dit toch al lang bedacht hebben ? Denk dat hun roadmaps meer toegespitst zijn op de meervoudige CPU's en daarom deze stap hebben overgeslagen :)
Features moeten eerst gemeengoed worden elke introduktie loopt stroef de een wat meer dan de ander.
€300 euro lijkt veel maar is meer dat het een stukje nieuw introduktie hardware is en hier geen voledige budged midrange high-end lijn van is. Toen voodoo starte had je ook niet veel keuze alleen 1 of 2(SLI) voodoo1 en meer of minder Vidmem. Later als de oplages groot worden kunnen er meer flavors gebroduceerd worden.

De CPU zoals die nu is Single naar Dual is geen directe vervanging voor PPU. zij zijn te general purpouse dus hun sterke punt is het regelen en uit besteden van taken. Wat ook zwaar werk is. gezien de render setup ook vaak CPU intensief is. En dat in de toekomst GPU hardware dus ook Multithreaded zal worden aangestuurd.

Pas als CPU asymetrische cores introduceren dus 'n Generalpurpouse units en specialised units GpPu en SPE's zoals Cell.

4 GpPu + 16 SPE die SPE zijn dan ook uitermate beter in Physics proscessing en AI.

NEt als de huidige SM3.0 Pixel shaders. Maar die hebben al een zware taak.

Maar misschien is er dan 'n 45nm PPU chip die dat weer overtreffed.

De SPE array kan je dan zien als onboard budged power. en losse PPU als High-end Physics acceleratie.

Afwachten hoe het uitpakt. in 2007/2008
Ik weet dat je erg positief bent over een PPU. Maar kijk eens naar de trends van de laatste tijd op bijvoorbeeld het gebied van geluid. Zelfs voor de iets fanatiekere gamer, is een onboard audio-chip al voldoende.
Ik geloof niet dat er veel mensen zullen zijn die zich 300 euro af laten nemen voor zoiets als een PPU. Ik denk dat de massa eerder kiest voor minder physics dan nog een keer 300 euro extra voor zo'n kaart.
Dat is dan vooral software meuk ofschoon velen die performance hit wel nemen. De fanatiekegamer weet dat 'n losse kaart vaker sneller is dan onboard codec en de game de CPU niet zo zwaar belast.
Uiteraard zijn e rook onboard hardware versnellers maar die zijn 'n heel stuk zeldzamer.

Daarnaast is Physics een groeimarkt. Dit is pas de eerste stap.
Zo wil men met 3d naar foto realistisch gaan.
Voor Phyisics bestaat ook zo'n lange weg naar 'n steeds fijner Physics detail en veel verschillende Physics eigenschappen tegelijker tijd in zeer fijn detail.

Ik geef PPU 'n eerlijke kans dan ove rnegatief te zijn. ALs Ageia het niet haald kan het inhouden dat Physics weer 'n backseet pakt aangezien havok FX meer op de eye candy gericht is. Waar de reviewer juist ove rmekkerd. Gameplay Physics is niet de target Physics wat Havok FX in mind had.

Voor PPU komen e rlate rook zwaardere tijden als de asymetrische multi cores er komen.

PS3 gebruik Cell cel is 'n asymetrische core met één GpPU + (8-1)SPE

PhysX ondersteund dit ook.

PS3 developers hoeven dus geen rekening te houden met PC wel of geen PPU. 'n PS3 heeft altijd 'n sloot van 7 SPE beschikbaar. Voor deel van consoles Fix hardware zodat er strak gericht kan worden gedeved voor die platform.
Hier kunnen we zien wat ooit de Physics kracht daar van is. en wat CPU in de toekomst gaan brengen, als in 2008/10 die dingen er ook voor de PC zijn in X86 gedaante 4 cores + 16SPE dan kan Gameplay Physics weer 'n flinke boost krijgen en is er misschien ook al DirectX physics.

Ja positief voor mij ik ga zo'n PPU zeker halen.
Of het nou 'n sucses wordt of 'n collectors item :)
Vooral voor GRAW kan wel die performance hit je hebben.

Op dit item kan niet meer gereageerd worden.