Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: AnandTech

Het hardwarematig versnellen van natuurkundige berekeningen was vorig jaar een populair onderwerp, dankzij het verschijnen van de eerste PPU van Ageia, gevolgd door de reactie van ATi en nVidia om physics op hun videochips mogelijk te maken.

De laatste tijd is het echter verdacht stil op dit gebied, wat voor AnandTech genoeg reden was om eens gaan kijken wat de stand van zaken is. In het tweede kwartaal van 2006 kwam Havok FX uit, een natuurkundepakket dat pixelshaders van een Radeon of GeForce kan gebruiken voor bepaalde berekeningen. Er is echter nog geen enkel spel dat gebruikmaakt van Havok FX, terwijl de normale Havok-engine wel populair is. Het later dit jaar verwachte Hellgate: London zal volgens een oude aankondiging van nVidia wel Havok FX gaan gebruiken, maar sindsdien is daar nauwelijks een woord meer over gesproken.

Er zijn verschillende verklaringen mogelijk voor het feit dat 'gpu-physics' nog niet zijn aangeslagen, zoals het feit dat de FX-versie van Havok duurder is dan de normale en het shaderkracht van de videokaart opeet, die vaak hard nodig is. Bovendien kan het alleen nog maar gebruikt worden voor visuele effecten en niet zozeer voor de zwaardere natuurkunde zoals het simuleren van botsingen. Dankzij DirectX 10 kan dat veranderen, maar het is duidelijk dat het nu nog in de kinderschoenen staat.

De Asus Physx in actie in CellFactor: Combat Training

De PhysX-kaart van Ageia kampt ook met een ernstig tekort aan games. Hoewel men ooit beweerde dat er wel honderd spellen voor in de maak waren, is tot nu toe alleen Graw verschenen, plus demo's van Graw2 en CellFactor. Hoewel de PhysX-engine ook volledig softwarematig kan werken en nota bene gratis is, kiezen veel ontwikkelaars nog steeds voor het duurbetaalde Havok. Hierdoor is het voor Ageia erg moeilijk om een voet aan de grond te krijgen. Ze hebben echter een belangrijke deal gesloten die het gebrek aan belangstelling in één klap op zou kunnen lossen: Unreal Tournament 3 gebruikt de PhysX-toolkit, dus ook alle spellen die daarvan afgeleid worden zullen de kaart kunnen gebruiken. Als dat de verkoopcijfers niet in de lift brengt, dan kan niets het meer redden.

Naast onderlinge concurrentie heeft natuurkundeversnelling ook een andere concurrent te vrezen: multicore-x86-processors als de Core 2 Quad en de eind dit jaar verwachte Phenom hebben rekenkracht ten overvloede, waardoor de behoefte om de processor te ontlasten kleiner wordt. Anand voorspelt dat de gecombineerde druk van snellere processors en videokaarten de PhysX-chip uiteindelijk te veel zal worden, waarna de strijd verder zal woeden tussen cpu's en gpu's.

Moderatie-faq Wijzig weergave

Reacties (62)

volgens mij ligt er bij die physics boel ook een struikelblok op gebied van multiplayer?

Bij beter geluid kan je denken aan surround sound enzo... heeft geen invloed op de gameplay van andere spelers.
Bij beter graphicse kan je denken aan hogere resolutie, AA, meer particles.. heeft ook al geen invloed op de gameplay van andere spelers.

Maar nu gooi je een granaat in een grote stapel rotzooi... paar honderd stuks ofzo, net als in die demo van Cellfactor. Dat rotzooi is een 'element' in het spel... het kan andere verwonden, bruggen vormen, blabla. Dus -alle- spelers zullen dezelfde physics moeten hebben. Dus...
- of iedereen moet zo'n kaart hebben, en dan precies dezelfde input; moelijk.
- of de server berekent het lokaal (zoals nu al het geval is); maakt het ding overbodig + bandbreedte
- of willekeurig persoon met zo'n kaart berekent de boel, stuurt de resultaten naar de server, en die stuurt het weer terug naar alle spelers; nog hoger bandbreedte gebruik, en is cheat-gevoelig

Voor single-player is het wel ontzettend mooi, maar voor multiplayer denk ik dat er toch nog wat hindernissen zijn. Maar misschien dat iemand anders daar 'real world' ervaring mee heeft
Je ziet het verkeerd. Zonder physics-kaart worden de berekeningen niet overgeslagen, maar worden ze door je CPU gedaan. Dit zorgt ervoor dat de performance van het spel (beste te merken aan je framerate) uiteindelijk lager wordt dan wanneer je een dedicated physics kaart hebt.
Maar daarom zitten er nog niet zoveel in zoals volledig deformerrbare auto's enzo, waarbij het wel effect heeft op de gameplay.
Ik denk dat er meer mensen met een dual of quad core zijn dan mensen met zo'n kaart. Zolang je de CPU niet 100% voltrekt is zo'n kaart overbodig.
En de extra cores in de CPU zijn ook voor allerhande andere zaken (buiten gamen) nuttig.
Goedkoper en veelzijdiger die multicores...
Ook zouden de berekeningen minder complex gemaakt zijn als de berekeningen op de CPU worden gedraaid, wat er voor (kan?) zorgen dat het er minder spectaculair en natuurgetrouw uitziet.
Die physics zijn heel mooi om te zien, maar dat is zowat het laatste wat men mist in games. Dat men in de plaats van ettelijke duizenden (?) euro's uit te geven aan zo'n licentie op Havoc maar wat geld steken in gameplay/herspeelbaarheid/duur van de game, want momenteel is het zo: bleeding edge engine, bleeding edge graphics, waardoor je dubbele van de dikste videokaart erin moet prikken, en gameplay van NIETS.

Wat ik wel niet begrijp is dat softwaredeveloppers nog steeds kiezen voor Havoc? Beter? Ik weet het niet. De prijs zal het inderdaad niet doen.

Dat Ageia maar hun PPU wat goedkoper, kleiner maakt, en ervoor zorgt dat ze ook op PCI 1x/4x passen. 50 euro zou mooie prijs zijn. Dan krijgen ze voet aan de grond, want dan wordt het interesant voor software devvers om het te implementeren.
Die physics zijn heel mooi om te zien, maar dat is zowat het laatste wat men mist in games.
Bijna :)
Wat ik nog steeds mis, is raytraced rendering. Voorbeeldje dan maar? Men neme een lamp van het type gloeilamp. Men plaatse die boven een knalblauwe tafel. Welke kleur krijgt de knalwitte muur dan?

Of wat ik ook mis, is *echte* physics. Dus niet physics als in rondvliegende objecten en dingen die "kapot" kunnen, maar dingen als stromend water of dikkere vloeistoffen (oftewel zichtbare viscositeit), dynamisch ipv scripted vervormen van objecten bij grote impact, realistische impact van kogels en explosies. Allemaal dingen die nu in de meeste games slecht of in elk geval niet dynamisch zijn verwerkt. Kijk maar naar HL2: een schitterend spel, maar een baddie vliegt in het echt niet 10 meter naar achter wanneer geraakt door een shotgun. Heb je in een willekeurige game weleens het waterpeil zien stijgen/dalen? Klopt geen zak van, als je erbij nadenkt hoe een waterpeil in het echt verandert. Of je wordt beregend met kogels, leuk, maar ik spring dan het water in. Waarom? Omdat ik weet dat ik dan niet dood kan. Maar waarom gaan kogels die het water raken met de zelfde noodgang nog kilometers door? Klopt ook al geen zak van.

Natuurkundige berekeningen kunnen dit alles oplossen, maar gamedevvers kiezen ervoor om alleen dat te verbeteren waar de markt zo om staat te springen: blingbling zonder inhoudelijke verbeteringen. iyam, is HL2 (en afgeleide) de enige game waarin physics iets aan gameplay toevoegt, ook al is de phyics is die game nog wel heel erg pril, zoals ik in mijn 2e alinea uitleg ;)

[Reactie gewijzigd door _Thanatos_ op 30 juli 2007 03:21]

"Wat ik nog steeds mis, is raytraced rendering. Voorbeeldje dan maar? Men neme een lamp van het type gloeilamp. Men plaatse die boven een knalblauwe tafel. Welke kleur krijgt de knalwitte muur dan?"

De muur krijgt de kleur van de lamp, niet van de blauwe tafel.
Jij verwart ray-tracing met andere technieken zoals global illumination. Dit vereist een partij meer cpu kracht.

Maar laten we het even bij ray-tracing alleen houden.
Om een beetje een redelijk bewoonde scene te renderen doet mijn p4 2.8 er ongeveer een kwartiertje over om 1 beeldje te renderen op goede kwaliteit.
Lijkt me niet erg speelbaar.

Ray-tracing is ook niet erg goed te accelereren met huidige videokaarten.
Deze hebben namelijk al een deel van een heel ander type rendering pipeline in hardware uitgedrukt.
Je zou HLSL kunnen gebruiken maar dan laat je hele delen van de kaart links liggen.

Het hele punt is dat alles wat je in games ziet gewoon een truuk is.
Er komt bijna geen 'echte' wis/natuurkunde in voor. Alles wordt zo gemaakt dat jij de INDRUK krijgt van een bepaald effect met zo min mogelijk verbruikte cpu cycles.
Om deze effecten ECHT uit te rekenen zou alle spellen totaal onspeelbaar maken.
Je krijgt met geen mogelijkheid genoeg CPU kracht bij elkaar om een simulatie (want dat is wat jij bedoelt) te draaien met de complexiteit van huidige games.
Daar helpt geen AGEIA of GPU tegen.
De CELL cpu van IBM laat een glimp van de toekomst zien, maar dat is dan ook een ongelofelijk vector-monster dat ongeveer 20x sneller vector data wegslurpt dan een gemiddelde pc cpu.
En dan zeg ik bewust 'glimp van de toekomst' omdat je daar zelfs nog niet echt hele complexe scenes mee kan renderen.

Ik ben dus bang dat het nog een hele poos gaat duren voordat dit soort dingen bij mensen thuis staan.
Raytraced rendering is simpelweg te zwaar. Zelfs met de laatste GPU's moeten we ons behelpen met truuks. Verdomd goed truuks, maar nog steeds truuks. En die zijn beperkt in hun mogelijkheden.

Maar je voorbeeld wat betreft die blauwe tafel is trouwens niet zo goed... In HL2 zit namelijk al wel zo'n systeem van indirecte belichting. Weliswaar alleen voor statische lichtbronnen, dus vooraf off-line te berekenen... Maar de belichting van dynamische objecten in zo'n ruimte is daardoor wel correct. In een omgeving met alleen licht van boven (gat in plafond bijvoorbeeld), krijg je daardoor alsnog strooilicht van de muren, en wordt je karakter dus ook enigzins van de zijkant belicht. Daardoor dat de belichting zo mooi zacht is in HL2. En zoals zo vaak met echt goede zaken... is het een subtiel effect, en heeft niemand het gemerkt. Iedereen heeft volop gekletst over HDR, maar niemand heeft het hier over gehad.

Waren een paar hele mooie PDF's van ATI over hun renderengine waar dit helemaal werd uitgelegd, maar ik kan de URL's niet terugvinden....
Misschien investeren developers in Havoc omdat het lekker ontwikkelt in vergelijking met de Ageia api's. Het is niet altijd de aanschaf prijs van een pakket dat bepaalt of je het wel of niet wilt gebruiken.
Msischien doordat ze er al lang ervaring mee hebben.
En dev teams ook een band hebben met hun middleware partner.

Je weet wat je hebt voor hun is PhysX meer 'n sprong in het diepe.
Ook is het zo waar je geld voor neer smijt verwacht je ook support van.
Iets wat gratis is lijkt on proffesioneel en daar gaan ej verwachtingen ook naar.
Voor de indideveloper en hobbyist is PhysX ideaal.
het is een competitor van Havok die sloten geld kost.
Daarnaast support het toevallig PPU zodat je wat Phsyics extreems kan doen mits je de hardware hebt.

De aanschaf prijs speeld zeker mee bij de kliene budged teams. De grote jongens gaan meer op waar ze ervaring in hebben en HAvok is de markt lieder plus grote spelers hebben beter banden en support van zo'n middleware provider.

Alleen zien ze volgens annantech niet veel in Havok fX wat ook weer extra kost.
Voorbeelden? Aangezien GoW, Halo 3, SCDA, RB6V, BF2142 toch goeie gameplay hebben imo.
JAAA!!! Terug naar de spellen met een goed verhaal erin en leuke gameplay die orgineel is!!!

*mist nieuwe spellen die vergelijkbaar zijn met deus ex enzo. Red Alert 1 was ook geweldig en Tiberium sun ook maar daarna werdt het steeds meer bling bling en minder leuk...).
*mist nieuwe spellen die vergelijkbaar zijn met deus ex enzo.
Ik heb geheel Deus Ex de eerste keer nog met één enkele Voodoo 2 uitgespeeld. Was toen grafisch best wel zwaar.

Neemt niet weg dat het een topgame is met een heel goed verhaal. :)
Ik heb het pas gespeeld toen het spel al wat ouder was. Heerlijk soepel te spelen op een radeon 9600pro. Blijf het ook nog zo mooi vinden dat je zulke grote levels had (zeker voor toen) en je best wel vrij gelaten werdt in hoe je alles wou doen.
De enige game die de afgelopen jaren qua gameplay & verhaal een beetje in de buurt kwam van Deus Ex is STALKER. Als ze nou eens een game zouden maken met de physics en flexibiliteit van HL2, de AI van FEAR en de gameplay van STALKER dan heb je toch wel een aardig spel dacht ik zo.
Hoewel de PhysX-engine ook volledig softwarematig kan werken en nota bene gratis is
Jep, ik gebruik de PhysX engine ook(software matig). Heerlijk ding, goed tegen aan te programmeren en duidelijke documentatie + voorbeelden. De PhysX engine zorgt er zelf voor dat ie op een aparte thread draait, en dus makkelijk op een cpu core gezet kan worden.

Ook ik begrijp er niks van dat deze engine niet veelvuldig door anderen gebruikt wordt. Hij is gewoon echt gratis!! Tevens is het op hun forums ook verdacht stil. Ik hoop niet dat ze ten onder gaan, want hun engine is gewoon erg goed!
Ook ik begrijp er niks van dat deze engine niet veelvuldig door anderen gebruikt wordt. Hij is gewoon echt gratis!!
Support is verre van gratis, dat loopt tot de tientallen duizenden euro's voor "platinum" support.
Dat ene idee met die 3de Pci-express 8x slot waar een grafische kaart in kan die voor physics zou zijn zal denk ik ook wel niks worden. Nou dat de CPU vele cores gaat krijgen denk ik dat daar de toekomst in zit.
Physics is gewoon in het verkeerde tijdperk gekomen :)

Nét nu de grafische kaart veel sneller de bottleneck is, dankzij de snelle CPU's, en
net nu er dual- en quadcores zijn waarbij de game grotendeels nog op één core leunt, de andere(n) vrijkomend voor de zwaarste physics die je je maar kunt bedenken...

Die kaarten bieden te weinig extra's tov al dit cpu geweld :|
Volgend jaar schijnen er al Intel Octa-core processors te komen. Die zullen ongetwijfeld pas in 2009 mainstream worden, maar dan is er helemaal een overvloed aan processor kracht voor dit soort berekeningen.
Best leuk natuurlijk. Of toch niet.
Nu krijg ik vaak het idee dat de game developers er vanuit gaan dat je altijd een heel recente kaart gebruikt. Of je zet vrijwel alles in je game of minimaal.
Binnenkort heeft vrijwel iedereen een dualcore of hoger (zijn er nor solos?)
Mooi dat de games daar gebruik van gaan maken.
Als er echter een multicore hype ontstaat verwachten game developers wellicht dat je ook steeds je CPU upgrade.
Natuurlijk verwacht ik niet dat ik de laaste games op een 10 jaar oude kaart kan spelen; maar al die cores verleiden de game developers wel om lekkere sloppy code te schrijven omdat de nieuwe CPUs het toch wel kunnen hebben.
...maar al die cores verleiden de game developers wel om lekkere sloppy code te schrijven omdat de nieuwe CPUs het toch wel kunnen hebben.
Goede prestaties halen uit multi-core CPU's vergt nog steeds heel wat expertise. Met "sloppy code" kan een dual-core zelfs trager zijn dan een topmodel single-core.

Anderzijds is het wel zo dat games steeds zwaarder worden, en dit voor een groot deel te wijden is aan de skills van de ontwikkelaars. Dat zie je ook bij het veelvuldige gebruik van scripttalen. Die belasten de CPU redelijk zwaar maar zijn populair omdat het eenvoudiger te programmeren is door minder geoefende programmeurs.

Soit, we kunnen het ook zien als een inhaalbeweging van de CPU. De rest is aan de software, maar op hardwarevlak is het in ieder geval een goede ontwikkeling.
Heb opzich wel een bedragje over voor een leuke videokaart, maar die Ageia kaarten hebben naar mijn idee een dermate korte levensduur dat het een heel erg duurbetaalde kaart wordt. Oftewel, daar ga ik mijn centen echt niet aan uitgeven! Ben wel een UT gamer, maar heb GRAW ook gespeeld zonder PhysX kaart, en dat kan UT3 ook makkelijk :).
Een leuke videokaart heeft ook een korte levensduur.... Zeker voor mensen die alles uit hun games willen halen => de markt van Ageia
Dat Cellfactor ziet er qua graphics wel erg tof uit. (iemand een filmpje?)
Bovendien, alleen de die hard gamers zullen veel geld neerleggen voor een physX kaart afgezien van de dure videokaart/videokaarten... tenminste, dat is mijn idee.
Maar zelfs de die hard gamers met genoeg geld kopen die kaart niet als het geen nut heeft. Er zijn gewoon te weinig spellen om er 200 euro voor neer te leggen.
Cellfactor is gratis te downloaden.

http://www.cellfactorrevolution.com

En de kaart kost trouwens geen ¤200, maar ¤130 (in Duitsland), dus opzich valt dat zelfs nog mee. Spijtig gewoon dat er zo weinig ondersteuning komt van game developers.
Een tijdje geleden zag ik de kaart ook voor 99 euro bij MyCom. Ik kan de kaart daar helaas niet meer vinden, de aanbieding zal wel afgelopen zijn.

Wat de filmpjes betreft: Je kunt daarvoor ook terecht op de site van Ageia. Daar staan ook interessante techdemos :).
Bij alternate 139,- euro
Leuk betere physics, maar waarom hoor je niets van realtime raytracing?

Ik geef ook de voorkeur aan gameplay (wie niet?), hell ik speel nog het meest op 16-bit consoles, maar dat lijkt mij een logische volgende stap voorwaarts in graphics.

Een stap die zeker op prijs gesteld zal worden door "eye candy" liefhebbers.
Omdat realtime raytracing de komende 20 jaar geen realistische alternatief kan bieden voor de huidige methodes.

Kijk naar raytracers in 3D render software. Een beetje normale scene kost al gauw vele secondes ipv dat je minimaal 30 scenes per seconde door rekent.

En als je echte eye candy wilt bereiken met je raytracer dan kost een scene al snel vele minuten. (radiosity, soft shadows, etc etc)
nouja,ik zie me echt nog niet een physics kaart kopen van 200 euro, unreal 3 of niet
al zie ik zelf geen heil in een physics kaart, denk ik toch dat er wel mensen zijn die wel zo'n kaart kopen. Sommige mensen geven ook 200 euro uit aan een geluidskaart, alhoewel de on-board ruim voldoende is.. anderen geven 200 euro -meer- uit aan een grafische kaart om maar op 1920x1600 met 2xFSAA te kunnen spelen, terwijl je tenslotte ook prima op zegge 800x600 kan spelen, desnoods zonder AA. Een physics kaart heeft wat dat betreft een veel hogere meerwaarde. Maar zoals het artikel al stelt.. de dingen zijn in principe al een mislukking nog voor ze echt een success zijn. Nog afgezien van multi-core zijn zowel Intel als AMD van plan een plak van de CPU aan vector processing toe te wijzen.. ziedaar: 'versnelde' physics (en allerhande ander spul dat met vector processing lekker rap gaat).
De onboard geluidschip valt al snel door de mand als het een deftige hifi-speakerset moet aansturen, ik hoor dan ook een duidelijk verschil tussen mijn Xi-fi en elke onboardchip die ik had/heb. Ruim voldoende gaat alleen op als je het gewoon op een pc-speakerset aansluit; dat zijn zowiezo geen echte hi-fi produkten.
Nou sorry hoor maar het verschil 800*600 vs 1920*1600 is wel heel groot hoor. Je ziet echt wel verschil tussen 1024*768 of 800*600. Ik vindt zelf dat 1280*1024(of 1280*800 incase of breedbeeld) tegenwoordig wel een minimum is.
mwach, hangt er van af wat je een 'heel groot verschil' vindt. Natuurlijk heb je dan in principe meer detail in beeld - maar tenzij dat echt in je voordeel gaat werken (stel er hangt een sniper in een raam op een afstand waar je met 800x600 net een vaag groepje pixels ziet en met 1920x1600 een vijand met een kop waar je op kan richten) okay.. maar veel games zijn helemaal niet zo opgezet; waardoor je dus het spel "prima op 800x600 kan spelen".

Sterker nog, eerdere generatie 3D games speelde ik liever op 320x240 dan op 800x600. Reden? De textures waren niet gedetailleerder, en de polycounts op de modellen bleven ook hetzelfde. Resultaat: superscherp-gerande modellen met blurry textures. Nee, dan maar 320x240 waar ook de randen een beetje korrelig zijn. speelt lekkerder.

My 2cts, of course :)
De Ageia-PPU is op z'n duust ¤149, daarnaast gaat het ook over Radeon- en Geforce-GPU's die gebruik maken van de pixelshaders voor natuurkundige berekeningen, geen aparte kaart dus. ;) Kan natuurlijk wel, tijdje geleden op T.net, 2 1900XTX's in Crossfire en een X1600 als PPU. :9
Op zijn goedkoopst zul je bedoelen... :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True