Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties
Bron: Digit-Life.com, submitter: Silverado_NL

Bij Digit-Life is een review verschenen over de Asus Physx P1-kaart die ontworpen is om natuurkundige berekeningen over te nemen van de processor. De details van de gebruikte PhysX-chip zijn nooit vrijgegeven, maar wel bekend is dat de chip in staat is om maximaal 530 miljoen botsingen per seconde tussen bolvormige objecten te berekenen en maximaal 533 duizend botsingen per seconde tussen objecten met een complexere vorm. Het blijkt dat de kaart prima werkt, maar helaas zijn er momenteel nog geen titels op de markt die de mogelijkheden goed demonstreren. Enkele titels, zoals Ghost Recon: Advanced Warfighter, kunnen wel gebruik maken van de kaart, maar dan alleen voor een paar extra effecten.

De demo van CellFactor: Combat Training demonstreert de mogelijkheden van de kaart beter. Wanneer deze demo, waarbij soms honderden objecten in het rond vliegen, wordt gedraaid zonder PhysX-kaart zakt de framerate regelmatig tot een dramatisch niveau. De reviewer is echter van mening van dit eigenlijk weinig toevoegt aan de gameplay, waardoor de toegevoegde waarde van de Asus Physx P1 momenteel beperkt is. Wanneer grote titels zoals Unreal Tournament 2007 de kaart gaan ondersteunen zou dit kunnen gaan veranderen. De toekomst van een losse kaart voor natuurkundige berekeningen blijft echter onzeker. nVidia en ATi willen deze taak laten uitvoeren door de videokaart terwijl dualcore- en multicoreprocessors vaak nog rekencapaciteit in overvloed hebben.

De Asus PhysX in actie in CellFactor: Combat Training
De Asus PhysX P1 in actie in CellFactor: Combat Training
Moderatie-faq Wijzig weergave

Reacties (125)

Op Tomshardware staat ook al een tijdje een review van een physics kaart: http://www.tomshardware.com/2006/06/19/can_ageia/

Volgens THG vallen de resultaten flink tegen.
Het kost je rond de 300 Euro in aanschaf en daarnaast 40 Watt aan stroom en het levert zo goed als niets aan extra FPS op en de resultaten van de physics zelf kloppen ook niet altijd al te goed.

Misschien dat het in de toekomst wel iets positiefs bij te dragen heeft, maar zoals ik het nu zie is het weggegooid geld en snap ik niet dat ze die kaart uit durven te brengen. Zorgt alleen voor een negatief imago... en daar is altijd lastig om vanaf te komen.
en het levert zo goed als niets aan extra FPS op
Een geluidskaart heeft ook een negatieve invloed op de FPS dus de FPS redenatie is niet echt waterdicht.
Dat is niet waar.
Geluidskaart vs Onboard.
dan levert die geluidskaart čn betere prestaties čn meer fps!

maar inderdaad, zou je het geluid uitschakelen levert het nog meer fps op |:( :Y)

in dit geval moeten er extra physics gerenderd worden.
(zie het als het verschil als zonder geluid, en met geluid)
als je physics aan zou zetten zonder die kaart zouden de FPS nog verder zakken.

ik denk tegen de tijd dat games echt dualcore ondersteunen, deze kaart overbodig zal worden.
omdat de physics dan berekend worden op de 2e (zoniet 4e) CPU core
op die manier kun je ook de videokaart overbodig praten....
onderschat de nodige rekenkracht voor volledige goede physics niet. Een dedicated oplossig is zeker op de korte termijn de beste oplossing. Of dit nu een losse kaart of een extra add-on op de video kaart maakt niet uit.
Een CPU is veel minder effectief dan een GPU die speciaal gemaakt is voor beeldverwerking.
Verder heb je wel gelijk wat betreft de geluidskaart.
En de Physics kaart, ja ik zie er niet echt een markt voor naast de diehard gamers.
Omdat het ook niet noodzakelijk is en uiteindelijk vast wel geintegreerd wordt in de videokaart.
het is wel de eerste in z'n soort
dus dit staat allemaal nog in z'n kinderschoentjes ...

geef het nog een jaar, mss 2
en het zal al een pak vooruitgegaan zijn !

*edit* typo's
Tegen dan hebben we quad-core en Direct3D 10 kaarten met ongeloofelijke prestaties per euro. Daar kan een beginnend bedrijfje onmogelijk tegen op. Twee jaar houden ze gewoon niet vol.
Klopt wat je zegt, maar is het doel van Ageia ook ooit wel geweest om een kaart als deze mainstream te laten worden?

Hoeveel bedrijven worden er niet opgezet om met winst verkocht te worden, als straks blijkt dat bijv. de physics die berekend worden door ATi kaarten stukken beter werken dan wanneer je een nVidia kaart hebt, is een overname van Ageia door nVidia realistisch.
XyritZz: Goed, vanuit bedrijfs-economisch standpunt zou het wel nog kunnen werken...

Maar dan is er wel een hoop consumenten die voor 250 ¤ een relatief zwakke kaart hebben gekocht wanneer blijkt dat mainsteam CPUs en/of GPUs betere prestaties leveren. Het risico van een early-adopter... maar toch. Trouwens, als ze een slechte naam krijgen door PhysX P1 zie ik ze nog zo rap niet overgenomen worden.
Daar kan een beginnend bedrijfje onmogelijk tegen op. Twee jaar houden ze gewoon niet vol.
we schrijven 4 april 1975. Twee jonge gasten beginnen een klein software bedrijfje dat moet opboksen tegen giganten als IBM en Digital in een zeer kleine markt.

geen schijn van kans lijken deze twee universiteitsverlaters te hebben.

Ongeveer tegelijkertijd zijn er twee andere technonerds aan het solderen aan een computerje. Ook zij moeten opboksen tegen (alweer) IBM, Digital Equipment en Sperry. Geen schijn van kans maken ze.

bijna dertig jaar later zijn Bill, Paul, Steve en Steve veruit de rijkste mensen op deze aardkloot.

achternamen.... Gates, Allen Jobs en Wozniak.

geen schijn van kans.......
Deze review kijkt naar GRAW, waar de Havoc physics engine gebruikt wordt, niet de PhysX engine (die dus ook de PPU ondersteund). Alleen voor een paar special effects wordt deze wel gebruikt.
AGEIA gaat gewoon verpletterd worden door de concurrentie met multi-core CPUs en grafische kaarten. 250 ¤ voor iets dat enkel fysische berekeningen doet is belachelijk.
Het product prijst zichzelf de markt al uit voor het verkrijgbaar is, tevens wordt het gewoon simpel weg niet gebruikt, het is zijn tijd te ver vooruit en tegen de tijd dat het nodig is is het al weer ingehaald.

Het was een leuk project, waarschijnlijk is het een groepje mensen geweest wat een gat in de markt zag maar ik geloof niet dat het een lang leven is gegeven.

De kaartjes zijn gewoon te duur, voor de prijs van een geluidskaartje, 3 tientjes ofzo denk je er over na maar nu |:(
Uhm, ik weet niet zo zeker of ik het daar wel mee eens ben. Als je ziet dat er genoeg freaks bestaan die even een extra GF7950 GX ( a ¤500) kopen om een paar frames extra te halen in 1600 x 1200 met volle AA en AF, dan denk ik dat er genoeg markt is voor een kaartje dat best wel ruige berekeningen uit kan voeren die de processor wellicht iets minder snel kan doen. Tuurlijk is ¤250 een hoop geld, maar toen voor het eerst de Voodoo 2 uitkwam tikte men ook massaal tegen het voorhoofd. Dat nemen we nu allemaal voor lief.
Ik denk persoonlijk dat er wel markt voor is; de toekomst zal uitwijzen of ze bij Ageia gelijk hebben...
Klopt, maar grafische kaarten zijn om te beginnen bewezen technologie. Voor 500 ¤ krijg je dan ook waar voor je geld, ookal ligt dat niet binnen ieders budget. Het is een valabele keuze, net zoals je 50 ¤ kunt uitgeven aan een budgetkaart en daar heel wat voor terug krijgt.

250 ¤ voor iets dat nog niks wezenlijks bewezen heeft is echter bijzonder veel. Vooral wanneer de technische specificaties duidelijk maken dat een stevige CPU en/of GPU meer rekenkracht biedt voor dat geld en bovendien meer kan dan enkel physics!
Maar in 1998 waren de 3d accleratoren nog absoluut geen bewezen technologie. 2 jaar later zaten die dingen standaard op zo ongeveer elke grafische kaart. En in die tijd kon je je ook nog niet voorstellen dat er 256Mb (inmiddels 512?) aan DDR2 geheugen op zou gaan zitten.
Ik weet niet of je ooit een 1ste generatie 3d accelerator hebt gezien, maar met de prestaties daarvan had je ook niet gedacht dat het de wereld zou gaan veroveren.
Als ik die screenshot van boven het artikel zie, is het echt wel een interessante ontwikkeling voor (en daar gaat het uiteindelijk om, zie ook 3d kaarten) het realisme van de spellen.
Niettemin zorgt deze kaart er waarschijnlijk wel voor dat andere producenten nieuwe mogelijkheden gaan onderzoeken, waardoor de ontwikkelingen creatief blijven. Dus ook al voegt het product an sich niets toe aan het al bestaande gamma, het is wel van invloed op toekomstige ontwikkelingen.
250 ¤ voor iets dat enkel fysische berekeningen doet is belachelijk.
Zei men eerst ook over grafische kaarten...

En een CPU haalt nooit dezelfde physics performance als dit ding.
idd, ik vind de prijs ook belachelijk.

Maar ja: M'n 1e 3Dfx Voodoo maakte A2 racer, Quake, Quake2, Toca 2 etc wel een flink stuk mooier.
En ook van 3d kaarten werdt gezegd dat het overbodig was, nu moet je er zelfs 1 hebben om Windows te draaien.

Een dedicated processor is altijd vele malen sneller als een alleskunner, wat we CPU noemen.
@merethan

"M'n 1e 3Dfx Voodoo maakte A2 racer, Quake, Quake2, Toca 2 etc wel een flink stuk mooier."

Hallo is Voodoo1 met deze games gereleased?
Quak1 Quake2 is ene time span van rond de 4 jaar.

Dan moet je voor physX ook UT2007 en UT 2011 meenemen.
Ageia oplossing is e rpas enkele maanden.

Vraag ej eerst af wat was er in die eerste maanden uit kwa glide games.

En dan heeft 3DFX bij hun kickstar van de 3D versnellers
Geen directe concurent gehad. Die kwam later in de vorm van DirectX en OpenGL versnellers.

En als Ageia het niet haald Physics hardware acceleratie zal blijven. directX gaat het ondersteunen en je kan dus later van Onboard GPU tot de hele lijnen GPU misbruiken als Physics versbellers.

Triple R600 is mogelijk met 'n KW voeding.
Een dedicated processor is altijd vele malen sneller als een alleskunner, wat we CPU noemen.
Da's allesbehalve gegarandeerd. Een Intel Core 2 Duo op 3 GHz levert 48 GFLOPS, terwijl dit voor AGEIA PhysX P1 beperkt blijft tot 20 GFLOPS. Binnen een maandje wordt die dan ook totaal onder de voet gelopen.

Vergeet niet dat Intel al decennia expertise heeft in de allernieuwste chiptechnologie en dus ook zeer mooie prestaties levert aan een betaalbare prijs. AGEIA is bepert tot verouderde technologie en standaard ontwerptechnieken, wat dus resulteert in een bedroevend zwakke chip voor veel geld. Ze kunnen ook de investeringen niet aan om daar snel verandering in te brengen, terwijl Intel maar blijft innoveren aan schrikwekkend tempo...
Het verschil is dat een grafische kaart een taak uitvoert die een CPU niet efficient kan. Fysische berekeningen zijn echter niks anders dan IEEE 754 optellingen en vermenigvuldigingen en dat kan een CPU heel goed. Core 2 Duo zal trouwens maar liefst acht keer meer floating-point units tellen dan een single-core Pentium 4. Bovendien is een investering in een betere CPU ook merkbaar voor veel meer.
Sorry, maar hierin moet ik u ongelijk geven. Uit ervaring (zelf werk ik op DEM-modellen) weet ik dat het berekenen van de beweging van systemen bestaande uit vele botsende deeltjes complexer is dan wat floating-point getallen optrekken of vermenigvuldigen.

Dat fysische berekeningen beter kunnen afgehandled worden door een coprocessor, verwijs ik bijvoorbeeld naar de onderzoeksresultaten van Columbia University uit 2002. Hier slaagde men erin een bewegingsmodel, geprogrammeerd in een FPGA @ 30 MHz tot 60 (!) keer sneller te laten draaien dan de softwareversie op een pentium 3 @ 1 Ghz...

Bron:
http://www.civil.columbia...roceedings/papers/126.pdf
Deze kaart is geoptimaliseerd voor dit soort berekeningen terwijl de CPU voor alle berekeningen op het systeem instaat.
Blokker_1999, fysische berekeningen zijn niks bijzonders en een CPU kan dat perfect. Ook PhysX P1 is niks anders dan een programmeerbare chip. Met dat verschil dat Intel wereldleider is op vlak van chiptechnologie. AGEIA moet het stellen met verouderde processen en standaardcellen.

Ook is het zo dat men nog niet half de mogelijkheden van CPUs volledig benut. Zoals ik reeds opmerkte maakt de NovodeX SDK niet eens gebruik van de SSE instructieset voor vectorbewerkingen...
n4m3l35, de vergelijking met een grafische kaart gaat niet op. Die heeft een rasterizer en sampler units die op een CPU bijzonder veel instructies vereisen om te emuleren.

Een PPU heeft echter niks anders dan generieke SIMD floating-point units. Sterk gelijkaardig aan SSE units op een x86 CPU (wat dus ook staat voor Streaming SIMD Extension).

Bovendien is multithreading op een dual-core en het gebruik van een PhysX kaart sterk gelijkaardig. Met dat verschil dat de communicatie tussen cores ettelijke malen sneller is, in zowel bandbreedte als latency, dan communicatie met een externe kaart.

Een grafische kaart met een PPU is ook volstrekt zinloos. De huidige shader units zijn reeds niks anders dan SIMD units. Een unified architecture kan nog wat verbetering brengen in het balanceren van taken, en Shader Model 4.0 brengt nog wat extra integer instructies en directe geheugentoegang, maar dat is het dan ook.

Instructies specifiek voor fysische effecten bestaan NIET.
Niet volledig waar. CPU's zijn zeker in staat om goed fysische berekeningen te maken, het verschil zit er echter in dat deze cpu ervoor 100% geoptimaliseerd is. Net zoals jou 3d kaart daar sterk in is. Mocht jou realisatie opgaan dan zouden we nu met een 8mb grafisch kaartje aan kunnen rommelen en alles over de CPU trekken, realiteit is dat die 256mb grafische kaarten met allerlei opties het toch iets beter doen.
Verder is het zo dat de spellen die gaan komen eerder deze extra opties van AGEIA ondersteunen en juist niet multiprocessing. Iets wat nog steeds erg jammer is maar blijkbaar is het eenvoudiger om wat extra features voor AGEIA te programmeren dan multiprocessing. Ik zie dan hier ook wel markt in en het zou me niet verbazen dat het slechts een kwestie van tijd is of we zullen grafische kaarten zien met een GPU en een extra Physics PU'tje eraan geplakt.
Ik ga er eigenljk wel van uit dat ze een paar sappige patenten hebben, want dat kunnen ze nog lange, lange tijd uitmelken.

En ik zou het ze in dit geval ook echt wel gunnen, aangezien ze ook daadwerkelijk een product proberen te marketen, wat een daadwerkelijke extra innovatie is op het gebied van games.
AGEIA heeft inderdaad 7 patent-aanvragen lopen.

Een daarvan heeft als claim:
1. A system, comprising: a Central Processing Unit (CPU) operatively connected to an external memory and one or more peripherals; and, a Physics Processing Unit (PPU).

wat op alle machines met zo'n chip zou slaan.
De rest zijn meer PPU architectuur gerelateerd.

Als de externe PPU flopt en alles in de CPUs en/of GPUs wordt gedaan, zijn deze patenten weinig of niks waard.
Ik neem aan dat ze weinig hebben aan die patenten als ATI en Nvidia in zee gaan met Havoc en hun eigen videokaarten gebruiken.
Sterker nog, Microsoft is bezig met een DirectX Physics API. Die zal vermoedelijk op de CPU en GPU geďmplementeerd worden. AGEIA zal ook wel een poging wagen, maar wanneer duidelijk wordt dat ze voor 250 ¤ maar magere prestaties leveren zal het niet lang duren voor ze volledig van het toneel verdwijnen... Spijtig, maar ze hadden het kunnen zien aankomen. |:(
Microsoft is bezig met een DirectX Physics API
Daar kunnen ze toch ook voordeel van hebben?

Als er een alomtegenwoordige API is zal software daar gebruik van maken
Dan kan deze kaart zijn meerwaarde - als die er is - bewijzen.
Patent op een chip die fysische berekeningen uitvoert? Da's niks dan ordinaire wiskunde hoor. Het draait dan ook perfect op een CPU of GPU. Neen, ze hebben echt niks unieks in handen...
Eens. Zo'n kaart heeft, zeker voor die prijs, geen kans van slagen zolang het niet vereist is. Dat zal niet snel gebeuren omdat het een relatief duur onderdeel is en dus relatief weinig mensen het aan willen schaffen voor dat anderhalve spel dat er iets mee kan.

Daarnaast is er concurrentie vanuit het multi-cpu-core en videokaarten kamp. Zeker die eerste lijkt me een veel waarschijnlijker, handiger, goedkopere en zinvollere optie. Tegenwoordig hebben veel computer al een dual-core of hyperthreading en zeker met de aanstaande prijzenslag is een snelle dual-core cpu al ongeveer even duur als zo'n Ageia. De echte gamer kan er dan eventueel voor ¤100 een Radeon X1600 ofzo bijhangen en dat is het dan wel.

Ik kan niet rouwen om de flop die Ageia heet. IMHO een klassiek voorbeeld van een markt proberen te creeeren en daar dik op te cashen.
<i>Ik kan niet rouwen om de flop die Ageia heet. IMHO een klassiek voorbeeld van een markt proberen te creeeren en daar dik op te cashen.</i>

Als er hier in de Valley over de jaren heen geen duizenden naievelingen zouden geweest zijn met een idee, enthousiasme en de wil om ontieglijk veel uren te kloppen omdat ze in een of ander droomproduct geloven, dan zouden wij onder 'spel' nog altijd pim-pam-pet verstaan en onze documenten op een mechanische schrijfmachine uittypen.

Natuurlijk hebben diezelfde naievelingen ook de bedoeling om daar ooit geld mee te verdienen, maar zoals jij het voorstelt is dat iets om heel vies van te zijn. Om hun huidige produkt op de markt te brengen, heeft Ageia er al minstens 40 milj. dollar doorgedraaid en zij en de investeerders weten maar al te goed dat de kans om dit terug te verdienen heel klein is.

Stel dat er 15 jaar geleden geen enkel bedrijf was geweest dat 3D accelerators wou maken omdat er toen geen markt was. Zou je daar om rouwen?
Ik vraag me af volgens welk algoritme de kaart deze berekeningen doet.

Er zijn namelijk verschillende manieren om effecten van botsingen te berekenen. Een paar maanden geleden hebben we in Informatica (ik studeer Burg. Ir.) een algoritme gezien (BDTree collisions) dat gebruik maakt van bol-benaderingen. Het klassieke algoritme had maanden nodig om een bep. scene te renderen, het nieuwe 2 dagen.

Ik hoop dus dat de PhysX-kaart up te daten is met nieuwe algoritmes. De screenshot hier is nog niet echt indrukwekkend, bekijk het filmpje op volgende site eens!
http://graphics.cs.cmu.edu/projects/bdtree/
Wanneer deze demo, waarbij soms honderden objecten in het rond vliegen, wordt gedraaid zonder PhysX-kaart zakt de framerate regelmatig tot een dramatisch niveau.
Dit zegt mij vooral hoe vreselijk slecht hun software-implementatie is. :Z

Spellen gebaseerd op Havok kunnen probleemloos honderden objecten aan. Ook bevat de NovodeX SDK, nu eigendom van AGEIA, redelijk impressionante demos. Maar die software is zelfs nog totaal ongeoptimaliseerd. Met AMD CodeAnalyst valt namelijk geen enkele SSE instructie te bespeuren...
T.net:
Wanneer deze demo, waarbij soms honderden objecten in het rond vliegen, wordt gedraaid zonder PhysX-kaart zakt de framerate regelmatig tot een dramatisch niveau.
Uit het artikel:
By the way, what concerns running CF demo without PPU: it hasn't taken some skilled programmers long to find a command line parameter to run the demo without a PPU. We've tried it and got the following results: explosions are noticeably slow without PPU; and when a so-called "sail" gets to the screen (a suspended piece of realistically deforming fabric with triangular holes from shots), fps drops to one-digit values.
Het gaat hier dus voornamelijk alleen om 1 stukje van de demo waar er een vlag hangt (ook wel "cloth" genoemd in game design), waar de FPS omlaag denderd. (Wat overigens vooral suggereerd dat de software implementatie van "cloth" erg slecht is, ik heb dat vele malen beter gezien (puur op de CPU), en met PixelShader 3 is zo'n effect ook makkelijk te maken).

Voor de rest is het "noticably" slower als er een explosie is, maar "gemeten" zoals de T.net titel suggereerd wordt er niet.

Je zou ook eens bv. hier moeten kijken:
http://www.hardforum.com/showthread.php?t=1056037
Ik heb zo'n kaartje laatst gekocht en ik moet zeggen bij die cellfactor demo kom ik niet boven de 15 frames uit
(3700+ en 7800GT)
Dus ook met die physx kaart draait hij echt totaal niet.
Dan weet ik niet wat voor config in deze video gebruikt word, maar dit gaat toch vrij vloeiend.

CellFactorCombatTrai.avi
Ik heb niet eens een PhysX-kaart en ik haal al 50fps met een x1900XTX ik weet niet wat ik zou halen met crossfire omdat die RMA is.
En voor de mensen zonder PhysX-kaart en wel cellfactor willen test moet je ff zoeken omdat je moet iets aanpassen om het te kunnen spelen.

Wat ik wel erbij moet zeggen op bepaalde punten zitten fouten in de muur en dan heb ik maar 1fps maar de rest draait gewoon soepel endat zonder PhysX-kaart.
Bij UT2007 zal het ook niks toevoegen, shooter is een shooter, je moet schieten en op wat matige kunstjes na zoals je ook bij HL2 ziet, een compleet vooraf opgebouwde Scripted situatie is natuurlijk niks.

Het is leuk voor erbij maar of het ooit een groot aandeel in gameplay gaat krijgen, ik denk het niet. Leuke om het realistisch over te laten komen en om wat extra's aan een spel toe te voegen maar daar houdt het ook wel mee op denk ik.

Je moet er al een hele game omheen bouwen wil je er wat mee kunnen, in bepaalde soorten games zal het behalve in scripted situaties gewoon helemaal niks toevoegen. Het enige wat ik me kan voorstellen is in War Sims zoals een nieuwe Operation Flashpoint dat gebouwen steen voor steen stuk kunnen als je ze opblaast maar verder? Voorzie geen grote veranderingen in de gamewereld dankzij dit, ik zie het dan ook nog wel floppen ook. Binnen 2 jaar hoor je hier niks meer van.
Ehh jij denkt volgens mij alleen maar in "First Person Shooters"
Ik ben allang op FPS'en uitgekeken, maar physics zullen daar momenteel hoofdzakelijk grafisch iets aan toevoegen. Tenzij het gebruik van voertuigen in games drastisch toeneemt. Echter zijn er nog wel meer zaken te bedenken die van invloed zijn. Maar zoals HL2 laat zien is het ook daar al van invloed op gameplay, zonder physics zou je bepaalde levels niet kunnen halen (zoals die hefboomconstructies).

Zoals ik al eerder heb gezegt, Race Sims zijn een ultimatum wat betreft physics en al die physics zijn VOLLEDIG van invloed op de speelervaring. Hoe beter realisme nagebootst kan worden aan de hand van zo'n PPU hoe echter een gesimuleerde auto aanvoelt. En mensen die er niet zoveel van begrijpen denken nu alleen nog maar in collisions etc. maar fisica is veel meer dan dat. Een extra cpu? of je 2e core dit laten doen? laat me niet lachen die krijgt dat helemaal niet voor elkaar, veel te complex.

Dergelijke complexiteit zien we nu echter helemaal NERGENS, en dat is wel jammer... zo krijg je allemaal van die domme figuren die denken dat zo'n kaart overbodig is en dat een GPU of CPU het wel zou kunnen klaren. Let maar op wat er over een paar jaar voor extreme games zijn bedacht. Dat je beredenatie nog niet ver genoeg komt om meer nut te zien in een losse PPU kaart zie ik en bestempel ik als kortzichtig. De mensen achter dit initiatief staan mijns inziens stevig in hun schoenen, want met al dit negatieve geweld en kortzichtig gedrag vanwege een paar stomme games die allesbehalve een goeie implementatie laten zien houden ze toch maar mooi voet bij stuk. Ook ik zie een geweldige toekomst in dit spul, uiteraard gaat dit niet van de een op de andere dag.

Wat dat betreft is een dergelijke kaart momenteel inderdaad 'overbodig', maar je moet wel ergens een begin maken. De Voodoo kaart was voor iedereen een overduidelijk verschil. Dit gaat velen hun brein te boven en ze snappen het gewoon niet. Jammer, maar je hoeft dit ook niet te kopen, het is meer een introductie naar wat er komen gaat. Echter wel een slechte introductie want velen zien nogsteeds het nut niet in, toch ben ik van mening dat ieder mens die bereid is wat breder en met wat meer inzicht te denken een dergelijke ontwikkeling met open armen zal ontvangen.
Iedereen denkt volgens mij dat zijn/haar favoriete genre de meeste physics bevat, terwijl iemand anders weer van mening is dat 'natuurkunde overal is'.

De berekingen waarvoor physics kaarten nuttig voor zijn, zijn toch voornamelijk collisions of complexe structuren (bijv. vloeistoffen). De bandbreedte van physics kaarten is hoe dan ook niet groot genoeg om al de berekingen m.b.t. natuurkunde op dat kaarte uit te voeren. Vergeet niet dat 'gewone' CPU's ook goed natuurkundige berekeningen kunnen doen, ze zijn er alleen niet voor geoptimaliseerd.

Je doet wel lacherig over, maar het geld besteden aan meer CPU kracht is imho een veel betere keuze. Als je 300 euro extra aan je CPU besteed, zou dat best wel eens meer FPS op kunnen leveren dan een goedkopere CPU + PhysX kaart. Jammer genoeg heb ik hier nog geen test over gezien. Een CPU gebruik je ten slotte altijd, een physics kaart alleen soms bij een game die het ondersteunt.

Correct me if I'm wrong, maar ik heb het idee dat je zelf hard roept iedereen dat iedereen het fout heeft, terwijl je er zelf ook niet zo veel verstand van hebt.
@BruT@Lyst

Ik denk dat jij onderscheid moet gaan maken tussen "Physics" en "PhysX"

Jij praat over physics in het algemeen en dan bv over race sims. En inderdaad kan daar nog heel veel in verbetered worden.

De vraag is of PhysX daar wel het juiste antwoord op is.

De PhysX kaart heeft een zeer gespecialiseerde maar ook zeer beperkte instructieset.
En die instructieset lijkt voornamelijk gericht te zijn op collisions.

Zoals je zelf al aangeeft is fysica veel meer dan dat. Maar heb je die opties wel met de beperkte instructieset van die PhysX kaart? Of moet je dan een wat meer flexibele processor hebben? Bv een gpu?
Ik kan me wel voorstellen dat je in de nabije toekomst spellen krijgt waarbij het complete gebied waarin je speelt totaal verandert door toedoen van de spelers.

Je begint in een moderne stedelijke omgeving, en na drie uur multiplayer combat loop je door de rokende puinhopen. Het heeft me altijd mateloos geirriteerd dat je raketten en andere explosieven rond kunt schieten like there's no tomorrow, en dat zelfs zoiets simpels als een houten plank heel blijft als het niet geprogrammeerd is om kapot te gaan.
Weet je hoe complex dat is zo iets uitrekenen, dat doe je niet zo 123. Even een aantal dingen waar je rekening moet houden.

Soort hout
Temperatuur
Wind
Soort raker
Type springstof
Snelheid raket
Hoek van inslag

Om dat te kunnen berekenen zijn de computer nog nog veel te traag, de wereld zit zo compex in elkaar, dat reken je niet zo even uit.

Over zie plank, je kunt natuurlijk we zorgend at die plank kapot gaat, net als dat dat met kisten ook kan, maar dat is ook niet realistische, hoe kun je nu met ene pistoor een kist in stukken schieten met een paar kogels.
En of er ergens in China op dat moment een vlindertje met z'n vleugels klapt.

Je hoeft helemaal niet met al die dingen rekening te houden om een veel realister spel te maken.
Precies...er zijn nu toch al spellen waarbij je planken in delen kapot kunt schieten of trappen. Bij deze spellen wordt echter van te voren bepaald hoe de plank gaat breken; bijvoorbeeld in 3 delen met wat mooie breuklijnen.

Hierdoor lijkt het redelijk realistisch, terwijl er eigenlijk heel weinig ter plekke berekend dient te worden.

Je kunt dus de mate van realisme zelf bepalen (als maker van je spel). Het is niet zo zwart/wit als jij denkt.
Weet je hoe complex dat is zo iets uitrekenen, dat doe je niet zo 123. Even een aantal dingen waar je rekening moet houden.

Soort hout
Temperatuur
Wind
Soort raker
Type springstof
Snelheid raket
Hoek van inslag
Zou het dan niet handig zijn als we gewoon gespecialiseerde kaarten maken die zich puur en alleen bezig houden met dat soort berekeningen? :+
Het spel Red Faction (4+ jaar oud inmiddels) had dit al , enkel niet _alles_ kon kapot , maar wel heel veel. De physics waren uiteraard niet zo goed als tegenwoordig maar alles kon in principe gewoon kapot. Denk aan een muur kapot knallen en vervolgens met een minigun de persoon die erachter stond omver gunnen :Y)

Overigens weet ik niet waarom deze techniek verder gewoon niet gebruikt is..
Zichtbaarheidsberekeningen.

Wat een woord. (8> Zo goed als elke game-engine berekent de zichbaarheid op voorhand. Dat duurt vaak vele minuten. Maar het zorgt ervoor dat dus dingen die niet zichbaar zijn (achter muren en zo) ook niet getekend worden. Als je zowat alles kapot kunt schieten dan moeten de zichbaarheidsberekeningen opnieuw gedaan worden.

Dat kan dus niet zonder de nodige trucks om het in een fractie van een seconde te doen. Red Faction heeft zo ook wel z'n beperkingen waardoor niet werkelijk alles kapot kan. Het spel was ook vrij zwaar voor z'n tijd, net omdat de zichbaarheidsberekeningen vrij grof te werk gingen en er dus meer getekend werd dan wat werkelijk zichtbaar was.
"en dat zelfs zoiets simpels als een houten plank heel blijft als het niet geprogrammeerd is om kapot te gaan."
En daar zeg je precies wat het probleem is, al heb je 1000x van die kaarten in je pc zitten, als het niet geprogrammeerd is in je game, zal je ook niks kapot kunnen schieten.
De kaart zorgt gewoon dat zware berekeningen voor de botsingen te simuleren appart gedaan kunnen worden. Programmeur moeten nog steeds alles programmeren in de game en dit kost veel veel veel werk, zie dit ook niet direct gebruikt worden. En tegen dat het gebruikt zal worden is je gpu alweer een heeel stuk sneller plus de multicore cpu's zullen dan ook wel beter benut worden.
Programmeur moeten nog steeds alles programmeren in de game en dit kost veel veel veel werk
Daar zou in theorie gespecialiseerde physics hardware nu juist een grote rol in kunnen spelen.
Het is namelijk niet zo dat alles geprogrameerd hoeft te worden. Hier bestaan wetenschappelijke analyse tools voor (voor bijvoorbeeld doorrekenen van botsingen, kreukelzones etc. bij nieuwe auto's). Daarbij hoef je (simpel gezegd) voor een object wat uit polygonen is opgebouwd alleen de fysische eigenschappen van het materiaal op te geven (elastisiteit, breekkrachten etc.). Vervolgens wordt netjes berekend wat bepaalde krachten doen met het object.
Bij het gebruik van een dergelijke tool hoeft de programmeur dus alleen wat basisgegevens bij een object op te geven, en automatisch wordt berekend wat er bijvoorbeeld gebeurd met een voertuig wat van een brug afrijdt (inclusief invloed van de vorm van het voertuig, snelheid, hoek waarmee de grond wordt geraakt etc.).

Probleem is natuurlijk dat een dergelijke berkening op het moment vele uren (dagen, weken?) rekenwerk kost van een "leuk systeempje" (om het zacht uit te drukken).

Zoals al eerder hier gezegd: Om het netjes te doen gaat het in principe allemaal om relatief simpele fysica berekeningen...alleen wel een heleboel.

[edit] typo's
Al die physics en realistische bewegingen en zo zijn wel leuk, maar niet ZO leuk, het moet er niet fake uit zien, maar genoeg is genoeg, deze power monsters zijn te duur en te zinloos voor gamers.
Ik hoop dat de physics hype zoals ie nu is stopt, en er een beperkte mate van physics komt, dit is allemaal niet nodig, en niet nuttig, en niet leuker.
Heel juist. Het belang van fysische effecten wordt geheel uit proportie getrokken. Realistischer en meer interactieve werelden zijn natuurlijk welkom, maar de benodigde rekenkracht kan dan ook ruimschoots geleverd worden door huidige en toekomstige mainstream CPUs en GPUs.
Leuk dat je de hype grondig om zeep wil helpen of aandelen in aTI hebt maar CPU van nu kunnen totaal niet tippen aan alles what je in ene game kan propppen aan zeer gedetaileerde Physics features en dat zijn er ene paar dozijnen waarvan sommige effecten een PPU al op zijn knieen kan krijgen.
Zoals het gejank over dat de Fluid demo's er bagger uit zien. Ja alleen dat bagger gedoe doet 'n CPU niet. Maar blijkbaar 'n PPU ook niet optimaal.Misschien nog veel verfijning en optimalisatie nodig voor deze effect. Of ligd in het Physics detail wat nog te grof is. PPU is de eerste Hardware Physics accelereted boost. Dit detail kan men nog meer verfijnen zo fijn en visueel realistisch dat je 'n PPU P5 kan gebruiken om het heel life like tot zijn recht kan laten komen ergens in 2015 als ageia het haald.

Physics is breed en ook zeer omvangrijk begrip ook in detail. Vergeet ook niet op wat voor schaal

Ageia P1 is het begin. een zware bump.

CPU in de toekomst als CPU's Multicore bak beesten worden met zooi geintergreerde Coprocesoren. Zoals 'n Oct General Purpose cores en 'n stuk of 32 Copro erop die elk op zich aardig what Physics kunnen.
Dan kan 'n CPU ook meer zaken hardware accelerated versnellen door specifiek units. Zoiets al Cell maar dan Out of order cores op 'n 32nm Prosces of nog kleiner. Maar dan op X86-64 gebasseerd.

Zoiets als eerst stapje als Cellfactor is al ene probleem voor huidige CPU. Om CellFactor in volle glorie te draaien. 'n DC helpt. 'n conroe ook.

Als PPU aanlsaat zal er ook afhankelijk van de markt er ook een PPU Produkt cycle ontwikkelen. En games die daar op inspelen. En als uiteindelijk MS met DirectPhyxis komt zal het in een sroom versnelling gaan.
Met of zonder Ageia.

iig de toekomstige games zullen wat meer aan Physics kunnen aanbieden wat hardware nodig heeft.
Leuk dat je de hype grondig om zeep wil helpen of aandelen in aTI hebt maar CPU van nu kunnen totaal niet tippen aan alles what je in ene game kan propppen aan zeer gedetaileerde Physics features en dat zijn er ene paar dozijnen waarvan sommige effecten een PPU al op zijn knieen kan krijgen.
Ik heb geen gerelateerde aandelen. Maar laten we het vooral niet persoonlijk maken met zulke onozele opmerkingen...

Verklaar eerst maar eens hoe een PhysX P1 met 20 GFLOPS een Core 2 Duo met 48 GFLOPS op z'n knieën zal krijgen.

Feit is ook dat vele huidige physics engines nog niet volop geoptimaliseerd zijn met SSE. Dat kan je zelf met VTune of CodeAnalyst nagaan. Er is dus nog gigantisch veel ongebruikt potentieel van een CPU, dat vroeg of laat wel degelijk benut zal worden.
GFlops zeggen niet zoveel is leuk voor 'n simple shyntetische bench what dan 200% meer waarde geeft over 'n K8 of zo.

PPU reken kracht is speciaal gericht op Physics berekeningen. 'n FPU is ook voor de General Floating point stuff bedoeld. Physics logic zal meer gericht zijn om Physics code mixen effecient te verwerken.
'n CPU moet zijn general power losslaten op een hoop verschillende taken en of aansturen van diverse hardware acceleratoren zoals de GPU Dit is ook geen lichte taak.

GPU hebben de beschikking over en hele hoop van die GP PS units Die als een array van COpro werken. En dat op 90nm.

Als chips will vergelijken moet je toch wel benchen met een test waar voor ze ook voor gebruikt worden. En dat zijn de verschillende Physics Features en de code mixen die daar aan verbonden zijn.

Dan kan 'n CPU ook puur wat Physics doen maar 'n game bestaat uit veel taken.
taken

Ja VTune Code analist leuk allemaal maar zolang Devs hun vaak niet geupgrade tools als Visual studio niet de iNtel plug in Compiler gebruiken heb je er ook niet veel aan. Als ze de gewoon standaard van MS geleverde compiler gebruiken.

P4 had in het begin er ook heel veel last van dat het oude code van MS VC++5.0 niet goed kon draaien waardor in sommige gevallen 'n Duron 'n top P4 kon bijbenen. In apps waar dit nadeel sterk tot uiting komt.
Heeft toch wel 'n tijdje geduurd.

Nu met Conroe en PhysX P1 zal de situatie er over 2 jaar weer anders zijn.

En CPU. Als Ageia het niet haald dan neemd ATI het met hun GPU over.
Dus Hardware Accelerate Physics daar kan een CPU op korte termijn niet veel mee rtegen doen. Het is alleen welke Physic kamp het gaat winnen. ATI/HAvok Of Ageia.
SG: Je snapt het niet. Fysische berekeningen zijn niks anders dan gewone floating-point berekeningen. Het aantal GFLOPS is dus wel degelijk van direct praktisch belang.

En men hoeft helemaal geen Intel compiler te gebruiken. Inline assembler en intrinsics zijn voor iedereen beschikbaar.
De logic implementatie om dit efficenter te doen kan zeker wat uit maken. Zo presteren FPU's ook verschillend en kan je de hardware richten om bepaalde functies veel efficenter door aantal klok tikken benodigs om iets te verwerken verminderen of simmultaan. Of 'n hele set in een keer te berekenen.
De chips is niet alles. Veel data wat benodigd is wordt op zeer snel locaal geheugen gehouden. Iets wat een CPU niet tot zijn beschikking heeft en 'n GPU en PPU weer wel. Snel DDR3.
Zinloos? Er moet eerst 'n game komen die er goed, als gameplay verrijkend, er gebruik van maakt. Zo zijn de demo's alles behalve indruk wekkend maar laten wel de potentie zien. Het is aan de dev's om er iets zinnings mee te doen. Met heavy Phsyics load alleen komen ze er niet en daar is dus ageia totaal afhankelijk van. Want dev support is niet alles, maar 'n game die er goed van gebruik van maakt van die Physics power en aanslaat bij het wat grotere publiek, waar 'n Ageia kaart nodig is om juist die gameplay er uit te halen. Zodat er een run ontstaat op de hardware.

Hype er is geen Hype maar een zware wat onterechte voorkeur voor ATI's oplossing. en nogal ene gahamer op die prijs. D'r is teveel critiek om over hype te spreken. Hype is als iets overschat word zo als ik de meningen zie vaak niet beargumenteerd, wordt het juist onderschat en vaak nu al conclusies getrokken in een zeer prille introduktie periode. Over 'n jaar kan je wat meer zeggen zoals is die killer app er dan al, of nog niet of komt ie er wel of in aantocht. Of ligd Ageia op de fles.
Tja Project cycle van games is iets van 1,5 tot 5 jaar.

Dus Het gross van die 60+ supported games komen over 1 á 2 jaar pas uit als ze al aardig wat tijd er nu al op hebben zitten. Vooral als Physics al van af de design stage er al in gewoven zit en dus in de gameplay mechanics meegenomen is.

Ik verwacht rond de 3 games max die er boven uit steken van die 60 á 100. Waaronder UT2007.
Maar dat kan genoeg zijn alleen hopelijk niet te laat.

Ondertussen timmeren Havok FX en DirectphysX ook hard aan de weg.
Een spel zoals Unreal Tournament 2007 gaat echt niet het risico lopen om slecht te draaien op een systeem zonder AGEIA kaart. CPUs zijn trouwens ook ruim krachtig genoeg om indrukwekkende fysische effecten toe te laten, en dat gaat dan ook de norm bepalen.

Ik zit in de game-industrie, en hoef echt geen kristallen bol te hebben om te voorspellen dat ook na verloop van tijd AGEIA niet van de grond zal geraken. Hun hardware is ronduit zwak in vergelijking met zeer binnenkort beschikbare processoren en grafische kaarten. Hun prijzen laten ook totaal niet toe om de mainstream markt te betreden, wat broodnodig is om een product enig succes te laten krijgen. Denk maar aan het failliet van 3Dfx, dat er niet in slaagde betaalbare producten te maken, terwijl NVIDIA en ATI dat wel begrepen hadden.
Dan is zo'n highend graphixcard volgens jou ook zinloos... hell, dan is elke 3d kaart volgens jou wel zinloos..
Aangezien zo'n kaart aanzienlijk meer botsingen tussen bollen dan andere objecten kan berekenen... zal dat dan betekenen dat er in de toekomst van polygonen afgestapt zal worden en men vormen zal opbouwen uit (hele kleine) bollen?
Nee. Let op het verschil tussen (de vorm van) het object en (de vorm van) de bounding-box van het object. Deze kunnen totaal verschillend zijn. De bounding-box wordt gebruikt voor het detecteren van (mogelijke) botsingen, terwijl de vorm van het object visueel getoond wordt op het scherm.

Het detecteren van een botsing kan heel simpel met een bol beginnen die het hele echte object omvat. Als blijkt dat er een mogelijke botsing is, dan wordt de bounding-box opgesplitst realistischer gemaakt, opgedeeld in meerdere kleinere bollen.

Hoeverder je deze opdeling van je bounding-box doet, hoe meer de bounding-box gaat lijken op de vorm van je object. Je bounding-box is echter opgebouwd uit allemaal grote en kleine bollen, terwijl je object echt een bepaalde vorm heeft, gemaakt uit polygonen.
als aanvulling op -Questor-:

De reden dat bol-collisions zo ontiegelijk veel sneller zijn is vrij simpel. Een bol is namelijk te omschrijven met 1 getal: de straal (of diameter als je dat liever hebt). Wanneer je dus een bol hebt die een compleet object omvat, kun je heel eenvoudig zien of het ene object [A] je bol [B] raakt. Wanneer de afstand tussen de positie (middelpunt van de bol) van A en de positie van B gelijk is of groter is dan de grootste straal minus de kleinste straal van de bollen A en B, dan is er dus een collision tussen de bollen (bounding spheres).

Zoals Questor al aangaf is het na deze niet-intensieve berekening dan zaak om gedetailleerder te gaan kijken naar de objecten of ze elkaar echt raken, de potentie is er in ieder geval. Dankzij deze methode kan een game engine 't kaf van 't koren scheiden en heel veel intensieve berekeningen achterwege laten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True