Gratis Cellfactor-versie moet Ageia populairder maken

Ageia zal het spel Cellfactor: Revolution vanaf 8 mei gratis ter download aanbieden. De producent van de physics-accelerator PhysX hoopt met de weggeefactie zijn hardware beter onder de aandacht van de gaminggemeenschap te krijgen.

Hoewel de first person shooter ook zonder PhysX-kaart draait, leunt het spel van Artificial Studios en Immersion Games zwaar op de Ageia-hardware. Cellfactor: Revolution zou met de bijbehorende hardware volgens de makers levensechte physics kennen, waardoor effecten als golvend water, wapperende stoffen en instortende gebouwen overtuigender op de speler moeten overkomen. De mogelijkheden van de PhysX-hardware worden ook benut om de speler te sturen. Zo kan een trillend spinnenweb een naderende vijand verraden en een lekkend olievat geeft een potentieel gevaar aan. De speler kan ook diverse objecten, waaronder wapens en voertuigen, gelijktijdig manipuleren.

Gamers die een PhysX-kaart in hun pc hebben geprikt, zijn in staat om in vier multiplayer-modi zowel menselijke als computergestuurde tegenstanders te bestrijden. Ageia-lozen moeten het doen met minder levels en uitsluitend door de cpu gecontroleerde vijanden. Wel krijgt de modding-community van de developers gereedschappen aangereikt om zelf nieuwe levels te bouwen, maar of daarmee multiplayer-maps gebouwd kunnen worden, is nog niet bekendgemaakt.

Cellfactor Revolution

Door Dimitri Reijerman

Redacteur

11-04-2007 • 13:57

147

Bron: The Inquirer

Reacties (147)

147
146
28
3
1
109
Wijzig sortering
Ze hadden al eens een demo vrijgegeven die ik gedraaid heb zonder physX kaart. daarvoor was een exe parameter nodig maar ik kon vervolgens het spel met alle toeters en bellen aan spelen.

vervolgens heb ik op internet benchmarks gezien van het spel met en zonder physx kaart op het zelfde systeem, het scheelde ongeveer 4 fps.

lang leve physX :s
Ik heb die demo ook gespeeld. En bij mij scheelde het toch wel meer dan 4 fps. Zodra een van de objecten in beeld kwam die veel gebruik maakt van de PhysX kaart zakte de framerate van 15-20 fps naar 1-2 fps.

Ik heb het daarna vergeleken bij een collega die wel de PhysX kaart heeft en bijna hetzelfde systeem en daar zakte de fps ook een beetje in maar naar ongeveer 10-15 fps.

Wel is het een goede zet van Ageia om dit spel gratis te verspreiden. Hier kunnen ze veel mensen mee overtuigen (en dat hebben ze ook nodig aangezien Ati en nVidia bezig zijn met een soortgelijke techniek)

@DeadKennedy & martijnve hierboven: Je kon de effecten wel aanzetten via die commandline parameter, maar ik betwijfel dat het bij hem dan maar zo weinig verschil maakte. Er was bijvoorbeeld een "veld" met olievaten. Je kon hier gewoon langslopen en de framerate bleef gelijk, maar zodra je op deze vaten deed schieten en er dus beekeningen gedaan werden voor realistische botsingen en vloeistoffen die eruit liepen zakte de framerate heel erg in. (zoals ik al zei naar 1-2fps). Zodra een physx kaart aanwezig was werden deze berekeningen gedaan door deze kaart en niet meer door de cpu en liep het vloeiend.
Dus dat betekend dat je dezelfde performance hebt zonder de PhysX-kaart, maar wel met de levensechte physics, die je zonder die kaart niet hebt.

Kaartje doet dan dus blijkbaar goed z'n werk.
Ik weet niet of die levensechte physics een toeter of een bel is, maar hij zegt toch echt "met alle toeters en bellen aan spelen."

Kaartje doet dus blijkbaar vrij weinig, zelfs in een voor die kaart gemaakt spel.
Waarom snapt toch niemand dat die kaart niet alleen is om prestaties qua fps te verbeteren, maar ontzettend veel meer dingen op het scherm tovert?! Dat is met name de meerwaarde, niet het ontlasten van de gpu voor dingen die diezelfde gpu zelf helemaal niet kan laten zien....

Al die toeters die de gewone gpu kan laten zien zijn niet dezelfde dingen die extra op het scherm komen als die Ageia erbij komt. Dat zijn de bellen, waarvoor je dus extra betaalt, en ook veel meer van geniet, meer puin en exploderende zooi op het scherm, daar gaat het om. Uiteraard levert dat dan geen extra fps op, omdat het juist meer kracht kost om deze bellen te laten zien...

Ik snap de denkfout van de meeste lui gewoon niet :D
das niet echt helemaal waarheidsgetrouw. Bijvoorbeeld bij ghost recon worden physics in een basic mode gedraaid op een cpu. Als je echter een ppu erbij hebt dan worden explosies veel realistischer met veel meer fragmenten ed.
@Tha Man : "Meer dingen op het scherm toveren"?
Je bedoelt dat als je de kaart niet hebt, je maar een half spel kan spelen, omdat de rest is uitgeschakeld.

Dus het is niet een kwestie van MEER krijgen, maar juist van MINDER krijgen. Geen wonder dat ze de spelletjes gratis moeten maken.

Dit is gewoon een kansloze manier om de kaart te verkopen. Van mij mogen ze best een co-processor verkopen (is amd ook van plan), maar zorg dan dat de spellen ook gewoon werken met alleen een normale CPU.
Waarom snapt toch niemand dat die kaart niet alleen is om prestaties qua fps te verbeteren, maar ontzettend veel meer dingen op het scherm tovert?!
Omdat je ook geen of nauwelijks prestaties verliest wanneer je die toeters en bellen niet op een PPU maar op de CPU of GPU laat berekenen. Indien de software daar tenminste deftig voor geoptimaliseerd is.

Kijk, ik kan een USB-kabeltje knopen rond een dode rat, en dan een spel ontwikkelen dat bij de aanwezigheid van de dode rat veel leuker speelt dan zonder. Betekent dit dat het 150 € kostende knaagdier een goede investering is?

AGEIA verkoopt echte hardware, maar het is niks bijzonders qua ontwerp en de prijs / prestaties van een GPU is veel beter. Voor een multi-core CPU is de verhouding ongeveer hetzelfde, maar je CPU is dan ook nuttig voor veel meer dan physics.
@Tha Man
Die kaart zorgt ervoor dat die pracht en praal draait met een redelijke FPS -> uiteindelijke doel dus...
@Mister_X:
Nee, jij tuint ook in die denkfout.
Als je die PhysX kaart hebt zie je dingen die je niet ziet zonder. Die extra dingen worden dus niet eens berekend/getoond.
en die iedereen loopt te roepen dat ze de demo ook op hun CPU goed konden draaien hebben alleen de eerste demo gedraait... de grap is ze hebben daar allerlei zooi uit gehaalt... bijvoorbeeld real cloth en fluid control (of hoe ze dat ook maar mogen noemen....)

als je op 1 van de barrels schiet komt er normaalgesproken olie die realistisch wegvloeit uit en daar na explodeert maar zonder die kaar zie je de olie niet. ook zit er in de demo een hele grote (destructable) vlag maar ook zonder de physx hardware zie je die niet.

omdat er zoveel mensen dachten (en blijkbaar nog steeds denken) dat hun cpu dit alles tegelijk kan berekenen hebben ze een 2e demo opgezet waarin de vlag WEL is geimplementeerd. Als je zonder de kaart naar de vlag kijkt en er op schiet enzo dan daalt de FPS van 40 naar 4 (en zelfs nog wel lager) met deze kaart blijft hij op 40 FPS. ook als er grotere explosies plaatsvinden met meer brokstukken enzo zie een enorme dip naar 20fps terwijl je met die kaart gewoon op 40 blijft.

ik weet dit uiteraard omdat ik zo'n kaartje in mijn PC met een Dualcore AMD Opteron 165 (@2,5ghz) en een 7900GTX512MB heb. Omdat ik een dualcore heb heb ik ook even naar het processorgebruik gekeken met de kaart ingeschakeld en zonder, deze is in beide gevallen gelijk en worden gewoon BEIDE cores van mijn processor gebruikt.

ook heeft AGEIA een cellfactor Benchmark opgezet die je laat zien wat voor voordeel de Physxkaart heeft (probleem is voor de vergelijking heb je al wel zo'n kaart nodig) die is vanaf hier te downloaden: http://www.ageia.com/physx/rm.html (378MB)


specs:
AMD Opteron 165 (@2,5GHz)
Asrock 939Dual-SataII
2GB RAM in DC
Geforce 7900GTX 512MB
Soundblaster X-FI XtremeMusic
Asus Physx P1 128MB
Intel Pro/1000GT Desktop Adapter
ook heeft AGEIA een cellfactor Benchmark opgezet die je laat zien wat voor voordeel de Physxkaart heeft (probleem is voor de vergelijking heb je al wel zo'n kaart nodig)
Hét probleem voor de vergelijking is dat het een AGEIA benchmark is voor een AGEIA product. Natuurlijk dat ze alles in het werk stellen om de softwareversie een heel pak trager te laten lopen dat de hardwareversie.
en die iedereen loopt te roepen dat ze de demo ook op hun CPU goed konden draaien hebben alleen de eerste demo gedraait... de grap is ze hebben daar allerlei zooi uit gehaalt... bijvoorbeeld real cloth en fluid control (of hoe ze dat ook maar mogen noemen....)
Ik heb een demo gespeeld met de commandline parameter en dus geheel op CPU. Ik kon genieten van de realtime cloth simulatie en de fluid (wat trouwens niet echt realtime fluid is maar metaparticles, maar dat terzijde). Waarschijnlijk was dit dan inderdaad de tweede demo, maar volgens mij waren het er ook meer dan twee.

Dit deed ik toendertijd op een AMD64@2.6GHz (3700+) i.c.m. 7800GTX en 1GB ram.
Toegegeven dat dit uiteraard minder goed draait dan op jouw systeem, maar ik denk wel dat een dualcore en de goede optimalisaties in het spel de PhysX kaart overbodig maken. Je betaalt nog steeds voornamelijk voor het "unlocken" van effecten die eigenlijk niet veel meer voorstellen dan een gimmick van Ageia. Cellfactor is zover ik weet ook het enige spel dat "echt" wat doet met de PPU.

Verder is er nog ghost recon waar je iets meer particles op je scherm krijgt en de physic simulation op de objecten werkt iets anders. Zo kan uiteindelijk een auto op zijn kop belanden na een explosie waar je dat zonder PPU niet voor elkaar krijgt. (wat met Havok ook makkelijk kan)
Dit resulteert ook nog eens in het scenario waar je door de auto heen kan lopen (in multiplayer) omdat verschillende spelers de auto ergens anders kunnen hebben liggen door verschillende physics berekeningen.

Tevens zag ik met de PPU berekening de auto zo nu en dan weleens door de muur zweven waar dat met de CPU niet gebeurde.

Dan hebben we nog een lijstje aan andere spellen waar de PPU iets zou moeten doen (bijvoorbeeld CoH en CoV) maar in geen geval beinvloed het de gameplay, het zijn alleen maar suffe effectjes waar je in veel gevallen naar op zoek moet gaan om ze te zien en die vooral erg makkelijk te imiteren zijn met conventionele methodes.(GPU/CPU)

nogmaals, lang leve PhysX
Wat simen zegt is dat je met een commandline parameter de geavanceerde physics ook aan kan zetten zonder physics kaart en dat dat maar 4 fps langzamer is als met kaart!
En volgens mij klopt dat toch niet helemaal, ik had ooit een review gelezen oid, en als ik het me goed herinner kan je inderdaad met een commandline parameter de physics gewoon door de cpu laten doen, maar TOCH ontbreken er nogsteeds bepaalde effecten op die manier. Ik meende ook te hebben gelezen dat het 'cloth' werk enkel met de ageia werkt, en als deze door de cpu gedaan moet worden dit extreem veel framerates kost.

Ik ben dus niet helemaal overtuigt dat meneer bovenaan met een simpele commandline ook EXACT de zelfde effecten heeft als MET ageia. Ik denk dat je je vergist, sommige dingen kunnen enkel met de ageia berekent worden, je mist dus altijd iets, en daarmee gaat je statement niet op.
Als ik iets mis, zou ik niet weten wat.

Daarnaast, ik heb gezien wat ageia te bieden heeft in ghost recon, city of heroes en nog wat spellen, maar geen van deze effecten zijn revolutionair of niet te behalen met GPU/CPU.
Daarnaast mogen we in bijna geen van alle gevallen als consumenten zelf ondervinden waar de ageia kaart de prestaties mogelijk maakt, want de effecten zijn in bijna alle gevallen uitgeschakeld voor consumenten zonder ppu.

Het argument dat een PPU geen prestaties verbeterd maar nieuwe effecten mogelijk maakt is onzin, ik heb ieder van de tot nu toe gepresenteerde effecten al gezien op GPU/CPU kracht, daarnaast heb je voor cellfactor ook nog steeds een behoorlijke bak nodig, met of zonder PPU.

(voorbeeldje ter versteviging van mijn punt; als je in cellfactor de cloth optie aanzet, krijg je een realtime cloth simulatie, ziet er mooi en aardig uit, maar zonder PPU draait dit aanzienlijk slechter dan met. Desondanks kan ik exact dezelfde simulatie tot stand brengen in 3ds Max d.m.v. Havok simulatie zonder moeite te hebben, zelfs al doe ik het met 20 iterations)
Je kan het beter andersom zien. De ontwikkelaars van het spel hebben hun werk goed gedaan.

Waarom? Omdat het spel ook prima draait zonder de speciale hardware ipv dat het voor geen meter loopt.
Weer iemand die het verkeerd begrijpt. In de softwaremodus waren sommige effecten uitgeschakeld. Tegenwoordig -in de nieuwe demo- kun je bv. cloth simulation ook aanzetten in software modus. Resultaat: een FPS van 3 of 4 ofzo. Met de PhysX kaart echter gerust 40 of 50.

En voor de duidelijkheid, al eerder gezegd: de PhysX kaart is er nìet voor hogere FPS! Vaak met een PhysX kaart heb je zelfs lagere FPS vanwege de extra PhysX effecten die gerenderd moeten worden. Een PhysX kaart zorgt voor meer, mooiere en betere physics effecten.

* Wildfire heeft zelf een PhysX kaartje
Anoniem: 77640 @Wildfire11 april 2007 15:08
Tegenwoordig -in de nieuwe demo- kun je bv. cloth simulation ook aanzetten in software modus. Resultaat: een FPS van 3 of 4 ofzo. Met de PhysX kaart echter gerust 40 of 50.
Dit bewijst enkel hoe slecht hun software is, niet dat hun hardware iets waard is. Een CPU en PPU hebben vergelijkbare rekenkracht, indien je gebruik maakt van SSE instructies. Hun software is dus opzettelijk ongeoptimaliseerd.
'Hun' software is de software van NovodeX, die al lang voor de komst van de PhysX-kaart bestond (men heeft deze API aangenomen als de standaard-API voor de PhysX-kaart), en ook in een aantal spellen commercieel gebruikt is (voor meerdere platformen, en ook multi-CPU).
Ik denk dat het qua performance vergelijkbaar is met een concurrent als Havok.
Het is zeker geen ongeoptimaliseerde troep, het is allemaal SSE-geoptimaliseerd, en ook voor multiprocessing.
Ik heb een tijd terug nog wat met de SDK geexperimenteerd (toen er nog geen sprake van PhysX was), en dat viel me niet tegen.
CPU en PPU hebben juist geen vergelijkbare rekenkracht. Een PPU heeft soort van logic gate configuratie die veel voorkomende physics berekeningen bijv binnen 1 clockcyclus uitvoert. Een CPU heeft geen gespecialiseerde
unit om physics berekeningen te doen. Dus daarom zal de CPU meerdere clockcycli moeten draaien voor dezelde berekeningen. Als het om physics gaat dan heeft een PPU echt wel meer performance dan een CPU. En ik weet uit ervaring dat je SSE opcodes moeilijk kunt gebruiken voor physics berekeningen, ten eerte omdat XMM registers integer registers zijn, terwijl je voor physics floating point nodig hebt en ten tweede omdat je geen SIMD strategie kunt toepassen op physics berekeningen. Bij video encoding kun je weer wel SIMD toepassen.

Ze zouden hun software mode extra slecht kunnen maken, maar ik denk niet dat ze risico's zouden willen nemen door een nutteloze for loop van een miljoen iteraties in hun code te plaatsen, omdat er toch wel ergens in deze grote wereld een gek zal zijn die de SDK binaries van Ageia zal reverse engineeren.
@sse2
Een PPU heeft soort van logic gate configuratie die veel voorkomende physics berekeningen bijv binnen 1 clockcyclus uitvoert. Een CPU heeft geen gespecialiseerde
unit om physics berekeningen te doen. Dus daarom zal de CPU meerdere clockcycli moeten draaien voor dezelde berekeningen.
Maar de Ageia kaart zit op de PCI bus en de CPU aan de veel snellere CPU bus.
Voor je de PCI bus opmag kunnen er ook wel een aardig aantal clockcycles voorbij zijn, zeker als er op dat moment al een ander apparaat bezig was.

Ik vraag me nogsteeds af wat die kaart (of z'n firmware) meer te bieden heeft dan Havok in een appart proces op een apparte core/fysieke CPU
Het is zeker geen ongeoptimaliseerde troep, het is allemaal SSE-geoptimaliseerd, en ook voor multiprocessing.
Ik heb NovodeX eens geprofileerd met VTune, en daar kwam een helemaal ander beeld uit naar voor. Hier en daar komt wel een enkele SSE instructie voor, maar het is verre van de 'tight' code die ik verwachtte. De bottlenecks waren allemaal oude FPU code.

Mijn eigen code is negen maal sneller met SSE optimalisaties aan. Hierbij is het SSE-pad handgeoptimaliseerd en het andere pad C code. Via autovectorisatie is dat C pad de helft sneller, maar dus nog steeds verre van wat goede SSE optimalisaties kunnen opleveren.
CPU en PPU hebben juist geen vergelijkbare rekenkracht.
AGEIA claimt 530 miljoen sphere collision tests per seconde. Dit is geen enkel probleem voor een 24000 MFLOPS Core 2 Cuo.
Een PPU heeft soort van logic gate configuratie die veel voorkomende physics berekeningen bijv binnen 1 clockcyclus uitvoert. Een CPU heeft geen gespecialiseerde
unit om physics berekeningen te doen.
En wat zijn die 'physics berekeningen' dan wel? Gewone floating-point optellingen en vermenigvuldigingen zoals je die ook op de CPU en GPU vindt.
@c0d1f1ed

Ok een voorbeeld:
Fluid simulation met behulp van de wave equation:
d^2u/dt^2 = d^2u/dx^2 + d^2u/dy^2 + mu*du/dt
Probeer deze differentiaalvergelijking maar eens op te lossen met een CPU binnen 100 clock cycli met de runga-kutta integratiemethode over een tijdsspan van zeg maar 10*dt. Je wilt wilt het toch met simpele optellingen en vermenigvuldigingen doen? Ik zeg je alvast dat het je nooit lukt om het in 100 clocks te doen.
Maar een PPU zou die vergelijking kunnen oplossen mbv een ingebouwde logic gate array, waarvan de gates zo met elkaar zijn verbonden dat het de oplossing van de vergelijking binnen 1 clockcyclus zou kunnen geven. Het gaat om dat soort berekeningen en niet om simpele sphere collision tests(ja een cpu kan een ppu inhalen met het aantal sphere collision tests, maar die test is ook echt zo simpel: test collision 2 bollen: kijk of afstand tussen middelpunt bol 1 en middelpunt bol 2 kleiner is dan straal bol 1 + straal bol 2: 3xsubstract(voor afstand)+1xrelational test+1xoptellen = 4 instructies per test, zeg maar in ergste geval 6 instructies => een 24000 MFLOPS doet dan grofweg 4000 miljoen tests per sec), die weinig rekenkracht vereisen t.o.v. differentiaalvergelijkingen.

@merethan
datzelfde probleem heb je net zo goed met grafische kaarten en het wordt opgelost door alleen eenmalig een lijst commando's te versturen naar de kaart, waarna de kaart de resultaten in zijn geheugen stopt. Het geeft zijn resultaten pas terug als het de flush commando heeft ontvangen. Dus als je maar genoeg commando's verstuurt kun je die PCI bus hit net zo goed verwaarlozen. Ik weet het niet zeker maar ik vermoed dat het bij Ageia ongeveer op dezelfde manier is geregeld.
Ik zeg je alvast dat het je nooit lukt om het in 100 clocks te doen.
Da's 800 floating-point bewerkingen op een Core 2 Duo. Voor RK4 bekom ik 108 bewerkingen voor de golfvergelijking. Maple optimaliseert dit tot 73 bewerkingen. Zeg nooit nooit.
Maar een PPU zou die vergelijking kunnen oplossen mbv een ingebouwde logic gate array, waarvan de gates zo met elkaar zijn verbonden dat het de oplossing van de vergelijking binnen 1 clockcyclus zou kunnen geven.
Dat is niet zo. Zie het Physics Processing Unit Instruction Set Architecture patent. De PPU moet het ook met optellingen en vermenigvuldigingen stellen.
kijk of afstand tussen middelpunt bol 1 en middelpunt bol 2 kleiner is dan straal bol 1 + straal bol 2: 3xsubstract(voor afstand)+1xrelational test+1xoptellen = 4 instructies per test,
Je vergeet een deel. Afstand berekenen kost 3 subtract, 3 multiply, 2 addition, 1 square root. De vierkantswortel kan echter geëlimineerd worden door te kwadrateren aan de andere zijde. Maakt niet uit voor de conclusie dat een CPU hier zeer goed in is.
...die weinig rekenkracht vereisen t.o.v. differentiaalvergelijkingen.
Toch verbijsterend dan dat AGEIA juist dat als performantiemaat aangeeft, niet? GFLOPS hebben ze nooit durven vernoemen, en de enige reden die ik kan bedenken is dat daarmee duidelijk wordt dat een CPU even krachtig of krachtiger is.
Ik heb de patent gelezen en ja je hebt gelijk zoals ageia het doet is niet de beste manier, dan kun je maar beter geen physics kaart kopen. Maar als je het met een soort FPGA doet dan wordt het verhaal anders. Helaas is er geen PPU die gebruik maakt van een FPGA, want dat zou namelijk een enorme performancewinst opleveren tov van de CPU.

Hehe had ff vergeten de grootte van de afstandsvector te berekenen, maar dan is de CPU natuurlijk nog snel tov van de Physics kaart.

Had ff geen rekening gehouden met het feit dat een core 2 duo 4x2cores instructies kan uitvoeren per clock. Maar weet je zeker dat die 73 bewerking alleen maar gebruik maken van FADD, FSUB, FMUL en FDIV? Zo ja, dan is dat netjes gedaan. En met wat andere opcodes zou je natuurlijk een groot aantal clocks kunnen besparen.
cloth simulation? Zit dat niet al in Hitman 1? En draait dat niet op een redelijk oude bak? :+
Anoniem: 77640 @GambitRS12 april 2007 08:23
Tuurlijk, maar de nieuwste hype is dat je er 170 € aan nieuwe hardware voor nodig hebt. Oh boy...
@Wildfire

Thank you!!! Tenminste nog een ziel die het licht gezien heeft :) Je legt het goed uit, beter dan ik geprobeerd heb te doen!
Als ik het mij goed herinner werd, indien het spel zonder PhysX gedraaid werd, een groot deel van de effecten uitgeschakeld. Dat verklaart de geringe performantiewinst, maar er wordt dus meer gewonnen dan enkel performantie.
dat staat ook in de tekst..
Hoewel de first person shooter ook zonder PhysX-kaart draait, leunt het spel van Artificial Studios en Immersion Games zwaar op de Ageia-hardware.
dit ligt gewoon aan het feit dat er dan éxtra berekeningen worden berekend, waardoor er meer oogsnoep aan kan kleven...

de physicsengine zal bij de toekomstige spellen ook wel degelijk een rol gaan spelen wat snelheid betreft.
Er moet simpel genoeg nog worden voor ontwikkeld, Unreal Tournament 2007 zou er schijnbaar gebruik van maken. En ook de Playstation 3 heeft de technology van Ageia ge-licenseert. Dus het heeft een toekomst als het bedrijf de komende jaar overleeft. En met geld van sony (licenties kosten geld) hebben ze in ieder geval een vaste grond voor investeringen.

Nu nog de PC wereld veroveren en natuurlijk game studios ervan overtuigen dat het de moeite waard is ervoor te programeren. Nu is er namelijk een probleem voor game studios.

Als ze het willen gebruiken ZONDER mensen die gaan physx hebben het hoofd te stoten moeten ze het zo programmeren dat je een game ook zonder physx kan spelen. Daarom ook in GRAW..het enige verschil was daar dat je meer "rubble" had als je een physx kaart had.

Of dat nou 250 euro waard was..voor vele niet! Dus daar zit het probleem, de software physics engines en de dual cores kunnen nu nog genoeg bieden om een Physx niet als nodig te beschouwen!
Anoniem: 188785 @swampy11 april 2007 15:05
UT3, Splinter Cell:Conviction, gezien GRAW1 het gebruikte, GRAW2 wss ook, Killing Day, en er zullen er nog komen :)
Een verschil van 4 fps zegt niet veel. Als het met physx kaart 30 fps is en zonder 26, dan heb je er niet veel aan.
Als het echter 6 om 2 is, dan wel.

Niet dat 6 fps goed speelbaar is...
4fps bij hoeveel bewegende objecten?

Als je in half-life 2 een zooi kratten bijelkaar gooi en er een granaat tussen werpt, zie ik ook mijn framerate droppen :P
Als je in half-life 2 een zooi kratten bijelkaar gooi en er een granaat tussen werpt, zie ik ook mijn framerate droppen
Door de extra objecten (rook, vonken, brokstukken, belichting) die je GPU moet tekenen (miljoenen pixels), niet door de fysische berekeningen (een tiental objecten).
Download voor de gein eens Garry's Mod (sowieso een aanrader) en zet een stuk of 50 kratten naast elkaar. Je spel zal dan nog redelijk draaien. Ga je ze echter opstapelen dan zakt je framerate behoorlijk in en gooi je vervolgens de hele stapel om, dan zit je naar een dia-show te kijken. En dan rendert je videokaart nog steeds alleen maar dezelfde kratten die nog vloeiend werden weergegeven toen ze naast elkaar stonden :Y)
* Demo wordt zo onderhand doodmoe van mensen die de bedoeling van deze kaartjes niet willen zien... :Z
Rook, vonken, brokstukken zijn misschien wel extra objecten, maar toch ook objecten die goed door een physics-kaart berekent kunnen worden.
Demoniac, zou al die gein niet gedaan kunnen worden door mijn 2e CPU? Ik heb 2 fysieke CPU's van elk 1,7Ghz. in me kast zitten. Wat is er anders aan physics berekeningen dan de berekeningen die je CPU continue uitvoert?

Also note dat de multi-cores ook in opmars zijn.

Helaas maken game engines daar nog weinig gebruik van. Alleen de Linux versie van UT2004 heeft een appart proces voor het geluid.

Als er nou ook nog een appart proces komt voor de physics heb ik die Ageia kaart niet meer nodig.

..tenzij die Ageia kaart echt zoveel briljant sneller is als een Xeon @1,7Ghz.
Download voor de gein eens Garry's Mod (sowieso een aanrader) en zet een stuk of 50 kratten naast elkaar. Je spel zal dan nog redelijk draaien. Ga je ze echter opstapelen dan zakt je framerate behoorlijk in en gooi je vervolgens de hele stapel om, dan zit je naar een dia-show te kijken.
Belachelijk, een CPU doet tientallen miljarden berekeningen per seconde, en zou nog geen 50 kratten aankunnen?

Probeer eens even de Newton Game Dynamics demos. Honderden objecten zonder enige moeite. En dat terwijl ze nog geen goed gebruik maken van SSE.

Dit illustreert ook maar eens hoe belangrijk algorithmische optimalisaties zijn. In Gary's Mod zal men wellicht de interactie van elk krat met de 49 andere berekenen, terwijl met een slimme partitionering meteen kan nagegaan worden met welke ze zullen interageren en welke niet.
Garry's Mod is een mod voor Half-Life 2, die dus Havok gebruikt, wat we wel als referentie-standaard voor game physics kunnen zien, en daar zit echt wel slimme partitionering in (en ook optimalisaties voor SSE, en blabla).
...en daar zit echt wel slimme partitionering in...
Blijkbaar niet he. Wanneer 50 kratten zorgen voor een diashow en de amateuristische Newton physics engine boven de 60 FPS blijft in zo'n situatie...

Het zou kunnen liggen aan de complexere omgeving. Maar ook daar bestaat een groot verschil in de prestaties van het gebruikte algoritme. 50 objecten mag dan ook geen enkel probleem opleveren. Dit zal gewoon nooit echt aandacht gekregen hebben voor Half-Life 2 omdat die aan een half dozijn objecten genoeg heeft.

Dit is ook waarom ik niet geloof dat hardware physics ooit zal doorbreken. Zelfs al heb je extra rekenkracht, vele spellen hebben het gewoonweg niet nodig. Het schaalt niet mee, en de CPU en GPU kunnen ruimschoots volstaan. Bovendien worden die ook voor andere zaken gebruikt, terwijl en PPU volstrekt idle draait wanneer er geen fysische berekeningen (meer) te doen zijn.
Dit illustreert ook maar eens hoe belangrijk algorithmische optimalisaties zijn. In Gary's Mod zal men wellicht de interactie van elk krat met de 49 andere berekenen, terwijl met een slimme partitionering meteen kan nagegaan worden met welke ze zullen interageren en welke niet.
Als we een slimme partitionering gaan gebruiken om de interactie van de 50 vaten als geheel te berekenen krijgen we dus inderdaad hetgene waar Ageia ons vanaf probeert te helpen: statische berekeningen. Het probleem van jouw slimme partitionering is dat die stapel van 50 kratten altijd op dezelfde manier zal omvallen. Probeer je het in het eggie te doen dan zal je zien dat de kratten altijd verschillend vallen. Om dit na te bootsen kan alleen een heel log algoritme worden gebruikt zodat ieder krat een op zich staand vrij object is dat enkel gebonden is aan de "natuurwetten" zoals ze bepaald zijn door de programmeur; kortom de interactie van ieder krat met alle 49 andere berekenen en natuurlijk doe je dit zo'n 60 keer per seconde; nou.. zo'n ageia kaartje is wel lekker dan :)
Het probleem van jouw slimme partitionering is dat die stapel van 50 kratten altijd op dezelfde manier zal omvallen.
Je hebt geen benul waar je het over hebt. De partitionering waar ik over spreek is dynamisch en heeft geen invloed op de fysische correctheid. Het is een pure algoritmische optimalisatie. Bij de ene engine is het echter al wat beter geïmplementeerd dan de andere.
kortom de interactie van ieder krat met alle 49 andere berekenen en natuurlijk doe je dit zo'n 60 keer per seconde; nou.. zo'n ageia kaartje is wel lekker dan
En totaal niet meer nodig als je van een O(n²) algoritme naar O(n) gaat...
Rook, vonken, brokstukken zijn misschien wel extra objecten, maar toch ook objecten die goed door een physics-kaart berekent kunnen worden.
Die volgen gewoon een paraboolbaan. Dat kost twee optellingen per frame. Kan een CPU even goed, en wel miljarden per seconde. De PPU heeft echt geen enkel onderdeel dat uniek is voor fysische berekeningen.
vergeet na de parabool niet de omgekeerde invalshoek bij collisie om sparkles te laten stuiteren.

Brokstukken zijn zelfs ingewikkelder want daarbij worden werkelijk de fysieke vorm in overweging genomen bij het berekenen van de beweging.
Blijkbaar niet he. Wanneer 50 kratten zorgen voor een diashow en de amateuristische Newton physics engine boven de 60 FPS blijft in zo'n situatie...
Hoezo 'blijkbaar' niet?
Je kunt helemaal geen conclusies verbinden aan een framerate en aantal kratten als de rest van de software COMPLEET anders is.
Misschien is die NPE wel sneller omdat ie veel minder stabiel is, of omdat de mate van detail/precisie lager is, of gewoon omdat bij die NPE demootjes veel minder randzaken meedraaien als in een compleet spel zoals Half-Life 2.
Ik ken geen andere spellen die significant betere/snellere physics hebben dan Half-Life 2.
Ik weet wel dat de NovodeX SDK wat demootjes had die ook meer dan 50 objecten gestapeld had, en ook sneller was dan het genoemde voorbeeld. Maar ook van Havok heb ik wel eens wat snellere demootjes gezien, maar dan zonder compleet spel eromheen natuurlijk.

Misschien is dat ook wel het hele punt... zodra er een compleet spel omheen zit, heb je de CPU-kracht misschien niet meer over om ook nog eens snelle physics te doen.

Het feit dat het aantal kratten niet hetgeen is dat de framerate beinvloedt, maar de rangschikking ervan (naast elkaar is sneller dan op elkaar), geeft toch wel aan dat er slim wordt gerekend waar dat kan. Maar alles op elkaar is worst case natuurlijk. Hoe wil je dat uberhaupt partitioneren?
vergeet na de parabool niet de omgekeerde invalshoek bij collisie om sparkles te laten stuiteren.
Een vector reflecteren kost geen moeite hoor. Er zijn zelfs real-time raytracers voor de CPU die per pixel reflecties berekenen (en nog zoveel meer). Miljoenen per seconde dus. En weerom is dit een bewerking waar de CPU even goed voor is uitgerust als de PPU. Optellingen en vermenigvuldigingen.
Brokstukken zijn zelfs ingewikkelder want daarbij worden werkelijk de fysieke vorm in overweging genomen bij het berekenen van de beweging.
Vergt enkel een intertiematrix. Transformatie kost drie instructies met SSE4, anders vier. En een GPU doet het ook in drie. Hoogstwaarschijnlijk net hetzelfde voor de PPU.
...of gewoon omdat bij die NPE demootjes veel minder randzaken meedraaien als in een compleet spel zoals Half-Life 2.
Als je framerate zonder de kratten 60 Hz is en wanneer ze omvallen een diashow veroorzaken, dan heeft de spelomgeving er niks mee te maken he.
Ik ken geen andere spellen die significant betere/snellere physics hebben dan Half-Life 2.
Half-Life 2 is wel al wat jaartjes oud intussen, en de versie van Havok is wellicht van vóór het jaar vertraging dat ze ondervonden hebben. Kan dus gerust minder optimaal zijn dan wat ze nu allemaal demonstreren. En zoals ik al zei hoeft dat geen probleem te zijn. Gary's Mod belast de physics engine zwaarder dan waar het spel zelf voor ontwikkeld was.

Een mogelijke verklaring voor de tegenvallende prestaties is dan ook dat de omgeving niet optimaal naar de Havok engine gestuurd wordt. Een gebalanceerde BSP is heel wat efficiënter dan elke driehoek in een sector te testen voor botsingen.

Gelijkaardig weetje van de Source engine: Bij de DirectX DrawIndexPrimitive functie wordt niet de minimale range van indices doorgegeven. Drivers moeten het dus zelf berekenen, wat minder efficient is dan het in de applicatie bij te houden.
Maar alles op elkaar is worst case natuurlijk. Hoe wil je dat uberhaupt partitioneren?
Sweep-and-Prune met Separating Axis Theorem en insertion sort. O(n) in praktijk en kan realtime duizenden complexe objecten aan op een doorsnee systeem. Zelfs op een hoopje zal voor elk krat slechts een vijftal collision tests gebeuren. Maakt dus praktisch niet uit hoe ze geschikt zijn. Het is dan ook verbazend dat het in Gary's Mod zo'n grote invloed heeft, en ik kan er alleen maar uit concluderen dat de gebruikte algoritmes verre van optimaal zijn.
Als je framerate zonder de kratten 60 Hz is en wanneer ze omvallen een diashow veroorzaken, dan heeft de spelomgeving er niks mee te maken he.
Vind je?
Ik vind 60 fps wel HEEL weinig voor alleen wat kratjes.
Een modern systeem moet dat met duizenden fps kunnen tekenen.
Als er 'maar' 60 fps uitkomen, verwacht ik juist wel dat er een hoop randzaken bij zitten.
Sweep-and-Prune met Separating Axis Theorem en insertion sort. O(n) in praktijk en kan realtime duizenden complexe objecten aan op een doorsnee systeem. Zelfs op een hoopje zal voor elk krat slechts een vijftal collision tests gebeuren. Maakt dus praktisch niet uit hoe ze geschikt zijn. Het is dan ook verbazend dat het in Gary's Mod zo'n grote invloed heeft, en ik kan er alleen maar uit concluderen dat de gebruikte algoritmes verre van optimaal zijn.
Ik vind het nogal natte-vingerwerk.
Verder snap ik niet hoe je aan een vijftal collision tets per krat komt.
Als ze allemaal op elkaar staan, heb een continu 'wankele' toren, waarbij alles elkaar dus tot in het oneindige beinvloedt, en je alleen met een iteratieve benadering in de buurt van de realiteit kunt komen.
Het aantal iteraties dat je kiest zal vooral bepalend zijn, zowel voor de snelheid als voor het realisme van de simulatie.
Kortom, ten eerste denk ik dat je Havok totaal onderschat, wat nogal arrogant overkomt. Ten tweede denk ik dat je de complexiteit van het probleem niet goed begrijpt, en je rekenvoorbeeldjes totaal geen hout snijden.

Ik ben er klaar mee.
Als er 'maar' 60 fps uitkomen, verwacht ik juist wel dat er een hoop randzaken bij zitten.
Dat is niks relatief ten opzichte van de physics. 60 FPS dat is 17 ms voor de 'randzaken'. Wanneer dat een diashow wordt (stel 6 FPS, ookal is dat een rappe dia), dan is dat 150 ms voor de physics. Als de randzaken maar 1 ms innemen (1000 FPS), dan duurt een frame met physics 151 ms, dus 6.6 FPS. Ook diashow, dus de physics overwegen zwaar de randzaken. Dus, deze physics engine is zeer inefficient, en dat heeft niks te zien met dat de CPU zich ook bezig houdt met de spelomgeving.
Verder snap ik niet hoe je aan een vijftal collision tets per krat komt.
Gooi een paar kratten op een hoop, hoeveel kratten komen er dan echt dicht in de buurt van een specifiek krat? Een vijftal, soms wat minder, soms wat meer, maar alle 49 andere testen is duidelijk totaal overbodig.
Als ze allemaal op elkaar staan, heb een continu 'wankele' toren, waarbij alles elkaar dus tot in het oneindige beinvloedt, en je alleen met een iteratieve benadering in de buurt van de realiteit kunt komen.
Hiervoor analyseert men meestal of het object stilstaat of niet. Dat is niet te moeilijk, gewoon alle krachten optellen en wanneer die kleiner is dan de wrijvingskracht wordt alle overblijvende energie geabsorbeerd en staat het object stil. Zo kan een toren van kratten snel stabiliseren, en zolang er geen extra kracht bijkomt kost het nauwelijks rekenkracht. Eens het boeltje in beweging is gezet volstaat het om in iedere iteratie enkel de impulsen van de botsende kratten te beschouwen. Hoogstens twee impulsen per krat dus, voor een toren.
Kortom, ten eerste denk ik dat je Havok totaal onderschat...
Het gaat hier om, en ik quote Wikipedia, "a heavily modified version of the Havok physics engine". Hij is dus aangepast om aan de noden van Half-Life 2 te voldoen. Daar slaagt het perfect in, maar efficiënt 50 kratten opeenstapelen behoort niet tot de vereisten. Het had niet productief geweest om dat tot het uiterste te optimaliseren als het nooit meer dan een tiental objecten aan moet kunnen in het eigenlijke spel. Brute-force collision detection is dus voldoende.

Bovendien stond Havok nog slechts in z'n kinderschoenen toen de ontwikkeling van Half-Life 2 begon. De versie van Half-Life 2 is dus waarschijnlijk de eerste versie die voldeed aan de noden. Ten tijde van de release hadden ze ongeveer de beste physics voor een spel, maar dat betekent niet dat het intussen niet veel beter kan.
Oke, dit programma NEWTON programma gaat ook HEEL snel over de zeik. Niet alleen door wat blokje of een auto te laten spawnen, maar door multiple joint.
Probeer maar eens een x aantal humans te laten generen achter elkaar. >>> POEF en een dikke crash icm een FPS van 0.22

Voor dit soort berekeningen heb je echt een physics kaart nodig, want een fps van 0.22 was niet echt fijn. Zelfs een powerpoint presentatie was sneller.
Dat is niks relatief ten opzichte van de physics. 60 FPS dat is 17 ms voor de 'randzaken'. Wanneer dat een diashow wordt (stel 6 FPS, ookal is dat een rappe dia), dan is dat 150 ms voor de physics. Als de randzaken maar 1 ms innemen (1000 FPS), dan duurt een frame met physics 151 ms, dus 6.6 FPS. Ook diashow, dus de physics overwegen zwaar de randzaken. Dus, deze physics engine is zeer inefficient, en dat heeft niks te zien met dat de CPU zich ook bezig houdt met de spelomgeving.
Dit is dus onzin. Je stelt de tijd van de physics engine als constante, terwijl je die net zo min weet als de randzaken. Conclusies over efficientie zijn dus nergens op gebaseerd.
Gooi een paar kratten op een hoop, hoeveel kratten komen er dan echt dicht in de buurt van een specifiek krat? Een vijftal, soms wat minder, soms wat meer, maar alle 49 andere testen is duidelijk totaal overbodig.
Daar hadden we het niet over. We hadden het over alles opstapelen. Je loopt dus compleet langs ons heen te praten. Dit is niet relevant.
Hiervoor analyseert men meestal of het object stilstaat of niet. Dat is niet te moeilijk, gewoon alle krachten optellen en wanneer die kleiner is dan de wrijvingskracht wordt alle overblijvende energie geabsorbeerd en staat het object stil. Zo kan een toren van kratten snel stabiliseren, en zolang er geen extra kracht bijkomt kost het nauwelijks rekenkracht. Eens het boeltje in beweging is gezet volstaat het om in iedere iteratie enkel de impulsen van de botsende kratten te beschouwen. Hoogstens twee impulsen per krat dus, voor een toren.
Onder de aanname dus dat het uberhaupt stabiliseert, wat alleen het geval is als de kratten perfect opgestapeld zijn, iets dat zo goed als onmogelijk is in HL2. En als je toren 50 meter hoog is, dan beginnen er aardig wat krachten op de onderste kratten te komen, en valt de toren eigenlijk per definitie altijd wel om na een tijdje.
Aan de door jou gesuggereeerde optimalisaties heb je dus weinig in deze situatie, en uit de post van s4nd3r hieronder begrijp ik dat Newton niet significant sneller is als er echt gerekend moet worden.
Het had niet productief geweest om dat tot het uiterste te optimaliseren als het nooit meer dan een tiental objecten aan moet kunnen in het eigenlijke spel. Brute-force collision detection is dus voldoende.
Dit is slechts gebaseerd op een vermoeden van jou dat dergelijke optimalisaties niet nodig zijn, en daarom niet in HL2 zitten.
Dat kun je niet bewijzen. Sowieso, als die optimalisaties er al in zitten, en in sommige situaties nuttig zijn, zonder kostbaar te zijn (zoals jij zelf beweert), dan zie ik niet in waarom men bij HL2 specifiek dergelijke optimalisaties eruit zou halen. Ik vind jouw vermoeden dus ook niet eens logisch.
Afgezien daarvan vind ik jouw manier van discussieren niet geweldig. Je hebt flauwe vermoedens die je als harde waarheid presenteert, en foute aannamen of verkeerde scenarios vanuit waar jij dingen 'voorrekent'.
Dat vind ik nogal flauw. Het lijkt wel alsof je er belang bij hebt om Ageia onderuit te halen, want je deinst kennelijk nergens voor terug.
Gelukkig trap ik er niet in, en ik hoop dat de rest dat ook niet doet.
kijk als ze nou een 8800 GPU+12 Ageia physics cores doen, dan levert het mischien wel iets op.

ageia moet de hardware/specs gewoon verkopen aan ati/nvidia die het dan in hun GPU verwerken.
Denk je dat een van hun twee daar geld voor over heeft? Ze zijn beide bezig met hun videokaarten het klusje te laten klaren, zo kun je bijvoorbeeld een s1950xtx als videokaart gebruiken en dan een x1300 ofzo de physics laten doen (de x1300 is echt stukke goedkoper dan die physics kaart,...).

Ook had ik gehoord dat je misschien bij de nieuwere borden de igp kon laten werken als physics kaart,...
Anoniem: 77640 @stewie11 april 2007 14:52
kijk als ze nou een 8800 GPU+12 Ageia physics cores doen, dan levert het mischien wel iets op.
Waarom? Een PPU is niks anders dan SIMD eenheden, en de shader cores van een GPU zijn net hetzelfde. Een huidige GPU is dus reeds perfect in staat de functies van een PPU uit te voeren. Er zit niks in een AGEIA chip waar NVIDIA of ATI interesse zou ik kunnen hebben. In tegendeel, hun shader cores zijn enorm efficient.
Het gaat vooral om het geavanceerde netwerk tussen de verschillende processing-eenheden.
De PPU is ontwikkeld door een bedrijf dat van oorsprong specialist was op het gebied van packetswitching en dergelijke.
De infrastructuur binnen de PPU is dus heel krachtig, waardoor resultaten snel geforward kunnen worden. Een GPU is veel meer een rechttoe-rechtaan pipeline, en is veel minder flexibel.
De PPU blinkt dus uit wanneer er veel objecten elkaar beinvloeden. Rekenkracht is daar van minder belang.

Bij een CPU heb je wel weer de flexibiliteit die de GPU niet heeft, maar heb je weer niet de extreem parallele rekenkracht.

De PPU is gewoon een interessant compromis.
Een GPU is veel meer een rechttoe-rechtaan pipeline, en is veel minder flexibel.
Weet ik, maar hij is dus uitermate geschikt voor "eye-candy" physics.
De PPU blinkt dus uit wanneer er veel objecten elkaar beinvloeden. Rekenkracht is daar van minder belang.
Voor sterk interagerende zaken die iets minder rekenkracht vereisen is de CPU zeer geschikt.
Bij een CPU heb je wel weer de flexibiliteit die de GPU niet heeft, maar heb je weer niet de extreem parallele rekenkracht.
Hoeft ook niet, de CPU heeft een 10x hogere kloksnelheid. Daarbij, dual-core is nu de standaard, en quad-core zal snel volgen. Dus het voordeel van parallelisme verliest de PPU ook weeral.
De PPU is gewoon een interessant compromis.
Een veel te duur compromis, en daarom juist níet interessant. Veel kost-effectiever is de CPU te gebruiken voor physics met veel interactie en de GPU voor eye-candy physics. Hierdoor kan je de 170 € van een PPU investeren in de CPU en GPU en in totaal een veel interessanter systeem bekomen, dat ook voor applicaties met weinig of geen physics z'n voordeel bewijst. Ook voor spelontwikkelaars is dit de beste optie omdat ze dan aan iedereen dezelfde spelervaring kunnen aanbieden.
Weet ik, maar hij is dus uitermate geschikt voor "eye-candy" physics.
Lijkt mij een voorbijgaande zaak...
Dingen als vonkjes en particles die verder onderling weinig of geen interactie hebben, en verder niet meer gemanipuleerd kunnen worden... Leuk, maar uiteindelijk absoluut niet realistisch, en zal vervangen worden door een realistischer variant zodra we die mogelijkheid hebben.
Voor sterk interagerende zaken die iets minder rekenkracht vereisen is de CPU zeer geschikt.
Behalve dan dat bij de PPU de verhoudingen anders liggen. De PPU kan meer interactie aan, en koppelt dat ook aan meer (effectieve) rekenkracht. De PPU is immers nog altijd een massief parallelle processor, waar de CPU bijna compleet lineair is.
Ik denk dus dat de CPU het in alle praktische/realistische situaties aflegt tegen de PPU, en hooguit in een kunstmatige rangschikking van objecten misschien ooit sneller is.
Hoeft ook niet, de CPU heeft een 10x hogere kloksnelheid.
Dat zegt natuurlijk niks. Hogere kloksnelheid houdt niet automatisch in dat hij z'n berekeningen ook daadwerkelijk sneller uitvoert.
Zo hebben bv videokaarten ook minder klokcycli nodig dan CPUs voor matrix/vector berekeningen, omdat hun instructieset en implementatie daar specifieker voor ingericht is, dus winnen ze daar weer terug op hun 'gebrek' aan kloksnelheid.
Daarbij, dual-core is nu de standaard, en quad-core zal snel volgen. Dus het voordeel van parallelisme verliest de PPU ook weeral.
Behalve dan dat deze cores heel inefficient met elkaar kunnen communiceren, in verhouding met de units in een PPU. De vergelijking slaat dus nergens op.
Een veel te duur compromis, en daarom juist níet interessant.
Dat vind ik een rare bewering als je net hierboven begint over quadcores.
Zo heel duur zijn die PhysX kaartjes niet.
Het verschil tussen een dualcore en quadcore-processor is groter, veel groter.
Daarom vind ik het nogal vreemd te rijmen met jouw constante betoog dat de CPU het beter kan.
Ik denk dat de PPU een veel betere prijs/prestatie-verhouding heeft dan de CPU op het gebied van physics.
Lijkt mij een voorbijgaande zaak...
Juist niet. GPUs worden steeds flexibeler. En er zijn al sterke geruchten dat Microsoft met DirectX 11 een physics API wil voorzien, die zowel op de CPU, GPU als PPU geïmplementeerd kan worden. NVIDIA en ATI hoeven niet veel meer aan de GPU te veranderen om de PPU van de kaart te vegen, als dat al nodig was.
De PPU kan meer interactie aan, en koppelt dat ook aan meer (effectieve) rekenkracht. De PPU is immers nog altijd een massief parallelle processor, waar de CPU bijna compleet lineair is.
Als de PPU inderdaad met local storage werkt is het juist moeilijker om interactie te hebben, net zoals Cell. En daarbij lijkt het ook veel op een GPU, waarbij resultaten pas een tijdje later bij een andere pijplijn/core terecht kunnen komen. De CPU daarentegen is de eenvoudigste van al door het volledig gedeelde geheugen en de lineariteit.
Dat zegt natuurlijk niks. Hogere kloksnelheid houdt niet automatisch in dat hij z'n berekeningen ook daadwerkelijk sneller uitvoert.
Zo hebben bv videokaarten ook minder klokcycli nodig dan CPUs voor matrix/vector berekeningen, omdat hun instructieset en implementatie daar specifieker voor ingericht is, dus winnen ze daar weer terug op hun 'gebrek' aan kloksnelheid.
Inderdaad, en de CPU wint van de PPU terug op z'n paralleliteit via z'n kloksnelheid. Het werkt in beide richtingen he. Zoals ik dus zei, een CPU hoeft het parallelisme van de PPU niet dankzij z'n 10x hogere kloksnelheid. De specificatie van AGEIA voor het aantal sphere collision tests toont duidelijk aan dat de CPU niet moet onderdoen in rekenkracht. En als dit hetgene is waar de PPU het best in is, is het maar zielig gesteld en kan ik me alleen voorstellen welke horror ze hebben uitgehaald met de softwareversie.
Behalve dan dat deze cores heel inefficient met elkaar kunnen communiceren, in verhouding met de units in een PPU.
Onzin, data kan heel snel via de L2 cache uitgewisseld worden. Bovendien beschikt de CPU over out-of-order execution en speculatieve loads die de latentie verbergen. De PPU heeft, afgaand op het patent, lokaal geheugen per VPU, en geheugen in een MCU voor een groepje VPUs. Het diagram duidt ze zelfs aan met L1 en L2. Tussen MCUs wordt data uitgewisseld via een DME, die gecontroleerd wordt door de PCU. Er wordt met geen woord gesproken over snooping of iets dergelijks, dus het zaakje zal slechts gesynchroniseerd worden wanneer de taak uitgevoerd is (zoals Cell). Da's heel wat minder efficiënt communiceren dan CPU cores.
Het verschil tussen een dualcore en quadcore-processor is groter, veel groter.
Ik heb een Athlon 64 X2 gekocht toen die nog 500 € kostte, nu heb je dezelfde voor 100 €. Hetzelfde zal gebeuren met quad-core. Reken dan nog eens mee dat een CPU veel meer doet dan alleen physics voor een spel (en dan nog alleen deze die van PhysX gebruik maken), en het loont al snel de moeite om op quad-core over te gaan wanneer AMD en Intel daar hun strijd voortzetten.
Daarom vind ik het nogal vreemd te rijmen met jouw constante betoog dat de CPU het beter kan.
Minstens goed genoeg om geen 170 € investering te moeten doen om van alle mogelijkheden van een spel te genieten. Een GPU kan het echter op vlak van eye-candy physics wel significant beter. NVIDIA toont al een tijdje het goede voorbeeld, met meer dan voldoende interactiviteit. Daar is een 170 € investering veel meer waard dan een PhysX kaart.
Ik denk dat de PPU een veel betere prijs/prestatie-verhouding heeft dan de CPU op het gebied van physics.
Op dit moment, louter voor physics, alleen voor Cellfactor, ten opzichte van de CPU, wel ja. Maar dan kijk je niet naar de toekomstige waarde van zo'n investering ten opzichte van de andere mogelijkheden.

Cellfactor is duidelijk ontworpen om AGEIA op artificiële wijze een exclusieve voorsprong te geven. Wanneer de nieuwe generatie DirectX 10 spellen verschijnen die gebruik maken van een combinatie van de CPU en GPU voor physics, zoals Crysis, zal duidelijk worden dat een PPU een nutteloze aankoop is.
Juist niet. GPUs worden steeds flexibeler. En er zijn al sterke geruchten dat Microsoft met DirectX 11 een physics API wil voorzien, die zowel op de CPU, GPU als PPU geïmplementeerd kan worden. NVIDIA en ATI hoeven niet veel meer aan de GPU te veranderen om de PPU van de kaart te vegen, als dat al nodig was.
Dus MS verwacht dat PPU het iig tot DX11 gaat redden?
Verder heb ik al uitgelegd dat je er COMPLEET naast zit wat de structuur van een PPU betreft, en dat GPUs totaal absoluut kansloos zijn, en zullen blijven in de nabije toekomst.
Als de PPU inderdaad met local storage werkt is het juist moeilijker om interactie te hebben, net zoals Cell. En daarbij lijkt het ook veel op een GPU, waarbij resultaten pas een tijdje later bij een andere pijplijn/core terecht kunnen komen. De CPU daarentegen is de eenvoudigste van al door het volledig gedeelde geheugen en de lineariteit.
Niet dus. De local storage is handig om een complete berekening tussen 2 primitieven in z'n geheel af te handelen.
Daarna wordt de specifieke switching architectuur gebruikt om de resultaten snel van 1 unit naar de volgende te forwarden, zodat iteratief rekenen bijzonder snel kan, gecombineerd met het paralleliseren van onafhankelijke berekeningen. GPUs kunnen dit alleen multipass, en CPUs kunnen dit met zo goed als geen parallelisatie vergeleken met de PPU.
Inderdaad, en de CPU wint van de PPU terug op z'n paralleliteit via z'n kloksnelheid. Het werkt in beide richtingen he.
Nee hoor. Er is ook nog zoiets als proporties.
De PPU is *veel* beter qua parallelisme dan een CPU, zoveel dat de CPU kansloos is, gewapend met alleen kloksnelheid, net als bij een GPU.
De specificatie van AGEIA voor het aantal sphere collision tests toont duidelijk aan dat de CPU niet moet onderdoen in rekenkracht. En als dit hetgene is waar de PPU het best in is, is het maar zielig gesteld en kan ik me alleen voorstellen welke horror ze hebben uitgehaald met de softwareversie.
Ten eerste heb je nog geen hard bewijs geleverd (als in een functioneel programma dat ook daadwerkelijk die berekeningen doet, met acceptabele precisie etc) dat de CPU dit kan (ik ben er totaal niet van overtuigd dat jij gelijk hebt, ik heb het nog nooit zien gebeuren), ten tweede is de rekenkracht niet het hele verhaal. Het gaat er ook om hoe efficient je die rekenkracht toe kunt passen.
Onzin, data kan heel snel via de L2 cache uitgewisseld worden.
'Heel snel' is een bijzonder relatief begrip.
Stel dat de PPU de snelheid van L1 cache had, ipv L2... wat helemaal niet vreemd is, met een gespecialiseerde architectuur. Dan is ie al grofweg een factor 3 sneller dan een multicore systeem.
Da's heel wat minder efficiënt communiceren dan CPU cores.
Hier kun je absoluut niets over zeggen. Ten eerste is de architectuur al compleet anders dan bij een CPU, omdat je veel meer units hebt. Ten tweede kun je absoluut geen conclusies over snelheid trekken aan alleen een globale beschrijving van een architectuur. Je moet dat ook in de juiste context kunnen plaatsen qua snelheden en breedtes van bussen etc.
Wederom baseer je jouw 'waarheid' slechts op vermoedens van jouw negatieve doch onvolledige visie op het geheel.
NVIDIA toont al een tijdje het goede voorbeeld, met meer dan voldoende interactiviteit. Daar is een 170 € investering veel meer waard dan een PhysX kaart.
Wat dus compleet jouw mening is, die ik niet deel.
Op dit moment, louter voor physics, alleen voor Cellfactor, ten opzichte van de CPU, wel ja. Maar dan kijk je niet naar de toekomstige waarde van zo'n investering ten opzichte van de andere mogelijkheden.
De PPU heeft ook andere mogelijkheden. Hij is programmeerbaar, er er is een SDK voor met een C/C++ dialect. Misschien wordt de PPU net als de GPU straks ingezet voor allerlei general-purpose berekeningen.
Cellfactor is duidelijk ontworpen om AGEIA op artificiële wijze een exclusieve voorsprong te geven. Wanneer de nieuwe generatie DirectX 10 spellen verschijnen die gebruik maken van een combinatie van de CPU en GPU voor physics, zoals Crysis, zal duidelijk worden dat een PPU een nutteloze aankoop is.
Dat denk jij. Ik zie dat anders. We zullen het wel merken in de toekomst.
Iemand ervaring met zo'n kaart die het idee heeft dat het echt een veel mooier game geeft (niet paar fps meer ofzo maar echt een verschil in hoe het spel eruit ziet en doet.) iemand?
zoek maar eens in google ;) het levert totaal niets extra's.
Op zich zou ik er niets op tegen hebben om zo'n kaart aan te schaffen, echter wil ik en zo te zien aan alle reacties iedereen, niet zo'n hoog bedrag er voor neertellen. Tevens zijn er al onderzoeken gedaan naar het energieverbruik en dat was niet mals (ff zoeken op Tweakers naar Ageia en er is wat te vinden).
Ik heb de Cellfactor demo eens gespeeld zonder mijn PhysX kaart. Geen pretje :)
Anoniem: 77640 @SRI11 april 2007 15:15
Hoe het spel eruitziet wordt volledig bepaald door de applicatie, niet door de hardware.

De prestaties hangen wel af van de hardware, maar ook van de software die erop draait. Zo hebben een CPU en een PPU vergelijkbare rekenkracht, maar zonder gebruik te maken van SSE optimalisaties verlies je een grote factor van de prestaties op een CPU. Met een debugger kan je nagaan dat AGEIA's software geen gebruik maakt van SSE en dus geen eerlijke vergelijking geeft met hun hardware-implementatie.
Nee dus, een dedicated physics processor zal altijd sneller zijn dan een allrounder. Zie ook de posts hierboven van ddbruijn en sse2.
Anoniem: 77640 @Fireshade11 april 2007 17:09
Nee dus, een dedicated physics processor zal altijd sneller zijn dan een allrounder.
Iets is pas 'dedicated' wanneer het logica bevat die enkel voor die taak ontwikkeld is en je nergens anders terugvindt. De PPU bevat echter enkel floating-point units die in niks verschillen van die van de CPU of de GPU's shader units. Een GPU is echter dedicated voor graphics dankzij texture samplers, rasterizers en ROPs, die specifiek zijn voor grafische bewerkingen en je niet terugvind op een CPU.
Ja maar je kan een graka ook voor andere dingen gebruiken, vooral processen met enorm veel threads (molecuulmodelen enzo) dus dan zou die ook niet meer dedicated zijn,... die ppu is ook gewoon dedicated. Namelijk voor natuurkundige berekeningen, en dan kan dan zowel in spelletjes zijn maar ook in andere applicaties...
GPU is ook dedicated. Maar wordt ook misbruikt voor GpGPU doeleinden.

PPU architektuur kan zoiets als een grote aantal aan shader achtige units zijn.
De architektuur is patented (pending) en alleen de patenten zijn bekend. Hiervan zou je al wat van kunnen afleiden. Het zijn ex 3dFx engineers en natuurlijk maak je ene achitektuur die optimaler is voor Physics berekeningen. Daarom dus ook de patenten.
Zoals Branching. en heel veel unit's. 'n soort multicore ding.

We weten nog steeds niet hoe PPU vs GPU en CPU verhouden met verschillende mixen van Physics features en loads kwa performance.

één test voldoet niet er zijn een dozijn aan Physics features die allemaal anders kunnen reageren op design keuzes.

En dan komt er 'n 80nm versie aan van de PPU 130nm nu. zie liever ene next gen PPU2. ben dus benieuwed hoe het uitpakt.

iig ben ik benieuwd hoe revolution en warmonger gaan uitpakken.

Ik heb dus Cellfactor CT gespeeld in Lan aangezien ik wel twee Pc heb met elk 'n PPU erin.

Dat is ene leuke ervaring en zal nog vetter zijn met Revolution en Warmonger. Omdat ze nagenoeh of een PPU moet hebben kunner er veel dingen gedaan worden die nog niet op CPU mogelijk zijn. En dat dan ook een diep in gameplay verwoven

De lang verwachte Gameplay Physics daar waar de Potentie en d erevolutie voor PPU ligd. Ipv van wat vettere effectphysics zoals graw. Niet dat ik niet will effect Physics zijn ook welcom.
Gameplay heeft gewoon meer impact.
en wie zegt me niet dat er geklooit is met het spel zelf??

dramatisch laten lopen zonder kaart, en superlekker laten lopen zodra er een kaart van hunzelf erin zit
Vraag om de source en doe een onafhankelijke code walkthrough :D
Beter nog, schrijf een versie die volledig voor de CPU geoptimaliseerd is (SSE instructies, multi-threaded), en een die voor de GPU geoptimaliseerd is. Alleen dan hebben we een eerlijke vergelijking.
Lijkt me een beetje appels met peren vergelijken.

Het is al moeilijk bijvoorbeeld antialiasing van verschillende videokaart fabrikanten te vergelijken. Laat staan als zaken voor pipelines (en met behulp van specifieke api's) geoptimaliseerd worden die compleet verschillend zijn.

Dan zal je dus weer een subjectief verhaal krijgen over hoe goed de benadering is en waarom je een bepaald algoritme al goed genoeg vindt en dergelijke.
Lijkt me een beetje appels met peren vergelijken.
Echt makkelijk te vergelijken is het niet, maar appels en peren vergelijken nu ook weer niet.

Men kan een aantal benchmarks opstellen waar de implementatie aan moet voldoen; scenarios die pas bij voldoende precizie het juiste eindresultaat opleveren. Ik denk hierbij aan een balletje dat een paar muren raakt en dan een ring door moet zonder de randen te raken, een katapult die enkel en alleen het hoogste blokje van een stapel wegschiet, etc. Genoeg leuks (en nuttigs) te bedenken. :D
Het is al moeilijk bijvoorbeeld antialiasing van verschillende videokaart fabrikanten te vergelijken.
Gelijkaardige tests bestaan ook voor grafische kaarten. De Microsoft tests voor DirectX (WHQL DCT) zijn werkelijk miljoenen tests waar de kaart aan moet voldoen. Er is wat speling (goedkope geïntegreerde chips moeten ook een kans krijgen), maar echt ver kan men niet van de specificatie afwijken. DirectX 10 is trouwens enorm veel strenger hierin. Bovendien wordt 'valsspelen' snel afgestraft door de media.

Ik ben dan ook overtuigd dat een vrije, populaire API (bijvoorbeeld in DirectX 11) een goede zaak zou zijn om de feiten op een rijtje te krijgen.
Natuurlijk komen alle anti PPU fundies met conspiracies theorien.

PhysX is novodex en ondersteund
CPU multicore Consoles Wi tot Ps3 en natuurlijk de PPU.

PS3 heeft de Cell dat is ook 'n Physics Copro bakbeest met 7 SPE unit die daarvoor ook goed in zijn.

Ageia is hard aan het werken om hun API te optimalsieren en features uit te breiden.

SDK is al aan 2.7
En weer een nieuwe interne Developer driver.

Hun theorien goed mogelijk maar ja als je een hond will slaan dan ga je naarstig op zoek naar stokken uh boom stronken.

Ik ga denk ik lekker genieten van PPU accellerated Gameplay Physics met een zwaar Physics enhanced game. Waar CPU Physics games nog verre van zijn.
Dat zegt toch ook al iets.
Waar zijn dan die CPU games die Revolution en warmonger nadoen. eventueel met een andere API zoals Newton. Of havok of tomahawk.

Physics is ene veel omvatende feature pack.
'n demo geeft alleen één feature weer compleet geisoleerd. Dit zijn full games.
Iedereen doet zo neerslachtig over deze kaart, en dat komt gewoon omdat hij te duur is en mensen willen niet zoveel uitgeven voor zo weinig extra's.

Ageia heeft al andere kaarten aangekondigd en over een jaartje zullen de eerste dus goed betaalbaar ijn voor iedereen.

Ik heb er zelf een en ik moet eerlijk zeggen het is net als met Voodoo 3d dat iedereen het in het begin afkraakt en het uiteindelijk snoeihard doorbreekt.

Men ziet niet wat de mogelijkheden van deze kaartjes zijn, het is namelijk een GESPECIALISEERDE processor een dualcore of quad kan wel mooi klinken maar deze physx kaart kan berekeningen doen die de huidige generatie processors niet kunnen doen. Ook zal de kaart in de toekomst gebruikt kunnen worden voor grafische berekeningen als bumpmaps etc. dus het is zeker voor de mensen met een oudere pc nog een waardige upgrade.
Einelijk iemand die ook positief is over deze kaart. Iedereen heeft gelijk wat betreft de prijs. Hij si aan de hoge kant voor wat hij op dit moment bied, maar zoals Shadowblade al zegt kan je het vegelijken met de voodoo3d kaarten. En natuurlijk is er nog niet zoveel voor, aangezien het een redelijk nieuw idee is. Zodra meerdere spellen het gaan ondersteunen en de mensen het verschil kunnen zien (dat gaat lastig als je zo'n kaart niet hebt, maar op de site van ageia zijn genoeg filmpjes te vinden) zal het steeds populairder worden.
Iedere processor kan per definitie alle mogelijke berekeningen binnen de grenzen van nauwkeurigheid uitvoeren. Dat veel instructies niet in hardware zijn uitgevoerd en door een enorme lap software ondersteund moet gebeuren, wil nog niet zeggen dat niet alsnog de processor de berekening doet.

Ik denk dat deze kaarten gewoon te laat komen. Over een aantal jaar hebben CPU's zoveel cores dat je ze dynamisch en voor het gevoel traploos kunt toewijzen aan hetgeen je op dat moment wil doen. Of dat nou rendering is (met gespecialiseerde grafische cores) of physics (met vector cores) of gewoon het simpele optellen en vermenigvuldigen werk (x86 cloontjes); dat maakt dan feitelijk vrij weinig uit.
De vergelijking met de eerste 3dFX kaarten vind ik vrij krom. Iedereen zag meteen dat een VooDoo kaart een enorme verbetering van graphics betekende, het voordeel van deze kaart is toch echt in de marges van wat GPU en processor al kunnen.
Dar ben ik het niet helemaal mee eens. Dat wat de voodoo kaarten deden was niet meer dan een hardwarematige berekening van de 3d omgeving. Dit kon ook gewoon gedaan worden door de cpu en de gpu (in softwaremodus), maar dan had je dus ook een framerate van 1-2 (en voodoo had >30 oftewel vloeiend)
Steeds maar weer het commentaar dat een physx kaart doet wat een processor/GPU ook kan. Een GPU doet toch ook wat een processor ook kan? Het punt hier is dat een kaart die dedicated is aan één soort berekeningen en het gewoon efficienter doet lijkt me
Een GPU doet toch ook wat een processor ook kan?
Neen. Een GPU heeft texture samplers die per klokcylus een gefilterde texel leveren. Een CPU doet over dezelfde berekeningen, zelfs met MMX en SSE, een hondertal klockcycli. Verder heeft een GPU ook een rasterizer unit en ROP units die volledig gepijplijnd zijn. De shader units zijn, hoewel sterk parallel, weinig verschillend van de SIMD units in een CPU.

Een PPU heeft echter geen enkel onderdeel dat uniek kan genoemd worden, en een voordeel zou leveren voor physics. De berekeningen zijn algemene floating-point bewerkingen die even goed op de SIMD units van een CPU of GPU uitgevoerd kunnen worden.
Dat die ppu dedicated is is helemaal niet belangrijk.
Het feit dat deze niet direct aan het grafisch geheugen is gekoppeld is het grootste probleem.
Een gpu kan de vertices in zijn eigen geheugen bewerken, en heeft daarom een grote voorsprong.
Daarnaast als je een quadcore hebt op 3 Ghz, heb je veel meer power dan een los ppu'tje.
Het feit dat de ppu dedicated is, wordt volkomen overschaduwd door de power van een quadcore.
In het begin liep ook iedereen 3d kaarten af te zeiken omdat dat toch beter door de CPU gedaan kon worden etc..

Wellicht heeft hij gelijk en is de PhysX een enorme strakke kaart voor gamers. Mischien is fatsoenlijk geschreven software en een multi core/processor systeem net zo goed.
Ja een €1200 Quadcore tegen 'n PPU zetten van €179 en kijk hij kan hem bij benen.
'n spel waar ze AI en andere taken even overboard moeten gooien omdat het hele ding even competatief Physics moet doen tegen de PPU.

Waar 'n Quadcore van €500 en PPU met 'n R600.
Geeft wow GFX enhanced Physics en een QC die nieuwe nog nooit vertoond dynamisch Ai en AL gedrag leverd.

Zoals een destructieve enviorment brengt dynamisch Pathing mee. Je kan geen paden voor difineren aan gezien een raket blow in ene muur 'n niewe pad genereerd of een omgevallen toren 'n Pad blokeerd.

AI moet dus een veel dynamishe en complexere Pathing routines krijgen. Dit vergt nogal wat meer power dan wat fix Pathing

De reden dat JTF PhysX niet op grote scaal gebruik was hier om de Pathing vs Debri.

valve SMP met fine grain Treading is zeer interresant en wat je met die rekenkracht allemaal kan doen.

PhysX enhance is een er zijn mee rdingen die achter lopen op de rendertaak en te weinig aandacht krijgen.

Gezien het nog steed veel vuldig gemekker over domme AI in games.
Eigenlijk heeft deze kaart maar twee punten waarop hij sterk verbeterd zal moeten worden voor meer marktacceptatie:

1. Veel meer spellen die er gebruik van kunnen maken.
2. Een lagere prijs.

€ 170,- is teveel geld voor een "extra" kaart in een gamebak. Al brengen ze de prijs terug rond de € 100,- voor hun nieuwe PCI-Express 1x versie van deze kaart, dan is het al sneller een excuus om een PhysX kaart te kopen voor een slot 'dat toch niemand gebruikt'.

Ow ja, nog iets over dat de kaart niet zorgt voor meer FPS: dat komt omdat hun engine het niet toestaat om de physics softwarematig te berekenen. Die effecten worden gewoon weggehaald, waardoor het spel misschien zelfs vloeiender loopt. Technisch gezien kan de kaart dus wel voor meer FPS zorgen al kunnen ze het werk van bestaande softwarematige physics engines (zoals Havok) overnemen.
Een duo of quadcore kan egt die berekeningen wel doen,... is alleen lang niet zo snel :P

edit: te laat,....
LOL@shadowblade
Iedereen doet zo neerslachtig over deze kaart, en dat komt gewoon omdat hij te duur is en mensen willen niet zoveel uitgeven voor zo weinig extra's.
en toch koop je het?

enne:
Ik heb er zelf een en ik moet eerlijk zeggen het is net als met Voodoo 3d dat iedereen het in het begin afkraakt en het uiteindelijk snoeihard doorbreekt.
iedereen weet hoe het daar mee afgelopen is... ;)

en nee, deze kaart heeft geen toekomst, alle 'add on' kaarten hebben een levensduur (ongeacht versies en uitgaves) van 1 a 2 jaar, voodoo kaarten en zelfs geluids kaarten vervagen.

pci (express) zouden alleen maar gebruikt mogen worden voor videokaarten, raid controllers, uber-goeie-geluidskaarten, en eventueel nog wat profi zooi (ram drives) ofzo. En als je 'goed kijkt' zie je dat dat ook 'de trend' is.

Dit soort kaarten zijn gedoomed te mislukken op langere termijn, en volgens mij weet die fabrikant dat ook, eerst even kijken of flink wat winst gehaald kan worden, en later, mocht blijken dat het niet loopt (nog 1 laatste wanhopige poging dan met een gratis game en wat geruchten over een mega mega opvolger) verkopen ze die technologie gewoon (zoals al gezegt werd) aan ati of nvidia.
Ik heb er zelf een en ik moet eerlijk zeggen het is net als met Voodoo 3d dat iedereen het in het begin afkraakt en het uiteindelijk snoeihard doorbreekt.
Het verschil hier is wel dat physics niet zo doorschaalt als graphics. Wanneer een spel drie olievaten heeft staan gaan ze er in de volgende versie geen drieduizend zetten. Een hele reeds spellen heeft er zelfs helemaal geen behoefte aan, terwijl ze allemaal graphics hebben met steeds meer pixels en zwaardere shaders.

Daarbij, de grafische kaart kan probleemloos de fysische berekeningen uitvoeren zonder merkbaar prestatieverlies. En de grafische kaart is reeds alomtegenwoordig. We hebben geen nood aan nog zo'n kaart, zeker niet omdat het niks exclusief beter kan.
Men ziet niet wat de mogelijkheden van deze kaartjes zijn, het is namelijk een GESPECIALISEERDE processor een dualcore of quad kan wel mooi klinken maar deze physx kaart kan berekeningen doen die de huidige generatie processors niet kunnen doen.
Onzin. Het is een zeer algemene chip voor floating-point berekeningen. Daar zijn de CPU en GPU ook zeer geschikt voor.
Ook zal de kaart in de toekomst gebruikt kunnen worden voor grafische berekeningen als bumpmaps etc. dus het is zeker voor de mensen met een oudere pc nog een waardige upgrade.
Bullshit. Zoek even op wat DirectX 10 'geometry shaders' en 'displacement mapping' betekenen. Er is geen enkel plan om dat soort berekeningen op de PPU uit te voeren, en voor goede redenen.
ik zal achterlijk zijn, maaruh... bumpmaps ?
een physics kaart die bumpmaps berekent? een bumpmap is niet zo van 'ik stoot mijn kop -> bump', zie het als een soort "klein voxel surface op een polygon" maar dan zonder diepte. Enkel in het zicht zal hij diepte bieden.

Maargoed, on topic:
ik weet niet of iemand hier het spel 'infernal' heeft gespeeld? Ik wilde gewoon eens kijken hoe mooi die physics wel niet zouden zijn met ageai physics. Ik zie hier net het trailertje op google video:
http://video.google.com/videoplay?docid=2514432766513765461

En wat mij opvalt: er zitten geen physics in! physics is niet enkel 'ik val met een hoek van 90 graden op een ander object, dus wat doe ik', het is ook zwaarte erbij berekenen.
Je kunt als mannetje praktisch door 10000 kilo puin lopen en het zo aan de kant schuiven.
Lekker realistisch! 'i can push a truck with my face; it simply doesn't weight anything'.

Ik wacht met smart op de engine van lucas at, waar eindelijk gewicht eens een rol gaat spelen!
Ik denk dat er met de huidige hardware best een prima gooi gedaan kan worden naar realitische physics want om nou te zeggen dat het belachelijk lastige formules zijn.... Op een 50mhz machientje wordt het lastig inderdaad
Ik moet toch even reageren op jouw bumpmaps verhaal.
Ik heb al veel onzin gelezen over deze ppu kaart, maar dit slaat echt alles.
Dit ppu kaartje is op geen enkele manier in staat om grafisch iets toe te voegen aan de GPU.
De GPU heeft een graphics pipe line.
De enige die hieraan iets aan toe kan voegen is de GPU zelf.
Een andere unit kan alleen aan de voor en achterkant iets toevoegen of veranderen.
En bumpmappen is niks anders dan de normal vector die wordt gebruikt voor het shaden aan te passen aan de bumps van een oppervlak.
Dit gebeurt volledig in de graphics pipe line, en kan zeker niet door een andere unit worden overgenomen.
Het enige waar de ppu toe in staat is, is het aanpassen van de vertices van een object voordat deze de graphics pipe line in gaat.
En dat is ook precies het zwakke punt.
De vertices moet eerst door de ppu worden gelezen, en vervolgens weer worden teruggeschreven, en dit alles over de bus van het systeem.
Een gpu moet deze vertices uiteraard al lezen om ze te kunnen gebruiken, en hoeft deze alleen nog maar aan te passen voor de physics.
Daar de huidige gpu's volledig programmeerbaar zijn inclusief conditionele jumps en bestaan uit een grote hoeveelheid cores, is het niet meer dan logisch physics door deze zelfde gpu uit te laten rekenen.

De ppu is gewoon te weinig, te laat voor veel te veel geld.
leuk gratis spel, maar de hardware zullen ze aan niemand die ik ken kwijt raken en daar zitten best grote gaming nerds tussen.

hun quad core-duo is sneller dan een ageia kaartje, mischien als hij 10 euro is ofzo.
All hail de nerderige vriendengroep van Stewie. Zijn blijkbaar representatief genoeg voor iedereen.. :Y)
4x dual core? Is dat niet een beetje overdreven?
Of is het quad core?
Gewoon dual Xeon 5360 :P
Euh...sowieso lijkt me een quad core duo als game systeem een verspilling van geld... maar los daarvan weet je niet eens of deze software wel overweg kan met meerdere CPU's(of cores).
Een phisics kaart is wel degelijk nuttig, voor wetenschappelijke berekingen, maar ook in spelltjes:

-In GTA vice city Playstation, heb je rook bommen, deze heb je niet op pc, omdat het rook effect teveel cpu kracht vraagt.
Je kan met een mod deze rook effecten wel bekomen, maar dat loopt dus echt stroef.
-Ook bij da bank overval van GTA viice city heb je enorm veel rookeffecten, als de FBI komt binnen gevallen, op zo'n mommenten, krijg ik mijn mannatje niet meer inbeweging, wat natuurlijk best wel k*t is, omdat je dan snel moet weglopen.. :)


wel gaaf, als je deze kaart heb+ 2xquad + 4xSLI dan kun je tot 13 (1+8+4) Procs hebben in je pc, iets voor de DELL XPS serie :) (samen met 5HD's in raid5, en 8GB RAM)
Anoniem: 188785 @g4wx311 april 2007 15:00
hehe... niet dus
-In GTA vice city Playstation, heb je rook bommen, deze heb je niet op pc, omdat het rook effect teveel cpu kracht vraagt.
de clock van een PS2 staat op 300 MHz... dus ik denk dat je GPU bedoeld.
En als je wat verder leest, zie je dat dat bullshit is.
De rook effecten zijn daarbij nog eens gelijkaardig met de vlammen die uit je flamethrower komen. En de smokes waren niet echt bruikbaar in GTA, dus ik vermoed dat ze die er gewoon hebben uitgeflikkerd
Ook bij da bank overval van GTA viice city heb je enorm veel rookeffecten, als de FBI komt binnen gevallen, op zo'n mommenten, krijg ik mijn mannatje niet meer inbeweging, wat natuurlijk best wel k*t is, omdat je dan snel moet weglopen.
Mag ik je aanraden van naar een hardware winkel te gaan en een nieuwe PC te kopen? Je loopt wat achter qua specs, vrees ik

GTA:Vice City voor PC kan ik op men oude pc (AMD Athlon XP 2000+, Geforce 4 MX 440, 512 MiB DDR-RAM) gemakkelijk spelen, zo goed als alles op high, View distance erges 3/4, resolutie van 1024*768. FPS: ± 20 - 25 @ the bank scene

believe it or not, it's true.

daar komt dan nog eens bij dat GTA:VC de PhysX niet zal aanspreken, wegens geen programmatie om dit te doen.
Wat voor videokaart heb je dan wel niet, als je in Vice City niet eens wat rook soepel kan renderen :o
13 processoren en een stroomrekening van hoe hoog precies?

Beetje SLI/Crossfire met een dual core opstelling kan alle spellen trekken nowadays....meer dan 2 croes helpt marginaal(aangezien bij een dual core 1 core als uit zijn neus aan het vreten is) en quad SLI biedt nauwelijks meer power voor 2x zoveel geld...laten we eerlijk zijn..het verschil tussen 100 en 200 frames zie je toch niet :+

't aegia ding is gewoon veels te duur vergeleken met de gebrekkige spelindersteuning...ze hadden daar veel meer tijd en geld aan moeten besteden om zoveel mogelijk spellen voor hun ding te krijgen....
Ik snap absoluut niet het enorme aantal aan negatieve reacties over deze physics processor.

Kijk naar de lijst van ondersteunende games, deze groeit met de dag en er zitten grote ontwikkelaars achter zoals EPIC (tsja dat hoort nu eenmaal in caps ;) ) Ageia is een relatief klein bedrijf met een relatief klein kapitaal, maar heeft dus blijkbaar wel een product gemaakt, incl softwarematige rendering als het niet werkt dat grote bedrijven willen kopen, en in investeren!

De grote voordelen van een Ageia kaart t.ov. de alternatieven:

-De game is niet afhankelijk van welk (merk) videokaart erin zit (Ati's of Nvidia's alternatieven wel!)

-De kaart is sneller dan een stevige processor

-De kaart werkt op een simpel pci slot.

-De game hoeft maar 1x ontwikkeld te worden omdat de Ageia software ook werkt zonder hardware zei het minder spectaculair. (logisch)

-Ageia beid een complete API aan developers voor aller hande (versnelde) physics berekeningen, hierdoor hoeven developers dit niet zelf te bouwen, wat tijd scheelt. ook wordt de API telkens uitgebreid waardoor er meer mogelijk is, en de Ageias sneller worden.

Nadelen:

-Tis nogal duur.

-Sommige mensen hebben liever ondersteuning voor pci-e 4x ipv pci (komt er mogelijk aan).

Duss wat is nu het grote probleem, games worden niet eens incompatible met je pc als je de kaart niet hebt! Je hoeft het dus niet te kopen.

*Aldus een gelukkig pc bezitter die geen Ageia heeft*
Anoniem: 77640 @roy-t11 april 2007 15:54
De game is niet afhankelijk van welk (merk) videokaart erin zit (Ati's of Nvidia's alternatieven wel!)
Fout. Via DirectX shaders kan je alle fysische berekeningen maken zonder afhankelijk te zijn van het merk kaart. Dit is de aanpak van Havok FX, en enkele spellen zouden hun eigen physics engine zo ontwikkelen (waaronder Crysis).
De kaart is sneller dan een stevige processor
Fout. AGEIA heeft nooit GFLOPS genoemd (verdacht op zich), maar het aantal 'sphere collision tests' van 530 miljoen per seconde is perfect haalbaar met SSE.
De kaart werkt op een simpel pci slot.
Daarmee heeft het een aanzienlijke latentie op de communicatie. Door de berekeningen op de CPU of GPU te doen zijn de resultaten meteen dichter bij waar ze moeten zijn, in plaats van nog eens heen én terug over de PCI bus.
De game hoeft maar 1x ontwikkeld te worden omdat de Ageia software ook werkt zonder hardware zei het minder spectaculair. (logisch)
Dat geldt ook voor gelijk welke andere physics engine, en die zijn veel beter geoptimaliseerd voor de CPU waardoor het even spectaculair kan.
Tis nogal duur.
De understatement van het jaar. 170 € is de prijs voor een mid-end grafische kaart. Met zo'n budget kan je dus geen GPU meer kopen. Met een budget van 300 € heb je in plaats van een GeForce 8800 GTS een Geforce 7600 GS met maar een fractie van de rekenkracht.

En ja, er zijn mensen met een groter budget, maar zeker niet de gemiddelde gamer. Wanneer spelontwikkelaars echter voor PhysX kiezen worden we dus gedwongen toch de investering te maken, of een andere spelervaring te beleven. Het is dát waar we zo negatief over zijn. En dat allemaal met de kennis dat het ook kan met de CPU of GPU, mits deftige optimalisatie.
Anoniem: 201981 11 april 2007 14:38
aardig een dag voor me verjaardag ;)
Anoniem: 77640 11 april 2007 14:48
En wie schreef de code om het op de CPU te laten draaien? Inderdaad, AGEIA zelf. Door daar dus geen moeite te doen om te optimaliseren, en zelfs effecten achterwege te laten, kunnen ze hun hardware in een beter daglicht zetten.

Logisch vanuit marketingstandpunt natuurlijk, ze willen hun product verkopen. Maar dat zegt helemaal niks over de waarde voor échte spellen.

Ik blijf erbij, deze berekeningen kunnen mits gepaste optmalisaties even goed op een multi-core CPU draaien, en al helemaal zonder moeite op de GPU. Als je moet kiezen tussen een krachtige GPU, of een zwakkere GPU + PPU voor hetzelfde geld, dan ben je veel beter af met de krachtige GPU. De prestaties / euro zijn gewoon hoger.
en al helemaal zonder moeite op de GPU
Hier heb je wel gelijk. De gpu kan deze berekeningen net zo goed, maar indien je dit op je gpu laat berekenen blijft er minder capaciteit over voor dat wat de gpu echt moet doen en dat is renderen. Deze kaart is dan dus ook om je cpu/gpu te ontlasten door deze berekeningen voor hen te doen. En ik ben het ook met je eens dat het nog te duur is, maar dat heb je altijd met producten die nog niet zo lang op de markt zijn. Zodra het wat beter wordt ondersteund zakken de prijzen vanzelf.
De gpu kan deze berekeningen net zo goed, maar indien je dit op je gpu laat berekenen blijft er minder capaciteit over voor dat wat de gpu echt moet doen en dat is renderen. Deze kaart is dan dus ook om je cpu/gpu te ontlasten door deze berekeningen voor hen te doen.
Het punt is dat de prijs/prestatie verhouding van een GPU hoger is. Je koopt beter een krachtige GPU dan een zwakke GPU en een PPU. Kan samen met de CPU alle physics aan die je maar wenst, en levert ook nog betere graphics op wanneer er niet of minder physics moet berekend worden.
en jij vraagt om betrouwbare, onafhankelijke benchmarks?

wil je dan, indien je zo graag stellingen onderbouwd wilt zien, deze stelling van jezelf onderbouwen?

Hoe kom jij tot de conclusie dat een hedendaagse CPU, inclusief een (krachtige)GPU alle physics aankunnen die je wenst, én betere graphics levert?

de laatste paar woorden van die zin "wanneer er niet of minder physics moet berekend worden" zal je wel zo niet bedoelen, maar volgens mij zeg je daarmee iets als:

een spel draait sneller, indien de hardware beter is, en de eisen van de game minder zijn.

^^daar ben ik het mee eens.

maar goed, de prijs/prestatie verhouding is dus beter. ook dat wil ik wel eens onderbouwd zien, ook hiervan ben ik benieuwd naar onafhankelijke benchmarks :D
Hoe kom jij tot de conclusie dat een hedendaagse CPU, inclusief een (krachtige)GPU alle physics aankunnen die je wenst, én betere graphics levert?
Volgens AGEIA kan de PPU 530 miljoen sphere collision tests. Kijken of twee bollen botsen dus, en dat doe je door de afstand tussen de middelpunten te vergelijken met de som van de stralen. Dit kost elf optellingen en vermenigvuldigingen samen, en dan ga ik ervan uit dat de stralen niet constant zijn en dus niet op voorhand opgeteld en gekwadrateerd zijn. Een Core 2 Duo doet per klokcyclus twee vectorbewerkingen (vier elementen). Aan 2.4 GHz is dat dus 19.2 miljard bewerkingen. Gedeeld door 11 voor de sphere collision test, 1.75 miljard per seconde. Over drie maal dat van de PPU dus.

Als zelfs een CPU de PPU theoretisch verslaat is het niet moeilijk te zien dat de GPU het nog beter kan. NVIDIA's Cascades en Box of Smoke demos tonen dan ook miljoenen interagerende deeltjes (respectievelijk water en rook). En dat volledig interactief; in Cascades bepaal je zelf de rotsvorm en waar het water ontspringt, in Box of Smoke laat je de rook wervelen volgens de fysisch correcte Navier-Stokes vergelijkingen.
maar goed, de prijs/prestatie verhouding is dus beter. ook dat wil ik wel eens onderbouwd zien, ook hiervan ben ik benieuwd naar onafhankelijke benchmarks
Ik hoop dat dit genoeg onderbouwd is nu. Echte onafhankelijke benchmarks daar gaan we beide nog een tijdje op moeten wachten, maar ik denk dat het duidelijk is dat AGEIA nog veel te bewijzen heeft...
NovodeX schreef die software, zie ook mijn eerdere reactie.
Beetje jammer. Ben je niet goed geinformeerd, of zit je doelbewust Ageia zwart te maken?
NovodeX schreef die software, zie ook mijn eerdere reactie.
En zoals ik al eerder zei kon NovodeX mij niet verassen qua optimalisaties. Het gebruikt geen SSE in de kritieke code, en veel van de prestaties gaan verloren door het aanroepen van kleine ongeoptimaliseerde functies (zo gebeurt vectornormalisatie door fsqrt uit de C runtime aan te roepen - zelfs Quake 1 had snelle vierkantwortels).
Beetje jammer. Ben je niet goed geinformeerd, of zit je doelbewust Ageia zwart te maken?
Ben volledig geïnformeerd. Ik zie indrukwekkende dingen op CPUs en GPUs draaien, en dan toont AGEIA dat de dingen aan een slakkengangetje draaien in software. Doe ik niet raar van, aangezien hun nood om hardware te verkopen. Denk je echt dat ze tijd en geld geïnvesteerd hebben om het uiterste te halen uit de NovodeX software? Ik hoef hen niet zwart te maken, dat doen ze op termijn zelf wel wanneer er eerlijke benchmarks verschijnen.

Mijn doel is juist om de mensen te informeren, zodat ze geen onnodige investering maken. Geen spelontwikkelaar met verstand zal z'n spel enkel met een AGEIA kaart vlot laten draaien of enkel dan de volle beleving geven. Zeker niet wanneer dezelfde effecten mogelijk zijn met de CPU en/of GPU.

En zelfs al kost hun volgende generatie 100 €, dit is veel te veel om door te breken bij de gemiddelde gamer. Je zal Crysis kunnen spelen met een 200 € grafische kaart (of minder), maar doe daar 100 € vanaf voor een PPU (momenteel zijn ze nog 170 €), en je houdt niks meer over.

Een afzonderlijke kaart zal dus nooit populair worden. Hun enige kans is het te integreren om zo de prijs drastisch te verlagen en het in elke huiskamer te krijgen. Ik kan je echter garanderen dat noch NVIDIA noch AMD interesse hebben, die zetten liever meer shader cores (die nog steeds flexibeler worden) op hun GPU dan transistors te verspillen aan een PPU.

Het enige goede dat ik uit AGEIA zie komen is dat er meer aandacht gegeven wordt aan de spelervaring. De toekomst van hun hardware, daar vrees ik echter het ergste voor. Indien je niet akkoord gaat had ik graag wel eens een realistisch scenario gehoord, waarbij binnen enkele jaren CPUs ettelijke cores hebben en GPUs nog meer flexibiliteit bieden...
Ben volledig geïnformeerd. Ik zie indrukwekkende dingen op CPUs en GPUs draaien, en dan toont AGEIA dat de dingen aan een slakkengangetje draaien in software.
Je komt anders bijzonder ongeinformeerd over. Zo wist je kennelijk niet dat Ageia niet zelf hun software-implementatie schreef.
En als je dat dan verteld wordt, ga je ineens beweren dat jouw 'professionele analyse' van de code negatief is? Erg doorzichtig. Je zoekt wel hard he?
Je uitlatingen over de hardware zelf doen me ook vermoeden dat je niet begrijpt dat het juist de *communicatie* is die de PPU krachtig maakt, en waarmee hij zich onderscheidt van een CPU of GPU.

Ik vind je heel overdreven negatief, en het is heel doorzichtig en ongeloofwaardig.
En zelfs al kost hun volgende generatie 100 €, dit is veel te veel om door te breken bij de gemiddelde gamer. Je zal Crysis kunnen spelen met een 200 € grafische kaart (of minder), maar doe daar 100 € vanaf voor een PPU (momenteel zijn ze nog 170 €), en je houdt niks meer over.
Als het gamers zijn, zouden ze makkelijk die 100e kunnen besparen op hun processor. Als die ontlast wordt van physics, hoeft ie meteen een stuk minder snel te zijn.
Ik kan je echter garanderen dat noch NVIDIA noch AMD interesse hebben, die zetten liever meer shader cores (die nog steeds flexibeler worden) op hun GPU dan transistors te verspillen aan een PPU.
Zegt dat wat dan?
Toen de eerste 3d-kaarten kwamen, zag ik ook de CPU-fabrikanten niet hals-over-kop 3d-kaarten ontwikkelen.
Alleen Intel heeft het geprobeerd, maar heeft het niet doorgezet bij gebrek aan succes.
Ik zie ook nu niet in waarom GPU-fabrikanten per se de overstap naar PPU zouden moeten maken. Ze kunnen makkelijk naast elkaar bestaan.
Indien je niet akkoord gaat had ik graag wel eens een realistisch scenario gehoord, waarbij binnen enkele jaren CPUs ettelijke cores hebben en GPUs nog meer flexibiliteit bieden...
Da's altijd koffiedik kijken he.
Ik heb jaren geleden ook vaak genoeg gehoord van "Ja, die 3d-kaarten zijn wel leuk, maar straks komen er weer veel snellere CPUs, en worden ze weer overbodig".
De praktijk leerde ons dat GPUs zich veel sneller en specifieker ontwikkelden dan CPUs.
Ik zie CPUs eerlijk gezegd helemaal nergens heen gaan de komende jaren.
Vergeleken met GPUs de laatste 5 jaar, staat de CPU-wereld gewoon stil.
Meer cores ertegenaan gooien is ook geen oplossing. Hoe meer cores, hoe meer problemen je gaat krijgen met geheugentoegang en onderlinge communicatie, en hoe minder efficient het allemaal wordt...
GPUs lijken me ook veel te 'star', en ik denk dat dat zo blijft, om de efficientie te waarborgen. Hoe generieker een GPU wordt, hoe meer ie op een CPU gaat lijken, en dus ook tegen dezelfde logistieke problemen op gaat lopen.

Het is nog te vroeg om iets te zeggen over de toekomst van de PPU, maar als het aanslaat, sluit ik niet uit dat het zich ook sneller ontwikkelt dan CPU en GPU, en niet meer in te halen valt.
Je komt anders bijzonder ongeinformeerd over. Zo wist je kennelijk niet dat Ageia niet zelf hun software-implementatie schreef.
Ik wist dat ze NovodeX overgekocht hebben. Wat ze er verder mee gedaan hebben is onbekend maar van NovodeX ben ik niet volledig onder de indruk. Hun demos waren leuk voor die tijd maar door hun traagste demo te profileren kwam snel aan het licht dat dit aan de optimalisaties lag (het gebrek eraan).
Je zoekt wel hard he?
Die analyse heb ik al een jaar eerder uitegevoerd. Ik hoef geen argumenten voor NovodeX aan te brengen voor het vernoemd wordt he. Ik zit in de game-industrie en het is deel van mijn job om technologieën te vergelijken. Ik laat me niet beïnvloeden door marketingpraat.
Je uitlatingen over de hardware zelf doen me ook vermoeden dat je niet begrijpt dat het juist de *communicatie* is die de PPU krachtig maakt, en waarmee hij zich onderscheidt van een CPU of GPU.
Weet jij meer dan wat er in het patent staat dan? Want daaruit volgt duidelijk dat de communicatie tussen cores een hoge latentie heeft. De totale interne bandbreedte van 2 Tb/s klinkt indrukwekkend maar is dan ook nodig om de latentie niet nog veel erger te maken. Een Core 2 Duo @ 2.4 GHz hoeft zich niet te schamen met 1.2 Tb/s, maar blinkt vooral uit in latentie en de mogelijkheid deze te verbergen. En de bandbreedtes waar een GPU intern mee werkt zijn helemaal halucinant. Dus waar zit dan dat overweldigende voordeel van de PPU in z'n communicatie? Oh ja, bijna vergeten, de 'round-trip' naar de PhysX kaart en terug is ook niet echt een uitblinker voor goede communicatie.
Ik zie ook nu niet in waarom GPU-fabrikanten per se de overstap naar PPU zouden moeten maken. Ze kunnen makkelijk naast elkaar bestaan.
Ik zie dan toch een serieuze inspanning van NVIDIA en ATI om die markt voor zich te winnen, en geen haarbreedte over te laten voor AGEIA. En dan komt er nog concurrentie van de CPU bovenop.
Da's altijd koffiedik kijken he.
Ik vroeg je enkel een mogelijk scenario, niet om de toekomst te voorspellen. Maar als dat al moeilijk is zie ik niet hoe AGEIA nog een lang leven beschoren is.
Ik heb jaren geleden ook vaak genoeg gehoord van "Ja, die 3d-kaarten zijn wel leuk, maar straks komen er weer veel snellere CPUs, en worden ze weer overbodig".
De praktijk leerde ons dat GPUs zich veel sneller en specifieker ontwikkelden dan CPUs.
En zoals ik al een paar keer verduidelijkte is het succes van de GPU vooral te danken aan specifieke elementen zoals texture samplers, rasterizers, ROPs, etc. De PPU heeft zo geen elementen specifiek voor physics, enkel SIMD units die je ook terugvindt op de CPU en GPU. En enig communicatievoordeel kunnen we nu ook al van de tafel vegen. Je kan dan ook helemaal niet het succes van de GPU linken aan enig succes voor de PPU (echter wel voor het omgekeerde).
Meer cores ertegenaan gooien is ook geen oplossing. Hoe meer cores, hoe meer problemen je gaat krijgen met geheugentoegang en onderlinge communicatie, en hoe minder efficient het allemaal wordt...
Raar, eerder vondt je het hogere aantal cores van een PPU ten opzichte van een CPU een voordeel...
GPUs lijken me ook veel te 'star', en ik denk dat dat zo blijft, om de efficientie te waarborgen. Hoe generieker een GPU wordt, hoe meer ie op een CPU gaat lijken, en dus ook tegen dezelfde logistieke problemen op gaat lopen.
En toch zien we dat een G80 een heel pak flexibeler is dan een G70, en per transistor niet aan prestatie hoeft in te boeten.

Het is niet omdat een x86 CPU met zeer hoge flexibiliteit een relatief lage prestatie heeft, dat dit allemaal de schuld is van die flexibiliteit. x86 is om historische redenen en de compatibiliteit nog steeds succesvol, maar daarom verre van optimaal. Een GPU is niet belemmerd door compatibiliteit (toch niet op architectuurniveau) en hoeft dus niet veel aan prestaties in te boeten om extra flexibiliteit te voorzien (steeds weer bewezen bij elke generatie). Ook hoeven ze lang niet zo ver te gaan in die flexibiliteit als een x86 CPU.
Het is nog te vroeg om iets te zeggen over de toekomst van de PPU...
Hoor ik daar een lichte twijfeling?
...maar als het aanslaat, sluit ik niet uit dat het zich ook sneller ontwikkelt dan CPU en GPU, en niet meer in te halen valt.
Eerst moet het aanslaan, dan moet het een voorsprong kunnen uitbouwen. Aanslaan is al een probleem op zich. Het kost veel, wat men ook zegt, en biedt enkel in zeer specifieke spellen (gebruik van PhysX, intensieve phsyics), een mogelijk voordeel. Met de populariteit van laptops zou men ook daar vaste voet aan de grond moeten krijgen en het voordeel kunnen bewijzen. Mogelijks nog veel lastiger is een voorsprong uitbouwen, omdat hun chips niks hebben dat hen beduidend beter maakt in physics dan de CPU en/of GPU. En meer parallele CPUs en flexibelere GPUs komen er met iedere generatie. AGEIA moet al echt iets bijzonders hebben om daar stand tegen te houden. Als je hun 'secret sauce' kent, laat het me weten!
Ik zit in de game-industrie en het is deel van mijn job om technologieën te vergelijken.
Dus dat verklaart het dan.
Jouw werkgever heeft er voor gekozen om geen PhysX te ondersteunen, en nu stellen jullie alles in het werk om te zorgen dat niet PhysX, maar de alternatieve oplossing de standaard wordt.
Weet jij meer dan wat er in het patent staat dan? Want daaruit volgt duidelijk dat de communicatie tussen cores een hoge latentie heeft.
Ik weet kennelijk wel meer van CPU-ontwerp dan jij.
In veel gevallen is de latency makkelijk te verbergen doordat je harde limieten kunt stellen aan de berekeningen die eraan voorafgaan. Operand forwarding en pipelining enzo.
Zo kan een unit van de PPU een overdracht al initieren voordat het resultaat daadwerkelijk bekend is, en de latency maskeren.
Jouw geliefde GPUs doen veelal hetzelfde bij geheugentoegang. GPUs zijn vooral heel voorspelbaar, en daar winnen ze het meeste terrein ten opzichte van een CPU (een normale x86 dan, bepaalde RISC/specialistische CPUs kunnen ook makkelijker dergelijke optimalisaties toestaan omdat ze minder stricte regels qua caching en registerfiles hebben dan de x86, die aan legacy gebonden is).
Oh ja, bijna vergeten, de 'round-trip' naar de PhysX kaart en terug is ook niet echt een uitblinker voor goede communicatie.
De PPU kan direct via DMA een pool van shared memory aanspreken, waardoor het niet trager is dan wanneer de CPU het zou doen (PCI-bandbreedte is geen probleem, physics-data is erg compact).
Ik zie dan toch een serieuze inspanning van NVIDIA en ATI om die markt voor zich te winnen, en geen haarbreedte over te laten voor AGEIA. En dan komt er nog concurrentie van de CPU bovenop.
Waar dan? Havok FX? De naam 'FX' geeft al aan dat het voor effecten is, en niet bedoeld is om alle physics van een compleet spel te draaien. Er blijft nog genoeg over voor een CPU danwel PPU om te doen. Gaat alleen maar meer worden met titels als Crysis, of de nieuwe Unreal engine.
Ik vroeg je enkel een mogelijk scenario, niet om de toekomst te voorspellen. Maar als dat al moeilijk is zie ik niet hoe AGEIA nog een lang leven beschoren is.
Wat een flauwekul. Ik gaf slechts aan dat jouw aanname al koffiedik kijken was, dus zie ik niet in waarom ik een scenario onder jouw aannamen moet gaan construeren.
Dat is hetzelfde als dat ik zeg dat PPUs over een paar jaar 100 keer zo snel zijn, en 10 keer zo goedkoop, dus geef maar een scenario waarin CPU+GPU toch beter is.
Ik trap gewoon niet in je flauwe aanname, maar blijkbaar heb je dat niet door.
En enig communicatievoordeel kunnen we nu ook al van de tafel vegen.
Dat kunnen we niet, dat moet de praktijk nog maar uitwijzen. Er gaat een generatie games met PhysX-support komen, en die maakt uit of er nog een volgende generatie gaat komen of niet.
Je kan dan ook helemaal niet het succes van de GPU linken aan enig succes voor de PPU (echter wel voor het omgekeerde).
Natuurlijk wel. De eerste GPUs hadden al die dingen die je opnoemde niet, of lang niet zo ontwikkeld als in dit stadium. Deze zijn dus in de loop der jaren ontwikkeld en toegevoegd, evenals de PPU ook verder ontwikkeld kan worden en meer specifieke elementen gaat krijgen, zoals de al geopperde pipeline-geoptimaliseerde logica voor bepaalde veel voorkomenden fysische berekeningen.
Raar, eerder vondt je het hogere aantal cores van een PPU ten opzichte van een CPU een voordeel...
Ja, de architectuur van de PPU is immers compleet anders. Cores van een CPU zijn groot, traag, lomp etc.
De cores van een PPU zijn totaal niet te vergelijken met de cores van een x86-compatible CPU.
Het is niet omdat een x86 CPU met zeer hoge flexibiliteit een relatief lage prestatie heeft, dat dit allemaal de schuld is van die flexibiliteit.
Dat zeg ik niet, maar het lijkt me duidelijk dat de starre pipeline van de GPU de reden is waarom alles zo gigantisch snel en gepipelined kan worden.
Je ziet het al met conditional branches in shaders. Dan zakken de prestaties ineens gigantisch in.
Hoor ik daar een lichte twijfeling?
Misschien dat jij erg naief bent, maar ik loop lang genoeg in dit wereldje mee om te weten dat een goed product of technologie niet garant staat voor succes.
Dat komt vooral ook door mensen zoals jij. Mensen die niet open staan voor nieuwe technologie, en die niet de moeite nemen om het goed inhoudelijk te bestuderen alvorens ze er hun mening over vormen.
Eerst moet het aanslaan, dan moet het een voorsprong kunnen uitbouwen. Aanslaan is al een probleem op zich. Het kost veel, wat men ook zegt, en biedt enkel in zeer specifieke spellen (gebruik van PhysX, intensieve phsyics), een mogelijk voordeel.
De pas uitgekomen programmeeromgeving is anders al een extra voordeel.
Mogelijks nog veel lastiger is een voorsprong uitbouwen, omdat hun chips niks hebben dat hen beduidend beter maakt in physics dan de CPU en/of GPU.
Wederom die achterwaartse logica... CPUs en GPUs zijn ook niet geboren met alle features die ze nu hebben. Dat heeft ze kennelijk niet weerhouden om zich uit te bouwen.
Als je hun 'secret sauce' kent, laat het me weten!
Die is toch al een aantal keren genoemd. Maar, laat maar zitten. Gezien jouw achterwaarse logica...

Op dit item kan niet meer gereageerd worden.