Nvidia tekent Physx-deal met EA en 2K

Electronic Arts en 2K Games hebben een licentie genomen op de Physx-technologie van Nvidia. Nu deze gamestudios het ontwikkelplatform gaan gebruiken, zal het aantal spellen met Physx-ondersteuning flink toenemen, zo is de verwachting.

Physx logoSpellen die Physx ondersteunen, gebruiken de gpu van Nvidia om natuurkundige berekeningen te versnellen. Het Physx-platform bestaat uit een engine, een api en een sdk. De software is oorspronkelijk ontwikkeld door Ageia, maar begin dit jaar nam Nvidia dit bedrijf over en nadien heeft de fabrikant de Physx-api geïntegreerd in zijn gpgpu-systeem Cuda. Daarmee kwam de technologie binnen bereik van alle bezitters van een Geforce 8- of 9-kaart, zodat het aantal potentiële gebruikers enorm toenam. Het aantal spellen met Physx-ondersteuning was nog wel een probleem, maar ook dat lijkt Nvidia nu uit de weg te hebben geruimd.

"We zijn erg onder de indruk van de kwaliteit van de Physx-engine en we hebben een licentie genomen zodat onze studio's deze in een vroegtijdig stadium van de ontwikkeling kunnen gebruiken", vertelt Jacob Hawley, hoofd technologie bij 2K Games. Dit bedrijf maakte bekend dat diverse nog te verschijnen titels, waaronder Borderlands, de technologie zullen ondersteunen. Electronic Arts noemde nog geen namen van spellen waar Physx in verwerkt zal worden.

Door Olaf van Miltenburg

Nieuwscoördinator

09-12-2008 • 10:22

71

Reacties (71)

71
70
18
13
1
13
Wijzig sortering
Deze deal zegt op zich niet erg veel... PhysX als physics-platform bestaat al een tijd en ondersteunt alle platformen. Ook de Playstation, X-Box, Wii, GameCube (en alle andere consoles) hebben ooit wel eens games gedraait die de PhysX engine (of toendertijd Novodex engine) ondersteunden.

EA en 2K Games maken nu bekend dat ze een deal hebben gesloten met NV om gebruik te maken van de PhysX library, maar dat wil niet automatisch zeggen dat er gebruik gaat worden van de GPU voor physics-acceleratie. De meeste consoles hebben immers geen GF8/9/GTX200 achtige GPU aan boord. Je kan er van uit gaan dat de meeste games van die developers de softwarematige versie van PhysX aan boord zullen hebben, zoals dat nu ook het geval is bij de nummer 1 physics-engine Havok, wat nu in handen is van Intel. Hiermee zorg je er voor dat je enorm veel platformen bereikt.

Om PhysX ook op de GPU werkzaam te krijgen zal voor NV iets meer moeite zijn. Waarschijnlijk zullen ze engineers on-site moeten sturen, net zoals ze dat al doen bij de grote AAA titels binnen het TWIMTBP programma.

Ik verwacht zelf echter niet dat het aantal titels die GPU PhysX zal gebruiken enorm zal toenemen. Ten eerste hebben ze een enorme concurrent aan de huidige nummer 1 in physics land Havok. Ten tweede is Havok sinds dit jaar onderdeel van Intel (volgens eigen bewoordingen zijn ze nog vrij autonoom maar worden ze 'gesponsord'). En ten derde is er nog Microsoft die graag een algemene physics API wil hebben in een vorm van een eventuele DirectPhysics (en met de komst van de Compute Shader in DX11 nemen ze al een eerste stap in die richting). NV zal dus enorm veel geld in GPU PhysX moeten pompen om er een succes van te maken.

Zie ook een van de persreleases waarin duidelijk wordt gemeld dat PhysX dus niet per se GPU PhysX inhoudt, maar ook de softwarematige versie behelst:
PhysX technology works across all major gaming platforms, including Nintendo Wii, Playstation 3, Xbox 360, and the PC, and can be accelerated by both the CPU and any CUDA general purpose parallel computing processor, including NVIDIA GeForce GPUs.
Als er dus titels worden aangekondigd met de PhysX engine wil dit niet automatisch zeggen dat er ook GPU PhysX in zit. De laatste zin geeft trouwens aan dat ook Radeons PhysX zouden kunnen ondersteunen, mits AMD de stap maakt om ook CUDA te ondersteunen. Maar aangezien zowel AMD als NV afgelopen week hun support voor OpenCL hebben uitgesproken, lijkt de kans dat dit gebeurt erg klein

Ik zou er echter niet vreemd van opkijken als Intel nog in de tegenaanval gaat met hun Havok engine. Deze engine wordt gebruikt in films (Harry Potter, X-Men: Last Stand, 10000 BC, Narnia etc) en in grote AAA gametitels. Enkele grote titels met Havok ondersteuning zijn bijvoorbeeld: Diablo 3, Fallout 3, Fable 2, Starcraft 2, Alan Wake. Intel is een taaie met enorm veel geld... dat weten we nu allemaal... en die kan erg veel kracht zetten achter hun producten. Nu AMD heeft aangegeven dat ze samen werken met Havok om Havok Physics op de Radeon GPU te laten werken, krijg je dus weer een tweedeling in kampen. Intel/AMD: Havok vs NV: PhysX. Waarschijnlijk is een derde (Microsoft: DirectPhysics) dan nodig om alles weer op 1 lijn te krijgen.
En hoe zit het dan met de 'pechvogel' die helaas geen Physx heeft?
Als spellen al in een vroegtijdig stadium gebouwd gaan worden met Physx, kan dat dan beteken dat het spel zonder een computer met Physx gewoon niet kan draaien?
Dat zal waarschijnlijk uiteindelijk hetzelfde zijn als hoe het ca. 10 jaar geleden ging met mensen die geen Monster3D kaart hadden. Als een techniek goed is zal het uiteindelijk in een bepaalde vorm als standaard aangenomen worden (zoals 3dfx in een aantal opzichten uiteindelijk voorbijgestreefd is door nvidia / ati).
PhysX heeft meedere backends die de berekeningen afhandelen, afhankelijk van wat je systeem heeft. Zo zijn er op z'n minst de volgende backends:
- "software" (via standaard CPU instructies van Intel/AMD/Xenon)
- PhysX PPU
- CUDA
- PS3 SPE
Nou door CPU heb je ook physX. Maar dat bedoel je niet.
PhysX gpgpu computing acceleratie door nV DX10 hardware.
Wat neer komt wat als de Pechvogel ATI DX10.1 ipv nV DX10 erin heeft zitten.
Omdat ATI grof de andere helft van de markt is.
Zullen de meeste dev's die mainstream als target nemen als default de CPU nemen als common target. GPU PhysX zalm optioneel zijn.

Wat dit in houd is dat Gameplay PhysX beperkt zal zijn aan CPU default.
En met PhysX je vooral een aanzienlijke sloot aan effect Physics krijgt.

Tenzij een dev de moete neemd om twee gameplay settings te implementeren voor CPU en GPU rekenkracht.

Dus meestal zul je wat fancy physics hevy eye candy moeten missen.

Op wat hoogst uitzonderlijk tech demo aanvoelende games die nV PhysX eisen..
Je hebt al softwarematige physx die op de cpu draait.

Vergelijkbaar met de 387 emulatie software lang geleden.

(edit) Ik zie 't zo niet, maar die werd gebundeld bij in ieder geval de demo van Joint Task Force(/edit)

[Reactie gewijzigd door Toontje_78 op 26 juli 2024 01:45]

Ik ben vooral benieuwd hoe AMD/ATI dit gaat oplossen. Lijkt mij dat Nvidia z'n licenties duur verkoopt aan z'n grootste concurrent.
simple. ATI gaat opnieuwe voor een open Systeem dat ontwikkelaars geen geld kost.
eerst maken ze in samenwerking met andere bedrijven OpenCL af. dat is de tegenhanger voor cuba, maar dan open en vooral gratis.
en daarna is het gewoon een questie van drivers/wrappers schrijven voor physics ondersteuning op welke engine je maar wilt hebben (havoc of physx of iets anders).

nvidia heeft al gezegt openCL ook te gaan ondersteunen (alles om gpgpu te stimuleren) en dan is het voor ontwikkelaars een vrij simpele keuze. of physx die alleen werkt op nvidia of een physics variant op basis van openCL.

de enige vraag is hoe lang openCL nog op zich laat wachten.

edit lees net hier dat de 1.0 specs gisteren (8 december) vrijgegeven zijn.
http://www.khronos.org/ne...opencl_1.0_specification/

de lijst met ondersteunende bedrijven is zeker aardig lang met wat grote namen, inclusief apple, ibm, AMD, en zelfs nvidia en intel.

nu is het alleen nog wachten op de drivers met ondersteuning hiervoor, en daarna de programma's.

[Reactie gewijzigd door Countess op 26 juli 2024 01:45]

Dat is mooi dat nV PhysX niet voor hun karretje alleen spand.
Misschien denken ze op lange termijn en zien de larrabee drijging in.
Dus ze moeten in korte tijd hun classieke aanpak van GPGPU flink promoten.
en dat doe je sterk met middleware dat de gehele markt bediend. ATI en nV GPU.

4870x2 wordt opeens heel aantrekkelijk. Maar dit is afwachten dus.
Het lijkt mij dat er gebruik gemaakt word van shaders, en een paar maand terug was er al een artikel waarin duidelijk was, dat het ook werkt op AMDGPU's.

Het kan natuurlijk altijd zo zijn dat er in de applicatie een check zit of er een nvidea kaart in zit, en dat anders dat code pad uitgeschakeld word.

maar technisch werkt het gewoon op elke dx10(.1) GPU
CUDA werkt inderdaad met de shader cores (wat iets anders is dan de software die daar op draait, de shaders), maar daar zit nog wel de CUDA development environment met bijbehorende compiler boven om die shader cores aan het werk te zetten. Wat nvidia gedaan heeft is de PhysX instructies wrappen naar hun CUDA environment zodat de shader cores op elke Geforce8 of hoger deze uit kunnen voeren.

Dat naast nvidia ook de ATI shader cores (i.e. op Radeon kaarten) hiervoor gebruikt kunnen worden is al bewezen, het gaat dan ook meer om de kwestie of AMD/ATI met een legale wrapper gaat kunnen komen om PhysX instructies op hun kaarten uit te kunnen voeren.

[Reactie gewijzigd door d3vlin op 26 juli 2024 01:45]

Mij lijkt dat nV unified 4.0 shaders marginaal afwijken van die van ATI 4.0 set maar ATI ondersteund ook 4.1.

Cuda is puur gericht op de nV SM4.0 shader spect.
Omdat ATI er veel op lijkt maar toch niet het zelfde is. Werkt Cuda niet.
Cuda compiler zou dan een tweede binary path voor aTI hebben.

Talen die universeler zijn zoals HSML lossen dit op.

Als nV standaarden volgde zoals HSML of OPENCL ipv hun eigen ding Cuda. Want wat ze daarmee doen kan ook met HSML en OpenCL.
Maar dan heb je wel een standaard API,

Maar zie PhysX Kaw GPU en PPU zoiets als glide. Ze willen het ook gebruiken om de markt naar zich toe te trekken.
Terwijl veel dev toch eerder een afwachtende houding hebben omdat hun een standaard missen en de markt verdeeld is. En heirmee in hun game design rekening moeten houden betreffende beperkingen van een deel van de markt.
En wat heeft DX hiermee te maken? Ik heb nergens 'microsoft' in het hele verhaal gelezen en voor zover ik weet bestaat er ook niet een "DirectPhysics" of zoiets. Dat hele DX is teveel een buzzword geworden waarmee gegooit wordt door mensen die niet zo goed weten wat het eigenlijk is, op momenten dat het over videokaarten gaat. Zo belangrijk is DX ook weer niet hoor. Ik kan prima gamen op Linux of OS X zonder dat daar ook maar 1 regel DX code op staat.
Dat is omdat men uitkijkt naar een standaard en DX11 zou daar weleens de aanzet voor zijn maar ook openCL.
De gamer de devs zijn niet gebaad met een hardware markt player die dmv hostile take over API naar zich toetrekt om de competitie en dus concurentie lam te leggen.
Dat is wat iNtel met Hvaok assimilatie heefd gedaan. En nV daar toe dreef om Ageia te assimileren.

Anders hadde we nu HavokFX games die 'n deel van de 2.4 Terraflops van 'n 4870x2 aan steurden met Physics.

DX11 krijgt compute shaders. Dat is puur voor de GPGPU native support en lijkt ook meer in de richting van larrabee. Full general purpose.
Dat is dus ideaal te gebruiken voor AI en Physics.
'n soort Extended HSML OpenCL is daar de tegenhanger van.
Maar dit zijn API geen full featured SDK middle ware. Wat veel low level werk voor dev's uit handen neemd.
Dacht ooit ergens te hebben gelezen dat Nvidia Amd/Ati had aangeboden te helpen met Cuda(dus ook physx) support onder Ati kaarten.
Nou dat heb ik ook gelezen. Iemand was bezig physX op ATI GPU te laten draaien. Hack op lossing.
nV moedigde dat zelfs aan en bood support.
Maar ATI onderdeel van AMD doet ook in CPU's.
Hebben voor iNtel Havok gekozen. ATI support PhysX dus niet.

Dit geeft aan dat nV toch meent ATI nodig te hebben voor front tegen CPU iNtel. Maar ATI is onder AMD en dat is ook CPU.
iNtel wordt later ook mogelijk een retail GPU speler op de markt.

De hele Physics accelerate markt is overhoop gehaalde troep. Jammer het schiet niet op. En ik zie nog geen standaard in de near future. Dat moet toch de middleware oppakken in die is nu hardware gebonden. Door SDK ownership.
Duur verkopen is nog daar aan toe. Maar wat nu wanneer blijkt dat de Cuda code veel sneller draait op de Ati kaarten dan kon deze zet wel eens desastreuze gevolgen hebben voor Nvidia zelf. Ik heb ergens getweakte Ati kaarten getest gezien met de PhysX demos die uber beter presteerden op de Ati's dan op de Nvidia's. Ga de link nu opzoeken.
Op zich niet zo vreemd. De midrange 4850 heeft iets meer Flops dan de high-end van nV. En dan model hoger 4870 en die ook nog in dual.
Anoniem: 282942 9 december 2008 10:38
Het belangrijkste voor nvidia is dat hun physx-api meer en meer de industrie standaard aan het worden is. En wanneer het zover is kunnen ze de software zo ontwikkelen dat die net dat ietsje sneller draait op nvidia hardware.

Daarom brengt AMD ook geen PhysX drivers uit voor hun kaarten. Want als ze dat eenmaal doen is er geen enkele reden meer dat developers niet de physX engine zouden gebruiken.
Maar zover ik het las op ons lieve forum was de PhysX engine een stuk brakker / slechter ondersteund dan de Havok engine. Ook zijn er al veel meer games die van Havok gebruik maken.

Dit komt meer op mij over als een "ow shit, dan maar de grootste partij met een som geld binnen trekken". Want er is echt geld bij gemoeid, zo werkt de wereld gewoon altijd. Dat leert ervaring keer op keer op keer ... op keer.
Havok is een belangrijke speler in de markt. De nr 1. Kwa developers die daarvan gebruik maken. Maar physX is geen kleinetje. Het is goed vertegenwoordig in die markt.
Dat maar +/- 20 games van PPU gebruik maken zegt niks over het aantal games dat gewoon maar physX CPU gebruiken en de vele console games die ook physX gebruiken.

Helaas is er naast die twee niks anders dat op zo'n schaal vertegenwoordigd is in de markt. Havok zal hier door dev's verliezen.
Zelfs onder ageia hebben ze wat aan klanten verloren.en dit zet door.
Graw was Havok CPU en PhysX PPU
Graw 2 was PhysX CPU en PPU.
TWIMTBP zl PhysX als SDK ook promoten.

Dit houd in dat EA en 2K havok gaan droppen en migreren naar PhysX. Of steeds minder havok en meer physX games gaan produceren.
Nr2 van de markt kan nr 1 van de troon stoten.
PhysX is niet nieuw van de grond maar ook een oudgediende novodex. En nu ook 'n volwassen SDK.
Ook een leuke optie daagt op: IGP van nvidia voor physx, ati kaart voor de plaatjes.
In Vista gaat dat niet werken. Je kan daar maar een set drivers hebben voor je videokaarten. Daar hoort je IGP ook onder.

Mijn zorg is vooral dat physx expres brak word gemaakt voor de processor. Dan kan nvidia lekker roepen: Zie je wel, je moet gewoon een nvidia kopen. Terwijl als ze de applicatie goed zouden schrijven, hij ook goed op een cpu zou lopen.

Edit: @hier onder

Nee, jij snapt het niet. Stel de CPU was ruim voldoende voor de berekening, dan maakt het niet uit of de GPU sneller is, de CPU zou voldoen. Dat kan nvidia niet hebben en zal dus expres de CPU berekeningen kreupel maken en roepen: Onze videokaart is hier veel beter voor, zie je wel. Terwijl ze dat expres hebben gedaan. Iemand zeg dat hier zelf, maar ik kan het zelf niet weer vinden, dus neem ik het met een korrel zout. Het zou me alleen niets verbazen.

[Reactie gewijzigd door Anoniem: 134818 op 26 juli 2024 01:45]

Dat is niet waar. Een CPU is voornamelijk goed in fixed point operaties (integer rekenen) en in mindere mate in floating point operaties. Een GPU is echter zeer goed in floating point operaties en minder goed in fixed point operaties.

Aangezien physics een fenomeen is waarbij alleen maar floating point berekeningen worden uitgevoerd, kunnen CPU's hier gewoon minder goed bij helpen dan een GPU. Vandaar ook dat de combinatie Nvidia / Ageia is ontstaan (of de overname dan). Het sluit gewoon goed op elkaars technologie aan.

Je kunt de software dus nog zo goed schrijven, het zal altijd sneller draaien op een GPU dan een CPU, omdat het een hardwarematig architectuur verschil als grondslag heeft.

[Reactie gewijzigd door j.meijers op 26 juli 2024 01:45]

Hmm niet helemaal... een CPU zit anders in elkaar dan een GPU. Een CPU heeft een laag aantal cores maar wel veel flexibiliteit. Een GPU kan alleen simpele berekeningen doen, maar dan wel heel veel tegelijk. De berekeningen van een GPU zijn dan ook onderhevig aan een hoop beperkingen, maar als je je formules zo aanpast dat ze toch draaien op een GPU, dan is het heel snel. Geheugen is trouwens ook veel sneller op een grafische kaart wat ook meeweegt voor de hogere snelheden die gehaald worden. Dit alles heeft helemaal niets met floats of ints te maken. Shader model 4.0 heeft namelijk ook support voor integers.

PS: Physics draait goed op een GPU omdat het berekeningen betreft die makkelijk te paralleliseren zijn en dus goed draaien op een stream processor. Veel AI berekeningen zijn bijvoorbeeld moeilijk te paralleliseren door de vele afahankelijkheden tussen de verschillende elementen en kunnen dus moeilijk of niet draaien op een GPU.

Er is niets wat een CPU niet kan wat een GPU wel kan. Andersom is het wel zo dat een CPU dingen kan die een GPU niet kan. Het enige voordeel van de GPU is dus de snelheid. In praktijk zijn sommige dingen (zoals complexe physics) niet haalbaar als het te langzaam is en zul je dus gewoon pech hebben zonder GPU acceleratie. Ik snap zelf ook niet hoe ze dat in een spel gaan doen. Heb je dan zonder GPU acceleratie minder rotsblokken die op je vallen?....

[Reactie gewijzigd door Anoniem: 94232 op 26 juli 2024 01:45]

Inderdaad, jouw uitleg is wat duidelijker en preciezer dan mijn uitleg. Maar ik ben ook benieuwd hoe ze de combinatie van PhysX en graphics gaan doen. De enige manier die ik kan bedenken is dat het inderdaad een trade-off is, waar je je kunt afvragen of gebruikers dat wel willen.

Dan niet zozeer in dat er minder rotsblokken op je vallen, maar wel dat ze minder complex bewegen. Dit lijkt me dan vooral in multiplayer weer een probleem, aangezien je toch elke client op een of andere wijze zult willen syncen.
Ik ben het eens met deze stelling, als je kijkt hoe havoc het al in metroid prime 1 deed.
Snap de meerwaarde +1 niet helemaal. (zie een verwijzing zonder verwijzing)
Leg eens uit ? Ben niet bekend met wat havoc in metroid prime 1 deed.

[Reactie gewijzigd door RadioKies op 26 juli 2024 01:45]

Dat was ook zo met hardware T&L in het begin, een Pentium op 600MHz was toen sneller.
CPU heeft maar 'n paar krachtige maar complexe cores. Die vooral seriele task snel kunnen afhandelen. Multi tasken.
Of geringe parralelisatie.
GPU zijn net massive multi coretjes. De cores zijn simple beperkt maar sterk in bepaalde taken. Maar er zijn er zo veel van dat het een veelvoud aan flops heeft tov een CPU.
Vereiste is wel dat de task bij voorbeeld renderen physics AI. Heel goed deelbaar moet zijn in kleine sub taskjes. Voor die tasken is dat zo en dan is een GPU een veelvoud sneller.
Voorbeeld is folding home. CeLL blaast x86 CPU weg GPU blaast Cell weg.
Folding home is niet afhankelijk van sDK in bheer van CPU of GPU firma.
Anoniem: 69658 9 december 2008 10:27
Leuk financieel nieuws voor Nvidia lijkt me.
Zolang de kwaliteit van games er op vooruit gaan ben ik geheek akkoord.
Leuk financieel nieuws? Je kan het beter lezen als: "nVidia heeft met een grote geldsom een aantal developers overgehaald om hun spullen te gebruiken in plaats van een andere open standaard".

The way it's meant to be played toch? Jammer dat de wereld nooit zal samenkomen om het beste te bereiken maar dat individuele groepen altijd blijven knokken om het grootste geld te verdienen en een ander in een slecht daglicht te stellen door fud campagnes, gekochte reviews en misleidende reclame.

In de aard van het beestje?

[Reactie gewijzigd door Cassius op 26 juli 2024 01:45]

Jammer dat de wereld nooit zal samenkomen om het beste te bereiken maar dat individuele groepen altijd blijven knokken om het grootste geld te verdienen en een ander in een slecht daglicht te stellen door fud campagnes, gekochte reviews en misleidende reclame.
Tja, dat heet met een mooi woord "concurrentie".

Als morgen Nvidia zouden aankondigen te gaan fuseren, om "samen te komen en het beste te bereiken", dan schreeuwt iedereen weer moord en brand, dat het slecht is voor de consument omdat er geen concurrentie is.

Het is gewoon nooit goed.
Als één speler de API in beheer heefd is er geen concurentie.

Dé retail markt spelers van GPU's zijn ATI en nVidea.
Havok FX zou beiden ondersteunen maar is gekilled door iNtel. In de ijskast voor Larrabee.
HavokFX dat is pas concurentie.
En weet je wat dat inhoud.
De 1 Tera flop van de 4850 regen de 0.9 TFlop van de GTX280.
De 1.2 Teraflop van de 4870 tegen nV heeft maximaal alleen die GTX280.
De 2,4 Teraflop van de 4870x2
Dat zou dan door HavokFX benut kunnen worden.
ATI GPU hebben een hogere ratio aan shader power.

Met PhysX onder nV valt ATI weg. Te danken aan iNtel.

Dit kan je nV niet kwalijk nemen. De party pooper is iNtel. Havok overnemen had een missie. GpGPU een tijdelijke halt te roepen. Misschien provoked door nV modder oorlog tussen nV en i|ntel betreffende CPU vs GPU.

uiteindelijk heefd iNtel gezorgd voor een innovatie rem op Physics.

Omdat ATI niet medoet moet er alrijd in het gamedesign rekening gehouden worden met die andere helft van targetmarkt die ATI gebruikt. Dus de default gameplay Physics dus minimum moet op CPU lopen.

Was ATI en nV samen met HavokFX dan kan minimum Physics al GPGPU benodigen.

Dat zet dus de rem op Physics adoptie.

Voorbeeld is Mirror edge. PC versie krijgt wat extra optionele PhysX features. Maar ja het is sowieso beperkt door crossplatform
Anoniem: 166187 @Cassius9 december 2008 11:11
Leuk financieel nieuws? Je kan het beter lezen als: "nVidia heeft met een grote geldsom een aantal developers overgehaald om hun spullen te gebruiken in plaats van een andere open standaard".
Nee hoor, EA en 2K zijn hier degene die het geld betalen aangezien zij de licentie hebben afgenomen. Is in feite hetzelfde als wanneer men de Unreal3 engine wil gebruiken, dat kost alleen maar geld, je krijgt helemaal niks.

[Reactie gewijzigd door Anoniem: 166187 op 26 juli 2024 01:45]

Ik betwijfel het, staat dat ergens zwart op wit? Ik denk dat nVidia eerder ANDERE partijen ervan wil overtuigen dat die PhysX aankoop van ze geen weg gegooid geld was en dat andere partijen maar eens vette kleedjes moeten laten wapperen.

Tot zo ver vind ik de PhysX demo's -uber- teleurstellend en maken ze me nergens warm voor. Die physics hype is ver over if you ask me.
Als ze ongeveer dezelfde licencie aanhouden als ageia.

PhysX onder steund Multicore CPU
Ps3 CELL komt het meest bijna overeen met PPU.
Wii (ibm)
Xobox360
PPU

Voor PPU gebruik was het gratis.
Maar voor console zijn er licentie kosten.
Misschien ook onder nV.
EA en 2K doen toch veel crossplatform projecten. Dus denk eerder dat er licentie kosten betaald zijn.
PhysX heeft ondanks dat het geen standaard toch meer waarde.

Mischien is de prijs wel gereduceerd onder voorwaarde door voldoende mate van door twimtbp PhysX GpGPU gebruik toe te passen.

Maar nV kan natuurlijk afwijken van ageia licency police.
Mischien als EA en 2K PhysX GPGPU gebruik beloven voor de PC Port is de PhysX sdk gratis. En omdat nV daar meer profijt van heeft gratis support. Dus de TWIMTBP afdeling.

Zie het nog niet zo'n vaart lopen.
Er komt voorlopig dus geen standaard middleware Physics SDK.
DX11 wordt meer een low level PhysX layer. Universeel GPGPU dmv compute shaders.
Maar zou leuk zijn als dit een MS physX full SDK wordt.
Zonder dat wordt gameplay PhysX niet zo gretig gebruikt dat het GPGPU eist.
"The way it's Payed to be Played"
Je kan het beter lezen als: "nVidia heeft met een grote geldsom een aantal developers overgehaald om hun spullen te gebruiken in plaats van een andere open standaard".
Alhoewel ik normaal een grote voorstander ben van open standaarden, vraag ik me bij jouw opmerking toch af op welke open standaard je dan doelt? Ik kan me niet zo gauw een open standaard voor physics engines herinneren. Of is er naast OpenGL en OpenAL ook nog een "OpenPL" waar ik niks van af weet?
Open standaarden zijn goed, maar dan moeten ze wel bestaan...


Nevermind, hieronder al over OpenCL gelezen, en klinkt wel interessant :)

[Reactie gewijzigd door kozue op 26 juli 2024 01:45]

OPENCL. Maar dat zal net als DX11 meer API wezen.
Er is op dit moment geen standaard middleware SDK die nV én ATI ondersteund.
Havok FX zou dat worden maar iNtel moet even nV en ATI even naaien door Havok op te kopen en havokFX te schrappen .

Als ATI voorkeur consument ben ik niet zozeer boos op afkeer nV kamp. Want iNtel heeft nV move veroorzaakt.
Daatnaast stond Havok altijd open om ook PPU te supporten.

Kijk dan hebben we helemaal een standaard.
Jammer dat de wereld nooit zal samenkomen om het beste te bereiken
Hoor ik hier het communisme? ;)

Ik vind het best, hopelijk gaan games wat soepeler draaien, aangezien ze zoiets niet al hadden.

[Reactie gewijzigd door Calavoow op 26 juli 2024 01:45]

vast wel, maar alleen als je de juiste videokaart met het juiste spel hebt, op het juiste OS etc.

(om je nog even op de nadelen te wijzen :p)
software physX zal er vast wel komen
Dit bestaat al, kijk bijvoorbeeld maar eens in Ghost Recon: AW. Dit werkt ook met PhysX, echter berekent de CPU deze zaken wanneer er geen PhysX kaart beschikbaar is. Tevens kun je de hoeveelheid(in-game) niet zo hoog zetten als mét PhysX kaart omdat de CPU hier anders teveel moeite mee krijgt.

[Reactie gewijzigd door PassieWassie op 26 juli 2024 01:45]

Wat een gelul. Net alsof een core i7 dit niet kan bijbenen. Een quad core op 4Ghz met 8 Threats en een verbruik van 135 Waqtt heeft echt wel meer power dan een PCI kaartje met een physx processortje met een brak ventilatortje erop. Ik wil alleen maar zeggen dat het tempo waarin processors meer kunnen en sneller worden echt wel in staat zijn de physx operaties er gewoon bij te nemen.

Waarom niet gewoon specs zoals :
Gameplay without Physx calculations dual core advised
Gameplay with Physx calculations qua core advised

Gewoon een open manier voor iedereen toegankelijk ipv die melkerij waar weer iedereen in trapt.
Nee Han, PassieWassie kern punt is dat net zoals in GRAW in nV games de GPU support optioneel is. Jij vist daar PPU weer uit. en zet daar Ci7 tegen
en dat is gelul. PPU die in mei 2006 opnam tegen dual core. Tegen CPU van af november 2008. Mijn 8600GT doet nu PhysX.
Core i7 de 920 zelf is vooral betaalbaar als CPU. Maar als je beetje x58 keuze wilt hebben ben je ongeveer GTX260/280 prijs kwijt aan de mobo. Dan nog trio DDR3 kitje.
Dus die gloed-, hagel-niewe, nextgen quad i7 coretjes van intel zet je nu niet meer tegen physX stok oudgediende PPU. Dat is nu al een poos de huidige DX10 produkt lijnen van nV en die wat volgend jaar geintroduceerd worden. Dus dan neem ik uiteraard ook de dure GPU vs dure platform met CPU.
Dus 9800GTX+ GTX260 GTX280 en later GT200b(GT206) 55nm en GT200 40nm en GT200b_x2, zoals er ook mainstream Ci7 komen met mobo en chipset middeklasse.

Dan nog CPU en PPU en GPU werken samen. De triangle van computing.
CPU vs PPU vs GPU is ook gedaan met UT standaard en PhysX maps.

PPU+DualCore wint van QuadcoreC2D
PPU +Quadcore wint van PPU+dual // CPU helpt PPU en GPU
G92 wint ruim van PPU+ dual in low ress settings.
PPU wint ruim van G92 in high ress etc settings.
QuadcoreC2d gelijk aan G92 in high settings.
Dit duid aan dat CPU PPU GPU in balance moet zijn.
De consument eerder de keuze bepaald, waar PhysX computing gedaan word en met zijn keuze wat voor load mogelijk is bij bepaalde speelbare FPS.
Nu met nv PhysX is de triangle weg, dus duet CPU met GPU( shaders verdeeld over renderen en physX )
Voor nV physX heb je dus aan een kaart met een sloot extra shaders meer aan.

Dit is dus puur physX beoordelen op FPS ipv physics. Dat wordt bepaald door de physics load. Zoals Cloths fluids smoke destructie. etc

De mate van winst tov C2D quad is het goed mogelijk dat Ci7 intel na 2,5 jaar pas de PPU gaat kloppen. Alleen is dat niet meer relevant. PPU zou 2 jaar cycle krijgen. Maar nV PhysX neem dat over. Ci7 moet 55nm en later 40nm lijnen DX10 nV hardware beconcureren.

En net als CPU komen GPU ook in vele prijsklassen en performance punten.

@ passiewassie heeft met GRAW een heel goed voorbeeld wat we zullen zien.
Wat wij gamers willen zien in bijvoorbeeld GR:AW III. Is meer van GRAW2 agia island map, maar dan doorgevoerd door de gehele game. Dat is wat mogelijk is met physX gameplay en een PPU kan leveren. Dat wordt in nog fijner detail aan gameplay phyisx mogelijk met de tera flops wat beschikbaar is met high-end nV GPU's.
Maar de mainstream heeft dat niet. Mainstream is Dualcore en midrange quadcore. Met midrange ATI of nV Gpu's. En dat is het probleem.
Dit houd in dat voor Gameplay physics load gericht op mainstream je Dual tot quad kan gebruiken. Graw1 en 2 doen dat. Dat beperkt optioneel zware physX tot effect PhysX. Ook voor online net belasting wordt physX beperkt.

Dus 'n full GRAW 3 zoals Ageia island en in full story en in de multiplayer. Die kans is nog steeds klein .

Dit is omdat nV hardware een grote stap up is kwa physX load. Maar nV dekt maar de halve markt. en publisher kijken naar potentiele sales volume wat haalbaar is.
en gaan dus zich niet beperken in afzet markt. Door nV GPU te eisen. Maar richten zich op een zo groot mogelijke markt.

En dan wordt er vaak ook crossplatform developed. nV physX is momenteel een uniek feature die alleen P platform ook nog optioneel aan kan bieden. Consoles dus niet. Omdat de meeste gamestudios ook console gericht zijn. Zal de meest gemene deler de gameplay physX bepalen. En nV PhysX vooral voor effect PhysX gebruikt worden.

Dat zijn paar van de vele reden dat die killer gamer er niet komt.

Misschien pas als nextgen consoles een overbemeten shader ratio krijgen en physX ook de nV chip daarin kan gebruiken. PS3 heeft nu nV RSX 'n 7 serie helaas. PS4 kan 'n nV DX11 ding worden. xbox3 ook en als die nV GPU gebruikt
Maar dan moet de PC markt nV physX GPU mainstream zijn en daar heeft nV ATI bij nodig.
Dus je zegt eigenlijk dat wanneer je een highend Intel i7 systeem hebt met een dikke ati kaart dat je om physics aan boord te krijgen volgens Cuda dan beter er nog een Nvidia kaart bij kan zetten ?
Voor de mensen die nog steeds in de veronderstelling zijn dat een CPU makkelijk Physx berekeningen kan doen moet eens Cellfactor : Revolutions spelen :) Zonder Nvidia Physx daarbij ingeschakeld natuurlijk ;)
Dat is er al hoor, draai 3DMark vantage maar met de PPU uitgeschakeld, merk je meteen het verschil.
Nee, er zijn genoeg games die physx ondersteunen maar waarbij je de hardwarematige physx versnelling (egia of nvidia gpu) gewoon uit kan zetten.
Lees het artikel, je koopt geen PhysX! die kaarten verkoopt Nvidia helemaal niet. PhysX zit in de Geforce 8 en Geforce 9 kaarten standaard ingebouwd.
Je vergeet de GTX series. Het zijn de shaders die daarvoor misbruikt worden.
Maar gezien GPU die shaders al hard nodig hebben voor renderen zou ik liever voor iets met extra shader power nemen. physX komt niet for free. Lijkt maar zo als er te veel shaders idle zijn door te dure overkill kaart. Of een game die fillrate beperkt is.
Of GPU setting richting ModeX resoluties.

D'r zit niks bijzonders of speciaal voor PhysX er in.
PhysX SDK misbruikt de shaders voor GPGPU toepassing. Net zoals Folding@home en badaboom en CS4 dat ook doen.
Nu heb ik al gelezen dat je ook SLI kan gebruiken om één kaart physics te laten berekenen en de andere te gebruiken voor gfx. Maar hoe zit dat als je maar één kaart gebruikt? Krijg je dan niet een performance-hit op je gfx zodra je physics gebruikt?
Je kan in een systeem met 3 PCI-E sloten en SLI. 2 gelijke graphics cards in SLI zetten. In het 3e slot zet je je oude videokaart en die kan je dedicated op physics laten draaien.

Het moet al mogelijk zijn. ik weet uit mijn hoofd niet welke hardware je daar nu pcies voor nodig hebt, zal wel een van die nieuwere nforce chipsets zijn. In feite heb je dan dus 3 videokaarten in je systeem. Voor goede dedicated physics berekeningen zou een geforce erm 5200 al eigenlijk qua rekenkracht voldoende moeten zijn. Voldoende noem ik dan beter dan de oorspronkelijke agia physx hardware.

[Reactie gewijzigd door Goros op 26 juli 2024 01:45]

@ roxsman tja dat heet shared gebruik. Je enigste GPU Moet beide zware task doen.

Het is Ja en nee, beide dus.
Het is game afhankelijk in wat voor mate de render engine bij bepaalde GPU settings de shaders belast. En dus ook wat je totaal aan shader power beschikbaar hebt. low budged tot high-end SLI of multiGPU.

PhysX komt niet for free. Zijn er genoeg shaders idle merk je niks. Is je GPU al full stressed dan laat PhysX de FPS in zakken.

De kans dat dat met 'n GTX280 gebeurt is veel kleiner en die kans is veel groter bij een 8600GT.

Op dit item kan niet meer gereageerd worden.