Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties

Terry Makedon, productmanager bij AMD, heeft laten weten dat AMD zijn physics gpu-strategie uit de doeken zal doen. Tijdens de Game Developers Conference zou er ook een demo getoond worden van gpu-versnelde Havok-physics.

Nvidia probeert al geruime tijde zijn PhysX-api aan de man te brengen, terwijl AMD meer een voorstander is van de Havok-api. Alleen Nvidia's api kan momenteel hardwarematig versneld worden door het gebruik van de gpgpu-api CUDA, maar daar lijkt nu verandering in te komen: AMD heeft niet stilgezeten, zo blijkt uit de Twitter-pagina van Terry Makedon.

Makedon stelt dat AMD tijdens een één uur durende sessie op de Game Developers Conference, die van 23 tot 27 maart in San Francisco wordt gehouden, een demonstratie zal geven van hardwarematig versnelde natuurkundige berekeningen. Verder hint Makedon naar de mogelijkheid dat de gpu-physics-demonstratie om hardwarematige versnelling van Havok-physics gaat. Tijdens de sessie zal AMD ook ingaan op zijn gpu-physics strategie, waarbij gpgpu-applicaties OpenCL en ATI Stream een grote rol spelen.

Hardwarematige versnelling van natuurkundige berekeningen is niet nieuw, maar heeft nog geen echte vaste grond gevonden bij ontwikkelaars. Eerder in 2006 demonstreerden Nvidia en Havok de Havok FX-engine, waarmee physics ook op de videokaart uitgerekend werden. Momenteel zijn er alleen spellen met Nvidia's PhysX, waarbij de natuurkundige berekeningen door de gpu worden verzorgd. De extra belasting zorgt daarentegen voor minder frames-per-seconde, en er zijn nog maar erg weinig spellen die hardwarematig versnelde PhysX hebben. Met de komst van DirectX 11 zouden physics wel eens een grote vlucht kunnen nemen, aangezien zowel de videokaarten van AMD als die van Nvidia de gpgpu-applicatie openCL gaan ondersteunen.

Moderatie-faq Wijzig weergave

Reacties (42)

Tja, ik blijf erbij dat wanneer mijn GPU tijd over heeft om physics te kunnen berekenen dat er iets fout is.. die tijd kan die mooi besteden aan het mooier/beter maken van het beeld.. De GPU-physics zijn nog steeds niet van het niveau als van de losse Physx-kaart..
De grafische belasting kan je zo licht of zo extreem maken als je wilt. Daarnaast kunnen games meer of minder extreem afhankelijk zijn van GPU.
Alles op Very high en 16AF en 16FSAA op niet minder dan 1920x1200.

Maar ja een zware game hoefd niet shader afhankelijk te zijn kan ook fillrate beperkt zijn. PhysX kan dan makkelijk erbij.
Daarnaast kunnen ze een bescheiden PhysX belasting toepassen die 16 shader afsnoept. Net te veel voor CPU maar makkelijk om wat idle shaders af te snoepen van een high-end kaart.

Games CPU Physics en AI is vaak een fix load. Meestal gericht op mainstream CPU. Dus een gemiddelde Dualcore voldoet.
GFX is ruim instelbaar voor een pletora aan GPU hardware variaties.
Je kan dus afhankelijk van ej ahrdware het instellen tot een slide show of tot 100den aan FPS.

GPU PhysX heeft daar ook last van. De target is van.
nV loos target platform. CPU default
nV IGP only
nv lowbudged tot Quad high-end GPU's.
Plus optioneel een extra dedicated GPU van low tot high-end.

De target is zelf nog breeder kwa mogelijkheden dan waar render task last van heeft.

Een breede instelbare PhysX is dan ook nodig om je GPU hardware ook samen met GFX en PhysX te kunnen stressen.

ipv een voor de wat zwaardere single GPU simple Fix GPU loadje.
Als de grafische pracht en phisix moeten 'cuncurreren' om GPU-tijd dan denk ik dat velen met mij genoegen zullen nemen met minder eye-candy voor realistischere dynamiek.
Een karakter bij wie de kleding realistisch plooit en het haar mooi in de wind wappert ziet er veel levendiger uit dan een met wat meer texture filters of betere belichting.

Ik ben heel benieuwd wat game makers hiermee zullen kunnen doen en hoop ook dat deze technolgie snel in de AMD/ATI opensource drivers terecht komt.
bij eigenlijk alle games staat een deel van de shaders niks te doen omdat de bottleneck ergens anders ligt.
GPU's hebben dus wel wat shaders over om dingen als physics te doen.
en de hoeveelheid shaders zal ook voorlopig alleen maar groter worden ivm de andere componenten in de videokaart.
mooi/beter maken van het beeld kan maar tot zekere hoogte. Je kan in principe nooit extra gegevens erbij bedenken. Dan kun je de gamemakers boos aan gaan kijken, en dan komen we weer op de discussie: koop je een game voor de graphics, of koop een game en zijn de graphics leuk meegenomen? Persoonlijk heb ik liever kwaliteit in de game dan in de graphics. Als een game een deadline krijgt, en ze moeten 2000 verschillende modelletjes kiezelstenen modellen en texturen, wordt die game niet goedkoper, en wordt het verhaal/content van het spel zodanig dat je het in 4 uur allemaal gezien hebt.
mooi!

ik vroeg me al af waarom ATI ook niets zoiets als physics had.

Nog een reden bij om bij men volgende upgrade naar ATI over te stappen naast prijs/kwaliteit
Helemaal met je eens Niosus. Ik kan er echter alleen niet uit opmaken of dit voor de huidige 48xx serie gaat werken met Havok. Als het een soort zelfde systeem is als nVidia zou je bijvoorbeeld een HD4870X2 als pure graphics kracht gebruiken en een HD4870 1GB als de Havok engine regelaar. :9~
Het werkt op alle kaarten die ook ATi Stream / OpenCL ondersteunen. Bij mijn weten zijn dit alle kaarten met Unified Shaders, oftewel alle* kaarten uit de HD2x00, HD3xx0 en HD4xx0 series.

* er zijn een paar onboard oplossingen op basis van DX9, dus zonder Unified Shaders

Maar inderdaad erg mooi, mijns inziens zijn er op het moment nog maar weinig redenen over om nog een NVIDIA kaart te kopen nu ATi ook op het gebied van hardwarematigeversnelde physics gaat concurreren.

Het is te hopen dat het daadwerkelijk voor een hogere performance gaat zorgen, en niet, net als PhysX, alleen maar om extra (nutteloze) effecten toe te voegen. Hoewel Havok op dit gebied natuurlijk al een enorme reputatie heeft opgebouwd dus ik denk niet dat dat snel zal gebeuren :)
Het werkt op alle kaarten die ook ATi Stream / OpenCL ondersteunen. Bij mijn weten zijn dit alle kaarten met Unified Shaders, oftewel alle* kaarten uit de HD2x00, HD3xx0 en HD4xx0 series.
Het licht niet aan de unified shader maar aan reken kracht en dan vooral ook branch performance. R520 was daar al CPU overtreffend in en daarmee al voor Folding home toegepast. En is dus CPU overtreffende computatie kracht voor Physics al van af R520 beschikbaar. Maar helaas onbenut. HavokFX is nooit publiekelijk geworden door intel intervetie. Dus excate ondersteuning van welke generatie was toen ook onbekend. De eerste Physics ATI demo is uiteraard op DX9 gedaan.

Vraag me dus af of ATI Havok GPU ondersteuning mogelijk vanaf DX9.c hardware GPU Physics gaat ondersteunen. Heb X1800XL.
De 7 series van nV mist helaas de branch power om mee te komen of CPU makkelijk te kunnen overtreffen. Dus PhysX vanaf DX10 daar. Bij ATI kan dat dus een generatie ervoor al. Mits ATI daarvoor gaat.
Ben benieuwd.
* er zijn een paar onboard oplossingen op basis van DX9, dus zonder Unified Shaders
Er zijn ook DX10 IGP.
Onboard oplossing zijn praktisch alleen interresant als ze naast een dedicated Gkaart voor renderen, de Physics dedicaten mogen overnemen. Als in een extra manier om hybride CF toe te passen. Onboard IGP als enigste GPU heeft te weinig kracht om beide zware taken acceptable te doen. De render taak is vaak al te veel voor vooral de AAA titels. Gezien de vooral GPU afhankelijkheid van games.
Maar inderdaad erg mooi, mijns inziens zijn er op het moment nog maar weinig redenen over om nog een NVIDIA kaart te kopen nu ATi ook op het gebied van hardwarematigeversnelde physics gaat concurreren.
Je kan als fequent upgrader zeker wel nu voor nV te gaan. nV loopt aardig voor met hun PhysX door het voorwerk wat Ageia al gedaan heeft. Havok is mogelijk de grootste, de Nr1 op Physics middle ware. Maar PhysX is al een grote nr 2 op Physics middle ware. Havok Groot heid doet er al lang niet toe. De twee deling op middle waar staat al als een huis. Wat Game adoptie juist in de weg zit. Ik had Havok en PhysX liever onafhankelijk van iNtel AMD en nV gezien.
DirectX 11 Computed shader gebruik door Extended HSML voor Physics en OpenCL door Middleware software zie ik liever. Maar helaas het is niet zo.

Veel games maken gebruik van Havok. Maar bestaande CPU based games doen er niet toe. Het gaat erom dat de nieuwe HAvok GPU supportende games iets zinnigs gaan doen met die optionele extra beschikbare rekenkracht voor Physics. Dito voor nV nieuwe nV PhysX titles.
Dat duurt even.

Een game die maar één merk ondersteund moet dus een fallback default CPU capable default Physics load hebben voor gameplay Physics. Wat de Gameplay Physics laag houd op CPU niveau

Dit houd zinnig zware gameplay Physics gebruik tegen, op optionele zware effect Physics na.
Will een dev zijn AAA game laten onderscheiden van de rest op Physics gebied dan moet de Defauld gameplay physics load drastisch omhoog, dat kan dus als GPU Physics vereist wordt. En dat kan dus nu havok GPU ondersteund voor nieuwe games in produktie. Als dev bereid zijn om twee GPU Physics paths te implementeren. Havok en PhysX GPU support.

Zo'n Game zou dus 'n redelijke DX10 GPU van nV/ATI kunnen eisen.
Het is te hopen dat het daadwerkelijk voor een hogere performance gaat zorgen, en niet, net als PhysX, alleen maar om extra (nutteloze) effecten toe te voegen. Hoewel Havok op dit gebied natuurlijk al een enorme reputatie heeft opgebouwd dus ik denk niet dat dat snel zal gebeuren
Daarnaast Performance? Die extra beschikbare Physics power is er niet om meer FPS te halen. Maar het kan beetje Fps op offeren voor een stap extra physics.
Gezien de GPU met een extra zeker ook mogelijke zware task belast wordt. Kan je mogelijk FPS hit verwachten. Dit is eerder vanzelf spreken.
Meeste games zijn GPU afhankelijk kwa 3D last. Dus in geval van een shader afhankelijke game heb je ietswat FPS verlies. Fillrate afhankelijke game dus een stuk minder last van.
CPU Physics ontlasting? Physics mainstream gerichte CPU load kan beetje CPU makkelijk aan. Zoiets ontlasten merk je als gamer amper wat van. Zinloos dus. Game wordt er uiteraard niet mooier of beter op. En kwa FPS gebeurt er niet veel. Een kleine verschuiving. De GPU kan zo'n lage load makkelijk erbij. Dus Fps kan iets inzakken. Maar dat beetje CPU ontlasting kan dat enigzins compenseren. Zinloos gebruik van GPU physics.
GPU Physics is er vooral om games Physics rijker te maken.
Meer of op grotere schaal of en in fijner detail nieuwe of extra Physics features toepassen dan wat een CPU aankan. Op wijder gebied meer interactieve games.

GPU Physics behoord beoordeeld te worden op wat voor zinnigs dev's doen met die extra physics computatie power.

Diegene reviewer die toen Ageia PPU P1 review als een Gkaart op FPS slaat de plank volledig mis. Je kijkt of Physics zinvol en verijkend werd toegepast in GRAW1 en Cellfactor demo.
De enige FPS vereiste voor elke game ook buiten Physics is dat FPS speelbaar moet zijn dus afhankelijk van genre tussen de 25 á 60 FPS.
Voor 'n beetje FPS verlies krijg je dus extra Physics features voor terug.

En daarbij zijn de gameplay Physics het meeste intterresantst en effect Physics uiteraard ook welkom.

Tja Mirror edge is de laaste wapen feit op PhysX.
Als je al ervaring hebt met bv GRAW2 ageia island. Dan is dit niet zo'n vooruitgang. Als je dus al ruim twee jaren ervaring hebt hands on met PPU.
Maar mainstream nV DX10 owners krijgen nu 'n extra ervaring op more Physics gebied. En deel van de al PHysX hardware ondersteunde games.

Of Physics goed of slecht in Graw Cellfactor(demo) mirroredge is toegepast is een andere discussie. En tja dat is niet zomaar in cijfertjes uit te drukken.
En dat is dus waar deze Hardware accelerated Physics evolutie op gericht is. Niet FPS dat is een kweste van voldoende render power.
Wat neer komt dat je voldoende shader power regeld in je gameRig voor beide task.

GPU Physics komt niet voor free, deel van de shaders doen dat

Je leverd mogelijk iets FPS in voor Extra Physics.
Je kan ook het volgende doen:

GigaByte GeForce 9400 moederbord -- $119.99
Mushkin 2x2GB DDR2-800 (5-4-4-12) geheugen -- $34.99
Intel E5200 CPU (2.5Ghz, 800Mzh QDR) -- $72.99
Thermaltake Blue-Orb II Custom cooler -- $44.99
MSI HD4850 OC 512MB (640Mhz tov 600Mhz standaard) -- $109.99

SubTotaal = $382.95

Dan heb je uiteraard nog een Kast, PSU, HDD en eventueel optische drive nodig (en niet te vergeten dat iedere tweaker al meteen denkt "waarom niet voor ..... gekozen").

In de Gigabyte BIOS verander je dan de QDR naar 1066, en unlink je de geheugenbus, zodat die op 800 kan blijven. En ineens is de goedkope E5200 zonder een voltagemod verandert in een E8600 op 3.33Ghz die normaal $269.99 kost. Je kan ook DDR2-1066 geheugen nemen, voltagemods toepassen en de CPU op 4.2Ghz draaien, etc. Echter dan komen er allemaal extra kosten bij en wordt het allemaal wat moeilijker om zonder kennis alles stabiel te laten draaien.

Het punt wat ik echter wilde maken is dat je met bovenstaande combinatie dan PhysX op de GeForce 9400 IGP kan draaien, terwijl je toch gebruik maakt van de gigantische prijs/prestatie verhouding die AMD/ATi videokaarten hebben.

De HD4850 op 640Mhz is namelijk vergelijkbaar (en soms sneller) met een standaard GTX260+, die minimaal $169.99 kost. Dat is dus bijna 55% duurder voor de nVidia versie.

In Windows 7 zal het tevens mogelijk gaan worden om 4 monitoren aan te sluiten, omdat de GeForce IGP dan tegelijk met de GPU gebruikt kan worden. Maar met de nieuwste GeForce drivers is het nu al mogelijk om de uitgeschakelde IGP toch nog steeds als PhysX versneller te gebruiken. Mirrors Edge ziet er dan net zo mooi uit via PhysX op een snelle AMD/ATi videokaart als op een snelle nVidia kaart. Tuurlijk is de GeForce 9400 minder snel als je hem puur op PhysX snelheid vergelijkt met een GTX295+, maar krachtig genoeg om een mooi verschil te maken.
Helaas is het nog altijd niet mogelijk om grafische kaarten van een verschillend merk samen in een windows omgeving samen te laten werken.
PhysX is toch ten dode opgeschreven. DirectX 11 biedt ondersteuning voor PhysX en het is dan ook nutteloos voor Nvidia of Ati om PhysX te ondersteunen. Als de kaart DirectX aankan dan zal het automatisch ook PhysX kunnen draaien.
Het is inderdaad een goede zaak dat AMD een bestaande (ontzettend populaire) physics engine als Havok neemt om te gaan optimaliseren met een GPU. Nvidia heeft zijn eigen physiscs engine, dat geeft toch net wat minder push in de markt. Bedrijven die over 2 jr weer Havok nemen (omdat ze er al mee bekend zijn) krijgen *gratis* gpu support, terwijl je bij nVidia er nu een echte keuze voor moet maken.
ik snap die fanboy reacties niet, ik zie liever één open standaard die door alle kaarten ondersteund wordt
opencl doet geen physics, en wat je er wel mee kan doen is zeer gelimiteerd.
En waar haal je dat idee vandaan? Hopelijk verwar je OpenCL om te beginnen al niet met OpenGL?

OpenCL is in veel opzichten gelijk aan wat nVidia met CUDA doet: het voorziet een API waarmee ontwikkelaars heel gemakkelijk de GPU kunnen aanspreken om andere berekeningen te doen dan alleen maar grafische.

Het is te vergelijken met DirectX. Voor Microsoft dat had uitgebracht moesten ontwikkelaars veelal specifieke code voor elk stukje hardware schrijven om te zorgen dat het werkte. Microsoft heeft toen DirectX uitgegeven, en dat werkte als een soort brug: in de DirectX-API kon een ontwikkelaar algemene code invoeren, waarop de DirectX-laag ervoor zorgde dat het op welke hardware dan ook juist werd uitgevoerd.

Dit is exact wat OpenCL en CUDA ook doen, een soort algemene en relatief eenvoudige programmeeromgeving bieden waarbij ontwikkelaars zich niets moeten aantrekken van de hardware waarop het uiteindelijk zal draaien. Het enige verschil tussen beiden is dat CUDA een nVidia-only zaak is, en OpenCL een volledig open standaard. Maar beiden zijn dus wel degelijk tot dezelfde dingen in staat hoor, alles hangt af van de skills van de programmeur die ermee aan de slag gaat ;)
Alle partijen die achter OpenCL zitten? Dat is de Khronos Group... en wie zitten daar allemaal in?
  • 3DLABS
  • Activision Blizzard
  • AMD
  • Apple
  • ARM
  • Barco
  • Broadcom
  • Codeplay
  • Electronic Arts
  • Ericsson
  • Freescale
  • HI
  • IBM
  • Intel
  • Imagination Technologies
  • Kestrel Institute
  • Motorola
  • Movidia
  • Nokia
  • NVIDIA
  • QNX
  • RapidMind
  • Samsung
  • Seaweed
  • Takumi
  • Texas Instruments
  • Umeå University
http://www.khronos.org/opencl/

Volgens mij snap je niet helemaal hoe OpenCL werkt... Wikipedia en de website van OpenCL helpt je een flink eind op weg. De korte versie is dat OpenCL de communicatielaag is tussen Havok en de GPU. Havok zal boven op de OpenCL API (en de Computeshaders in DX11) komen te liggen en zo met de GPU kunnen praten.

Partijen komen niet met eigen physics... partijen hadden al hun eigen physics APIs. Havok en PhysX bestaan al tijden, het verschil is echter dat je voor PhysX een CUDA capable GPU nodig hebt. Dat zijn dus alleen maar nVidia videokaarten aangezien AMD geen zin heeft om een proprietary standaard van de concurrent te ondersteunen. Zij gaan voor open standaarden als OpenCL en algemeen geaccepteerde standaarden als DX.

Aangezien OpenCL nu inmiddels geaccepteerd is als algemene GPU compute language, ook door nVidia, zou Havok dus ook zonder problemen op nVidia GPUs moeten kunnen werken. Omgekeerd zou PhysX ook prima op Radeons werken als nVidia het CUDA gedeelte zou vervangen door een OpenCL gedeelte. Maar dat willen ze niet... ze willen natuurlijk zo veel mogelijk geld vangen door eigen videokaarten te verkopen.

Zoals het er nu voorstaat is Havok, als meest gebruikte physics engine (in zowel games als grote films), dus in het voordeel wanneer het straks op GPU physics aan komt. Niet alleen omdat ze nu zowel Intel als AMD achter zich hebben, maar simpelweg hierom:

Havok: OpenCL/DX11 Computeshaders -> AMD, Intel, nVidia, S3, etc: iedereen kan het ondersteunen
PhysX: CUDA -> nVidia only

[Reactie gewijzigd door CJ op 21 maart 2009 17:03]

Even heel simpel dus...

Je hebt een GPU (AMD/nVidia) en daar zit OpenCL via DX11 op, en daardoor draait PhysX/HAVOK?

Of zie ik het nu verkeerd?

Is het dat OpenCL Cuda van nVidia overbodig maakt?

En als dat zo is, dan is OpenCL dus niet toe te passen op Dx10 kaarten en lager?

Hoe zit het dan met een niet DX11 kaart en physics van of nVidia of ATI in een DX11 spel dat OpenCL gebruikt ervoor?

Werkt dan de physics niet of zouden die dan terugvallen op Havok via de ATI-api of nVidia's Cuda?
OpenCL zit niet gebonden aan DirectX 11 maar die ontvang je via jouw drivers.
In principe kan elke kaart met zgn. unified shaders OpenCL via een (re)compiler draaien.

CUDA staat hier los van, dit werkt alleen op nVidia hardware omdat nVidia het recht op CUDA bezit.
Zij gebruiken een speciale recompiler om CUDA om te zetten in ptxa (parallel thread execution assembly) wat de assembly taal van nVidia unfied shader hardware is.
nVidia bezit zowel CUDA als PhysX.

OpenCL is een open standaard die op elke videokaart, mits er ondersteuning via drivers oid voor is, moet draaien.
Zolang de hardware maar aan de OpenCL specificaties voldoet (ik geloof GLSL ondersteuning en een unified shader/stream processor architectuur)

Intel bezit Havok, en Intel werkt nauw samen met AMD (die weer ATI bezit) om de Havok engine op OpenCL te draaien, zodat spelontwikkelaars weer geinteresseerd in Havok worden omdat het op elke moderne computer werkt.
OpenCL is niks meer dan open GPGPU interface.
Wat ze nodig hebben is een standaard hardware onafhankelijke Physics middleware SDK.
Wat Havok oorspronkelijk was voordat iNtel nV en ATI een hak zette door HavokFX te stallen.
PhysX was onder Ageia CPU free maar PPU bound en nu onder nV CPU free en DX10 GPU (+ppu) gebonden.
openCL kan een dienen als physics API. het kan er voor zorgen dat je elke physics SDK op elke GPU kan laten werken door een standaard openCL interface.

en openCL is meer als alleen bedoeld voor GPGPU, maar kan worden toegepast op alles met 'massive paralism' van GPU tot super-computer cluster.
Nvidia wint toch steeds meer terein, ze hebben onlangs voor de PS3 én de Wii hun PhysX SDK uitgebracht.

Hopelijk kunnen ook de berekeningen voor Folding@Home nu beter via de Ati-grafische kaarten gedaan worden, aangezien Nvidia daar heer en meester is met hun CUDA.

[Reactie gewijzigd door Wiethoofd op 21 maart 2009 13:25]

De Wii draait op een ATI videokaart, er zit niks van nVidia in. Overigens, Nintendo en Havok (wat nu van Intel is), gaan al vrij lang samen. In smash bros Brawl, en de eerste metroids zat het al, en nu ook bij veel Wii games.

Verder niks mis mee, dat nVidia een keuze aanbied aan developers voor de Physics, stiekem hoop ik dat Intel havoc gaat over zetten naar Cuda én Stream, en nVidia zo liev is om PhysX over te zetten naar Stream. Dat zal goed zijn voor de consugamer.
En TOCH werken zeer veel gameontwikkelaars met de Havok engine !

Fyi : Overzichtje van alle Havok gyphysicte producten :
http://www.havok.com/content/blogcategory/29/73/
Havok en PhysX ondersteunen al jaren consoles.
Uiteraard console CPU dus.
Die terrein heeft nV niet gewonnen. Ageia PhysX had dat al langer. En nV met overname dus ingekocht. Maar het is wel dat nV dit nu gratis aanbied aan console developers.

Geen idee wat voor aTI generatie of afgeleide er in Wii zit.
Voorbeeld Wii Redsteel is een PhysX game. En dat zal dus Wii CPU PhysX zijn.

De Havok en PhysX ondersteunen voor Xbox360 en PS3 uiteraard de CPU.

Maar Cell CPU heeft het meeste weg van PPU.
PhysX ondersteund de Cell dus meer op de manier als PPU. De RSX als 7 series nV GPU afgeleide is te zwak in GPGPU performance. Dus bij PS3 verwacht ik dat de Cell CPU PhysX benut wordt. Havok zal dus ook de Cell CPU ondersteunen.

Xbox360 zal PhysX uiteraard de CPU gebruiken.
Maar in geval van Havok zou dus nu ook de R500 gebruikt kunnen worden. De schader kunnen krachtig genoeg zijn. Maar zijn uiteraard al zwaar belast met de GFX task.
Met de komst van DirectX 11 zouden physics wel eens een grote vlucht kunnen nemen, aangezien zowel de videokaarten van AMD als die van Nvidia de gpgpu-applicatie openCL gaan ondersteunen.
Dit begrijp ik niet. Betekent dit dat OpenCL afhankelijk is van DirectX11? Dat zou betekenen dat openCL windows-afhankelijk wordt. Daar kan ik in de documenten die ik tot noch toe gevonden had niets over terug vinden. Iemand een idee hoe dit zit?
OpenCL is een standaard die word onderhouden door de Khronos groep en Apple.

Microsoft komt met een eigen standaard in hun DirectX 11 API genaamd "compute shaders".
openCL is volledig platform onafhankelijk in theorie. en kan in alles gebruikt worden waar veel parallelle taken uitgevoerd moeten worden, van een GPU tot een super-computer cluster.
Ja dat klink raar.
Maar DX11 Compute shaders is de standaard voor Windows game platform.
OpenCL voor Windows MAC en Linux en console etc.

Physics middle ware en game dev's kunnen afhankelijk van hun Target Os('en) de API / SDK kiezen.

Gezien de top PhysX middle ware in het bezit is van een van de hardware boeren. Hoop ik dat DX11 een highlevel PhysX component heeft die de compute shaders gebruikt.
Zal wel niet.

Computeshaders OpenCL komt overeen met Cuda. En daar mee heb je nog lang geen Physics engine. Maar een low level interface voor GPGPU gebruik..
nVidia heeft al een serieuze voorsprong op het gebied van GPU geaccelereerde gameplay physics, maar aangezien Havok (Intel) nog steeds een grotere assortiment spellen omvat is het maar afwachten wat AMD, Intel en nVidia gaan doen in de komende maanden.

Daarnaast komt PhysX geïmplementeerd in Unreal Engine 3.0 en Gamebryo.
Maar daarvan hebben sommige spellen ook weer gewoon Havok middleware, zoals BioShock, The Elder Scrolls IV: Oblivion, Fallout 3, etc.
Hoe bedoel je voorsprong? Hoeveel spellen worden er ondersteund door PhysX en hoeveel door Havok?
En voorsprong of niet, als DirectX11 voor de deur staat zullen alle proprietaire physics ondersteuning niet meer nodig zijn.
Mooi, vooruitgang ku je tegenwoordig niet alleen maar boeken door "sneller meer" maar belangrijker door het beter af te handelen[off loading]. Physics worden meer en meer deel van games en met de implementatie van deze technieken is dat voor iedereen bereikbaar.
Ik heb een Crossfire mobo en een HD4870, dus dit is wel iets waar ik op zatte wachten.
Ik zal niet snel naar NVIDIA gaat, vooral omdat ik er net zo goed een tweede HD4870 bij kan prikken als de boel te sloom wordt.
Ik heb een sterke pc, maar als ik PhysX nu aanzet, krijg ik een framedrop van hier tot Tokyo.

[Reactie gewijzigd door Amanoo op 21 maart 2009 13:58]

Om dat heel simpel te verklaren, je hebt geen GPU hardware versnelling. Je processor krijgt dan alles voor z'n kiezen en dat kan die waarschijnlijk simpelweg niet.
Zover ik weet hoeft men enkel de PhysX drivers te installeren.

Dit ga ik zelf binnenkort proberen, aangezien ik nu een HD 4870 1GB gebruik. Hier wil ik nog een 8400 GS of een 9300 GS bij hebben, speciaal voor PhysX en CUDA.
Dan blijf ik de HD 4870 1GB gebruiken als render apparaat en voor UVD/AVIVO.
Volgens mij heb ik dat al gedaan, omdat een of ander spel dat zo graag wilde tijdens installatie.
Heeft niet echt geholpen, behalve dan dat ik nu het spel kan spelen.
PhysX aanzetten is nog steeds een ramp.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True