Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 124 reacties

Firingsquad heeft de performance van de Physx-technologie van Nvidia met verschillende configuraties getest. Daarvoor gebruikten de testers een scripted techdemo van de game Cryostasis.

In de survivalshooter Cryostasis, die begin volgend jaar zal uitkomen, moet een metereoloog onderzoek doen op een in moeilijkheden geraakte Russische ijsbreker. Om de bemanning en zijn eigen leven te redden, moet de hoofdpersoon in de ijskoude omgeving zien te overleven. Dit doet hij door zich warm te houden. De Physx-engine komt bij diverse grafische effecten van de game om de hoek kijken, zo is in een techdemo van het spel te zien: de gpu van Nvidia-kaarten wordt onder andere benut voor het berekenen van alle 'vloeistofeffecten', ook bekend als smoothed particle hydrodynamics. Daarbij kan het aantal te renderen particles oplopen tot meer dan 30.000.

Om de techdemo met Physx-versnelling te kunnen draaien is een Geforce 8 of hoger nodig, anders moet de cpu de klus klaren. De reviewers gebruikten voor de tests een Intel Core i7 920-processor die was overgeklokt tot 3,3GHz. Tijdens de benchmarks werden tien Nvidia-kaarten getest, uiteenlopend van een Geforce 9500 GT tot een Geforce GTX 280. Ook werden drie ATI-kaarten meegenomen.

Uit de eerste benchronde blijkt dat de techdemo met 11fps draait wanneer de overgeklokte Core i7-cpu het Physx-werk moet verrichten. Wanneer de gpu de Physx afhandelt, weten de high-end-gpu's de framerates te laten oplopen tot 38,4fps. De Radeon-kaarten blijven zoals verwacht ver achter, omdat deze door de cpu worden geremd. Uit een tweede benchmark met meerdere gpu-combinaties komt een interessanter gegeven naar voren: een 9600 GT blijkt voldoende krachtig als dedicated Physx-kaart. Ook blijken de grafische prestaties van een 8800 GT met 25 procent toe te nemen als de 9600 GT het Physx-werk opknapt.

Concluderend stellen de reviewers dat uit de benchmarks op basis van de Cryostasis-techdemo blijkt dat gpu's bij Physx-berekeningen ongeveer 2 tot 3,5 maal sneller presteren dan een moderne cpu als de Core i7. Wel tekent Firingsquad daarbij aan dat de techdemo nog geen voltooide code draait en dat het om een scripted benchmark gaat. Pas in de loop van 2009 komen de eerste volledige spellen uit die de Physx-engine van Nvidia tijdens daadwerkelijke gameplay aan de tand kunnen voelen.

Cryostasis
Moderatie-faq Wijzig weergave

Reacties (124)

Mmm of je programmeert een spel zo zwaar dat je dit soort escapades nodig hebt, of je maakt het gewoon zo dat het met een gemiddelde processor en gemiddelde grafische kaart (van welk merk dan ook) goed loopt. Zonder 1 of meerdere hitte en energie verslindende monsterkaarten (SLI/Crossfire give me a break). Rara waar de meeste omzet te behalen valt.

Helaas zijn sommige spellen die ik wil spelen (nog) niet uit op de console anders had ik PC gaming al lang vaarwel gezegd.

Nee ik speel geen Crysis, hoop dat die benchmarks van dat gedrocht eens ophouden. Het lijkt welhaast alleen bedoeld om high end kaarten te slijten.

Ach ATI/nVidia en de game developers merken vanzelf wel dat consumenten geen 3-400 euro voor slechts een (of meerdere) grafische kaart(en) uitgeven die 6 maanden later al verouderd is/zijn, economische crisis etc. zal zeker niet helpen.

Gevalletje twee honden vechten om een been...
"Gevalletje twee honden vechten om een been..."

Dit heet concurentie en is juist een goed iets. Zonder concurentie zou de markt (lees ontwikkeling) tot niets komen.

"Ach ATI/nVidia en de game developers merken vanzelf wel dat consumenten geen 3-400 euro voor slechts een (of meerdere) grafische kaart(en) uitgeven die 6 maanden later al verouderd is/zijn, economische crisis etc. zal zeker niet helpen."

Ik denk het toch wel hoor :) Hoe denk je anders dat de economie er weer boven op moet komen? Als je nu bijvoorbeeld een 4870 x2 koopt, is het wel een ouder model als er een nieuwe serie uit komt, maar dat wil niet altijd zeggen dat het ook slechter is.

Kijk naar FarCry 2, Mijn 8800GTX presteert beter dan de 9800GTX ;) Ik vind dus dat je daar absoluut geen punt in hebt.
Dit heet concurentie en is juist een goed iets. Zonder concurentie zou de markt (lees ontwikkeling) tot niets komen.
Neen, dit heet hype.

Ik heb nog geen enkel echt spel tegengekomen dat z'n fysische berekeningen niet vlot op de CPU kan doen. Nogal logisch ook, want met een dual-core heb je praktisch een ganse core om het te doen. Met enkele miljarden berekeningen per seconde kan je echt wel al een sterk staaltje fysische effecten implementeren.

NVIDIA speelt echter vuil spel. Door PhysX moedwillig traag te laten lopen op de CPU (single-threaded, geen gebruik van SSE) wekken ze de indruk dat een GPU echt nodig is. En dat terwijl met een voor de CPU geoptimaliseerde versie de GPU juist minder belast zou zijn zodat de totale prestaties hoger uitkomen.

Hun enige doel is om iedereen een tweede grafische kaart te doen kopen, en daar lijken ze nog in te slagen ook. Gelukkig heeft Intel Havok in handen en zijn ze zwaar bezig aan techdemos die voor eens en altijd zullen bewijzen dat fysische berekeningen wel thuishoren op de CPU...
De dev's bepalen de PhysX last.
En GPU kunnen makkelijk 10 40 shaders missen voor stuk meer PhysX.
En dit zal ook af te stemmen zijn op midrange hardware.

Dus zoals je nu games speeld op verschillende GFX settings doe je dat met verschillende PhysX setting. Afhankelijk wat je voor hardware hebt.
En omdat CPU nog steed mainstream is zal dat als default genomen worden in game design. Dus ze kunnen het nog niet te gek maken. Tenzij het optioneel is.
"'vloeistofeffecten', ook bekend als smoothed particle hydrodynamics."

Vloeistofsimulatie hoeft niet per se via SPH te gaan, je kan ook (zoals bijvoorbeeld in Blender gebruikt word) gebruik maken van "lattice boltzmann methods" (LBM), die ipv het oplossen van navier-stokes vergelijkingen voor iedere particle, bhatnagar-gross-crook berekeningen loslaat op de vloeistof. Ook heb je normale grid-based vloeistoftechnieken, welke vaak een stuk simpeler zijn dan LBM of SPH.

Voor een computerspel lijkt mij SPH wel toepasselijk, maar dan alleen in combinatie met een a priori aanpak (welke je in spellen sowieso nauwelijks tegenkomt)
1 je ziet het niet.
2 het ksot veel meer performance
3 het klinkt cool


dus nvidia wil dit.

vergeet het feit dat ze 3-4 keer zoveel hadden kunnen berekenen op de normale manier maarja...
Zeker onder windows xp getest.
Volgens mij kan windows vista geen verschillende kaarten aansturen.
(wel sli of crossfire kaarten)

Anders kon je een nvidia kaart gebruiken voor physx en een ati als vga kaart.
(werk geloof ik wel onder windows xp)
Vista kan verschilende kaarten aansturen. Zolang ze maar dezelfde driver gebruiken. Je kan dus wel een GTX280 en een 9600GT gebruiken.

Echter je kan niet een ATI kaart en een Nvidia combineren.

In Windows 7 zal dit weer werken.
Zou je daarvoor niet een Nvidia Driver op de VGA kaart geinstalleerd moeten hebben die de andere kaart als Physx kaart herkent?
Ik heb de Nvidia physics demos gezien en petje af hoor, geweldig.
Dit was 1 van redenen om voor NV te gaan en het stelt niet teleur.
Na menig next gen ATI kaart getest te hebben, ben ik er van overtuigd dat NV het beste is, ook al zeggen de cijfertjes soms wat anders. Het gamed gewoon beter, straks met physics erbij nog mooier.
Niet dat ik pro-Ati ben (meerdere PC's in huis en een 50/50 verhouding), maar dit vind ik wel erg kort door de bocht. Ondanks dat sommige benchmarks dus anders vertellen, ben jij van mening dat een nVidia beter gamed.

Beetje tunnelvisie gok ik, benchmarks zeggen namelijk genoeg lijkt me. Ik denk dat beiden merken zo hun pro's en cons hebben, een 4850 of 4870 schopt menig nVidia kaart de tafel af namelijk.
Heel kort door de bocht.
Dat nV het goed doet in PhysX is omdat het van nV is. En voor middle ware owned door hardware is een slecht ding voor concurentie.
Zie het zo HSML ondersteund SM4.x shaders. Maar ze gebruiken Cuda nV specifiek.

Die heersende Gkaart voor renderen is de HD4800x2.
PhysX gebruikt nV shaders. Maximaal 933Gflops voor GTX280.
HD4800x2 heeft 2 GPU met elk 1200Gflops aan shader power.
2,5x zoveel als nV.
De 4850 heeft al 1000GFlops.

Zou mij niet verbazen dat ATI beter in PhysX zou zijn. HavokFX zou dat kunnen laten zien. Maar helaas.

Als nV OpenCL gaat toepassen komt dat misschien wel.

Misschien dat nV in hun nextgen ook de shader ratio omhoog blazen.
Die 1000 en 1200Gflops zijn een mooi theoretisch maximum ja, maar in real life situaties nagenoeg onhaalbaar door het design van hun chip.
Eigenlijk is het maar een 160 pipes chip waarbij iedere "pipe" 5 shaders kan uitvoeren.

Dus ja als men ongelofelijk efficient zou kunnen programmeren kan ATI goed zijn in physics maar als je gaat kijken naar programma's als folding@home en dergelijke dan zie je dat het potentieel van de 4800 serie uiterst moeilijk te benutten is en dat nvidia door hun simpelere design gewoon continu die 933Gflops ter beschikking heeft.
Van de hacks waren er ook resultaten bekend en ATI liep goed.
Maar dan nog het evrschil met CPU is zo groot . Dat nV iets minder presteerd is niet zo'n probleem. Maar dat ATI niet ondersteund wordt en dat 1/4 1/3 van de performance haald is erg ongewenst.

Niet alleen maar voor ATI.
Maar dit houd in dat CPU nog steeds d Mainstream default target paltform blijft.
En elke nV PhysX poging beperkt is tot optionele features.
Dit houd zwaar gameplay Physics gebruik tegen. Terwijl effect Physics geen probleem zijn. Daar kunnen ze ver mee gaan.

De reden dat pjhysX games zo tegen vallen.
Zodra ATI meegepakt owrdt en ondertussen DX10 mainstream is. Dan kunnen developers PhysX GPGPU als default target gebruiken. En daar de overige CPU task wat rijker CPU resources verdelen. zoals AI.
Wat een flut test. 1 game. En waarom meerdere radeon kaarten testen ? je weet dat nVidia cuda niet zo maar vrij geeft en ATi dus geen Physics kan en dus cpu bound zal zijn.

Ik vraag me echt af of dat Physics wel van de grond komt. De meeste games maken gebruik van Havoc cpu physix acceleration.

Ik ben benieuwd wat hier mee gaat gebeuren in de toekomst. Maar tot nu toe is er weinig meerwaarde.

[Reactie gewijzigd door Astennu op 17 december 2008 21:28]

Wat ik mis, is dat een PCI-Express x1 ASUS PhysX kaart niet is meegenomen in de test. Zo'n kaartje kan je al vanaf $50 kopen, en kan dan de uitkomst wezen voor AMD/ATi videokaart gebruikers.

De CrossFireX HybridPower implementatie van 780G chipset forceerde mij om voor een AMD/ATi HD4670 videokaart te gaan. Anders moet ik een nieuw GeForce 8200 moederbord kopen om SLi HybridPower te laten werken met een nVidia kaart (en tevens nog erg slecht dat nVidia het nog steeds niet werkend heeft voor het Intel CPU platform, nu er eindelijk GeForce 9300/9400 moederborden te koop zijn).

Maar goed, CrossFireX HybridPower werkt uitstekend, maar zorgt er dus voor dat PhysX geen optie is op dit moment, maar kan wel zo'n ASUS uitbreidingskaartje kopen. Alleen wil ik dan wel graag weten wat het prestatie verschil is.

Het zou namelijk mooi zijn als je een nVidia videokaart naast een AMD/ATi videokaart kan plaatsen, die dan puur als PhysX kaart wordt gebruikt, zeker omdat het in Windows 7 mogelijk zal zijn om meer dan n videokaart driver te gebruiken, waardoor het eventueel mogelijk zal zijn om een AMD/ATi en nVidia videokaart samen te laten werken als n geheel.

Een MSI 9600GT kan je al kopen voor $69.99 (na Mail-In-Rebate, met gratis verzendkosten), en is dan meteen een goede kaart om een directe vergelijking te doen met een dedicated ASUS PhysX kaart.

Zeer jammer dat ze dus geen testen hebben gedaan om een vergelijking op die manier te doen.
Een MSI 9600GT kan je al kopen voor $69.99 (na Mail-In-Rebate, met gratis verzendkosten), en is dan meteen een goede kaart om een directe vergelijking te doen met een dedicated ASUS PhysX kaart.
Voor zover ik weet verstuurd NEWEGG niet naar Nederland
Wat ik mis, is dat een PCI-Express x1 ASUS PhysX kaart niet is meegenomen in de test. Zo'n kaartje kan je al vanaf $50 kopen, en kan dan de uitkomst wezen voor AMD/ATi videokaart gebruikers.
Unfortunately it also appears that the techdemo lacks support for AGEIA’s PPU PhysX card as well. While we could clearly see our BFG PhysX card was working in the PhysX control panel, the PPU-based techdemo ran at the same frame rate as CPU-based software PhysX rendering. Hopefully this will get cleared up in time for the game’s retail release.
Blijkbaar heeft de demo geen ondersteuning voor de PPU kaarten.
Als ik me niet vergis, heeft Nvidia zelfs al eens aangegeven dat het ook voor ATi kaarten beschikbaar gaat komen.
Dat moet ook wel, want geen enkele gamedesigner gaat code gebruiken die alleen met een speelbare framerate draait op pc's met een nvidia kaart..
Ze kunnen de games wel grafisch mooier maken voor Nvidia kaarten. Echter dit ligt net aan hoeveel geld/tijd de implementatie hiervan kost.
En dan krijg je straks games die 100% draaien met Nvidia kaarten en maar 80% als je een ati kaart hebt. dan komt ati ook met zijn standaard en dan krijg je games die alleen volledig op ati werken of op Nvidia . daar worden we vrolijk van :P

[Reactie gewijzigd door hellfighter87 op 18 december 2008 08:46]

Zolang Physx nog experimenteel en niet universeel is kan het al wel volop voor niet gameplay beinvloedende grafishe fluff gebruikt worden.

Je schiet een raam stuk;
Als Physx aan staat, valt het glas in duizend stukken uiteen, all over the place.
Als Physx uit staat dan krijg je een of ander prerendered effect, of maar 6 stukken glas ofzo.
De game zonder Physx is net zo fijn te spelen, maar ziet er alleen minder geil uit.

Zodra Physx meer volwassen is en doorgedrongen tot de oudere computers kan het op grote schaal voor gameplay elementen gebruikt worden,
Zolang Physx nog experimenteel en niet universeel is kan het al wel volop voor niet gameplay beinvloedende grafishe fluff gebruikt worden.
Gezien de CPU veel meer cycles overhoudt omdat physics door de GPU afgehandeld wordt, kunnen wel degelijk zaken als AI e.d. (die ook CPU time kosten) sterk verbeterd worden. Dat de directe/primaire impact "slechts" de graphics betreft wil niet zeggen dat dit secundair geen impact gaat hebben op andere - gameplaygerelateerde - zaken.

Het verschil met Ageia in het verleden was dat je er toen een proprietaire kaart voor nodig had, en er waren gewoonweg te weinig mensen die die aanschaften om het echt aantrekkelijk te maken voor dev's om te implementeren. Dat plaatje is behoorlijk veranderd nu elke GF8 GPU tevens physics-accelerator is. Nog afgezien van de kosten die Ageia rekende voor de SDK, en het verschil in invloed op developpers bij nV vs Ageia.

Je noemt het wel "niet gameplay beinvloedende grafishe fluff" maar de eindgebruiker wil mooier/beter tegen goede performance, en kiest uiteindelijk voor een platform dat dit biedt ;)
Ja ander onder gewaardeerde vergeten task krijgen meer CPU cycle beschikbaar.
Als je dynamische omgevingen hebt waar door physX destructie of geschuif, doorgangen open of dicht komen te zitten. Vereist ook 'n dynamische aanpak van Path AI. Die wordt dan complexer en moet on the fly gegenereerd worden. Dus niet pre compute.

'n Developer kan hier dus de mist in gaan. je hebt dan een hogere level of AI expetise nodig in het team. Als destructable enviorment witl doen waar debri blijft liggen. en bijvoorbeeld ook voertuigen erin hebt. JTF had mooie destructieve trailers maar de game zelf was statish.
Het zou ook handig zijn als ze op toekomstige moederborden ondersteuning bieden dat je een oudere generatie videokaart bijvoorbeeld voor de physx kunt gebruiken en daarnaast een nieuwe erin kunt prikken voor de grafische aspecten. Zeg maar net als een Ageia Physx kaart.

Bijvoorbeeld mijn oude 8800GTX voor de physx en mijn 280GTX voor het beeld.
Hellfire. Dat is al met de render GPU oorlog tussen nV en ATI.
tWIMTBP en GiTG kunnen al aardig verschillen veroorzaken.
PhysX is juist nog extremer. ATI gaat daar helemaal de boot in.
Met 'n kwart of eenderde performance of nV gaat er met 200% er overheen.
Dat is niet niks. En ook voor dev's die moeten hier duidelijk mee rekening houden.
Ook zie je dat de krachtigste CPU 965 is maar 20% sneller dan 920. Het ook niet trekt. En aTI daarmee samen de boot mee in gaan.

Met mindere CPU is het nog extremer.
Beide partijen zullen support voor OpenCL implementeren/integreren via hun eigen 'proprietary' SDK: AMD middels de Stream SDK en nV middels CUDA. In feite liggen Stream&CUDA dus in het verlengde van OpenCL. Blijft wel nog een feit dat onder OpenCL nog geen GPU physics acceleration standaarden zijn gedefinieerd, laat staan geimplementeerd.

Ik ben benieuwd of er een OpenCL implementatie van PhysX gaat komen. Het zou niet al te moeilijk moeten zijn om wanneer de CUDA SDK support biedt voor OpenCL de PhysX>Cuda calls te 'vertalen'. In principe zou het daarna ook gewoon moeten runnen op ATi hardware...

Misschien dat dat de oplossing is, gezien AMD/ATi weigert rechtstreeks gebruik te maken van CUDA/PhysX. Dit is ze wel aangeboden door nV, maar ligt vermoedelijk marketingwise nogal gevoelig. Een ATi videokaartdoos met een nVidia CUDA/PhysX label en certificatie ligt vermoedelijk niet zo lekker bij AMD/ATi ;)
Tja, als je EAX5 wilt moet je ook bij Creative zijn.
Tja, als je EAX5 wilt moet je ook bij Creative zijn.
Kan je tegenwoordig ook (softwarematig) bij de Asus Xonar krijgen. En hoeveel spellen maken hier nou nog gebruik van?
Ik denk dat hij het over de naam Nvidia heeft, dus geen werkwoord.

Het lijkt wel of mensen staan te popelen om anderen af te branden, negeer sommige stomme posts en tweakers komt heel wat vriendelijker over.

Naar beneden modden is al voldoende. ;)
Ik vraag me af of dit ook gaat werken met 1 nvidia en 1 ati kaart, ik heb namelijk nog een 7600GT liggen.
men heeft minstens een Geforce 8-reeks nodig om die PhysX erop te laten werken, aangezien de vroegere kaarten geen CUDA ondersteunen.

[Reactie gewijzigd door 188785 op 17 december 2008 23:02]

100% waar waarom: vista laat maar 1 display driver toe die actief geladen is.
tuurlijk is er nog geen meerwaarde er zijn nog complete physics games.
ik kan niet wachten op de 1ste :)
En anders wordt het wel wat onder de OpenCL vlag. Dat komt dadelijk in OSX 10.6, en aangezien Apple wel vaker nieuwe technieken katalyseert, zal dat met OpenCL ook gebeuren. Heet het alleen geen Physics meer.
Ik durf ook te wedden dat OpenCL straks iets gaat doen voor physics, ongetwijfeld.

Vooral aangezien zowel 'Snow' Leopard als Windows 7 OpenCL zullen gaan ondersteunen.
De meeste games zullen zich eerder richten op winPC. nVPhysX ook.
OpenCL is Crossplatform. nV gaat dat ook ondersteunen net als ATI/AMD
Maar of ATI later ook PhysX door OpenCL GPU laat gebruiken is maar de vraag.

Apple is al helemaal niet game markt gericht bezig.
Nou, met de iPhone hebben ze al een flinke hap gamesmarkt genomen. Die staan zo gelijk met de Nintendo DS qua spelverkoop.
Wat past er niet in het rijtjes thuis
WinPC MAC LinuxPC Xbox360 PS3 iPhone.
WinPC MAC LinuxPC Xbox360 PS3 DS.
WinPC MAC LinuxPC Xbox360 PS3 PSP
WinPC MAC LinuxPC Xbox360 PS3 Wii

Zelfs de Wii is een vreemde eend. Bediend een markt opzich. Vultm dus een gat in de markt.
Platformen waar Hardcore gamers kunnen vertoeven en meer gemeen hebben dan niet.
Mac is in die Game markt een van de minst interresantste voor publishers.
Haha ik denk niet dat dat snel zou gebeuren

oke de iphone kan leuke games draaien, maar als nog de iphone is een PHONE en de ds is puur voor het gamen.

Denk ook niet dat veel mensen een iphone alleen voor het gamen zullen kopen
Onzin dat 'de meeste games' havoc gebruiken.. er zijn veel spellen die havoc gebruiken ja, maar inmiddels ook erg veel die Aegis PhysX (nu dus nvidia) gebruiken, en ook genoeg die andere opensource physicengines gebruiken..
Wat een flut test. 1 game. En waarom meerdere radeon kaarten testen ? je weet dat nVidia cuda niet zo maar vrij geeft en ATi dus geen Physics kan en dus cpu bound zal zijn.
Da's waarschijnlijk om na te kunnen gaan in hoeverre de physics en physicsaccelleratie van invloed is op de frameraten, en/of of er ook verschillen buiten de physicsaccelleratie zit tussen de twee videokaarten.
Ik vraag me echt af of dat Physics wel van de grond komt. De meeste games maken gebruik van Havoc cpu physix acceleration.
Valt wel mee, volgens Havok's eigen site zijn er 150 games (huidige en toekomstige) die van Havok gebruik maken, en een goeie 80 maken gebruik van PhysX. bron PhysX, bron Havok. En als nVidia accelleratie goed werkt, zal het aanbod van spellen die PhysX gebruiken snel stijgen, lijkt mij.
Ik ben benieuwd wat hier mee gaat gebeuren in de toekomst. Maar tot nu toe is er weinig meerwaarde.
Welles! :).

[Reactie gewijzigd door YopY op 17 december 2008 22:49]

Tja men moet ook verwachte zaken toch even checken.
'n 9500GT was te zwak
En een GPU die GPU en cPU ontlast is nog beter.

Ze hadden nog meer willen testen maar geen tijd.
SLI PhysX o.a.
Huh begrijp ik dat nou goed? Je zou dan 2 videokaarten in je systeem moeten prikken, Een 9600GT EN een 8800GT (als je tenminste die performance boost wil)? En je moet dan iets instellen dat je de 9600GT als Physx-kaart wil gebruiken?

[Reactie gewijzigd door Blue-Tweaker op 17 december 2008 21:28]

je kan in principe alles combineren. (vanaf de GeForce 8-series)
maar het is verstandig om de zwakste kaart als dedicated physx accelerator in te stellen.
een 9600GT voldoet al volgens de test, waardoor je het echte zwaardere grafische werk door een betere GPU kan laten doen.

[Reactie gewijzigd door un1ty op 17 december 2008 21:32]

Voldoet voor deze tech demo. Elke nV PhysX game zal zijn eigen physX eisen hebben.
Devs kunnen kiezen van idle igp tot dedicated derde GTX280. Al zal dat laze erg zeldzaam zijn. Maar zie het zo van 8 tot 64 shaders.
By dat laalste wordt renderen bij een 8800 gereduceerd tot 8600 with mucho PhysX.

Mogelijk dat games effect Physics detail optioneel kunnen opschreoven. PArticle density en size in Fluid en smoke physics.
Dat hoeft niet je kan een GPU ook de physics laten opknappen en te gelijk de beelden laten renderen. Dit gaat natuurlijk wel ten koste van de frames per seconde. Daarvoor kun je dus een tweede 'trage' kaart gebruiken om je high end kaart niet te belasten met dit. In feite gebruik je dan die ene kaart als physics kaart. Die dingen waren ook kort op de markt maar braken nooit echt door naar mijn idee. Was ook begrijpelijk gezien ze erg duur waren en een veel goedkopere GPU ook in staat bleek te zijn het te kunnen.
Je praat wel over 'n tijd bestek van 2,5 jaar.

PPU van
5-'2006 $300 ->12-'2008 $60. Hier 230 - 130.
G80GTS320/640 G80GTX G80U 300tot 750
jaar later G92 Toen werd het goedkoper.
Jaar later GT200 toen werd het duur de nieuwe. Maar G92A/B lekker goedkoper
4800 series nV hele boven nV lijn goedkoper.

Nu zjn vergelijkbare GPU goedkoper. Maar ja geen 80nm retail versie.
Ook geen PP2. Daar hebben we dus nu G92B en GT200 voor.
Huh begrijp ik dat nou goed? Je zou dan 2 videokaarten in je systeem moeten prikken, Een 9600GT EN een 8800GT (als je tenminste die performance boost wil)? En je moet dan iets instellen dat je de 9600GT als Physx-kaart wil gebruiken?
Nee. Je kunt een extra kaart in je systeem prikken om die de physics af te laten handelen. Je kunt er ook voor kiezen om gewoon n kaart te kopen en die de graphics n de physics af te laten handelen, en je kunt er voor kiezen om de CPU het physics werk te laten doen.

Je krijgt er met dit systeem dus alleen maar keuzemogelijkheden bij, en dat valt alleen maar aan te moedigen in mijn ogen!
Tja, 2 verschillende grafische kaarten van NVIDIA gaat op het moment niet, maar dan volgens dit bericht dus wel door de ene aan de physics te laten werken. Maar dit is nog niet vrijgegeven qua applicatie.
Dus zou ik het voorlopig even niet doen, 2 verschillende kaarten kopen...

Echter kan dit wel helemaal bij ati, daar kan je gewoon vanalles mixen en dan splitst een applicatie het scherm op in delen ( Hangt af van de vele methoden ) en laat dan de ene videokaart die gebieden renderen, en de andere videokaart zorgt voor de rest.

Edit :

Hmm volgens un1ty toch wel vanaf de 8 serie. Heb ik nog nooit gezien, interessant.
Linkje misschien ?

[Reactie gewijzigd door BastiaanCM op 17 december 2008 21:37]

Dit is dus mogelijk vanaf driver 178.24. Toen hebben ze NVIDIA PhysX acceleration en CUDA eraan toegevoegd en word ook de 'NVIDIA PhysX System Software v8.09.04' geinstalleerd bij kaarten hoger dan een 8 series.

Link

Beide kaarten lopen dus niet in SLI maar de mindere van de 2 word gebruikt als physx-card. Prima voor de mensen zoals ik die een 8800GTX hebben vervangen met een GTX260/280. Passieve cooler op de 8800GTX, downclocken en laat maar draaien. Anders ligt die ouwe troep toch maar stof te happen op de zolder.

[Reactie gewijzigd door ThemNuts op 17 december 2008 22:29]

Hybrid sli nog niet van gehoord zeker???
ik heb hier al is SLI gedraaid met een 9600 GT en een 9800 GT dus ik zie het probleem niet?
Dat kan bij ATI ook niet, je kan bij ATI wel dezelfde chips in crossfire draaien, dus een HD4850 en HD4870. Want die zijn allebei op de RV770 gebaseerd.

Maar wil je een Hd4850 combineren met een HD4670 dan werkt dit niet omdat die gebaseerd zijn op andere chips ;)
Met CrossFireX kan dat tegenwoordig wel degelijk. ;) Met de eerste variant CrossFire kon dat inderdaad nog niet.
SLi kan dat sinds een tijdje al, en bij ATi is heet het CrossFireX ;)
Je hebt helemaal gelijk dat je 2 kaarten kan installeren.

Maar ja, wil jij je GTX 280 op dezelfde snelheid laten lopen als een 6600 GT ?
SLI is zeker niet zo efficient als CrossFire bij verschillende kaarten, bij SLI zal de slome kaart de sterke zwaar vertragen.

Een simpele google geeft al een Heleboel nee`s bij de vraag "Sli Different Cards" maar bij enkele links zul je vinden dat je sterkste kaart vertraagd zal worden. Bij de techniek om je slome kaart dus alleen je physics te laten doen, lijkt het toch weer een verbetering te worden.

Dus, gewoon die driver 178.24 of erboven installeren en je oude videokaart gebruiken al PhysX-kaart.

[Reactie gewijzigd door BastiaanCM op 17 december 2008 23:45]

Wat betekent dit voor mij met mijn HD4870 512mb?
Ik heb nooit begrepen of ik de standard drivers ook gebruik maak van Physx op de grafische kaart.
op dit moment kan het niet.
maar ATI bied ook ondersteuning voor berekeningen op de GPU in het afgemeen dus zolang nvidia niet te moeilijk doet met de licenties kan ATI ook ondersteuning bieden voor physics... en anders kunnen ze intel's havoc gaan ondersteunen op hun GPU's... hopelijk via openCL dan kan het gelijk ook werken op een Nvidia GPU.
Dat kan niet omdat nV hun eigen shader ontwikkel programmeer omgeving gebruikt
Cuda. C Cg like compiler wat low level libs en omgeving. Die is puur gericht op nV SM4.0 shaders.

Ook heeft nV blijk gegeven dat ze wel ATI ook mee willen pakken in de strijd tegen de CPU. Ci7 loopt nog steed erg achter, maar niet zo extreem. Maar Larrabee kan daar verandering in brengen. nV heeft actief de ATI wrapper hacker ondersteund. Maar ATI koos liever voor Havok. iNtel dus.

Omdat AMD ATI ook OpenCL ondersteund. Behoordt OpenCL software dat te kunnen gebruiken. En als nV physX OpenCL compatible maakt. 'n OpenCL path naast cuda of Cuda daarvoor vervangen.

[Reactie gewijzigd door SG op 18 december 2008 14:44]

Ik hoop wel dat stel dat ze Havoc gaan nemen, of misschien hun eigen maken (waarom zouden alleen Intel en Nvidia het kunnen), dan hoop ik wel dat er op een of andere manier ook Physx spellen op kunnen draaien.
Anders doet alsnog mijn processor al het werk.
OpenCL ja of nee maakt mij denk ik niet overdreven veel uit, hoewel een makkelijk toeganbare manier wel handig is voor een grote ondersteuning.
Dat is voor mij ook zeker een pluspunt.
Zolang mijn spelletjes maar vlot werken :Y)
En maar afvragen waarom mensen geen zin hebben om tijd en geld te besteden aan PC gaming. Nauwelijks speelbaar tenzij je een Nvidia kaart hebt. Wat is dit toch ontiegelijk dom. Wat mij betreft mag de PC-games markt compleet instorten. Door gierige bedrijven als Nvidia valt er toch geen lol meer aan te beleven.
Je kunt wel lekker ongefundeerd gaan lopen schreeuwen, maar Nvidia werkt wat betreft de CUDA drivers (verantwoordelijk voor de afhandeling van natuurkundige berekeningen op gpu's) samen met ATi om het ook voor Radeon kaarten geschikt te maken.

Als je even bij de gerelateerde artikelen had gekeken was je dit artikel op Tweakers.net tegengekomen: nieuws: Nvidia ondersteunt PhysX-project voor Radeon-kaarten
Er zijn anders echt een hoop spellen te spelen met een goede Radeon kaart hoor.
Tot nu toe alle spellen, en dan heb je nog geen eens Crossfire nodig.
Dit is puur bedrog. Op mijn Core i7 wordt met PhysX in CPU-modus slechts n core gebruikt.

De prestaties van software PhysX zouden dus vele malen hoger kunnen liggen. Beter zelfs, het zou de GPU ontlasten waardoor je veel snellere graphics kan krijgen.
Ik heb een Radeon HD4870 512mb versie (eerste versie die in NL was)

Met deze kaart draai ik crysis alles op very high met 8x AA en dan heb ik ongeveer 30 FPS.

De kaart is NIET overgeclocked...

Waar dat jij iets fout doet met je HD4850 weet ik ook niet, maar Crysis is ook geen game voor goede vergelijking...

Crysis is ontwikkeld voor videokaarten die toen nog niet uit waren, vandoor dat deze engine totaal niet optimaal benut wordt door geen enkele kaart...

Waarom jij zegt, dat je een Nvidia kaart gaat hale wanneer het financieel weer toelaatbaar is snapk ook niet, want je zegt zelf dat het probleem de processor is.

Ga je dan een Nvidia kaart halen en laat je die processor (bottleneck) zoals het nu is... Ik zou toch echt eerst overwegen om die processor Bottleneck uit de weg te ruimen...

Verder zie ik jou niets getyped hebben over het besturingssysteem wat jij operationeel hebt, ook dit maakt veel uit in het optimaal proberen te spelen van een game...

Ik hoop dat je hier iets aan hebt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True