Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

Nvidia-topman Jen-Hsen Huang heeft bevestigd dat alle videokaarten uit de Geforce 8-serie via software geschikt gemaakt kunnen worden voor hardwareversnelling van Physx-games.

nVidia GeForce-logoDit zei Jen-Hsen Huang, hoofd van Nvidia, tijdens de vragenronde na afloop van de presentatie van de bedrijfsresultaten van het vierde kwartaal. Huang verwacht dat de combinatie van de Physx-engine en het Cuda-platform gunstig is voor de verkoop van zijn videokaarten: elke Geforce 8-kaart heeft immers ondersteuning voor Cuda en kan daarom games met Physx-ondersteuning sneller verwerken. Daarnaast denkt Huang dat gamers eerder een betere videokaart of een extra exemplaar voor een sli-opstelling zullen aanschaffen, zodat een van de videokaarten voor de physics kan zorgen.

Na de bekendmaking van de overname van Ageia door Nvidia werd al gespeculeerd over 'Geforce-accelerated Physx', maar nu is het hoge woord er officieel uit. Met de grote hoeveelheid Geforce 8-videokaarten in omloop zullen gameontwikkelaars er makkelijker toe overgaan om Physx-ondersteuning in hun games te gebruiken. AMD zal waarschijnlijk eveneens haast gaan maken om hardware-acceleratie van de Havok-software op zijn videokaarten mogelijk te maken. Havok is momenteel marktleider op het gebied van physics-engines.

Moderatie-faq Wijzig weergave

Reacties (58)

denk eigenlijk zelf dat het veel interestanter zou zijn om de IGP physics te laten doen en je normale vid kaart de gfx.
een beetje vidkaart heeft VEEL te veel rekenkracht voor physics, dan kunnen ze veel meer particals en objects bijhouden dan een videokaart ooit zou kunnen renderen op het scherm.
maar de nieuwe generatie IGP's zouden er krachtig genoeg voor moeten zijn, en dat zonder gelijk weer zo'n 100 watt of meer extra te verstoken.

ATI's videokaarten in de 2x00 en de 3x00 serie kunnen trouwens ook physics berekenen, dat kan namelijk altijd met dx10 shader units. en als ze er seti op kunnen laten draaien moet dit ook wel lukken.

[Reactie gewijzigd door Countess op 15 februari 2008 17:25]

Het probleem met SLI/Crossfire is bandbreedte. Het gebruiken van de IGP, als die uberhaubt wel aanwezig is, voor de physics is een mooi concept, maar je mist de bandbreedte om alle vertex data twee keer per frame over de PCI-E connector te verplaatsen. Stel dat je 100 MB aan vertex data hebt, dan kun je die maar ongeveer 20 keer per seconde heen en weer over de PCI-E connector sturen onder ideale omstandigheden. En dan komt er ook nog de tijd bij die de IGP vereist om de data te verwerken, plus andere transacties die op de PCI-E connector moeten worden gedaan.
Bandbreedte kan in sommige gevallen misschien wel een probleem zijn, maar jouw data is compleet uit de lucht gegrepen:
- een zeer groot deel van de vertex data zit in de frame buffer, niet in systeem memory. Het hoeft dus helemaal niet door de PCIe bus gepompt worden. In het twijfelachtige geval dat alle vertex data toch in systeem memory zou steken, dan verdient de programmeur dood met de virtuele kogel wegens verregaande incompetentie.
- 100MB is een belachelijk getal. Als je met triangle strips werkt, komt dat min of meer uit op 20 miljoen triangles per frame, aan 20 frames per seconde, 400 miljoen triangles per seconde. Dat is ver boven de 250M triangles/s die een 8800GTX aan kan.
Alle vertex data die snel gerendered moet worden zit in een vertex buffer. Onder normale omstandigheden is deze vertex buffer in het RAM van de grafische kaart geplaatst. Als je het dan naar een ander component wilt verplaatsen, zal het toch echt door de PCI-E connector moeten worden verplaatst, en die zit aan een limiet van 4 GB/s gebonden.
Zelfs al is het 5 MB, dan kun je als nog maar ongeveer 50 FPS renderen met alle physics-berekingen erbij, aangezien IGPs niet bepaald snel zijn, en dan komen daar ook nog eens de grafische berekingen bij opgeteld.
Die vertex data zit in de vertex buffer van beide GPU's. Het zou uitermate dom zijn omdat niet te doen en het is precies om die reden dat het geen zin heeft om een 2x512MB opstelling gelijk te stellen met 1x1GB.
Devs gaan 'n instelbare Physics load implementeren.

Van mainstream CPU DUal core tot Guad core.
Van IGP en budged GPU tot de High-end X2

Dus je kan dan kieze geen fluids of particle zo groot als een handball of zo groot als 'n knikker.
De grote vraag is of game developers hier echt mee gaan werken. Deze techniek is alleen in huis bij Nvidia en daarom zullen ati en andere graka makers buiten de boot vallen. Tegenwoordig worden in de games veelal abstractielagen gemaakt op basis van opengl 2.0 waarmee ook met weinig inspanning physics berekend kunnen worden. Dit draait dan ook meteen op alle oudere kaarten. Ik vraag me trouwens af wat dit verbeterd ten opzichte van open source physics engines zoals akamaru.
Het is juist de bedoeling dat anderen buiten de boot vallen... ;)

nVidia pompt al jaren geld in game devving/ ontwikkeling met het TWIMTBP programma, dus reken er maar op dat nVidia er voor zorgt (door game devs een zak met geld toe te stoppen) dat dit wel gebruikt gaat worden. Vooral voor de marketing en reklame en dus verkoop.

Zoals ATi/AMD ook doet met DX10.1.

[Reactie gewijzigd door Format-C op 15 februari 2008 17:30]

TWIMTBP is ondersteuning, geen geld. Fabeltje dat de wereld rondgaat.
TWIMTBP is zeker geld toestoppen als in een hele devisie betaald om te lobbyen tussen nV en dev's. Gezien het werknemers zijn kosten ze geld. Gezien het ook 'n grote afdeling is. Aardig wat geld.
Paar man per grote dev s studio.
Oh, ik heb geen flauw idee hoe het zet met de DX roadmap, maar het zou me niet verbazen als physics binnen DX gaan vallen. Als dat een beetje netjes gedaan wordt kunnen zowel ATI als nVidia als whatever hardware accelerated physics ondersteunen, dus dan maakt het niet meer uit. Maar ze hebben nu eerst even een voorsprong (hopelijk tijdelijk).
Physics gaan inderdaad binnen DirectX vallen. Maar volgens mij duurt het nog tot DX11 voordat het volkomen gemeengoed is.
Het gevaar in deze dreigt wel dat we afhankelijk worden van een merk, het lijkt me sterk dat ze Ageia in licentie geven aan ATi en Intel. Dus games worden straks exclusief gecode op de Nvidia kaarten, lijkt me zeer onwenselijk aangezien ik toch wel wat vrijheid verkies tussen de merken.

Overigens kan het ook juist een downfall teweegbrengen voor Nvidia en met de nieuwe platvormen die op komst zijn van ATi en Intel kunnen ze wel eens links gelegen laten worden. En het lijkt me sterk dat gamedevelopers voor nog meer verschillende systemen willen gaan coden. Een game voor een console en de PC is vaak al een crime, laat staan als dat er straks meer worden, buiten de PS# en de Wii om.

Persoonlijk vind ik Nvidia een arrogante stap maken en feitelijk had de hele Ageia verkoop niet door moeten gaan. Ageia had zich beter moeten orienteren en kijken naar oplossingen door een PPU te plaatsen op een graka voor alle drie de merken, dat was beter voor de game devlopers en de consument geweest. Word een interessante ontwikkeling want dit kan moeilijk stand houden, zeker omdat de meeste wel weten dat we prijs technisch erop achteruit gaan als 1 merk de markt gaat domineren.
Wat is er arrogant aan het opkopen van een bedrijf dat de facto failliet was? Ageia was aan het einde van zijn latijn: geen geld meer, geen hond die hun hardware kocht en een API die ze gratis weggeven.
Je geeft eigenlijk al aan dat Nvidia haar aandeel alleen maar vergroot door Ageia over te nemen. Ati zou dit ook gedaan kunnen hebben, maar hebben dit klaarblijkelijk niet gedaan.
Overigens staat me ook nog een artikel bij van dat een PPU weinig meerwaarde zou betekenen voor een systeem omdat de rekenkracht van de laatste generatie videokaarten zo groot is dat de PPU weinig meerwaarde bied.
Interessante ontwikkeling, ik begin er bijna een klein beetje spijt van te krijgen dat ik mijn 8600GT van de hand gedaan heb op het moment dat ik mijn 8800GTX binnenkreeg.

Voor physics is toch nog nét even wat minder GPU power nodig dan voor het renderen van 't beeld zelfs, dus een 8600GT zal waarschijnlijk een perfect P-SLI (physics SLI :P) aanvulling zijn op een setup met een high-end 8800.

Ik heb cellfactor ooit eens gespeeld op een Physx enabled systeem en dat is toch echt wel indrukwekkend hoor :) De hoeveelheden particles die berekend kunnen worden en de collision detection maakten het een erg vermakelijke FPT (first person throwthings :P)
Kun je een 8600GT in SLI zetten met 8800GTX?

Ik denk sowieso dat die een voordeel is, maar aangezien tegenwoordig de videokaart de bottleneck is bij de meeste systemen, is het misschien verstandig zulke software voor physics voor de CPU te schrijven, of is er al iets als dat?
Alle games die niet geoptimaliseerd zijn voor Ageia hardware (of andere pysics-bouwers, hoewel ik er geen ken) doen de physics via de CPU.
Maar een dedicated chip, zoals die van Ageia, leent zich daar veel beter toe, een CPU is wat minder efficiënt voor physics
Ja daarom lijkt me het ook een beetje onzin, 1 extra thread voor physiscs (of een heleboel voor allerlij objecten, dat schaalt lekker) en je kan eindelijk je dual of quadcore goed gebruiken in games!
Lijkt mij eigenlijk ook. Met dual-cores is dat misschien nog neit optimaal, maar met een quadcore moet dat toch zeker lukken.
Physics zijn vaak gewoon geschikter voor een GPU (achtige structuur) dan voor een CPU. Dit komt omdat een CPU vrij weinig in parallel kan doen (ja zelfs een quad core). GPU's hebben een flink aantal stream processors (tientallen) die allemaal in parallel kunnen werken. Aangezien physics daarnaast over het algemeen berekeningen op krachten zijn, en krachten worden gerepresenteerd als vectoren (een richting en een grootte) en tenslotte GPU's helemaal geoptimaliseerd zijn voor het werken met vectoren, kun je je misschien wel voorstellen dat een GPU vele malen sneller is een CPU met het verwerken van physics.

Heb je al die power nou echt nodig? Een aantal voorbeelden: clothing simulation, fluid simulation (laatst zelf gemaakt voor een vak dat ik volg) en haar simulatie zijn dingen die je heel goed kunt doen op een GPU/physics kaart. Dit komt omdat hiervoor vaak particles gebruikt worden om daarmee een oppervlak (vloeistof kleding) of het haar te simuleren. Die particles oefenen allemaal krachten op elkaar uit, waardoor je de realistische beweging verkrijgt. Het aantal particles kan in de duizenden lopen voor één kledingstuk. Nu kun je misschien inzien dat dit op de CPU een vervelend klusje begint te worden en dat je er heel graag dedicated hardware (GPU of physics kaart) voor zou willen hebben! Kortom: physics is niet alleen zwaartekracht en collision detection. Het zijn vaak duizenden particles die krachten op elkaar uitoefenen en waarmee iets te simuleren valt.

Overigens: ik las in de eerste reactie "zolang WoW het niet ondersteunt...". Nu is het natuurlijk zo dat bijna niemand een GPU/physics kaart heeft waarop je echt goed physics kunt doen en WoW is typisch een game die door zoveel mogelijk mensen gespeeld moet worden. Voor dit spel geldt daarom nog meer dan voor andere spellen dat het pas zal komen als er goede ondersteuning is en als veel mensen de hardware hebben. Daarna zie ik voldoende potentieel (kleding en haar van characters, water, stoomwolken, lava, verzin het maar) voor die game om iedere physics kaart flink te laten kraken!
"of andere pysics-bouwers, hoewel ik er geen ken"

...Havok is nog steeds de meestgebruikte physics API op de markt. Dit is onder andere wat de Source engine zo succesvol heeft gemaakt.

Of heb je het alleen over physics hardware? In dat geval jah, ageia was de enige die zo stom was te denken dat ze zoiets konden verkopen -.-*
ja en na de koop van nvidia zijn ze ook echt blut met hun physx ..... :) ik wil wel ruilen van bankrekening :p
Nee je kan die nu nog niet in SLI zetten, maar misschien met P-SLI dus wel ;)
als die puur voor Physx is lijkt mij het dat dit niks met sli te maken heeft en je er gewoon een kaart bij kan prikken, kan je bij een upgrade je oude kaart laten zitten voor de Physx

misschien komen er wel speciale Physx kaarten met hoofdzakelijk stream-processors

[Reactie gewijzigd door gbh op 15 februari 2008 23:01]

Hier draaid ook 'n 8600GT.

Dit noemd men geen SLI.

Maar 1+1 of 2+1
1+1 is geen SLI maar GPU Physics.
Net als G-kaarten of beeldshermen afzonderlijk aansturen multimon dus
2+1 is SLI én PhysX.
1+2 is SLI PhysX
1/2 is Unfied physX 1GPU voor alles.

Omdat er 'n pletora aan SM4.0 GPU zijn.
Zal de Phsyics load ook vele load opties hebben en schaalbare instelingen. Sliders.

Dus wat genoeg is zullen de games en dus gamedev's bepalen. hever ze PhysX load van g8x series gaan belasten.

Aan warmonger en Ageia island en Crysis kan je zien dat er nog meer Phsyx power goed gebruikt kan worden.

Net zoals renderen met
Highreso HDR FSAA motionblur depth of field bumpmaping. AF etc.
Will je Physics ook hele virtuele wereld wijd toepassen en ook alle objecten en ook alles Physics features zoals
Hair cloths matel sheets deformation destruction colission en balistics dust smoke en fluids en dat in een game op grote scahaal.
De PPU laat dus de tipje van de ijsberg zien.

'n 2TeraFlop kan je dus goed gebruiken voor renderen maar ook voor Physics
ik vraag me af of ik er dan een 8600 bij kan prikken voor de physics, maar wel de dvi poort kan gebruiken voor een monitor....
lijkt me ideaal, en ik vraag me af of dit dan ook gaat werken op een p35 chipset, of dat je een nforce chipset nodig hebt....
De nieuwste Hybrid SLi moederborden gaan dit ook ondersteunen, zodat het nog meer voordelen zal bieden, waarbij de onboard GPU het CUDA/Physx gedeelte draait en de PCI-Express videokaart de rest voor zijn rekening neemt.

AMD/ATi heeft in vorige persberichten laten weten geen nut in Physx op de GPU te zien, tenzij het via DirectX 11 kan worden aangesproken, dus die zal nu toevlucht tot Intel moeten zoeken om dan Havok ondersteuning te regelen.

In ieder geval goed nieuws voor de nVidia gebruikers, want door deze software oplossing is het gewoon een gratis extraatje voor GeForce Series 8+ kaarten. Ik vraag me wel af of het in te stellen is dat bij gebruik van één videokaart dat je bijvoorbeeld 20% voor CUDA reserveert en 80% voor het spel. Niet iedereen heeft SLi en de Hybrid moederborden zijn er nog niet.
Nvidia, maar ook Ati houdt ons pc-gamers weer eens van alles voor, maar
ondertussen zijn er nog steeds maar een handvol DX 10 games, en zijn de games die Ageia ondersteunen ook op een hand te tellen.

begrijp me niet verkeerd; ik vind het absoluut mooie ontwikkelingen SLI/ Crossfire met nog een 'oude'kaart die voor wat fysisch vuurwerk zorgt,
alleen als de ontwikkelaars de volgende DX boycotten en bij 9 blijven, waar het nu een sterk op lijkt, schiet de innovatie op hardware gebied ook niet echt op. En is het niet verkopen van je oudere videokaart op V&A net zo'n weggegooid geld als het nu aanschaffen van zo'n Ageia kaartje.

[Reactie gewijzigd door krakbracket op 15 februari 2008 23:38]

Welke developers boycotten DX10? Enkele voorbeelden misschien? Bij mijn weten ondersteunen zo goed als alle nieuwe games een DX10 mode.

Als het twee tot drie jaar duurt om een game te ontwikkelen, kan je niet verwachten dat iedereen plots overschakels en al helemaal niet dat DX9 zomaar gedumpt wordt: de overgrote meerderheid van bestaande PC's draait geen Vista.
Call of Duty 4, Infinty Ward.door veel reviewers, sites en magazines uitgeroepen tot game of 2007
orange box van Valve,
Supreme commander forged alliance, THQ

na alweer bijna een jaar met vista en dx10's verbluffende nieuwe features geconfronteerd te worden, zijn oa. deze grote drie ontwikkelaars nog steeds niet happig om over te schakelen.
en laten we het al helemaal niet hebben over Ageia; de enige grote titel is tot op heden nog steeds Ghost Recon advanced warfighter 1&2.
Ik denk dat een apparte physx kaart beter is, omdat die ervoor zijn geoptimaliseerd, voor het werk wat ze verrichten. Of heb ik dat mis? In ieder geval goed dat elke GeForce 8-grafische kaart het ondersteund. Alhoewel het voor een GeForce <8500 nutteloos is, of zie ik dat verkeerd?
Ik denk dat een apparte physx kaart beter is, omdat die ervoor zijn geoptimaliseerd, voor het werk wat ze verrichten. Of heb ik dat mis? In ieder geval goed dat elke GeForce 8-grafische kaart het ondersteund. Alhoewel het voor een GeForce <8500 nutteloos is, of zie ik dat verkeerd?
Alleen kun je met een aparte physics kaart verder helemaal niets...dan kun je beter een 2e gf8 kopen en die dedicated physics laten renderen dan een aparte physX kaart...als puntje bij paaltje komt dan kun jeal;tijd nog in SLI modus draaien ^_^
Hangt van je perspectief af. Of een aparte Physx kaart kan beter zijn, maar eveneens ook duurder en het kost je een slot. Waneer elke videokaart Physx-versnelling kijgt, gaat het je minder kosten omdat de afzet van de fabrikant groter is (en dus meestal lagere kosten) en je minder materiaal nodig hebt (hele kaart + bijkomende componenten). Nadeel is weer wel dat je Grafische kracht inruilt voor Physx.
slurpt die physx kaart niet veel minder dan een tweede 8x00?
De architektuur is natuurlijk specifiek ontwikkeld voor Phsyics.
Houd in masive parralelisatie. Local mem per node. En hoge interbandwidth. zodat elke node de anderenodes mem snel kennen berijken.
De archillles hiel van de cELL en GPU dus.
Maar PPU is maar 'n lichtgewicht implementatie van 125mil transistors op 130nm.
'n G80 met 680mil op 90nm en hogere kloks. bied meer performance

Als PhysX SDK bestaande PPU blijft supporten én gPU dan kan er voor het eerst gebenched worden op Physics gebied.

UT3 ageia lighthouse PPU vs nVGPU vs CPU
moet zeggen dat ik liever zie dat ze meer en beter gebruik gaan maken van multi(CPU-)core setups... Straks is je gloednieuwe quadcore (of binnenkort misschien zelfs octacore) in games volledig (neem dat met een korrel zout btw) overbodig omdat bijna alles op de GPU gedaan wordt...

In dat geval kunnen ze de naam GPU wel afschaffen en er een MPPU (multi-purpose processing unit of iets dergelijks) van maken, terwijl dat juist nu de functie van een CPU is in mijn beleving...
Uber cool, maar denk niet dat ik het verschil ga merken met mijn 8800GTS...
Tenminste niet zolang World of Warcraft het gaat ondersteunen, aan andere games kom ik toch niet meer toe.
Uber cool, maar denk niet dat ik het verschil ga merken met mijn 8800GTS...
Tenminste niet zolang World of Warcraft het gaat ondersteunen, aan andere games kom ik toch niet meer toe.
euh, world of warcraft maakt niet eens gebruik van physics?
Hij bedoeld; zolang WoW het níet ondersteund. Hij speelt alleen WoW, en daar het inderdaad geen gebruik maakt van uitgebreide physics denkt hij niet dat hij het nodig zal hebben.

ik ben het overigens niet eens met de -1 mod die de post heeft gekregen
...en dan is het ondertussen een budgetkaart geworden die die nieuwe zware games met heftige psysics toch kan spelen, op dit moment komen er trouwens meer en meer games uit die physics gebruiken dus ik denk zelf dat het wel nut heeft om hier naar te gaan kijken
Er zijn zat games die het ondersteunen, bijv. MoH:Airborne. En nog vele andere games van deze tijd die goed geschikt zijn voor een 8-serie kaart.
Nee, want bijna alle moderne games gebruiken inmiddels al physics. Je koopt geen 8800gts om WoW te spelen, dat is onzin.
Jaja, nog een videokaart kopen alleen voor physics? Het moet niet gekker worden.
Het voordeel dat geforce 8x kaarten nu ook physics kunnen doen is volgens mij ook niet zo groot want je hebt nogsteeds dezelfde power beschikbaar. Dit houd volgens mij in dat je graphics inruilt voor physics, ik weet nog niet of ik dat wel wil.
Het lijkt mij handiger/voordeliger als ze een dedicated chip aan de gpu plakken die physics berekeningen voor zijn taak neemt, dan kan je je gpu gewoon blijven gebruiken voor mooie plaatjes op je scherm toveren.
Sommige games maken al langer gebruik van de GPU om physics te renderen, dmv CUDA voor geavanceerdere physics of vertex-shaders voor simpele physics is dat prima mogelijk, en erg veel rekenkracht kost het ook niet.
fatsoenlijke physics kost juist ontzettend veel kracht.. de GPU heeft het al druk genoeg met het 'tekenen' van alle objecten, alsie dan ook nog de physics ervan moet berekenen is gewoon geen doen.. De huidige GPU's zijn gewoon niet geschikt om in hun uppie zowel goeie physics als goeie graphix te tonen.. En een losse Physxkaart is in zijn uppie een stuk goedkoper en vele malen beter dan bv 2 8800..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True