Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: PC Perspective, submitter: iyanic

PC Perspective heeft een paar keer met een aantal medewerkers van Ageia gesproken over de PhysX Physics Processing Unit (PPU). De PhysX PPU werd in maart door Ageia aangekondigd en moet allerlei natuurkundige berekeningen van de processor overnemen. Hierdoor zouden spellen realistischer moeten worden, doordat er veel meer interactie met de objecten in de spellen mogelijk is. Nog voor het eind van dit jaar moet een PCI-uitbreidingskaart van Asus met de PhysX PPU op de markt verschijnen. Deze kaart zal ergens tussen de $249 en $299 moeten gaan kosten.

De PhysX PPU telt maar liefst 125 miljoen transistors, meet 184mm˛ en wordt met behulp van een 130nm-proces door TSMC gebakken. Het is dus een flinke chip, die ongeveer evenveel transistors heeft als de Pentium 4-processor van Intel. Dit verklaart dan ook de prijs van de kaart, want een chip van deze grootte is duur om te produceren. De PPU zal 20W verbruiken, wat betekent dat de chip actief gekoeld moet worden. Als werkgeheugen heeft de PhysX 128MB GDDR3-geheugen ter beschikking. Verdere details van de PhysX zijn echter niet beschikbaar. Het is dus niet duidelijk hoeveel pipelines de processor heeft en op welke snelheid deze werkt.

Volgens PC Perspective kan de PPU via de NovodeX-API van Ageia worden aangesproken. Deze API wordt onder andere in de Reality Engine en Unreal Engine 3.0 gebruikt. Als een PhysX-processor in het systeem aanwezig is, zou de NovodeX-API automatisch van deze processor gebruik maken. Spellen als Half-Life 2 zouden dus meteen kunnen profiteren van de extra rekenkracht die de PhysX biedt. Dit vertaalt zich in een hogere framerate, maar de echte kracht van de processor blijft onbenut.

Ageia hoopt echter dat er in de toekomst spellen geschreven zullen worden die de PhysX-processor volledig zullen gebruiken. In een aantal demo's liet Ageia aan PC Perspective de mogelijkheden hiervan zien. Uit deze demo's blijkt dat de interactie met de omgeving van objecten real-time berekend wordt en niet van te voren is vastgelegd door de fabrikant van het spel, waardoor alles er een stukje realistischer uitziet. Spellenfabrikanten kunnen spelers echter niet verplichten om een PhysX-uitbreidingskaart te kopen, dus zullen ze een spel zo moeten schrijven dat het ook zonder de PhysX-processor kan werken. PC Perspective heeft dan ook zijn bedenkingen over het succes van de processor. Zonder support van de spelfabrikanten zal geen enkele gamer de kaart kopen, en zonder een hoop gamers met deze kaart in hun systeem zullen ontwikkelaars van spellen de processor niet gaan ondersteunen. PC Perspective is dan ook van mening dat de PhysX-processor eigenlijk thuishoort in een spelconsole.

Een andere vraag is de reactie van GPU-fabrikanten. Hoewel nVidia en ATi aan PC Perspective aangaven dat ze geen plannen voor een PPU hebben, wees nVidia echter wel richting GPGPU.org. Deze organisatie houdt zich bezig met het verzamelen van onderzoek naar het gebruik van een GPU als general purpose processor. Veel van de artikelen op deze site behandelen het gebruik van de GPU als processor voor natuurkundige berekeningen, het domein van de PhysX. Het zou dus best mogelijk kunnen zijn dat de berekeningen die de PhysX uitvoert in de toekomst ook door de GPU uitgevoerd kunnen worden.

Asus prototype uitbreidingskaart met Ageia PhysX-PPU
Moderatie-faq Wijzig weergave

Reacties (62)

20 watt is inderdaad makkelijk passief te koelen een readon 9800pro is zelfs passief te koelen en die brand 60 watt ofzo..

Ik vind alleen wel dat 299 euro een beetje aan de hoge kant is. Er zit natuurlijk wel ene hoop research achter omdat dit ding vanaf de grond af opgebouwd is. Alleen voor die 299 euro is dat ding maar compatible met zeer weinig spellen.

Wat denk ik weer wel een voordeel is is dat een ppu langzamer veroudert dan een grafische kaart. Aangezien physics nog neit zo geavanceerd zijn in games, en het toch een feature is die optioneel is. Een 3d-kaart is essentieel.
Een 3d kaart doet berekeningen waar een processor van nature ERG slecht in is, een processor zou eigenlijk natuurkundige berekeningen gewoon moeten kunnen doen. Ageia heeft wel wat grote titels bijmekaar gespaard, net als 3Dfx ooit gedaan heeft.
Volgens mij was het bij physics berekeningen, net zoals bij GPU berekeningen, ook zo dat de CPU daar niet geschikt voor is.
Het belangerijkste wat de PPU biedt (net als de GPU voor graphics) is vergaande parallellisatie, waardoor van veel onderdelen echt tegelijkertijd uitgerekekend kan worden hoe ze reageren.
Zie bijvoorbeeld het artikel van Anandtech over PPU's
Mee eens.. in een eerdere topic was al verzonnen dat 100 euro een schappelijke prijs zou zijn.
Hopelijk daalt de prijs snel. Het is de eerste maanden natuurlijk een 'hebbedingetje' ;)
3D Compatibiliteit was er ook nauwelijsk in de eerste spellen, nu kun je geen spel meer kopen dat zonder 3d kaart draait. Met physics zal het wel niet in zo'n vaart lopen, maar ik denk dat een significant deel van de spellen in 2006 en later gebruik zullen gaan maken van een PPU kaart....


Wel jammer dan Nvidia & Ati niet mee doen, support door 1 van die 2 en het suc6 van dit ding is bijna een feit....
Pre-renderd is alleen de eerste paar keer leuk, maar begint mij meestal snel te vervelenen.
ik denk dat niet gaat vervelen want comfoor went snel
als je gewend ben aan ferrari ga je niet neet terug naar
een honda of zo.
Daarom moeten we juist ook vooruit, dat betekent dus realtime de effect gaan berekenen, zodat je wat vaker en langer kan geniet van je comfort.
Volgens PC Perspective kan de PPU via de NovodeX-API van Ageia worden aangesproken. Deze API wordt onder andere in de Reality Engine en Unreal Engine 3.0 gebruikt. Als een PhysX-processor in het systeem aanwezig is, zou de NovodeX-API automatisch van deze processor gebruik maken. Spellen als Half-Life 2 zouden dus meteen kunnen profiteren van de extra rekenkracht die de PhysX biedt.

Dit snap ik niet zo goed, eerst stat er dat spellen die gebruik maken van de Novodex-API meteen kunnen profiteren van de extra power van de PPU. De engines die deze API gebruiken zijn o.a. Reality Engine en U3.0. Geen HL2.
Dan staat er dat ook HL2 direct kan profiteren van de PPU als die in je syteem aanwezig is. Terwijl dit spel toch de softwarematige Havoc physics engine gebruikt? En geen Novodex API?
Kunnen ze mooi die oude vooraad GF4 koelers van ze gebruiken :+

Ik vraag me alleen nog af of er niet een extra verbindings brug nodig zal zijn met de videokaart, of verloopt alle communicatie via de PCI bus ?
Dan heb ik liever dat ze een PCI-Express 1/2/4x kaartje ervan maken, aangezien PCI in High-end systemen zal gaan verdwijnen.

@ Reacties hieronder over de koeler:
Uit me hoofd was dat ding 29dBa, niet echt stil te noemen (spreek uit ervaring)
Als je aan de bovaenkant van het kaartje kijkt zie je een PCI-e 1x aansluiting, blijkbaar zijn ze nog tussen PCI en PCI-e aan het twijfelen.

Ik hoop dat de spelontwikkelaars dit gaan ondersteunen want ik wil er wel een. :7
goed opgemerkt, ik vond al dat die pins er vreemd uitzagen om in een pci-e slot te passen. Er zijn zelfs gaatjes voorzien om de backplate erop te schroeven, alleen zullen ze die molex connector (als het dat is tenminste) dan wel een andere plaats moeten geven
In het geval dat je PCI-E gebruikt voorziet de bus in de stroomtoevoer.
Zoals al in een eerdere topic besproken is: dit betreft het prototype/debug kaartje.
Daarom zitten er ook dipswitches en leds op.
PCI-E videokaarten hebben (volgens mij) geen molexaansluiting, dus ik denk dat het bij deze ook overbodig zal zijn!

edit: net te laat :p
Dit is een prototype, uiteindelijke versies komen in of PCI-e 1x of PCI.
Ik komen alleen meer vragen bij mij boven als ik dit lees.

Neemt deze kaart workload af van de GPU en/of de CPU?

hoe veel klok cyclus doet deze kaart er over om het natuurlijke logaritme van 54784378 te berekening en vergeleken met een ALU? (ik lul ook maar wat } :o )
hoe veel cijfers heeft PI achter de komma?
Dit ontlast de CPU. GPU wordt normaliter niet gebruikt voor fysica (behalve optica). Het kan wel: ik verwijs je naar GPGPU.
Verder: Je lult idd maar wat. Waarschijnlijk heeft hij een lookuptable achtige oplossing net als vele andere implementaties hebben. En PI heeft oneindig veel cijfers achter de komma...
Ik ga ervanuit dat deze kaart FPU's zal krijgen, vector FPU's mogelijk, om SIMD een beetje fatsoenlijk telaten gaan.

En dan kan hij dat best snel, afhankelijk van de preciesie die gebruikt word, is hij op de aller hoogste preciesie sneller dan een A64 proc wanneer het om 1 berekening gaat? Ik weet nog weinig van hoe de chip in mekaar zit, maar om sneller dan een CPU natuurkunidge berekeningen uit te voeren heb je eigen meerdere pipeline/cores nodig, tenzei je de CPU op clocksnelheid aan gaat vallen, en dat kan welleens erg lastig worden.
Iemand die ik ken heeft ooit zijn eindwerk gedaan rond het variabel aanpassen van het aantal polygonen in scenes in functie van de power van het gebruikte systeem of zelfs in functie van de system load.

Waarom zouden games niet op deze basis kunnen gemaakt worden? In functie van de aanwezigheid van zo'n extra processor en van de power daarvan (in het geval er verschillende versies zijn) meer detail geven...
Maar het gaat juist om fysieke berekeningen. Daar is al een bestaande engine voor... deze bekereningen worden normalitair door de CPU afgehandeld. In feite is het voor de programmeur vrij simpel. Je hoeft alleen nog maar enkele parameters op te geven voor bepaalde objecten. Denk aan zwaartekracht en of het eventueel kan stuiteren en of het een zacht materiaal betreft. Dit kan nu ook allemaal al, maar we worden gelimiteerd door de kracht van de CPU, het moet wel speelbaar blijven, dus overdreven veel fysieke objecten hebben we nog nooit gezien in een game. Nu kan dit door deze PPU berekend worden en kan dus in extreme gevallen enorm CPU ontlastend zijn. Denk bijvoorbeeld aan 1000 rotsblokken die naar beneden vallen en allemaal individueel reageren en tegen elkaar aan stoten. Effecten zoals water-ripples kunnen overdreven gedetailleerd weergeven worden. Een zombie kan je in 1000 stukjes kapot schieten... Auto's kunnen de beste schademodellen ooit krijgen en dit kan dan ook nog eens een perfecte invloed uitoefenen op het rijgedrag. (vele malen beter dan nu in Forza motorsport ;) )
En dit allemaal zonder dat de spelmakers hier heel erg veel aan moeten doen. Het wordt een kwestie van een database met een hoop verschillende meterialen en eigenschappen gecombineerd met aardse eigenschappen zoals magnetisme. Wanneer breekt iets, hoe valt iets en ga zo maar door. Denk ook aan grassprietjes en bladeren aan de boom, of takken die op de wind reageren en naar beneden vallen als je er op schiet :P
Jah, IK zie wel toekomst in een dergelijke processor :)
Uiteraard zal het zijn mogelijkheden eerst moeten bewijzen aan het grote publiek. Daarna zullen dit soort dingen ook wel op videokaarten verschijnen. Hoe lang dit duurt is nog maar de vraag, momenteel ziet deze PPU kaart er met zijn berg aan condensatoren er vrijwel even complex uit als een videokaart. Niet erg makkelijk te combineren lijkt me, maar in de toekomst zal dat heus gebreuren.

Maargoed, nu een duidelijk antwoord op wat jij zegt, een dergelijk spel met veel fysieke eigenschappen zal vaak geheel afhankelijk zijn van deze eigenschappen om op de juiste manier te functioneren. Je kunt dus niet zomaar effecten weg laten en met een betere kaart meer effecten toevoegen (automatisch), dat zou het spel in zekere zin totaal veranderen. Zonder zo'n kaart zal je het dus gewoon met je CPU moeten doen, en dat kan zwaar worden. Maar dan zijn er vast wel opties om het gras gewoon stijf te houden :9 (oftewel, de fysieke objecten die niet van toepassing zijn op het gedrag van het spel uit te schakelen of stil te zetten) Dat gaat weer een hoop extra "video options" teweeg brengen, let maar op :)
Als ik me niet vergis wordt dat systeem reeds in zeker de helft van de games toegepast.

Dus items in de verte hebben bv. tien polygonen, wanneer je dichterbijkomt zijn dat er al honderd, en wanneer je ervoor staat duizend.

Als ik me niet vergis is Sacrifice een van de pioneers op dat vlak.

Correct me if I'm wrong :)
Aangezien dit soort fysische berekeningen vooral in combinatie met grafische berekeningen gebruikt zullen worden (i.t.t. de CPU die we ook vaak 'stand alone' laten zweten), ligt integratie van beide soorten op een enkele kaart of in een enkele core voor de hand.

Ik ben benieuwd of/wanneer nVidia of ATI de strijd aangaan om Ageia over te nemen.
Wat geld voor physics geld ook voor ai, het heeft allemaal wel te maken met wat er op je scherm komt.

Bovendien hebben GPU als transistors zat en zijn ze al duur genoeg om te produceren, daar moet niet nog eens een physix chip bij.
Wat geld voor physics geld ook voor ai
Valt wat voor te zeggen, maar ik denk dat AI lang niet zoveel baat heeft bij een gespecialiseerde unit zoals graphics of physics baat hebben bij een GPU of een PPU. Voor AI berekeningen zijn de general purpose eigenschappen van de CPU een stuk belangrijker.
Bovendien hebben GPU als transistors zat en zijn ze al duur genoeg om te produceren, daar moet niet nog eens een physix chip bij.
Tot en met 90nm denk ik dat je gelijk hebt, maar bij 65 nm en kleiner?
Weer z'n luidruchtige koeler in de kast.
hoewel, die TT koeler kon nog wel eens stil zijn(?)
En zo te zien zijn de mountings ook niet echt lekker geplaatst om een Zalman VF700(Al)Cu op te monteren.
:( tis wel echt balen, al die stille koeling is best duur.
als je alles bij elkaar opteld.
het word steeds moeilijker om je kast stil en koel te houden.
Beetje tweakert pleurt er een pentium 2/slot A Athlon koelertje erop en gaat passief :P

Overigens is 20 watt niet zo gek veel, dat kan sowieso wel passief gekoeld worden
waarschijnlijk zullen ze bij dit kaartje een spel bundelen dat ten volle van de PPU gebruik maakt en dan liefst nog een klepper als UT200x
Dat zal dan weer in de prijs verrekend worden.
Hangt een natuurlijk van de prijs af van zo'n kaartje. De eerste geluidskaarten verkopen eerst ook mondjes maat. De eerste 3d kaarten verkocht eerst ook mondjes maat er werden (Voodoo1 en 2) als een add-on kaart verkocht. Mits de videokaart fabrikanten hierop niet goed op inspringen, voorzie ik wel een toekomst voor dit type kaart.

Overigens mij persoonlijke voorkeur in games gaat juist uit naar de playable uit van een game. Begrijp me goed mooie graphics hou ik zeker van, maar ik ben van mening dat de omgeving best wat realistischer mag reageren. Pre-renderd is alleen de eerste paar keer leuk, maar begint mij meestal snel te vervelenen.
Mag ik u erop wijzen dat de eerste 3d kaart die ik kocht de edge 3d was een nvidia produkt door hastec op de markt gebracht, met support van sega er zaten 3 spellen bij virtua fighter, nascar racer en iets met draken. Hardstikke mooie kaart met leuke spellen alleen het bleef bij sega spellen.
Daarna kwamen er nooit meer spellen voor uit. Voodoo werkte omdat het opengl(voodoogl) versnelde wat een standaart api begon te worden. En toen quake door voodoogl werd versnelt begon de voodoo pas echt te verkopen.
Het is dus noodzaak om support te krijgen waarschijnlijk zijn ze eerst begonnen te praten met valve en id voor ze de eerste hardware werkend hadden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True