Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties
Bron: Inquirer

Ageia-logo Nog deze herfst wordt de PhysX-chip in de winkel verwacht, bericht The Inquirer. De eerste exemplaren zouden volgens fabrikant Ageia de fabriek al verlaten hebben, en Asus zou de kaart op grote schaal aan de man willen brengen. Ageia zoekt nog andere partners. Verder is het wachten op demo's van games die de Physics Processing Unit weten te benutten, omdat Ageia de kaart inclusief 'overtuigende' software wil leveren. De chip zal vrijwel zeker op een PCI-kaart gemonteerd worden; een opvolger zal geschikt zijn voor PCIe 4X maar de fabrikant vindt ondersteuning voor dat format nog niet breed genoeg. Ondertussen zijn er al plug-ins beschikbaar voor programma's als 3ds Max. De bijvoorbeeld door de Unreal Engine 3 gebruikte softwarelibrary 'NovodeX' is inmiddels hernoemd tot 'PhysX SDK', wat doet vermoeden dat een aantal grote titels eenvoudig gepatched kunnen worden om van de nieuwe hardware gebruik te maken.

Moderatie-faq Wijzig weergave

Reacties (93)

Dit is dus GEEN videokaart (GPU) maar een physics kaart (PPU), die puur de physics berekeningen van een game engine overneemt.

En dus ook GEEN GPU versneller!
Het is wel een GPU-versneller. In dit geval is het een GPU en een CPU versneller.

Van de site van de fabrikant
By offloading software physics processing from the CPU and GPU, the PPU completes the triangle of gameplay, graphics and physics, balancing the load of these processing tasks and enabling pervasive interactive reality in tomorrow's games.
http://www.ageia.com/technology.html
Nou prik deze kaart maar bij in je huidige PC, wedden dat er geen GPU of CPU versnelling plaatsvindt?

Je moet namelijk je code specifiek schrijven voor deze PPU kaart, dan zal diezelfde code natuurlijk gedeeltelijk zaken van vooral de CPU ontlasten.

Kwestie van definitie van versneller.

Mijn eerste reaktie was : het is geen videokaart, maar dat hoort natuurlijk gesubmit te worden op de forums ofzo.
Noem het een CPU en GPU "Offloader", want zowel GPU als CPU zullen minder te doen krijgen met een PPU.
Kan deze kaart dan ook niet gebruikt worden om da h.264 codec beter af te spelen aangezien dit toch een vector kaart is en een gewone cpu dit dus niet aankan (paar dagen geleden een nieuwsbericht over geweest) of ben ik nu verkeerd aan het denken?
En waarom moet er een PCIe 4x gebruikt worden, PCIe 1x is toch al snel genoeg aangezien dit al bijna het dubbele is van de gewone pci bus en deze is ook al genoeg, hierdoor krijg je ook een groter doel want er zijn al veel meer moederborden met een PCIe 1x slot dan met een 4x slot.
Dat is iets wat beter bij 'n GPU past laast was er al een bericht dat nVidia dit ook al ging intergreren in hun nieuwe GPU's.
Dus wat moet de PPU er mee.
Voor de mensen bij wie - net als bij mij - niet direct een belletje ging rinkelen: deze chip
'moet allerlei natuurkundige berekeningen van de processor overnemen Hierdoor zouden spellen realistischer moeten worden, doordat er veel meer interactie met de objecten in de spellen mogelijk is.'
(quote van eerder Tweakers artikel)
Voor mensen die nog wat extra info willen over de PPU:

Tweakers
Tweakers
Hardfeed
Pcper
Techgage (interview)
Plaatje
Nu eens zien wat voor gevolgen het overclocken van je PPU heeft op de zwaartekracht...
Kon me er niets bij voorstellen en ben dus even op zoek gegaan naar wat voorbeelden.

http://airtightgames.com/currentproject.html

Denk dat deze voorbeelden wel overtuigen.

Natuurlijk na introductie voor degenen die alles metteen en het duurste willen hebben. Maar dit is over een poos niet meer weg te denken uit de computer van elke fanatieke gamer IMHO. Dat weet ik wel zeker.
Maar PCI-e is gewoon een must. En wellicht ook handig als je er meer van zou kunnen gebruiken als je erg complexe omgevingen zou willen nabootsen. (Soort SLI systeem?)
Dat dit ding aan een normale PCI bus genoeg heeft lijkt mij duidelijk te zeggen dat PCI-e dus geen 'must' is. Het is natuurlijk ook niet te vergelijken met een videokaart, waar 1000en textures doorheen gesmeten worden met gigabytes per seconde en waar ingewikkelde grafische berekeningen aan te pas komen. Deze kaart hoeft alleen maar berekeningen te doen, soort van gecoordineerd werk. Plaats de vertexes op de juiste plek en laat ze op de juiste manier met elkaar reageren. Allemaal rekensommetjes, heeft dus ook lang zo veel bandbreedte niet nodig als een videokaart. Daarom is PCI voldoende. Dat er een PCI-e uitvoering komt is logisch, we willen vroeg of laat geheel van PCI afstappen dus zal dat wel moeten. Overigens kan je CPU ook best goed deze berekeningen doen. Maar de rest van het spel vergt ook al meer dan genoeg rekenkracht tegenwoordig. Als je dan een chip speciaal maakt voor alleen die physics, zal deze altijd efficienter zijn werk doen dan een CPU. Het gevolg is een hogere snelheid en de mogelijkheid om zeer veel objecten met physics te plaatsen in een game, extreem veel meer dan nu het geval is zoals je ziet in HL2. Denk maar aan gebouwen geheel gemaakt van losse stenen die allemaal onderling ook nog kapot kunnen etc. etc. brengt een hoop meer realisme naar de gamewereld. Ik ben benieuwd naar de eerste benchmarks met dit dingkie :)
Ik herinner mij nog een FAQ over, als ik mij niet vergis, Carmageddon (1) waarin de vraag stond waarom je bijvoorbeeld stenen met pijlen niet kon beschadigen als je er keihard tegenaan reed.
Er stond dan dat dit onmogelijk is met de CPU-kracht van toen.
Ik heb altijd gewacht tot het eindelijk mogelijk werd om ook echt alles te kunnen slopen.
Met Red Faction kwamen ze al een beetje in de buurt, en schademodellen in modernere racegames beginnen ook al ergens op te lijken.
Met deze PPU-chip zul je misschien eindelijk ware realisme kunnen bereiken, wat de volgende grote stap in gaming experience zou kunnen betekenen.

Ik denk dat vele gamers hier met smart op zitten te wachten.
Het lijkt me zeker met FPS zeer interresant. men gaat dan misschien beter opletten op waar ze schieten

[dream mode]
* 786562 whizzy81
tweede poging. * 786562 whizzy81
:9 :P :+
[/dream mode]
Nja, tegen die tijd dat deze kaart ondersteuning heeft voor alle major games zal PCI niet meer standaard op de mobo's zitten gok ik dan maar.

En wie weet blijkt het wel praktischer te zijn om hem straks op de GPU kaart erbij te plakken. (Kan ik me wel iets bij voorstellen)

Iig heb ik een Gigabyte K9N-F die niet alle PCI kaarten vreet en dat is mega irritant. Zou zonde zijn als deze kaart het niet op dat mobo doet. Dat mobo krijg je dan alleen verkocht voor een dumpprijs en moet je voor een SLI variant gaan.
Terwijl een PCI-E er wel bij te prikken is.
met zulke games zal je CPU ook niet snel genoeg zijn.
zelfs als je een AMD 57FX hebt.

dus dan heeft PCI-express ook geen nut want je CPU kan het dan niet meer bolwerken.
Mooie actie dat de oude unreal engine eenvoudig gepatch kan worden. Dit kan voor verkopen zorgen hoop ik. Ben zeer benieuwd naar de uitgebreide reviews. Mocht het effect en cpu ontlasting zodanig zijn ga ik zeker overwegen om dit aan te schaffen.
De bijvoorbeeld door de Unreal Engine gebruikte softwarelibrary 'NovodeX' is inmiddels hernoemd tot 'PhysX SDK', wat doet vermoeden dat een aantal grote titels eenvoudig gepatched kunnen worden om van de nieuwe hardware gebruik te maken.
De enigste Unreal Engine die NovodeX/PhysX SDK gebruikt is de Unreal Engine 3. Het gaat er hier dus niet om dat "oude" unreal engine games gepatched kunnen worden. Het gaat er juist om dat Unreal Engine 3 games (Gears of War/UT2007 bijv.) erg makkelijk zonder Ún met de PhysX kaart gebruikt kunnen worden.
Pre-UnrealEngine3 krijgt geen major updates (alleen nog maar maintenance releases voor de licensees). Maar dat betekend niet dat een licensee geen PhysX SDK kan gebruiken voor UE2 of UE2.5 (alhoewel ik die kast niet groot acht)
UE3 gebruikt out-of-the-box PhysX SDK. (netzoals UE2 MathEngine Karma had).
ja want anders zou iets in de engine veranderd moeten worden
Het gaat niet zozeer om de ontlasting denk ik, maar om de extra effecten!! Echte regenplassen in spellen op de grond enzo, i.p.v. scripted animaties..
Het gaat niet zozeer om de ontlasting denk ik, maar om de extra effecten
Dat zegt ze tegen mij ook weleens, als ik van de wc af kom.
alleen op Tweakers is zo'n statement +4 inzichtvol ;)
Ik ben nu toch wel geinterreseerd in de extra features van jouw toiletpot ;)
Over een jaar of wat gaat het net als vroeger op 1 videokaart en zit het misschien dan wel in de GPU core gebouwd :7
Lijkt me sterk... PPU resultaten dienen door de game engine te worden geinterpreteerd voordat er iets naar de GPU gestuurd kan worden.

Het is dus niet Engine -> PPU -> GPU, maar Engine -> PPU -> Engine -> GPU.

Bekijk dit meer als een speciale dedicated coprocessor, zoals ook de Sony Playstation 2 ze heeft (VIF0 en VIF1).

Het is mijns inziens dus onzinnig om dit op de videokaart te doen, dat is kostbare bandbreedte verspillen (misschien uit een kostenoogpunt 2 kaarten combineren, voor performance dus niet).
Ik denk zeer zeker dat deze functie op een GPU wel nuttig is. Binnen de GPU worden namelijk al kan en klare objecten gedefenieerd waaraan alle optische eigenschappen door de GPU kunnen worden ingevuld. Deze info komt ook vanaf de CPU.
Nu komen er simpelweg ook natuurkundige eigenschappen bij het object en is het object in de virtuele wereld alleen completer geworden en zal zich dus op een meer natuurlijke manier kunnen gedragen zonder rekenkracht van de CPU.

Ik zie niet in waarom niet? Ik denk juist dat je hiermee bandbreedte kunt besparen, aangezien het object waarop je de PPU wilt loslaten zich 'in' de GPU bevindt..
Als bijvoorbeeld de PPU ontdekt dat er een collision is met een bullet (oftewel iemand gaat dood), dan kan dit wel gelijk naar de videokaart worden gestuurd, maar als je dan niet de status 'dood' in de engine krijgt, dan kan de speler blijven doorgamen. Ook als bijvoorbeeld je camera (gezichtsveld van de speler) achter een muur komt te zitten, wil de game engine dat wel graag weten, om zodoende een optimaal zicht voor de speler te garanderen.

Het PPU proces is ergens in het begin van de mainloop van de engine, terwijl het GPU proces ergens aan het einde ligt.

Pff lastig uitleggen allemaal. Hoop dat het een beetje duidelijk is.

Edit: (Ik ben ex-gamedeveloper, nu lead architect, ga me niet beledigen nu over design van engines. Ik heb geen zin in een discussie hierover, ik wil aleen duidelijk maken dat het allemaal wat complexer is dan jij stelt. In jouw voorbeeld zouden we de hele CPU van het lijstje af kunnen strepen, hebben we aan een PPU+GPU voldoende om een spel magischerwijs te kunnen laten draaien. En dan kan je ook 90% van de developers ontslaan, de hardware doet toch alles voor je. Als je hier enigzins door de reacties bladert, dan weet je wel waar ik aan gewerkt heb.)
Misschien is het lastig uitleggen omdat je er zelf zo weinig vanaf weet? Dit soort problemen worden in de huidige games ook al voor 90% in hardware opgelost.
Het enige wat er nu veranderd is dat er naast vorm, textuur, kleur en locatie van een object nu ook natuurkundige eigenschappen worden toegevoegd (welke dan vaak van invloed zijn op de locatie).

Als de collision problemen die jij schetst nog niet mogelijk zijn op een co-processor, zou de Xbox360 met zijn 3 cores onmogelijk zijn om te programmeren. Hoe weet de 1e core anders van de andere wat er gebeurd?

Daarbij zou het MEGA veel bandbreedte kosten om van ieder object op de CPU te laten bepalen of ze elkaar wel dan niet raken en op welk punt dit gebeurd. Dus ik vermoed dat jou verhaaltje toch anders wordt opgelost.

En wat betreft o.a. Hidden Surface Removal, dit gebeurd ook als sinds de 3dfx kaarten in de driver van de videokaart, zie voor leuke en leerzame info deze link:
http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/dnard ir3d/html/appsforha.asp

Edit: Blijkbaar heb je game developers en game developers. Welke engine heb je o.a. ge-designed?
Het is mijns inziens dus onzinnig om dit op de videokaart te doen, dat is kostbare bandbreedte verspillen (misschien uit een kostenoogpunt 2 kaarten combineren, voor performance dus niet).
Dat valt wel mee hoor, bedenk je dat deze kaart alleen de informatie over vertices heen en weer hoeft te sturen, wat ordes van groote minder bandbreedte is dan textures. Vandaar dat het ook al over de PCI bus kan.
Wat Grizztus zegt kan dus wel degelijk kloppen:

Een andere vraag is de reactie van GPU-fabrikanten. Hoewel nVidia en ATi aan PC Perspective aangaven dat ze geen plannen voor een PPU hebben, wees nVidia echter wel richting GPGPU.org. Deze organisatie houdt zich bezig met het verzamelen van onderzoek naar het gebruik van een GPU als general purpose processor. Veel van de artikelen op deze site behandelen het gebruik van de GPU als processor voor natuurkundige berekeningen, het domein van de PhysX. Het zou dus best mogelijk kunnen zijn dat de berekeningen die de PhysX uitvoert in de toekomst ook door de GPU uitgevoerd kunnen worden.

http://tweakers.net/nieuws/37519
Oke leuke kaart , wil ik wel eens aan het werk zien.

De gpu-versneller zal vrijwel zeker op een PCI-kaart gemonteerd worden; een opvolger zal geschikt zijn voor PCIe 4X maar de fabrikant vindt ondersteuning voor dat format nog niet breed genoeg.

het kan aan mij liggen maar de meeste moederborden hebben toch met pci-e een 16x bus en als ze SLI hebben fysiek een 16 bus maar 8x aansluiting ??
En de aller nieuwste modellen word gesproken over natief sli 16x ??
Dan wil je toch niet meer met pci-e 4x ??
Of ben ik abuis ?

edit
Het zou dus best mogelijk kunnen zijn dat de berekeningen die de PhysX uitvoert in de toekomst ook door de GPU uitgevoerd kunnen worden.

Dus dan is het een net zo als een co processor in de tijd 386/486 , later gewoon geintergeert...
Ik denk ook dat mensen die voor dit soort dingen geld voor over hebben ook va(a)k(er) een sli bord hebben.
Het wordt niet de hoofd videokaart, maar alleen voor terreindeformatie, animaties ed. dus de truukje die bv in Red Faction werden uitgehaald en normalieter door de CPU of vertexshader van de GPU worden gedaan, komen voor rekening van de PPU, die speciaal hiervoor ontwikkeld wordt. In real gaming life betekend dit oa, mooier bewegend water, wind effecten, van alles kunnen slopen en opblazen etc.

Het ziet er naar uit dat dit een succes wordt, het vindt gelukkig bijval van de grote devs., dus het heeft toekomst.
De verschillende demo's zijn zeer impressive.
de nieuwe 3DFX dus :)

en uiteraard erg interessant :)
Dit is GEEN GPU, maar een PPU... Die heeft minder bandbreedte nodig (voorlopig toch nog :+).

(Graphics Processing Unit VS Physics Processing Unit)
Dat staat er ook niet, het is een gpu-versneller, geen gpu. Het helpt de gpu. Capito?
Dan is volgens jouw logica een GPU dus een CPU-versneller :+

Gewoon het beestje bij de naam noemen, het is een PPU.

En inderdaad, als de software er ondersteuning voor biedt, kan die ervoor zorgen dat er load van je GPU afgaat. Maar dan nog kun je het eigenlijk geen versneller nomen, want hij versneld de GPU niet. Hij zorgt er alleen voor dat de GPU zich met minder dingen bezig hoeft te houden. Als je dat een versneller gaat noement, dan zijn sommige geluidskaarten/netwerkaarten/etc ook allemaal versnellers.
Volgens jouw redenatie is een CPU dus ook een GPU versneller :P, en het verlagen van de resolutie ook. Deze PPU is niet aan een videokaart gebonden, je kan er ook andere dingen mee doen. Ook neemt hij geen berekeningen over van de videokaart, aangezien de videokaart geen physics doet, hoogstens collision detection.

[edit]
Shit Sander, niet gerefreshed toen ik terugkwam van het boodschappen doen :D.
Het tweakers.net artikel is fout, het is geen videokaart en dus ook geen GPU versneller...

wordt dit nog gefixed?
Het is wel een GPU versneller omat het load van de gpu afneemt zodat deze andere zaken sneller kan doen. Wat is hier nu niet te begrijpen aan?
Het is een gpu versneller. Dat zal waarschijnlijk betekenen dat het een soort add-on word om je cpu te ontlasten, hierbij hou je gewoon je huidige (PCIe 16x) videokaart.
Het is dus geen GPU versneller, heeft niets met je videokaart/GPU te maken...
Hey Robin, tuurlijk heb ik gelijk!
Kan je me trouwens even mailen of icqen?

OnTopic:

Deze ontwikkeling lijkt natuurlijk enorm op de eerste GPU destijds, daar is nu ook een gigantische markt ontstaan. (3Dfx anyone?)

Nu nog een AI hardware versneller en we zijn compleet :)
het is een PPU, heeft invloed op gpu, enkel omdat deze zich nu met andere dingen ka bezighouden, tis niet dat deze ppu de clockfrequentie van je gpu gaat verhogen of zo

het rekenwerk wordt gewoon verdeeld
Inderdaad, het ding heeft zelfs helemaal niets met de GPU te maken. De GPU berekend models, coordinaten en atmosferische- en lichteffecten, en de PPU berekent oa bewegingen die gebonden zijn aan zwaartekracht en weerstand.

Dus de GPU houdt zich bezig met afzonderlijke frames, en de PPU met de animatie ervan (grof gezegd dus, maar even om het onderscheid aan te geven).

-R-
MrLogic is een van de developers van Killzone voor de PS3. Ik mag hopen dat hij een beetje gelijk heeft.

PS: Heej Jeff, alles goed? :D
- binnen 3 minuten 3x hetzelfde, dus dit kan wel weer weg -
argghhh.................. krijg voodoo flashbacks............

wacht maar op het moment dat je er een 2e versneller op kan monteren zodat hij nog sneller de snelle....... ach je vat hem wel :+
Met een extra PPU krijg je alleen maar load-balancing over je PPUs, volgens schiet je niet mee op.

Dat ze het uitbrengen op PCI in het begin betekent dat er toch niet al te veel data over gepompt wordt. Hopelijik is het resultaat verbluffend!
Hoezo videokaart? Dit gaat toch over een PPU en niet over een GPU? Dit ding gaat toch enkel als een soort dedicated coprocessor voor physics werken?
Waar zie jij 'videookaart' geschreven? :?
Titel van dit nieuwsbericht - "PhysX-videokaart deze herfst in de winkel"
Ehm, in de titel van T.net? "PhysX-videokaart deze herfst in de winkel"
in de titel bashrat

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True