Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: The Register

Asus heeft bekendgemaakt dat het in mei gaat beginnen met het leveren van PhysX-kaarten. Het PCI-insteekbord heeft 256MB GDDR3-geheugen en een PPU van Ageia aan boord die in spellen voor realistischere omgevingen moet zorgen. Er zouden inmiddels al honderd titels van zestig verschillende ontwikkelaars in de maak zijn die gebruik kunnen maken van de natuurkundekaart; onder andere UbiSoft, Epic en Sega worden bij naam genoemd. De kaarten zullen in ieder geval verschijnen in Dells Renegade XPS 600. Ook Alienware heeft aangekondigd het product aan te gaan bieden, maar na hun overname door Dell staat het aantal bekende aanbieders weer op één. Nu de software-ondersteuning redelijk goed op gang lijkt te komen is het grootste gevaar voor Ageia de concurrentie van Havok. De twee bedrijven bestreden elkaar van oudsher al op het gebied van softwarematige natuurkunde, dus toen Ageia zijn PPU aankondigde kon Havok 'natuurlijk' niet achterblijven. In plaats van zelf een chip te ontwikkelen sloeg het bedrijf de handen ineen met nVidia en ATi om de GPU te gaan gebruiken. Het eerste resultaat daarvan werd pas geleden getoond.

De jury is er nog niet helemaal over uit welke van de twee aanpakken nou beter is: Havok voegt feitelijk geen extra rekenkracht toe aan het systeem, maar zorgt wel voor een betere taakverdeling tussen CPU en GPU. Dat kan de prestaties verbeteren, maar als de balans te ver doorschuift zou het ook averechts kunnen werken. Hoe gevoelig de engine van Havok is zal in de praktijk nog moeten blijken. Ageia aan de andere kant voegt wel degelijk een aantal gigaflops toe, maar zou daarbij weer beperkt kunnen worden door communicatie via de trage PCI-bus. Bovendien moet er ongeveer 250 dollar worden neergeteld voor een PhysX-kaart, wat de drempel om er mee te beginnen veel hoger maakt. ATi en nVidia zullen er ook geen probleem mee hebben om klanten een tweede videokaart te leveren voor physics, maar die kan naar wens tenminste ook nog gebruikt worden voor het normale pixelwerk.

Asus Ageia PhysX PPU

The Inquirer heeft recent een verhaal geschreven over het verschil in aanpak tussen Ageia en Havok, en concludeert dat de effecten die een physics engine kan versnellen eigenlijk in twee categorieën opgedeeld zouden moeten worden: enerzijds de puur visuele zaken (rook, water, brokstukken, explosies, enzovoorts), die beter thuis zouden zijn op een GPU, en anderzijds de 'diehard' natuurkunde die echt van invloed is op de loop van het spel (zoals bijvoorbeeld zwaartekracht en botsingen), die beter op een PPU zouden lopen. Een andere factor die een rol speelt in de strijd tussen Havok en Ageia is geld: Havok mag voor de consument dan wel gratis zijn, maar ontwikkelaars moeten er ongeveer 250.000 dollar per spel voor betalen. Ondertussen geeft Ageia de PhysX-software (die zonder PPU vrolijk op de CPU kan draaien, zij het niet zo snel) gratis weg.

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (78)

Voor de stille systeembouwers: Er komt weer een extra fan bij :'( !

Voor 3rd Party cooloplossings bedrijven (Zoals Artic, Zalman, Thermalright, etc) betekent het weer een nieuwe markt aanboren :)
Dan duurt het nog iets langer voordat de eerste waterkoelblokken (of totale oplossingen) hun opmars zullen maken.

Is er btw al iets bekend over
-het overclocken van zon kaartje? Of is dat niet mogelijk/rendabel?
-de warmteproductie?
De koeler die er nu opzit is de koeler die asus ook gebruikt op verschillende grafische kaarten zoals de 660GT ;) Dus dat wil zeggen dat de kaart gewone mounting holes heeft ;) En dus zullen alle bestaande koeler's die op een 6600GT gaan hier ook op passen. Maar een Zalman Vf700Cu lijkt me eigenlijk toch een beetje overkill op zo'n PPU kaartje...
het overclocken van zon kaartje? Of is dat niet mogelijk/rendabel?
Mogelijk? Er komen vast wel eenpaar hackers die het lukt, maar het is nog niet zoals bij videokaarten: Je hebt nu een PPU en iedereen zorgt ervoor dat alles daarop draait (als het al niet veel minder is omdat alles op de CPU moet kunnen draaien), je krijgt dan ongeveer hetzelfde nut als bij het overklokken van je PS2, Xbox of Nintendo DS: Nul, zero, nada

btw: over die fan, dat het hetzelfde ontwerp fan is wil nog niet zeggen dat de gaten op de pcb hetzelfde zijn en dat de chip even hoog zit etc, oftewel: je weet niet of de bestaande GPU fans hierop kunnen.
Een snellere PhysX-kaart betekent dat je meer physics kan berekenen.. dus het lijkt mij zeker niet nutteloos als blijkt dat dit te clocken is! ;)
Ik vraag me af of dat zinnig is. Ik neem aan dat het spel rekening houdt met de hoeveelheid berekeningen die zo'n kaart (per seconde) aan kan. Als de PhysX-kaart dan ineens door overklokking meer berekeningen per seconde kan doen, dan zal je daar dankzij de verwachtingen van de software niets van merken, vermoed ik.
Een spel gaat er ook niet vanuit dat een videokaart of CPU altijd op de standaard clocksnelheid draait.
Waarom zou dit hier wel zo moeten zijn?
Er zal misschien niet meer tegelijk berekend worden, maar de berekeningen zijn hoe dan ook sneller klaar, dus performance winst kan je zeker wel verwachten.
Nou, ik ken genoeg physics berekeningen die zwaar vereenvoudigd worden als ze real-time moeten gebeuren.

Denk maar aan de zwaartekracht. Je overklocked de kaart en plots wordt bij een valbeweging ook rekening gehouden met luchtweerstand!
Heerlijk ;-)
@ parasietje,

lijkt me heerlijk, dan val je tenminste niet meer als een blok beton naar beneden
Ik vraag me vooral af hoe moeilijk het voor nVidia en ATi om straks zélf "physics" accelerators op de markt te zetten voor die Havok engine.

De bedrijven hebben tenslotte alle techniek al in huis.

Als ze alles behalve de shader pipelines uit hun GPU's halen dan hebben ze zo'n kaart.

En zonder die grafische dingen zouden de shaders sneller en goedkoper moeten kunnen.
Dan ben ik benieuwd hoe groot het verschil is qua performance tussen
- Snellere processor met PhysX emulatie
- langzamere processor met hardwarematige PhysX

Als dat verschil miniem is geef ik liever 250 dollar uit aan een snellere processor want daar heb ik ook baat bij als ik geen spelletjes speel.
Maybe dat met optimalisaties voor Dual Core het niet eens zo slecht zal presteren?

Daarbij moet je niet vergeten dat een aparte kaart dedicated 256MB GDDR3 tot zn beschikking heeft, wat stukken sneller is om te accessen dan bv je normale RAM.
Ik had laatst ergens iets gelezen waar uit bleek dat dit ding sneller physics berekeningen kon doen als een dikke processor, weet alleen niet meer waar. |:(
Misschien omdat de architectuur van deze chip daar specifiek voor gemaakt is?

Een CPU is vergeleken met een chip als deze en een video-kaart een soort van all-rounder.
Kortweg gezegd een DSP :) Zo worden bv ook DSP's gebruikt in de Audio business

http://en.wikipedia.org/wiki/Digital_signal_processor
Hoe langzaam of snel moet de processor dan zijn? Het is een vraag waar je nooit antwoord op zal krijgen. Er is denk ik wel ergens een omslagpunt. En dit is net zo variabel als de prijs. Maar eerst zijn er betrouwbare stats of gebruikers ervaringen nodig.

Doet me trouwens denken aan de eerste 3D kaarten van Voodoo...
Daarbij komt kijken dat ik tot nu toe nog geen physics heb gezien die iets dergelijks vragen. Ook voegt het weinig toe aan games,
EXACT hetzelfde verhaal met dan physics vervangen door graphics hoorde je ook overal om je heen toen de eerste Voodoo kaart op de markt verscheen. "Dat kun je toch veel beter door je CPU laten doen", "dat werkt toch nooit", "het gaat om de gameplay het hoeft niet zo mooi te zijn".

Nu wordt je uitgelachen als je zonder GPU wilt gaan gamen. Mensen zijn eenmaal kudde dieren die een instinctief verzet tegen verandering hebben. Elk nieuw concept wordt altijd de grond ingeboord door de meerderheid. Pas als iedereen het heeft is het goed, maar o wee om zelf met iets nieuws te beginnen.
(redelijk recent nog hier op tweakers; dual-cores werden compleet de grond in geboord. Was domme onzin, een tijdelijke nood oplossing. Intel/AMD etc moest gewoon niet zo dom doen en ze zouden in 2005 wel weer 'gewoon' de clock omhoog gaan gooien)
Toch denk ik dat de trend meer gezet wordt door de weg die Havok inslaat. Wat we uiteindelijk gaan zien is natuurlijk vertex en pixel pipelines die wat meer los van elkaar uitgevoerd kunnen worden op de GPU, en op die manier gaat de GPU steeds meer lijken op een cell co-processor. De huidige GPU's kunnen al gigantisch veel data accessen in een zeer korte tijd (de grootste bottleneck op dit moment), ik denk dat het qua processing power maar moeilijk bij te benen is voor Ageia. En een algemene cell processor is natuurlijk veel handiger dan een aparte kaart die je alleen icm een bepaalde physics API kunt gebruiken.
Maar zolang ze 250.000 per game vragen wordt het ws niet breed opgepakt....
Dat zijn helemaal geen vreemde bedragen hoor voor een dergelijk stukje software :)
Ik was een van de 1e met een Voodoo1 4MB kaart, dat ding moest ik echt hebben toen ik iemand Quake ermee had zien spelen.. Dik 700 gulden ofzo voor betaald toen.. :D

Fuck de (bange) kudde! :Y)
Dik 700 gulden ofzo voor betaald toen..
Fuck de (bange) kudde!


klinkt meer als "fuck je portemonnee"... :+
@Steffy:

Moet toch echt even zeggen dat HL2 (en ik neem aan dat dat Half Life 2 is) zeker niet de flop van de eeuw genoemd mag worden.

Ik vondt het bijzonder sterk zowel grafisch als gameplay en bovendien voor iedereen toegankelijk met zijn relatief lage sys eisen.
Ondertussen geeft Ageia de PhysX-software (die zonder PPU vrolijk op de CPU kan draaien, zij het niet zo snel) gratis weg.

Hoe zit dat dan met mensen die dualcore cpu's hebben, waarvan er een niets doet? Hebben die zo'n insteek kaart dan wel echt nodig?
Een physX kaart is geoptimaliseerd voor dit soort berekeningen. Ik had laatst ergens gelezen dat een zo'n phsyX chip zelfs de snelste CPU eruit rekent als het op bnatuurkundige berekeningen aankomt. Zo'n kaart heeft trouwens ook nog extra (en sneller) geheugen waardoor het systeemgeheugen niet belast word.
tuurlijk, de eerste videokaarten waren ook sneller met grafische berekeningen dan de cpu, dit moet je net zo zien.
True, maar de huidige videokaarten pwnen cpu's nog steeds extreem mbt grafische berekeningen.
Ik wou net zeggen.
Als die Havok engine nou ook nog eens je dual-core zou gebruiken dan heb je helemaal een killer :P
Dan wordt en dual core interessanter en je games beter zonder dat er echt veel moeite gestoken hoeft te worden in de game over 2 procs te verdelen :)
"Ondertussen geeft Ageia de PhysX-software (die zonder PPU vrolijk op de CPU kan draaien, zij het niet zo snel) gratis weg.."

wat moeten we dan met Havok :?
Havok zal ook vast wel blijven proberen om hun product te verkopen, maar ze krijgen er een, op het oog, flinke concurrent bij.
Mijn vraag is wat er gebeurd als je havoc van je grafische kaart gebruikt en vervolgens upgrade met een Ageia PPU?
Is er dan aparte regeling nodig om weet tussen PPU en Havoc te balanceren.
Zal havoc accepteren dat de PPU het werk beter kan doen en zich 100% op de graphics richten ... ?
Crashende drivers is wel het laatste dat je wil.
Ageia aan de andere kant voegt wel degelijk een aantal gigaflops toe, maar zou daarbij weer beperkt kunnen worden door communicatie via de trage PCI-bus.
Wat moet de PhysX kaart nou met veel bandbreedte. Het engine wat het als resultaat terug aan de cpu moet geven zijn vertices en geen textures. Dus je hebt niet veel bandbreedte nodig, ook al heb je een high-detail model met 100.000 vertices(wat best veel is voor in een spel), en je gebruikt 32-bit
floats per coordinaat, is dus(x,y,z coordinaten) 3x4 bytesx100000 = 1.2 MB. En PCI bandbreedte = +/- 130 MB/s. Dus een modelupdate van 130/1.2=108 keer per seconde. Ik wed dat zelfs je fps niet zo hoog is als alle eye-candies aanstaan. 108 keer per seconde modelvormen refreshen is niet waar te nemen door onze ogen(lees:is niet schokkerig). Dus een gewone PCI-bus is genoeg.

Tip: Je zou de PhysX kaart heel goed kunnen gebruiken om er realtime mee te raytracen(renderen met natuurkundige formules voor licht), kunnen we de huidige GPU's dumpen als het echt werkt(raytracing is vet realistisch). zie-> http://hof.povray.org/ wil je wel realtime in je games hebben. :*)
Ja, 100.000 is veel voor de huidige generatie spellen, maar het idee achter PhysX is juist dat er méér mee kan doen dan nu al mogelijk is, anders zou het weinig zin hebben. Stel dat de volgende generatie spellen bijvoorbeeld 200.000 polygonen per frame kan gebruiken (en als je bijvoorbeeld kijkt naar de filmpjes van de nieuwe Cry- en Unreal-engines dan is dat niet eens onrealistisch), dan ben je met jouw berekening al terug op 54 fps. 300.000 en je zit op 36 fps, wat voor snelle spellen al niet meer prettig is, dan kun je dus gaan upgraden naar PhysX 2 :).

In Project Gotham Racing 3 op de Xbox 360 (met een G70-achtige GPU dus) worden per auto gemiddeld al 96.000 polygonen gebruikt, en dat kan nog eens met 10.000 à 20.000 oplopen als er schade is. Unreal Engine 3 gebruikt ook vlot 12.000 polygonen per poppetje. Tien poppetjes en dan nog de omgeving in beeld en je komt een heel eind. Nu kan dat vast nog op allerlei manieren slim geoptimaliseerd worden, maar ik kan me best voorstellen dat PCI op een gegeven moment een beperkende factor gaat vormen.
Nu haal je echter wel vertices en polygonen door elkaar, waardoor dit:
Ja, 100.000 is veel voor de huidige generatie spellen, maar het idee achter PhysX is juist dat er méér mee kan doen dan nu al mogelijk is, anders zou het weinig zin hebben. Stel dat de volgende generatie spellen bijvoorbeeld 200.000 polygonen per frame kan gebruiken (en als je bijvoorbeeld kijkt naar de filmpjes van de nieuwe Cry- en Unreal-engines dan is dat niet eens onrealistisch), dan ben je met jouw berekening al terug op 54 fps. 300.000 en je zit op 36 fps, wat voor snelle spellen al niet meer prettig is
niet meer opgaat.

Overigens is 300.000 vertices vandaag de dag nog steeds érg veel om in één frame te renderen. Het gebruik van normal maps maakt een hoop goed echter.
Ageia aan de andere kant voegt wel degelijk een aantal gigaflops toe, maar zou daarbij weer beperkt kunnen worden door communicatie via de trage PCI-bus.
Er zit ook een PCIe x1 versie aan te komen dus dat probleem zal wel meevallen, zeker de PCIe versie zal daar geen probleem bij hebben. Maar ik denk dat de huidige PCI bus ook voldoende data kan verplaatsen voor dit PPU kaartje. Toch zeker in het begin, achter een paar jaar kan het een ander verhaal zijn, maar dat is met alles zo...
Ik zie veel reacties die betrekking hebben op de verbetering van de physics in FPS games, maar wat te denken van "echte" simulaties? Flight sims, race sims, e.d. Daar wordt wel degelijk veel CPU tijd gebruikt om de physics zo realistisch mogelijk te krijgen. Als je dat kan overbrengen naar een PPU zijn veel betere rekenmodellen mogelijk dan tot nu toe, lijkt me... * Herko_ter_Horst kan niet wachten :)
Dat kan de prestaties verbeteren, maar als de balans te ver doorschuift zou het ook averechts kunnen werken. Hoe gevoelig de engine van Havok is zal in de praktijk nog moeten blijken. Ageia aan de andere kant voegt wel degelijk een aantal gigaflops toe, maar zou daarbij weer beperkt kunnen worden door communicatie via de trage PCI-bus.

Misschien is het handig om die chips op de kaarten zelf te installeren.

Dan kan je bijv. van een videokaart 2 versies uitbrengen, 1 met en 1 zonder die PPU

Dan ben je meteen af van die problemen met bandbreedte en andere ongein.

Bovendien, kan je (als het goed is) voor sli 1 kaart met PPU kopen, en 1 zonder. Terwijl je toch hetzelfde effect creert.

Je zou dan natuurlijk ook gewoon de vrijheid moeten hebben om er geeneen met PPU te kopen, of juist allebei met.
Mogelijkheden zijn dan eindeloos.

Tevens kan je zo nieuwere versies sneller doorvoeren en dergelijke.
dat dus net niet he,

het grote verschil tsn de havok en de novodex engine is dat de GPU bij havok alles er mooier doet uitzien, auto's ontploffen 'sierlijker', bladeren bewegen natuurgetrouw mee als je ertegenaan loopt etc... maar het kan door de topografie geen effect hebben op de gameplay, je wordt niet 'meer' gehinderd door de bladeren en de brokstukken van die mooi gerenderde ontploffing vliegen los door je heen zonder dat je dat voelt.
Bij de Novodex engine die in je topografie elders is gepositioneerd kan dit WEL, de grafische kaart rendert mooi net zoals vroeger alles wattie te slikken krijgt en de CPU+PPU berekenen gewoon netjes WAT die GPU te doen krijgt, en in 'overleg' met elkaar, dus PPU zegt dat brokstuk door je heen gaat, CPU zegt dat jij dood bent.

Voor het oog zal Havok/Novodex dus niet zoveel verschil maken, wat wellicht filmpjes en screenies nutteloos zal maken, het grote verschil zit in het realisme van oorzaak en gevolg, de gameplay zal voor beide implementaties verschillen.

of dat willen ze ons toch doen geloven :D
BFG Tech komt wel zeker met een videokaart waarop een PPU chip zit!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True