Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: DailyTech

nVidia logo (60 pix)Tegelijk met de release van nVidia’s GeForce 8800-familie, naar verwachting halverwege november, zal nVidia ook de Quantum physics engine introduceren. De Quantum-engine zal gebruik maken van de shaders van de G80-gpu om natuurkundige berekeningen te versnellen. Veel details over de Quantum natuurkunde-engine zijn nog niet bekend, maar wel duidelijk is dat een SLI-opstelling geen noodzaak is om de natuurkundige berekeningen te kunnen versnellen. Het idee om natuurkundige sommetjes door de videokaart uit te laten voeren is niet nieuw. Eerder kondigde nVidia al aan dat de Havok-engine n videokaart van een SLI-opstelling zou kunnen gaan gebruiken voor het rekenwerk, en ook ATi wil de videokaart meer laten doen dan alleen het tekenen van plaatjes. Een populaire toepassing van de shaders op moderne videokaarten is momenteel het hardwarematig versnellen van het decoderen van (high-definition) videobeelden.

Moderatie-faq Wijzig weergave

Reacties (43)

Byebye Ageia :)

Als mensen een PPU + top GPU kunnnen kopen voor 500 euro, gaan ze niet nog eens een aparte PPU aanschaffen van 250 euro.

Laat staan als je een mid-end G(P)PU (of GAPPU?) kunt kopen voor 300 euro.

De evolutie in de GPU-wereld wat betreft 'processing power' stijgt ongelooflijk snel, en het zou me niet verbazen moest de G80 ondanks het renderen van graphics toch nog sneller zijn dan Ageia's PPU m.b.t. de physics.
Een PPU + top GPU zal alsnog meer preformance leveren. De videokaart kan dan lekker bezig blijven met graphics.

Moet de PPU wel ondersteund worden |:(
techniek in PPU loopt te ver achter, FLOPS per Watt is ie het niet waard, FLOPS per PCI bus is ie het niet waart, deze GPU zo veel sneller dan de PPU de eerst komende 2,5 jaar zou kunnen zijn, een tweede, derde of vierde videokaart is ALTIJD beter dan een PPU.
wat is het verschil tussen Ageia en Physics engines? Hebben ze toch hetzelfde functie?
dat zou ik ook wel willen weten ja, maar niemand lijkt er antwoordt op te geven.
als er geen verschil is en dus de aankomende UT ook werkt met die van nvidia zie ik een slechte toekomst voor Ageia
daarentegen: nu er meer concurentie is, gaat die 250 euro misschien snel omlaag...
PPU is Ageia chip. Het is puur Physics.
'n G8800 is 'n GPU die misbruik wordt voor Physics en dat valt onder GpGPU gebruik.

Als ik Lees PPU+ GPU dan is dat 'n Ageia Asus P1 + G8800.

'n gestripte "G-kaart" zonder Ramdac/DVI uitgang is nog steeds geen PPU aandgezien er 'n GPU op zit die als kaart puur voor GpGPU gebruikt wordt.
'n P-Kaart is het wel.
Ten eerste om de eerste hardware accelereerde Physics games Wave in optimum physics settings te spelen heb je 'n PPU nodig.
Omdat de eerste Physic HA Games die uitkomen PhysX API gebruiken.

Zo is de vraag welke Havok FX is er in aantocht die nV en aTI SM3.0 hardware ondersteund.

Deze nV API is zo nieuw dat er nog Dev's geronseld moeten worden. En dan ondersteund zo'n game alleen nV.
Of moet zo'n Dev kwa Physics API bij nV en ATI shoppen om d emarkt goed te bedienen.
Dan is Havok FX toch wat anatrekkelijker.
En PhysX nog meer want degelijke PPU support maakt het gratis.

Denk dat PhysX 'n redelijke voorsprong heeft op HavokFX en Havok FX een redelijke voorsprong heeft op ATI en nV native Physics API.

Onder tussen speel ik al 3 PhysX games
Graw
BOS
JTF

Uiteraard zal op langere termijn als dit HAP doorzet MS komen met DirectX Physics. 'n Physics API standaard.
Welke taal is dit?
En maken BOS en JTF dan wel nuttig gebruik van die PPU? (i.t.t. Graw...)
Edit: OOOOOOPS! Ik kan zelf niet lezen! |:(
geen noodzaak
dus is SLi niet nodig.
dan quote je iets wat het tegendeel bepaald.
Maar als onderdelen van de GPU physics zaken gaan uitrekenen, dan heb je dus minder capaciteit over voor je graphics...

Ik had liever een separate chip gezien, die dan bijv van mij best op de VGA kaart mag vertoeven. Maar geen resources van mijn GPU afsnoept.
Maar als onderdelen van de GPU physics zaken gaan uitrekenen, dan heb je dus minder capaciteit over voor je graphics...
Het probleem is volgens mij juist omgekeerd. Inmiddels hebben GPU's dermate veel rekenkracht, dat het voor nVidia en consorten steeds lastiger wordt om daar zinnige toepassingen voor te verzinnen. Games kunnen altijd mooier en realistischer en met een hogere framerate, maar op een gegeven moment hebben de verbeteringen niet meer zoveel meerwaarde.

nVidia heeft goed gezien dat een physics engine een aardige manier is om de rekenkracht van videokaarten op een zinnige manier te vergroten. Ook marketingtechnisch is het een slimme zet: er is voor die-hard gamers weer een goede reden om een nieuwe (en dure) videokaart van nVidia aan te schaffen.
Ik denk dat er op de moderne (high-end) kaarten nog maar weinig plaats is voor een extra physics chip. Om nog maar te zwijgen over de extra stroomvereisten en het complexere PCB design.

Als de shaders van een videokaart efficint genoeg zijn met het berekenen van physics mag dit best op deze manier gebeuren. Het beste zou zijn dat er een aparte physics eenheid in de GPU zou zitten.
Ach ja, met 128 pipelines maakt dat niet zoveel uit...
128 Unified Shaders zijn niet hetzelfde als 128 (pixel) pipelines..

Mijn 1900GT heeft 12 pipelines, 36 Shaders
Nee joh, je X1900GT heeft 1 pixel shader en 1 vertex shader.
De vertex shader heeft 8 pipelines, de pixel shader heeft er 36. Dat betekend dat de vertex shader 8 bewerkingen tegelijk kan uitvoeren en je pixel shader 36.
Een X1900GT heeft geen pipelines.

En voor zover je perse de architectuur met pipelines wilt vergelijken, dan is het inderdaad zoals Yelllowneck zegt: 12 pixel pipelines, met 3 pixel shaders per pipeline.
Wanneer je CPU het te druk heeft en dus de framerate bottleneck is, wil je wel dat je GPU physics uitrekent, maar stel je hebt net een 4 Weg opteron systeem gekocht, dan wil je idd niet dat de GPU dit soort taken op zich neemt.

Het goede hieraan is dat het simpelweg AGEIA niet ten goede komt. Stel al werkt deze GPU-physics toch niet zo geweldig, dan heb je tenminste nog een dijk van een videokaart.
Tja je hoefd geen extra kaart er in te doen. Alleen je kan een extra kaart er in doen het hoefd niet. Maar dat heeft natuurlijk wel consequenties.
Je game renderd dan niet met 'n 8800 maar met 'n halve.
Wel meer Physics in de game maar dan langzamer.
'n 8800 plus 8600 dedicated voor Physics. Is beter voor Nextgen games met 'n requierment als Oblivibion maar dan voor DX10. Grfisch zwaar dan will je rnederen en Physics niet sharen op die ene kaart.

Ten eerste DX10 hardware avaible dan zullen games daar ook met de tijd hun game load voor ontwikkelen. Games worden zwaarder zodat die 8800 en R600 ook gebruikt gaan worden. Voor grafisch gerenderde pracht.
Dat wordt dus dringen voor renderen en Physics.

Dan Heb ze dus de keuze uit Physics API
PhysX
Havok FX
Quantum
ATI variant.

Ageia loopt nu nog ver voor kwa Developers support.

Nou iig komt Hardware accelerated Physics goed van de grond. Wie de voortouw gaat nemen op langere termijn is dan nog open.
iig kom je 'n extra kaart erbij prikken als je niet wil inleveren op render vlak.

Uiteraard komt er ook nog eens 'n PPU2 :)
Als Ageia slim is gaan ze daar geen 2 jaar mee wachten.
Aangezien er nu wel concurentie in aantocht is van hardware dat elke klein jaartje vernieuwed wordt.
Ik heb niet de indruk dat Quantum een aparte API is.

Volgens mij betekent een kaart met zo'n Quantum engine niets anders, dan dat het ding compatible is met Havok FX. (of geoptimaliseerd is voor Havok FX)

Voor spellen zal ATI waarschijnlijk ook gewoon gebruik maken van Havok FX, aangezien dat bij developers een goed bekende API is.

Waarom zou je dan als GPU fabrikant met zo'n API gaan concureren?

Die ATI API is juist bedoeld voor al die andere gpgpu toepassingen die niets met spellen te maken hebben.
Hoe komt iedereen toch bij die 250 Euro ? :D
pricewatch: Asus Ageia PhysX P1 128MB DDR3 (PPU, CPU/GPU Enhancer)
199 E incl. Ghost Recon : AW
En dat is dus nog veel te duur! Voor dat geld koop je een Low/mid kaartje van de laatste generatie die dat ook aan kan en die prik je dan bij je huidige GPU kaart. Heb je meteen veel meer voor je geld omdat je graphics er ook op vooruit gaan!
Ik denk juist dat Nvidia en ATI erg laat zijn, de software voor de Physx kaartjes van Ageia is al veel verder ontwikkeld, ageia heeft allang het grootste marktaandeel weggeroofd voordat de drivers van de concurent volwassen genoeg zijn om te concureren. :Y)
ATi en nVidia laat? En de drivers niet volwassen genoeg?

Vergeet niet dat ATI en nVidia in zee zijn gegaan met Havok. Havok voorziet op dit moment de meeste games die uit zien van physics. De adoptatie van Havok FX (het pakket van Havok dat gebruik gaat maken van de GPU als physicsversneller) lijkt dan ook meer voor de hand te liggen dan de adoptatie van een andere physicsAPI waarvoor je ook nog eens een aparte physicskaart nodig hebt.

ATi heeft voor zover ik weet de physicsdrivers al lang en breed klaar. Maar men wacht tot de eerste games uit komen met ondersteuning voor Havok FX voordat men ze activeert in de Catalyst drivers. Bij nVidia zal dit niet veel anders zijn, vooral gezien het feit dat de G80 dus waarschijnlijk een dedicated physicsgedeelte heeft.

De adoptatie van HavokFX lijkt ook een stuk sneller te gaan dan de adoptatie van PhysX van Ageia. Het grote voordeel van HavokFX is dat het een standaard onderdeel is van een van de meest populaire physics-pakketten. Een developer als Blizzard heeft al aangegeven dat alle toekomstige Blizzard games gebruik gaan maken van HavokFX. Als je in je achterhoofd houdt hoeveel mensen er games van Blizzard spelen (Diablo, Starcraft en WoW (alleen al meer dan 7miljoen)), dan hebben ze al een enorm grote achterban.

Daarnaast maakt HavokFX gebruik van de huidige hardware. Je hoeft je X1600XT niet weg te doen als je een nieuwe videokaart koopt, want je kan deze gewoon gebruiken als physicsversneller (2x zo snel als een GF7900GTX, terwijl een X1900XTX tot 9x zo snel is). Dat is toch een minder grote drempel dan een aparte physicskaart kopen.

Ik denk zelf dat Ageia de prijzen enorm moet laten zakken willen ze nog wat verkopen. Of er moet echt een killergame uit komen waaruit blijkt dat de PhysX kaart beter werkt dan HavokFX op een GPU.
Je kunt beter zeggen dat Ageia erg vroeg is. Denk je werkelijk dat Ageia alle marktaandeel krijgt door producten eerder op de markt te brengen zonder enige nut. ATi heeft al lang de drivers op orde voor Physics en gedemonstreerd, maar aangezien geen enkele spel Physics ondersteund is hier geen haast geboden.
Nvidia en Ati hoeven helemaal niet te vechten om
Ageia's marktaandeel aangezien ze de graphisch kaarten al maken. Zonder grafische kaart heb je niets aan een Ageia en als Nvidia en Ati deze technolgy voortaan op iedere kaart gaan verwerken is het nut van een Ageia erbij steken een stuk minder. De strijd zal dus gewoon tussen Nvidia en Ati blijven gaan met op de zijlijn Ageia die probeert de kruimels te pakken te krijgen.
Een voordeel van al deze GPU-gebaseerde physics versnellers is dat er binnenkort door game ontwikkelaars wel vanuit gegaan kan worden dat er in een willekeurig systeem physics accelleratie aanwezig is.
Momenteel is het toevoegen van physics in een game alleen maar 'toegestaan' als het eye-candy betreft.
Op het moment dat je de physics de core gameplay laat beinvloeden wordt de game anders voor gamers met/zonder physics accelleratie en bevoordeel je een van de twee.
Dit is op dit moment een van de grootste kip-ei problemen in de adoptie van physics in game development.

@phusg
wie weet is die engine van nVidia voorzien van een gunstige licentie...
Het lijkt mij aannemelijk dat microsoft bij een volgende iteratie van directx physics ook een plaatsje zal gaan geven.
Ik krijg in ieder geval enorme flashbacks naar vroeger toen geluidskaarten en 3dkaarten allemaal per merk moesten worden ondersteund, totdat directx ten tonele kwam.
Ik las laatst een interview met Tom Sweeney over de nieuwe Unreal engine en zelfs daar blijkt het alleen voor eye-candy gebruikt te gaan worden. Had toch op meer gehoopt van b.v. UT2007... Altijd lastig dat kip-ei gedoe.

> gunstige licentie

Ik duim ervoor, maar ben bang voor Havok aangezien nVidia daar al langer mee werkt.

> volgende iteratie van directx physics ook een plaatsje zal gaan geven

Hopelijk wel ja, alleen MS heeft voor zover ik heb gezien pas van de zomer hier 1 a 2 programmeurs voor aangetrokken, dus dit kan nog wel even duren...

> vroeger toen geluidskaarten en 3dkaarten allemaal per merk moesten worden ondersteund

Klopt ja, alleen jammer dat het alweer op die manier moet :r
@Shadowblade.
Welke markt? De markt voor een physicskaart van 250 is tamelijk klein, zeker gezien de meerwaarde van de kaart klein is. Het aantal ondersteunde spellen is ook niet erg groot.
Ach, waarom zou dit moeten? We hebben toch allemaal dualcore :P
Leuk hoor, maar niet heus. Dit zal wel op basis van het Havok API/engine zijn net als de oplossing van ATI. Voor de hobbyist physics programmeur is de keus dus tussen een 'gratis' Ageia API die alleen geaccelereerd wordt op een losse kaart van ~200 euro en die misschien over een jaar uit de markt is gedrukt of, nou ja dat is het wel. Een licentie op de Havoc API/engine kost velen duizenden dollars, dus kan ik wel vergeten, maar is wel het mooist want vanaf nu wordt het op zowat iedere nieuwe grafische kaart geaccelereerd.

Moet ik nou maar een open source iets gaan gebruiken, zoals http://www.ode.org/, en hopen dat het volgend jaar een beetje vlot draait op een quad-core systeem?

Adviezen welkom!
Jammer dat nVidia het 'quantum physics engine' noemt. Quantumfysica is namelijk nogal iets anders dan weer een nieuwe implementatie van een of ander bestaand principe.
Zeker nu de 'quantumcomputer' (hoewel nog heel ver weg) veel in het nieuws is, zal het natuurlijk voor extra 'verkeerde' aandacht zorgen.
Tactiek/marketing is leuk, maar de naam suggereert gewoon heel iets anders dan wat het feitelijk inhoudt.
:r blech, jammer hoor...

@ .oisyn:
Mja, je hebt wel een beetje gelijk, maar ik zou dan eigenlijk liever een naam zien waaruit ik juist een beetje kan opmaken wt er zo nieuw aan is. Een woordspeling drmee kan ik dan nog weer meer waarderen ;)
Ik vind het een beetje gezeur om niks eigenlijk, hoeveel van dit soort woordspelingen worden er wel niet gedaan in de wereld? Ik heb nooit iemand gehoord over dat de "Emotion Engine" van de PS2 geen zak met emoties te maken heeft.

De verwarring met quantum computing verwacht ik niet zo snel, bovendien zal de consument daar geen weet van hebben. Ja, jij en ik wel, maar wij zijn erin geinteresseerd (tenminste, daar ga ik vanuit aan je reactie te zien) en kunnen tevens dat onderscheid maken.

Overigens vind ik de woordspeling wel grappig, aangezien de physics van newton (die prima toereikend is voor dit soort toepassingen) deterministisch is, terwijl quantum physics dat helemaal niet is :).
en dat heet marketing...
http://www.pcmweb.nl/artikel.jsp?id=1723697

Intel zou nvidia willen overnemen.
Kon ook niet anders na de overname van Ati door AMD!
Niet alleen PCMweb heeft dat nieuws...
nieuws: Overnamegeruchten nVidia jagen beurskoers omhoog
Sterker nog, dat van PCM is maar een vrij kort artikeltje. Bovengenoemde link wijst naar een erg interessante website, vol met dit soort nieuwtjes.. Moet je ook 's gaan kijken ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True