Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties

Hoewel AMD en nVidia al twee jaar spreken over het uitvoeren van natuurkundige bewerkingen op de videokaart zijn er nog geen games op de markt die dit kunnen. AMD stelt dat dit voorlopig niet zal veranderen.

AMD-logo (klein)De reden voor deze uitspraak is terug te voeren tot de overname van Havok door Intel afgelopen september. Havok is het bedrijf achter de Havok FX-physicsengine waarmee ontwikkelaars natuurkundige bewerkingen kunnen laten uitvoeren door de videokaart. Het lijkt er echter op dat Havok de Havok FX-engine zal introduceren zonder er ondersteuning op te geven, of zelfs het hele product in de ijskast laat verdwijnen.

NVidia deelt de mening van AMD dat de overname van Havok door Intel geen goed nieuws is voor natuurkunde op de videokaart. Het bedrijf is echter optimistischer en stelt dat er meer middlewarebedrijven zijn die werken aan het versnellen van natuurkundige bewerkingen op de gpu.

Waarschijnlijk zal de technologie op de videokaart pas doorbreken na de introductie van DirectX 11. Het is de bedoeling dat die DirectX-versie standaard physics kan laten berekenen door de gpu. De introductie van DirectX 11 wordt verwacht in 2009.

Moderatie-faq Wijzig weergave

Reacties (107)

Een Core 2 Quad heeft even veel floating-point rekenkracht als een GeForce 8600. De CPU is bovendien veel flexibeler dan de GPU, en je neemt geen grafische rekenkracht weg. Unreal Tournament 3 maakt gebruik van AGEIA PhysX maar doet prima alles op de CPU.

Conclusie: Hardware-accelerated physics is gewoon een hype.
Epic richt zich met hun GFX en Physcs op de mainstream.
Aangezien mainstream de PPU iig niet is. ondersteunen ze geen zware PPU enbaled gameplay Phsyics load. Ook dat zo'n feature de hele fast pace aktion fragging omzeep zou gooien. en de gameplay zwaar veranderd.
Hardcore UT'ers staan hierop niet te wachten. casual gamers des te meer.

Ook omdat dit problemen geeft met onlineplay. Netload wordt aanzienlijk.
Epic games zijn zwaar online gericht. En wil dus ivm mainstream geen aDSL2 extreem abbos dwingen.

Het is geen hype eerder dat er haken en ogen aanzitten voor devs om het op te pakken.
Een van de vele reden dat de adoptie zo stroef gaat.

GFX en eyecandy is een veel makkelijke stap dan Phsycs. Omdat het de gameplay en online play niet extreem beinvloed.
3DFX had het dus een stuk makkelijker met hun glide. Geen online hinder.
blijkbaar is er geld in te verdienen.. dus is het ook logisch (en verstandig, als ze overleven zonder verlies) dat Ageia dat doet.
Er is geld te verdienen met menig hype. Als ik geen ingenieur was met diepgaande kennis van processoren zou ik er wellicht ook voor vallen. Maar dit heeft geen toekomst.

Zoals ik hierboven al aanhaalde kwam AGEIA met de PhysX kaart toen CPU's relatief op een dieptepunt zaten qua rekenkracht ten opzichte van dedicated hardware. Met multi-core en architecturale verbeteringen (onder andere dubbel zo brede SIMD-eenheden) haalt de CPU deze achterstand snel in.

Ik wed trouwens dat AGEIA nog niet uit de rode cijfers is. Amper twee jaar geleden hadden ze nog 27 miljoen dollar aan nieuw kapitaal nodig. Als ze al uit de schulden zijn, boksen ze nu tegen een immens sterke Intel op, zonder al veel overtuigende resultaten getoond te hebben met hun kaarten...
Wat ik tot nu toe niet begrijp is wat zon physics kaartje nou doet? Maakt het de games die het ondersteunen mooier ofzo of is het enkel een verkooppraatje?
Wat ik tot nu toe niet begrijp is wat zon physics kaartje nou doet?
Het kan optellen en vermenigvuldigen... De driversoftware gebruikt die rekenkracht om Newton's formules te evalueren.
Maakt het de games die het ondersteunen mooier ofzo...
Dat hangt af van de applicatie.
...of is het enkel een verkooppraatje?
Alle berekeningen die de PhysX kaart kan, kan je CPU even goed. Dus er hoeft geen verschil te zijn als je zo'n kaartje aanschaft. Als de physics-software voor de CPU slecht geoptimaliseerd is kan een afzonderlijke processor voor physics wel sneller zijn. Maar met multi-core CPU's en goed gebruik van SSE verdwijnt enig voordeel van een extra kaart.
"Alle berekeningen die de PhysX kaart kan, kan je CPU even goed."
Juist maar 'n z80 kan dat ook. 8086 dito.
Formules en code zijn het probleen niet.
Physics wordt al heel lang gebruikt in games.

Het gaat om de Phsyics load dat met voldoende fps gerenderd kan worden.

'n z80 zou Cellfactor in full settings 'n jaar doen om een Phusics event te berekenen
'n gemiddelde moderne cPU 0,5 sec en 'n PPU in 5milliesec

Dat 'n cPU goed doet is omdat de Phsyics load in games geoptimaliseerd is voor 'n dual core. dit houd in dat moderne games meer Phsyics hebben dan oude single core gerichte games voor 'n gemiddelde PIIII

'n PPU en GPU kan heel veel meer maar dit moet wel op een goede wijze toegepast worden in een top game.

'n bagger gane klass B titles met over de top physX maar de game algemeen is waardeloos en de PhysX zinloos toegepast dan kan 'n mindere PhysX heavy game. maar als game beter uitgewerkt en de PhsyX verijkt de game meer toch de betere zijn.

Phsyics is geen wonder middel maar als die PhysX goed toegepast worden op features die wl zware rekenkracht eisen dan zie je pas de beperking van 'n CPU.
Juist maar 'n z80 kan dat ook. 8086 dito.
De PPU en een moderne CPU hebben beide vectorinstructies. Daar gaat het mij om. Een CPU heeft minder cores maar een veel hogere kloksnelheid, waardoor de rekenkracht niet hoeft onder te doen. De PPU bevat geen uniek component dat physics berekenen zoveel sneller zou maken (de GPU heeft dit wel voor graphics, in de vorm van texture samplers).
Een physics kaartje is enkel en alleen bedoeld om alle soorten fysische eigenschappen te simuleren, dus bv je neemt een model met elk haarte apart gemaakt, dus niet gewoon meer een kapsel, maar ieder haartje apart vormt nu het kapsel, laat er nu eens een wind doorspelen, dan zal je kaart berekenen voor ieder haartje apart hoe de wind nu precies inspeelt op het haar

Zelfde met bv een raket af te schieten op een gebouw, je kaart zal precies berekenen welke schade je raket aanricht en hoe je muur precies moet vernietigd worden en ook hoe het puin zal vallen met rekening te houden met de impact van de raket en met rekening te houden met de zwaartekracht, wrijving tov lucht en zo
Dat zijn vooral de cosmetiche fearures. Veel belangrijker vind ik de sterk verbeterde pathfinding die mogelijk word met physics en veel slimmere npc's. Physics geeft meer mogelijkheden om een uitdagende, competatieve, niet valsspelende computer-tegenstander te realiseren.
Persoonlijk vindt ik de Physics met zo'n kaartje vrij subtiel en doet me erg denken aan het oude glide van 3dfx. Mannetjes, vlaggetjes in UT3 hebben net wat meer details en glans, weerspiegelingen in plassen, wapperende spinnewebben en een vette turbulentie als je met dat hoverding omlaag gaat.

Grotere en complexere explosies zou die kaart ook moeten genereren, maar dat valt niet op ;)

Het verschil is niet zo 'zichtbaar' als met glide destijds.
1 van de ondersteunende spellen is City of Heroes/Villians. Zet je de 'particle system' optie aan, krijg je een berg meer 'debri' in het spel. Even wat simpele voorbeelden:

Kogels uit wapens blijven normaal al liggen, gravity skills werken als soort van magneten op die kogels die dus allemaal in het rond vliegen.
Er vallen blaadjes van de bomen als je er langs rent, niet veel en maar een paar blijven liggen.
In Mayhem missies kan je erg veel kapot maken, een brievenbus bijvoorbeeld klapt uitelkaar in 4-5 stukken er zal daarna langzaam verdwijnen.

Hoe hoger je die 'particle' system zet, hoe meer CPU power het spel trekt, tot aan zware framedrops aan toe.

Bovenstaande met zo'n PhysX kaart wordt in 10voud uitgevoerd. Daarbij zullen mayhem debri blijven liggen, dingen vallen uitlkaar in veel meer stukjes, blijven liggen, veel meer zooi (papiertjes en vuil) op de grond. Ook het gebruiken van stenen objecten (gravity) zal uiteenvallen in stukken en rond blijven liggen.

Alles met erg lage CPU verbruik, buiten het normaal renderen van de objecten.

http://www.youtube.com/watch?v=c2G6bjTIRVg
Hier een filmpje (issue 7, we zitten nu bijna op issue 11), die auto's zie je normaal enkel in 3 delen vallen met wat brand en explosies.

[Reactie gewijzigd door SinergyX op 23 november 2007 14:25]

Hee zou je niet een PS3 of Xbox 360 aan je pc kunnen linken?
Dan kun je die de physics en what not laten rekenen en je pc voor de rest! :9

of uberhaupt meerdere gameconsoles als 1 laten werken...
gebruikt teveel stroom.
maar in game word de cell echt gebruikt als een oude cray, het cell idee komt ook van oudere cray render machines maar dan een cray on chip.

de cell is een knap gemaakte chip, gezien van een techniek freak en fan van hoe leuk het was om vroeger echt aan te knoeien op Apple II's de PS3 brengt veel van het eerste pc gevoel weer terug, de cell is een interessant platform om een programma aan de praat te krijgen net als meeste GPU's trouwens.
GPU's zijn leuk om simpele simulaties op te draaien, ze kunnen handig zijn om dingen te doen die gewoon niet mogelijk zijn op een huidige CPU.

[Reactie gewijzigd door stewie op 22 november 2007 23:47]

Dat physX kaartje is alleen goed voor fanatieke gamers met veel geld. De gemiddelde gamer ziet het nog niet zitten om zo'n kaartje bij te kopen denk ik. Om niet te spreken van het extra slot op je moederbord dat dit weer in beslag neemt. Als je een GPU koopt, dan verwacht je ook dat hij alles van het beeld kan berekenen. Inclusief de physX .
Ja, van een GPU verwacht ik ook datie 5.1 Geluid kan genereren.. Physx en graphics zijn 2 compleet verschillende dingen, en de gemiddelde consument begrijpt dat zelfs..
Dit vind ik toch een wat gewaagde uitspraak, want ik meen dat als je bij een HD2xxx een DVI-HDMI converter aansluit, dan heb je volgens mij ook 5.1 geluid dat wordt gegenereerd door de videokaart.
Op zich zou een videokaart ook perfect als Physics processor dienst kunnen doen (vandaar dat AMD het ook al aangekondigd heeft) Maar het nadeel van dit soort oplossingen is natuurlijk wat je belangrijk vindt: Als je graag 7.1 Surround wil met EAX, dan koop je nog gewoon een losse geluidskaart. En misschien willen sommige mensen wel superieure physics: De huidige Ageia Physx kaart kopers.
Nope, je videokaart kan op dit moment alleen via S/PDIF het geluid van je geluidskaart forwarden over de HDMI uitgang, hij produceert het echter niet.

Overifens ben ik het niet met SuperDre eens. De huidige DX10 kaarten worden ook al ingezet voor complexe berekeningen. Physics is dat ook en kan prima op een (ongebruikte) videokaart draaien. Je GPU is ook een soort van CPU, maar dan meer geschikt voor andere taken, vroeger was dat alleen graphics maar tegenwoordig ook complexe berekeningen.

Je kan op je CPU toch ook een OS draaien, muziek/films mee laten afspelen waar de huidige CPU ook voor is geoptimaliseerd met onder andere SSE. Vroeger toen de computer nog bestond uit logge dingen die een hele kamer in beslag namen deed men er ook alleen berekening mee. Het is een vorm van evolutie.
oeh een heel extra slot.... kom op zeg hoeveel sloten gebruik je vandaag de dag nog. 2 Voor je videokaart, 1 voor je gelduiskaart (in sommige gevallen) 2 random slots voor je extra usb aansluitingen.
Het is echt zo'n jaren 90 excuus toen zo ongeveer alles nog apart was.
Denk toch dat juist de tweakers en echt fanatieke gamers die dit soort kaartjes overwegen behoorlijk veel sloten al in gebruik hebben.
Hardware matige raid oplossingen (zei het voor je snelheid zei het voor de extra schijven die je aan moet kunnen sluiten.) en goede hardwarematige netwerk kaarten zijn aanmerkelijk sneller dan die onboard rotzooi op de moederborden van tegenwoordig.
Verder is het zelfde publiek dat dit soort psy kaarten koopt ook het publiek dat Sli/Crossfire x gebruikt. Op ten duur ben je echt wel door je sloten heen hoor.
Je vergeet op zijn punt in te gaan.

Het maakt niet uit of het extra sloten kost. De gemiddelde gamer heeft gewoon geen zin nog een kaartje erbij te kopen en vind het zo wel goed genoeg. Daarbij komt dat de helft er nog nooit van gehoord heeft. Van reclame (via internet of mond op mond) is nauwelijks sprake. Zo'n kaartje gaat dus op korte termijn dus geen voeten aan de grond zetten. Simpel.
jaren 90? Begin 2000 had ik nog 6 PCI slots

nu hebben moederbroden er nog maar 3, ze gaan dus sneller op he
ik heb er zelfs 2 waarvan 1 gebruikt wordt voor mijn netwerkkaart. sound gebruik in onboard. tenzij je misschien een wat oudere moederbord hebt want mijn oude compaq pentium 3 heeft er inderdaad ook 6 :)

Veel mensen hebben tegenwoording SLI/Crossfire dus dan word het idd krap

[Reactie gewijzigd door Tjona100 op 22 november 2007 20:39]

Een non-situatie: je stopt zo'n kaart niet in een oude computer (neem aan dat die oud is vanwege de netwerkkaart, tegenwoordig zitten er 1 of 2 onboard). Zelfs met SLI (wat een vrij rele situatie is) heb je nog 2 sloten over. Meestal zijn het of 2 pci-slots, of 1-pci 1-pci-e. Is deze kaart ook niet voor Pci-e te vergkrijgen? Er is iig wel een X-fi voor Pci-e (enkel niet het topmodel). Zowiezo is het natuurlijk geen probleem als je een single-slot kaart (8800GT) bij de SLI gebruikt.
Nou, mijn sloten zijn anders op. Twee stuks voor HD 2900XT, eentje voor me X-Fi en een PCIe slot voor me raidcontroller. En ja, ik heb mATX...
Makkelijke he enkel kortzichtig naar je eigen situatie kijken.

Mijn situatie:
M-atx
2 sloten videokaart
1 slot geluidskaart
1 slot externe waterkoeling

Pc vol.
3 voor videokaarten (2x 8800 GTX + 1x 8500 GT, SLI + TripleScreen)
1 voor mijn Areca RAID Controller (4 Raptors)
Geluidskaart en TV-tuner hebben al plaats mogen ruimen om alles erin te kunnen proppen. Gelukkig was er onboard SPDIF & MediaPortal TV-server...
Huh , wat is dat nou voor logica ?
"Ik koop een videocard dus ik verwacht dat ie ook physics voor me berekent ?"

Wat is de volgende stap dan, verwachten dat je geluidskaart de AI doet ?
"Ja, ik koop tenslotten een geluidskaart en de mannetjes in games moeten mij kunnen horen dus moet de geluidskaatr de AI doen !" :?
Een moderne GPU is eigenlijk n grote matrix van floating-point rekeneenheden. Steeds minder componenten zijn specifiek aan graphics. Hij is dan ook geschikt voor een groeiend aantal andere floating-point intensieve toepassingen, waaronder physics. Zoek ook even GPGPU op.

Geluidskaarten zijn voor zover ik weet nog steeds sterk gespecialiseerd voor geluidsbewerking en dus niet bruikbaar voor iets anders.
@LDenniger
Dat is die quantum marketing.

Maar het gross van volk meent dat je dit erbij krijgt alsof er 'n PPU in zit. Sommigen denken dat ook. Wat uiteraard totaal niet zo is.
Sommigen weten dat het de schaders zijn maar menen nog steeds dat het bonus is, gratis erbij krijgt.

Nu kan je met 'n high-end kaart 'n kwart van de shaders loslaten op Physics. maar dus ten koste van FPS aangezien die nu 3/4 van de shaders heeft. Plus de invloed van al die Phsyics daar op.

'n G-kaart en zijn GPU hebben 'n zware taak en dat is renderen. De meeste games zijn vooral GPU limiteerd op wat uitzonderingen na.
Die shaders zijn dus al hard nodig voor het renderen.
Zelf zou ik 'n kaartje erbij proppen

Zonder software support kan je niet veel verwachten. HavokFX is dus dood door Intel.
Dus zijn we afhankelijk van hoe gretig Dev's op Phsyics middleware storten. Daarom die kill van iNtel.
Want Quantum Cg Cuda stream GPGPU programming.
Is leuk voor Phsyics middleware of Physics engine builders.
Dus Havok en crytech newton. Die gaan voor de low level deel.

De meeste devs die meer gefocust zijn op games to market, gaan voor middleware of licenceerbare gameengines met 'n Physics solutie er inbegrepen. Unreal 3 Crytech2 engine. Of appart erbij havok, PhysX.
ATI en nV zouden dan eigenlijk 'n andere lib pushen. Maar of dat zin heeft aangezien DX11 deze taak mogelijk overneemd.
iNTel heeft tot die tijd de mogelijkheid om ook op gPU markt te richten en zelf met krachtige GPU soluties te komen of iets dat daar tegen op gezet kan worden. Tijd zat dus. Voor hun architektuur designers

@cod1f1ed
Physics is een zware computational load die hevige interactie tussen veel nods gebruikt. PPU is dus met Physics computation in egdachte gemaakt. Optimaal er voor en patented.
Dus de interne bandbreedte tussen reken eenheden en local mem buffers in die eenheden is van groot belang. omdat de resultaten van andere eenheden input voor andere kunnen zijn. Snelle interactie tussen geheugen cellen van andere eenheden.
GPU lijken hier niet op. De Cell komt wel het dichtste bij met z'n 256kb local mem per SPE maar mist de bandbreedte.

Ik verwacht van 'n PS3 meer PhysX dan van 'n xbox360. Met Unreal3 PhysX engines.

Het voordeel voor GPU nu is 'n moderne Dieschrink Prodesee en large diespace en mogen wat evrmogen trekken. Dus die 700mil transistor ships is een hoop meer transistor voor shading dan PPU heeft

En uiteraard verschild de effecientie per vele verschillende Physics task

Jammer, had voor havok FX juist CF mobo's aanegschaft niet zozeer voor CF maar voor GpGPU Physx met HAvokfX games.
Eventueel voor crysis :)
Huh maar als je een dual core CPU hebt dan zorgt de 2e core toch voor de physics? Spellen kunnen beter dual core/quad core support geven dan support aan een aparte physics kaart. Of zie ik het fout? Meestal bij spellen dan werken de 4 cores toch niet allemaal even hard of allemaal 100%? Kunnen die de physics niet beter opvangen?

[Reactie gewijzigd door Shrimp O Vis op 22 november 2007 21:55]

Het lijkt ook mij dat multicore CPU's prima geschikt zijn om enkele cores te gebruiken voor extra physicsberekeningen etc.. Maargoed, ik ben ook geen expert..
CPU architectuur is bij uitstek niet geschikt om deze berekeningen uit te voeren. Daar is de architectuur te langzaam voor. PPU's en GPU's hebben een streaming architectuur, waardoor veel elementen snel berekend kunnen worden.
CPU architectuur is bij uitstek niet geschikt om deze berekeningen uit te voeren. Daar is de architectuur te langzaam voor.
Onzin. Een quad-core kan 32 floating-point berekeningen per clokcyclus, en met deftig geoptimaliseerde code kan dat effectief bereikt worden.
PPU's en GPU's hebben een streaming architectuur, waardoor veel elementen snel berekend kunnen worden.
SSE staat voor Streaming SIMD Extensions. Ok, de architectuur is niet gelijk, maar met out-of-order-execution kan de verwerkingssnelheid ook gemaximaliseerd worden. De GPU verspilt trouwens rekenkracht wanneer batches niet vol zijn. De CPU is dan ook meer geschikt voor kleine, individuele berekenigen zoals voorkomen bij physics. Tegenover de PPU heeft de CPU dan weer een enorm veel hogere kloksnelheid.

En met de her-introductie van hyper-threading in Nehalem zal latentie in de CPU nog veel minder een probleem vormen. De CPU wordt dus met rasse schreden beter voor rekenintensieve multimedia. Ze maakt een inhaalbeweging qua rekenkracht ten opzichte van alle andere hardware...
Het gaat er ook om hoe CPU's zijn geoptimalisserd voor dit soort berekeningen. SSE ed zijn meer op media gericht en ook die hele floatingpoint zet geen zoden aan de dijk. De CPU is op dit moment er niet op gemaakt om efficient zn transistors te gebruiken om krachtberekeningen los te laten op allemaal objecten.

Zie ook maar 3DMark, hoeveel moeite een CPU heeft om dat beeld te renderen terwijl mijn 9 jaar oude Riva TNT voor die prestatie nog uit zn neus vreet...
SSE ed zijn meer op media gericht...
Het zijn volledig generieke SIMD floating-point en integer bewerkingen. Perfect bruikbaar voor media maar even goed physics.
...en ook die hele floatingpoint zet geen zoden aan de dijk.
Een PPU bestaat hoofdzakelijk uit SIMD floating-point eenheden. Zoek even het patent op anders.
De CPU is op dit moment er niet op gemaakt om efficient zn transistors te gebruiken om krachtberekeningen los te laten op allemaal objecten.
Onzin. Een Core 2 Quad 3 GHz kan met z'n 96 miljard floating-point berekeningen per seconde een gigantische berg rekenwerk verzetten. Aan 32 FPS is dat bijvoorbeeld 3000 bewerkingen op 1 miljoen objecten (meer dan op je scherm passen). Of 1 miljoen bewerkinen op 3000 objecten bijvoorbeeld (Newton's formules zijn echt zo lastig niet). Dus zelfs als een groot deel van de rekenkracht naar andere dingen gaat is er ruim voldoende om physics erbij te nemen. Mits behoorlijk geoptimaliseerd natuurlijk, want daar knelt vaak het schoentje.
Zie ook maar 3DMark, hoeveel moeite een CPU heeft om dat beeld te renderen terwijl mijn 9 jaar oude Riva TNT voor die prestatie nog uit zn neus vreet...
SwiftShader verslaat moeiteloos een Riva TNT (en ondersteunt tot en met DirectX 9).

Maar de vergelijking tussen GPU en CPU kan je zowiezo niet doortrekken naar de PPU. De GPU heeft gespecialiseerde componenten, met name texture samplers en interpolators, die volledig gepijplijnd zijn. Een CPU heeft voor die bewerkingen vele instructies nodig. Een PPU heeft echter geen component die specifiek is aan physics. Hij voert dezelfde vectorberekeningen uit die je ook bij SSE terugvindt.
De PPU architektuur keuzes zijn zo gemaakt om meer effectiefer te zijn met lowlevel physics computations. De units zelf zijn niet bijzonder maar het geheel de design is gemaakt voor Pysics calculaties. Hoe de units met elkaar werken is van groots belang. Physcs genereerd veel onderlinge interacties in de massive parralistische computations. 'n cPU is daar niet voor gemaakt.
En je vergelijkt hier 'n 125mil chipje

Je hebt nu Q7790 of zoiets 'n vergelijkbare PPU zou uiteraard op 'n lagere klok lopen heeft meer weg van een gPU massive parralelisatie. Ook tot 60 of 90 watt TDP hebben. en met 65 45nm zo'n 1miljard transistors hebben.

8 keer de transistors en mogelijk 4 keer de klok.

Dat is de niveau waarop CPU en GPU tegenmekaar zitten. iNtel ziet GPU dus zeker als bedrijging en if uou can't beat them join them, maar dat heeft tijd nodig om 'n eigen GPU devisio op niveau te stampen ondertussen ga je vlink met je kont tegen werken.
Kill HAvokFX. De Dev wereld wordt voornanmelijk gestuurd door populaire middlware.


130nm is Nothwood en de eerste hammers. en dan de Cellies aangezien de lage TDP van de PPU. daar is de huidige PPU kwa nivea waar hun architektuur op zit.
En kwa Physics klopt het huidige CPU.
Er is totaal geen vraag naar nog meer rekenkracht voor physics. Dus al bracht AGEIA een tien keer krachtigere PPU uit dan waren hun kaarten niet populairder. De toenemende rekenkracht van multi-core CPU's is ruim voldoende (en een CPU heb je uiteraard zowiezo).

Daar komt nog eens bij dat AGEIA helemaal niet in staat is een 65 nm of kleinere chip te produceren. Dat kost gewoon te veel.

Deze strijd verliezen ze dus zowiezo.
sja.. PhysX kaartje.. ik ken nu 2 games die dat ondersteunen.. en dat zijn ook nog eens games waar ik vrij snel op uitgekeken ben.. jammer dat dit niet van de grond is gekomen.. nou is die kaart ook veel te duur als je kijkt naar wat er op die pcb zit..
Welke games zijn dit?
http://www.ageia.com/physx/titles.html. Lijst is trouwens niet compleet, als ik me goed herinner installeerde medal of honor:airborne ook een ageia driver.

Filmpje van ageia physics in een custom map van UT3: http://www.ageia.com/physx/ut3.html

En wat betreft dat ie alleen is voor fanatieke gamers met teveel geld, als het goed is gaat (in amerika) de prijs omlaag tot 99 dollar.

[Reactie gewijzigd door sewer op 22 november 2007 20:30]

Graw 1+2 PC
BOS 1+2+3
Silverfall
cellfactor revolution

Er zijn er een paar meer, maar in andere genres die mij geen ruk interreseren
Zoals switchball.
'n uitgebreidere lijst op [H]
http://www.hardforum.com/showthread.php?t=1141844

[Reactie gewijzigd door SG op 23 november 2007 19:12]

Goed nieuws voor Ageia:

New Havok Physics Engine Disables Proprietary GPU Physics

[Reactie gewijzigd door WoutZoR op 22 november 2007 22:43]

The Havok FX engine is responsible for calculating physics without any GPU support whatsoever, regardless of brands.
Dit zegt mij dat ze vertrouwen hebben in de rekenkracht van muti-core CPU's. Met de expertise van Intel zal men ook eindelijk optimaal gebruik maken van SSE.

Met andere woorden, er is helemaal geen nood aan dedicated hardware voor physics, GPU noch PPU. Geen goed nieuws dus voor AGEIA.
Ik zie zie het toch anders iNtel krijgt het spaans benauwed van GpGPU Phsyics.
Daarom die aktie. nu wordt de mindere Physics solutie CPU de gamer door de strot geduwed.

Ik had liever zelf de keuze van
CPU of extra GPU of PPU addon voor Mucho more Phsyics

Dat wordt de Physics waarderende gamer nu ontnomen in deze Periode.
Terwijl eht Physics niveau veel hoger had gekunt in games uit deze periode waar Havok fX zou toeslaan.

Hopelijk krijgt Ageia hierdoor meer vrijspel

Misschien met paar toffe PhysX heavy Unreal3 engine TC mods.
Terwijl eht Physics niveau veel hoger had gekunt in games...
Je kan niet zomaar meer physics in een game gooien. De doorsnee first-person-shooter heeft niet meer nodig dan een paar kratten op elkaar kunnen stapelen, een explosie hier en daar, en wat voertuigen. Al dit kan perfect op de CPU.

In tegenstelling tot graphics schaalt physics dus ook niet of nauwelijks in de toekomst. De conclusie is dan ook dat een PPU er niet interessanter op wordt.

Geef mij maar een krachtiger CPU zodat developers verder kunnen gaan dan de physics hype...
over 2 jaar zullen intels chips meer lijken op de PS3's Cell dan op een simpele multi-core.
Amd zou opgekocht worden door Apple.
Lijkt mij een sterk verhaal, maar anders is die Ipod toch weer erges goed voor. :)
Kweet niet hoeveel groter Apple dan is als AMD?

How: niet alleen off topic praten :P

Jah zonde als Intel Havok heeft gekocht om physics via cpu te pushen. Spint Amd ook weer garen van natuurlijk. Toch wel jammer aangezien het op de cpu hoogstwaarschijnlijk lang niet zo effiecient zal zijn. Dat zouden er weer een paar milieu-puntjes af zijn voor INtel.

Lijkt me dus dat Nvidia wel het meest baalt

[Reactie gewijzigd door Powrskin op 22 november 2007 21:48]

Ah, vandaar die Intel processors in macs :z
Intel betaald, AMD niet ;)
maar Apple kan zo morgen AMD's gaan verkopen als die beter blijken te zijn in de toekomst, nu zijn de core cpu's van intel gewoon het snelst.
En hoe zit het met de PhysX kaartje van ASUS? Koop je die toch voorlopig?
Mja, dat staaltje techniek op je GPU is ook wel handiger :)
Eerder die zooi shader dat zijn nogal wat Gflops wat je voor natuurkunde kan gebruiken. Wat ook inhoud dat het er wat minder overblijft voor de render taak.
De GpGPU natuurkunde oplossing is flexibler.
1 voor de 2 task of
2 voor 2 task
2+1 voor 2 tasks
van 200 tot 1500

Alleen de party poeper iNTel heeft de middleware schakel er tussen uit gehaald.
Dat is jammer.
Ageia PPU concurent is nu de CPU. Niet de GPU.
dit geeft Ageia weer 'n iets beter kansje om in de markt te penetreren.
leuk voor ageia.

Dit is weer sterk afhankelijk van de games.
Unreal 3 engine Physics mod projectjes
Of warmonger waar blijft die?
Kan mischien iets betekenen voor de groei van PPU target markt.
Als je bedoelt dat de PPU concurrent voor Ageia de CPU wordt omdat Intel Havok heeft overgenomen of omdat er geen physics op de GPU komen, dan betekent dat zeker niet dat de CPU de concurrent voor de Ageia PPU wordt. De PPU is er juist omdat de gemiddelde CPU de physics-berekeningen niet zo snel kan als de PPU. Ook niet als Intel de Havok op z'n CPU zou willen zetten, want zij zullen net als AMD ook eerder voor de GPU+PPU integratie kiezen. Dus de CPU zal echt niet een (iig geen directe) concurrent zijn voor Ageia in mijn [vierkante] oogjes :>

Of zie ik dat fout?
Intel werkt aan een hybride CPU/GPU oplossing waarbij de chip een hoop x86 processen tegelijkertijd kan verwerken (denk 80 core) Zo'n ontwerp kan bruikbaar zijn als CPU maar ook als GPU en PPU. Als Intel inderdaad die kant op beweegt met de CPU ontwikkeling is er weinig reden meer voor een specifieke PPU en kan de CPU het trucje zelf prima af.
Het reactieniveau op t.net licht vandaag in ieder geval technisch hoog, een beetje uitleg zou voor mij in dit geval alleen geen kwaad kunnen. :?
Je bedoelt dat je de termen PPU, CPU en Gigaflops niet kent? ;)
Licht? Met een basiscursus Nederlands ben je volgens mij meer ....
Dit is tweakers.net, een beetje voorkennis van het computergebeuren is dus nodig. Misschien is newbie.net beter geschikt voor jou?
Het niveau ligt juist te laag de laatste tijd. Je had het vroeger moeten zien..
Het niveau ligt juist te laag de laatste tijd. Je had het vroeger moeten zien..
Ik zal weer eens wat actiever worden als ik tijd heb. ;)
Daar zeg je wat, het niveau kwa kennis is inderdaad laag, en sommige mensen doen de moeite niet eens om wat op te zoeken (Niks tegen Arne, maar even in het algemeen).
Het enige probleem wat ik vaak zie, is dat er vaak van die pipo's zijn die de "dikke van dale moeilijke woorden editie" helemaal gaan doorzoeken om een ontzettend moeilijk mogelijke uitleg te creren en zichzelf helemaal geweldig vinden, en andere mensen gaan afzeiken omdat de "mindere" zogenaamd niet te begrijpen zijn ;(
Kwa Physics load niet. CPU kan minder aan en moet zijn Gflops delen over meerdere task.
Maar door havok op te kopen. De midlleware dat popu is onder devs. Wordt CPU de standaard platform waar devs op richten.
GPU zijn ook 'n common verschijnsel. Dus de Dev's zouden HavokFX veel makkelijker oppaken ivm grote bestaande target platform. Die dus meer op aanwezigheid onder de consumenten sterker concurreerd.
Waar PPU target markt eerst moet groeien.

Dus CPU mag dan niet de directe competitie zijn het is voorlopig de enigste. En omdat CPU zo common zijn voor dev support ook 'n sterke concurent. ook al bied het minder Physics load.
De release van Warmonger is uitgesteld. Hiermee hopen ze met de extra beta test tijd een goede game op de freeware markt te brengen. Volgens mij is de beta versie van het spel tegenwoordig van de Ageia site te downloaden.

Tevens kan je op het forum de Extreme UT3 Mod-Pack vinden.

Hiervoor kun je beter wel een PPU kaartje in de kast hebben zitten.
warmonger is op dit moment als open beta beschikbaar en tegenwoordig vanaf meerdere mirrors te downloaden: http://www.ageia.com/forum/viewtopic.php?t=3

ik ben closed beta tester geweest sinds de eerste beschikbare closed beta (RC2) toen de installer nog ruim 2.1gb in nam :P, nu is hij nog rond de 450mb en is hij goed stabiel te noemen. hij is ook nog best zwaar want op mijn configuratie haalt het net rond de 30fps(opteron165@2.4/2gb/7900gtx/x-fi/ppu op vista ultimatex64)

helaas kan lang niet alles kapot maar het geeft toch wel een heel erg gevoel van onveiligheid omdat je eigenlijk nergens veilig bent, ook brokstukken doen erg veel pijn.
Ze zijn niet van ASUS. Net zoals 8800 GTX'en niet van ASUS niet van asus zijn. Asus brengt ze enkel uit: Ageia heeft ze ontwikkeld en maakt ze geloof ik ook. Er zijn nog een stuk of 2-3 andere bedrijven die de kaarten ook uitbrengen.
Enkel Asus en BFG dat ik weet. Zo populair zijn ze niet...
AGEIA ontwerpt de chip, ze worden gefacriceerd in Taiwan of iets dergelijks, en ASUS/BFG plaatst ze op een insteekkaart en verdeelt ze.
Nou, die PhysX kaartjes die werden dus ineens een heel stuk minder populair bij veel fabrikanten toen bleek dat ATI en Nvidia dit 'binnenkort' ook wel in hun GPUs konden gaan bakken... weinig aanbod, weinig vraag, weinig software, weinig vraag, dus weinig aanbod, dus weinig vraag, dus wienig software, etcetera.

't is natuurlijk wel een beetje jammer om eerst een productlaunch te saboteren met meldingen dat je dit ook kan integreren in iets wat iedereen toch al koopt, en dan je product niet uit te brengen. Althans, voor Ageia heeft dat bepaald geen goed gedaan.
je mag niet aannemen dat vraag gecreeerd kan worden door aanbod, zo werkt het niet.

aanbod volgt vaak wel op vraag, maar vice versa niet. wel kun je vraag creeeren dmv marketing, maar da's een ander verhaal
Vraag wordt gecreerd vooral door software die er goed gebruik van maakt.
'n top game die Phsyics goed toepast.
Dan krijgt je vraag. Aanbod is het probleem niet de software die vraag genereert is nog veels te mager.
Eeeh...ik dacht dat net CUDA (nvidia) of CTM (ati), devs toelieten om physics engines the schrijven voor die kaarten. Waarom moet het opeens een directx eis worden.
om er een standaart van te maken.

videobakkers zorgen dat de hardeware aan bepaalde specs voldoet, en de spellebakkers hoeven niet meer met de hardware rekening te houden. teminste, niet meer zoals vroegah. dat een spel SB8 / SB16 / AWE / gravis ondersteuning had, en zelf soon beetje de driver was.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True