Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 145 reacties
Bron: Hardspell.com, submitter: loodgieter

Op de Chinese website Hardspell.com zijn de eerste foto's te vinden van de Asus PhysX-kaart. Deze kaart moet de cpu ondersteunen bij het berekenen van natuurkundige effecten in spellen. Hierdoor zouden spellen een stuk realistischer moeten worden. De kaart van Asus lijkt qua lay-out veel op een grafische kaart die in een PCI-slot kan worden gestoken. Opvallend detail is de aanwezigheid van een molex-connector voor de voeding. Deze is nodig omdat de processor 20W aan energie verbruikt. In de toekomst zullen spellen als Unreal Tournament 2007 en andere spellen met de Unreal Engine 3.0, Bet on Soldier: Blood Sport, Dogtag en Sacred gebruik kunnen maken van de PhysX-processor. Huidige spellen, waaronder Half-Life 2, die gebruik maken van de NovodeX-API zouden ook gebruik kunnen maken van de PhysX-processor. De Asus PhysX zou met kerst in de winkel moeten liggen. Hoeveel deze echter moet gaan kosten is niet bekend.

Asus PhyxX
Moderatie-faq Wijzig weergave

Reacties (145)

1 2 3 ... 6
Doet me een beetje denken aan het 'co-processor' principe van vroeger :P
Misschien komen ze over een paar jaar wel met een 'physic-unit' in cpu's :*) speciale cpu's voor gamepc's :)
Als ze dat gaan doen kunnen ze het beter gelijk ook voor wetenschappelijk onderzoek geschikt maken. En een soort van scientific instruction set met allerlij gebruikelijke statistiche en natuurkundige functies :) Som kwadraat, correlatie, fourier etc allemaal in razendsnel native silicon uitvoering :z Ook handig voor AI.
nice, maar of mensen hier nou geld voor over hebben?
is wel totaal andere aanpak, ben benieuwd
Wellicht maakt deze kaart het wel mogelijk om met een relatief goedkope processor en een high end videokaart goede prestaties neer te zetten.

Zo kan je misschien met een AMD64 3000+ met PhysX-kaart dezelfde (game)prestaties neerzetten als een AMD64 4200+.

Nu moet alleen die PhysX-kaart nog onder de 150 euro blijven 8-)
dat betwijfel ik, dan moet het spel wel zeer zware physics gebruiken, zoals realtime fluid en softcloth... en dan nog betwijfel ik dat het het verschil zal maken tussen een 3000+ en een 4200+
Er zal misschien nog niet heel veel zware physics worden gebruikt, maar dat kan met die PhysX kaart dus zwaarder. Doom (1) zal ook niet veel sneller op een SLI 7800 draaien dan op zeg een Riva TnT, maar de spellen zijn ondertussen zoveel grafisch complexer dat het nu wel nodig is om een zware GPU te gebruiken. Hetzelfde kan dus gaan gelden voor de PhysX kaart.
Nja, bij games is niet alleen de fysica de taak van de CPU he, ook de AI en zo, en dat neemt deze PhysX kaart niet op zich.
Misschien wordt het over enkele jaren wel een vast onderdeel op ieder moederbord...
Ik denk eerder dat dit op een vga kaart komt te zitten.
Ik zou zeker wel geld over hebben voor een spel met realistischer physics. Bovendien ontlast het ook je GPU en CPU, dus het geeft ook nog een performanceverbetering.
Tja... Toen de eerste 3D GPU's op de markt kwamen, werden die dingen de hemel ingeprezen omdat ze de CPU's gingen ontlasten van al het 3D geweld. Die GPU's hebben een sterke evolutie doorgemaakt zodat ze op hun eigen manier eigenlijk vele malen krachtiger zijn dan de huidige CPU's. Net dat is de kracht van de GPU aangezien deze zeer specifieke taken voor zich neemt. En aangezien GPU's nu ook gedeeltelijk programmeerbaar zullen worden, geloof ik dat het werk van deze PhysX PPU vroeg of laat toch zal gedaan worden door de GPU. Het is gewoon een volgende logische stap in de ontwikkeling van de GPU.
Ja... en uiteindelijk is de GPU zover ontwikkeld dat ie veel krachtiger is dan de CPU, die integreren we dan ook op de videokaart samen met een flinke bak geheugen en dan hebben we uiteindelijk een PC op een insteekkaart... :Y)
sorry, maar dit klopt niet...
de GPU zal dit niet kunnen overnemen.

de resultaten van physics formules zijn in een game engine voor veel meer nodig dan enkel weergave en een GPU is gewoon niet geschikt voor 2-weg dataverkeer (het kan wel, maar zeker niet efficient en ook niet bepaald gestandaardiseerd).
waarom niet? de physix chip is niet meer dan een grote breed chip met enkele MIMD core's, ennuh? Hoe beschreven we de GPU ook al weer? (Oja)
sorry, maar dit klopt niet...
de GPU zal dit niet kunnen overnemen.

de resultaten van physics formules zijn in een game engine voor veel meer nodig dan enkel weergave en een GPU is gewoon niet geschikt voor 2-weg dataverkeer (het kan wel, maar zeker niet efficient en ook niet bepaald gestandaardiseerd).
Een moderne GPU kan meer dan mooie beelden weergeven en kan gerust ingezet worden als coprocessor. Bekijk maar eens http://www.gpgpu.org/
GPGPU stands for General-Purpose computation on GPUs. With the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general-purpose computation.
Maar inderdaad, zelfs de nieuwste GPU's zijn natuurlijk niet krachtig genoeg om naast flitsende 3D graphics tegelijkertijd nog een andere lastige taak uit te voeren. Wat niet is, kan echter nog komen :)

Trouwens, wie zegt dat er veel tweeweg dataverkeer nodig is? Stel dat de toekomstige GPU enkel de natuurkundige effecten berekent die hij zelf nodig heeft? De andere formules kunnen dan nog steeds door de CPU gedaan worden. En met de opkomst van dual-core CPU's kan deze PhysX chip wel eens een kort leven beschoren zijn want nu kan een tweede core plots wel interessant worden voor games.
Al bij al hangt het er ook voor een groot stuk van af wat de game-fabrikanten zullen doen ;)
Ow natuurlijk, een kaart zonder ook maar enige uitvoer, handig lijkt me dat, en dan berekent hij het...voor...zichzelf, of?.....
Wat denk je van de PCI bus als uitvoer? :) De data gaat gewoon weer terug naar de CPU die het dan verder afwerkt. Het idee is dat deze kaart taken over gaat nemen van de CPU die zich op zijn beurt dan weer kan bezig houden met andere taken. Als de kaart ermee klaar is gaat de data gewoon weer terug. Over de PCI bus dus.
Ik had er natuurliji bij moeten zetten dat het een antwoord op Laagvliegerke's laatste post (en vooral zijn edit) was, die en ik citeer, schrijft:
Trouwens, wie zegt dat er veel tweeweg dataverkeer nodig is? Stel dat de toekomstige GPU enkel de natuurkundige effecten berekent die hij zelf nodig heeft?
Waarop ik dus antwoord, en in een cynistische stijl erop doel dat een kaart zonder uitvoer niet echt nuttig is, hetgeen wat jij lijkt te bevestiggen, ondanks dat mijn score 0 is geworden en die van jou 2....
Ow natuurlijk, een kaart zonder ook maar enige uitvoer, handig lijkt me dat, en dan berekent hij het...voor...zichzelf, of?.....
Het ontlast je GPU niet, er zijn maar weinig physics elementen die door de GPU uitgerekend worden in games. Met uitzondering van bepaalde rendering effects natuurlijk, maar die wil je toch wel op de GPU houden omdat éérst door de PPU, via de CPU dan weer naar de GPU een nogal traag proces is voor relatief simpele dingen waar de GPU heel goed zelf mee overweg kan.
Er worden geen physics door je GPU berekent.
Idd tot nu toe worden die door de CPU gedaan. Zie ook HL2. Maar veel meer dan in HL2 is niet mogelijk omdat het anders te veel CPU power gebruikt. Daarom krijg je nu een PPU. Die kan dit sneller dan een CPU doen. En daarbij zal de CPU dan weer wat capaciteid over hebben voor bv AI van bots.
Dat valt wel mee, physics nemene niet meer dan 20% van de CPU in, met de komst van dual core is dat probleem is dus al meteen opgelost.
Nope, de makers van spellen beperken de hoeveelheid psysics omdat de CPU het anders niet meer trekt. Die is namelijk ook bezig met de AI en dergelijke, stel je zou fantastische psysics hebben, maar je CPU is daar zo druk mee bezig dat je geen AI hebt, dan zou het spel vrij saai zijn hoor. Met een kaart zoals dit zou je dus een goede AI kunnen hebben EN mooie psysics.
Er worden geen physics door je GPU berekend.
Euh, dat is toch precies wat ik zeg, of niet soms? (En met die uitzondering heb ik het over dingen als het golven van water en optica, wat wel degelijk door de GPU gedaan wordt omdat dat de ideale plaats is ervoor)
En mijn dual argument? In een keer 2 keer zoveel kracht is niet voldoende?
Dat valt wel mee, physics nemene niet meer dan 20% van de CPU in, met de komst van dual core is dat probleem is dus al meteen opgelost.
Dit klinkt werkelijk geweldig, maar de vraag is wat dit grapje gaat kosten en of het ook voor andere zaken kan gebruikt worden dan games...
Ja 2 goede vragen

Bij kwam voor de prijs-vraag op, 't zal toch wel niet gratis zijn, of je het ook voor de 2D/3D bewerking kunt gebruiken lijkt me wel.

En mss ook voor wat algemenere zaken, 't is simpel gezegt een extra cpu.
Waarschijnlijk niet. De processor van deze kaart is zeer waarschijnlijk ontworpen voor natuurkundige berekeningen. Hierdoor zullen algemene zaken waarschijnlijk niet op draaien.
Deze kaart is welzeker te gebruiken voor andere doeleinden dan physics.
Er is zelfs al een alternatieve toepassing verschenen.
Ene Santy heeft een normal mapper geschreven die geaccellereerd wordt door de PhysX kaart.
http://santyhammer.blogspot.com/

Voor wie het woord normal mapper niks zegt :
"It generates a normal map from a very high polygon model and fits into a low polygon model, creating the illusion you are using zillions of polygons over it!"
Sinds wanneer kan je een CPU die een kei is in Floating Point berekeningen niet meer gebruiken voor algemene toepassingen ? Tuurlijk "integer" berekeningen gaan beter op een "normale" cpu en voor je tekstverwerken zal je niet veel aan dit hulpje hebben. Maar deze CPU kan je systeem wel degelijk ondersteunen bij audio/video bewerking, 3d cad/cam applicaties, compressie en nog veel meer taken (wanneer daar vanuit de leveranciers ondersteuning voor zou komen that is...)
Voor dat soort dingen hebben we dan ook extra processoren, of dual core processoren.

Ik verwacht niet dat deze chip voor erg veel verschillende dingen kan gaan worden gebruikt door:

1.Beperkte bandbreedte van de kaart (PCI)
2.Beperkte nieuwe en onbekende ongestandaardiseerde API (die dus volgend jaar al weer dood zou kunnen zijn)
3.Beperkte programeerbaarheid van de kaart.
4.Het feit dat de GPU geen last heeft van de bovenstaande punten en een heel stuk meer rekenkracht in huis heeft.
1.Beperkte bandbreedte van de kaart (PCI)
Band breedte is in dit geval bijna niet van toepassing.
Je moet het zien als een fabriek die een product maakt en daar iets speciaals voor nodig heeft om het goed werkend te krijgen.
In plaats van het zelf te ontwikkelen met de apparatuur die ze zelf hebben en niet geheel geschikt er voor is besteedden ze het nu uit
zo iets van dit heb ik nodig doe zij de berekeningen en dan de fabriek een kant en klaar product terug
2.Beperkte nieuwe en onbekende on gestandaardiseerde API (die dus volgend jaar al weer dood zou kunnen zijn)
Ja en nee, bv half life 2 kan al gebruik maken door een API te poorten naar PhysX en daar door de CPU ontlasten maar kan niet volledig gebruik van hem maken.
Daar moet een volledige ondersteuning voor nodig zijn.
3.Beperkte programmeerbaarheid van de kaart.
Waar hij voor bedoelt is hoeft hij ook niet voor geprogrammeerd te worden.
4.Het feit dat de GPU geen last heeft van de bovenstaande punten en een heel stuk meer reken kracht in huis heeft.
Je moet geen appels met peren vergelijken.
Een PPU heeft veel minder op met een GPU dan met een CPU de PPU is er voornamelijk om zeer simpele berekening uit te voeren die voor een CPU ook makelijk zijn maar door de enorme hoeveelheid er van toch zeer veel tijd kosten.
De kaart van Asus lijkt qua lay-out veel op een grafische kaart die in een PCI-slot kan worden gestoken
Hij gaat toch ook in een PCI slot? Er zit alleen geen VGA of DVI aansluiting op.
De kaart heeft ook geen uitvoer naar buiten, hij rekent alleen de effecten van natuurkundige "problemen"(zoals zwaarte kracht) uit, en stuurt die gegevens terug naar de cpu/videokaart(dat weet ik niet percies)

klik Zie hier voor een uitgebreidere werkning
Inderdaad, hij stuur gegevens en ontvangt gegevens, op een PCI slot....................
Tsja, de overeenkomst met de video kaart houdt een beetje op bij de cooler, denk ik :-)
En het geheugen dan. Maar Deze wil je niet in je pc. Die cooler daar maakt echt een tering kabaal zitten ook op hun AX700 LE kaarten. Ik hoop dat ze voor die 20 watt toch een passiefe oplosssing kunnen bedenken. Ik bedoel een 9800 Pro is ook passief te coolen en die verstookt zekers meer. Ik denk dat dit nog minder is dan een 9600 kaartje.
Misschien doelen ze op het feit dat het geheugen er op dezelfde manier om heen zit als bij een GPU en dat de stroom dingen aan de rechterkant zitten.
van een andere site heb ik dit afgeplukt, wat enkele vragen beantwoord (prijs en pcie versie):
So far, ASUS is the first to announce a partnership with AGEIA. They'll have a PPU board with AGEIA's chip on the market in the fourth quarter of this year, with 128MB of GDDR3 memory, for roughly $249 to $299. Initially, it will only come only in a PCI card, with PCIe cards expected further in the future.
toen ik deze nieuwspost las was ik wel geinterresseerd, maar niet voor $299!! voor die prijs heb je ook een gloednieuwe cpu+mobo+ram. als ze die dingen nou voor ¤50 gaan verkopen wil ik er ook wel een, maar ¤300 vind ik ze echt niet waard :/
Je weet helemaal niet dat dit het niet waard is! Je hebt nog geen enkele demo gezien, noch weet je in hoeverre de performance van je pc in games hoger wordt.

Voor die prijs speel je (was het?) Wolfenstein niet in extreme quality bij die combinatie mobo,cpu en fatsoenlijk RAM. (ik gok trouwens zelfs sims2 niet)

Misschien levert de combinatie van dit en SLI wel een periode op, waarbij continue vervanging van je hardware minder nodig wordt, doordat je nog een aantal upgrades hebt, voordat je een nieuwe moet (lees: wilt) kopen.
Het is onmogelijk om de physics binnen een spel anders te laten lopen afhankelijk van de configuratie (tenzei je ID heet), een spel wat physics kaart nodig zal hebben en niet zonder kan gaat niet verkocht worden, dus kan het enkel je processor ontlasten, en dus heb je de keus tussen 300 euro meer aan je proc uit te geven, of een physics kaart, zoals ik al eerder in deze topic gezged heb, doe mij maar wat extra CPU kracht.

Met de vermindering in prijs van hardware in acht genomen is het beter om weinig aan een pc te besteden en veel te upgraden dan in een keer voor heel veel geld heel veel hardware aan te schaffen.
voor single player spellen maakt dat toch geen hol uit?

als ik geen PhysX kaart heb rendert de CPU de physics zelf op een lager pitje, als ik de PhysX kaart wel heb dan besteed de CPU die berekeningen uit en stel je de physics resolutie hoger in.

voor MP is het verhaal zoals eerder gesteld weer anders, daar kan je enkel het eyecandylevel verhoger door op een hogere resolutie te renderen, de uiteindelijke gerenderde fysica moet enkel nog overeenstemmen met die van de base-line renderer. anders kan ik jou bv niet neerschieten maar jij mij wel omdat ik een PhysX kaart heb die zegt dat die kogel WEL door me heen is gegaan :)

de uiteindelijke levensduur van dit soort initiatieven zal wellicht het meeste afhangen van hoe specifiek die physics berekeningen nu zijn en hoeveel beter die PPU echt is in het uitvoeren van deze berekeningen. Als die erg veel aansluiten bij het type verwerkingen van de GPU dan zal de functionaliteit wel worden overgedragen aan de GPU, als de CPU-ontlasting laag is dan is de nood aan een PPU dra door een sterkere CPU overgenomen.
In de toekomst zullen spellen als Unreal Tournament 2007 en andere spellen met de Unreal Engine 3.0, Bet on Soldier: Blood Sport, Dogtag en Sacred gebruik kunnen maken van de PhysX-processor. Huidige spellen, waaronder Half-Life 2, die gebruik maken van de NovodeX-API zouden ook gebruik kunnen maken van de PhysX-processor.

Maw, momenteel is het nog niet zo interessant om deze kaart te kopen...
Het is 'nu' ook niet interessant om een Athlon X2 4800+ met twee 7800GTX'en te kopen...
Niet mee eens.... op zo'n systeem kun je alle games op Maximum spelen en blijft t goed draaien... dus dan heb je zeker wel wat aan de performance (mss wat overkill).

Als je nu veel geld neertelt voor deze kaart, merk je geen enkel verschil met ervoor omdat de spellen het niet ondersteunen. Dus is het interessanter om te wachten tot de eerste spellen uit zijn die dit supporten... En tegen die tijd is deze kaart tuurlijk ook weer wat in prijs gedaald!
Maar als wat jij noemt het alternatief is, laat die physix dan maar op die plankt liggen!
Lekker. Heb je straks 3 kaarten voor je games. SLI + Phys-X..

Naja, zo'n lege kast is ook niets
Je vergeet de extra AI-kaart (die vast ook binnenkort komt)... ;)
vergeet de Augidy kaart niet, voor optimaal geluid :3
Audigy???

Nee, dan liever een X-Fi erbij :Y) ;)
Ik wil mijn PhysX-kaarten in SLI zetten! Voor iedere gpu/vpu een!

Wordt zo wel een vol kassie!, 2x gfx, 2x PhysX, 1x sound... Wat missen we nu nog? Een kaart voor een geadvanceerde webcam die je lichaams beweging registreert zodat je echt kan gaan mortal combatten in je kamer met belachelijk hoge resoluties op een plasmascherm? Of zels van die 3d tv dingen?...
Wordt al bang van het denken over hoe gaming er uit zal zien over 20 jaar ;-)
ach wie weet kunnen we die Phys-X straks ook wel weer is SLI zetten. En dan ook nog een X-Fi en een AI-kaartje erbij. (En dan nog een stekker in je brains en we hebben The Matrix)
Als dit de berekeningen ten goede komt dat je cpu ontlast word met betrekking tot het renderen is het natuurlijk wel een goede optie.
Het enigste wat we tot nu toe hebben gezien is een foto van een kaart voor in de pc en verder helemaal niets.
Ik wacht eerst eens even af hoe ze een vergelijking kunnen maken van Met en zonder PhysX kaart (screenshots) voordat ik daadwerkelijk tot aanschaf overga.

verder ben ik bang dat er maar bepaalde spellen ondersteund worden van bepaalde engines en dus niet alle spellen (correct me if iam wrong).
Om specifiek voor enkele spellen deze kaart te moeten kopen lijkt mij een behoorlijke uitgave.

even als voorbeeld.
Als deze kaart in staat is om bijvoorbeeld het vergezicht te verbeteren door de graphics gedetailleerder neer te zetten zonder dat het GPU en/of CPU kracht kost lijkt het mij een goede aanschaf.

Mischien dat ze in de toekomst zon kaart verkopen samen met een aantal games die het ondersteunen om hem beter in de markt te zetten.

Ik denk niet dat we moeten wachten op benchmarks want deze kaart is niet bedoelt voor meer frames maar bedoelt om meer detail te weergeven zodat je GPU word ontlast van bepaalde berekeningen waardoor je mischien in een hogere resolutie kan gamen of iets dergelijks.

Dit is wat ik opmaak uit de gegevens die ik heb kunnen bemachtigen aan de hand van eerdere nieuwsberichten hier op T.net
Ik wacht eerst eens even af hoe ze een vergelijking kunnen maken van Met en zonder PhysX kaart (screenshots) voordat ik daadwerkelijk tot aanschaf overga.
Er zijn zat filmpjes die laten zien wat deze kaart kan.

www.google.com ;)
ach, zodra we benchmarks voor de kiezen krijgen, zul je vast wel hopen mensen hebben die zo'n ding aan willen schaffen.

tis tenslotte een mooie uitbreiding op je game prestaties, zonder daarvoor weer je processor te moeten vervangen of dergelijke, wat toch een iets zwaardere ingreep is.

het lijkt mij dat deze oplossing ook goedkoper is, maar dat kan niemand nog zeggen lijkt me.
Waarom voegt asus dit niet gewwon toe aan zijn gamma kaarten, een ASUS 7800GTX TOP PhysX of zo...
oh? heb jij de 7800GTX al eens in handen gehad?

bedenk je dat, en dan nog een stuk langer...
...bij mij zit ie dan in de harddisk bay :s
ja, maar voordat ik geïnteresseerd ben moeten er natuurlijk wel twee 7800's opzitten. Nog even en de videokaart is groter dan je moederbord. (want als we dan toch aan het solderen zijn, wil ik er een tvtuner bij, of beter een DVB-S tuner met CI slot)
ze hebben nog een hele achter kant te vullen bij die kaarten...koeling kunnen ze wel oplossen denk ik. Ik vraag me ook altijd af waarom de GPU's altijd aan de "onderzijde" zitten.
Heel simpel, anders past zo'n kaart lang niet meer in alle pc's. Er zijn immers standaarden voor bedacht die zeggen hoe groot een kaart mag zijn in een pc. Als een videokaart ook nog onderdelen aan de andere kant zou hebben krijg je al snel een probleem met een beetje groote cpu-koelers.

Bovendien zou je 2 pci-e kaarten die 2 slots gebruiken voor de koeler niet meer in SLI/crossfire kunnen plaatsen aangezien de koeler van de ene kaart dan tegen de andere kaart aankomt. En zo werkt dat ook als je bijvoorbeeld een geluidskaart direct onder je videokaart wilt plaatsen.
Indien dit echt iets zou worden, zal nVidia of ATi het bedrijf wel opkopen en de technologie integreren in hun GPU's. En indien het niet zo is, zal Ageia (het bedrijf dat deze PPU's ontwikkelt) samenwerkingen moeten aangaan indien ze dit winstgevend willen maken. Want een stand-alone kaart is nu éénmaal veel te omslachtig (voor de gewone consument) en er is dus een veel te kleine markt voor!
geluidskaarten?
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True