Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 112 reacties
Bron: Golem.de, submitter: wind-rider

De opvolger van 3DMark05 zal naar alle waarschijnlijkheid niet alleen de features van CPU's en GPU's kunnen testen, maar ook de eigenschappen van de PhysX Physics Processing Unit (PPU). Deze unit is gemonteerd op een PCI-kaart en kan door games en andere programma's aangesproken worden om allerlei natuurkundige berekeningen uit te voeren, mits het betreffende programma of spel de PPU ondersteunt. Ageia, de maker van de PhysX-uitbreidingskaart, heeft al overeenkomsten gesloten met verschillende ontwikkelaars van games over de ondersteuning van de PhysX-hardware; welke dit zijn, is echter onbekend. Het voordeel van een PPU is dat bijvoorbeeld haar, water en ontploffingen op een realistischere manier vormgegeven kunnen worden, zonder daarbij enorm veel rekenkracht van de CPU of de GPU te verlangen. De PPU-kaarten worden voor het einde van dit jaar op de markt verwacht en zullen minstens 250 dollar kosten. Onder meer Asus en BFG Technologies werken al aan een PPU-kaart. Een andere nieuwe feature die 3DMark 2006 naar verwachting aan boord zal hebben, is de ondersteuning van processors met meerdere cores.

Moderatie-faq Wijzig weergave

Reacties (112)

Ben erg benieuwd of dat PhysX aan zal slaan en goed geimplenteerd wordt in toekomstige games..
De kans is groot dat het slechts een gimmick blijft..Het is nog een vrij prijzige upgrade waar je nu nog weinig aan hebt..
Dat 3dMark het zal ondersteunen is iig een duw de goede kant op.. Mensen die hard gaan op een hoge score zullen er gegarandeerd een halen :P.
Hetzelfde zei men indertijd over hardwarematige 3D-kaarten..

Ik verwacht dus wel dat een PPU over een paar jaar in de meeste game-pc's is terug te vinden, al dan niet geďntegreerd op de videokaart.
Ik hoop alleen dat 3Dmark2006 geschaald is op de huidige architectuur(7800GTX - X1800XT e.d.) en niet op een nieuwe feature, wat de PhysX eigenlijk is....

Het is uiteraard in computabele kracht wel een hele vooruitgang, maar is is meer aan GrAPhciX dan 3D effects in Games(als je huidige games als 2D ziet dan...)
3dmark is op het moment van release altijd te ver vooruit.

toen 3dmark 2003 uit was en ik een P4 3ghz had plus 9700pro had ik gemiddeld 5 fps

toen 3dmark 2005 uit was en ik P4 3,2@3,8 had en een x800xt had ik nogsteeds 7 fps

nu heb ik een FX57 met 7800gtx en zal ik in 3dmark 2006 ook wel weer 6 fps hebben.
3d kaarten waren in het begin ook losse insteek kaarten, appart van je 'normale' videokaart
Ja zodra het op 65nm beschikbaar komt. kan het heel stuk krachtiger zijn of als unit toegevoegd worden aan 'n ander chip.
Zoals CPU
GPU
Northbridge
DSP

'n Game logic routine zet de next scene up en delegeerd data naar de PPU en ontvangt het weer terug om met het resultaat de next scene opte zetten en dit naar de GPU te versturen.

CPU
PPU
CPU
GPU

Mij lijkt het beter als de PPU geintergreerd is in de CPU.

Ook wel handig dat PCI-E 16x bi-directioneel is zodat GPU ook mogelijk is. Alleen wordt die PCB wel groot. Denk aan zo'n SLI G-kaart op één PCB.
Wat hebben natuurkundige zaken te zoeken in een CPU?? Lijkt me logischer dat dit een losse kaart is, want zowel een CPU als een GPU hebben er vrij weinig mee te maken...
De GPU heeft er wel degelijk wat mee te maken. De natuurkundige berekeningen waar zij het over hebben zijn heel erg verwant aan de grafische berekeningen die een GPU uitvoert. Of je nu de boog van een geworpen speer door de ruimte uitrekent of dat je een beeld uitrekent, in beide gevallen doe je floating point berekeningen op 3D vectoren.

Zelf denk ik dat deze kaart niet echt zal aanslaan. Als tweede processor op de grafische kaart misschien dan weer wel, maar dan mag die kaart daar niet veel duurder van worden. Voor de 250 dollar uit de tekst koop je zometeen bijna een XBox 360...Tel daar de kosten voor de CPU en de grafische kaart bij op en het wordt wel heel erg prijzig.

Op zich vindt ik het wel een interessante ontwikkeling, maar wat ik mis is een API. Ik heb daar nog niets over gehoord. Als alle spellen bepaalde veelvoorkomende physics berekeningen, zoals de zwaartekracht in de spelwereld doorrekenen, op dezelfde manier konden uitvoeren, zoals ze nu al DirectX of OpenGL gebruiken voor de 3D berekeningen, dan werd het pas echt interessant
Moet zeggen dat die jongens van die Phys-X kaart het goed voor elkaar hebben. Nu al een hoop games en apps die toezeggen het te gaan gebruiken. Je ontkomt er dadelijk dus niet meer aan om zo'n kaart te kopen als je op highend level mee wilt doen. En alternatieven (van andere fabrikanten) zijn er nog niet, dus ze slaan een flinke slag.
count me out, ik heb nog net ruimte voor een pci soundkaart.

ik ga niet aan deze onzin meedoen, tenminste niet voordat het standaard op het mobo of videokaart zit.

en trouwens dat water/haar en ontploffingen kan nu ook prima door de GPU berekend worden, en het gaat er heus niet beter door uitzien dan hoe de developers het gemaakt hebben.
Jij hebt zeker weten de demo's niet gezien ...
een CPU kan ongeveer 30-40 ridged phycical objects aan.
deze ppu kan er 30.000 aan.
dat is gewoon echt een hele andere league. met objecten 30.000 tegelijk op je scherm kunnen game makes gigantisch gaven dingen gaan doen die nu never nooit niet lukken.

dat deze demos wat simple zijn gemaakt wil niet zeggen dat wat ze laten zien niet kan met wat meer geld en gedult en een fatsoenlijke game engine.
@WSeabla
Ik vind de physics van HL2 echt zwaar tegenvallen. Ze lieten al die vette shit zien in de demo filmpjes, maar het is alsnog allemaal scripted sequences. Het enige dat je in het spel kan doen is telefoonhoorns, dozen en flessen weggooien. En die flessen breken ook nog eens altijd op dezelfde manier...
nog niet vergenoeg gekomen om de gravity gun te krijgen halfgaar? duidelijk niet.

@ cristan. havok2 physics is niet veel meer als 30 dingen tegelijk op je scherm waarvan er meestal maar een paar tegelijk wegen,
hier hebben we het over 30.000 dingen die allemaal kunnen bewegen EN elkaar beinvloeden.

schokkerige avi filmpjes gebeurt wel vaker als je zelf van een game opneemt en het daarna opzet in 15 of 30FSP avi.

en dat shaders goed zijn om water te simuleren is BS natuurlijk. ze kunnen mooi een plat vlak weergeven wat lijkt op water maar het is duidelijk geen water als je erin springt.
dingen worden ook niet nat als je ze onder spat bv. met de FFU zou dat wel kunnen bv. en op een realistische manier.
Been there, done that. Alleen de "airtight" vind ik betrekkelijk indrukwekkend. Let ook eens op het feit dat sommige .avi filmpjes wel heel erg schokkerig zijn (opvallend aangezien ze performancewinst claimen).

Ik vind bij veel demo's de havoc2 physics er mooier uitzien, en dit draait perfect op de huidige hardware. Ook mist en water gaat perfect met huidige shaders (Far Cry, Half Life 2). Voorlopig ga ik dus echt niet 250 dollar uitgeven voor een actief gekoelde kaart die je (bijna) nooit gebruikt.
30.000 ... zozo, dus dan kunnen we straks ongeveer 1 kapsel realistisch zien bewegen :+

Wel apart, 4 jaar geleden had het spel Red Faction ook al behoorlijk wat physics, in principe kon je de hele omgeving aan barrels schieten (dan heb ik t dus niet over scripted interactie). Ragdoll physics zat er overigens niet in, maar ik heb dat sindsdien in geen enkel spel meer zo mooi gezien, terwijl je zou zeggen dat er met de rekenkracht van tegenwoordig (Red Faction liep goed met op een Athlon 700 met een TNT2!) veel meer mogelijk moet zijn, ook zonder die nieuwe PPU.
hee dat jij een halfgare naam hebt hoef je mijn niet halfgebakken neer te zetten.
nou dat draait allemaal wel echt vloeiend zeg :Z trouwens zilke physics kun je gewoon in een engine inbouwen kijk maar naar de halflife2 engine

en ik ben er op tegen dat je een apparte kaart daarvoor nodig bent, zij ze net bezig alles zoveel mogelijk bij elkaar in te doen, krijg je nu weer dat alles appart wordt.


en over die castle demo: kan wel dat ze hele levels destructable maken, maar dan zie je overall lijntjes tussen zoals altijd, oh waar zou je nou je granaat moeten gooien, ja daar bij de witte lijntjes scripted sequence muur.

alleen is het nou geen scripted sequence meer maar realtime
en de real-time demo's van agea zien er veel beter uit dan de clunky Half-Life 2 havoc demo's.

en agea is cross-platform en havoc niet volledig "en agea is stukken goedkoper voor developers".
Als er bijvoorbeeld wind door haar waait kan de gpu / cpu dit nooit alleen aan qua berekeningen. Dan zou een ppu handig zijn om de bewegingen te berekenen. De gpu kan die bewegingen weer omzetten naar een leuk plaatje.
het lijkt erop dat er blijkbaar nog erg veel mensen zijn die denken dat games als HL2 al deze mogelijkheden al aan boord hebben, maar die hebben blijkbaar totaal geen oog voor detail.
Het breken/vervormen van bepaalde objecten is in HL2 nog steeds niet realistisch. Gooi maar eens een crate stuk, dan zal je zien dat de brokstukjes iedere keer weer hetzelfde zijn. Hetzelfde geld voor de reflecties in water, dit is gewoon een standaard sequence.
Met een physx kaart kunnen dit soort dingen echt 100% (of bijna 100%) waarheidsgetrouw worden weergegeven. ieder object heeft zijn eigen gewicht, stevigheid en materiaaleigenschappen. Zo zal een houten kistje een gat erin hebben als je erop schiet (en niet zoals in hl2 direct uit elkaar spatten), en een metalen kistje een deuk. Water zal daadwerkelijk volumetrisch kunnen worden berekend. In farcry bijvoorbeeld kunnen de bomen veel realistischer reageren op de wind.
Ik hou me zeker aanbevolen voor zo'n physX kaartje dus :D Echter zie ik wel in dat niet iedereen de eyecandy boeiend vind (cs wordt ook nog gespeeld immers), en tja, dan heeft zo'n ding totaal geen nut.
Daar komt nog bij dat niet zomaar iedere game gebruik kan maken van dit speeltje, dus het ligt er ook nog aan of juw favo. game et uberhaupt ondersteunt.

Edit. mjtdevries.
ik heb inderdaad alle demo's gezien, en zoals die hijskraan op die metalen silo valt dat is geen standaard animatie, dat zie je ook aan de manier waarop de hijskraan eerst buigt voordat hij daadwerkelijk breekt en omvalt. Hetzelfde geld voor dat vat met water, als je goed kijkt zie je dat hij daadwerkelijk langzaam leegstroomt en dat het water in zijn stroming de crates meeneemt. Ook zie je de vloeistofeigenschappen goed terug in de 150mb demo van die auto. Dit gaat toch wel ff een paar stappen verder dan wat er u in hl2 zit.<div class=r>[Reactie gewijzigd door [X]Death996]</div><!-- end -->
ok je hebt me bekeerd :z maar ik denk niet dat veel games het zullen ondersteunen eerst. het klinkt allemaal wel mooi en het is zeker weten de toekomst.
maar ik ben niet van plan het als extra kaart te moeten kopen. het zou beter zijn als ze in zee gaan met 1 of beide GFX giganten (1 zou beter zijn voor de concurentie, allebij beter voor iedereen (anders wordt je weer verplicht tot 1 merk))

of het standaardiseren op mobo's
Heb je de PhysX demo's wel bekeken?

Datgene waarover jij zit te klagen in HL2 is precies wat je ook in die demo's ziet :)
Zo geweldig als jij PhysX doet voorkomen is niet terug te vinden in de demo's.
@ WSaeNoTSoCK
Amen

Ik ga wel voor de gameplay, en als dat zonder onnodig extra $$ voor een of andere vage ppu kaart gaat dan ben ik wel tevree.

Op een of andere manier is visual display power nu de kracht maar gaat m.i. nog steeds ten koste van een goede gameplay! laat men daar eerst maar eens geld (dus tijd voor de developers) insteken.
Gameplay, gameplay.. De leukere games tegenwoordig hebben allemaal physics. Waarom is bridgebuilder zo leuk? Het ziet er niet uit, maar de gameplay is geweldig omdat je je eigen brug kunt zien instorten! Physics geven dynamiek aan een game, en niet dat statische scripted gevoel. Ik vind het schitterend om in CSS ventjes te zien wegvliegen en op realistische wijze weer neer te komen. Hetzelfde geldt met mindere mate voor BF2.

Ik denk dat we steeds meer richting physics oriented games gaan, ik hoop het van wel. Ik heb in dat eerste gedeelte van Far Cry een uur door gebracht met die stellages om te gooien en doosjes weg te schieten. Ik kan me uren vermaken met physics in een game. Misschien heeft iemand de techdemo gezien van de PS3 met de eendjes en de glazen met water. Ik zou me daar al prima mee kunnen vermaken :)

Ik kan iniedergeval niet wachten tot dit standaard in elke PC zit, en ontwikkelaars gebruik kunnen maken van deze technologie, ik denk dat het de gameplay zeer ten goede zal komen.
Flashback.... dergelijke reacties kwamen ook op de eerste Soundblaster en de 3Dfx VooDoo kaarten. Wacht maar tot hij er is en de prijs is een stuk aannemelijker.
Maar bij die 3DFX kaart bleken spellen waar je eerst met moeite 24fps haalde, nu ineens met 60fps te lopen, en zagen ze er bovendien veel mooier uit.

Daar hadden mensen wel geld voor over.

Bij PhysX zullen het niet de demo's zijn waardoor mensen geld gaan uitgeven. Ook geen mooie PR talk over 30.000 ridged physical objects.

Waar het om gaat is of er enig effect is in bestaande spellen. (waarschijnlijk niet) en hoeveel effect er is in nieuwe spellen.

En bij die nieuwe spellen moet je dan ook nog eens kijken hoe de prijs/prestatie verhouding van dat effect is.
Krijg ik wellicht dezelfde prestatie verbetering als ik die 250¤ aan een wat duurdere cpu (extra core?) uitgeef?

Daarom denk ik dat die PPU het veel moelijker zal krijgen dan bv de eerste Voodoo kaarten.
Maar we zullen het gewoon afwachten. Een revolutie op physics gebied van dezelfe mate als 3DFX op 3D gebied heeft geleverd zou best welkom zijn.
Ben jij ook nog met je 286/10 aan het spelen met 640k en een EGA kaart?
Niet? Maar de gameplay van digger, paratrooper, space invaders en alleycat was toch prima, dan hoef je toch geen duizend of 1500 euro te spenderen aan een moderne PC die Doom, UT en god weet wat nog meer kan spelen?
Wat je zegt klopt maar niet helemaal. Jouw GPU KAN het ook maar stuk minder efficient als deze kaart. Deze kaart komt NAAST je GPU en zal dus heel veel werk wegnemen van de gpu/cpu waardoor er dus weer ruimte is voor nog meer rekenwerk.

De vraag is natuurlijk hoe ontwikkelaars het verschil met en zonder kaart gaan opvangen. Je zou een spel kunnen maken met heel veel stress op die kaart. Maar wanneer die kaart dan mist, gaat alles naar GPU en daar gaat je spel. Je hebt dus mischien kans dat het vakje "Ultra High Detail" niet meer kan met je nieuwe 7800GTX of X1800. Sta leuk van te kijken

* 786562 MMaster23
ik steek nog steeds liever me geld in een goeie grafische kaart waar ik direct het aantla FPS per seconden winst in terug zie. er moet hier nou eerst voor worden geprogrammeerd en waarom. zodat er minder rekenwerk voor de CPU en GPU is. tegen de tijd dat dat ding goed en wel is ingebeurgerd op de markt kan de CPU het rekenwerk volgensmij wel weer aan.
@ iddefridde

Ik weet ook niet precies wat voor een voordeel je hieruit krijgt, maar ik denk dat het wel behoorlijk wat gaat schelen.
Over dat extra programmeren moet je niet zeuren, voor grafiche functies als pixel shader moet er ook extra geprogrameerd worden, maar je ziet dat het er een stuk beter uitziet.
De PPU zorgt dat alles natuurkundig klopt, een keer wat anders dan aleen betere graphics, en het bespaart nog processorkracht ook.

Ik ben het er wel mee eens dat het het besten is om hem even te laten liggen totdat hij is ingeburgerd, maar je argument dat de CPU het aan kan klopt niet want dat kan hij nu ook al, alleen minder snel.
"Over dat extra programmeren moet je niet zeuren, voor grafiche functies als pixel shader moet er ook extra geprogrameerd worden, maar je ziet dat het er een stuk beter uitziet."

Over dat extra programmeren moet je juist wel zeuren, want daardoor werkt deze kaart niet voor bestaande programma's maar alleen voor sommige nieuwe!

Als ze met deze processor ook een goede API hebben ontwikkeld (zoals DirectX of OpenGL) dan wordt het wat anders, want dan kan het in de toekomst juist programmeerwerk besparen doordat je dan als programmeur niet meer zelf de code voor berekeningen schrijft, maar gewoon een standaard API functie aanroept. Op die manier werkt dat ook met 3D graphics, waardoor je eigenlijk juist programmeerwerk bespaart als je OpenGL gebruikt, omdat je allerlei standaard functies 'cadeau' krijgt.
Je moet het ook niet zien als ALLEEN een kaart om je FPS mee op te krikken. Dit ding is zo krachtig dat je er daadwerkelijk leuke dingen mee kan gaan doen zoals 100 ragdolls tegelijk weg laten vliegen tijdens een artillery barrage of zoiets. Met zoiets presteert een FX-57 nog wel ondermaats. :7

dat mag ook wel want de introprijs zou rond de 200 euro liggen dacht ik laatst gelezen te hebben!
ik steek nog steeds liever me geld in een goeie grafische kaart waar ik direct het aantla FPS per seconden winst in terug zie.
Frames per seconde per seconde.. het worden er steeds meer ofzo?

En waarom denk je dat je het met zo'n ding niet meteen merkt?
Volgens PC Perspective kan de PPU via de NovodeX-API van Ageia worden aangesproken. Deze API wordt onder andere in de Reality Engine en Unreal Engine 3.0 gebruikt. Als een PhysX-processor in het systeem aanwezig is, zou de NovodeX-API automatisch van deze processor gebruik maken. Spellen als Half-Life 2 zouden dus meteen kunnen profiteren van de extra rekenkracht die de PhysX biedt. Dit vertaalt zich in een hogere framerate, maar de echte kracht van de processor blijft onbenut.
Voor de duidelijkheid: met "de processor" wordt de PPU bedoelt, die natuurlijk pas echt al z'n tanden kan laten zien als er voor geprogrammeerd is, maar hetzelfde geldt voor een nieuwe generatie videokaarten en ook voor CPU's (SSE, HTT, AMD64 etc. helpen echt niet als je software er niks mee doet.)
tegen de tijd dat dat ding goed en wel is ingebeurgerd op de markt kan de CPU het rekenwerk volgensmij wel weer aan.
Een CPU is in principe niet goed in physics, op dezelfde manier als dat hij niet geschikt is om voor grafische kaart te spelen, bovendien worden de physics in de toekomst alleen nog maar zwaarder.
Een dergelijke chip kan makkelijk tientallen of honderden objecten/ragdolls/whatever bijhouden terwijl een gewone CPU bij zo'n situatie voor een flinke framedrop zorgt. (Probeer bij HL2 DM eens zo'n 20-30 barrels bij elkaar te zetten en dat *echt* soepel te laten exploderen)
Geintegreerd of niet ! Deze kaart komt echt wel in mijn pc :P Hebben jullie die demo`s gezien ?

En voor 250 een hele goede videokaart ? Ja voor als je alles in Pokemon style wilt spelen wel :+
Ja, ik heb ze net gekeken;
- In airtight hoop ik dat de zwaartekracht erg laag stond, anders was het erg slecht. Met dat pistool schiet je die kisten trouwens niet omver (misschien wel met extreem lage zwaartekracht) (kapot kunnen ze natuurlijk wel)

- mist ziet er slecht uit, er pakken zich hoopjes rook samen de hele tijd en in die demo staat de zwaartekracht wat hoog of de mist is zwaar

- interactie van de mist en dat figuurtje lijken in niks op de werkelijkheid, ik verwacht vortices...

- Water met enorme druppels. Of het daarom zo raar viel... En dan zag het ook nog eens slecht uit (niet per se hun verantwoordelijkheid)

- Kasteelmuurtje ingooien, zag wel goed uit kwa hoe alles viel, alleen bij de toren is het weer jammer dat je ziet dat niet de hele toren meeberekend wordt en de spits gewoon overeind blijft.

- Lava was ok, alleen was het wat erg vloeibaar en leijkt me dat het eigenlijk ook heet genoeg is om de auto te beschadigen...

- het slijm lijkt op groen/gele rook die wat kleverige is waar het meer op water had moeten lijken

- Bloed lijkt nergens op

- Zeep zijn alleen maar plaatjes van bellen die bewegen, ook erg slecht.

Mijn reactie is natuurlijk er op gebaseerd dat deze kaart de natuurkundige zaken berekend waar deze er niet erg bijzonder goed uitzien. Grootste stoorfacturen waren het weg schieten van de kisten; het ontbreken van vortices bij het door de mist slaan met een zwaard; de algemene lage kwaliteit van water en mist.

De stenen die vielen uit de muur waren wel goed!
Je moet niet vergeten dat het technical demo's zijn en iedereen weet wat er gebeurt als een techneut een interface maakt :) (kon niet beter verwoord worden in een Dilbert aflevering, waar iemand nog maar 2 weken te leven had na het zien van een door een techneut gebouwde interface!)

Laat het mooi worden maar over aan de echte ontwikkelaars en creativelingen!
ja, dat kan wel zijn, maar die natuurkundige algoritmes, die bepaalde bewegingen berekenen dat zijn de dingen die ik ook minder realistisch vondt dat ik had verwacht wat ze zouden doen. Wat heeft het voor nut om natuurkundige zaken door een aparte kaart uit te laten rekenen als ie het niet goed doet??
Probleem bij die demo's (ook tijdens interactieve demo's bij E3) is dat de drivers nog maar de mogelijkheid bieden om enkele duizenden objecten/vloeistofdeeltjes te berekenen, op die manier krijg je inderdaad "grote druppels" en dat met die crates is volgens mij gewoon slow-motion en ziet het er daarom zo brak uit.

Verder moet ik zeggen dat bv. die zeep op de auto zich best netjes beweegt, dat het er verschrikkelijk uitziet is niet het punt, het gaat hier om de physics, zelfde als bij het groene slijm en de mist (waar de vortex aan de ene kant wel ontbreekt, aan de andere kant: ga zelf eens in de mist staan en met een zwaard oid. rondzwaaien, doet niet echt veel.
Is PhysX niet iets voor Folding@Home en vergelijkbare projecten?
ik vraag me echt af hoeveel kracht deze chip levert... misschien dat als deze kaart wat langer op de markt is en er concurrentie in is (dus hogere prijs/kwaliteit), dat we dan nog wel varianten krijgen die dingen zoals realtime meta fluid kunnen berekenen, of softbodies en cloth.. zou echt geweldig zijn.
Een shirt dat wappert op de wind... Dit is de toekomst van games, nu is alles zo nep omdat OF alles voorgeprogrammeerd is OF gewoon niet geprogrammeerd en dus ontbreekt.
ik denk dat het nogal tegenvalt hoeverre deze presteerd. deze is zeer geschikt voor specifieke berekeningen en al het andere zal ie zeker niet trekken. vergelijkbaar met een gpu die goed is in 2d/3d vertexen te berekenen en meer niet. ik heb zelf het gevoel dat dit een fcpga'tje op een stukje plastic gemonteerd is die voorgeprogrammeerd is voor wat trigriometrie berekeningen en meer niet. en als dat het geval is, is 250 usd zwaar overbetaald voor dit type chip.
Half-Life 2 ondersteund toch ook al Phys-X maar dan software matig (Novodex of iets dergelijks). Als dit door die kaart kan worden overgenomen zal dat mooi zijn. Hiermee kan je dan veel FPS mee winnen.
Half-Life 2 maakt gebruik van de Havoc physics engine, net als een aantal next-gen games zoals Sonic the Hedgehog op de X360.
Misschien wordt Ageia wel de 3Dfx van deze tijd wat betreft innovativiteit qua hardware. ;)

Toen de eerste Voodoo kaart 8 jaar geleden op de markt kwam, verklaarde iedereen 3Dfx ook voor gek en dat het helemaal niet nodig was om een 3D acceleratie kaart aan te schaffen.

Hoe is het nu? :)
Mij werd destijds trouwens beloofd dat die 3dfx kaart alle ronde dingen ook rond zou maken, en eigenlijk dat ik grafische truukjes zou krijgen op de kaart die ik nu nog niet eens heb (zelfs met deze ppu)

Aankoop was een beetje telleurstellend :(
Tsjah, de huidige slots die tegenwoordig worden gebruikt voor videokaarten laten nog genoeg speling over qua bandbreedte, dus ik zie niet in waarom je een extra pci slot zou nodig hebben? Ik denk dat de GPU en de PPu straks gewoon op 1 kaart zitten, of desnoods geintegreerd op het moederbord. deze PPU is denk ik alleen maar een tussenstap, net zoals alle hardware eigenlijk. Over zien jaar hebben we het over een PGPU bij wijze van spreken :Z
Ik zou het interssanter vinden als er eens een poll aan dit soort berichten word gehangen, om te zien hoeveel mensen het er voor over zouden hebben voor zo een kaartje, just a thought.

Ik heb het er namelijk niet voor over, simpel omdat gamen dan wel weer een drempel hoger komt te liggen qua prijs. Ze proberen het er als standaard door heen te krijgen, maar voor dat geld kan ik genoeg andere hardware kopen. Overigens is het ook zo dat steeds meer aparte apparaten rekening met elkaar moeten gaan houden, ik zie de driver conflicten al weer op de loer liggen.

Het is voor game developers al moeilijk genoeg om een game te maken, zeker als je ziet wat sommige games aan ontwikkeltijd kwijt zijn. Als het hiermee langer duurt om een game uit te brengen vind ik dat weer een minpunt. Verder, zoals ik er al geruime tijd over denk, laat Nvidia en ATI maar zelf met onboard oplossingen komen voor een zacht prijsje. Prijzen kunnen daardoor veel antrekkelijker worden, denk aan vervoersosten etc.

Ageia had er imo beter aan gedaan om met de huidige hardware developers om de tafel te gaan zitten om misschien tot een gezamelijke oplossing te komen met hun chip. Nu halen ze het risico op de hals dat het niet aanslaat vanwege de prijs. Ik begrijp best dat Ageia er een slaatje uit wil slaan. Implentatie op moederborden of een Nvidia of ATI kaart was denk ik beter geweest. Time will tell, mijn nee hebben ze alvast :+ Duke Nukem heeft het toch niet nodig :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True