Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

Galaxy heeft op Computex een GTX470 laten zien die nog een tweede gpu op het pcb heeft. Het gaat hier niet om een sli-oplossing met twee identieke chips, maar om een kaart met een losse gpu die is bedoeld om PhysX-berekeningen af te handelen.

De site Guru3d wist bij de stand van Galaxy de kaart op de foto te zetten. De speciale versie van de GTX470 heeft naast de Fermi-gpu ook een GT240-chip aan boord, puur bedoeld om physics te berekenen. Hoewel Galaxy zelf aangeeft dat het om een GTX470 gaat, lijkt de geheugenlay-out te verraden dat het een GTX480 betreft, iets waarvan ook techpowerup overtuigd is. Of de kaart echt op de markt komt, is nog niet bekend; vooralsnog gaat het om een prototype.

Videokaartfabrikant EVGA bedacht al eerder een dergelijke constructie toen het een GTX275 met een GTS250 op één kaart combineerde.

Galaxy GTX470 met GT240-chip voor PhysX

Moderatie-faq Wijzig weergave

Reacties (58)

PhysX, heb je daar nou echt wat aan? Want behalve wat extra wapperende vlaggetjes in games als Mirror's edge, heb ik er nog niet veel van gezien..

Lijkt me 'n beetje onzin om daar 'n losse GPU voor in te zetten?

Edit: Ik doelde dus op dit.

[Reactie gewijzigd door Torrentus op 4 juni 2010 23:25]

Je hebt er inderdaad niets aan... Niet omdat de techniek verkeerd is, maar omdat het marketing technisch simpelweg niet kan.

Het probleem is de schaalbaarheid wat betreft minder krachtige computers, en in dit geval computer zonder PhysX hardware. Zo gauw je namelijk een spel maakt waarbij hardware PhysX daadwerkelijk veel toevoegd aan het spel, betekent dat onherroepelijk dat je het spel zonder PhysX hardware niet meer kunt draaien. En dat maakt je afzetmarkt onacceptabel veel kleiner.

Een beetje hetzelfde verhaal met DirectX versies... Spel fabrikanten zullen zich niet alleen op DX11 vast pinnen, maar ook een DX9/10 renderpath opnemen, om een zo groot mogelijke afzetmarkt te creeeren. Bij grafische aspecten is het goed mogelijk om de beeldkwaliteit te schalen. Het spel element zelf zal daar i.h.a. niet onder lijden. Het ziet er minder mooi uit, maar je bent nog steeds in staat alle monsters dood te schieten, ongeacht de resolutie, AA, AF etc etc.

Bij physics berekeningen is dat een andere kwestie... Wanneer hogere kwaliteit physics een wezenlijk spel element worden, kun je dat niet zomaar downscalen. Als het een spel element is dat je een deur stukje bij beetje kapot kunt slaan... dan wordt het spel totaal anders wanneer dat op een simpeler computer alleen maar in n keer kan.

Sowieso is hardware PhysX achterhaald... Je wilt als ontwikkelaar geen proprietair systeem dat slechts op een deel van de machines in de markt kan draaien. Als je je physics met de gpu wilt versnellen, dan ga je dat gewoon met de gpgpu mogelijkheden van DX11 doen.
Er zijn al genoeg games waar je met en zonder Physics kan spelen. Met physics ziet het stukje bij beetje kapotschieten van die deur er realistischer uit doordat de delen die er af worden geschoten realistischer vallen, verder rollen, stuiteren, etc. Zonder wordt hetzelfde deel weggeschoten, maar is het zonder die natuurlijke effecten. Bij ontploffingen hetzelfde laken een pak, het ziet er realistischer uit. Het is geen essentieel onderdeel van de game, maar zorgt er wel voor dat de sfeer zoals die door de gamemaker is bedoeld beter wordt benaderd. Physics laten zich wat dat betreft net zo schalen als graphics; heb je veel power kun je meer particals berekenen en op meer opbjecten de effecten laten uitvoeren zonder dat de framerate daalt. Een tweede GPU voor de physics zorgt er dus voor dat de GPU meer kracht over houdt en dat de CPU, die minder effectief met physics kan omgaan minder wordt belast. Overall zorgt dit voor een betere balans wat een enorme boost kan geven in de framerate en resolutie zonder dat je andere onderdelen in de computer hoeft op te waarderen.
als jij er niet veel van hebt gezien heb jij geen enkele poging gedaan om er meer van te zien

physx maakt games een stuk realistischer doordat de omgeving dynamisch en interactief wordt

zo kan je je bij alles wel afvragen wat je er aan hebt en gewoon lekker good old pacman blijven spelen

http://www.youtube.com/results?search_query=PhysX
Je kunt me wel opschepen met een linkje naar Youtube met zoekterm 'PhysX', maar dat had ik echt zelf al wel uitgevonden hoor.

Ik heb zeker pogingen gedaan om te ondervinden of het het waard is om een Nvidia kaart aan te schaffen voor alleen PhysX. En dat is het in mijn ogen zker niet. Daarom post ik hier een vraag of iemand zou kunnen onderbouwen waarom het dat misschien wel is.

Ik vind het sowieso, en met mij vele anderen hierboven, erg slecht dat het om een gesloten systeem gaat. Ik denk dat dat de ontwikkeling ook erg hindert. Ik heb geruchten gelezen over het feit dat PhysX binnenkort al wordt omgezet in OpenGL zodat ook Intel en ATI mee kunnen werken. (Helaas bron kwijt, dacht dat het van Tnet zelf kwam).

In iedergeval vind ik de vergelijking met pacman erg slecht. Neem nou het eerste filmpje in de link die je post: Zeg nou zelf, jij vind het verschil tussen een wapperend vlaggetje of niet z groot, dat je het het waard vind om een vergelijking tussen de 'Niet physX versie' en Pacman te maken? :?

Ik denk dat ik mijn punt gemaakt heb: PhysX is (nog) waardeloos :)
nou om alles wat beweegd binnen je game zo natuurlijk mogelijk te laten gebeuren is het toch wel erg handig...alles wat door de lucht vliegt met explosies en tegen muren en alles afstuiterd...wel fijn als dat er neit heel nep uit ziet toch?
Kun je dat onderbouwen? ATI kaarten kunnen ook prachtige graphics renderen zonder 'PhysX'. En dat ziet er alles behalve nep uit! Naar mijns inzien is het alleen nuttig voor het renderen van bijvoorbeeld vlaggen of kleding, omdat dat er 'vloeiender' uit hoort te zien?

Maar ik heb niet het idee dat noch die vlaggen noch die kleding iets toevoegt aan een game, laat staan dat er een videokaart met losse PhysX GPU geproduceerd zou moeten worden.

[Reactie gewijzigd door Torrentus op 4 juni 2010 18:16]

ah, een ATI fanboy op zijn teentjes getrapt :P

ATI kaarten kunnen idd ook spellen renderen en alles, met speciale licht effecten enzo.
Echter, zijn nou juist dingen die kapot kunnen gaan en dynamisch zijn nou juist de dingen die een spel er visueel realistischer uit laat zien.

Ja, ATI zou ook een soort van PhysX implementatie kunnen maken, en dat zou ik ook helemaal niet erg vinden. Het is gewoon dat Nvidia hier het voortouw neemt om een technologie te perfectioneren. Nu is het idd nog af en toe meer een gimmick dan een goede feature, maar in de toekomst zal dat volgens mij sterk veranderen :)

Ik vind de gang van zaken wel een beetje vreemd, eerst had je een losse physx kaart, nu draait het vooral op de gpu zelf, wat een echte killer is voor je framerate af en toe EN nu zetten ze er een aparte chip op :9
Naja, zo bespaar je natuurlijk wel weer 1 PCI-e slot en gaat je framerate waarschijnlijk niet zo hard omlaag :)
Ja, ATI zou ook een soort van PhysX implementatie kunnen maken, en dat zou ik ook helemaal niet erg vinden. Het is gewoon dat Nvidia hier het voortouw neemt om een technologie te perfectioneren.
Dat hebben ze al, namelijk Havok -- http://en.wikipedia.org/wiki/Havok_(software)

Echter Intel heeft Havok overgenomen in 2007, omdat AMD op dat moment geen kapitaal kracht had door de ATi overname. Intel doet echter weinig op spel nivo met de Havok aanschaf, dus AMD kan helaas niet dezelfde push doen die nVidia heeft kunnen doen na de overname van AGEIA (de uitvinders van PhysX).

NVidia sponsort tevens een gigantisch aantal ontwikkelaars via hun "The Way It's Meant To Be Played", en is er natuurlijk niet vies van om dan te eisen dat alleen PhysX wordt ondersteunt en niet Havok. Ze stonden ook achter de subsidie van Ubisoft met Assassin Creed, die er toen later DirectX 10.1 support uitsloopte, want het bleek dat AMD toen betere resultaten neerzette dan nVidia en dat kon natuurlijk niet.
Ik vind de gang van zaken wel een beetje vreemd, eerst had je een losse physx kaart, nu draait het vooral op de gpu zelf, wat een echte killer is voor je framerate af en toe EN nu zetten ze er een aparte chip op
Het lieft wil nVidia natuurlijk dat je een extra videokaart koopt die dan voor de PhysX berekeningen gebruikt worden. Echter de gebruikers met n videokaart kunnen op deze manier in ieder geval zien wat ze missen. Lage framerates worden uiteindelijk een irritatie bij de gebruiker die dan of functies uitschakelt of meer geld investeert. En het is nVidia er natuurlijk om te doen dat je dat laatste doet.

Het combineren van twee GPUs op n videokaart is het aanboren van een grote markt die dus meer geld wil besteden om snellere video met PhysX te krijgen, maar niet met SLi aan de gang wil (duurdere videokaarten combinatie, duurder moederbord, zwaardere voeding, etc).

Tevens maakte nVidia een fout met de laatste beta driver, en kon je gewoon een AMD/ATi videokaart als hoofdkaart gebruiken met een nVidia videokaart als dedicated PhysX kaart. Er zal hopelijk dus een Europees onderzoek gestart worden naar de monopolistische taktieken van nVidia.
Dat hebben ze al, namelijk Havok -- http://en.wikipedia.org/wiki/Havok_(software)

Echter Intel heeft Havok overgenomen in 2007, omdat AMD op dat moment geen kapitaal kracht had door de ATi overname. Intel doet echter weinig op spel nivo met de Havok aanschaf, dus AMD kan helaas niet dezelfde push doen die nVidia heeft kunnen doen na de overname van AGEIA (de uitvinders van PhysX).
een physics engine die wel op de cpu draait.
Havok vind ik goede resultaten hebben, maar het is toch niet niet altijd wat PhysX laat zien, vind ik dan.

Ja nVidia heeft een goede zet gedaan door AGEIA over te nemen. Dat bedrijf had natuurlijk niet dezelfde resultaat kunnen krijgen als nVidia nu heeft. En dat is weer goed voor concurrentie.
NVidia sponsort tevens een gigantisch aantal ontwikkelaars via hun "The Way It's Meant To Be Played", en is er natuurlijk niet vies van om dan te eisen dat alleen PhysX wordt ondersteunt en niet Havok. Ze stonden ook achter de subsidie van Ubisoft met Assassin Creed, die er toen later DirectX 10.1 support uitsloopte, want het bleek dat AMD toen betere resultaten neerzette dan nVidia en dat kon natuurlijk niet.

Tevens maakte nVidia een fout met de laatste beta driver, en kon je gewoon een AMD/ATi videokaart als hoofdkaart gebruiken met een nVidia videokaart als dedicated PhysX kaart.
Ben ik het met je eens, Nvidia speelt het niet altijd even netjes. Toch is het natuurlijk handig voor een game studio, een spel maken kost veel geld uiteindelijk, desondanks niet netjes in vergelijking tot andere spelers in de markt.

De echte tweakers weten dat natuurlijk ook: je koopt een ATI voor goedkoop en snel, en nVidia voor de extra poespas.
Er zijn talloze redenen om te kiezen voor een merk.
Je laatste opmerking is natuurlijk zwaar overdreven, je zet de Ati's gewoon weg als budget merk. Belachelijk. Heel veel dingen die de Nvidia's kunnen, kan Ati ook. En wacht, Ati kan meer; Eyefinity, een geweldige eyecatcher!

Nvidia, het bedrijf wat geld vraagt voor SLI; terwijl ze daarmee juist meer videokaarten kunnen verkopen = kortzichtige zet en zal ze opbreken. Dat zie je nu al, 99% van de AMD moederborden ondersteunen geen SLI en ook bij Intel loopt dat terug. PhysX, wat ze uitschakelen als er een videokaart van de concurrentie in de pc zit. Ook al weer zo'n closed source project. Nvidia denkt teveel aan zichzelf en dat is leuk voor d ekorte termijn, op de lange termijn gaat ze dat klanten kosten. Ik ben zo'n potentieele klant, het enige wat ik (en vele met mij vermoed ik) is spellen spelen zonder allerlei gedoe. Als ik dan zie wat Nvidia doet om zichzelf "uniek" te maken zeg ik: ze schieten in hun eigen voet!

Met hun nieuwe generatie videokaarten gaan ze ook al geen potten breken, voorlopig hebben
ze het nakijken. Hoop dat ze hun markt mechanisme eens onder de loep nemen en met goede oplossingen komt ipv. hun vendor-lock technieken.

[Reactie gewijzigd door Madrox op 5 juni 2010 10:14]

Je laatste opmerking is natuurlijk zwaar overdreven, je zet de Ati's gewoon weg als budget merk. Belachelijk. Heel veel dingen die de Nvidia's kunnen, kan Ati ook. En wacht, Ati kan meer; Eyefinity, een geweldige eyecatcher!
Daartegenover zet nVidia 3D Vision Surround. Iets moeilijker implementeerbaar (3x 120 Hz schermen zijn een vereiste als ik het goed heb) en ik heb het ook minder vaak / nauwelijks voorbij zien komen, maar nVidia heeft dus wel iets tegenover Eyefinity.
Nvidia, het bedrijf wat geld vraagt voor SLI; terwijl ze daarmee juist meer videokaarten kunnen verkopen = kortzichtige zet en zal ze opbreken. Dat zie je nu al, 99% van de AMD moederborden ondersteunen geen SLI en ook bij Intel loopt dat terug.
Goed, fabrikanten van AMD borden gaan natuurlijk niet voor een SLI licentie betalen en dat is volgens mij ook nooit zo geweest. Bij Intel is dat een ander verhaal en ik zie die ondersteuning echt niet zo gauw teruglopen. ;)
PhysX, wat ze uitschakelen als er een videokaart van de concurrentie in de pc zit. Ook al weer zo'n closed source project. Nvidia denkt teveel aan zichzelf en dat is leuk voor d ekorte termijn, op de lange termijn gaat ze dat klanten kosten. Ik ben zo'n potentieele klant, het enige wat ik (en vele met mij vermoed ik) is spellen spelen zonder allerlei gedoe. Als ik dan zie wat Nvidia doet om zichzelf "uniek" te maken zeg ik: ze schieten in hun eigen voet!
Het kan toch nog gewoon? Dedicated nVidia kaartje voor PhysX? Je hebt er alleen een oudere driver voor nodig. Ik ben ook potentieel klant als ze dit in de nieuwe drivers weer mogelijk zouden maken...
Met hun nieuwe generatie videokaarten gaan ze ook al geen potten breken, voorlopig hebben ze het nakijken. Hoop dat ze hun markt mechanisme eens onder de loep nemen en met goede oplossingen komt ipv. hun vendor-lock technieken.
Wie weet. Als deze GTX4xx serie niet wordt wat ze hoopten, waar het wel op lijkt, zullen ze daar echt wel van leren. nVidia heeft het geld om zich zo'n fout te kunnen permitteren, al zouden ze een klein beetje marktaandeel kunnen verliezen...
Nvidia 3D Vision Surround word lang niet zo populair:
Je hebt twee videokaarten nodig, daar SLI is vereist. Je hebt drie 3D beeldschermen nodig, op 120hz. En je hebt dan ook nog zo'n brilletje nodig. Prachtig allemaal, maar peperduur en niet iedereen is zo gecharmeerd van deze 3D oplossing. Er zitten nogal wat haken en ogen aan.

-Multimonitor score Ati - Nvidia = 1-0

Precies, bij AMD zie je haast geen SLI en bij Intel vaak alleen bij de duurdere plankjes.

-MultiGPU gaming Ati - Nvidia = 1-0

Dat het kan met een oude driver wil niet zeggen dat oke is. Straks werkt het niet goed met dat nieuwere spel; heb je toch een probleem.

-Ondersteuning PhysX achtige toepassingen Ati- Nvidia = 1-0

Laten we idd hopen dat Nvidia er van leert en snel ook; voor je het weet is de kas leeg ;)
En dan dit nog:
http://www.pcper.com/comments.php?nid=8786

[Reactie gewijzigd door Madrox op 5 juni 2010 12:54]

"Ja, ATI zou ook een soort van PhysX implementatie kunnen maken, en dat zou ik ook helemaal niet erg vinden. Het is gewoon dat Nvidia hier het voortouw neemt om een technologie te perfectioneren. Nu is het idd nog af en toe meer een gimmick dan een goede feature, maar in de toekomst zal dat volgens mij sterk veranderen :) "

Jouw verhaal doet er niet echt toe.
Nvidia heet ooit bedacht dat hun rekenwondertjes gebruikt moeten worden door wetenschappers en designers voor bulk berekeningen.
Rond die tijd kwam Ageia met physx.
Nvidia voelde zich bedreigd en kocht het bedrijf op om concurentie in de pro markt te voorkomen.
Vervolgens zaten ze met een compleet product dat eigenlijk gewoon een concurent was voor hun hardware.
Ze besloten om de reeds ontwikkelde physx code te porten naar hun kaarten en opnieuw te marketen.
Zodoende is de grootste van de physics hypes ontstaan.
Alles en iedereen had opeens physics nodig, volgens nvidia.
Het is inderdaad gewoon een gimmick, gepushed door nvidia omdat ze wat geld willen terugverdienen. Het opkopen van ageia om hun hardware van de pro markt te krijgen was dan ook een duur grapje. Zo goed gaat die pro markt namelijk niet en de grote afname van hun rekenkaarten bleef uit.
als game designers 100% van de gamne markt achterzig hadden (100% van de gamers een physx chip in de pc of ondersteuning ervoor) had je al veel meer games hiermee gezien doordat ati kaarten het nog niet hebben blijven echte topgames uit want wie wil er nu een game maken die maar de helft van de mensen spelen kan.

en games met ati kaarten mogen er dan ook wel mooi uitzien maar je mist features die je met een nvidia kaart toch wel heb en games die al wel gedeeltelijk physx ondersteunen draaien dan ook echt beter op een nvidia kaart.
Physix is toch ook een insteekkaartje?... iets met aigea physix ofzoiets... *shrugs* nooit echt in verdiept, toendertijd was dat kaartje mijns inzien te duur voor een beetje extra spectakel...

afaik zouden "physix games" nl ook 'perfect' werken zonder.... maar dan krijg je die extra eyecandy gewoon niet...
Ik heb zo'n Ageia PPU kaart van Asus de Asus PhysX P1. Toen ik die kocht was het veel goedkoper om een 8800GTS(G80) en zo'n PPU te kopen dan om een 8800GTX te kopen. Nu blijkt mijn inschatting dat PhysX de toekomst had de juiste, gezien het feit dat nVidia het nu heeft opgekocht en aan het pushen is.

Maar helaas zijn de PPU's sinds Windows 7 door nVidia uit het raam gegooid en is er geen support meer voor. Tegenwoordig moet je om een PPU te kunnen gebruiken een oudere Vista driver gebruiken en die je telkens opnieuw installeren omdat nVidia bij elke update telkens je kaart uitzet en alle opties uit de huidige drivers heeft gesloopt.

Er zijn een paar games die echt niet zonder PhysX willen en die toentertijd ook echt een PPU kaart vereisten. Als die games niet specifiek naar de PPU zoeken, maar alleen naar de driver status kijken voor HW PhysX acceleratie dan kun je die nu gewoon op een GPU hun PhysX laten doen.

Zo zijn er ook een behoorlijk aantal spellen waarin PhysX direct invloed heeft op de gameplay, bijvoorbeeld in GRAW waarin je ineens dingen kunt kapot maken die je zonder PhysX niet kapot kunt maken. Hetgeen de mogelijkheid biedt tot het maken van je eigen 'deur' in een muur in plaats van het gebruiken van de deur die er door de leveldesigner in gezet is.
Punt1: Ter tijde van de 8xxx serie van Nvidia hadden zij Ageia al overgenomen
Punt2: Alle games lopen ook zonder PhysX. Het wordt dan door een softwarelayer geimplementeerd waardoor het dus op de CPU gaat en je dus een krachtigere CPU moet hebben of de PhysX effecten lager moet zetten.
Punt3: PhysX is een effect van de vorige generatie. Met DX11/OpenCL zijn er gewoon algemene standards voor (komt bij dat OpenCL en DirectCompute, dat bij DX11 gebruikt wordt voor PhysX, ook gewoon op ATI's vorige generatie lopen omdat die DX 10.1 ondersteunt)

De enige reden dat er nog games met PhysX verschijnen is dat Nvidia er geld voor betaald dat het geintegreed wordt en dat de games al langer in ontwikkeling zijn. Ik zie PhysX zich echter niet meer lang overeind houden. ATI wint op moment met zijn DX11 line-up enorm terrein en het wordt dus steeds onhandiger voor devs om op een NV-only standard in te zetten.

En wie echt PhysX wil hebben kan voor 20-30 euro een 8600/9500 van de V&A halen en via een klein hackje gewoon als PhysX-kaart gebruiken. Dat is trouwens ook verstandig te doen naast een NV want ook de high-end NV kaarten voelen een aardige klap als je PhysX aan zet.
Punt1: Ter tijde van de 8xxx serie van Nvidia hadden zij Ageia al overgenomen
nVidia nam Ageia over op zeggen en schrijven 8 dagen voor dat ze de Geforce 9xxx serie uitbrachten. Strikt genomen is dat nog in het GeForce 8xxx tijdperk geweest, in de praktijk heeft nVidia PhysX pas naar de GeForce gebracht 6 maanden na de introductie van de GeForce 9xxx.
Toen ik in medio 2007 mijn PPU kocht was er nog geen sprake van dat nVidia of wie dan ook Ageia zou opkopen.
Punt2: Alle games lopen ook zonder PhysX. Het wordt dan door een softwarelayer geimplementeerd waardoor het dus op de CPU gaat en je dus een krachtigere CPU moet hebben of de PhysX effecten lager moet zetten.
In de regel wel, hoewel ten tijde van de release je het niet hoefde te proberen om Cell Factor of Warmonger zonder PPU te spelen. Zelfs de dikste CPUs van eind 2007 konden dat gewoonweg niet aan.
Ook vandaag de dag nog presteert een PPU beter in PhysX dan de meeste CPUs.
Punt3: PhysX is een effect van de vorige generatie. Met DX11/OpenCL zijn er gewoon algemene standards voor (komt bij dat OpenCL en DirectCompute, dat bij DX11 gebruikt wordt voor PhysX, ook gewoon op ATI's vorige generatie lopen omdat die DX 10.1 ondersteunt)

De enige reden dat er nog games met PhysX verschijnen is dat Nvidia er geld voor betaald dat het geintegreed wordt en dat de games al langer in ontwikkeling zijn. Ik zie PhysX zich echter niet meer lang overeind houden. ATI wint op moment met zijn DX11 line-up enorm terrein en het wordt dus steeds onhandiger voor devs om op een NV-only standard in te zetten.
Daar verschillen we toch behoorlijk van mening dan. Ik zie DX11 en DX10.1 op dit moment nog geen centimeter terrein winnen tegenover PhysX. Er komen steeds meer games uit die op een of andere manier PhysX ondersteunen en bij steeds meer kun je dat dan laten doen op een GPU of (met een hack) op een PPU.
DirectCompute en andere gpGPU toepassingen zullen ongetwijfeld PhysX gaan inhalen, maar ik denk dat dat nog wel de nodige jaren gaat duren voordat dat het mainstream niveau bereikt wat PhysX nu heeft.

DX11 games op dit moment zijn nog op 1 hand te tellen en die ondersteunen vrijwel allemaal ook nog DX9 en 10. DX10.1 support is nog zeldzamer, meestal is het alleen DX10.0.

[/quote]En wie echt PhysX wil hebben kan voor 20-30 euro een 8600/9500 van de V&A halen en via een klein hackje gewoon als PhysX-kaart gebruiken. Dat is trouwens ook verstandig te doen naast een NV want ook de high-end NV kaarten voelen een aardige klap als je PhysX aan zet.[/quote]
Dat is vandaag de dag inderdaad een goede optie. Behalve dan in mijn specifieke geval omdat mijn moederbord maar 1 PCI-e 16x slot heeft.
klopt, mar het kan sinds de 8600gt ook op een secondaire gpu..
Ik weet niet in welke wereld je leeft maar consoles zijn veruit de grootste markt voor gameontwikkelaars.
Ontwikkelaars zullen niet snel geld investeren in physx als het mischien maar 5% van de totale gamesmarkt is.
Wt een bullshit, alsof iedereen met een ATI kaart dom is, alsof IEDEREEN Nvidia moet kopen, enkel omdat ze physicx hebben?

hun manier, is maar een manier, het kan ook op vele andere manieren..... physics is wat dat betreft maar een tool, en voor nvidia perfecte marketing... En als game studio's daar meegaan werken, alln daar maar mee... tsja dan is het logisch dat de games sneller ontwikkelen, op dat ne platform.

Juist nu is het goed dat game studio's enorm creatief moeten zijn, om alles mooier te maken. De resultaten zijn dan uiteindelijk beter, en je zit niet vast op n techniek waar dan een merk maar geld van krijgt: Nvidea.

We hebben wel gezien dat de nieuwe 4xx serie's gewoonweg mnder zijn dan de ati 5xxxx serie.... komop mensen, ga nou niet met een plaat voor je kop lopen.

Als we allemaal aan de Physics waren gegaan ,dan zat nu iedereen met een electriciteit slupende, oversised hitte afstotende video kaart.. en werd het alleen maarerger, aangezien er dan geen concurrentie meer was, en ze niet meer tot creativiteit en oplossingen werden gepusht.
@.Joris

Waarom zouden de resultaten mooier zijn als er voor beide ondersteuning moet zijn en dus de aandacht van het team wat moet verdeeld worden. Ik zie ook niet in hoe creativiteit plots zou verdwijnen of ATI plots niet meer zou kunnen concureren als PHYSX de standaard wordt.

Als er meer mensen physics gaan gebruiken, gaat ATI uiteindelijk toch inbinden en het ook toevoegen. Een kaart als die hierboven zal misschien wat duur worden maar als ze hetzelfde uitbrengen met een goedkoper model van van NVIDIA dan zou dat denk ik wel het verschil kunnen maken.
Physx is afgeleid van physics, oftewel natuurkunde. Alle natuurkundige berekeningen zouden dus met een Physx-kaart kunnen worden berekend.
Ja, en? Physics kun je ook prima op een Radeon doen, hoor, gewoon via OpenCL e.d. Voor zover ik weet is PhysX ook niks anders als een specifieke CUDA toepassing.
Maarm et een extra gpu als physics kaart kan je veel meer van die berekeningen laten doen waardoor het nog mooier/reallistischer word. Nvidia kaarten kunnen het ook wel zonder extra gpu hoor.
Of je gebruikt een krachtigere gpgpu en deticate een paar interne cores aan physics berekeningen, waardoor het nog "mooier/realistischer" wordt. Of het nou een aparte die is of een grotere GPU, het wordt allebei krachtiger en het kost in allebei de gevallen meer geld/stroom/ruimte etc. dus ik denk niet echt dat je een punt maakt.

Ik zie dit meer als een hopeloze manier om in het nieuws te komen.

[Reactie gewijzigd door Yokozuna op 4 juni 2010 19:32]

Het ENIGE nut van PhysX is dat, ENKEL IN DE ONDERSTEUNDE GAMES, de vlaggetjes, doekjes en stofwolkjes er Eventueel beter uit zien:

De ontwikkelaars moeten dus support inbouwen, waarna de extra grafische details enkel voor NVidia gebruikers beschikbaar is, OF ze kunnen kiezen voor een andere oplossing (zoals OpenCL) waarmee ze hetzelfde maar dan voor Zowel ATi als NVidia gebruikers ondersteuning bieden.

Het punt is dat NVidia support levert bij het inbouwen van Physx, waardoor dat (soms) aantrekkelijker gevonden wordt.

De PhysX lijst is echter erg beperkt (weinig titels die het ondersteunen) en ik heb het nooit echt gemist als GeForce 7800GT (PhysX kwam pas vanaf 8xxx) en ATi HD5850.

Vergelijkingen:
http://ve3dmedia.ign.com/images/04/00/40044_orig.jpg
http://www.gamingnexus.co...comparison/Item13989.aspx

Persoonlijk ben ik absoluut niet onder de indruk: Het zijn slecht gimmicks, die prima via een standaard als OpenCL te realiseren zijn.
@cPT.cAPSLOCK

AMD/ATI willen Physx niet ondersteunen. Een tijdtje geleden heeft Nvidia met een voorstel richting ATI gepoogd om Physx te implemteren op ATI kaarten. Dan zou physx een groter markt aandeel verwerven en dus meer gebruikt kunnen gaan worden in spellen.

Let wel op dat het echt niet alleen om het wapperende vlaggetje gaat PhysX is een complete API die programmeurs in staat stelt om natuurkundige berekeningen op een grafisch kaart of CPU te doen zonder dat ze zich hoeven bezig te houden met de specifieke hardware waar het op gaat draaien. Probleem is dat ATI het niet wil ondersteunen, mogelijk vanwege hun banden goede band met Havoc (wat inprincipe een concurrent van PhysX is). PhysX bevat bijvoorbeeld raytracing/raycasting methods en collision systemen en veel andere dingen die het voor een programmeur makkelijk maken om natuurkundige berekening te doen.

Natuurlijk kan je ook natuurkundige berekeningen in OpenCL doen maar dan zal je eerst zelf alle code voor die berekening moeten gaan schijven. OpenCL is als CUDA dus vergelijk het niet met PhysX.

Ik vind het jammer dat ATI dit initiatief van Nvidia zo tegen werkt en weigert PhysX op ATI kaarten te activeren want de eigenlijke support voor ATI kaarten zit al in de code(bron).

[Reactie gewijzigd door codeneos op 4 juni 2010 22:14]

Ik vind het jammer dat Nvidia met een closed-source toepassing komt om geld aan AMD te verdienen. Wat Nvidia wil met PhysX is macht krijgen over AMD door een closed-source standaard te creren, niet gamers mooiere effecten geven. Als dat wel hun doel was geweest dan hadden ze het open-source en gratis gemaakt zodat iedereen er zonder zorgen en kosten gebruik van kon maken. Het is dus hun eigen schuld dat AMD niet mee wil werken. Die weten donders goed dat Nvidia anders macht over hun krijgt.
AMD heeft NVidia al vaker aan geboden om physX te porten naar opensource. Nvidia heeft geweigerd en houd vast ook aan hun closed standaard. Conclusie: wat je doet is gewoon een pot verwijt de ketel. Ik ben blij dat AMD physX niet overneemt. Nee geen gesloten standaard. Want wat gaat er gebeuren als Nvidia de standaard beheerst? Die 'standaard' is dan 'aangepast' om beter te draaien op de nvidia hardware.

[Reactie gewijzigd door Reinman op 5 juni 2010 16:09]

Natuurlijk zit de ondersteuning al in de code.
CUDA is niks meer dan een compiler die shader code uitpoept.
laat een ATI kaart nou toevallig ook shader code snappen.

De enige reden waarom het niet werkt op ATI kaarten is de "the way its ment to be played" campage van nVidia. Zolang developers geld krijgen om bepaalde dingen beter te ondersteunen op bepaalde kaarten, zul je dat houden.

Daarom ben ik ook zo blij dat het nu in DX zit. door DX of OpenCL te gebruiken voor de Physics werkt het op alle kaarten, en waneer het niet op de kaart werkt, dan toch nog in software mode.
Misschien als Nvidia het eens achterwege liet van in drivers Physx te blokkeren als er een ATI kaart aanwezig is, waardoor je weer met gehackte drivers moet gaan rotzooien, dat ATI dan ook eens wat vriendelijker uit de hoek zou komen. Sorry maar nvidia verdient op dit gebied ff de deur tegen de neus te krijgen :)
@Yokozuna
En als die krachtigere gpgpu er nog niet is?

[Reactie gewijzigd door Alucard op 4 juni 2010 22:12]

@Torrentus

Dan kun je natuurlijk ook weer terug naar de Pac-Man tijd.
Als er wat extra elementen in een game bijkomen- al zijn het maar vlaggen- dan voegt dat uiteraard wel wat toe.
Natuurlijk vooral eyecandy maar toch...

[Reactie gewijzigd door coob op 4 juni 2010 18:45]

Physics zorgt ervoor dat alles levender en natuurgetrouwer beweegt, wat dus het realisme ten goede komt, en daarmee ook zorgt dat er meer objecten getoond kunnen worden (want al die brokstukken kost behoorlijk wat rekenwerk, en dus al helemaal als je ze ook nog eens realistisch wilt laten 'vliegen')..

En tja, of het iets toevoegt aan de game? mooiere graphix/hogere resolutie voegt in jouw redenatie dan ook niets toe aan de game..
wat voegt ati dan met hun prachtige graphics zoals je zegt dan toe aan het spel? dat is hetzelfde als met die PhysX

het enige die er toe doet bij games voor een goeie game is GAMEPLAY, niet graphics
In spellen die het ondersteunen, heb je er wel degelijk wat aan. Het worden er steeds meer nog steeds.
Het is toch leuk om die wapperende vlaggetjes te hebben? Maar goed, zo lang physx alleen op nvidia kaarten draait zal er geen spel komen waarbij het voor meer gebruikt wordt dan alleen extra eyecandy.
Of je iets aan physx hebt hangt vaak af van je CPU. Recentelijk had ik Physx uitgezet om mijn gpu te ontlasten bij de game split second velocity (99% gpu gebruik, 20% cpu). Toen ik echter blur ging spelen bleek dat juist mijn cpu op 100% schoot. Na het inschakelen van physx ging ik van 40 fps naar 55-60 fps... Het heeft dus in dit geval een grote impact gehad.

(specs e6750@ 3 ghz, gtx 260 @648 mhz).
Ben benieuwd of dit nu echt veel uitmaakt. Een GT240 is nu niet echt state of the art en heeft slechts 96 SP. Metro 2033 test met advanced physx anyone?
voor zover ik weet is de geforce 9600GT al meer dan genoeg als physx-card.
gpgpu van dx11 + cpu met 4 core's zal toch physx verslaan.
Nou, als men een niet al te snelle processor heeft ontlast dit hem enorm. Kijk maar eens naar de verschillen tussen ATi en Nvidia kaarten bij benchmark, waarbij bij ATi de CPU de berekeningen op zich moet nemen.
Opzich heel leuk, alleen het feit dat er gewoon nauwelijks games zijn die het ondersteunen maakt dit product niet heel veel nuttiger dan een normale GTX470. 3D mark vantage, UT3 (special level), mirrors edge en daar houdt het wel zo'n beetje op... Dat is jammer want het is best een leuke techniek.
Zou het dan ook mogelijk zijn om de 480 chip uit te schakelen bij office-gebruik, en in te schakelen bij gamen? Volgens mij gebruikt de gt240 idle slechts 9 watt. Dat zou wl de uitvinding van het jaar zijn. Vrijwel geen stroomverbruik bij dagelijks gebruik, meer prestaties bij gamen en minder belasting dus een langere levensduur van de 480 chip! Of mis ik iets?
Is het wel nuttig om een dergelijke kaart op de markt te brengen?

Ik zie dat veel mensen hardware Physx zien als een truukje om de CPU te ontlasten van de (software) Physx.
Maar nu ze deze GT240 chip bij een GTX470 zetten, is het nut een beetje weg:
99% van de gamers/computerbouwers die het geld hebben voor een high-end/upper mainstream kaart als deze, hebben ook het geld voor een redelijke quadcore CPU.

Daardoor is de toevoeging van een extra gpu voor de Physx berekeningen slechts van beperkt nut.
Is dat hele physics verhaal niet achterhaald als zometeen de IGP en CPU bij elkaar gentegreerd worden, zoals bij de Core i en AMD Fusion series?

De CPU kan dan de physics aan de streamprocessors van de IGP overlaten. Voila.. geen extra kaart of gpu nodig.
ja en als je een octocore hebt is het nut van een GPU verdwenen ^^. Het is altijd handig(mits je er geld voor over hebt) alleen is het nu niet nuttig omdat er maar weinig toepassingen gebruik maken van zon chip, en als ze het doen is de meer waarde gering.
Het is een beetje te vergelijken met het verschil tussen de ps3 en de xbox360, de ps3 only games zijn een stuk mooier realistischer(heavy rain Bv) dan de xbox360 only games (gears of war), dankzij de cell fpu's.

Nu heeft het gewoon een patswaarde voor de mensen die showen met hun computer.
Ze zouden deze 2e chip ook als optionele GPU kunnen gebruiken wanneer de load laag is om zo een flinke hoeveelheid stroom te besparen.
Galaxy is wel lekker bezig. Een dual GPU GTX470 kaart, een GTX470 met dedicated PhysX en een videokaart met wireless HD :)

Gaat goed daar

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True