Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

Sinds de komst van de GeForce 186-drivers is het niet mogelijk om een ATI-kaart te gebruiken als videokaart, terwijl een Nvidia-kaart Physx afhandelt. Nvidia schakelde dit met opzet uit, maar een nieuwe patch maakt het toch weer mogelijk.

Enige tijd geleden zorgde een verandering in de drivers van Nvidia ervoor, dat een Nvidia-kaart niet langer gebruikt kon worden als er ook een ATI-kaart in het systeem aanwezig was. Voor gebruikers van Windows 7, die installatie van meerdere drivers tegelijkertijd toestaat, betekende dat het einde van het gebruik van een ATI-kaart in combinatie met een Nvidia-kaart. Nvidia schakelde de mogelijkheid uit, met als excuus dat het compatibiliteitsproblemen op zou kunnen leveren en omdat het liever geen producten zou valideren van zijn concurrent.

Een lid van het NGOHQ-forum nam hier echter geen genoegen mee, en schreef een patch, waarmee het alsnog mogelijk is om een ATI-videokaart te gebruiken voor het renderwerk, terwijl een Nvidia-kaart de natuurkundige berekeningen middels Nvidia Physx voor zijn rekening neemt. De patch is bruikbaar met de nieuwste Nvidia-drivers en een aantal NGOHQ-forumleden heeft de succesvolle werking al gemeld.

Moderatie-faq Wijzig weergave

Reacties (108)

Oeps.

Dit was natuurlijk te verwachten. Ik weet niet hoe Nvidia redeneert, maar een gebruiker ziet de aanpassing van de driver door Nvidia natuurlijk als een beperking. Ik persoonlijk zou dan overstappen op ATI (AMD) en die Nvidia kaart in een hoek donderen.


(edit: post even ver-duidelijkt)

[Reactie gewijzigd door Pixeltje op 5 oktober 2009 14:49]

Die beperking is dus inmiddels weer opgeheven ;) En de gebruiker die twee videokaarten gebruikt is over het algemeen wel op de hoogte van ontwikkelingen als deze, dus er is niets te klagen :)
Maar ik snap het niet: Zo duur is een los PhysX kaartje toch niet?
Losse physx kaarten worden niet meer gemaakt en ondersteund, + dat videokaarten al sneller waren dan de PhysX kaarten.

zou niet snugger zijn om er nu nog 1 te halen
Maar losse PhysX kaarten werken wel op een PCI slot. Handig voor als je geen PCI-e over heb.
Punt 1 en 2 true, punt 3 marginaal.
Maar iets dedicated is vaak sneller dan iets over stressed door twee zware tasks.

Je vergeet ook even dat je die 3 jaar oude PPU ook tegen 3 jaar oude GPU moet zetten.
De king van de hill was toen R520 op GPGPU gebied. Toen kwam G80 later was dan dé GPGPU chip.
Dan 'n beetje GPU kost toen ook aardig wat. Maar GPU had al een zware taak renderen. En PhysX komt niet for free. ipv PPU doen de nV unified shaders en GPU hebben daar een beperkt aantal van. Die verdeeld moeten worden over twee zware taken. Ten miste als je een PPU wilt stressen. Praten we niet over een cPU ontlastend PhysX loadje. Maar pushing ingame PhysX to the max.

Dan vergeet je een heel crusiaal punt en dat is dat ATI en nV since PPU release met havokfX Physics GPGPU belofte maakten. Maar die belofte uitbleef totdat nV ageia overnam en de PhysX SDK met Cuda nV GPU ondersteunde.
PPU Games waren er in wel in beperkte mate. GPGPU had alleen wat techdemo's. En veel later kwam er pas een game tech demo alanwake. Tja toen kwam intel. HavokFX dood.

En dat dus PPU eigenlijk daadwerkelijk jaren alleen tegen CPU concureerde en eigenlijk ook op gericht was. En GPGPU enorm lang alleen maar een belofte was. Die 2,5 jaar na PPU release pas werd ingelost.
Die PPU2 is er nooit gekomen. Maar nV zou ipv GT300 ook 'n PPU3 kunnen maken van 3miljard transistoren.

Al lijkt de GT300 Die meer op een shader orgie dan GPU. En dat de nadruk meer ligt op tesla chip dan GPU. 'n semi PPU3 dus :)
maar een losse vidoekaart ook niet ;) en die kan je wel nog voor andere dingen/computers gebruiken dan alleen physx :)
In dit geval gebruiken mensen hun oude nVidia kaart aangezien die voor PhysX voldoende power heeft.

Zo zie je veel mensen met een nieuwe ATi kaart en hun oude GeForce 8800GT oid voor PhysX
Ik gebruik mijn "oude" GTX 260 als ded. physx kaartje.
"oude" 260GTX... pfff... die doet dus de helft van z'n cycles niets :D

Een physx pci kaart (als je die nog kunt krijgen ergens) kost ook rond de 80-100 euro, dat is nagenoeg evenveel dan wel meer als een gewone videokaart die meer dan capabel is voor de physx berekeningen... een 8800 GT, als je die nog hebt, is een uitstekende kaart voor je physx...
Zeker Batman niet gespeeld? ;)
Die beperking is misschien wel verholpen maar niet door nVidia zelf. Wel toevallig dat dit bericht ongeveer tegelijkertijd komt met de release van de nieuwe ATI lijn.. Beetje terugpesten omdat ze achterlopen? :)
NVIDIA moet leren inzien dat ze zo meer gaan verkopen. Alles van NVIDIA kopen is enkel nog te verantwoorden als je een fanboy bent. Op deze manier krijg je een volledig nieuw publiek van mensen die dan ook een tweede klein kaartje erbij steken, developers gaan het meer ondersteunen en daarna ben je vertrokken met je technologie die jij als enige hebt.

Zelfde verhaal voor de hydra200. Hopelijk ziet NVIDIA dat het iets zal toevoegen ipv het te blokkeren en nog maar eens al de kopers weg te jagen.
Sterk onderbouwd kerel :O . Volgens mij willen ze meer verkopen, maar dat helpt niet als je de primaire functie uit handen gaat geven aan de concurrent.
nV core bussness is GPU.
De king of the hill in OPENCL PhysX zou nu HD5870 zijn. En dus nV GPU sales zou stagneren. Goede reden om ATI even te pesten. Niet game vriendelijk.
Zodra die 3miljard tranistoren chip GT300 er is. Die mogelijk meer power heeft dan kan nV weer de king uithangen.

En dan overheerst weer de competitie van GPGPU vs CPU en dan staan ze weer open.
Alleen als ze voorlopen op GPU gebied.

Ik vraag me dan ook af wat er met havok gaat gebeuren als Larrabee uitrolled.
iNtel GPU only support?
ATI/AMD heeft Havok rechten dus dat zal niet enkel een intel GPU product zijn
wat is de preformance winst eigenlijk als je een NV gebruikt? word je ati kaart dan ook echt onlast? of heb je alleen het voordeel van physx er bij en word je CPU meer ontlast?

(en zie je het terug in de FPS?)

@ artikel. het was te verwachten dat zo iets zou komen(een patch). aan de ene kant snap ik het wel van nvidia.. maar aan de andere kant.. het zou weer een boost kunnen zijn in de verkoop van wat oudere hardware (8600 GT++) voor mensen die al een ATI in hun kast hadden en dit er BIJ nemen.. wat dus anders geen verkoop was geweest.
Performance winst ? Geen. Enkel het voordeel dat je Physx hebt, en physx draaien op je cpu is meestal een no-go. Misschien met een dikke quad, maar die heb ik niet :)
@ artikel. het was te verwachten dat zo iets zou komen(een patch). aan de ene kant snap ik het wel van nvidia.. maar aan de andere kant.. het zou weer een boost kunnen zijn in de verkoop van wat oudere hardware (8600 GT++) voor mensen die al een ATI in hun kast hadden en dit er BIJ nemen.. wat dus anders geen verkoop was geweest.
En als die mensen die er eentje van nvidia bij nemen, dan misschien ook nog tevreden zijn over Nvidia. Dan zou het zo kunnen dat hun nieuwe videokaart wel van Nvidia wordt ipv Ati. Het openstellen van ati + NV lijkt me alleen maar goed voor de naam en sales van Nv IMO.
CPU PhysX is vaak maar een CPU mainstream PhysX load. Wat mainstream cPU makkelijk erbij kan doen. 'n beetje upperclass CPU is dan ook vooral lciht belast.
Gezien de meeste game GPU afhankelijk zijn.
'n extra PhysX Gkaart of PPU kaart zou daarmee bijna idle mee zijn.
Die marginale load verschuift alleen van waar die compute wordt.

'n zware PhysX load voor CPU zal een extra kaart lichtelijk belasten. Maar de CPU en PhysX dedicated kaart zijn sneller klaar met hun werk en de 3d dedicated GPU krijgt soms meer tijd om zijn ding te doen. 'n mogelijkheid voor kleine tot grotere FPS winst.

'n zeer zware PhysX load vereist een snelle CPU zodat die snel klaar is zodat de PhysX belaste chip meer tijd krijgt om zijn ding te doen maar ook de 3D dedicated GPU.

Dus 'n Ci7 en GTX285 met een HD5870 kan vette PhysX bieden met spoepele FPS.
wat zou nou beter werken dan. ati crosfire of ati en nvidia kaart. en dan heb ik het over een physx game. iemand hier verstand van of iets over gelezen
ATI Crossfire gaat je geen PhysX ondersteuning opleveren. PhysX draait alleen op Nvidia kaarten (en de oude PhysX PPUs).
oke maar qua gaming physix maakt het spel dus alleen maar mooier (natuurlijk berekeningen) qua performance zit er toch ook een winst om dat de processor/gpu niet extra belast wordt door die berekeningen.

dus zwart wit gezien wil ik weten waar je het slimste mee uit bent en crossfire installatie 2x 4870 bv
of 1x 4870 en een goeie nvidia als physix aangezien er best wel wat games zijn die physix ondersteunen.

oke niemand kan hier precies antwoord opgeven omdat iedereen andere eisen heeft maar gooi de verschillen maar in de groep :P

[Reactie gewijzigd door Proxx op 5 oktober 2009 15:39]

Fout, het enige wat physx officieel zou moeten doen is je cpu ontlasten door bepaalde berekeningen op je GPU uit te voeren.

Echter heeft nvidia een redelijke zak geld waardoor ze bij developers aankloppen met de reden "Als jullie zorgen dat deze en die effecten alleen werken op een nvidia GPU krijgen jullie x miljoen dollar". Terwijl deze berekeningen rustig en misschien zelfs sneller op een ATi kaart zonder physx uit te kunnen rekenen.
Wil je iets meer physics wat in 99.99% van de games nutteloos is: ati+nvidia
Wil je extra fps: 2x ati
moederbordje met 3 pci-e (16x/8x) slots
crossfire ati
nvidia voor physx

als je toch al nieuwe meuk gaat kopen...
is het ook mogelijk om mijn ATI 4890 Black edition zo samen te laten werken met mijn IGP van nvidia(780i SLI chipset)?

[Reactie gewijzigd door Schumaster op 5 oktober 2009 15:23]

Waarschijnlijk niet zwaar genoeg. Er komen alleszins geen IGP's voor in het lijstje hierboven.
Werken kaarten lager dan de 8600GTgewoon niet voor Physx, of zijn die gewoon niet zwaar genoeg ?
Ik denk dat ik wel wat lichters op de kop kan tikken, met het oog op een OC als ik dit bevestigd krijg.
GPU PhysX word gedaan door shaders. Hoe meer shader hoe meer power voor shader FX of PhysX.

8600GT heeft maar 32 shaders

Hoge shader klok helpt ook.
Gratverrr.. nou was ik zo blij...

heb mijn ouwe gt8600 er in geprikt, maar krijg physx niet aan de praat..
zou het komen omdat ik de "reboot" melding niet gekregen heb??

heb voorzover ik weet alles van nvidia verwijderd en opnieuw geďnstalleerd volgens de instructie maar no go :'(

Heb je hier misschien 2x pci-e x16 voor nodig misschien?? heb een foxconn mars die heeft voor zover ik weet 1x pci-e 16 en 1x pci-e 8

iemand suggesties?

[Reactie gewijzigd door Ntonnaer op 7 oktober 2009 01:19]

Het kan voorkomen dat je je beeld op de tweede kaart moet extenden of mirroren voordattie werkt... Is in elk geval zeker met een iGPU (onboard dus)... Maar normaal moet een dGPU altijd ingezet kunnen worden... Hoeveel lanes je pci-e slot heeft moet niet uitmaken...

Heb je wel het 'NVIDIA PhysX Properties' programmaatje gebruikt?

Overigens kun je een iGPU beter *niet* inzetten voor physx... die's meestal niet snel genoeg...

[Reactie gewijzigd door Radhe op 5 oktober 2009 22:32]

hiermee schopt Nvidia zichzelf waarschijnlijk wel tegen hun eigen schenen.

het is leuk dat er physics mogelijk zijn op videokaarten, en ik geloof ook dat de aparte kaarten hier niet echt voor in trek zijn. maar dit soort gedrag is wel een beetje mierenneukerij, wees blij dat ze uberhaupt 1 kaart kopen voor de physics.

Waarschijnlijk zal in de volgende update van NVidia de optie gewoon weer terug zijn aangezien zulke dingen wel vaker voor zijn gekomen :X
Pasgeleden was er toch ook al ergens een topic over SLI op ati moederbordjes?
Wel tof dat mensen steeds creatiever worden.
Maar snap alleen de toevoeging van het Physx kaartje niet zo.

[Reactie gewijzigd door Caris op 5 oktober 2009 15:01]

Hoe bedoel je creatiever?
Moest Nvidia eens normaal doen, zou dit allemaal al kunnen. Zaols SLI op alle moederborden (zoals crossfire), Batman met AA ondersteuning in het spel zelf, PhysX op een Nvidia-kaartje terwijl de ATI kaart het echte grafische werk doet, DirectX10.1 met assassins creed.

Hoeveel zal Nvidia de consument nog kloten? Geen wonder dat meer en meer mensen hun toevlucht zoeken bij ATI.
Het zijn geen politieke partijen.
Het gaat hier gewoon om keihardde concurentiestrijd.
Als iedereen alle technieken zomaar vrij zou geven, zou er niets meer te concurreren zijn.
Fabrikanten onderscheiden zich graag door nieuwe technieken, en houden die dus ook liever voor zichelf.
En helaas is daar soms (zoals in dit geval waar jij het klaarblijkelijk niet mee eens bent) de consument de dupe van.

Zelf heb ik al jaren Nvidia en ik val geen ATI gebruiker aan.
Maar zelf heb ik wel een paar kaarten van hun gebruikt en die bevielen me gewoon domweg niet.
En ik gebruik ook geen sli, omdat ik aan 1 snelle kaart gewoon genoeg heb :)
En PhysX draai ik ook niet warm voor.
Beters dat het weer kan, dan heb je toch het beste van 2 werelden? Je gebruikt de kaarten waarvoor ze het beste geschikt zijn. Ik kan mij voorstellen dat Nvidia daar niet blij van wordt, ze verliezen de afgelopen 2 jaar al genoeg marktaandeel omdat ATI de ene na de andere 'major-bang-for-buck'-kaarten uitbrengt waar Nvidia qua prijstellling niet aan kan tippen. Dan komt Nividia erachter dat een goedkoop kaartje van hun met physx icm met een knaller van ATI eigenlijk dé oplossing is... tja dan is er al helemaal geen reden meer om de duurdere topkaarten van Nvidia aan te schaffen, physx is zo'n beetje de enige overgebleven techniek bij Nvidia wat de kaarten interessant maakt, op ieder ander gebied blaast ATI ze op dit moment volledig van de kaart.

Nvidia, kijk en leer! Jullie zitten er blijkbaar steeds verder naast qua wensen van potentiele klanten.
als ik het goed zie op de nvidia pagina dan is zelfs een 8600 gts/gt nog mogelijk hiervoor..
http://www.nvidia.com/object/physx_gpus.html

die krijg je voor een paar tientjes al 2e hands
ik heb zelf een 8600 GT en het werkt er inderdaad op. nvidia benches gedraaid, met en zonder physx, verschil is wel te merken!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True