Nvidia stopt ondersteuning PhysX voor 32bit-games op RTX 50-serie

Nvidia stopt met de videokaarten in de GeForce RTX 50-serie met de ondersteuning van PhysX voor 32bit-games. PhysX is een sdk voor de realtimesimulatie van specifieke physicsobjecten. De technologie werd sinds 2007 in enkele tientallen prominente games gebruikt.

PhysXHet verdwijnen van hardwareondersteuning voor 32bit-PhysX-games werd eind januari op een supportpagina door Nvidia aangekondigd. Althans, toen schreef Nvidia niets over PhysX, maar alleen dat de RTX 50-serie geen 32bit-CUDA-toepassingen meer ondersteunt. Halverwege februari merkte een gebruiker op het Nvidia-forum op dat de techniek niet op RTX 50-serie kaarten werkt, waarna een medewerker van Nvidia bevestigde dat dit komt doordat de ondersteuning voor 32bit-CUDA-toepassingen deprecated is, zo schrijft PCGamesN.

Met het verdwijnen van PhysX-ondersteuning voor de nieuwste generatie videokaarten stopt Nvidia in principe met het doorlopend ondersteunen van de simulatietechnologie. Kaarten uit de GTX 9-, GTX 10-, GTX 16-, RTX 20-, RTX 30- en RTX 40-series blijven de betreffende 32bit-PhysX-berekeningen ondersteunen. Voor zover bekend worden games op basis van een 64bit-architectuur die PhysX gebruiken wel gewoon ondersteund door de RTX 50-serie.

PhysX is een software development kit die ontwikkelaars kunnen gebruiken om specifieke physicsonderdelen van een game in real time te renderen met een Nvidia-gpu met CUDA-cores. In principe kan een systeem met bijvoorbeeld een RTX 5090 of een AMD-videokaart ook een 32bit-game met PhysX-technologie afspelen. In dat geval worden de betreffende physicsberekeningen door de processor gedaan, wat een negatieve impact op de prestaties heeft, zo blijkt onder meer uit de onderstaande vergelijkingsvideo. De techniek is bedoeld om van gpu-accelerated berekeningen gebruik te maken.

Er zijn slechts enkele tientallen grote games die PhysX gebruiken. Voor zover bekend kwamen er sinds 2014 geen 32bit-games meer uit met PhysX-implementaties. Onder meer Mirror's Edge, Batman: Arkham Asylum, Metro 2033, Borderlands 2 en Assassin's Creed IV: Black Flag gebruikten de techniek om bijvoorbeeld dynamische rookeffecten, bewegende kledingstof, verwoestbare omgevingen en vloeistoffen te simuleren. Sindsdien is de techniek nog wel in enkele 64bit-games gebruikt, waaronder Project CARS 2, The Witcher 3: Wild Hunt en Star Citizen.

Door Yannick Spinner

Redacteur

20-02-2025 • 19:56

70

Submitter: JapyDooge

Reacties (70)

70
69
33
4
0
33
Wijzig sortering
Merkte het inderdaad ook op, Metro Last Light ging van 300+ FPS naar 8-15 op de 5090 tijdens de benchmark nadat de explosie plaatsvindt. Recent nog Batman Arkham Knight gespeeld en die werkt wel op de 5090 omdat het 64-bits is maar de effecten die in deze games worden gebruikt waaronder bijvoorbeeld Mafia 2 is wel aardig verbluffend, in Batman is het zo leuk om te zien dat je gewoon de rook zijn pad kan beïnvloeden door erdoorheen te lopen.

Jammer, einde van een tijdperk, dit was precies nu iets waar Nvidia sterk in was, vraag me af of dat modders het voor elkaar zouden krijgen een soort-van 32 naar 64-bits emulatie kunnen bewerkstelligen.

Ik kan me ook niet voorstellen dat dit nu zoveel moeite had gekost om te blijven ondersteunen, wat gaat er dan straks met grafische effecten gebeuren van Gameworks in de toekomst zoals PCSS HFTS voor schaduwen om maar een voorbeeld te noemen. Het hierop leunen door ontwikkelaars kan misschien in de toekomst de spellen wel een stuk slechter uit de te doen laten komen.

Dan maar je oude GPU naast je 5090 plakken voor PhysX. :+
Arkham knight draait overigens niet meer met physx op een 1080ti, een driver bug die nvidia nooit meer gefixed heeft, de overige 2 spellen draaien er wel gewoon prima op :/

Dus opmerkelijk dat het bij een 5090 werkt, of ben je nog niet bij de chemical plant? Daar kan ik het namelijk met 100% zekerheid reproduceren...
Ik heb het hele spel uitgespeeld met alle gameworks instellingen aan op de 1080Ti, als PhysX niet zou werken dan zou de smoke PhysX bijvoorbeeld niet interactief zijn (en er heel anders uitzien) als je er doorheen loopt, dat gaf ook geen echte performance drops.

Ik heb hier een video van Batman Arkham Knight op de RTX 5090:
YouTube: Batman Arkham Knight 13900K 128GB RTX 5090 Astral 7680x4320 8K High ...

En de rest van de playlist wat nog onderhanden is om later aan te vullen:
https://www.youtube.com/p...OcA8Iev0zaRBlYM-CBwKqFY-P

Edit: Zie ook hier de PhysX overlay dat hij wel GPU aangeeft: https://i.imgur.com/TZeZG5r.png

[Reactie gewijzigd door CriticalHit_NL op 21 februari 2025 07:43]

Hmmmmm, opmerkelijk, was dat een aantal jaar terug?
(Ik moet een recente driver gebruiken voor moonlight zo te zien, een oude driver waar het wel zou moeten werken kreeg ik niet werkend met een stream)

Bij mij was het dus de scene dat je in de chemical plant belaagd word door de arkham knight en je de remote control van de batmobile moet gebruiken om hem en de fodder uit te schakelen/verjagen.
Zodra ik het eerste schot afvuur wordt het een ultra slowdown, denk 1 frame per 10 seconden, voor dat alles hangt en uiteindelijk crashed.
De rest van het spel liep ook erg instabiel tot dat punt en crashte geregeld...
Physx uit en het liep als een zonnetje, maar zag er wel een stuk minder uit.

Zoals gezegd, zelfde driver met arkham asylum en city werkte gewoon 100% prima :/
Nope, afgelopen maand nog zitten spelen.
Op de 1080ti?
Time to update the drivers I guess.
Ik had niet verwacht dat zo'n oude bug op een 1080ti nog gefixed zou worden...
Kudos to nvidia in dat geval.
Yep, speelde het op driver 566.36 en wellicht de vorige versie. (epic games)
I'll be damned.... ze hebben het gefixed :o
566.36 works like a charm.
Ik dacht even toen de ruit brak dat het als nog niet zou werken (slowdown), maar het ging gewoon goed...

Hmmmmmmmmm, nog een keer het spel spelen om alles met de juiste effecten te zien, of het zo laten... het is wel erg tempting om het gewoon nog een keer te doen.

Hartelijk dank voor de tip.
Weet niet of het ook met een 5090 werkt, maar ik heb een 3090 en een 3050 in mijn PC zitten voor extra monitor aansluitingen, en gebruik de 3050 voor PhysX, en dat werkt prima.

Gaat er nu een hele scalpers markt ontstaan voor de oude budget RTX kaarten?
Gaat er nu een hele scalpers markt ontstaan voor de oude budget RTX kaarten?
Lijkt me sterk, het gaat niet om zoveel games.

En wat ik me nog kon herinneren toen der tijd, is dat games met Physix erom zwaar overdreven physix hadden, bij een elke puf schoot alles al alle kanten op

Beetje het zelfde met Raytracing (iig in het begin) waar opeens alles nat lijkt te zijn

Denk niet dat hier veel mensen wakker van liggen
Als mensen er wakker van liggen, dan wel in NL. Waar de kaas, klompen en high-end GPUs door de aderen stroomt!
Nou wat ik mooi vind van PC gaming is dat je alles kan spelen dat gemaakt is in de laatste 30 jaar. Laatst nog een Vita spel gespeeld op mijn computer.

Dit is voor mij toch een slechte stap, wat gaan ze straks bij Nvidia kapot maken? Als ik alleen de laatste triple A meuk mag spelen kan ik net zo goed weer een Playstation kopen.
Ben benieuwd hoe moeilijk het zou zijn om een wrapper dll te maken voor 32-bit processen die aanroepen vertaalt naar 64-bit versies.

Wat andere call conventies, misschien wat pointers die omgezet moeten worden en wat alignment die gecorrigeerd moet worden, maar als het een klein beetje logische API is zou het toch mogelijk moeten zijn?
Jammer dat nVidia dit niet meer ondersteunt. Wel vraag ik mij af, Neemt de CPU dan de PhysX taken over of kunnen we dan helemaal geen oude 32-bit PhysX games meer spelen op de RTX 5000 kaarten?
CPU neemt het over, met heel erg veel performance hit, blijkbaar omdat Intel en AMD "x87" instructieset alleen compatibel houden, niet optimaliseren.
Meer background over dat x87 i.p.v. SSE/AVX verhaal: https://arstechnica.com/g...s-library-to-spite-intel/

Dit per game patchen lijkt me waarschijnlijk een kansloos verhaal, al zou het wel zo netjes zijn van die publishers/studios. Zou aardig zijn geweest als Nvidia in hun driver een emulatie-laag hadden geflanst die dan maar met wat degraded performance het blijft draaien i.p.v. op de CPU terug te vallen die waarschijnlijk enorm trager is op die implementatie. Iets degraded performance van een oude game op een nieuwere kaart kan je prima mee leven, maar als ik zo hier en daar hoor wat de impact is van de CPU implementatie is dat zelfs op moderne hardware echt geen pretje.

Kan er echt wel in meegaan dat ze van 32-bit CUDA af willen, maar zo lang geleden is 2014 nou ook weer niet. Duidelijk is maar weer dat Nvidia niet echt veel om hun consumenten geeft, ja de grote AI datacenters misschien. Toch wel zorgelijk met wat voor andere SDKs/technieken vergelijkbare deprecations (iets) oudere games kunnen slopen.
Meer background over dat x87 i.p.v. SSE/AVX verhaal
Even goed om te vermelden dat dit al sinds 2011 is opgelost. De prioriteit zat 'm aanvankelijk in het optimaliseren voor consoles, die toendertijd PowerPC gebruikten.
In plaats van dat Nvidia gewoon iets schrijft wat wel fatsoenlijk op nieuwere cpu's draait ipv X87 instructies te gebruiken of een andere passende oplossing in de vorm van een emulatie laag. Alleen kan Nvidia daar geen geld aan verdienen.
De x87 instructieset komt uit het tijdperk van de Intel Pentium 4, en AMD Athlon 64 (K8) en eerder. Dat is zo'n 20 jaar geleden. Nvidia heeft meer dan genoeg tijd gehad om aan een goede oplossing te werken.

Het lijkt mij dus niet echt eerlijk om van Intel en AMD te verwachten dat ze dit nog optimaliseren; terwijl Nvidia zelf ook geen zin heeft om dingen goed te ondersteunen en ruimschoots de tijd heeft gehad om dit te fixen.

[Reactie gewijzigd door Sp3ci3s8472 op 21 februari 2025 00:10]

De CPU neemt het over in dit soort gevallen.
Het draait op de CPU, maar wel dramatisch. Gisteren kwam er op Reddit een benchmark langs van de 5090/9800x3D die in Borderlands 2 verslagen werd door een GTX980.
Borderlands 2 draait nu ook wel echt slecht als je PhysX aanzet op mijn 4080 + 7950X
die kwam ik ook tegen maar zonder enige informatie wordt die benchmark nu in die zelfde post als false gezien. Er is te weinig informatie over de gebruikte settings en instellingen. Ook zou de game volgens sommige gebruikers niet op de 5000 series kaart draaien maar op igpu.
Borderlands 2 heeft wel meer problemen. Zo heeft de texture update de game ook zowat gesloopt want het spel kan niet overweg met meer dan 4GB VRAM dus heel leuk als je bv met je 5090 speelt dan ga je dus een random crash to desktop krijgen omdat het geheugen boven die grens uitkomt en dus niks meer kan lezen.

Ook bij sommige plekken dat je gewoon door de wereld heen zakt bij bepaalde missies. En ja ze weten ervan maar Gearbox wil het niet patchen.
De CPU kan het overnemen maar is dan wel vaak een bottleneck. Je kan PhysX ook uit zetten.
Ik herinner mij nog de fysieke PhysX kaart van Agea, die had ik bijna aangeschaft in combinatie met mijn 6600GT voor Half Life 2.
Gek dat daar ook niets in het artikel over staat.
Ik herinner mij nog de fysieke PhysX kaart van Agea, die had ik bijna aangeschaft in combinatie met mijn 6600GT voor Half Life 2.
Half-Life 2 maakte niet gebruik van Ageia PhysX, maar van Havok. Havok draaide volledig in software, zelfs op een Pentium III/Celeron op 733 MHz met slechts 64 MB RAM (Xbox) in het spel dat daarop draaide.

Half-Life 2 kwam uit in 2004, twee jaar voordat de eerste PhysX kaart van de band rolde.

[Reactie gewijzigd door The Zep Man op 20 februari 2025 21:14]

dan herinner ik mij vast een andere game die er een toggle voor had... :+
Een bekende is Mirror's Edge. Maar er waren er meer.
Ghost Recon advanced warfighter was een van de eerste games die zo’n ageia physx kaart ondersteunde in 2006. Mss bedoel je die game?
Havok heeft overigens recent een nieuwe trailer getoond, die krijgt een come-back.

YouTube: Dynamic Destruction with Havok Physics
In die tijd was (toen het nog ATI was) bezig met een implementatie van Havoc acceleratie op ATI hardware.
Toen vond Intel het nodig om Havoc op te kopen.

De Ageia was een wat aparte oplossing met een PCI kaart voordat Nvidia het opkocht.
De Ageia was een wat aparte oplossing met een PCI kaart voordat Nvidia het opkocht.
Ik weet wat de Ageia PhysX P1-kaart was. Ik weet ook dat je later een Nvidia budgetvideokaart naast die van ATI kon draaien om toch hardwarematige PhysX-ondersteuning te krijgen. Dat was iets dat Nvidia snel in de kiem smoorde met nieuwe drivers.

[Reactie gewijzigd door The Zep Man op 21 februari 2025 17:02]

Mafia II was een van de eerste grote fames die uitgebreid PhysX gebruikte meende ik, voor onder andere haar, wapperende jassen en rook effecten. Maar ook voor explosies en de brokstukken van alles wat uit elkaar kon spatten en vliegen. Helaas ook niet genoemd in het artikel.

[Reactie gewijzigd door LogiForce op 20 februari 2025 22:19]

Dat Physx draaide binnen no-time “gewoon” erbij op kaarten van nvidia. Het was hopeloos inefficiënt omdat zo’n agea kaart “slechts” pci was. Nee nVidia kocht het ergens in 2008 geloof ik wat ervoor zorgde voor de adoptie van physx doordat het echt massaal naar games kwam. Ik vraag me af wat het was of hoe de techniek heet op het AMD platform. Veel technieken vandaag de dag hebben hun oorsprong ergens anders. Of je dat allemaal iedere keer miet toelichten weet ik niet.
Het klinkt dus alsof je wel nog een oudere nVidia kaart kan blijven gebruiken, naast je 50-serie kaart, om Physx te versnellen.
Dat kun je instellen in het nVidia configuratiescherm onder het kopje: "Configureer Surround, PhysX". Daar kies je bij PhysiX-instellingen de 'processor' die dan je oudere nVidia-kaart is ipv. je 50-serie kaart.
Ik denk niet dat iemand of iets daar nu last van heeft.
De Batman Arkham series die in het filmpje getoond worden zijn nog steeds populair.
Daar moet wel bij gezegd worden dat de games gewoon prima draaien i.c.m. een Blackwell kaart als je PhysX uit zet. Dat betekent dat bepaalde deeltjes waar de speler invloed op had niet meer in de game zitten. Denk aan vlaggen, kogelhulzen, volumetrics.

Overigens kan je ook gewoon altijd een oude videokaart in je systeem plaatsen die de 32-Bit PhysX taken overneemt. Zelfs een GT 1030 is krachtig genoeg om de PhysX taken op zich te nemen.
Slaat natuurlijk absoluut nergens op dat je met je kaart van 4000 euro een 20 jaar oude technologie moet uitschakelen omdat anders je fps tankt 8)7
Ze zetten liever AI er in voor upscaling en fictieve frames, dat verkoopt lekker in de 'specs', en is een paar cent goedkoper per kaart = winst.
Heb je wel eens een cd geprobeerd af te spelen met je telefoon? Werkt ook niet.
Waar slaat die vergelijking nu weer op? Een GPU die zichzelf in de markt zet als het neusje van de zalm waarmee je alles kan spelen met alle toeters en bellen maar dan verliest tegen 3 gens geleden als je effectief een van die bellen aanzet is gewoon een falen van Nvidia.
Mwah, je zal het wel uit moeten zetten als je deze games wilt spelen. Een 5090 + 9800x3D verliest het van een GTX980 in Borderlands 2 (met PhysX aan).
Wat ik eigenlijk nu wel mis is de rede waarom Nvidia dan die 32 bits niet meer ondersteund bij hun 5 serie videokaarten maar wel dus nog bij eerdere series. Kan mij nu niet voorstellen dat die ondersteuning voor vermindering van prestaties zorgt, zeker niet bij die 5 serie. Zal denk ik wel zijn om dan mensen te pushen om de laatste nieuwe games aan te schaffen.
Zal eerder zijn om af te komen van legacyzooi te moeten onderhouden en testen. Ook de physx driver moet telkens weer getest worden als de drivers aangepast worden, en eventueel dus aanpassingen aan gemaakt worden.
Nou dan zou je verwachten dat ze ook ermee stoppen voor de eerdere series kaarten ?
Niet perse, PhysX is als een feature van die kaarten verkocht. Om dit dan later uit te zetten is het intrekken van een verkochte feature en dat kan ze een rechtszaak opleveren.

Als NVIDIA dit specifiek aangeeft bij de RTX 5000 series, is dat dus specifiek geen feature van die series. Het betekend dus dat ze vanaf deze, en toekomstige series, alleen nog de 64-bits SDK hoeven te testen.
Het kan nog wel, maar via de processor, en dat komt de performance niet ten goede? Ga je daar in de praktijk iets van merken als je op een pc van 2025 een game van tig jaar geleden draait? Zou je nu niet genoeg brute kracht hebben om het verschil te compenseren?

Edit: dank voor alle informatieve reacties!

[Reactie gewijzigd door Lodd op 21 februari 2025 17:21]

Nee ik zag zojuist een filmpje waarin bommen gegooid werden in Borderlands 2 en de framerate dipte van 60 fps naar 14 fps.

Edit: Dit was met een 9800X3D

[Reactie gewijzigd door 542pEyes op 20 februari 2025 20:22]

Ironisch je kan met een dure 5xxx kaart in die spellen net zoveel van PhysX genieten als mensen met een AMD kaart :+.
Moderne CPUs hebben brute kracht omdat ze multicore zijn. Dat gaat alleen goed werken als de load dan verdeeld kan worden over die verschillende cores heen. Ik ga niet echt verwachten dat dit het geval is van iets wat eigenlijk door dedicated hardware gedaan zou moeten worden maar als een fallback naar de CPU gaat.
Ik ben maar een leek dus correct me if I'm wrong: veel oude spellen gebruiken maar 1 core op je CPU. De rest van je dure CPU zit te slapen.
Dus alles moet straks op die ene core.
Naast die idiote prijzen, nog een reden om geen 5000 kaart te kopen. Voor oudere games is het toch fijn dat dit wel nog werkt.
Vergeet de beschikbaarheid en de power connector niet ;).
Breek mij de bek niet open... ben redelijk zuur van deze Nvidia actie en de webshops in NL die lekker scalpen en prijzen opdrijven (ook van oude kaarten)
Ik woon in de UK en het is hier niet anders. Paar dagen geleden vroeg iemand mee of ik een adresje had voor een 4090 of 5090.

Nou nee, goedkoopste kaart die ik kon vinden is een generatie oud en £3200, van de zitten.

Problemen bij de 5000 kaarten blijven ook maar komen. Smeltende connector, Physx prestaties, beschikbaarheid, driver problemen, missende Rops.
Afhankelijk van hoe open de drivers van Nvidia zijn, verwacht ik wel dat er iemand uit de modding community het voor elkaar krijgt om PhysX toch werkend te krijgen op de 5000 series. Het is dan even een kwestie van tijd totdat iemand ermee komt.

Tot die tijd zou je dan beter af zijn met de 4000 series als je nog veel oudere titels speelt met PhysX.
Ik vraag me af of het onderhand niet tijd is dat Nvidia zijn GPU's hernoemen naar FGU's. Als in Frame Generation Units. Met MFG maak je meer fake frames dan echte frames. Nu ook nog eens dit.
Als fan van WW2 vliegtuigen, vraag ik mij af wat met de pixel vijand gaat gebeuren in dit hele AI verhaal. Ik heb alle Raw data nodig, optisch en geluid. Het stipje in de wolken, net boven de grond. Enz enz.

Op dit item kan niet meer gereageerd worden.