Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 55, views: 14.128 •

CD Projekt RED gaat de PhysX-engine van Nvidia implementeren in The Witcher 3: Wild Hunt, het spel dat in 2014 uitkomt. Tijdens een demonstratie van Nvidia op de E3 werden beelden getoond van een rennende wolf waarvan de vacht werd gerenderd door de PhysX-engine.

Nvidia PhysxVermoedelijk gaat het om de zogenoemde Apex clothing-module van de PhysX-engine, die wordt gebruikt om een natuurlijke beweging te krijgen van kleding, haar of een vacht. In de video die Nvidia toonde, is het verschil te zien tussen de vacht van de wolf zonder en met PhysX.

The Witcher 3 zal behalve voor de pc ook verschijnen voor de Xbox One en PlayStation 4. Beide consoles maken overigens gebruik van een AMD-soc met geïntegreerde gpu. De PhysX-engine van Nvidia is enkel te benutten met een videokaart van dezelfde fabrikant, waardoor mensen met een AMD-videokaart niet via officiële manieren hun gpu kunnen gebruiken voor PhysX.

Reacties (55)

Ziet er echt heel mooi uit. Maar is dit hoe het er in het spel gaat uitzien? Want ik kan me niet voorstellen dat er zoveel detail in gaat zitten. Dat kost toch veel te veel rekenkracht voor zo'n redelijk onbelangrijke feature?
the witcher series staan vrij bekend om hun grafische pracht. En is ook een behoorlijke uitdaging voor meeste pc`s ;)

Dit spel ga ik zeker halen voor de pc zodra ik een videokaart upgrade ga uitvoeren. Maar ik heb liever AMD kaarten zijn ook wat goedkoper voor me :P. Ik vind het jammer dat AMD niet met een soorgelijke Physx komt op die manier kunnen beide dan ervan genieten :D.
Er is een migratie gaande richting CPU Physics. Nu de CPU's steeds sneller worden kunnen die veelal de physics effecten ook vloeiend weergeven. PhysX is en blijft een luxefeature die niet echt noemenswaardig meer is. Die 5% van de games die er iets mee kunnen zijn mijns inziens verwaarloosbaar.
AMD heeft een soort gelijke Physix die iedere GPU bakker kan gebruiken, het is dat nVidia niet toelaat hun Physix op niet nVidia kaarten te laten draaien.

Game makers zouden gewoon technieken die niet op alle kaarten kunnen draaien moeten boycotten en niet gaan gebruiken... dat zou het PC Gaming goed doen imo
Dacht je nu echt dat ze dit gebruiken omdat ze het zo geweldig of makkelijk te programmeren vinden? Natuurlijk niet, ze krijgen weer een zak met geld van nVidia zodat nVidia mensen kan proberen te motiveren een nVidia videokaart te pakken i.p.v. een AMD videokaart.

Daarom zie je in al die PhysX games ook maar bij vlagen Łberhaupt PhysX gebruikt worden. Het gaat heel simpel. nVidia dropt een zak met geld bij een uitgever met de voorwaarden dat een game die zij uitbrengen PhysX gebruikt. Vervolgens zoeken ze iets waar ze het op toekunnen passen en klaar is kees.

De ene game heeft vlaggetjes die d.m.v. PhysX realistischer zouden moeten wapperen. Bij een andere game vliegen blaadjes rond die met PhysX berekend worden. Nog een andere game laat brokstukken zien die met PhysX realistischer eruit zouden moeten zien. Het is dus nooit echt veel wat men met PhysX doet omdat de uitgever er helemaal niet op zit te wachten en het enkel en alleen doet voor het geld. Daarnaast zou in het geval van PhysX voor meerdere dingen ervoor zorgen dat het niet meer soepel loopt omdat dit soort berekeningen bijzonder zwaar zijn.

Deze onzin kost je derhalve dan ook veel reken kracht en dat ga je in de FPS goed zien. Bij AMD is dit overigens niet anders. Zet bij Tomb Raider TressFX maar eens aan en daar gaat je performance. En dat alleen voor wat realistischer haar waar je waarschijnlijk helemaal niet op let of i.i.g. er geen erg in hebt dat het niet allemaal losse lokken/haartjes zijn.

PhysX is de performance hit in mijn ogen dus niet waard. Dat geldt wat mij betreft ook voor TressFX.

[Reactie gewijzigd door madmaxnl op 13 juni 2013 16:37]

punt is dat er gewoon een general GPU based physics suite moet komen.
en die komt er ook :

Bullet 3.0
http://bulletphysics.org/wordpress/

overigends is die fur niet perse PhysX maar DX11 tesselation,
(ofwel ene compute shader) dit doe je niet via Cuda, dat zou veel te inefficient zijn. wil niet direct zeggen dat het werkt op AMD hardware, maar de kans is vrij groot.

[Reactie gewijzigd door freaq op 13 juni 2013 17:54]

Dat is het hele probleem met PhysX, het zorgt er voor dat het i.i.g. niet kan met een AMD videokaart terwijl met alternatieve je hetzelfde effect kunt krijgen wat dan wel voor zowel AMD als nVidia kaarten gedraaid kan worden, denk hierbij aan TressFX (wat we terug zagen in Lara Croft).
Nvidia heeft maar een doel, en dat is videokaarten te verkopen. Performance is de enige rede waarom mensen upgrade tegenwoordig. Er is niks nieuws meer te krijgen op de videokaart markt zoals dx12 of dx13 het blijft dx11 voor een hele tijd. Een nieuw OS die dit soort features moeten pushen bij microsoft zal ook nog wel een hele tijd duren als het ooit nog komt.

Tegen woordig zijn consoles de focus en pc krijgt gewoon simpele ports. Nu consoles al 1080p resoluties tonen en 60 fps zal de gemiddelde pc port niet veel eisen.

Met deze conclusie kan je dus een vrij goedkope kaart kopen en op volle snelheden mee draaien. Er is geen rede meer om te upgrade. Dit wil nvidia niet, want ze willen nog steeds hun kaarten verkopen. Dus wat doen ze?

ze gaan ideeen ontwikkellen om geld te verdienen, en dat is methodes zoals physx en stressfx.

Ja je spel draaide op 60 fps op 1080p met max settings gewoon goed niet?. nope. hier heb je twee nieuwe opties, en als je deze op max zet zakt je fps direct naar 20. het is tijd om een tweede kaart in je pc te stoppen van 500+ euro om het goed te laten draaien. En zodra de volgende generatie videokaarten eraan komt, zullen we stress fx nog eventjes iets finetunen dat het in nieuwere spellen nog meer performance opeist om mensen te laten upgrade.

Daarom zijn settings zoals "high and very high" ook zo performance verschillend in spellen zoals crysis 3. visueel zit er weinig verschil tussen high en very high, echter is het gewoon een kaarten kraker waar nvidia erg blij mee is.

Physx en stressfx voegt wel degelijk toe aan realisme in mijn mening. Haar is gewoon altijd een probleem geweest en dit moet gewoon is aangepakt worden. Echter zorgt dit wel voor een enorme performance hit natuurlijk zoals iedereen dat verwacht. maar het is een vooruit gang. Hetzelfde geld voor realistisch reagerende objecten in spelletjes. Het gebeurt nog veelste weinig.

Echter ga ik er niet voor zitten upgrade en zie ik het zelf als een extra novelty mocht je nieuwe videokaart extra performance over hebben. Om er nu een tweede zo niet een derde peperdure videokaart naast te proppen nee bedankt.

Ik denk overigens niet dat nvidia geld overhandigd aan dit soort bedrijven. Ik denk eerder dat ze mensen erheen sturen om de tech in hun spel gratis mee te laten nemem. Uiteindelijk kan een spel hiermee adverteren. Uiteindelijk maakt het hun spel toch aantrekkelijker voor veel mensen.
Euuuh, gast, dat kan gewoon.

Als je een ATI/AMD kaart hebt, dan installeer je eerst de AMD drivers(nieuwste uiteraard) en daarna de nieuwste Nvidia drivers, vervolgens open je de Nividia driver en zet je daar PhysX op CPU ipv. de standaard GPU die staat ingesteld.
Dan heb je ook PhysX, maar dan draaiende vanaf je CPU.
Was ook mijn eerste gedachte. The Witcher 2 was een fantastisch spel, maar de systeemvereisten waren onredelijk hoog: Als ik het aan de native resolutie van mijn scherm (1920*1080) wou draaien met kwaliteit op low haalde ik nog hooguit 15-20 fps. Dat terwijl ik in FarCry 3 bijna alle settings op maximum kan zetten en men fps dubbel zo hoog ligt.
Als je meer verstand van game-graphics zou hebben, zou je ook direct opgevallen zijn dat de graphics van The Witcher 2 kilometers voorliggen op Far Cry 3. Far Cry 3 ziet er echter wat meer polished uit, en dan valt niet op dat alle effecten uit 2009 komen. Let maar eens goed op de lighting in FC3 en The Witcher, kijk naar de details van schaduwen. Kleine dingetjes. Dan snap je wel waar die 20fps vandaan komt.

[Reactie gewijzigd door Origin64 op 14 juni 2013 14:42]

Die eerste wolf ziet er uit zoals de hond in CoD:Ghosts ;) .
Ik denk dat je veel kan compenseren doormiddel van de wolven minder detail te geven. Je hoeft minder aandacht aan de polycount. ( kijk maar naar het filmpje, dit lijkt meer een een wolf van 10 jaar geleden dan hoe een wolf in een spel er vandaag de dag bij zou lopen. )
Hoog tijd dat physx dood gaat en er een volwaardig platform onafhankelijk alternatief komt...

het feit dat je moet kiezen tussen max graphics of een lage prijs is niet alleen slecht voor de game markt maar ook voor videokaart concurentie.

en verder leuk dat de vacht animatie er leuk uitziet maar de beweging van de wolf is ver van realistich en haperd zelfs.

[Reactie gewijzigd door computerjunky op 13 juni 2013 16:03]

Denk dat je wilt zeggen: "Hoog tijd dat OpenCL wat meer gemeengoed wordt ipv PhysX" ?
En dan meteen DirectX ook uit het raam en OpenGL 4.0 erin. Is sinds een paar maanden een complete superset.
Ik snap ook niet waarom je hier uberhaubt GPU kracht aan wilt besteden.
Bij de gemiddelde game zullen de settings zodanig worden ingesteld dat de grafische kaart het zwaar heeft om de framerate tussen de 30 en 60fps te houden, terwijl een recente quadcore uit zijn neus loopt te vreten.

Wat ga je dan doen? De GPU nog zwaarder belasten met natuurkundige berekeningen? Nee natuurlijk niet.

Goed, de GPU zal allicht wat efficiŽnter zijn voor dit soort berekeningen, maar aangezien je met een CPU van 5 jaar oud vaak nog prima mee kan komen, kan het vast geen kwaad om de CPU in te zetten voor dit soort features. Dan heb je meten een reden om je 5 jaar oude i7-920 of Phenom II X4 te upgraden, want zelfs daarmee kun je tegenwoordig nog de meeste games spelen.

[Reactie gewijzigd door Darkstone op 13 juni 2013 18:27]

Inderdaad. Ik heb hier een licht overgeclockte (~3GHZ) I7-920 en een GTX 670. Ik denk dat ik eerder die GTX 670 vervang dan mijn processor. Acht threads op 3Ghz is geen bottleneck en helemaal niet omdat Ivy Bridge bijvoorbeeld helemaal niet veel beter presteert met dezelfde clock snelheid.
Appels met peren, je vergelijkt een Physics API dat alleen werkt met een specifiek merk GPU met een algemeen GPGPU framework (waarvan de implementatie op nVidia dan ook weer niet heel sterk is geloof ik). Natuurlijk is PhysX ook te implementeren middels OpenCL, maar net zo goed met DirectCompute.

Maar wat er gemeengoed moet worden is een Physics API die gewoon goed werkt ongeacht het gebruikte platform, zodat het ook onderdeel kan worden van de gameplay ipv het toevoegen van alleen wat grafische tierlantijntjes. Maar die bestaan er op zich ook zat, dus eigenlijk is het een nonissue. De enige reden dat je dergelijke dingen zoals PhysX ziet in games is omdat het vet gesponsord wordt. Het gemeengoed worden van OpenCL zal er echt niet voor zorgen dat je dan ineens dezelfde features terug gaat zien. Sterker nog, het gebruik van de GPU voor dingen als physics terwijl die al genoeg te doen heeft is sowieso niet aan te raden.

[Reactie gewijzigd door .oisyn op 13 juni 2013 17:29]

Je verwart hier frameworks en engines. OpenCL is namelijk helemaal geen concurrent voor OpenCL: Cuda is dat wel.

OpenCL en Cuda zijn algemene frameworks om berekeningen makkelijk te offloaden naar een GPU. Cuda werkt enkel op een nVidia GPU, terwijl OpenCL op zowat alles werkt indien de fabrikant ondersteuning heeft voorzien. Het immense voordeel van OpenCL is dat het zelfs werkt wanneer je geen/geen ondersteunde GPU hebt: OpenCL-calls kunnen zowel op GPU als op CPU worden uitgevoerd.

PhysX daarentegen is een engine voor effecten gerelateerd met fysica. De fetureset wordt telkens uitgebreid: eerst ging het voornamelijk om gedrag van kleine voorwerpen (het stuiteren van een bal of vele brokstukken), dat werd vij snel uitgebreid met het gedrag van stoffen en hoe die scheuren en brekend glas, later werd ook het gedrag van rook en vloeistoffen toegevoegd, en nu werken ze blijkbaar aan vacht. Ik vermoed dat de volgende stap zal zijn in de richting van vochtige vacht en stof.

Het verschil tussen een engine zoals PhysiX en een framework zoals Cuda/OpenCL is dat ze gewoon een ander probleem oplossen, ze zijn van een ander niveau:

- OpenCL en Cuda gebruik je als je een groot aantal bewerkingen wilt doen, zoals een immens grote loop van optellingen/vermenigvuldigingen, of een matrixvermenigvuldiging (hiervoor gebruik je eigenlijk best BLAS, maar ik dwaal af). Dat soort bewerkingen kan op verschillende manieren versneld worden: door gebruik van SSE of AVX instructies (versnellen op 1 CPU-core), door multithreaden (versnellen op meerdere CPU-cores), of door de GPU in te schakelen (GPGPU). De eerste optie kun je de compiler laten doen met minieme aanpassingen aan de code. De tweede optie kun je doen door je code multithreaded te herschrijven. De derde optie is vrij moeilijk, maar Cuda maakt dit een stukje makkelijker.
Echter, welke van de drie opties het beste is, hangt af van je machine (welke instructies worden ondersteund door je CPU, hoeveel cores heb je, welke GU heb je?), de developer meot dus ofwel voor en optie kiezen die niet voor iedereen optimaal is, of zijn code drie keer schrijven en at runtime kiezen welke van de drie opties gedraaid wordt. Hier komt OpenCL van pas: OpenCL laat je toe 1 keer code te schrijven die op eender welke machine de meest efficiŽnte manier kiest om jouw parallelle bewerkingen uit te voeren.

- Bij Physix daarentegen is de developer niet echt geÔnteresseerd in welke parallelle bewerkingen er gebeuren. Het probleem van de developer is: dit 3D model moet zich gedragen volgens een set parameters (zijn gewicht, zijn snelheid, de weerstand, de cohesie van een vloeistof, ...). Om dan het exacte gedrag te berekenen (de baan van een bewegend voorwerp/de manier waarop water loopt/manier waarop stof scheurt) moeten er dan wel een enorme boel parallelle berekeningen gebeuren - en op dat punten raken OpenCL en Physix dan wel - maar het kan de dev niet echt schelen welke berekeningen dat zijn. Physix bepaalt voor de dev welke berekeningen er moeten gebeuren om het gedrag te modelleren, en die berekeningen doet PhysX met CUDA.

De enige noemenswaardige concurrent van PhysiX is dan ook de Havok engine. Deze is namelijk wel hardware-onafhankelijk, maar heeft een pak minder features: voor zo ver ik weet draait Havok voornamelijk rond collision detection.

Ik heb het zelf niet echt voor platform-afhankelijke oplossingen zoals PhysiX en Cuda, het moet gezegd worden dat PhysX momenteel gewon de beste en meest uitgebreide physix engine op de markt is.

Mijn onmogelijke wens is dus neit dat PhysX verdwijnt, maar dat PhysX wordt geport naar OpenCL ipv CUDA.
Het ziet er wel beter uit als zonder, maar het komt nog steeds behoorlijk nep over.
Misschien moeten ze het niet overal laten golven. bv op de staart zie je een berg haar bewegen, maar het slaat nergens op.
Inderdaad, het beste was geweest om de PhysX-effecten maar hťťl licht toe te passen, zonder PhysX ziet het er namelijk ook al best aardig uit en dit schiet juist door naar veel te veel beweging. Maar dan zie je het nauwelijks als er nog meer dingen gebeuren in een game... Dat zou Nvidia erg jammer vinden. :P
Awesome! Alsof ik niet al genoeg zin had om dit spel te spelen. PhysX mag van mij vaker ondersteund worden.
Grappig om te zeggen "officieel", want inmiddels is aangetoond dat het onofficieel wel kan... en in sommige gevallen zelfs beter presteert. En dat geeft gelijk de nadelen aan van factory-specific standaarden die niet open zijn (S3TC werd al vrij snel niet alleen door S3 toegepast maar door alles), zeker als uitgevers slaafs gaan meelopen met dit soort support. En tsja, dan zie je dat graphics ten koste gaan van gameplay (vandaar dat sommige games maar 4u lang zijn, daarna gaan graphics minder tellen maar goede gameplay wel).

Havoc, iets van Intel, is iets... opener... maar tsja, wel eigendom van Intel, ik zie misschien meer in "library manufacturers" die dit soort dingen drijven, OpenGL, DirectX, Sony's library, Nintendo's library, in plaats van puur "metal" fabrikanten features.

Schoenmaker blijf bij je leest, nVidia, blijf hardware maken, dat doe je goed genoeg, laat de software en features over aan OS-boeren en feature-workgroups waar je overigens zelf aan meedoet (nVidia en AMD bepalen samen met MS en andere graphics stakeholders de koers van DirectX, en de Khronos groep, hoewel te erg gedomineerd door CAD-boeren om voor gaming interessant te zijn, doet hetzelfde voor OpenGL)
Schoenmaker blijf bij je leest
Aan de andere kant heb je zo iets als verkoopargumenten.
Nvidia had PhysX wat onafhankelijk was gekocht, toen er nog niet echt een alternatief was.
En met 3DVision is Nvidia ook al jaren bezig.

Wat Nvidia maakt, werkt wel ook daadwerkelijk (op een Nvidia systeem), dus waarom moeten ze zich er niet mee bezig houden?

Wil je de fancy Nvidia features, dan moet je een Nvidia kaart kopen. Zo werkt het nu eenmaal.
Wat dus slecht is voor PC Gaming, en daarom is het jammer dat het bestaat

Als ze dit op alle systemen beschikbaar zouden maken, maar ook in elke game die dit ondersteund een logo van nVidia Physics zouden plaatsen

Dan is het mooie reclame voor nVidia en goed nieuws voor alle PC Gamers
Niet alleen voor PC-gaming, ook voor console-gaming wordt dit een probleem. De nieuwe consoles draaien op AMD chips, dus geen PhysX, terwijl ze wel het punt bereikt hebben dat dat een mogelijkheid zou kunnen zijn.
Aan de andere kant, als men dus op grote schaal op de consoles hardware-accelerated physics gaat gebruiken, dan zal dat via OpenCL moeten gaan want CUDA wordt daar niet ondersteund. Dat kan op de PC-markt ook weer een weerklank krijgen.
> Nvidia had PhysX wat onafhankelijk was gekocht

Fout. Physix begon als het PPU-project van Ageia, en werkte enkel met ene losse PPU (physix processing unit) die enkel door Ageia werd verkocht. Physix heeft helemaal geen hardware-onafhankelijke roots.

[Reactie gewijzigd door kiang op 14 juni 2013 00:15]

DirectX heeft anders hetzelfde probleem: het draait slechts op 1 platform (waardoor je als gebruiker dus net zo hard wordt gedwongen software aan te schaffen die je mogelijk verder niet gebruikt).
Doet me een beetje denken aan het "TressFX" dat ze in Tomb Raider ook gebruikten voor het haar van Lara. Dit was dan weer een AMD techniek, en gaf nog wel wat problemen rond de launch voor mensen met een Nvidia kaart. Hopelijk dat dit een stuk beter werkt en dit niet voor problemen gaat zorgen voor mensen met een AMD kaart.
Dit soort proprietary technieken is leuk, maar een beetje cru voor mensen met een kaart van het andere merk.
Helemaal mee eens, ik wouw dat bijde bedrijven eens niet zo koppig deden en eens samen werkte. De consument is genaait hier mee.
En plots begint de gtx 780 aantrekkelijk te lijken :p Ach ik koop volgend jaar de gtx 880 wel, 20nm dus badass performance met minder verbruik en hopelijk 500 euro.

Tegenover deze lijken de wolven in Skyrim echt 8-bit. Witcher 3 gaat de game worden voor mensen die houden van grafische pracht en praal! Including me, kan haast niet wachten ;)
Nice! :D

Dit is dus de reden waarom ik Hybrid PhysX gebruik. Zoals hierboven vermeld kan je dus ook gewoon een goedkopere nVidia kaart kopen en deze samen met je ATI kaart gebruiken. Je moet dan wel een driverhack toepassen maar alles is straight forward.

Enigste spel waarbij hybrid PhysX niet soepel loopt bij mij is Borderlands 2, en dat enkel in de caustic caverns. Voor de rest werken alle spellen prima en op hoge FPS! (Batman Arkam City, Metro Last Light, ...)

Voor meer info:

http://www.wikihow.com/Make-a-Hybrid-Physx-Setup

Er is ook een alternatieve manier (die ik gebruik, waarbij je de bij het spel geleverde PhysX drivers verwijderd waardoor de 'gehackte' drivers gebruikt worden) maar ik kan deze nu niet direct vinden, de wiki pagina is geblocked hier op het werk.
dat wordt dus de PS4 versie voor mij, ik ga geen nieuwe GPU kopen voor 399 euro als ik daarvoor een PS4 kan kopen die 5+ jaar mee kan.

of Nvidia moet hun prijzen verlagen naar 199 euro voor een GTX780... (zwaar weer komt eraan voor ze)

[Reactie gewijzigd door stewie op 13 juni 2013 16:14]

Hoe kan je Łberhaupt een GTX 780 vergelijken met een PS4? De twee hebben een totaal andere architectuur en dus ook een andere prijsrange.
Nope, de CPU van de PS4 is dan wel x86 maar de videokaart toch echt niet en daar word nou net mee vergeleken :+ .
Nee, maar ze worden wel beiden gebruikt voor gaming. De een voor PC gaming de ander voor console gaming. Een PC moet je toch in huis hebben. De vraag is dan; koop je een videokaart van 400 euro of een console van 400 euro. Console gaat veel langer mee, maar de spellen daarvan zijn ook duurder. Het is ook maar net hoe je wil gamen, op de bank of achter je bureau. De thuis situatie in deze is ook doorslaggevend, heb je altijd een TV ter beschikking of deel je deze met je vriendin, vrouw, kinderen of je ouders. Dit laatste geldt natuurlijk ook voor de PC, met wie moet je die allemaal delen :(

[Reactie gewijzigd door madmaxnl op 13 juni 2013 16:50]

Een console gaat helemaal niet zoveel langer mee. Ik heb mijn HD4850 nu sinds 2008, en die werkt nog prima (en dat was dan nog niet eens high-end). Nee, nieuwe games gaan niet op high, maar dat komt omdat de hoogste settings op PC-games steeds zwaarder worden vanwege de nieuwe pc-hardware die continu uitkomt. De low settings van nu zijn de high-settings van 5 jaar geleden.

Dat zie je nu ook wel als je pc-hardware met de current-gen consoles vergelijkt (die nu dus al jaren in omloop zijn): in het begin was de console minstens even mooi, maar nu zijn de beste graphics op een pc veel beter dan op een console. Of, als je de settings wat naar beneden schroeft, blijft het even mooi.

[Reactie gewijzigd door bwerg op 13 juni 2013 18:02]

en toch heb je veel games zoals tomb raider die het echt niet beter doen op die 4850 als op de PS3/xbox360 (die 4850 doet geen 720P @ 30fps met dezelfde kwaliteit)

dus.
op een schaal van waar voor je geld schoort een gtx780 gewoon extreem slecht, vooral als je ziet dat je een heel apparaat kan kopen die geregardeerd de komende 5 jaar alle games @30 fps @ 1080P kan spelen..
en sorry veel console games zullen over 4 jaar echt niet meer zo goed draaien op die gtx780..

Nvidia moet echt wel iets aan hun prijzen gaan doen.
Zolang je op een pc alles netzover terugschroeft als op een console kun je zonder problemen vele jaren teren op een midrange videokaart, je vergelijkt appels met peren.
Nee ik zie de toekomst, en nvidia gaat heel hard bankroet wezen over 5 jaar.
juist als je niet hoeft te upgraden, en juist als kaarten 400 euro blijven kosten.

the way it's meant to go drown ~ Nvidia.

[Reactie gewijzigd door stewie op 14 juni 2013 14:11]

PC gaming is gewoon 2x zo duur met 2 minder spellen, in de toekomst.
tuurlijk zal ik nog wel wat spellen op de PC spelen, maar niet de grote trippel-a titels "want daar heb ik geen geld voor met mijn PC"

vooral als ze dit soort dingen blijven toevoegen op de pc, is de PC geen interessant game platform meer.

[Reactie gewijzigd door stewie op 13 juni 2013 22:18]

Juist vanwege consoles is de levensduur van videokaarten flink opgeschroeft: er zit immers wel wat minder overhead in een console maar dat is niet dermate genoeg dat je meer dan een jaartje mee kan komen kwa graphics t.o.v de pc.
Op de pc schroef je gewoon je graphics naar hetzelfde (lage) niveau en voila: voor marginaal meer dan een console kun je net zo lang op dezelfde kwaliteit gamen EN je hebt VEEL meer functionaliteit.

Echt, ik heb een PS3 maar dat ding performed echt niet acceptabel, zelfs niet vergeleken met een 6 jaar oude pc die ik hier nog ergens heb rondzwerven (is dus meteen mn laatste console)

[Reactie gewijzigd door blouweKip op 14 juni 2013 02:23]

voor mij is de PC gewoon voorbij qua kosten, ik ben echt niet de enigste.
nvidia gaat het nog echt heel zwaar krijgen aan de desktop kant, ze moeten echt iets nieuws verzinnen..
zie dit geciteerde gedeelte: De PhysX-engine van Nvidia is enkel te benutten met een videokaart van dezelfde fabrikant, waardoor mensen met een AMD-videokaart niet via officiŽle manieren hun gpu kunnen gebruiken voor PhysX.

wat bedoelen ze met officieel of is er toch een andere mogelijkheid???
Uit het bericht van CobyBE
kan je dus ook gewoon een goedkopere nVidia kaart kopen en deze samen met je ATI kaart gebruiken. Je moet dan wel een driverhack toepassen maar alles is straight forward.
http://www.wikihow.com/Make-a-Hybrid-Physx-Setup

Het is dus mogelijk, hoewel je wel wat moet knutselen met drivers
Het is inderdaad knutselen,
maar zo kun je wel als AMD gebruiker wel genieten van de Nvidia eyecandy.

En hier een linkje voor kaarten die geforce 285.xx en hoger moeten hebben (zoals de 6xx serie)

http://www.ngohq.com/grap...d-geforce-285-solved.html
Je kan je cpu voor PhysX gebruiken maar zover ik weet is dat niet onoficiŽel...

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013