Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

AMD heeft aangekondigd dat het nog deze week een nieuwe Catalyst-driver zal uitbrengen waarin optimalisaties voor de racegame Project Cars zijn opgenomen. Nvidia-gpu's presteren momenteel aanzienlijk beter met het racespel.

Roy Taylor, topman van AMD, heeft via Twitter laten weten dat de hardwarefabrikant op korte termijn een nieuwe Catalyst-driver zal uitbrengen waarmee de game Project Cars beter moet presteren. Uit tal van benchmarks is gebleken dat de racegame tot nu toe minder soepel draait op Radeon-gpu's. De aangekondigde driver-update moet daar verandering in brengen.

Volgens geruchten hebben de ontwikkelaars van Project Cars het spel geoptimaliseerd voor Nvidia-hardware. Slightly Mad Studios stelt echter dat Nvidia veel nauwer betrokken was bij de ontwikkeling van de game, zoals bij updates van alfa- en bètaversies.

Project Cars

Moderatie-faq Wijzig weergave

Reacties (85)

Oh, dus het is toch niet zo dat Project Cars specifiek AMD hardware detecteert en het spel dan vervolgens expres slechter draait? (zoals AMD vorige week nog probeerde te beweren) Wat een verassing! :+
Project Cars ontwikkelde wel met Nvidia Gameworks, iets wat verbied om de Code aan AMD te laten zien zodat AMD voor release code kan schrijven. (en zelfs na release kunnen ze niet zien wat de exacte berekeningen zijn, dus valt er niet/nauwelijks te optimaliseren). Aangezien Nvidia al bewezen heeft (toen ze PhysX opkochten, en via code in de driver voorkwam dat PhysX werkte met AMD gpus) dat ze zeker via code AMD kaarten weren, zou het mij niets verbazen dat ze best case scenario de code van gameworks zo schrijven dat ze niets om AMD geven, worse case scenario: Dat ze de code zo schrijven dat het rampzalig op AMD werkt.
Iets dat mij zeer ergert aan nvidea en waarom ik ook mijn 290 zal upgraden naar een 390. Mantle en freesync zijn tenminste open technologieën.
Precies, wou het zelf net ook al zeggen. Ik heb zelf ook een 290 en blijf lekker bij AMD. De manier waarop Nvidia te werk gaat, stoor ik mij behoorlijk aan. AMD draait ook al niet super met cpu's want daar hebben ze Intel die ook erg 'eerlijk' te werk gaat. Dat mijn 290 wat meer stroom vreet maakt mij niks uit, want tenminste geef ik mijn geld aan iemand die er voor alle gamers probeert te zijn en niet op deze manier ervoor zorgt dat ik niet eens optimaal kan genieten van bepaalde games. Terwijl ik net als Nvidia gebruikers hier eerlijk mijn geld aan uitgeef, de developers support en gewoon de hardware ervoor heb

[Reactie gewijzigd door ToxicCharged op 18 mei 2015 18:57]

Ik heb ook een volledig AMD systeem, Phenom II X4 940 en sinds 2 weken een Dual HD7790 (daarvoor single) maar ik zit er bij een volgend systeem toch een beetje aan te denken om over te stappen naar Intel+Nvidia.
In veel game benchmarks zie je die toch bovenaan staan en hier op Tweakers wordt ook steeds vaker een Intel+Nvidia systeem gekozen als het beste systeem...

Ik vind alleen de kosten wel een enorm nadeel, voor een redelijke Intel proc ben ik alleen al ¤183,- kwijt, bij AMD heb ik voor de helft van dat bedrag al een 4Ghz quadcore.
Bij AMD heb ik dan ook redelijk top of the range, bij Intel een instap modelletje...

En met Nvidia, ook die lijken het in benchmarks toch beter te doen.
Ik heb nu sinds 2 weken dus crossfire maar echt heel veel verschil merk ik nog niet (vnml met GTA5 getest), wel iets hogere framerates en ik heb nu 2GB geheugen ipv 1GB maar ook daarbij zegt de game niet "hey, ik heb nu 2 GPU's en een verdubbeling van geheugen, ik geeft je betere suggesties voor die kracht"

Met games lijkt het erop dat die meer voor Nvidia geoptimaliseerd worden dan voor AMD en Mantle schijnt ook inmiddels al half-dood te zijn (DX12 werkt redelijk hetzelfde en AMD en Nvidia kaarten zouden dan ook met elkaar samen moeten kunnen werken)
Nvidia heeft als "geheime" troef ook PhysX, kan ook door de CPU gedaan worden maar dat gaat gewoon trager, daarmee winnen ze ook een hoop prestatie.

Ik heb sinds de Pentium 3 altijd AMD gehad, ook met videokaarten maar begin nu toch te twijfelen of ik daarbij zal blijven.

[Reactie gewijzigd door SiGNe op 20 mei 2015 03:00]

Ja precies ik snap jouw kijk erop. Als gamer wil je toch wel de beste onderdelen mits je het de kosten waard vind.
Ik had eerst ook een Phenom, een X4 965 om precies te zijn maar deze werd gewoon te heet, vooral in de zomer. Deze heb ik toen vervangen door een i5 4590, niet omdat ik dol ben op Intel maar vanwege het feit dat ik dan een moederbord heb dat minder snel vervangen moet worden met M2 en andere extra's. Dure grap in vergelijking met AMD zoals jij al zei maarja..
Wel jammer dat die twee kaarten in crossfire niet zo superveel profijt opleveren zeg.
Helaas wordt dat geheugen niet verdubbeld nee, toen ik het systeem nog niet zo goed kende dacht ik altijd dat dat wel het geval was. Die teleurstelling dan :( haha

Nvidia en Intel zijn inderdaad duidelijk in 9/10 gevallen de winnaars op het gebied van gamen. Nvidia is ook gewoon veel dichter bij de ontwikkeling van AAA titels en weet daar iedere keer profijt uit te halen, de developers zouden zelf vind ik ook wel eens na mogen denken over wat ze kiezen. Misschien is een goed draaiende game op alle systemen belangrijker dat een zak geld aan te nemen (uhum Ubisoft).

Ik ga nu inderdaad ook wel eens twijfelen van zou ik over moeten gaan naar Nvidia. Aan de ene kant voor de performance wel maar op die manier support ik een monopolie van Nvidia en dat is iets wat in mijn opinie niet goed zou zijn. Mantle is inderdaad ook niet zo'n succes meer maar op het gebied van DX12 en NextGL heeft het aardig goed uitgepakt en dat is weer waar AMD er is om innovatie voor iedereen mogelijk te maken. Ik hoop dat DX12 ervoor zorgt dat beide soorten kaarten beter samen kunnen werken zoals jij zegt! Gewoon een markt met eerlijke concurrentie zou fijn zijn.

Wel leuk om te lezen dat je een trouwe AMD gebruiker bent :P. Ik ben zelf vanaf de Pentium 4 overgegaan op AMD maar dat was meer toeval, de laatste jaren is de manier van deze 'eerlijke' marketing mij opgevallen. Nu zit er nog half haha
Maar Freesync heeft Nvidia ook, noemen het alleen G-sync.
En je hebt er een behoorlijk prijzige monitor voor nodig.

En Mantle is ook al op sterven na dood, DX12 krijgt een soortgelijke techniek.
Je kan dan in de toekomst ook Nvidia en AMD GPU's met elkaar combineren.
Dus is het geen freesync...
Het heeft hetzelfde doel, maar niet de openheid die freesync heeft.
Nee, maar de makers van drivers voor videokaarten doen vaak spel-specifieke optimalisaties. Lees dit relaas maar eens: Nearly every game ships broken.

Kort gezegd: Vanwege een complexe API en diverse hardware en verkeerd geschreven shaders. Soms doen fabrikanten ook een shader uit een game vervangen om betere performance voor dat spel te realiseren.

Relevante quote:
The first lesson is: Nearly every game ships broken. We're talking major AAA titles from vendors who are everyday names in the industry. In some cases, we're talking about blatant violations of API rules - one D3D9 game never even called BeginFrame/EndFrame. Some are mistakes or oversights - one shipped bad shaders that heavily impacted performance on NV drivers. These things were day to day occurrences that went into a bug tracker. Then somebody would go in, find out what the game screwed up, and patch the driver to deal with it. There are lots of optional patches already in the driver that are simply toggled on or off as per-game settings, and then hacks that are more specific to games - up to and including total replacement of the shipping shaders with custom versions by the driver team. Ever wondered why nearly every major game release is accompanied by a matching driver release from AMD and/or NVIDIA? There you go.

[Reactie gewijzigd door Sebazzz op 18 mei 2015 13:07]

Je zou het haast denken alleen zijn het vaak de game ontwikkelaars zelf die te weinig aan de optimalisatie doen. Vaak zijn het de fabrikanten van de drivers die de problemen van de game ontwikkelaars moeten fixen om het allemaal maar vloeiend te krijgen.

Stukje leesvoer hierover: http://www.gamedev.net/topic/666419-what-are-your-opinions-on-dx12vulkanmantle/#entry5215019
FF kort door de bocht Game ontwikkelaars maken dus games en verwachten dan dat de gpu ontwikkelaars de juiste lijntjes code schrijven zodat de game op hun chips loopt?
Ik vraag dit als leek zijnde :P
Want ik hoorde al van mensen die op sommige nieuwe games met hun gloed nieuwe kaart full settings een high frame rate halen en in andere games totaal niet.
Er is een standaard opgesteld om juist met alle soorten hardware te praten. Sommige stukjes code werken wel maar zijn dan niet volgens de 'best practices' of documentatie gedaan. De GPU kan er dus wel mee omgaan maar het werkt natuurlijk niet optimaal zoals het bedoeld is.
Hm dus al die losse componenten heeft toch zijn drawbacks.
Denk dat je eerder kunt zeggen dat het gebruik van de API's zo zijn drawbacks heeft. De hardware draait wel, hoe dan ook, de vraag is alleen hoe. Vooropgesteld: er is niets mis met de hardware, er is niets mis met (bijvoorbeeld) de DirectX API. Het probleem ontstaat wanneer developers hun eigen draai eraan willen geven of zgn slimme trucjes willen uithalen cq tijd willen besparen.
Wel raar je zou dan toch verwachten dat ze gpu producenten eerder bij het process zouden bterekken en niet achteraf pas.
Dat doen ze dus ook, bijvoorbeeld via Gameworks of de AMD variant ervan.
gelukkig maar ik dacht ff dat ze ruzie hadden ;)
Dit is misschien lichtelijk overdreven, maar feit is wel dat Nvidia GameWorks en PhysX bepaalde taken van de CPU naar Nvidia GPUs overhevelen - dit betekent dus wel degelijk dat Nvidia hier een groot voordeel heeft en AMD kan hier vrij weinig aan optimalizeren.
Nee, Shader Cache is het enige dat geoffload wordt en software PhysX zie je vrijwel nooit, en als het er al is, is het een vlaggetje ofzo. Een paar procent winst, meer niet. ALS Physx op de GPU draait, draait het vaak ook alleen maar op de GPU. Denk aan Borderlands. De andere (cpu-based) PhysX is vrij standaard en draait dan ook alleen maar op CPU dus varieert niet in performance tussen Nvidia en AMD.

[Reactie gewijzigd door Vayra op 18 mei 2015 14:24]

Borderlands is gelijk een mooi voorbeeld dat je kon geven.
Ran that game on both AMD and Nvidia GPU ....

AMD kaart + Nvidia Physics enables = Physics rendering on CPU.
Nvida kaart + Physics enable = Physics rendering on GPU.

Borderlands op AMD GPU werd een Lag fest op t moment dat ik Physics aan zette omdattie de CPU nog extra belastte, zonder draaide hij probleemloos.
Mn Nvidia GPU had er geen problemen mee als Physics aan stond.

rest vd rig was zelfde: Intel desktopboard DX79TO, Intel Core i7-3820, 32GB DDR3 1600Mzh.
GPUs:
- Sapphire Radeon HD 7970 6GB Vapor X Ghz edition.
- EVGA GTX 980 Classified.
Ik heb ergens gelezen dat deze game heel veel met PhysX doet. Nvidia GPU's kunnen dat, AMD GPU's niet. BIj AMD kaarten worden de complete PhysX load dan op de CPU gegooid. De hele engine is om PhysX heen gebouwd.

Edit: Volgens mij is het deze link: https://www.reddit.com/r/...t_cars_and_why_we_should/

[Reactie gewijzigd door Topjuh op 18 mei 2015 12:56]

Er is op Reddit ook al aangetoond dat het niet uit maakt of men Physx op de CPU of GPU laat draaien, linkje: http://www.reddit.com/r/p...s_about_gameworks/crcq4j3.

NVIDIA heeft ook al aangegeven dat Pcars de Physx berekeningen niet door de GPU laat doen. Linkje: https://www.reddit.com/r/...and_why_we_should/crc3ro1
Nochtans zijn er andere users op het steam forum die toch wel een zwaar performance verschil merken tussen CPU PhysX en GPU PhysX. Dit is er eentje van

Vooral bij resoluties hoger dan 1080p en bij SLI is dit een probleem bij nVidia users, indien gekoppeld met een minder sterke CPU:
Nividia Panel -> PhysX - > CPU = 25fps 40% GPU
Nividia Panel -> PhysX - > Defult = 60fps 100% GPU
in geval van SLI 980's bij een i5 at 4.8Ghz (niet specified welke editie).
Ja, de Steam comments sectie, die is lekker betrouwbaar. Drie lijnen text van iemand die iets zegt, en het is een waarheid? Weet jij verder wat zijn setup is, welke settings die verder nog heeft veranderd, of dat het uberhaupt waar is?

Kom op jongens, ff wakker worden. Niet elke twee zinnen op internet kun je als bron aanmerken.

[Reactie gewijzigd door Vayra op 18 mei 2015 14:08]

Het ligt schijnbaar aan hoe de game is opgezet of het wel of geen nut heeft om hem via de GPU te draaien, en maar weinig games zouden de GPU functionaliteit ondersteunen. Of het ook zo is, geen idee. Maar dat ik was ik bij eerdere berichten over de PhysX heb gelezen
I stand corrected. Wat ik bedoelde over de engine is dat het met Nvidia Gameworks is gemaakt. Dat is proprietary spul waar AMD niet bij kan. Dan krijg je dus optimalisatieproblemen. PhysX zit bij Gameworks in, maar is dus niet de hoofdmoot van de prestatienarigheid.
De grap is zelfs dat met de komst van PhysX 3 de boel in sommige gevallen zelfs BETER draait op de cpu dan op de gpu... (zoek maar eens op metro redux PhysX, dan zal je tegenkomen dat mensen met een flinke cpu hogere fps halen met PhysX op de cpu dan op de gpu...)
dat is vooral omdat metro vrij GPU-heavy is, waardoor de GPU het vaak zwaar heeft terwijl de CPU tijd vrij heeft, dan is het idd logisch dat de performance verbetert. als je graphics settings op low zet, geeft de CPU vs GPU physx een zwaar ander beeld
volgens sommige artikels (die er redelijk legit uitzien, aangezien ze zeer specifiek zijn) is physx zwaar nerfed op de CPU, om mensen over te halen om een nvidia GPU te halen http://semiaccurate.com/2...efully-hobbles-physx-cpu/
als dit waar is is nog over te discussieren, maar het feit blijft dat AMD kaarten ALTIJD zwaar achterlopen performance wise op games die gebruik maken van GameWorks, wat moeilijk toeval kan zijn

[Reactie gewijzigd door jeroen7s op 18 mei 2015 18:49]

Mijn punt is dat nvidia dat dus grotendeels heeft recht getrokken met de PhysX 3.x sdk...
Ik zal kijken of ik binnenkort wat benches kan laten zien tussen metro 2033 en 2033 redux.
Feit is namelijk dat metro 2033 redux een van de eerste games is die gebruik maakt van de PhysX 3.x sdk.
Hierin zal je ook zien dan het aanzetten van advanced PhysX op de cpu een veel kleinere inpact heeft dan bij metro 2033 die nog gebruik maakt van sdk 2.x. En dat allemaal op mijn AMD only systeem.
En aangezien de meeste hedendaagse physx games nog steeds op PhysX sdk 2.x gestoeld zijn (zoals de borderlands serie) draaien die uitermate ruk als de PhysX door de CPU afgehandeld moet worden.

Maar bij de nieuwe PhysX 3.x is het dus ineens veel minder van belang een nvidia kaart te hebben aangezien de performance hit een stuk kleiner is geworden.
Heb alles van AMD maar geen performance problemen met de laatste beta drivers. De graphics vallen mij echter wel wat tegen ondanks dat alles op max staat ziet het er niet echt fantastisch uit. Of houd het spel nu expres een aantal instellingen achter omdat ik op een AMD pc game?
Bull, er zit geen GameWorks in.

Lees... http://wccftech.com/sligh...t-cars-amd-graphics-cards

In order to correct the wrongful assumptions regarding Project CARS’ performance on AMD GPUs, the MADNESS engine and the degree of involvement from our third-party technical partners, Slightly Mad Studios pointed out the following facts:

• Project CARS is not a GameWorks product. We have a good working relationship with nVidia, as we do with AMD, but we have our own render technology which covers everything we need.
• NVidia are not “sponsors” of the project. The company has not received, and would not expect, financial assistance from third party hardware companies.
• The MADNESS engine runs PhysX at only 50Hz and not at 600Hz as mentioned in several articles
• The MADNESS engine uses PhysX for collision detection and dynamic objects, which is a small part of the overall physics systems
• The MADNESS engine does not use PhysX for the SETA tyre model or for the chassis constraint solver (our two most expensive physics sub-systems)
• The MADNESS engine does not use PhysX for the AI systems or for raycasting, we use a bespoke optimised solution for those
• The physics systems run completely independently of the rendering and main game threads and utilises 2 cores at 600Hz
• The physics threading does not interact with the rendering, it is a push system sending updated positional information to the render bridge at 600Hz
• Any performance difference with PhysX would not be reflected with differences in comparing rendering frame rates. There is no interaction between PhysX and the rendering
• Overall, PhysX uses less than 10% of all physics thread CPU on PC. It is a very small part of the physics system so would not make a visual difference if run on the CPU or GPU
• Direct involvement with both nVidia and AMD has been fruitful in assisting with the game performance at various stages of development. Both AMD and nVidia have had access to working builds of the game throughout development, and they have both tested builds and reported their results and offered suggestions for performance improvements.
• Testing of the game with different driver versions has produced a variety of performance results on both nVidia and AMD hardware. This is entirely to be expected as driver changes cannot always be tested on every game and every card, and this is the reason why both companies produce game-specific driver profiles, to ensure that they can get the best out of the game.
• Project CARS does not use nVidia specific particle technology – the system we use is a modified version of the same technology we used on the Need for Speed : Shift and Shift Unleashed games, and was entirely developed in-house. The reason the performance drops when there are a lot of particles on screen is simply because processing a large number of particles is very expensive.
Ik zou bijna verwachten dat men als ontwikkelaar kort op de bal moet spelen wanneer er een nieuwe game uit komt. Ongeacht of die een AAA game of een iets mindere is. Als men dan al niet bij het ontwikkelproces betrokken is dan zeker vlak na de launch. En niet nu als pleister op de wonde. Dit was toch al lang te voorspellen? En zeker niet alleen bij deze game.
Behalve dat het het makkelijkste is voor AMD om de poot stug te houden zodat alleen de maker van het spel concessies moet maken. Als die vervolgens dat 'niet doet' kan het zijn dat het spel dan minder goed loopt. Nu weet ik natuurlijk totaal niets af van hoe het allemaal is gegaan bij dit spel, maar waarschijnlijk is het meer een politiek spelletje geweest dan technische beperkingen e.d.
Waarom zou AMD de poot stug moeten houden? Ik zie hier geen voordeel in voor AMD. Dit is marketing technisch toch niet goed?
Hoewel het wel "algemeen" bekend is dat AMD met drivers vaker de mist in gaat dan nvidia.
(Dit is mijn gevoel hier althans in)
Waarom zou AMD de poot stug moeten houden? Ik zie hier geen voordeel in voor AMD. Dit is marketing technisch toch niet goed?
Hoewel het wel "algemeen" bekend is dat AMD met drivers vaker de mist in gaat dan nvidia.
(Dit is mijn gevoel hier althans in)
Mijn ervaring is juist andersom, nVidia maakt in mijn ogen brakke drivers terwijl die van AMD in de regel een stuk beter lijken te werken. Stukje persoonlijke perceptie denk ik.
Nvidia is inderdaad ook niet echt lekker bezig de afgelopen anderhalf jaar. Er zaten nogal wat matige driver releases tussen.

Dwz: matig als in buggy met voornamelijk nieuwe functionaliteiten zoals Shadowplay en DSR. Ook waren ze geregeld aan de late kant met SLI profile updates. Heb al geregeld een rollback gedaan in de afgelopen tijd. Wel is Nvidia nog steeds heer en meester met launch-day releases.
Hoe minder jij aanpast, des te beter. Als een game uitgever bepaalde zaken 'anders' kan oplossen dan hoef jij je drivers niet te verbeteren. Dat is dan even een simpele redenatie.
In elk geval kan ik mij voorstellen dat er gewoon veel politiek achter zit, en dan bepaalde zaken te makkelijk worden weerlegd bij bijvoorbeeld de drivers. "Passen jullie dit even aan voor ons, ok bedankt", terwijl het misschien beter was geweest om het anders te doen.
In elk geval merk ik zulke dingen ook bij mijn werk, waar ik veel met 3e partijen bezig ben. Uiteindelijk gaat het meestal niet om het product zelf, maar over wie iets moet gaan doen... Jammer maar meestal gaat het zo in de commerciële wereld.
AMD moest dit van tevoren geweten hebben. Zij hadden kunnen zeggen van dat SMS het maar moest oplossen, maar als het op Nvidia zonder aanpassingen wel goed werkt dan weet ik niet precies bij wie het fout gaat. Als AMD zegt dat SMS het op moet lossen en SMS heeft daar geen zin in want op Nvidia werkt het wel goed, dan kan het best zijn dat AMD de driver voor het spel gewoon niet goed op orde heeft. In ieder geval door het spel uit te brengen hebben ze eventueel AMD een zetje gegeven dat ze het wel snel moeten fixen, want gamers zeggen dat het op Nvidia wel goed werkt en AMD wil absoluut geen klanten verliezen alleen om zo'n probleem(pje).
AMD wist dit ook zeker van tevoren, maar zij konden er weinig aan doen. SMS heeft namelijk een deal gesloten met Nvidia, zoals bijna elke game-ontwikkelaar een deal sluit met óf AMD óf Nvidia. Samen met die fabrikant worden dan tijdens de ontwikkeling al optimalisaties en unieke features toegevoegd, terwijl de andere fabrikant (in dit geval AMD) alleen na de release de mogelijkheid krijgt om de drivers aan te passen (en dus geen inspraak heeft tijdens het ontwikkelen van de game).

Gelukkig vallen de problemen omtrent deze constructie bij de meeste games ietsje mee, maar je ziet helaas vaker dat een spel veel beter draait op GPU's van de één dan op die van de ander (bij kaarten met vergelijkbare rekenkracht). Game-ontwikkelaars doen dit omdat ze een zak geld ontvangen van de betreffende GPU-fabrikant, maar het gaat ten koste van de gamers met net die andere GPU. Vaak wordt het wel redelijk opgelost via game-patches en driver-updates, maar het zou eigenlijk hoog tijd zijn dat games gewoon volledig voor alle GPU's worden ontwikkeld.
Als ik hier op kantoor een matig rapport schrijf wat erg slecht is, en ik geef een of ander bedrijf de schuld voor mijn eigen onkunde: Ben ik me baan kwijt.

je bent verantwoordelijk voor je eigen producten, SMS wist dat het crap draaide op AMD en heeft gewoon uitbracht en dan met de vinger naar AMD wijzen. Heel zwak, gelukkig fixed AMD de brakke code van SMS.
Hoe fixed AMD dan de brakke code van SMS? Volgens mij komen ze met geen vinger aan de code van Project Cars maar fixen ze hun eigen code.

Ik vind je vergelijking ook niet echt ergens op slaan. Een rapport is wat anders dan software wat moet draaien op verschillende hardware, en ja als de hardware van de ene leverancier wel goed werkt en van de andere niet dan rest mij toch de vraag of dat niet aan de leverancier ligt. En blijkbaar kunnen ze het oplossen door aan hun kant aanpassingen te maken. Iets wat niet vreemd is aangezien beide fabrikanten optimalisaties in hun drivers stoppen voor bepaalde spellen.
Als ik de post die Sebazzz linkt goed lees dan zou het dus zo kunnen zijn dat SMS bepaalde fouten gemaakt heeft in het bouwen van hun render engine die NV en AMD moeten opvangen door een if(project cars){ fix shit for them}else{normal api}. Nu is het zo als ik het goed begrijp dat dit haast voor elke grote game moet worden gedaan om prestaties te optimaliseren en het niet af te leggen ten opzichte van de andere GPU producent.
Klopt, dit is in grote lijnen wat er bij veel games gebeurt: De driver-bouwers van AMD en Nvidia compenseren voor slecht geoptimaliseerde game-code door eigen uitzonderingen in de driver toe te voegen.

Maar heel belangrijk hierbij: Bijna elke grote game-ontwikkelaar sluit een deal met óf Nvidia óf AMD voor samenwerking. De gekozen GPU-fabrikant denkt dan al tijdens de ontwikkeling van de game mee om betere optimalisatie te verzorgen, en legt vaak ook een zak geld op tafel zodat het logo van de hardware-fabrikant te zien is bij het opstarten van de game. De niet gekozen GPU-fabrikant moet dan na de release snel nog een driver-update schrijven om mee te kunnen komen met de ander. Een soort sponsoring / exclusiviteits-constructie dus. Dit is anti-consument en totaal onwenselijk, maar het lijkt niet te stoppen. Zo nu dus ook bij Project Cars, waar gekozen is voor Nvidia.
Dit is totaal niet aan de orde met Project CARS. AMD was niet instaat de DX11 calls per thread snel genoeg te verwerken, wat een driver beperking is. Nvidia had dit beter geregeld.
Er is vanuit Slightly Mad Studios nooit een deal geweest met Nvidia zoals die hier aangehaald word. Ook word GameWorks niet gebruikt en Physx word via de CPU alleen op minimale mate gebruikt (collision detection).

AMD heeft 3 jaar terug 20 game keys gekregen zodat ze de game konden testen in-house tegen onze drivers. Ook is er veel contact geweest met AMD in verband met de console rendering, welke dus wel goed werken.

Bij Project CARS is echt alles uit de kan gehaald om de game te optimiliseren. Er is zelfs meer aandacht geweest voor AMD als Nvidia. Maar met beide partijen heb je een samenwerkings verband, omdat je hun producten wilt ondersteunen. Dit betekend dat je gezamelijk werkt naar een oplossing voor eventuele problemen.
Het probleem is echter dat voor de eerste release datum AMD stopte met de communicatie richting SMS, namelijk Oktober 2014.
Nu kwam recent dit bericht van dezelfde Roy Taylor als uit het artikel... https://twitter.com/amd_roy/status/600091042994491394
Zoals je ziet speelt AMD eigenlijks gewoon een politiek spelletje met Nvidia over de rug van Project CARS en Slightly Mad Studios. Naar mijn optiek is het walgelijk en zal dan ook zelf niets meer van AMD aanschaffen.
Overigens is Roy Taylor ook nog ex-Nvidia (2000-2010 zover ik herinner) en mede oprichter van "The Way It's Meant To Be Played" bij Nvidia. De basis opzet voor wat nu GameWorks is eigenlijk. Wat dat betreft weet ik niet wat ik van Roy Taylor moet denken.

Maar goed, denk wat je wil denken. Vanuit mijn optiek word er gewoon een vies politiek spel gespeeld hier, met Slightly Mad Studios, Project CARS en diens spelers als de schaakstukken.
Maar heb je de Reddit-post ook gelezen waar Roy Taylor naar verwijst? Daar wordt er nogal getwijfeld of het probleem nu vooral bij AMD ligt (slechte drivers), of bij SMS (dat zij Nvidia sterk hebben bevoordeeld tijdens het ontwikkelen), of bij Nvidia (GameWorks is bedacht om spellen minder goed speelbaar te maken op GPU's van concurrenten).

En als er geen deal is met Nvidia, waarom staat het Nvidia-logo dan op de website van Project Cars? Nogal tegenstrijdig allemaal.

Het zou inderdaad kunnen dat AMD steken heeft laten vallen bij het ondersteunen van deze game, of dat hun drivers inderdaad te wensen over laten in dit geval. Ik zou daar wel graag een bron van zien.

Hoe dan ook maak je AMD nu volgens mij veel te veel tot het zwarte schaap. Nvidia houdt er, voor zover ik weet, over het algemeen slechtere praktijken op na dan AMD. Nvidia's eigen technieken zijn namelijk closed source en worden niet gedeeld, terwijl AMD's technieken wel vrij gedeeld worden. AMD kwam met een techniek om haar en vacht mooier te renderen, en deelde dat vrij snel daarna met Nvidia. Nvidia kwam later met HairWorks, en deelde dat niet. Er is ook veel kritiek op met name GameWorks, wat wordt omschreven als een zwarte doos waar niemand in mag kijken behalve Nvidia zelf (het zijn DLL's, dus ook de game-ontwikkelaars kunnen de code niet zien of wijzigen). Velen vrezen dat we uiteindelijk PC-games gaan zien die exclusief werken op Nvidia-hardware. Zij zijn de rijkste van de twee GPU-bouwers, en ik krijg sterk de indruk dat ze hun positie regelmatig misbruiken. AMD doet dat ook, maar in mindere mate en meer als reactie op Nvidia. Dat is mijn beeld althans. Als ik een GPU-bouwer zou boycotten, dan was het stukken eerder Nvidia in elk geval.

In deze video wordt bijvoorbeeld mooi uitgelegd wat Nvidia allemaal doet om concurrentie te belemmeren. Het schijnt dat ze game-ontwikkelaars zelfs verbieden om games te optimaliseren voor AMD-hardware. Dat zou ook bij Project Cars aan de hand kunnen zijn.

Hoe het nu precies zit met Project Cars, zal volgens mij nog moeten blijken want ik lees nog nergens een goed onderbouwde consensus met feiten.

[Reactie gewijzigd door geert1 op 18 mei 2015 22:31]

Ik heb het uit de mond van de SMS 'Render Coder' zelf hoe het zit. Welke overigens 13 jaar voor EA gewerkt heeft en daarvoor bij Bullfrog. Martin Griffiths in dit geval, welke een van de beste is binnen z'n vakgebied.
Hij heeft alles gedaan wat hij kon om AMD te optimaliseren binnen de beperkingen van de drivers/hardware. Echter als er niet snel genoeg DX11 calls per thread word afgewerkt krijg je vanzelf een bottleneck. Hetzelfde aantal calls krijgt ook Nvidia voor z'n kiezen en die kunnen het wel verwerken.

Naja, we zullen zien wat de nieuwe driver brengt morgen. Maar ik weet dat Martin zelfs meermaals in de weekenden heeft overgewerkt om maar AMD te optimaliseren. Soms zelfs in eigen tijd omdat het z'n eer te na kwam om het niet beter te kunnen krijgen. Hij wou z'n naam niet te grabbel gooien.

Het feit is echter heden ten dage dat als jij het hardst schreeuwt op het internet, op plaatsen als Reddit, je jouw gelijk kan halen op basis van incorrecte informatie die je dan presenteert als feiten.
Het is dan ook in mijn ogen echt een tijdperk van de trollen en 'armchair warriors'. Het typen mensen met niets beters te doen dan hun gelijk halen ongeacht de feiten en daarop hun zin doordrijven.

Naja, zoals we de spreekwoorden rijk zijn. "Al is de leugen nog zo snel, de waarheid achterhaald hem wel". Dus we zullen wel zien met die nieuwe driver.
Wat ik me altijd afvraag in dit soort gevallen: wordt er niet geprogrammeerd tegen de DirectX API? Of maakt men gebruik van lower-level APIs die direct gelinkt zijn aan de driver zelf?

Normaal gezien is de driver toch het stukje tussen DirectX en de hardware, niet tussen de software en DirectX?
Je hebt wel gelijk, maar sinds het shader tijdperk is ingegaan vele jaren geleden is er geen echte standaard meer; shaders zijn letterlijk kleine programmas die uitgevoerd worden op de GPU, het enige wat de API vastlegt is waar en wanneer je welke instructies je kunt gebruiken.

Wat je zegt was grotendeels waar toen de fixed function pipeline nog gebruikt werd; tot op zekere hoogte want in die tijd gooide bugs in de videodrivers wel degelijk roet in het eten waardoor games alsnog hardware-specifieke workarounds moesten krijgen. Tegen de tijd dat dit probleem eindelijk begon te stabiliseren en de drivers "goed" waren, kwamen de shaders en begon het gedonder weer opnieuw.
Dat is geheel correct. Maar de drivers voeren naar aanleiding van de calls. De optimalisatie hiervan hangt dus van de drivers af. DirectX is alleen een api dat een instructie van de game doorstuurd naar de driver en deze instructie is vooraf dus in de DirectX versie vastgelegd. De afhandeling hiervan en interpretatie is driver afhankelijk.
Tweakers,
Misschien netjes om ook het commentaar van "Slightly Mad studios" te publiceren? Beetje goedkoop scoren dit.
Zij leggen de schuld volledig bij AMD.

For those who have AMD GPUs
We've provided AMD with 20 keys for game testing as they work on the driver side.

What can I say but he should take better stock of what's happening in his company. We're reaching out to AMD with all of our efforts. We've provided them 20 keys as I say. They were invited to work with us for years

Looking through company mails the last I can see they (AMD) talked to us was October of last year.

Categorically, Nvidia have not paid us a penny. They have though been very forthcoming with support and co-marketing work at their instigation.

We've had emails back and forth with them yesterday also. I reiterate that this is mainly a driver issue but we'll obviously do anything we can from our side.
Maar op reddit staan wel overal screenshots van Nvidia banners in de game. Ben ik de enige die geen idee heeft wat te geloven?
Lijkt mij ook maar op de schuld afschuiven op AMD. Ik vermoed dat de werkelijkheid iets genuanceerder zal zijn.

Categorically, Nvidia have not paid us a penny. They have though been very forthcoming with support and co-marketing work at their instigation.

De manier waarop hij verwoord kan je interpreteren als Nvidia heeft niet betaald om het Nvidia only te maken maar ze waren wel sterk betrokken. Dat er voor de marketing niet betaald is zegt hij niet, hij laat het open. Slimme manier van verwoording dus.

Overigens ben ik helemaal niet blij met AMD op dit moment. Dat de focus niet meer zo op het high end ligt (algemeen AMD spreek ik dan) lijkt zich te vertalen in we doen niet veel moeite meer in het high end segment. De laatste niet beta release is 14.12 van 12/9/2014 wat ondertussen maar liefst 8 maanden geleden is. 13/04/2015 is er een beta release van versie 15.3 geweest voor GTA5. AMD verplicht mij dus om met een beta driver te werken echter ik wil helemaal niet met beta drivers werken. Het eerste wat ik hoor over een nieuwe, waarschijnlijk terug beta release, is het artikel hier.

Samengevat kan ik best wel geloven dat AMD niet zo actief bezig is met toekomstige games en zijn positie in dat segment, waar Nvidia volop in de aanval gaat. Maar de volledige schuld dan maar afschuiven op AMD is mij toch een brug te ver. Je hebt geen intensieve support nodig van de GPU fabrikant, daarvoor hebben we Direct X.
Maar is tegenwordig de hardware leverancier verantwoordelijk van de optimalisatie van een spel dat is gemaakt door een spel ontwikkelaar?
Het hoort toch zo te zijn dat de spel ontwikkelaar verantwoordelijk is voor een correcte werking van het spel en de optimalisatie en niet de GPU bouwer?

[Reactie gewijzigd door ReTechNL op 18 mei 2015 12:49]

Je weet als ontwikkelaar toch niet 100% de architectuur van deze GPU's? DIt is echt iets wat alleen de fabriekanten zelf weten en hier schrijven ze de drivers voor. Deze drivers bevatten veelal een heel hoop optimalisaties per game. Deze optimalisaties zijn vaak gebasseerd op de beta versies voordat de game uit is om tijdig een nieuwe driver te presenteren. Grote kans dat AMD dit dus niet aandachtig gedaan heeft.
Je hebt als game ontwikkelaar hopelijk inzage tot de documentatie van de GPU's, en als je deze dan niet volgt mag de GPU fabrikant dat gaan opvangen in zijn drivers? Dit lijkt me niet helemaal eerlijk, maar aangezien het schijnbaar bij een hele hoop games voorkomt gaan we er maar vanuit dat het normaal is.
Een hoop is gewoon gesloten. Als ontwikkelaars deze informatie hebben, kan AMD deze ook bemachtigen en weten ze precies hoe de chips van de concurrent te werk gaan.
De achterliggende architectuur is inderdaad gesloten, maar ik mag hopen dat er genoeg documentatie en api's beschikbaar zijn om het te vertalen naar de game-ontwikkelaar.

Maar het valt me wel op dat ontwikkelaars vaak voor 1 van de 2 (AMD/Nvidia) optimaliseren en daarna de 2e fabrikant het maar op laten lossen in de drivers. Waarom kunnen ontwikkelaars hun game niet optimaliseren voor beide fabrikanten?
Ik vind het heel raar dat dit gebeurt, Zijn ze er pas sinds een week achter dat het spel voor geen meter draait op amd kaarten? Dat hebben ze niet gezien bij beta's etc? Raar verhaal.
Dit was al gedurende de volledige development cycle gekend, het is pas nu een groot verhaal omdat de game nu gelaunched is en er zo veel meer mensen naar buiten komen met hun klachten hierover.
Performance op AMD is echt brak. Ik haal met moeite 60fps en tijdens een race start zak ik naar 45 fps. De grafische settings op max met een FX 8370E @ 5400Mhz en R9 290x crossfire setup. De cores lopen op 1200Mhz en memory op 5400 Mhz.

Ik heb ook een 3570K @ 4300Mhz en een goed overclockte GTX 970 en het spel draait stukken beter op dit systeem.

Ik begrijp wel dat er optimalisaties zijn naar verschillende hardware fabrikanten toe maar ik heb nog nergens zo een verschil gezien tussen mijn twee systemen. Ik speel momenteel een spel of 5 (PJC, GTA 5, Far Cry, ...) regelmatig en het AMD systeem presteert normaal 30% a 40% meer frames dan mijn Intel systeem
er zijn toch andere games die zwaar underperformen op AMD GPU's, (allemaal gameworks titles) zoals batman arkham origins, dying light en assassin's creed unity

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True