Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD brengt bètadriver uit met optimalisaties voor Project Cars en The Witcher 3

AMD heeft met enige vertraging Catalyst 15.5 bèta uitgebracht, een vernieuwde driver voor AMD-videokaarten. De driver moet afrekenen met de slechte grafische prestaties van AMD-hardware in de games The Witcher 3: Wild Hunt en Project Cars.

De nieuwe Catalyst-driver biedt met name updates aan voor de displaydriver en het Catalyst Control Center, zo meldt AMD. De driver moet volgens de fabrikant aanmerkelijk betere grafische prestaties leveren in The Witcher 3 en Project Cars. Bij The Witcher 3 zouden de prestaties met circa 10 procent stijgen als er een videokaart uit de R9- of R7-serie met één gpu wordt gebruikt. Bij Project Cars zouden de framerates met circa 17 procent toenemen.

AMD heeft ook een optimalisatie-handleiding voor The Witcher 3 uitgebracht. Ook is er een nieuw Crossfire-profiel voor The Witcher 3. Daarnaast adviseert AMD om gamers die Project Cars in een Crossfire-setup willen spelen om anti-aliasing uit te zetten om zo grafische fouten te voorkomen.

Door Dimitri Reijerman

Redacteur

29-05-2015 • 10:57

173 Linkedin Google+

Submitter: Helmet

Reacties (173)

Wijzig sortering
Ik vraag me af of bijv. pCars vanuit hun kant ook weer met optimalisaties voor de videokaarten zal komen. Een advies om AA uit te zetten in crossfire is natuurlijk niet een advies dat je graag wil geven, dus ik neem aan dat ze weinig keus hebben vanwege de manier waarop de game dat oplost.
Het vervelende is dat met dit soort praktijken je de pc markt in 2 stuken deeld waar een helft de game goed kan spelen en de andere helft niet.

Waarom zou ik dan de volle pond moeten betalen voor een game die niet soepel loopt op mijn systeem ?

Spijtig om te zeggen maar dan word het gewoon een skidrow versie.

Als dit doorgaat met studio's die een zak geld aannemen om maar voor 1 merk de game te optimaliseren dan duwen ze de andere helft gewoon de piraterij in wat al een probleem is op de PC.

Hoop dat Nvidia deze studio's goed betaald om deze verliezen in de toekomst op te vangen.
Nog geen echte fix dus maar gewoon betere prestaties door grafische instellingen te verminderen.
Als ik games op lagere settings ga draaien is het nogal logisch dat de fps beter worden maar dat is natuurlijk niet de oplossing.
Als gamer wil ik de game gewoon op max draaien...
Noobvraag tussendoor: kan je de tesselation van de Intel integrated graphics niet gebruiken ter ondersteuning van de AMD kaart voor het hele plaatje, of kost dat te veel bandwith overhead?
Nvidia heeft ook samengewerkt met beide games, amd niet, er bestaat best een kans dat nvidia gewoon betaalt heeft om amd minder te laten weten.
Nvidia heeft ook betaald maar in de vorm van programmeurs ontwikkelaars etc. Zonder Nvidia met hun innovatie en duizenden en duizenden mensen aan technische know how zou The Witcher 3 in zijn huidige vorm niet bestaan ze hebben mee ontwikkeld. AMD heeft dit niet zij zijn voornamelijk een hardware producent waar Nvidia aangeeft dat dit alleen een kleiner deel is, dat is ook waarom naast dat Nvidia sneller is het product een stukje duurder is.

Het zou gek zijn als Nvidia software broncode deelt dit is een groot deel van hun inkomsten ook al is het misschien in sommige ogen niet correct dat AMD niet eerder onder de motorkap mocht kijken, dat heeft toch te maken met de samenwerking tussen CD Projekt RED en Nvidia ik geef Nvidia geen ongelijk. CD Projekt RED zag in AMD klaarblijkelijk geen goede partner CD Projekt RED wilt een game maken met veel tesselation en medwerking dan gaan ze niet samenwerken met AMD en zijn inferieure tesselation en support.

AMD zal er altijd alleen achteraan blijven hobbelen met patches ze hebben geen research/development budget zoals Nvidia en wanneer ze iets bedenken is er geen momentum door het kleine marktaandeel waardoor ontwikkelaars het niet gebruiken en toch voor Nvidia kiezen.
sorry maar echt grote onzin!

dat hele hairworks van nvidia is gewoon een copy van wat AMD een jaar daarvoor al open source vrij had gegeven met tressFX en het doet ook nog eens NIKS beter ook nog..

er was voor nvidia GEEN ENKELE reden om hairworks te maken behalve het feit dat ze het konden misbruiken om AMD te zieken door bijvoorbeeld belachelijke hoeveelheden tesselation op haar toe te passen dat helemaal niks toevoegt visueel, hun eigen prestaties schaad, maar die van AMD nog meer.
Toendertijd met tressFX en Tombraider had de GTX 680 mindere prestaties dan de HD7870 later met een patch en driver ging het beter maar nog veel slechter dan de HD7970 AMD had betere compute daar draait tressFX op. Toen hadden Nvidia gebruikers er last van, nu gebruiken veel studio's Gameworks met tessellation en Physx en hebben AMD gebruikers het moeilijk.
Ontwikkelaars kiezen voor tessellation ipv van compute omdat je er meer mee kan en ze met tessellation een grotere markt kunnen bedienen, Nvidia zet namelijk vol in op tessellation.
Het ziet er niet goed uit voor AMD na veel geruchten dat er weer rebrands aan zitten te komen na jaren stilstand en dus weer zonder tessellation waar Nvidia al 3x snellere tessellation heeft dan de GTX 680.

[Reactie gewijzigd door Nature op 29 mei 2015 17:21]

maar tressFX was na de launch wel open gemaakt. ja het kosten nvidia even tijd om drivers te maken maar nu is er geen verschil in performance tussen AMD en nvidia met tressFX.

met hairworks KAN DAT NIET, en zal dat ook nooit kunnen.
en dus weer zonder tessellation
op een normaal tesselation niveau heeft AMD gewoon 50% meer performance als nvidia. pass bij bij settings hoger als 11x word nvidia sneller.

http://www.pcgameshardwar...t-860536/galerie/1607694/

[Reactie gewijzigd door Countess op 29 mei 2015 21:15]

In jouw grafiek wordt de HD7970 uit 2012 vergeleken met de GTX 580 uit 2011, mijn HD7850 overgeklokt tot 1180MHz was ong even snel als een
GTX 580 standaard klok, ik had 2 7850's. En ik vond het top dat mijn kaarten even snel waren als het vorige topmodel van Nvidia
Je moet de HD7000 vergelijken met de GTX 600 anders zegt het niets.
Nvidia bied een pallet aan mogelijkheden aan ontwikkelaars dat veel verder gaat dan alleen haar.
Hoeveel ze daarvan gebruiken en hoe is aan de ontwikkelaar maar ze willen het graag gebruiken dat zie je aan grote releases van de afgelopen tijd. Het is misschien jammer dat Nvidia het niet open source maakt maar ze investeren er hevig in en samen met hun drivers zien ze het als een inkomstenbron en iets waardoor je voor Nvidia kiest wat ik niet verwonderlijk vind
Ook ''een normaal tesselation niveau'' is tot wanneer AMD het aankan,
moeten ze rekening houden met AMD? De ontwikkelaars kunnen ook wel de tessellation enigszins aanpassen me dunkt.

ps: het is tessellation niet tesselation ik maakte de fout ook altijd, tesselatie kan wel.
en hoe is aan de ontwikkelaar
maar dat is het dus NIET! dat is van hoger hand opgelegd door marketing die van nvidia een grote zak geld hebben gekregen en vervolgens tegen de developers zetten hier dit moet je gebruiken.
een normaal tesselation niveau''
er is geen game uit waar het verschil tussen 16x en 64x te zien is maar toch kiest nvidia om overal 64x op te gooien. zelfs met 8x is er niet of nauwelijks verschil. dit heeft niks te maken met rekening houden met dit is gewoon moedwillige en sabotage, ook voor hun eigen klanten.

[Reactie gewijzigd door Countess op 30 mei 2015 11:31]

Nou AMD lijkt ook wel default op die 64x aan te sturen. Niet een echt nieuwe bron, die doelt op Catalyst drivers bij 6xxx en 7xxx kaarten. Kijken we naar de voorbeeldjes in deze bron (draai zelf in mijn gamesessies niet zou aan die knoppen, zou ik meer moeten doen, maar zit liever te gamen) is bar weinig verschil te zien tussen 8x en 64x. De schrijver meent wel een verschil te zien tussen 8x en 16x, maar dat zie ik ook niet.

Misschien zijn muren, met alleen bump mappings, niet een goed voorbeeld om het nut van tessellation aan te tonen, omdat dit vrij regelmatige patronen zijn. Simulatie van water lijkt me bijvoorbeeld kritischer. Deze bron lijkt dat te bevestigen, maar dan alleen in het verlengde van een gewoon statisch heuvellandschap. Water introduceert de extra moeilijkheid van dynamiek, en niet statische normals ten opzichte van oppervlakken. Toch zijn dynamische tessellated textures niet zo wezenlijk anders dan statische.

Hoofdstuk 3.2 van de bron illustreert iets wat voor mij altijd een bron van irritatie is geweest. Geïllustreerd wordt dat het vanuit optiek van performance aantrekkelijker is om met een hoge tessellation factor te renderen en een laag surface detail in plaats van andersom.

Wat de bron ons ook leert is dat de tessellation waarde alleen maar een bovenlimiet is die wordt gesteld. De werkelijke tessellation die in games wordt uit gevoerd gebeurt met adaptieve waarden, variërend tussen 1 en 64. De hoogte van het tessellation niveau is onder anderen afhankelijk van de afstand van van de camera ten opzichte van het getoonde object, de (on)regelmatigheid van het object, en de hoek waarmee de camera naar het object kijkt. Dat het 64x level no matter what wordt doorgevoerd is dus niet waar. Er wordt wel degelijk een optimum gezocht tussen performance en resultaat. Ook zie ik geen reden waarom nVidia zich hierin anders opstelt dan AMD. De bron ging over AMD hardware.

Tessellation is het resultaat van de ambitie van grafische kaartenbouwers om de communicatie tussen processor en graka te minimaliseren. Vanuit performance gedacht pragmatisch, wanneer je bedenkt dat processoren veel met de geometrie in de weer zijn. Nu zijn kaartenbouwers bedreven in het maken van mappingengines. Een tessellaltion engine is niet veel anders als weer een nieuwe variatie op een mapping engine. De enige vraag die ik me wel vaker gesteld heb is waarom kaartenbouwers niet meer energie in het berekenen van geometrie zelf stoppen, zodat dit in de grafische kaart kan worden geïnternaliseerd. De eerste generaties professionele CAD kaarten, zoals de 3dlabs Glint had wel degelijk een eigen geometry engine gehad. Mischien gooi ik nu dingen door elkaar en gaat dit over iets anders als de geometrie berekeningen van de CPU. Als je er over nadenkt is het logisch dat tessellation natuurlijk de meest optimale keuze voor een kaartontwerp die is geoptimaliseerd voor het processen van surface mappings, in plaats van voor geometrie berekeningen. Een dit geldt nog steeds voor zowel nVidia als voor AMD. Toch wel opmerkelijk, als je als grafische kaart ontwikkelaars de rol van de CPU wil uithollen, dan is toch het meest logisch het processorkunstje zelf over te nemen. Waarom dat niet wordt gedaan begrijp ik niet.

[Reactie gewijzigd door teacup op 30 mei 2015 19:15]

Toch wel opmerkelijk, als je als grafische kaart ontwikkelaars de rol van de CPU wil uithollen, dan is toch het meest logisch het processorkunstje zelf over te nemen. Waarom dat niet wordt gedaan begrijp ik niet.
Dat wordt al gedaan sinds de GeForce256, met hardware T&L.
En sinds de GeForce3 zijn ze ook programmeerbaar, vertex shaders dus.
Die doen vrijwel alle berekeningen qua transformaties en belichting.
Tessellation ligt in het verlengde daarvan, zoals je zelf al aangeeft maakt dat dingen efficienter, omdat geometrie compacter opgeslagen kan worden, en bepaalde animatie op een lager detailniveau berekend kan worden.
Nvidia heeft ook betaald maar in de vorm van programmeurs ontwikkelaars etc.
Betere hardware, dat moeten ze maken! Politieke spelletjes helpen alleen op korte termijn, terwijl op langere termijn een splitsing ontstaat tussen AMD en Nvidia games. En laat het open karakter van pc gaming nou net zijn wat het uberhaupt een aantrekkelijk platform maakt..
AMD heeft gewoon prima kaarten hoor die zich in theorie qua specs prima kunnen meten met die van Nvidia. AMD heeft alleen geen krachtpatser als de Titan X, maar dat is dan ook geen doorsnee consumentenkaart en AMD is wat meer gericht op meer bang for buck.

Voor praktisch alles wat Nvidia gebruikt zoals Hairworks, PhysX en Gameworks bestaat een open (!!!) tegenhanger die ontwikkeld is door AMD. Open voor iedereen in plaats van gesloten.
Ook niet zo raar met een Nvidia game ;) De game word er op gemaakt.
omdat ze contractueel hebben bedongen dat AMD NIET betrokken mag worden bij de ontwikkeling van de game en dus niet vroegtijdig al kan optimalizeren of commentaar mag leveren op de broncode om die aan te passen om zo sneller te werken op hun hardware.

nvidia kan dat allemaal wel, en dat zou nog tot daar aan toe zijn, maar ze misbruiken dat om EXPRESS de performance van AMD negatief te beïnvloeden met dingen die visueel niks toevoegen, nvidia zelf ook prestaties kost, maar AMD nog veel meer. dingen als op een vlakke betonnen muur 64x tesselation toepassen, of een oceaan onder een stad die niemand ooit kon zien helemaal kapot tesseleren. of de teslatie op de cape van batman zo hoog zetten dat de individuele polygonen kleiner waren als 1 pixel op het scherm.

het voegt allemaal helemaal NIKS toe, kost ook nvidia's eigen klanten performance, maar kost AMD nog meer performance en daarom doet nvidia het.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True