Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 237 reacties
Submitter: CriticalHit_NL

Fallout 4 maakt gebruik van de Gameworks-technieken van Nvidia. Dat moet ingewikkeldere en indrukwekkendere grafische effecten mogelijk maken, maar het kan er ook toe leiden dat de game slechter draait op AMD-videokaarten of dat de effecten daarop helemaal niet werken.

Ontwikkelaar en uitgever van Fallout 4, Bethesda, heeft het nieuws gedeeld met WccfTech. Hoewel de geavanceerde effecten een toevoeging zijn, eist dat wel zijn tol van de prestaties van de game. Vooral bij AMD-videokaarten is dat te merken. Ontwikkelaars kunnen namelijk een licentie voor de implementatie van Nvidia Gameworks krijgen, maar mogen de code van de functies niet delen met AMD, waardoor driver-optimalisaties op die gebieden voor AMD niet mogelijk zijn. Dat bedrijf heeft daar in het verleden ook kritiek over uitgesproken.

Een recent voorbeeld van deze praktijken is The Witcher 3, waarin Nvidia Hairworks-effecten op beide platformen werken, maar de impact op de prestaties van AMD-videokaarten groter is dan bij die van Nvidia. Batman: Arkham Knight is een instantie waarin de effecten in hun geheel niet mogelijk zijn op AMD-hardware.

Het is op dit moment niet zeker dat de Gameworks-effecten alleen werken op Nvidia-hardware en of AMD-videokaarten de effecten fatsoenlijk aankunnen. De Gameworks-effecten worden in ieder geval optioneel. De systeemeisen voor de game lijken wel op voorhand te wijzen op een discrepantie. De zwakste videokaart waarop de game volgens de systeemeisen kan draaien, is een Nvidia GTX 550Ti of een AMD Radeon HD 7870. De prestaties van deze twee kaarten komen echter niet overeen; de AMD-videokaart is nieuwer en krachtiger dan die van Nvidia.

Nvidia Gameworks-demo, mei 2014

Moderatie-faq Wijzig weergave

Reacties (237)

Ondanks dat ik zelf een Nvidia kaart hebt vind ik het erg jammer om dit soort zaken te lezen. Ik zie Hairworks eigenlijk een beetje als een bloatware feature, in The Witcher 3 ben ik er tenminste totaal niet over te spreken. De ratio tussen performance en kwaliteitsverhoging is compleet zoek - het scheelt gewoon té veel FPS bij een dermate zware game dat je deze FPS echt wel nodig gaat hebben. Bij Fallout4 zie ik dit niet echt veel anders uitpakken (zeker op een resolutie van 1440p en hoger).

Daarnaast maakt dit, zoals het artikel al vermeld, het optimaliseren voor AMD bijna onmogelijk doordat de code niet gedeeld mag worden vanwege die rottige Hairworks patenten onzin. AMD heeft het al zwaar en bij een relatief populaire game als Fallout 4 wil je als AMD toch wel hoge ogen gooien.. Nvidia heeft 'kennelijk' een leuke samenwerking met Bethesda. Dit was ook al zichtbaar bij Skyrim (ook van Bethesda) waarbij je met een Nvidia kaart fo Ambient Occlusion kon forceren waardoor de game er stukken beter uitzag dan met een AMD videokaart.

Toch erg jammer dat een gamedeveloper zich zo kan laten leiden/lijden door één videokaart producent. Zoiets verziekt toch enigszins de al lijdende desktop markt.

[Reactie gewijzigd door stin00 op 26 oktober 2015 10:26]

Over de effecten die het bestaan van Gameworks momenteel heeft, heb je volkomen gelijk. Maar wat ik wel heel erg mis in deze discussie is 'wat houdt AMD tegen om ook een dergelijk programma op te zetten'?

Nvidia is altijd bezig met het creeren van USP's. Dat is Gameworks, maar bijvoorbeeld ook zaken als Shadowplay, PhysX, Shield / streaming, een gebruiksvriendelijke interface rondom driver updates incl game settings, etc. AMD is hierin niet meer dan een volger. Het beste 'unieke' waar ze mee aan zijn gekomen de afgelopen jaren is TrueAudio waar je geen hond meer over hoort (pun intended). Verder hebben ze wat features gekopieerd die Nvidia al had. Je kunt zeggen wat je wilt, maar als je als grote concurrent producten verkoopt die in gebruik exact hetzelfde werken dan is het hebben van dit soort USP's gewoon goede business. Ik vind het gebrek bij AMD geen reden om Nvidia daarop aan te vallen, het is eerder andersom. Nvidia investeert veel meer in features die we als consument daadwerkelijk zien. AMD investeert in technieken waar ze zelf bijzonder weinig voordeel van hebben. Slim is anders.

[Reactie gewijzigd door Vayra op 26 oktober 2015 10:56]

Deze discussie is al veel vaker in het CJ's AMD Radeon Info & Nieuwsdiscussietopic geweest. Het is een beetje zonde dat je als frequente bezoeker van zowel het Nvidia als AMD topic alleen TrueAudio kan opnoemen, laat duidelijk zien dat Nvidia goed is in marketing en catchy namen.
AMD houdt zich vooral bezig met vooruitgang doormiddel van hardware. Om een kort lijstje te geven wat AMD heeft uitgebracht/ontwikkeld.

- Eyefinity (vanaf de HD5xxx generatie EINDELIJK meer dan 2 schermen op een videokaart, Nvidia heeft dat pas sinds de 6xx)
- GDDR3 *
- GDDR5 *
- HBM *
- Is/was altijd eerder in het overgaan naar een nieuwe kleinere process node
- Mantle -> Vulkan(/DX12)
- VCE via Gaming Evolved/Raptr/andere software (Shadowplay tegenhanger).
- TressFX (was er eerder dan HairWorks)
- Tesselation

Er zullen vast een aantal dingen zijn die ik ben vergeten, dit waren de eerste die mij te binnen schoten...

Het grote verschil is dat AMD een groot aantal effecten op hun site beschikbaar heeft met source code en waar het geen fancy naam heeft. Ontwikkelaars (en Nvidia) staan vrij om die code te pakken en er voor te zorgen dat het zowel op Nvidia als AMD hardware goed draait.
Nvidia maakt er een blackbox van, ze geven aan de source code van GameWorks beschikbaar is; maar dan alleen voor game ontwikkelaars en niet voor derden (in dit geval dus AMD). Het is wel bekend dat game ontwikkelaars geen fatsoenlijke DX11 code kunnen schrijven (dit ligt vooral aan de DX11 API), zowel AMD als Nvidia heeft aangegeven dat ze voor elk spel specifieke bug/performance fixes moeten schrijven in de driver. Je kan er dus niet vanuit gaan dat een game ontwikkelaar, ook al hebben ze de source code van GameWorks het fatsoenlijk voor AMD kan optimaliseren.
Dat is geen fatsoenlijke manier om dingen te doen en het is jammer dat grote game bedrijven steeds voor die zak geld blijven gaan. Ik zie liever dat Nvidia hun geld steekt in dingen die bijdragen aan eerlijke concurentie, in plaats van dat ze een echt snellere kaart maken steken ze geld in dingen die de performance van AMD kaarten belemmeren.

* Wat opvalt is dat Nvidia lekker meelift met de onwikkeling van nieuwe geheugenstandaarden zonder daar aan mee te betalen.

Edit:
Om de zaak wat luchtiger te maken :P:
http://www.nooooooooooooooo.com/

[Reactie gewijzigd door Sp3ci3s8472 op 26 oktober 2015 12:43]

DX12 was al 3 jaar in ontwikkeling voordat Mantle gepresenteerd werd, dus dat DX12 voorvloeit vanuit Mantle is echt klinkklare onzin..
DX12 is wel degelijk "Mantle based", en dat DX12 al "3 jaar in ontwikkeling was" zegt natuurlijk niks, Mantle was dat namelijk al langer, hier een linkje van Reddit naar de logs van Mantle vs DX12:

https://pbs.twimg.com/media/CBBu9COWwAAPzZB.jpg:large

nog eentje: http://www.extremetech.co...e-and-destroy-amds-mantle

[Reactie gewijzigd door zion op 27 oktober 2015 08:28]

dat ze met iets bezig waren dat ze DX12 noemde wil niet zeggen dat dat de DX12 is die ze nu gereleased hebben
tja, alsof je in 6 maanden even de complete architectuur kunt wijzigen.. think again...
AMD had al veel langer daarvoor aangekondigde met mantle bezig te zijn. daarbij zat er nog zeker anderhalf jaar tussen de annouchment van microsoft met dx12 bezig te zijn en de wekelijke release.

en zelfs voor dat AMD het over mantle had had microsoft daar al wat van mee kunnen krijgen via de consoles.
Eerlijk gezegd snap ik de hele ophef over GameWorks niet. Niets dwingt gebruikers om deze optionele features te gebruiken. In tegenstelling tot de consoles heb je als PC gamer zelf de vrijheid om te beslissen of de eyecandy/FPS trade off het voor jou waard is.

Verder kan je Nvidia moeilijk verplichten om de source code aan hun grootste concurrent te geven. En ja, in een perfecte wereld, zouden AMD en Nvidia samenwerken aan standaarden die de consument ten goeden komt.

De enige verplichting die Nvidia heeft, is die aan de shareholders. Niet aan de markt, of aan hun concurrenten.
De enige verplichting die Nvidia heeft, is die aan de shareholders. Niet aan de markt, of aan hun concurrenten.
Op de korte termijn kijkend is dit afdoende te noemen. Op langere termijn hebben kaartenbouwers als nVidia, maar ook AMD wel degelijk commitment naar hun markt. Die langere termijn, en de markt, zijn niet gediend bij dit onderscheid in functionaliteit.

De tot nu toe grote en massieve PC markt raakt zo opgedeeld in stromingen. Zodra het bij kopers gewoon wordt dat met kaart A game B beter niet gekocht kan worden, dan raken gamemakers een deel van hun doelgroep kwijt. Nu is het marktaandeel van AMD minder groot dan dat van nVidia, maar als een gedeelte van deze AMD doelgroep door deze nVidia optimalisaties voor een andere game kiezen, dan kan dat toch een gevoelig verlies in omzet betekenen.

Als deze onderlinge verwijdering van kaartenbouwers en hun respectievelijke klanten zich doorzet, dan raakt de pc markt gedifferentieerd, en kan ze haar momentum verliezen. Stukje bij beetje beweegt de PC markt dan richting console markt, met platform specifieke games, met als gevolg hiervan versnippering van ontwikkelbudgetten voor games en hardware.

Nee, deze differentiatie van functionaliteit is uiteindelijk slecht voor de pc markt als geheel. De pc markt zoals we die nu kennen is groot geworden door de overeenstemming over hard- en software interface. Hieraan wordt niet eens gemorreld, maar door de eenzijdige overeenkomsten tussen gamemakers en hardwarebouwers wordt dit pc platform buiten spel gezet.
De pc-markt zal de game-developers worst wezen. Ze verdienen meer geld door de grote zak geld van nVidia aan te nemen en GameWorks te implementeren dan door pc-games te verkopen door de piraterij. nVidia is hier de grote winnaar van doordat ze meer videokaarten kunnen verkopen, de consument en AMD de grote verliezer. Het is juist dit soort corrupte praktijken dat een halt moet toegeroepen worden.
De pc-markt zal de game-developers worst wezen
Dat is natuurlijk ook zo. Hiermee acteren ze alleen heel korte termijn gedreven. Dat op deze manier de pc markt als geheel ondergraven wordt interesseert hen niet. Als hun game maar goed scoort. En waarschijnlijk interesseert de gemiddelde developer zijn meer voor het nVidia budget dan voor de zogenaamde killerfeatures die hiermee de game worden binnengereden. Dit is eigenlijk sick. Hierboven maak ik mij alleen meer zorgen wat dit voor de pc markt op de lange termijn kan betekenen. Het is net als een krant die niet alleen op Apple hardware moet zijn te krijgen. Content aanbieders moeten hun onafhankelijkheid trachten te behouden.
We hebben al markten die versplinterd zijn qua content. Denk aan muziek en film. Daar is de versnippering ontstaan, let op, door de bedrijven en de branche zelf (herkenbaar?) want iedereen wil zijn stuk van de taart en geld vangen voor elke uiting in het openbaar. Het effect: we gaan piraten, want serie A is pas later in ons landje te zien of muziekstuk B is te duur door al die licenties.

Linksom of rechtsom komt er een verandering op gang en het is juist helemaal niet zo dat de consument daar last van heeft. De consument wordt gewoon minder consument en meer piraat. Zo ook met gaming. Dan speel je een game met wat minder features, fuck het, en misschien komt de community anders wel met een oplossing zoals dat ook gebeurt voor het multiplayer aspect van een gepirate game. Mensen zullen toch voordelen pakken voor een gelijke prijs als ze dat kunnen, en Gameworks speelt daar handig op in, niet meer en niet minder. We zijn er veel te bang voor en we bekijken het met de gekleurde bril van de verwende consument die voor een duppie op de eerste rang wil zitten.

Uiteindelijk hebben zowel Nvidia als AMD ons geld nodig om te overleven, dát is de bottom line, en wat de markt niet zelf wil of kan leveren maar wat wel praktisch mogelijk is, wordt door de community overgenomen. Dat is letterlijk waar ons tijdperk voor staat tegenwoordig, en dat is overigens ook letterlijk waar PC gaming al sinds dag één over gaat. We lossen de problemen zélf op en soms is die beweging zo dwingend dat bedrijven en zelfs overheden wel mee moeten gaan. Kijk naar de indie developers en hun successen, maar zie ook Uber, AirBNB en al die andere jonge bedrijven.

Niet zo bang zijn dus.

[Reactie gewijzigd door Vayra op 27 oktober 2015 13:21]

Misschien maak ik het te groot. Dat je stelt dat de markt er zich wegen omheen zoekt is terecht opgemerkt denk ik. Een mooi voorbeeld is inderdaad de bloeiende indy game industrie. Die is zo succesvol dat zelfs de consolemakers trachten aan te haken. Wel vermoed ik dat die poging tevergeefs zal zijn, de consolemarkt is hiervoor niet flexibel genoeg en zal altijd na-ijlen. Met uitzondering van een platform als Steam trouwens.

Eigenlijk springen die indy gamemakers uit de trein, geen molensteen budgetten, klein, schaalbaar, en vooral ook casual. Deze ontwikkeling zet op zijn beurt gameproducenten en hardwarebouwers buitenspel. Ik heb totaal geen indruk van de relatieve populariteit van indy games maar ze bieden een leuk alternatief voor de zich wat escalerende featurerace van de grote kaartenbouwers en gamemakers.

Misschien moeten wij onszelf iets minder iets afvragen in de trant van :"hmm die game is wel heel erg 2012" en moeten we onszelf meer de vraag stellen hoe speelbaar en uitgebalanceerd ze is. Die indy game kopers wijzen ons wat dat betreft de weg.

Dank je voor je reactie, een heerlijke relativering ;).
De ophef zit hem in dat moraalridders (de term moraal wordt nogal vaak gedropt door deze mensen) onder het mom van 'eerlijke concurrentie' graag willen dat GPU fabrikanten al hun R&D vondsten gratis delen ten faveure van henzelf (de moraalridders). Eerlijke concurrentie is voor hen feitelijk geen concurrentie. In zo'n ideale wereld hoeven ze geen keuze te maken tussen AMD of Nvidia.

De toevoeging van Gameworks neemt niets af van de AMD ervaring, simpelweg omdat het een Nvidia-toevoeging is, die daarbij voor kaarten die het ondersteunen optioneel is. (Zo ver ik kan zien is de performance hit het vaak niet eens waard om het aan te zetten.)
Daar gaat het mij en anderen helemaal niet om. Leuke effecten zijn tof, laat ze maar komen. Zie bijvoorbeeld TresFX, wat wat mij betreft het voorbeeld is van een goede aanpak en toevallig ook nog toegankelijk voor iedereen.

Het gaat er ons om dat de effecten achter een blackbox worden gelocked waar één fabrikant de volledige controle over heeft. Daar valt gewoon heel moeilijk voor te optimaliseren en zoals eerder aangegeven hoef je er niet vanuit te gaan dat de meeste game developers dat goed kunnen.

Natuurlijk kunnen mensen met een AMD kaart die effecten uitzetten; maar het gros van de mensen die een spel kopen verwachten gewoon dat ze die settings aan kunnen zetten én een respectabele framerate krijgen. Lukt dit niet, dan dan wordt AMD als schuldige aangewezen terwijl het buiten hun macht ligt.
Nu zullen tweakers vaak beter weten. Helaas zijn de meeste mensen gewoon (domme?) consumenten die er simpelweg van uitgaan dat iets goed draait en anders overgaan op een andere fabrikant. Laat dit toevallig Nvidia zijn....

Dat is wat we bedoelen met "eerlijke" concurentie.

Edit:
Zinsverloop verbeterd.

[Reactie gewijzigd door Sp3ci3s8472 op 26 oktober 2015 17:51]

Laten we even voorop stellen dat ik niet heel erg vrolijk wordt van vendor specifieke api's. Dat gezegd:
Deze discussie is al veel vaker in het CJ's AMD Radeon Info & Nieuwsdiscussietopic geweest. Het is een beetje zonde dat je als frequente bezoeker van zowel het Nvidia als AMD topic alleen TrueAudio kan opnoemen, laat duidelijk zien dat Nvidia goed is in marketing en catchy namen.
Ik denk dat je eens een poging moet doen om een leuke (Android) game te maken. Iedereen kan dat leren. Zodra je daar mee aan de slag gaat leer je kant en klare api's/libraries waarderen. Het is namelijk een stuk makkelijker om bijvoorbeeld TiledMaps uit AndEngine te gebruiken dan zelf het wiel uit te vinden. Unity is nog makkelijker. Het hoeft ook geen game te zijn. Stel je wil informatie uitlezen over de bitrate van een videobestand... Ga je het wiel uitvinden en je eigen library bouwen of gebruik je het kant en klare mediainfo.dll. Aangezien ik een hobbiest ben wordt het natuurlijk het laatste ;).

GameWorks is gewoon een geniale zet van Nvidia om een band met de ontwikkelaars te creëren. Het nut daarvan zagen ze natuurlijk al veel langer in (weet je nog vroeger toen 80% van de nieuwe games The Way it's meant to be played weergaf).

Dus ik snap het onstaan van gameworks en ik snap ook zeker de vraag van een ontwikkerlaar naar gameworks. Als je zelf een beetje gaat programmeren dan snap jij die waarschijnlijk ook.

AMD is verder volkomen vrij om gewoon wat snellere kaarten te leveren om zo in gameworks te concurreren en daarbuiten Nvidia te vernietigen. Mocht dat gebeuren dan is dat goed nieuws voor iedereen.
AMD houdt zich vooral bezig met vooruitgang doormiddel van hardware. Om een kort lijstje te geven wat AMD heeft uitgebracht/ontwikkeld.

- Eyefinity (vanaf de HD5xxx generatie EINDELIJK meer dan 2 schermen op een videokaart, Nvidia heeft dat pas sinds de 6xx)
- GDDR3 *
- GDDR5 *
- HBM *
- Is/was altijd eerder in het overgaan naar een nieuwe kleinere process node
- Mantle -> Vulkan(/DX12)
- VCE via Gaming Evolved/Raptr/andere software (Shadowplay tegenhanger).
- TressFX (was er eerder dan HairWorks)
- Tesselation

Er zullen vast een aantal dingen zijn die ik ben vergeten, dit waren de eerste die mij te binnen schoten...
Ik denk dat je vooral vergeet om onderscheid te maken tussen een feature en een onderdeel. Een geheugenstandaard is geen feature. Het voegt voor niemand iets toe. Al zou de nieuwe Fury gemaakt zijn op basis van een broodbakmachine, het gaat om de prestaties.
* Wat opvalt is dat Nvidia lekker meelift met de onwikkeling van nieuwe geheugenstandaarden zonder daar aan mee te betalen.
Los van gameworks; Mocht dit zo zijn dan is dat een hele stomme zet van AMD aangezien het R&D budget van AMD voor videokaarten veel beperkter is dan dat van Nvidia. Dan kunnen ze het beter omdraaien ;).

Mantle kan ik zelf ook niet waarderen, zie rants van mij in het verleden over 3dfx. Ik ben blij dat die api specifieke tijd voorbij is. Als je tegen gameworks bent dan moet je wel aardig hypocriet zijn om mantle ineens een goede ontwikkeling te vinden. Laten we aub niet weer richting een versplintering van de markt gaan nu elke pc (dankzij Intel) over DX11 beschikt.

AMD is zelf altijd de underdog in CPU land geweest en heeft er de laatste 8 jaar heel hard aan gewerkt om Radeon ook de underdog te maken waarbij het constant nodig is om deze kaarten te verdedigen in plaats van dat de performance voor zichzelf spreekt. Nee, het beste wat er kan gebeuren is dat Ati weer afsplitst en Ati weer koning premium wordt zoals voor de overname door AMD. (Wie herinnert zich nog de 9800 Pro, wat een top kaart).

[Reactie gewijzigd door sdk1985 op 26 oktober 2015 18:42]

Libraries en development kits zijn erg handig om mee te werken maar in veel gevallen loont het ook om de code zelf te schrijven.
Misschien ben ik wat ouderwets maar de meeste code schrijf ik nog steeds zelf. Het kost meer tijd maar je kan daardoor de code wel beter bij je project laten passen. Ik heb dus liever een stukje pseudocode als voorbeeld waarmee ik zelf iets kan bouwen.
Toevallig heb ik (met wat hulp van pseudocode) dus ook voor een spel 2 type "grids" geschreven, eentje hexagonal en eentje square; en omdat er geen leuke source beschikbaar was voor een generieke ini loader heb ik die ook uiteindelijk zelf geschreven.

De Unity assetstore staat vol met allemaal handige dingen, alleen moet je er vaak voor betalen en ben je afhankelijk van de persoon die het bijhoudt. Je kan er in veel gevallen ook niet vanuit gaan dat het nog wordt onderhouden na x aantal jaar of dat het in de nieuwe versie van Unity nog werkt.

Als ik dan toch code nodig heb dan pak ik nog eerder iets wat opensource is zodat ik dat zelf kan aanpassen dan een dll. Het is gewoon niet fijn om met een blackbox te moeten werken en te wachten op een fix van de maker als iets niet blijkt te werken, dat kost mij tijd.

Een dll gebruik ik eigenlijk alleen als hij goed is onderhouden, er absoluut geen source code beschikbaar is voor iets vergelijkbaars en het mij te veel tijd kost om zelf iets van vergelijkbare kwaliteit te schrijven.

Mantle waardeer ik voor het feit dat het een opschudding heeft veroorzaakt in het game developer landschap en daardoor Microsoft en de Khronos Group wakker heeft geschud. Er is ook een klein verschil tussen Mantle en GameWorks, het is een apart codepath en tast daardoor het DX11 codepath niet aan, iets wat in mijn ogen GameWorks wel doet.

Dit laat overigens niet weg dat AMD niet altijd slimme keuzes maakt. Ze lopen achter op marketing en ze lopen vaak achter op software gebied.

Ik snap de noodzaak en oorkomst van GameWorks alleen zie ik liever dat ze net zoals AMD de source code gewoon voor iedereen beschikbaar maken.
De noodzaak is volgens mij ontstaan omdat er nog weinig game studios zijn die echt nieuwe effecten/technieken onderzoeken of inbouwen (bijv. CryTech doet dit gelukkig wel). Papers met nieuwe technieken zijn er genoeg, het kost alleen veel tijd om deze goed uit te werken.

Codesamples van AMD.
http://developer.amd.com/...deon-sdk/#downloadsamples
Ik denk dat er nog een kip/ei vraag is waar over te discussiëren valt.

Je ziet dat studio's als Unreal en CryTech het niet echt lekker doen. Op zich niet vreemd op het moment dat Nvidia alle concurrenten via Gameworks semi-gelijkwaardige alternatieven aanbied. Immers als jij een CryEngine of UnrealEngine aanschaft dan heb je ook een pakket te pakken met wat makkelijk te gebruiken effecten.

De vraag is even of Nvidia tijdig de ondergang van deze studio's zag aankomen. (Dat is heel slecht voor de business want zonder betere graphics valt de vraag naar gpu's weg). Of dat door gameworks deze studio's in verval zijn geraakt...

Het schiet me nu te binnen dus ik weet het niet :P. Ik zit ook te ver af van die markt, zoals ik al zei ik ben echt een amateur programmeur. Ik doe het alleen als ik me verveel ;).
ls je tegen gameworks bent dan moet je wel aardig hypocriet zijn om mantle ineens een goede ontwikkeling te vinden. Laten we aub niet weer richting een versplintering van de markt gaan nu elke pc (dankzij Intel) over DX11 beschikt.
Amd heeft toen destijds laten weten dat nvidia vrij is om mantle te supporten. dus hoezo versplintering?
Je vergeet LiquidVR, volgens mij nog niet uit, maar ook nog niks van Nvidia wat daarop lijkt.
Inderdaad! Ik hoop ook echt dat ze daarmee wat winst gaan pakken.
GameWorks VR heeft problemen met latency vergeleken met LiquidVR, namelijk twee keer zo traag. Heeft waarschijnlijk te maken met het feit dat nVidia kaarten geen concurrent Async compute kunnen.
AMD is daar ook heel goed bezig, en de timing is dit keer ook goed, zo aan de vooravond van VR. Maar ik wil het eerst in een product omgezet zien worden voordat ik ga juichen. Eerst en vooral is het belangrijk dat AMD het geheel van goede marketing voorziet, dat is toch hun grootste valkuil.
Dus wel, Nvidia's tegenhanger heet GameWorks VR
TrueAudio is nog altijd het enige voorbeeld uit jouw lijstje dat een echte USP is. De rest kan inderdaad door iedereen gebruikt worden en is daarmee dus geen voordeel. Dat is exact wat ik ook zeg.

AMD is erg goed in het níet ten gelde maken van zijn R&D. Kijk nou naar Fury. Ze zetten een kaart in de markt met HBM, hartstikke tof natuurlijk, maar omdat het zo duur is, is de kaart niet echt concurrerend en zeker geen panacea om de verliezen recht te trekken. Het is allemaal niet handig getimed, er zit geen goede marketing achter.

We zeggen exact hetzelfde.
AMD kan het zich niet veroorloven gesloten dingen als PhysX of Gameworks te maken, hun marktaandeel is daarvoor te klein.
AMD had dat ook, Mantle..
Ja Mantle was een goede poging maar er waren toen bij de aankondiging al veel geluiden dat dit natuurlijk niet echt ging werken zo. Als er nou één dingetje is dat bewezen NIET werkt als het niet open source is of in elk geval door de gehele markt omarmd wordt, dan is het wel low level access. Ik zag het ook niet echt gebeuren destijds, met in het achterhoofd 3DFX.

En de markt heeft gesproken. Iedereen zag dat het nodig en mogelijk was, en dus hebben we nu DX12. Dus wederom, goed gezien van AMD, maar slecht in de markt gezet.

[Reactie gewijzigd door Vayra op 26 oktober 2015 14:06]

Mantle was juist superieur. Er is een reden waarom Vulcan het overgenomen heeft. De gehele Vulcan API is er op gebaseerd.

http://www.pcworld.com/ar...as-opengls-successor.html
Mantle ging een open standaard worden zodra de API af was (we hadden enkle nog preview releases).

en nu is het een open standaard geworden alleen onder de paraplu van khronos en heet het Vulcan.
3DFX... jah GLIDE .. dat werkte indertijd toch echt wel een pak beter dan opengl in mijn games... direct3D gaf zelfs soms gewoon corrupt beeld in mijn games (bv halflife)

Maar goed dat amd mantle heeft ontwikkeld, anders had het wellicht nooit in dx12 gezeten; want het was juist daarom dat amd het ontwikkelde, omdat het niet in dx12 zou zitten in eerste instantie; toen het dan uitkwam en goed werkte werd het alsnog toegevoegd.
Vulkan heeft uiteraard niets met directx te maken; dat is namelijk onderdeel van opengl (en dus ineens ook multiplat)
Bovendien hoop ik dat we steeds meer games krijgen die terug de optie geven om te kiezen tussen opengl en directx; dit zag je vroeger toch ook vaak... maar vandaag zou het beteken dat het game sneller multiplat gaat. Men zou dan bv enkel nog de gamecode via Wine laten gaan (wine is not emulation!) en de rendering gaat dan gewoon via native opengl
En laat ons ATI met zijn TruForm niet vergeten.
https://en.wikipedia.org/wiki/TruForm
je weet dat bijvoorbeeld tressFX van AMD er eerder was als nvidia's hairworks? en WEL goed werk op videokaarten van beide merken, onder andere omdat het open source is (en geen vieze trucks bevat om de de performance bij een van de beide moedwillig te saboteren)

het enige dat AMD niet doet is er een grote zak geld naast zetten voor de publishers zodat die de developers kan dwingen om nvidia gameworx te gebruiken.
En dat is ook te prijzen, begrijp me niet verkeerd. Ik ben niet anti-AMD.

Maar wat ik wél signaleer is dat AMD telkens met initiatieven komt waar ze geen geld uit weten te halen. Je noemt TressFX en dat is een uitstekend voorbeeld. Leuk dat iedereen het kan benutten, maar daarmee is het dus tegelijk ook geen USP meer en dus geen reden om een AMD kaart te kopen. Maw weggegooid geld in een kapitalistisch systeem.

We hebben er hier een handje van om vanuit idealisme te redeneren, en dat is heel leuk, maar niet goed voor je bedrijf. Kijk naar het verschil in marktaandeel, en naar hoe slecht het met AMD gaat. Dat komt echt niet door Gameworks, maar door de beslissingen van AMD zelf.

[Reactie gewijzigd door Vayra op 26 oktober 2015 11:43]

Dus wat jij wilt is eigenlijk dat AMD zijn eigen Gameworks opzet en dat we dadelijk twee videokaarten moeten kopen en de hele tijd moeten switchen tussen de twee als we de best mogelijke speel ervaring willen hebben? Want dat kan er dan gebeuren als we het doortrekken in het extreme.

Ik snap niet waarom game technieken gesloten moeten zijn. Iedereen zou met zijn GPU een game moeten kunnen spelen en niet gelimiteerd worden door vendor specific effects. Dat Nvidia er een heel ecosysteem omheen bouwt met Shadowplay etc vind ik prima. AMD heeft dat ook, al is dat minder bekend. En laat dat ecosysteem dan de USP zijn en niet de ingame effecten.
Als AMD zijn eigen Gameworks had opgezet, had je op kaarten van beide kampen dus gebruik kunnen maken van dergelijke technieken en is het probleem ook uit de wereld geholpen, en kan de consument kiezen op de voordelen die hij het belangrijkst vindt.

Je weet wel, zoals elke markt gewoon werkt.
Ik snap je punt: AMD moet ook misbruik maken van zijn positie om NVIDIA te belemmeren.

Maar dat is dus NIET hoe de wereld werkt. Dat noemen ze misbruik maken van je (monopoly)positie. Het is niet de eerste keer dat AMD een dergelijke concurrent heeft. Neem de prijsafspraken die Intel gebruikte om ervoor te zorgen dat AMD based pc's niet verkocht worden in winkels. Waarom, omdat intel had zitten slapen ten tijde van de Pentium 4.

Ik zie een zelfde trend ontstaan tussen AMD en NVIDIA. NVIDIA houdt zijn voorsprong kunstmatig. AMD heeft doet dit ook wel, maar omdat AMD geeen grote zak geld ter beschikking heeft, zullen weinig devolopers een USP van AMD gebruiken. Want je verpest je game er gewoon mee. AMD pakt het anders aan en werkt samen met game developers om hun games te optimaliseren voor de nieuwste technieken. Want ondanks dat Mantle open source is, draaide BF4 het beste op AMD hardware.

Hopelijk rijgt NVIDIA snel een rechtszaak voor z'n kiezen. Alleen dan zal al wel te laat zijn voor AMD...
Ik snap je punt: AMD moet ook misbruik maken van zijn positie om NVIDIA te belemmeren.

Maar dat is dus NIET hoe de wereld werkt. Dat noemen ze misbruik maken van je (monopoly)positie. Het is niet de eerste keer dat AMD een dergelijke concurrent heeft. Neem de prijsafspraken die Intel gebruikte om ervoor te zorgen dat AMD based pc's niet verkocht worden in winkels. Waarom, omdat intel had zitten slapen ten tijde van de Pentium 4.

Ik zie een zelfde trend ontstaan tussen AMD en NVIDIA. NVIDIA houdt zijn voorsprong kunstmatig. AMD heeft doet dit ook wel, maar omdat AMD geeen grote zak geld ter beschikking heeft, zullen weinig devolopers een USP van AMD gebruiken. Want je verpest je game er gewoon mee. AMD pakt het anders aan en werkt samen met game developers om hun games te optimaliseren voor de nieuwste technieken. Want ondanks dat Mantle open source is, draaide BF4 het beste op AMD hardware.

Hopelijk rijgt NVIDIA snel een rechtszaak voor z'n kiezen. Alleen dan zal al wel te laat zijn voor AMD...
50 versus 30 procent is geen monopolie, en Nvidia/AMD heeft ook tijdenlang een 50-50 (of iets daaromheen) verhouding gekend. Toen ging AMD rebranden en bleven de verbeteringen na de 7970 compleet uit, en het echte goede antwoord op de 780(ti) is er eigenlijk nooit gekomen; de 290 release was een drama vanwege (ook niet de eerste keer) een veel te goedkope koeloplossing en problemen rondom Powertune.

Allemaal dus fouten waar AMD zélf bij was. En helaas voor ons werkt de wereld wél zoals het nu gaat: Nvidia biedt een completer product en wint dus de strijd, terwijl het juridisch in zijn recht staat. AMD moet gewoon sluwer worden. De voorsprong van Nvidia is niet kunstmatig, ze bieden gewoon een sterker product tegen een gelijke prijs, met betere support, snellere driver ondersteuning en een lager energieverbruik.

[Reactie gewijzigd door Vayra op 26 oktober 2015 13:37]

Het probleem met deze verdedigingen is een realiteitsbesef.

De realiteit is dat AMD 46 jaar geleden is opgericht, 10 maanden na Intel. Grof gezegd is AMD is dus van origine een imitator.

In deze 46 jaar hebben ze het niet voor elkaar gekregen om bedrijfskundig uit de schaduw van Intel te stappen. Waarom zeg ik bedrijfskundig? Omdat er genoeg succesvolle cpu series van AMD zijn geweest. Wat er echter nooit is geweest, is financieel succes. De winst van Intel is vrijwel uitsluitend groter dan de omzet van AMD. AMD heeft als volger al 46 jaar de tijd gehad om het beter te doen dan Intel, maar dat kunnen ze blijkbaar niet. Er is weleens vuil spel gespeeld maar over 46 jaar is primair de schuld van AMD zelf.

Als we over Radeon gaan praten dan komen we pas in 2007 bij AMD uit. Daarvoor ging het over Ati (1985-2006) en dit bedrijf was bedrijfskundig wel succesvol. Zo succesvol dat AMD het voor 5.6 miljard dollar heeft overgenomen. Over Ati is weinig kwaads te zeggen. Marketing zat daar goed, research deed leuke dingen, ze hadden vaak premium kaarten...

AMD weet er vervolgens, net als met hun cpu's, er geen financieel succes van te maken. Het enige wat AMD heeft gedaan de eerste jaren is marginale winsten te draaien . Denk aan enkele tientallen miljoenen, op een overname bod van 5.600.000 mijoen. Op dat tempo duurt het 112.000 jaar om de investering terug te verdienen. Tegelijkertijd moesten er door deze tegenvaller miljarden worden afgeschreven. Door dit alles werd AMD gedwongen het R&D budget, ooit 1800 miljoen, significant te verlagen. Tegenwoordig is er voor AMD nog circa 1000 miljoen R&D per jaar over.

Dat is misschien niet leuk om te zeggen maar dat is wel wat er is gebeurd. Ik durf het ondertussen wel wat stelliger te zeggen: AMD is zichzelf en Radeon met zijn beperkte R&D budget aan het vernietigen en het zou beter zijn als AMD wat meer op zijn kop kreeg in plaats van dat iedereen steeds in de verdediging schiet zodra er iets negatiefs wordt gezegd.

Om even in oplossingen te denken: Als AMD nu x miljard kan vangen voor Ati dan kan AMD met dit geld de R&D weer opschroeven. Ondertussen kan dan Ati weer mooi winsten draaien en dus ook meer investeren in research.

edit: miljarden en miljoenen :P.

[Reactie gewijzigd door sdk1985 op 26 oktober 2015 18:48]

Grof gezegd is AMD is dus van origine een imitator
dit zou ik zelf niet zo hard zeggen, want zonder AMD hadden we geen multi core CPU's gehad en was intel niet zo als intel nu is.

Verder zie ik AMD meer investeren in nieuwe technieken dan intel dat doet.
Kijk eens aan, er zijn dus toch mensen die de zaken kunnen zien zoals ze zijn. Ik maakte me al een beetje zorgen over de gemiddelde intelligentie die hier overschaduwd werd door emotie.
Nee, dat is te rooskleurig. Wat je dan waarschijnlijk krijgt is dat er maar een per spel wordt gebruikt. Je denkt toch niet dat Nvidia het zou toe laten dat AMD ook zijn gameworks laat lopen, en dan vice versa. Dat kan met meer geld, of vast wel in de code worden in gebouwd.

Maar wat houdt ontwikkelaars nu tegen om AMDs technieken te gebruiken?
Niets. Dat is het hele eiereten. AMD heeft de technieken gewoon niet. We dromen nog altijd van een goede physics engine vanuit AMD. En daarover kunnen we nog wel een poosje doordromen.
PhysX is van Ageia wat Nvidia vervolgens heeft opgekocht. De stand-alone propriety chip vervolgens in hun GPU gebakken. Vervolgens AMD owners compleet buitenspel gezet door het onmogelijk te maken om Nvidia drivers naast AMD drivers te installeren (dus onmogelijk gemaakt om een mid nvidia kaart naast je high-end amd te zetten voor Physx)

AMD is altijd van het bevorderen van open standaarden geweest, daarom zul je ze nooit met propriety shit zien aankomen. Het is Nvidia die het compleet verziekt op de games markt.

Sowieso ondersteunt Havok gewoon OpenCL. Ontwikkelaars weigeren daar echter gebruikt van te maken omdat, zoals gewoonlijk, Nvidia deze open standaard niet ondersteunt en enkel hun propriety CUDA in hun kaarten bakt.
Sla je nu niet een beetje door? De Ageia kreeg een zeer positieve review in 2007; https://www.techpowerup.c...G/Ageia_PhysX_Card/7.html. Dat was een tijd waarbij de cpu prestaties vast zaten en een ontlasting van die cpu veel toegevoegde waarde had.

Die insteek kaart kostte je echter 120 euro (!). Na de overname van Nvidia kon iedereen "gratis" van die techniek gebruik maken. Dat lijkt me een positieve ontwikkeling. Nvidia heeft betaald (schatting: 150 miljoen) en de consument profiteert. Het is eerder een beetje dom van Nvidia of niet ;).

Achteraf bleek het allemaal niet zo heel spannend want in al die jaren ben ik twee games tegengekomen waarbij de gpu physx een signficante fps toename opleverden. Dat hele derde kaart inzetten heb ik überhaupt nooit gedaan.

Over CUDA is het één en ander te zeggen in het voordeel van Nvidia. Iedereen verklaarde Nvidia destijds voor gek, het ging ten kostte van de prestaties van de videokaarten. De GTX 260 was gewoon wat trager dan de goedkopere 4870. Echter achteraf bleek het een geniale zet want juist uit de pro markt worden honderden miljoenen per jaar verdient.

Shadowplay is daar eigenlijk een verlengde van. Het zat niet in OBS (openbroadcast software) maar ik heb toen de CUDA documentatie naar de ontwikkelaar van OBS gemaild. Hij zou er naar kijken, paar maanden later zat nvenc support in OBS. Streamen kost niet langer 40% van je cpu performance. Geweldig toch?

Ik vindt het allemaal niet zo schokkend. Andersom ga ik toch ook niet boos worden dat Nvidia geen TrueAudio aankan?

Om even terug te komen op Shadowplay, tegenwoordig zit Intel QuickSync ook in OBS. Zo kan het dus ook... Het is bij software zelden OF, indien het makkelijk te implementeren is kan het altijd EN worden. Ik zeg RadeonWorks kom er maar in ;).

[Reactie gewijzigd door sdk1985 op 26 oktober 2015 18:50]

Amd heeft wel degelijk de techniek, geen PhysX nee, maar daar gaat het hier niet over. Het gaat over "haar" en dat heeft AMD al langer dan Nvidia. Echter zie ik liever dit soort APi's door een 3rde partij in plaats van Koppige Nvidia en dan amd ook maar.
We hebben er hier een handje van om vanuit idealisme te redeneren, en dat is heel leuk, maar niet goed voor je bedrijf.
dat kan juist heel goed zijn voor je bedrijf! zie de negative reactie in dit topic op de aankondiging dat fallout4 nvidia gameworx gaan gebruiken.

het is ook nog een beter voor de PC games markt, en voor gamers zelf! en hoe meer mensen dat inzien hoe meer druk er zal komen.

Dat effect word alleen maar sterker in de loop de jaren. mensen zijn niet helemaal gek, en steeds meer mensen krijgen een steeds grotere afkeer van nvidias geldgraaiende, markverziekende, omkoop praktijken.

nvidia geeft de zak geld aan de publishers, en dat is niet voor niks. developers werken liever met open standaarden, en ook voor gamers is het VEEL beter als het allemaal open standaarden zijn. alleen publishers zijn daar niet gevoelig voor, en dus koopt nvidia die om met een zak geld zodat die de develoeprs dwingen om gameworks te gebruiken.
Een van de redenen waarom ik net voor AMD ben gegaan, Nvidia heeft duidelijk het belang van de consument niet hoog in het vaandel staan.
Ik deel al je negativiteit over Nvidia maar na 2x een AMD videokaart te hebben gekocht (de laatste omdat deze gebundeld was met Battlefield) ben ik er wel volledig klaar mee en wordt de volgende echt een Nvidia.

Brakke drivers en beloften (Mantle gaat zo goed draaien bij Battlefield, echt waar!), extra tijd die je doet om uit te zoeken waarom een game kloten draait (Witcher, Watchdogs -> hairworks, ). Vage glitches in GTA V waarbij ik terug moet schakelen naar directx 11... Random driver crashes op Windows 10 (zeker wanneer je meerdere schermen gebruikt). Het zijn allemaal kleine irritaties die mij het merk sterk doen afzweren.

Als hairworks een business strategie is van Nvidia dan werkt deze in ieder geval goed. De rest van de irritaties komen gewoon uit de hoed van AMD zelf.
(Mantle gaat zo goed draaien bij Battlefield, echt waar!)
moet je dice aankijken, niet AMD. die game werkt nergens lekker op.

bugglefield 4.
extra tijd die je doet om uit te zoeken waarom een game kloten draait (Witcher, Watchdogs -> hairworks, ).
dus je gaat nvidia gewoon belonen omdat ze AMD moedwillig saboteren? wow.
Vage glitches in GTA V waarbij ik terug moet schakelen naar directx 11...
terug schakkelen naar 11?
Random driver crashes op Windows 10
daar kan nvidia ook wat van. veel meer als AMD zelfs (herhaling van het vista debacle)

ik heb al jaren AMD en ik herken hier echt niks van. alle games die je noemt heb ik zonder problemen (uit)gespeeld met een hd7970 (zelfs bf4 draaide oke, en met mantle beter)

[Reactie gewijzigd door Countess op 26 oktober 2015 13:02]

Wat een hoop..., hety zal wel aan je eigen systeem liggen.
Brakke drivers en beloften
Welke beloften's? en heb zelf nooit problemen met de drivers gehad, Ik snap ook niet waarom men steeds oude koeien uit het graf moeten halen want het is gewoon onzin.
Mantle gaat zo goed draaien bij Battlefield, echt waar!),
Ook nooit problemen mee gehad, en had zelfs een boost met Mantle.
Vage glitches in GTA V waarbij ik terug moet schakelen naar directx 11
??? GTA V ondersteund alleen DX 10, DX 10.1 en DX11. Dus waar heb je het over? De game heeft nooit ondersteuning voor mantle gehad. dus hoezo terug schakelen?
Random driver crashes op Windows 10 (zeker wanneer je meerdere schermen gebruikt).
??? zal het toch echt aan jouw systeem liggen, gebruik zelf 3 schermen(1GPU) nergens last van.. in tegenstelling tot de problemen die Nvidia met W10 had/heeft.
extra tijd die je doet om uit te zoeken waarom een game kloten draait (Witcher, Watchdogs -> hairworks, )
Wat dus de schuld is van nvidia.....
het enige dat AMD niet doet is er een grote zak geld naast zetten voor de publishers zodat die de developers kan dwingen om nvidia gameworx te gebruiken.
De enige reden dat AMD dat niet doet is omdat ze geen geld hebben en dus besparen op PR.
stel ze hebben die zak wel. welk platform zouden ze dan moeten pushen? het is nogal zinloos om op deze manier open standaarden te pushen. de payoff is (door het gebrek aan sabotage van de concurrent) veel minder groot als die van nvidia dus is er, zelfs als ze verder gelijk zouden zijn, veel minder geld voor beschikbaar.

van nature zou de markt al moeten kiezen voor die open standaarden, maar Nvidia belemmerd dat door deze marktverzieking.
Je weet dat (vrije) markt betekent dat er zonder dwang interacties tussen mensen of bedrijven plaatsvindt hè? Ik snap dan ook niet dat 'zak geld' en 'dwingen'bij jou in 1 zin kunnen staan. Nvidia dwingt geen developers maar geeft ze een monetaire incentive om hun proprietaire technologie te gebruiken. Hoezo verziekt dat 'de markt'? Het verziekt de markt enkel o.b.v. jouw subjectieve standaarden, die je mag bezigen, maar het is slechts een mening.

Ik weet niet of er cijfers van zijn, maar volgens mij komt dit Gameworks gedoe niet bij zoveel games voor. Daarbij is zo ver ik weet de AAA markt waar het af en toe voorkomt niet zo groot t.o.v. de gehele gamesmarkt. Het probleem van (subjectief) marktverzieken is dus helemaal niet zo groot, maar beperkt. Nvidia richt zich op een niche van enthusiasts die functionaliteiten als Gameworks een reden vinden om voor Nvidia te gaan i.p.v. AMD in het hoge segment. imho.
nvidia geeft aan de markteers van de PUBLISHERS een zak geld en DIE dwingt (via het contract van nvidia) developers om nvidia's tools te gebruiken.

het zijn dus juist niet de technische mensen die de keuze voor de tools maken, maar de mensen die zak geld in ontvangst mogen nemen.
Daarbij is zo ver ik weet de AAA markt waar het af en toe voorkomt niet zo groot t.o.v. de gehele gamesmarkt. Het probleem van (subjectief) marktverzieken is dus helemaal niet zo groot, maar beperkt.
het zijn juist de AAA titles die de verkoop van videokaarten stimuleert. alleen daarom al het is dus zeker niet een niche markt met beperkte gevolgen.

[Reactie gewijzigd door Countess op 26 oktober 2015 16:21]

AMD vind aardig wat uit, maar maakt zowat alles open. Zelfs hun Mantle applicatie maakten ze openbaar en vroegen aan Nvidia om zich erbij aan te sluiten.

Nvidia wilt met zaken als NVLink de concurrentie compleet uitsluiten. Straks gaan we weer naar de tijd dat SLI alleen weer werkt op moederborden met Nvidia technologie.
Dit is compleet niet juist. AMD's Mantle is vanaf het begin proprietary geweest en AMD heeft sinds het begin volgehouden dat het 'uiteindelijk best door anderen mag worden gebruikt' maar pas toen de aankondiging kwam dat DirectX12 eraan ging komen, werden opeens de papers openbaar. Daarvoor werd alle informatie angstvallig binnen DICE gehouden.
En laten we niet vergeten dat Nvidia toendertijd gewoon openstond voor het mogelijk maken van dingen als CUDA/PhysX op AMD kaarten, maar dat AMD dat de grond in heeft geboord omdat ze zelf met een beter open alternatief zouden komen.
Dan heb je nog voorbeelden als G-sync. Meer dan 10 jaar terug heb ik een gesprek gehad met iemand van Nvidia die toen al vertelde dat Nvidia er op aandrong zoiets aan een standaard toe te voegen (en het bijv in HDMI te integreren). Andere partijen vonden het allemaal onzin, en gaven aan dat niemand daar interesse in zou hebben.
Vervolgens brengt Nvidia het dan maar zelf uit en komen er veel positieve reacties op, en dan komt AMD toevallig in ene met een eigen alternatief.

AMD moet eens van zn troon stappen, en desnoods smeken om PhysX en dergelijke te mogen aanbieden zodat wij gamers ook eens kunnen gaan profiteren van die technieken.
Momenteel kan je het namelijk geen onderdeel van de gameplay maken, maar moet je je beperken tot wat grafische effectjes omdat een groot deel van de gebruikers het niet kan draaien. Wanneer AMD het ook aan gaat bieden, verwacht ik dat we in ene een grote verandering gaan zien in de games, maar voor nu houden ze gewoon de ontwikkeling tegen met hun dwarsheid.
Wat een rare kijk heb jij op de situatie zeg. Er zijn 2 GPU fabrikanten, waarom zou Nvidia een gesloten platform aan AMD willen aanbieden hebben als het net zo goed open kon? Je verhaal houdt helemaal geen steek.

"iemand van Nvidia zelf" jaha tuurlijk dat. Die zijn zichzelf al jaren aan het verexcuseren met leugens en flauwe kul. Geloofwaardigheid is niet echt hoog daar.

Welke AMD troon? Open source stukjes die Nvidia vrij kan gebruiken indien ze willen is niet echt een troon. Nee, in de plaats daarvan wil Nvidia het gesloten houden zodat hun versie enkel op hun hardware heel goed draait. Wat helemaal het omgekeerde is wat je nu eerst beweerde. Of voelt het grote Nvidia zich zo op zijn tenen getrapt volgens jou verhaal dat ze als een klein kind nu alles voor zich wensen te houden?

Nvidia's gedrag van de laatste 10 jaar strookt totaal niet met wat je hier zegt.
Even een paar citaatjes:

"Nvidia “owns” and controls the future of CUDA, so it’s not open in the “open source” definition, but it’s certainly free. Nvidia tells us it would be thrilled for ATI to develop a CUDA driver for their GPUs.

But what about PhysX? Nvidia claims they would be happy for ATI to adopt PhysX support on Radeons. To do so would require ATI to build a CUDA driver, with the benefit that of course other CUDA apps would run on Radeons as well. ATI would also be required to license PhysX in order to hardware accelerate it, of course, but Nvidia maintains that the licensing terms are extremely reasonable—it would work out to less than pennies per GPU shipped.

I spoke with Roy Taylor, Nvidia’s VP of Content Business Development, and he says his phone hasn’t even rung to discuss the issue. “If Richard Huddy wants to call me up, that’s a call I’d love to take,” he said.

So what is AMD/ATI’s take on all this? I spoke with Senior PR manager Rob Keosheyan at AMD, and he had plenty to say about the situation. Open industry standards are extremely important to AMD as a company, and they feel that GP-GPU work should be no different. It’s working hard only on its own StreamSDK and Brook+, but with the Kronos group on OpenCL, where it sees the real future
."
http://www.extremetech.co...ti-support-cuda-and-physx

"recent provoking claims by AMD regarding GPU PhysX and all hype around Open Physics Initiative are causing me some Deja Vu feeling.

Why ? Because, actually, hardware accelerated PhysX was criticized by AMD/ATI throughout it’s lifespan (more or less). Let’s take a retrospective look at escalation of the conflict:

In June 2006, just after Ageia PPU launch, ATI unveils their GPU physics processing conception called “Boundless Gaming” (also known as Asymmetric Physics Processing) based on Havok FX engine (technology was supported by Nvidia as well).

X1900 XT GPU was promised to deliver over 9x performance of a PhysX PPU card and games augmented with Havok FX physics were supposed to come out in 2007.

Result ? Havok FX died with Intel aquisition of Havok company, no games were released, 16 titles with Ageia PPU support from hardware PhysX side.

To be honest, AMD was threating PhysX enough politely those times, even considering to buy whole Ageia company:

Richard Huddy saying, “we’ve had that discussion, yes. It’s a discussion that goes round every three months – someone turns to me and says “why don’t we buy Ageia?”

Things started to get worse when Nvidia bought Ageia with all patents, personell, software and hardware developments. GPU PhysX was buried alive by AMD beforehand

“There is no plan for closed and proprietary standards like PhysX,” said [Godfrey] Cheng “As we have emphasized with our support for OpenCL and DX11, closed and proprietary standards will die.”

"
http://physxinfo.com/news...x-history-of-the-problem/

en http://www.engadget.com/2...-idea-of-acquiring-ageia/ is ook wel leuk om te lezen. Ik denk dat ATi/AMD gewoon pissig was dat Nvidia ze voor is geweest, en er sindsdien geen reet meer mee te maken wil hebben. Het is absoluut niet dat ze de kans er niet voor gehad hebben.

Het is wel handig een beetje een idee te hebben van de geschiedenis voordat je er over oordeelt (al geef ik toe dat het intussen vaak wel lastig is nog goede links naar oude nieuwsartikelen uit die tijd te vinden door alle dode links enzo)

[Reactie gewijzigd door VNA9216 op 26 oktober 2015 12:32]

Samenvatting: AMD wou het open houden, Nvidia wil het gesloten houden en licentiegeld innen. AMD dacht er aan om Ageia te kopen om de proprietary stuff te stoppen maar Nvidia was ze voor. Intel kocht de physics engine die op beide platformen werkte en heeft die gekilled.

Maar op een of andere manier vind je het allemaal AMD's fout? Waarom is het AMD's fout dat Nvidia de boel opgekocht heeft en gesloten hield? Waarom is het AMD's fout dat Nvidia geld wil verdienen met licenties terwijl AMD het open wou houden?

Niet dat AMD zo'n heilig boontje is maar wat wil je nu eigenlijk allemaal zeggen?
Waar is die mooie superieure "open" oplossing van AMD dan? als het "open" zijn zo belangrijk is, waarom is Nvidia met zn gesloten oplossing dan niet gewoon weggeblazen?
Het gesloten houden en daarmee de lijntjes voor de ontwikkeling kort houden is niets mis mee.
"open" is geen magisch woord waardoor alles in ene beter word. Het staat AMD vrij om met een alternatief te komen, maar als je dat niet van de grond krijgt, is het misschien beter om (iig tijdelijk) gewoon wel de mogelijkheden aan te bieden iets anders te gebruiken tot je wel wat anders aan kan bieden dat vergelijkbaar is.
Als AMD in het begin ingestapt was, lijkt het me zeer onwaarschijnlijk dat ze intussen nog helemaal geen inspraak zouden hebben in de standaarden enzo.

Wat ik wil zeggen, is dat AMD met zn koppige houding en het continu beloven dat ze met betere alternatieven gaan komen (wat ze intussen toch al een jaar of 5-8 doen) tegenhouden dat wij als gamers optimaal kunnen genieten van de technieken die beschikbaar zijn gekomen in de laatste jaren.

edit: AMD zit nu gewoon als een dwarse peuter met zn armen over elkaar "Nee, ik wil niet" te roepen ten koste van de mogelijkheden die het gamers kan bieden zonder zelf daadwerkelijk met een oplossing te zijn gekomen. Ze duperen de gamers gewoon, want de techniek zelf is geweldig.

[Reactie gewijzigd door VNA9216 op 26 oktober 2015 12:52]

edit: AMD zit nu gewoon als een dwarse peuter met zn armen over elkaar "Nee, ik wil niet" te roepen ten koste van de mogelijkheden die het gamers kan bieden zonder zelf daadwerkelijk met een oplossing te zijn gekomen. Ze duperen de gamers gewoon, want de techniek zelf is geweldig.
wow. AMD probeert de PC game markt gezond, levendig en concurreren te houden en jij neemt ze dat kwalijk? de kortzichtigheid van sommige mensen hier is echt ongelofelijk.

verder moet je weten dat GPU physics nog nooit zin heeft gehad. het voegt er niks toe, maar kost wel GPU kracht die ergens anders gebruikt had kunnen worden. de CPU kan dat net zo goed af, alleen bij nvdia physx niet omdat die ENORM slecht is geoptimaliseerd voor de CPU (gebruikt nog de echt prehistorische x87 calls) om hun GPU oplossing er beter uit te laten zien.
Feitelijk is er door AMD juist helemaal geen concurrentie, en houden ze alleen het doorbreken van GPU computing binnen games tegen op het moment. (en dat gaat al zeker 5-8 jaar zo)

Die x87 calls waren idd een issue voor mensen die de CPU variant gebruikten, maar dat kwam doordat een groot deel van de code van ageia zo oud was. Overigens, de grote ontwikkelaars van games hebben gewoon toegang tot de PhysX source, en hadden het dus gewoon anders kunnen optimaliseren/compileren, maar hebben dat ook niet gedaan. Dat ligt niet alleen bij Nvidia. Overigens is dit met de grote rewrite van physx 3 (ergens in 2011) voor zover ik weet opgelost. Het is niet eerder gefixt omdat het onzin was daar zoveel tijd in te steken als je toch een grote rewrite gaat doen van een groot deel van de code. De CPU variant krijgt inderdaad minder aandacht, en daar is niets geks aan imho aangezien dat nooit het doel is geweest van physX.

Maar ik zie het al, in de reacties, iedereen ziet het verplaatsen van load naar de GPU liever verdwijnen dan dat je een niet perfect open variant zou gebruiken. . diep triest iig dat de enige partij die een voor ontwikkelaars rendabele manier heeft gemaakt om er binnen hun games gebruik van te maken er zo op aangekeken word dat ze niet open genoeg zouden zijn.
AMD zit op een doodlopend pad door alles open te willen houden, ze moeten aan het behoud van hun bedrijf gaan denken ipv alles open en gratis willen houden.

Ik ga me dr verder maar niet meer over uitlaten. het is een prachtige techniek met veel potentieel, maar het woordje "open" zit weer eens in de weg, en iets dat niet "open" genoeg is werkt op tweakers als een rode lap op een stier..
Overigens, de grote ontwikkelaars van games hebben gewoon toegang tot de PhysX source
dat is pas HEEL sinds kort mogelijk en dat komt door de kritiek van AMD. developers hadden tot die tijd gewoon de DLL's van nvidia te slikken en die heeft er voor gekozen de x87 calls te houden.
Dat ligt niet alleen bij Nvidia. Overigens is dit met de grote rewrite van physx 3 (ergens in 2011) voor zover ik weet opgelost.
en vervolgens hoor je ook niks meer over GPU physics, omdat het in vergelijking met CPU phyiscs niks toe voegt zoals ik al zei.
De CPU variant krijgt inderdaad minder aandacht, en daar is niets geks aan imho aangezien dat nooit het doel is geweest van physX.
WTF? GPU physx was toch juist bedoel om BETER te zijn als cpu physics of niet dan? maar dat was het dus niet!
het was enkel beter als de CPU variant van nvidia physx, en alleen omdat die CPU varriant zo slecht was!

het deed dus NIKS. het koste je grafische performance,maar het deed niks dat je niet ook met CPU based phiscis kon doen (mists goed geschreven) maar dan zonder de grafische performance hit.
en houden ze alleen het doorbreken van GPU computing binnen games tegen op het moment. (en dat gaat al zeker 5-8 jaar zo)
dit is helemaal mooi! heb je echt het hele direct compute verhaal van shadow of the singularity gemist?

tressFX ook volledige aan je voorbij gedaan? dat is haar physics gedaan met de GPGPU. daar had het WEL nut de GPU te gebruiken, en is al van jaren terug.

en daarna pas ging nvidia het zelfde doen alleen op zo'n manier dat het niet lekker werkt op AMD vanwege de belachelijke gekozen default instellingen (tesselation op 64x)

[Reactie gewijzigd door Countess op 26 oktober 2015 16:44]

En uiteraard werd TressFX de grond ingeboord door de Nvidia fans en wordt HairWorks de hemel ingeprijsd door dezelfde idioten terwijl het dezelfde tech is enkel de tesselation opgeschroefd.
Buiten contractuele verbindingen is er totaal geen reden om HairWorks over TressFX te kiezen maar ah.

Als mensen blijven de oogkleppen ophouden en alles slikken wat het groene kamp hun voorzegt zal Nvidia altijd als een held uit het verhaal komen. Blijkbaar is het AMD die de ganse graphics wereld tegenhoudt door openheid en wil Nvidia die redden met geslotenheid zodat enkel zij er wat mee kunnen. Logisch toch? Ja? Hoezo neen? Om onnozel van te worden toch...
Gelukkig snappen sommigen het hier toch nog :)
Ach wat maakt het uit de Witcher 3 was een slechte console port en ik kijk erg uit naar Fallout 4 maar ik ben bang dat dat ook weer een slechte console port gaat worden helaas.

Ik denk dat dergelijke technieken vooral zinvol zijn als je puur voor de PC ontwikkelt.
Ik vond TW3 zeker geen slechte console port. Dat komt overigens ook omdat het dat niet is. Het is vanaf het begin PC-first ontwikkeld.
Fout. Witcher 3 is op alle 3 de platformen tegelijk ontwikkeld, niet PC-first. Het is dus in principe geen console-port, maar zeker geen PC-first. Meer 'PC-belazer', aangezien er allerlei dingen beloofd werden en het publiek werd iets mooiers voorgeschoteld dan ze konden krijgen. maar vervolgens werd de keutel weer ingetrokken door CD Projekt Red. Kunnen ze nog een voorbeeld nemen aan Bethesda, dat gewoon de in-game graphics liet zien bij het presenteren van Fallout 4, en niet een opgepoetste demo.
Het gaat maar om 1 ding. Geld. Waarschijnlijk krijgt Bethesda gewoon geld van nVidia en werken ze er daarom aan mee. nVidia heeft ook veel diepere zakken dan AMD en dus zal die het onderspit delven (helaas). Begrijp me niet verkeerd, ik ben het helemaal met je eens want dit zijn gewoon verwerpelijke praktijken, maar als je met geld strooit, hoe moreel verwerpelijk het ook is, is er altijd wel iemand die het oppakt.
Helemaal mee eens dat dit verwerpelijke praktijken zijn, dit gevoel lees ik trouwens ook wel enigzins terug in het artikel .

Voor mij in ieder geval reden om geen Fallout game weer te kopen, al heb ik zelf ook een nieuwe nvidia kaart. Wil niet aan dit soort praktijken mee werken.

Mooi dat Tweakers hier een artikel aan besteed om ons erop te wijzen.
Mwa, ik weet het niet hoor.

Hoe is dit verwerpelijker dan console exclusive titels?
Je gaat toch ook niet zeuren dat Microsoft Halo alleen voor de XBOX180 uitbrengt?
Tuurlijk doen ze dat! Het is hun product.
Als Bethesda gebruik wil maken van die technieken die Nvidia ontwikkeld heeft (lees: geld aan heeft besteed ze te ontwikkelen! Investeren weet je wel..) omdat dat werk uit hun handen neemt en/of hun game er mooier uit kan laten zien, waarom niet?

Mensen vinden het vandaag de dag normaal dat je een PS4 moet hebben voor PS4 exclusives, een XBONE voor XBONE exclusives, een PC voor PC exclusives, een iOS device voor iOS exclusives en een Android device voor Android exclusives... wat is er mis met een 'GFX kaart exclusive' als dat betekent dat de games op die GFX kaart er mooier uit kunnen zien dan wanneer ze volledig alle GFX fabrikanten ondersteunen??

Als ik Console fanboys moet geloven is het feit dat console game ontwikkelaars zich volledig kunnen focussen op de non-variabele hardware van de console dè kracht van een console en leidt dat tot beter geoptimaliseerde en mooiere spellen...
Waarom is het nu ineens not done?

En we hebben het hier nog niet eens over een Nvidia exclusive, dat is nog wel het ergste.. Fallout 4 werkt ook gewoon op AMD kaarten, albeit minder optimaal of met deze features uitgeschakeld.

Gewoon stoppen met zeuren en een Nvidia kaart kopen of accepteren dat je Fallout4 niet of op mindere kwaliteit/snelheid kan draaien.
Ik heb ook al jaren geleden moeten accepteren dat ik Halo of Final Fantasy nooit zal kunnen spelen omdat ik nooit een console zal gaan kopen. Tough Shit. :+
Hoe is dit verwerpelijker dan console exclusive titels?
omdat de PC markt niet de console markt is! dat was nu juist altijd het GOEDE van de PC markt. en jij gaat hier een beetje zitten verdedigen dat dat door nvidia helemaal word afgebroken.
omdat dat werk uit hun handen neemt en/of hun game er mooier uit kan laten zien, waarom niet?
dat is dus helemaal niet de reden dat het gedaan wordt. meestal geeft nvidia een grote zak geld aan de publisher, en die dwingt de developer om nvidia software te gebruiken. dat is dus helemaal niet altijd de keuze van de developer.
dat is dus helemaal niet de reden dat het gedaan wordt. meestal geeft nvidia een grote zak geld aan de publisher, en die dwingt de developer om nvidia software te gebruiken. dat is dus helemaal niet altijd de keuze van de developer.
Hoe krom is een banaan?

De developer kan er gewoon voor kiezen om die zak geld niet aan te nemen. Maar veel developers zien dat het een voordeel oplevert waarmee ze meer dan de helft van de potentiele kopers blij maken, en dus is het het geld waard. Tegelijkertijd maken ze gebruik van een investering die Nvidia heeft gedaan. Het is dus volledig de keuze van de developer.
Maakten ze maar de helft van de kopers blij.

GameWorks draait alleen lekker als je een Maxwell 2 kaart hebt, en als je kijkt naar http://store.steampowered.com/hwsurvey/videocard/ zijn dat er niet veel. 3,5% van de mensen heeft een GTX970, in totaal zijn er zelfs minder mensen met een Maxwell 2 kaart dan met een GCN kaart.

Over oudere generaties en Intel HD GPU's niet te spreken.

Om het nog leuker te maken: Kepler kan over het algemeen slechter overweg met GameWorks dan GCN, omdat AMD er tenminste met driverupdates nog wat performance kan uitslepen, door bijv. de tesselation zwaar terug te draaien. Of Nvidia dat instelt in een driver-update is maar de vraag, volgens mij hebben ze dat niet gedaan bij TW3.
In eerste instantie inderdaad niet. Hairworks framerate stortte ook in op Kepler. Later zijn er wel optimalisaties doorgevoerd voor Kepler, maar feit blijft dat de nieuwe Maxwell arch er simpelweg beter mee overweg kan. Dat ligt dus voornamelijk aan hardware.

Maar als het over support gaat dan doet Nvidia het velen malen beter dan AMD, ze blijven legacy ondersteunen en Nvidia kaarten krijgen feature updates zolang dat mogelijk is.

[Reactie gewijzigd door Vayra op 26 oktober 2015 13:22]

Daarom vind ik veel te kort door de bocht om te zeggen dat 50% van de mensen er profijt van heeft.

Ik denk dat het correcter is om te zeggen dat 90% van de mensen er niks aan heeft, want hun videokaart, ook bijv. een GTX780 die gewoon nog mee hoort te kunnen, draait er knap brak op.

Als ik geen R9 290 had gekocht maar een GTX780, dan was ik denk ik nog wel pissiger om geweest dan nu, nu haal ik mijn schouders op en hoop dat AMD de nodige optimalisaties weer kan toepassen. maar Nvidia "saboteert" hun ouder high-end kaarten net zo hard, en dat is toch wel behoorlijk lullig.
Je pakt nu alleen Hairworks eruit.

Maar pak voor de gein PhysX. Die draai je nog op een kaart van 8 jaar oud, en die kaart kan zelfs als standalone PhysX kaart gebruikt worden. Als we het dan even over legacy support hebben...

Het is heel logisch dat nieuwere arch ook nieuwere technieken goed kan ondersteunen, dat gebeurt al sinds jaar en dag.

[Reactie gewijzigd door Vayra op 26 oktober 2015 13:29]

En hoeveel games ondersteunen PhysX?
Best een behoorlijk aantal. Het blijft toch een item. Zet daar eens tegenover hoeveel games er op AMD hardware duidelijk beter uitzien, en je snapt dat het een keuze kan beinvloeden.
Maar worden de fysische effecten die bij nVidia afgehandeld worden door de Physx-chip bij een AMD-kaart dan afgehandeld door de cpu of ontbreken die effecten dan bij een AMD-kaart? Anders is het idd een voordeel voor nVidia.
Er bestaan zowel CPU PhysX als GPU accelerated PhysX. Heel veel meer games gebruiken CPU PhysX en dat werkt op alle hardware maar is vaak beperkter of een integraal onderdeel van de gameplay en moet dus ook altijd werken. Dan heb je de GPU PhysX (de particle effects zoals vonken die wegspatten, het wapperen van vlaggen en brokstukjes die afbreken, etc.) en als je dat door de CPU laat doen, merk je een grote performance hit. Het is dat tweede gedeelte dat alleen door een Nvidia GPU kan worden gebruikt, maar zelfs Nvidia gebruikers kunnen het over de CPU laten gaan.
De developer kan er gewoon voor kiezen om die zak geld niet aan te nemen.
dat is dus helemaal niet altijd het geval.Vaak niet zelfs.

De publisher is de gene die de zak geld krijgt en die bepaalt de tools voor de developer.

het zijn (jammer genoeg) vaak helemaal niet de technische mensen die bepalen met welke engine en welke tools gewerkt gaat worden.
uhh, de PC markt heeft altijd verschil gehad, zeker voorheen.. Het spel werkt nog steeds op AMD, maar met minder effecten, nou dat ben je als PC gamer toch echt al lang wel gewend, want bij nieuwere games moet je vaak ook weer extra opties uitschakelen om met je 'oude' videokaart toch nog te kunnen spelen. Ik heb zelden gameplay video's gezien van pc-games waarbij het er net zo uit ziet als op mijn PC, tja, de gamplayvideos van developers zijn vaak gemaakt op ultrahighend gaming pc's, en dat heb ik niet..
Precies dit. Het hangt er maar net vanaf welke bril je opzet. Exclusiviteit is een belangrijk middel om marktaandeel te winnen, en Nvidia benut dat. Het is een beetje triest om dan als concurrent te klagen over het feit dat Nvidia zijn eigen klanten een product biedt met meer mogelijkheden.

En ja, dit mag allemaal, er is nog nooit een rechtszaak over Gameworks gevoerd.

[Reactie gewijzigd door Vayra op 26 oktober 2015 11:51]

dat het legaal is wil nog niet zeggen dat het gewenst is. en dit is door niemand behalve nvidia gewenst.
Als Nvidia bezitter vind ik de Gameworks features anders behoorlijk interessant en spelen ze zeker mee in mijn keuze voor de volgende aankoop. Met name PhysX is echt wel een toevoeging. AMD had al vele klanten kunnen winnen als ze zelf eens met een goede physics oplossing waren gekomen. Tot nu toe veel geluid maar nul resultaat vanuit dat kamp.

Dat gedroomde open source alternatief is er ook al niet (ja Opencompute maar dat werkt niet zo lekker). Dus we kunnen blijven dromen van luchtkastelen, of je kunt nu een kaart kopen die de features heeft. En dát, beste vriend, is mijn punt. AMD is als een kaartenhuis aan het instorten, en dat komt echt puur en alleen door de strategie van AMD. Het is allemaal gestoeld op een utopisch beeld van de markt waar ze keer op keer zelf de rekening voor betalen. Letterlijk.

[Reactie gewijzigd door Vayra op 26 oktober 2015 13:27]

Precies dit.

Als AMD zo loopt te zeuren dat Nvidia geld en tijd besteed aan het ontwikkelen van deze technieken welke gestreamlined zijn om samen te werken met hun ontwikkelde GPU architectuur... waarom doen ze dat dan zelf niet?..

Als ze geloven dat Nvidia hiermee uitgevers/ontwikkelaars en/of klanten wegsnoept dan moeten ze zelf maar eens met een alternatief komen. Het is een vrije markt en AMD staat ook gewoon vrij om mooie grafische technieken en oplossingen te ontwikkelen welke haarfijn samenwerken met hun eigen architectuur en baggerslecht draait op Nvidia kaarten.

Da's hetzelfde als de buurman kwalijk nemen dat hij de loterij wint.. als jij nou al 10 jaar niks wint en hij pas een maand geleden begonnen is met loten kopen a la dan snap ik je nijd maar als je zelf nooit een lot gekocht hebt heb je ook echt geen recht om te zeuren. :+
(Kijk naar Mantle en Freesync, dat zijn nou technieken waar ik AMD een schouderklopje voor kan geven.. als ze goed werken :P )
waarom doen ze dat dan zelf niet?..
dat doen ze al! en alles gratis beschikbaar voor IEDEREEN. hun website staat vol met render technieken en shaders die iedereen zo kan downloaden en gebruiken.

maar er zit geen marketing naampje omheen en ze geven geen geld aan publishers om die zo ver te krijgen dat ze developers dwingen om nvidia tools te gebruiken!

[Reactie gewijzigd door Countess op 26 oktober 2015 16:40]

Tja, als de uitgevers toch voor Nvidia spul kiezen dan zal daar wel een reden voor zijn heh.. zoals die mooie marketing naampjes of die zak met geld ;)
ja. en dus niet de technische redenen, of omdat het goed voor de game is, of omdat het goed voor de industry is. of omdat de developers dat willen gebruiken.

dat zouden de juiste redenen zijn om voor iets te kiezen. en niet een zak geld voor iemand hoger op.
Ooit gehoort van VHS vs. Betamax?

Het is niet altijd de betere techniek die succesvol wordt. ;)
Ik koop bewust geen brand specifieke hardware of software, daar vallen zowel geoptimaliseerde games voor merk x onder als consoles op zichzelf. Consoles zijn wel het prototype voorbeeld van wat merkbinding doet.

Begrijp me niet verkeerd, merk gebonden spullen zijn vaak best leuk in theorie... totdat een merk een monopoly positie met zulke praktijken heeft bemachtigd. Dan ineens is er geen keus meer met als gevolg keus beperking, hoge prijzen en vaak ineens mindere kwaliteit.

Gewoon verstandig consumenten gedrag dus.
Er ligt een flinke zak geld bij Nvidia klaar voor AAA games om gameworks te ondersteunen.
Het is eigenlijk het zelfde als voorheen toen games "Nvidia, the way it's meant to played" hadden.
AMD doet het zelfde, maar in mindere mate. Zie DICE games, daar word AMD gepushed.
AMD's marketing-budget is uiteraard kleiner, dus zie je minder games met AMD focus.

Uiteindelijk is het natuurlijk niets nieuws, en hadden we dit 19 jaar geleden al met 3Dfx en Glide.

[Reactie gewijzigd door unfor op 26 oktober 2015 12:28]

Ook op mijn internet pc met Nvidia vind ik the Witcher III al zwaar op full hd met alles op zijn max.
Dan moet ik ook 2 videokaarten gebruiken voor harworks en een beetje fps te halen.

Verkoopt die game developer dan ook niet minder games als mensen met een AMD kaart deze niet kopen?
Fallout 4 zal verkopen als zoete broodjes ;)
Dat zal best maar neemt niet weg dat de verkopen hoger zouden kunnen zijn ofso ;)
Ik betwijfel het. Het is niet dat de game niet zal werken op AMD kaarten ofzo.
Zolang je deze effecten niet gebruikt valt het verschil tussen AMD en Nvidia echt wel mee. Ik zie in TW3 AMD niet slecht presteren in benchmarks bijvoorbeeld.

Het zou pas echt een probleem worden als je die Gameworks gerelateerde zaken niet uit kan zetten, want ik ben het wel met je eens dat het (ook op Nvidia kaarten) veel te veel FPS kost voor wat je krijgt.

Daarnaast gebeurt hetzelfde (maar dan een extreme variant) met consoles, namelijk exclusives. Het verschil is dat je deze games (met de Gameworks effecten uit) prima kunt spelen op AMD kaarten.

[Reactie gewijzigd door !mark op 26 oktober 2015 13:00]

Wat mij ontzettend irriteert aan dingen als Gameworks is dat het verbeteringen brengt die mogelijk zijn op alle hardware, maar het dan toch exclusief maakt voor één soort hardware (in dit geval die van Nvidia).

Inderdaad, gameworks heeft mooie effecten. Als voorbeeld noem ik hier Metro: Last Light. Met Nvidia Gameworks zijn er ontzettend veel particle-effecten, vonken die weerkaatsen op muren en de vloer, mist en rook dat dynamisch is, stof en andere rommel hoopt zich op, voorwerpen exploderen vele malen dynamischer wat ook weer zorgt voor meer troep dat heen en weer vliegt: prachtig. Op AMD kaarten zorgden deze effecten er echter voor dat je na 10 seconden een framerate van onder de 20FPS bereikte.

Nu hebben ze Metro: Last light REDUX uitgebracht en warempel: Alle effecten werken vlekkeloos op een AMD kaart! Ik heb dit meerdere keren moeten checken om er zeker van te zijn, maar alle effecten die voorheen alleen op NVidia fatsoenlijk werkten, worden nu prima uitgevoerd zonder een Nvidia kaart te hebben. Waarschijnlijk had Nvidia voor Metro: Last Light een flinke zak geld neergelegd, maar vonden ze dat bij de REDUX versie niet meer nodig, en toen hebben de ontwikkelaars de effecten geoptimaliseerd voor CPU's.

DIT is waarom ik gameworks niks vind toevoegen. Mooiere effecten is mooi, maar zeker in dit voorbeeld worden effecten die gewoon prima in het spel zelf in te bouwen zijn en op elke hardware even goed kunnen werken appart genomen en geoptimaliseerd voor één soort hardware. Nvidia kaarten kunnen zo niet méér dan AMD kaarten, maar deze praktijken zorgen er juist voor dat er bij de concurent mínder is. Dat is geen ontwikkeling of vooruitgang, dat is puur en alleen het tegenwerken van je concurrentie, en daar heeft eigenlijk niemand wat aan.
Enerzijds vind ik het een rotstreek van Nvidia, anderzijds snap ik het en moet AMD zelf maar met iets soortgelijks komen. Toch lijkt dit me alles behalve een wenselijke situatie voor de consument, die is er alleen maar de dupe van. Zo word je gestuurd richting het groene kamp, en hoewel dat natuurlijk is wat Nvidia wil, betreur ik het toch.

Maar, toch ben ik benieuwd naar de effecten :+
AMD doet wel iets soortgelijks, TressFX is de bekendste geloof ik. Alleen AMD deelt gewoon de source code met nvidia. Zodat ervoor geoptimaliseerd kan worden. Bij de tomb raider release draaide het in eerste instantie niet geweldig op nvidia, maar na wat driver updates wel.

Daarnaast deed AMD mantle wat nu in Vulkan overgaat en DX12 is er grotendeels op gebaseerd. AMD helpt games sneller te worden. Nvidia gameworks maakt games trager, in de hoop dat je dan nieuwe videokaarten koopt.

Al dat Nvidia GameWorks is closed source. AMD krijgt de source code niet te zien. Het is hetzelfde geintje als Nvidia Physx.

NVidia is gewoon een naar bedrijf die je als consument niet moet volgen. Anders zitten we straks met een intel/amd situatie.
lariekoek.
Ik draai nog altijd op 14.8 dat zijn dus drivers van augustus 2014 en alle games werken perfect op mijn 7970 OC en ik kan bijna alles op max settings draaien.

Je zit nog vast in het radeon 9800 tijdperk.
DX12 is niet 3 jaar in ontwikkeling geweest met het idee low metal... Mantle heeft die markt opengebroken.
Echt bullshit, je kunt niet ff snel een hele api in elkaar flanzen in zo'n korte tijd om dicht bij de hardware te kunnen gebruiken.. DX12 was al vanaf het begin dat het dichter bij de hardware moest, dat kwam gewoon vanaf de gamedevelopers en MS had geluisterd.
Niet moeilijk hoor. Mantle code kopiëren en het DX12 noemen :)
DX12 komt van de Xbox One af. Er is best wat overleg en samenwerking geweest tussen AMD en MS op zowel Mantle als DX12. Maar ze staan wel geheel los van elkaar. Plus het verandert er nix aan dat MS directx al sinds de eerste Xbox voornamelijk daarop ontwikkeld en later richting de PC brengt.

DX11 komt voor een groot deel van de Xbox360 af, en veel DX10 komt van de Xbox af.
In Tomb Raider zit een soortgelijk ATI/AMD effect dus die doen het ook wel als ze de kans krijgen.
De gamer heeft er geen drol aan, effectief. Het gamelandschap is er veel meer bij gebaat als ze dat soort zaken gewoon in standaarden gieten die op beide kaarten te gebruiken zijn.
Je bedoelt zoals TressFX 1.0 (de versie in Tomb Raider) gewoon via DirectCompute liep en inmiddels ook via OpenCL kan draaien?

De reden voor het gezeur om TressFX in TR was dat Nvidia de GPGPU kracht niet had. GK104 hield met pijn en moeite GF100/GF110 bij, omdat Nvidia het niet voor elkaar kreeg om in een (voor hun doen) kleine chip ook nog flink wat compute kracht te persen. Dat is iets heel anders dan met Gameworks, waar het op AMD kaarten veelal niet versneld wordt omdat Nvidia dat niet toe laat. Het is niet zo dat AMD kaarten niet in staat zijn deze effecten te produceren (sterker nog, kans is groot dat AMD in sommige gevallen sneller zou zijn), Nvidia laat het gewoon niet toe, met als gevolg dat het op de CPU gebeurt.

Bekijk TressFX eens op GK110 of GM200 en je zult zien dat Nvidia gewoon mee kan. En dat is dan ook nog de eerste versie, TressFX is inmiddels een stuk efficiënter geworden.
Aha dus ik kan toch beter voor een upgrade gaan uit de Nvidia hoek

@Hieronder: Jullie reacties spreken boekdelen. Het is jammer dat het zo is. Ik ben het ook volledig met jullie eens. De GPU markt moet nodig weer open gebroken worden.

[Reactie gewijzigd door ocwil op 26 oktober 2015 10:29]

Of juist het groene kamp boycotten omdat dit de markt verziekt. Zoals je zelf al aangeeft wil je nu liever voor een Nvidia kaart gaan terwijl deze dus helemaal niet beter (hoeft te zijn) is.

Ik vraag mij dan ook af wanneer Nvidia aan monopolie regelgeving moet gaan voldoen, ze hebben immers al rond de 80% van het hogere segment in handen. Of vallen de iGPUs hier ook onder en zorgt dit ervoor dat ze nu een kleiner marktaandeel hebben?

Persoonlijk ga ik nu liever voor AMD en dan is mijn keuze nu zelfs gemaakt op software gebied, ik moet er namelijk niet aan denken om de drivers iedere keer verplicht te moeten updaten met Gforce experience. Ook al dit gamework gezeur zorgt ervoor dat ik liever heb dat dit bedrijf de markt verlaat of in ieder geval een andere richting in slaat, dit is namelijk beter voor de consument en spel ontwikkelaars.

Edit: Sterker nog, Nvidia zorgde ervoor dat haar eigen kaarten ook niet lekker werkten met gameworks. De 780 TI had net zoveel last van hairworks als AMD kaarten. De enige reeks die er 'minder' last van had was de 900 reeks van Nvidia. Dit betekent dat je alleen beter uit bent door ieder jaar de nieuwste Nvidia kaart te kopen (en dat vind ik echt werkelijk nergens op slaan).

[Reactie gewijzigd door Rifleshader op 26 oktober 2015 10:24]

Ben het er helemaal mee eens dat die praktijken van nVidia moeten stoppen. De gamedevelopers zouden verboden moeten worden om GameWorks in hun games te implementeren. Ze moeten zelf zorgen voor de betere grafische effecten van bijv. haar etc. en dit niet aannemen van nVidia + een grote zak geld. Maar dat zullen ze niet doen natuurlijk want de games worden klakkeloos geport van de consoles zonder er betere grafische effecten aan toe te voegen. De developers willen daar geen tijd en geld in steken want het levert hen namelijk weinig op door de piraterij op de pc-markt.

Het gevolg ervan is dat mensen met een AMD-kaart niet kunnen genieten van de betere graphics en het spel niet goed kunnen draaien. Dat heeft als gevolg dat mensen meer en meer nVidia -kaarten gaan kopen en AMD volledig uit de markt gedrukt wordt. Dit is een geval van oneerlijke concurrentie en mag eindelijk eens door bevoegde instanties onderzocht worden want het stinkt..

Met de komende DirectX12 games koop je toch beter een amd-kaart omdat ze beter zijn in asynchronous computing en daar gaat GameWorks niets aan veranderen. :)

[Reactie gewijzigd door Fredi op 27 oktober 2015 01:08]

Ik heb op het moment een R9 280x en bij The Witcher 3 en Arkham Knight heb ik geen enkele problemen ondervonden. Uiteraard ben ik maar 1 gebruiker, maar ik bedoel hier mee te zeggen dat je gelijk hebt. Nvidia is echt niet beter dan AMD. Ze zijn populairder, en dat is het.

AMD zou gewoon hetzelfde moeten doen (speciale software ontwikkelen) en dit goedkoper aanbieden aan game makers totdat Nvidia besluit de technologie toch te delen voor optimalisatie. Hoe dit niet tegen de wet is, is mij een raadsel. Ondertussen krijgt Google een boete van een paar miljoen voor het adverteren van hun eigen software op hun eigen zoekmachine, maar exclusieve software met een dik Nvidia logo in het opties menu van elk spel is schijnbaar geen probleem.
Omdat de europarlementariers hier geen verstand van hebben
Ik zie liever dat ze het allebei niet doen, die exclusieve bende.
En dan heb ik nog wel de 970 en zit dus voornamelijk aan de 'goeie' kant van features.

Zie tombraider exclusiviteit op xbox, ik ben totaal niet geneigd om over een jaar 60 piek te betalen voor een spel die al een jaar uit is op een ander platform.
Een tientje kunnen ze krijgen en anders download ik hem wel.

Maar aan de andere kant, ik zet standaard nvidia features uit, het kost teveel fps en het voegt voor mij niets toe aan het spel of de beleving.
Het is niet dat er opeens 20 hoofdstukken bij komen ofzo.
Daarom gebruik ik bijde, maar met mijn titan had ik ook de nodige framedrops.
Om deze reden maar een 2e titan aangeschaft om the Witcher III te kunnen spelen
Ik moet toegeven dat ik het aan de ene kant eens ben met de stelling welke hier word genoemd, maar aan de andere kant heb ik veel van deze issues absoluut niet ondervonden.

Ik heb the Witcher 3 in eerste instantie met een 280XROG gespeeld en dit ging zonder issues met alles op high en ultra, op full hd. Sowieso bijna geen framedrops en minimaal 35fps over the board. Echt totaal geen issues qua performance.

Daarna ben ik overgegaan naar een 980GTX en een triple setup. Ik heb the Witcher toen nogmaals erop gezet en op 5070(dacht ik) x 1080 met alles op ultra speelt het ook als een tierelier qua fps.

Als ik deze verschillen zie dan heb ik persoonlijk weer het idee dat die performance verschillen wel enigzins meevallen. Tuurlijk zullen veel AMD kaarten minder performance hebben dan de huidige generaties van Nvidia. AMD heeft er dan ook een kunst van gemaakt om zijn kaarten te rebranden en als je nu een mainstream kaart koopt van de huidige generatie....dan koop je eigenlijk een zelfde basis als 4 jaar geleden......

Dit is voor mij dan ook zeker een reden om te zeggen dat AMD misschien eens wakker geschud moet worden en met meer innovation moet komen. Ik heb jaren lang met AMD gewerkt en het zijn altijd goede kaarten geweest, alleen bij de laatste 2 generaties hebben ze wat mij betreft een stap achteruit gedaan,

PS.
voor hen die het zich afvragen. Met de 980GTX zou het geen probleem om the witcher op full hd te spelen, met hairworks, en rond de 40-45fps te draaien op ultra.
Probeer zelf helaas ook altijd alles aan te zetten hairworks anti alizing en dan op full hd, bij mijne ging die ook naar 30 fps dan met single kaart.

Mischien moet ik eens dingen wat lager zetten.

Wel leuk een tripple setup dat moet ik ook eens gaan proberen. :*)
Ik probeer vaak gewoon AA of tesselation, etc. De wat zwaardere grafische opties 1 voor 1 een tandje lager te zetten. Het kan soms voorkomen dat het net een verkeerde combi is.

Bij sommige games komt het ook voor dat je met 1 optie net een tandje te hoog een drop krijgt naar 4 of 5 fps terwijl je met standje medium inpl van high ineens naar de 35 fps schiet.

Het is een optimalisatie plaatje wat gewoonweg niet altijd perfect werkt en daardoor is het het ten aller tijde waard om gewoon zelf te optimaliseren doormiddel van het aanpassen van de opties. Dit werkt in veel gevallen perfect.

Ook bij Fallout 4 verwacht ik persoonlijk niet anders.
Hoe het plaatje dan ook geschets word door de community, ik geloof niet dat Bethesda een legendarische serie als fallout zal verpesten door een kleine 30% van de hun spelers een dikke vinger te geven. No way.

Onthoud, NVidia mag dan wel contractueel hebben vastgelegd dat de inner workings niet met AMD mogen worden gedeeld. Het is nog steeds aan Bethesda om het te implementeren op hun manier. Dus ook om dit te omzeilen bij (bijvoorbeeld) het ontbreken van bepaalde drivers of .sdk's.
Het vastleggen van restricties hierop zou never nooit niet kunnen gezien dit nog steeds word gezien als misbruik van hun machtspositie en dan zou AMD hier allang werk van hebben gemaakt.
Ben benieuwd, eens kijken hoe de reviews van de game zijn.
Denk dat ik hem wel koop als die goed draait
Tja en met dat soort uitspraken trap je dus heel netjes in hun marketing. Juist om dit soort dingen zou ik niet voor een Nvidia kaart gaan. (alsnog; ik zou best een Nvidia kaart kopen, maar dat zal alleen het geval zijn indien ze ook daadwerkelijk een betere kaart hebben)
Of gewoon beiden gebruiken, ik heb AMD kaartjes in mijn game pc en Nvidia in mijn internet pc.
SLI en Crosfire
Serieus? Dus al die tijd zit ik maar op Fallout 4 te wachten om eerst te horen dat er maar één disk in de retail versie zit waar ik overigens wel mee kan leven maar nu wordt ik ook nog eens om het zo te zeggen genaaid met mn R9 290...
Dacht dat Bethesda een van de weinige was waar ik op kon rekenen maar zit serieus te overwegen om mn pre-order te annuleren. Ik heb toch niks aan game waarvan AMD niet eens de kans heeft gehad om volledig drivers ervoor te optimaliseren en ik de kans loop dat iemand met een Nvidia kaart lekker op de release kan genieten en ik constant met framedrops zit. Natuurlijk is dat niet zeker weten zo is maar de kans is er nu wel groter op geworden..
Meteen ook de reden waarom ik nooit op Nvidia kaarten over wil stappen, rotstreken en de ervaring voor anderen verpesten. AMD deelt tenminste nog recente ontwikkelingen zodat alle gamers een betere ervaring kunnen hebben
Absoluut, ik zal ook geen Nvidia kopen. Als AMD wordt weggeconcurreerd zal de vooruitgang stoppen en zullen de prijzen stijgen.
Precies de prijzen stijgen nu al jaarlijks.
Mijn gtx 285 heb ik 320 euro voor betaald en was destijds de snelste single gpu kaart en sneller als al het andere wat te krijgen was.
Nu ben je voor een 9800 ti gewoon 700 euro kwijt wat meer dan het dubbele is.

En dat heeft echt NIETS meer met inflatie of duurdere gebruikte onderdelen te maken
De gtx 285 had toe ook high end onderdelen.

Nvidia is van 910 miljoen aan gross profit over 2009 gestegen naar een gross profit van 2600 miljoen in 2014!
En dat terwijl de mobiele markt waar ze in gedoken zijn ze bakken met geld gekost heeft ipv opgeleverd heeft.

De sales zijn ook bij lange na niet zoveel gegroeid als het winst percentage.
Kortom ze zijn veel duurder geworden om meer winst te pakken.
In 2011/2012 toen ze over gingen naar een kleiner procede voor de fabricatie van gpu's en alles zoveel goedkoper zou worden omdat rendement per platter veel beter zou zijn maar uiteindelijk de kaarten alleen maar duurder werden hadden de ze een winstgroei van 45% over de rug van consumenten.
Ze hadden dus wel goedkoper kunnen worden maar brachten liever naar buiten dat de yield tegenviel.

Het is gewoon een evil bedrijf geworden.
Weer een schoolvoorbeeld van niet werkend kapitalisme en hebberigheid bij de rijksten.

Gewoon lekker in de schappen laten liggen deze producten.
6800 Ultra $600
7800 GTX $750
8800 Ultra $ 830
9800 GTX $299
GTX285 $380

Het is niet duurder geworden het fluctueert, AMD heeft ook een oplossing de Fury X die ¤700 kost net als de GTX 980 TI.
Je linked nu dollar prijzen die hoog lijken omdat ze stammen uit de tijd dat de euro veel meer waard was en de kaarten zelf dus alsnog onder de 400 euro zaten.

In euros is het plaatje een heel ander verhaal en krijg je een mooie stijgende lijn.

Ik heb de 7800 gtx ook gehad en heb daar echt niet meer dan 350 euro voor betaald.

Mijn 7970 is de eerste kaart waarbij ik meer dan 350 betaald heb en dat is 376 euro bij de mycom geweest destijds (feb 2012).
Het is dan ook meteen dankzij de ruk consoles meteen de kaart waar ik het langste mee gedaan heb tot nu toe.

Tot die kaart sloeg ik steeds 1 generatie over en heb dus best wat kaarten gehad ik ben alleen op gegeven moment overgestapt op AMD omdat nvidia ineens niet meer te betalen was.
Ik heb even niet veel tijd maar wat voorbeelden, de 6800 ultra was ¤500 toen hij in NL uitkwam tel daar wat inflatie bij op en je zit wel rond de ¤650 denk ik even snel
De R9 290X begon tussen met ¤500 en werd een stuk hoger door BC minining.
Ik kon alleen bij tweakers PW iets vinden over de prijzen van de HD7970 maar daar zie je toch tussen de ¤400-500 dus dan heb je toch wel een erg mazzeltje gehad.
Ik had toen twee HD7850 crossfire genomen ¤210 p/s was goedkoper dan een HD7970 met evenveel cores.
pricewatch: HIS HD7970 IceQ X² GHz Edition 3GB GDDR5

Binnen 2 maanden was hij rond de 375 en dat was wanneer ik hem dus kocht.

Waarom er in de pricewatch staat dat hij een periode weer duurder is snap ik niet maar hij is daarna altijd wel ergens verkrijgbaar geweest voor hetzelfde of minder.

Pricewatch mist dan ook veel winkels helaas die de moeite niet lijken te willen nemen om er in te staan.
Je wordt helemaal niet genaaid. Je zet gewoon die Gameworks effecten uit(die imho niet veel toevoegen) en hebt nergens last van.
Ja alleen hoeverre zit dit allemaal in de game geïntegreerd.
Ik zie het als een grote middelvinger van Bethesda. Het slaat toch nergens op dat je twee grafische kaarten met gelijke rekenkracht hebt maar de ene mooiere effecten met meer fps kan draaien omdat er Nvidia op staat. Dat is nogal opmerkelijk want ik koop net als Nvidia gebruikers de game en de grafische kaart voor de volle mep alleen ik krijg ineens minder voor mn geld. Straks heb ik de game eindelijk op 10 november en mag ik nog eens 2 weken extra wachten voordat de game soepel loopt.
Fallout 4 zal sowieso goed gaan verkopen en Bethesda zal er zat winst aan maken maar het misselijkmakende vind ik dat ze nog eens een extra zak met geld aannemen om even Nvidia met de grafische effecten en prestaties te laten knoeien.
Ik snap dat sommige mensen dit anders kunnen zien maar als je vanuit mijn visie echt om je fans geeft dan wil je iedereen die je game koopt dezelfde ervaring bieden en wijs je zo'n aanbod van Nvidia zonder twijfel af. Blijkbaar gaat het hun niet om de consument maar kiezen ze liever voor wat extra geld. Ik werk hier niet aan mee, ik vind het erg jammer want ik keek zo uit naar Fallout 4. Ik hoop dat Bethesda binnenkort eens inziet waar ze mee bezig is
Ik sluit me bij je mening aan, zit ook met een amd kaart en ben die-hard fallout fan. Bethesda heeft al goed laten afweten met elder scrolls online, denk niet dat ze verwacht hadden dat fallout 4 zo als een succes ontvangen zou worden bij publiek en gaan ze nu een tandje verder ( of NVIDIA zag een winstkansje en wil er nu iets van meepikken door die domme hairfx, wat overigens echt niet eens opvalt als je aan het spelen bent. witcher 3. heel af en toe merkte ik het wel bij de tussenfilmpjes, maar of het de fps drop waard is mwah... niet echt.)

Jammer dat nvidia zown lullo moet zijn om iets te releasen waar de concurrent ( en daarbij al zijn consumenten) de sjaak mee zijn. En het vervolgens gaat lopen spugen over al mijn favoriete games :P bah.
Het is natuurlijk typisch Nvidia, maar ook de studio mag er best op aangesproken worden, zij accepteren het namelijk dat Fallout 4 opties krijgt die alleen lekker draaien op Maxwell, terwijl het grootste deel van de markt een AMD, Intel of oudere Nvidia videokaart heeft.

Want ja, ook populaire kaarten als de GTX760, GTX770, GTX780 en de knap dure GTX780ti vinden gameworks niet zo leuk, zijn heel wat mensen met die kaarten, ook omdat Maxwell qua prijs/prestatie nou niet echt een enorme vooruitgang is.

Ook had AMD bij The Witcher 3 vrij snel een patch die het gebruik van tesselation beperkte, waardoor de performance omhoog knalde bij gebruik van Hairworks. En volgens mij hadden eigenaren van oudere Nvidia kaarten die optie niet.

Het is dus niet alleen slecht voor mensen met een AMD in hun systeem, ook als je een GTX7xx hebt, is GameWorks slecht nieuws.

En stem met je voeten, ben je het hier niet mee eens? Koop de game niet. Koop geen Nvidia kaarten.
Amd is voor de witcher 3 samen met CDPR rond de tafel gaan zitten als ik mijn niet vergis. Ook omdat een 780 (lees: kepler) niet meekon met een 960(lees:maxwell) hieruit zijn er toen aardig wat opties in het menu toegevoegd zoals hairworks lvls (ultra high medium low en off als ik mij niet vergis)

Nu draai ik het hier op een 780 alles ultra maar hairworks op high of medium. En zit ik rond de 40 - 50 fps.

[Reactie gewijzigd door Splitinfinitive op 26 oktober 2015 15:25]

Een 780 doet het zeker wel beter inmiddels, maar als ik kijk naar http://www.techpowerup.co...r/R9_390_PCS_Plus/23.html zie je toch dat de GTX780 nog steeds een probleem heeft.

Een R9 290 en een GTX780 horen redelijk gelijk te presteren, in TW3 presteert een R9 290 opeens 20% beter, en een 290x die een 780ti inhaalt is ook ietwat apart.

De GTX970 is in TW3 zelfs 40% sneller dan een GTX780, terwijl het verschil in andere games vaak een stuk kleiner is.
Komt omdat TW3 Direct Compute gebruikt waar GCN en Maxwel beter in zijn.

Heeft weinig met Gameworks te maken verder
En de laatste generatie maxwell is ook veel beter in tesselation daarom werkt die zo veel beter met hairworks.
In het originele artikel stond dacht ik dat alle works effecten optioneel waren. Dus AMD kaarten gaan hier niet persee slechter door lopen: AMD gebruikers zetten deze opties gewoon uit.

According to what we’re being told Fallout 4 will be a much closer affair to GTA V, a fairly well optimized title across the board with collaborative efforts from both Nvidia and AMD. It’s also said that the game will void of any vendor specific badging, so we’re not likely to see the game being paraded by Bethesda as having any GameWorks features. However, the effects will be selectable inside the game’s graphics settings menu.

[Reactie gewijzigd door Ardjee op 26 oktober 2015 10:22]

maar gaan reviewers deze settings ook uit zetten dan?

meestal niet namelijk. zeker nog niet op launchday.

en dat is precies waar nvidia op uit is. de laatste gameworks snufjes werken uitstekend op nvidia's laatste generatie kaart waardoor die de game prima draait, maar vaak zelfs 1 generatie daarachter (van nvidia zelf!) beduidend minder, waardoor nvidia's nieuwe kaarten veel sneller LIJKEN als hun vorige generatie, en ook sneller als die van AMD.

witcher 3 is een uitstekend voorbeeld. de launchday reviews gaven dramatische performance bij AMD en het werd in iedereens hoofd geprent dat AMD slecht presteert met nieuwe games.

het heeft weken tot maanden geduurd voor de meeste reviews waren hertest of aangepast zonder hairworks of met tesselation op 16x ipv de belachelijke 64x. maar dat beeld in het hoofd van mensen is daarmee nog niet weg.

[Reactie gewijzigd door Countess op 26 oktober 2015 12:07]

"Ontwikkelaars kunnen namelijk een licentie voor de implementatie van Nvidia Gameworks krijgen, maar mogen de code van de functies niet delen met AMD, waardoor driver-optimalisaties op die gebieden voor AMD niet mogelijk zijn. "


Als dit vaker gaat gebeuren, kan je misschien wel vendor specifieke games krijgen in de toekomst, welke alleen op een bepaald merk GPU gaan werken omdat de games specifiek op een bepaalde SDK worden geschreven.
Lijkt me alles behalve aantrekkelijk voor iemand die een computer wil kopen en alle games wil kunnen spelen.
Dat hebben we toch al jaren.. Games zijn al jaren niet gelijk op elke videokaart..

tja, en driveroptimalisaties kan AMD toch wel uitvoeren als ze willen, ze zullen immers toch moeten uitzoeken/debuggen waardoor het slechter draait..

Wat ik veel erger vind is juist al die driverspecifieke optimalisaties per spel, DAT zou niet nodig moeten zijn, en daar maken beide kampen zich schuldig aan..
Vind sommige reacties hier met betrekking tot nvidia's "praktijken" een beetje sneu, je kan deze features immers uitzetten.

Bethesda zal inderdaad wel geld hebben gevangen om gameworks te utiliseren, maar dit soort dingen gebeuren al heel lang op de gamemarkt en AMD/ATI was er vroeger ook niet vies van, heb hier zelfs nog games op het schap liggen die "made for AMD" zijn.
Dat Nvidia niet perse beter hoeft te zijn dan AMD klopt performance wise, Nvidia heeft gewoon betere driver support en leuke "gimmicks" als gameworks, dit is iets wat mij er van overtuigd Nvidia kaarten te halen. Vind het bij meeste games wel leuk uitpakken.

Dat Nvidia er voor kiest dat dit niet gedeeld mag worden met AMD lijkt me nogal wiedes, je gaat een concurrent die blijkbaar geen interesse meer heeft dit soort features te maken het toch niet makkelijk maken door je eigen werk te delen.

Persoonlijk kan ik niet wachten tot Fallout 4 uitkomt, ik zal me prima vermaken.
Dat Nvidia er voor kiest dat dit niet gedeeld mag worden met AMD lijkt me nogal wiedes, je gaat een concurrent die blijkbaar geen interesse meer heeft dit soort features te maken het toch niet makkelijk maken door je eigen werk te delen.
mag ik je er even op wijzen dat AMD bijvoorbeeld tressFX heeft gemaakt, en nvidia daarna pas met hairworkx is gekomen? en dat tressFX WEL een open standaard is en nvidia daarvoor WEL kan optimaliseren?

het enige dat AMD niet doet is de publishers een grote zak geld geven om de developers te dingen hun software te gebruiken.
Nvidia heeft gewoon betere driver support
je loop een aantal jaar achter.
en leuke "gimmicks" als gameworks
tot je niet meer de laatste generatie kaart hebt en alle 'gimmicks' van gameworks je ook enorm veel performance kosten.

nvidia naait je gewoon waar je bij staat. die 'gimmicks' staan standaard aan (en dus ook aan in elke review) en zijn zo gemaakt dat ze alleen echt goed presteren op nvidia's laatste generatie, waardoor die veel sneller lijkt als de oude dan dat ze eigenlijk zijn, en al helemaal als AMD.

nvidia maakt hun kaarten dus niet sneller, maar in plaats daarvan maken ze die van hunzelf en hun concurrent langzamer.

en DAT is pas echt sneu. en jij loopt het nog de verdedigen ook.

[Reactie gewijzigd door Countess op 26 oktober 2015 11:44]

Ik vraag me af heb jij letterlijk onomstotelijk bewijs dat Nvidia publishers een zakgeld geeft?
Een quote van een medewerker een gelekte mail of memo een fax het maakt niet, heb jij dat?

Nvidia heeft altijd rond de 300 man werken alleen al aan GameWorks ook altijd oproepbaar als de partner snel hulp nodig heeft, hoe past AMD in dit plaatje? moet Nvidia GameWorks open maken zodat AMD er van kan profiteren voor nop?
Moeten ze het samen opbrengen 50/50, guess what AMD kan dat niet eens betalen. Hoe ze het moeten doen weet ik ook niet maar de bal ligt bij AMD.
Het enige wat ik in jouw post lees is dat Nvidia opzettelijk er voor zorgt dat oudere kaarten slomer worden en nieuwere games daardoor niet kunnen draaien. Lees ik dit goed?

Ja?, mooi. Ik draai namelijk nogsteeds alle spellen op mijn gtx760 in een PCI-e x8 slot zonder grote problemen. Ja soms moet ik hier en daar een setting uitzetten maar over het algemeen speel ik games nog tussen high en ultra op 1080p met 50+fps (uitgezonderd echte framedrops)

Dus ik neem je post dan ook met een korreltje zout, lijkt me een beetje AMD fanboy.
Ps: ik "verdedig" nu dan wel Nvidia maar dat neemt niet weg dat ik nooit zou overwegen om een AMD kaart te halen, moet er wel wat innovatie komen. Dat tress-fx was namelijk wel leuk maar verder heb ik nog niet iets anders gezien.
Ja soms moet ik hier en daar een setting uitzetten
en dat is precies het punt. dat doen reviewers niet! zeker niet de reviews op launch day.

en dus lijkt elke keer opnieuw nvidia's nieuwste kaart veel sneller dan de oude kaarten in nieuwe games terwijl het verschil VEEL kleiner is op die ene (by default enabled) feature na.
Ja?, mooi
mooi? jij vind het mooi dat nvidia de boel nodeloos en doelbewust saboteert (door default 64x ipv de grafische gelijke 16x) voor zowel AMD als hun eigen klanten. je moet wel een HELE grote fanboy zijn om dit goed te praten... wat je quote hieronder helemaal mooi maakt.
lijkt me een beetje AMD fanboy.
zolang AMD open standaarden stimuleer en nvidia er alles aan doet om open standaarden te dwarsbomen zal ik altijd AMD kopen.
Dat tress-fx was namelijk wel leuk maar verder heb ik nog niet iets anders gezien.
dan moet je toch ECHT beter opletten. ondertussen zie ik nvidia niks doen behalve de markt dwarsbomen en double precission performance wegkappen om stroom en transistors te besparen en zo beter uit de verf te komen.
tja, alsof AMD je ook niet naait met elke nieuwe generatie kaart en driver ondersteuning..
onzin. AMD saboteert niet moedwillig de performance van oudere kaarten.
En er staat AMD niets in de weg om hun drivers ook te optimaliseren voor gamework
goed jij hebt het dus ECHT niet begrepen.

er staat ze ALLES in de weg! er is geen source code beschikbaar, de mogen pas heel laat gaan optimaliseren voor gameworks games(nvidia's contract houdt AMD gewoon buiten de deur), de binaries zijn obfuscated zodat reserse engineren niet te doen is. en oplossingen in de engine/game zijn VEEL efficienter EN kosten minder overhead EN veel minder geld om te maken dan die in drivers

en als AMD bijvoorbeeld alle games zou forceren op 16x tesselation om de hairworks performance op te lossen dan staat nvidia meteen op het aller grootste podium dat ze kunnen vinden om te schreeuwen dat AMD mindere qualiteit levert (ook al is het verschil door niemand te zien, en is de originele geforceerde 64x gewoon belachelijk)

[Reactie gewijzigd door Countess op 26 oktober 2015 13:11]

[...]
onzin. AMD saboteert niet moedwillig de performance van oudere kaarten.
[...]
en als AMD bijvoorbeeld alle games zou forceren op 16x tesselation om de hairworks performance op te lossen dan staat nvidia meteen op het aller grootste podium dat ze kunnen vinden om te schreeuwen dat AMD mindere qualiteit levert (ook al is het verschil door niemand te zien, en is de originele geforceerde 64x gewoon belachelijk)
Ahem. De 'AMD fix' was gewoon mosterd na de maaltijd (als het alleen aan AMD lag, was de hele update er niet gekomen) en uiteindelijk zijn denk ik zowel Nvidia als AMD gebruikers het erover eens dat er niet zo gek veel verschil te zien is, ook niet met x16 en zélfs niet als je het hele zootje uitzet.

Het is duidelijk dat je AMD minded bent, en dat is prima, maar hou het wel zuiver. AMD staat ook vooraan als het gaat om anti-reclame, ik denk dan bijvoorbeeld aan het '4GB is 4GB prentje' dat kort na het 3.5GB debacle op de 970 langs kwam. Dus dat argument gaat alvast niet op; beide partijen houden van een steek onder water. Niets mis mee, ik pak er altijd wat popcorn bij.

Nvidia saboteert ten slotte ook net zo min (of net zo veel) als AMD de performance op oudere kaarten. Dat Kepler minder goed presteert met Hairworks is evident, maar dat het moedwillig gesaboteerd is, is niet het geval. Aftersales support is uitstekend en Kepler was bij de release van TW3 al zo goed als uitontwikkeld, we hebben daar zeer behoorlijke performance winst gezien sinds de release van GK104/110. Maxwell is er gewoon beter toe in staat, het is een nieuwere arch, en het hebben van nieuwe features is al sinds de eerste videokaart een ongewijzigd feit. Het is hetzelfde als bepaalde feature levels ondersteunen van DX. Wél is het zo dat pas na aanhoudende kritiek over de gebrekkige Hairworks performance, er een patch voor kwam. En voila; precies dezelfde situatie als bij AMD.

Tot slot nog een leuk voorbeeld om eea nog wat beter en sterker in perspectief te zetten. Frame pacing. Een probleem uit 2012 waarin AMD duidelijk steken had laten vallen ten opzichte van Nvidia. Pas na aanhoudende kritiek van review/techsites over micro stutter en het inzichtelijk maken van zeer slechte 99th percentile FPS was AMD zo ver dat ze het gingen patchen. Nvidia had het al lange tijd op orde. De ENIGE reden dat AMD hier wat mee heeft gedaan is omdat ze er anders gigantische schade van hadden ondervonden; geen hond zou anders nog een kaart in Crossfire zetten.

Nu jij weer...

[Reactie gewijzigd door Vayra op 26 oktober 2015 15:35]

Dat Kepler minder goed presteert met Hairworks is evident, maar dat het moedwillig gesaboteerd is, is niet het geval.
nvidia koos BEWUST voor default 64x tesselation, terwijl dat NIKS oplevert, en ALLEEN goed werkt op de aller laatste nvidia kaarten. (en niet te vergeten, het was de zoveelste keer dat ze het zelfde trucje uithaalden!)

met 16x tesselation was de output exact het zelfde geweest maar had niemand er last van hebben gehad. niet oudere nvidia kaarten en AMD niet.

mag jij mij uitleggen hoe dat niet BEWUSTE sabotage is van hun EIGEN klanten, (en AMD)?

en dat dat LATER allemaal is aan te passen was niet heel relevant, want toen waren de reviews al gedaan, en had iedereen gezien hoe veel sneller nvidias nieuwste kaarten wel niet waren ivm de oude, terwijl het eigenlijke verschil vrij klein was op die ene feature na, en niet significant beter als AMD. maar dat is niet wat in het geheugen van mensen is achter gebleven.

wat frame pacing betreft dat had netter gekund bij AMD. maar daar zijn ze WEL snel mee aan het werk gegaan, al was het duidelijk ingewikkeld, maar het was ZEER ZEKER geen bewuste opzet of sabotage. en een probleem dat maar voor een subset van AMD's klanten gold.

[Reactie gewijzigd door Countess op 27 oktober 2015 09:16]

De tendens is steeds opnieuw hetzelfde.

Nvidia profileert zich als een heel sluw, en bewust bedrijf dat bovenop elke uiting in de pers zit, deze maximaal manipuleert en zichzelf er zo goed mogelijk laat uitkomen. Soms met een onderhands trucje. Volledig met je eens dat dit zo is.

AMD profileert zich als het bedrijf dat keer op keer steken laat vallen. Het is nooit bewust, behalve in de marketing, en er wordt vaak niet geleverd wat er wordt beloofd of features werken maar half of slecht. Frame pacing is het perfecte voorbeeld. Hoe kan het dat je gebruikers je moeten wijzen op stutter? Dan ben je wel héél blind voor de manco van je eigen product. Ook het volg-gedrag van 'quality of life' zaken als een Geforce Experience (niet dat ik daar blij van word, maar de leek wel) en Shadowplay spreekt boekdelen. AMD bedenkt het niet zelf, terwijl de GPU het makkelijk zou kunnen leveren. Allemaal draagt het niet bij aan het imago.

Legacy support is nog zo'n voorbeeld: Nvidia is sluw en neemt kaarten met hoge leeftijd nog steeds mee in de driver update notes, en AMD laat support gewoon vallen maar doet dat veel eerder en zichtbaarder. Eigenlijk doen de bedrijven bijna hetzelfde, maar toch denken we dat Nvidia veel langere support levert terwijl dit maar een minimaal percentage aan kosten voor ze oplevert.

Het resultaat is dus wel dat Nvidia elke strijd per definitie wint door de veel effectievere bedrijfscultuur. Dát is ook wat ik signaleer: als we Nvidia 'evil' noemen, dan is AMD 'oliedom'.

Beide bedrijven doen wat mij betreft onderaan de streep zaken die niet door de beugel kunnen. Maar Nvidia stelt als enige zeker dat het overleeft, en AMD laat dat keer op keer liggen.

[Reactie gewijzigd door Vayra op 27 oktober 2015 12:57]

onzin. AMD saboteert niet moedwillig de performance van oudere kaarten.
Heb je een bron waaruit blijkt dat Nvidia dit wel doet?

Dat een oudere generatie een bepaalde games een stuk langzamer is is op zich niet gek, als bepaalde nieuwe features niet volledig ondersteund worden of gewoon een stuk trager zijn.
standaard 64x tesselation kiezen terwijl dat NIKS oplevert ivm 16x en alleen hun laatste generatie kaarten dat goed aan kan is niet bewijs genoeg?

en niet te vergeten dat dat al de zoveelste keer was dat ze tesselation op een dergelijke manier hebben misbruikt.

[Reactie gewijzigd door Countess op 27 oktober 2015 09:18]

Volgens mij heb jij geen enkel idee hoe programmeren/closed source werkt. ^^

Iets laten werken, dat valt mee. Maar iets optimaal laten werken zonder source....ver geet het maar. Kijk maar bijvoorbeeld naar lg en samsung gsm. Ja de devs slagen er in om,de camera te laten werken in custom roms. Maar zonder het originele framework is de kwaliteit maar bedroevend. Er gebeurt heel wat in de drivers, het is een beetje een zwarte doos. Je stopt er wat in en er komt wat uit. Maar wat erin gebeurd, niemand een idee buiten de maker ervan.

Ps. Ik heb altijd amd gehad en nog nooit problemen gehad met drivers. Met mijn nvidia setje, is het heel wat anders. Daar is het elke keer bang upgraden en wachten wat er nu weer raar gaat doen.

Amd innoveert en nvidia rendeert imho
Nou, aangezien ik zelf in het verleden toch wel wat reverse enginering mbt development hebt gedaan en verder development mn werk is, valt het toch wel een beetje mee met wat voor idee ik heb hoe programeren/closed source werkt..

tja, wat jij beschrijft met jouw ervaring met nvidia heb ik dus in het verleden regelmatig gehad met AMD en juist met nvidia heb ik nu nergens last van.. Maar dat wil niet zeggen dat ik zomaar bij nvidia zou blijven..

En als jij denkt dat alleen AMD innoveert, dan ben je wel heel erg closeminded.. ook AMD koopt gewoon technieken in, net zoals nvidia ook weer technieken bedenkt..
Dua AMD koopt technieken en Nvidia bedenkt technieken?? Is dat wat je wilt zeggen?
Nee, Beiden bedenken EN kopen technieken in.. Lezen is blijkbaar nogal moeilijk voor je..
maar het kan er ook toe leiden dat de game slechter draait op AMD-videokaarten
Datzelfde geldt ook voor Nvidia kaarten. Die HairWorks in The Witcher 3 kon je al gauw 20 fps schelen.
Jep heb er speciaal een 2e titan bijgeplaatst zit nu tussen de 45 en 60 fps met alles op max bij full hd
als je niet de aller laatste generatie nvidia kaart had dan was de performance hit bij the witcher idd ook bij nvidia flink (maar minder als bij AMD)

het is ook gewoon nvidia die dus moedwillig hun eigen klanten een performance hit geeft als die niet elke generatie upgraden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True