Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 189 reacties

AMD heeft een knowledge-base-artikel gepubliceerd waarin een work-around wordt beschreven die de slechte grafische prestaties in de game The Witcher 3 moet verhelpen. Aan de beloofde nieuwe driver, die ook problemen met Project Cars moet oplossen, wordt nog gewerkt.

Volgens gamers heeft de Radeon-driver van AMD moeite met de hairworks-graphics in The Witcher 3: Wild Hunt. In een knowledge-base-artikel komt AMD met een tijdelijke fix voor het probleem. In de instellingen moet voor witcher3.exe de instelling 'maximum tessalation level' op een waarde van '8x' worden ingesteld.

Uit een korte test van Tweakers op een testsysteem blijkt deze fix inderdaad te werken. In plaats van een gemiddelde framerate van 43,3fps stijgt deze naar 68,2fps als het spel met de instellingen 'high' gespeeld wordt op een resolutie van 1920x1080 pixels.

AMD werkt nog steeds aan een nieuwe Radeon-driver met versienummer 15.5, die de problemen met The Witcher 3 definitief moet verhelpen. Deze driverversie moet ook problemen met Project Cars tot het verleden laten behoren. De driver moet nog deze week uitkomen, maar onduidelijk is of AMD dit gaat halen; het bedrijf zegt er nog hard aan te werken.

The Witcher 3 - 1920x1080 - High
VideokaartMinimum / Gemiddelde framerate in fps, hoger is beter
AMD R9 290X (AM3)
Tesselation 8x
*****
+
**
49,0 / 68,2
AMD R9 290X (AM3)
**
+
***
20,0 / 43,3
Moderatie-faq Wijzig weergave

Reacties (189)

Dit krijg je dus als je spellen ontwikkelt met Gameworks van NVIDIA, want die draaien slechter op AMD kaarten. Als NVIDIA zoals AMD hun technologie open zou stellen dan zou AMD makkelijk kunnen optimaliseren, maar dat gaat uiteraard niet door. Wie herinnert zich nog dat het water in Crysis 2 werd getessalate (ondanks dat het niet zichtbaar was) zodat NVIDIA kaarten beter presteren dan AMD kaarten? Ik vermijd Gameworks spellen als de pest... helaas want dit spel had ik anders best willen spelen.
Zoals hierboven al genoemd is, is het prima te spelen zonder hairworks.
Ik gebruik zelf een 290X en gebruik geen hairworks en gaat dikke prima :)
ja, maar de gameworks kan je toch gewoon uitzetten?.. wat is hier dan het probleem ?

ik zal het zonde vinden als je hierdoor een paar games gaat missen terwijl je de optie gewoon uit kan zetten en zoveel beter is die hairwork nou ook weer niet. De beste voorbeeld was nog van AMD met Tomb raider.
Gameworks is een pakket waarmee het spel ontwikkeld wordt, dat kan je niet "uitzetten", het zit meegebakken in de code van het spel.

Gameworks is een pakket van NVIDIA om het ontwikkelaars makkelijker te maken om een spel te ontwikkelen.
Het grote nadeel is dat met dit pakket AMD actief geweerd wordt, denk aan acties als het verbieden van optimalisaties voor AMD kaarten en trucjes om de game zwaarder te maken voor AMD zonder dat het grafisch iets toevoegt.

Als je het vergelijkt met AMD's gedrag snap je misschien ook meteen waarom ik nooit meer een NVIDIA product koop.
bij de witcher kan de feature die problemen geeft uit gezet worden ja, maar bij project cars bijvoorbeeld zit de nvidia physics engine in de game engine verwerkt en is dus niet uit te zetten. en alleen nvidia kan een deel van de berekeningen offloaden naar de GPU. voeg daarbij toe dat de nvidia phyhsics engine op de CPU gewoon ronduit slechte performance heeft en het feest is compleet.

die hairworks is trouwens ook mooi. AMD maakt tressFX, en geeft bij release de broncode vrij waardoor nvidia kan optimaliseren. en niet veel later komt nvidia met hun gesloten hairworks wat werkelijk erbarmelijk draait op AMD hardware, maar niks beter doet als tressFX.

echt waar wat een bagger bedrijf is nvidia. verziekt de game markt.
Dat weet ik niet, om deze reden koop ik eigenlijk alleen maar Nvidia, heeft gewoonweg een betere support voor de games. Ik heb ook een pc met een 7870 tahiti (jokercard) en de support bij AMD is ook om te huilen hoor, althans op gebied van drivers updates etc. Alleen catalyst is al een pijn om mee te werken.
Dan kan je nvidia actief gaan ontlopen om deze reden, maar ik denk dat je alleen jezelf daarmee hebt op dit moment.
En met de huidige prijzen zou ik niet weten waarom niet gewoon een nvidia, betere support op je kaart als op de games. (uiteraard zijn er ook weer games die beter presteren op een ati mja.. )
hoezo catalyst een pijn om mee te werken? HD7970 en nergens last van.

en nvidia niet mijden is waar je jezelf mee hebt op de lange termijn. dan beloon je ze namelijk voor hun marktverziekende gedrag. Als nvidia niet gedwongen wordt om hun praktijken aan te passen verzieken ze de gehele PC game markt en krijgen we straks 'nvidia only games' waar echt niemand op zit te wachten.

nu zou ik sowieso geen nvidia kopen, ook al zou ik ze niet mijden als de pest. over een paar weken komt de r9 390x uit en het lijkt er op (als de benchmarks kloppen) dat die voor veel minder geld de titan X gaat inmaken.
(uiteraard zijn er ook weer games die beter presteren op een ati mja.)
en bij geen een daarvan word nvidia actief tegengewerkt om voor die game te optimaliseren. dit in tegenstelling tot andersom.
en nvidia niet mijden is waar je jezelf mee hebt op de lange termijn. dan beloon je ze namelijk voor hun marktverziekende gedrag
Als je nu AMD koopt, beloon je ze voor hun inferieure implementatie van tessellation, wat de markt verziekt, omdat tessellation dan niet gebruikt kan worden op grote schaal.
Als nvidia niet gedwongen wordt om hun praktijken aan te passen verzieken ze de gehele PC game markt en krijgen we straks 'nvidia only games' waar echt niemand op zit te wachten.
Hoezo niet?
Er worden ook genoeg consoles verkocht, met 'console-only' games.
Ik denk dat het voor de gemiddelde gamer niets uitmaakt wat voor merk de hardware is, en of er uberhaupt keuze is, als de games maar goed zijn.
Als het verschil tussen concurrenten te groot wordt, dan is de zwakkere van de twee alleen maar een blok aan het been van de markt.
Ja dat is wat ik min of meer probeer te beschrijven.
Zelf kies ik voor gamen voor nvidia (ondanks dat ik nog een 7870 heb), het lijkt alsof dat gewoon beter draait, dan kan ik wel indien ik een nieuwe kaart nodig heb een ati pakken omdat nvidia niet zo lief is, maar waarom?

Uiteraard moeten we AMD houden, stel nvidia is nog maar de enige speler dan word het niet leuk, het beste zou zijn als er gewoon een totaal nieuwe speler bij gaat komen.
Uiteraard moeten we AMD houden
Als AMD bij hun volgende generatie GPUs *weer* het probleem van tessellation niet oplost, dan ben ik er wel klaar mee hoor. We kunnen niet eeuwig op het graphics-niveau van 2009 blijven hangen.

Ik denk dat de meesten er qua CPUs ook over denken.
AMD CPUs koop je niet voor een high-end game-systeem.
Als AMD gewoon niet mee kan komen met DX11-features, dan moeten de prijzen maar omlaag.
Als je nu AMD koopt, beloon je ze voor hun inferieure implementatie van tessellation, wat de markt verziekt, omdat tessellation dan niet gebruikt kan worden op grote schaal.
behalve dat er geen probleem is met tessellation!

nvidia moet echt ENORM overdreven hoeveelheden tessellation inbouwen die helemaal NIKS toevoegen vissueel om dat probleem voor AMD te CREňREN en het AMD moeilijk te maken.
zo veel dat ze er zelf ook last van hebben. zolang de hit bij AMD maar groter is doen ze het.

[Reactie gewijzigd door Countess op 22 mei 2015 13:17]

behalve dat er geen probleem is met tessellation!
Deze twee grafiekjes geven toch een wat ander beeld:
http://www.anandtech.com/...4690-and-i3-4360-tested/8
http://www.anandtech.com/...geforce-gtx-980-review/19

Zowel Intel als nVidia hebben het stukken makkelijker in Tessmark dan AMD.
ja met 64x tesselation dus.

dat is een STOMPZINNIGE hoeveelheid en precies wat ik dus bedoelde.

meer als 8 keer voegt al NIKS meer toe. met 64x staat je hele scherm vol met polygons die kleiner zijn als 1 pixel waar de gebruiker niks van KAN zien.

na 8x gaat de performance bij AMD idd harder naar beneden als bij nvidia maar zoals de game benchmarks uit je link duidelijk maken, dat is helemaal NERGENS terug te vinden in games. bij een aantal games gaat de performance bij nvidia zelfs juist harder achter uit als je de details opschroeft als bij AMD.

[Reactie gewijzigd door Countess op 22 mei 2015 13:50]

dat is een STOMPZINNIGE hoeveelheid en precies wat ik dus bedoelde.

meer als 8 keer voegt al NIKS meer toe. met 64x staat je hele scherm vol met polygons die kleiner zijn als 1 pixel waar de gebruiker niks van KAN zien.
Okee, blijkbaar snap je helemaal niks van tessellation, en wat die '64x' precies betekent.
Lees eerst dit maar eens: http://www.gamedev.net/pa...ssellation-in-depth-r3059

Zo stompzinnig is 64x dus helemaal niet. Anders had het ook nooit in zowel de D3D als de OpenGL API-specs gezeten.
Als je vrij grove control-meshes gebruikt (bv een hele vloer of muur met maar 2 triangles), dan is 64x zeker geen overbodige luxe, en levert dat zeker geen 'polygons kleiner dan 1 pixel' op.

Gewoon prima geldige use-case dus. Geen probleem als je hardware geen bottleneck heeft, maar gewoon een parallel geimplementeerde tessellator-stage.

[Reactie gewijzigd door Scalibq op 22 mei 2015 13:51]

Als je vrij grove control-meshes gebruikt (bv een hele vloer of muur met maar 2 triangles), dan is 64x zeker geen overbodige luxe, en levert dat zeker geen 'polygons kleiner dan 1 pixel' op.
maar zo wordt tesslation dus niet gebruikt in tressmark.

wat daar beschreven wordt zou het zelfde resultaat opleveren als tressmark op 4x of 8x, en zou ook geen bottleneck opleveren voor AMD.

[Reactie gewijzigd door Countess op 22 mei 2015 13:59]

maar zo wordt tesslation dus niet gebruikt in tressmark.
Dat maakt toch niet uit? Het is een synthetische benchmark. Het enige doel is om te meten hoe goed de tessellator pipeline presteert.

En daar zit dus een probleem bij AMD.
Bij Intel en nVidia is de implementatie parallel. Dus iedere input patch kan triangles genereren die naar iedere rasterizer en pixel pipeline gestuurd kan worden.
Bij AMD heb je maar een paar tessellators, per 'sectie' van de GPU. En je kunt dus niet vanuit de ene tessellator triangles naar de andere secties van de GPU sturen.
Worst case (bv dus een patch van 2 triangles voor een muur of vloer), kun je dus het hele ding maar met 1 sectie van je GPU renderen, waardoor je GPU-performance dus meteen met ordes van grootte in elkaar duikelt.

Dat valt verder niet goed te praten. Dit is gewoon niet zoals tessellation geimplementeerd zou moeten worden, want het is overduidelijk dat dit nooit efficient kan werken.
Hoe oneerlijk het ook klinkt, zo gaan die dingen. Consolen/grafische kaart makers nemen de edge door "samen te werken" (een hele boel geld aanbieden) om de spel aan hun eigen favor toe te laten developpen.

Er zijn nu altijd mensen die in de steek worden gelaten terwijl de andere groep af en toe van een beetje extra kunnen genieten dankzij de exclusiviteit. In het algemeen meestal een trade-off dat niet wordt geappreciŽerd door de meerderheid.
Er zijn nu altijd mensen die in de steek worden gelaten terwijl de andere groep af en toe van een beetje extra kunnen genieten dankzij de exclusiviteit.
dat zou nog iets zijn.... maar het is veel erger als dat . Nvidia incasseert regelmatig zelf een performance hits en vind dat helemaal niet erg zolang de hit bij AMD maar veel groter is.

de getessaleerde ocean onder de stad bij crysis 2 bijvoorbeeld die NIEMAND ooit ziet, of de haren op de hond in COD ghost waar echt een BELACHELIJKE hoeveelheid tessalation op zit. of de cape van batman waar zo veel tessalation op zat dat de polygons kleiner waren als de pixels op het scherm.

allemaal onnodige BS die visueel niks toevoegen en ook voor de klanten van nvidia negatieve gevolgen hebben, maar een grotere performance hit geven op AMD hardware en daarom voor nvidia acceptabel zijn.

ze komen hier alleen mee weg als ze dit soort dingen verborgen kunnen houden voor hun klanten. dus hoe meer mensen hier vanaf weten hoe beter.
het draait niet zozeer om hoe sterk de kaarten zijn, nvidia kijkt gewoon naar de technologieen die op AMD iets minder draaien, en voegt daar belachelijk veel van toe aan games, zonder enige reden, zelfs op plekken die NOOIT zichtbaar zijn, gewoon omdat ze weten dat AMD kaarten dan onderuitgaan, en zo lijken de Nvidia kaarten veel beter, maar in realiteit is het slechts 1 bepaald effect waarin de nvidia kaarten beter performen (in geval van batman en crysis2 tesselation)
in tegenstelling tot Nvidia doet AMD zo van die zwakke trukjes niet
hetzelfde was met Physx, waarbij de CPU-versie de compiler expliciet vertelde om een nieuwe instructieset(die performance zwaar kon verbeteren) NIET te gebruiken, maar in plaats daarvan een oudere instructie te gebruiken, die bij zowel door AMD als Intel al jaren lang afgekeurd/afgeraden was.
http://bit.ly/1R9ppku
sorry maar enkel en alleen met nvidia gameworks games heeft AMD problemen met tesselation die onvoldoende zou zijn.

en om dat te bereiken moet nVidia ENORME veel tesselation toepassen die NIKS toevoegt aan de game visueel, maar wel de performance bij AMD onderuit haalt. (en die van nvidia zelf ook, maar minder)

AMD heeft gewoon ruim voldoende tesselation performance voor nu en in de toekomst. er is alleen een problemen als nVidia die moedwillig creŽert ten nadelen van AMD EN hun eigen klanten.
Lees nog eens goed wat je zelf zegt... Het klinkt erg als "640K should be enough for anyone."
Het is duidelijk: jij wil alleen AMD-hardware, en performance vind je niet belangrijk. Games moeten maar minder features en details toepassen, zodat AMD-hardware ook mee kan komen, want AMD is het enige dat telt.

Het excuus van "niks toevoegen" telt niet... Ten eerste, hoe lang ga je dat excuus vol willen houden? De resoluties blijven omhoog gaan... Waar je '1 triangle per pixel' probeerde vol te houden toen we nog op 1080p zaten (wat overigens toen al niet waar was), is het een heel ander verhaal nu we 4k hebben.

Ten tweede, nVidia en Intel hardware kunnen WEL die tessellation aan. Dan moet AMD het ook gewoon kunnen. De technologie bestaat.
Behalve dat AMD kaarten geen problemen hebben met tesselation.

OK, 64x tesselation geeft brakke performance. Probleem is dat je 64x werkelijk noooooooit zou moeten nodighebben in eender welk spel, terwijl TW3 dit doodleuk doet waar het verschil en 8x en 16x tesselation al amper zichtbaar is. Resultaat? AMD kaarten presteren slechter, de meeste nvidia kaarten draaien ook brak: Enkel de nieuwste nvidia kaarten kunnen dit vlot draaien.

Equivalent zou zijn als AMD zou kijken naar welke features/instructies nvidia kaarten slechter doen dan AMD kaarten en dan aan developers zou vragen om net die instructies gigantisch overbodig veel aan te roepen. NIEMAND wordt daar beter van.

Maar laat me raden: Als AMD het doet is het evil, als nvidia doet is dat perfect acceptabel :z

[Reactie gewijzigd door boe2 op 22 mei 2015 13:39]

Behalve dat AMD kaarten geen problemen hebben met tesselation.

OK, 64x tesselation geeft brakke performance.
Wel een probleem dus.
Probleem is dat je 64x werkelijk noooooooit zou moeten nodighebben in eender welk spel
Natuurlijk wel, waarom zit het anders in de D3D/OGL spec?
Maar laat me raden: Als AMD het doet is het evil, als nvidia doet is dat perfect acceptabel :z
Ik geef zelfs een voorbeeld: de GeForce FX-tijd.
En toen kocht ik dus uitsluitend Radeon GPUs, en vertelde iedereen dat nVidia gewoon maar met een betere PS2.0-implementatie moest komen, omdat de GeForce FX een kansloos ontwerp was: http://hardforum.com/show...?p=1027478481&postcount=4
En toen kreeg ik de nVidia-fanboys over me heen. Fanboys zijn allemaal hetzelfde, gaan meteen in de aanval, de waarheid mag nooit gezegd worden.

[Reactie gewijzigd door Scalibq op 22 mei 2015 16:38]

Jij bent degene die de zeer dubieuze praktijken van nvidea met hand en tand probeert goed te praten...
Jij bent degene die de zeer dubieuze praktijken van nvidea met hand en tand probeert goed te praten...
Welke dubieze praktijken?
Ik zie alleen een game die tessellation gebruikt, en AMD-hardware die tegen een bottleneck aanloopt. Workaround: driver-hack om tessellation-factors kunstmatig laag te houden.
Leg mij eens uit wat hier dubieus is, behalve de driver-hack?
Het is en blijft typisch dat zoveel spellen (in eerste instantie) problemen geven met AMD kaarten. Nu valt er wel wat te zeggen van de (agressieve) manier waarop nVidia samenwerkt met developers, ze zorgen er wel voor dat gebruikers van nVidia kaarten de beste ervaring krijgen.

AMD zou ook nauwer samen kunnen werken met developers, echter kiezen zij er al jaren voor om dit niet te doen...
Er is een verschil tussen samenwerken en een hele grote zak geld neerleggen met als voorwaarde dat jouw proprietary software gebruikt moet worden en dat er absoluut niet geoptimaliseerd mag worden voor andere kaarten.
Dat klopt. Maar niets belet AMD om hetzelfde te doen. Niets verplicht een studio om die zak geld aan te nemen. En AMD doet het dus ook. Denk maar aan de Battlefield series of bijvoorbeeld Saints Row IV.
Het verschil tussen AMD en Nvidia is dat Nvidia het voor AMD veel moeilijker maakt. Bij AMD Gaming Evolved games als bf4 en need for speed presteert AMD wel beter, alleen Nvidia komt aardig dichtbij. Bij Nvidia Gameworks draait een spel veel en veel beter op Nvidia-kaarten dan op AMD-gpu's. Dit beschouw ik als oneerlijke concurrentie omdat ik vind dat alle spellen met welke gpu dan ook voldoende moet presteren voor zijn ruwe kracht. En nee ik ben geen AMD-fanboy.
Een andere uitleg kan natuurlijk zijn dat een game met specifieke AMD-optimalisaties zich niet zo goed kan onderscheiden omdat AMD niet zo veel specifieke dingen heeft waarin hun hardware zich kan onderscheiden van nVidia.
Terwijl dit omgekeerd wel het geval is (tessellation is een duidelijk voorbeeld waar nVidia met kop en schouders boven AMD uitsteekt).

Vergelijk het met CPUs... je kunt voor AMD FX CPUs optimaliseren tot je een ons weegt, maar Core i7s zijn gewoon een stuk sneller in veel taken.
Dat je voor een bepaald product optimaliseert, garandeert natuurlijk niet dat je daarmee ook significant sneller bent dan de concurrent. Dat hangt helemaal af van de mogelijkheden van die hardware.

[Reactie gewijzigd door Scalibq op 22 mei 2015 11:01]

Vergelijk het met CPUs... je kunt voor AMD FX CPUs optimaliseren tot je een ons weegt, maar Core i7s zijn gewoon een stuk sneller in veel taken.
Dat je voor een bepaald product optimaliseert, garandeert natuurlijk niet dat je daarmee ook significant sneller bent dan de concurrent. Dat hangt helemaal af van de mogelijkheden van die hardware.
Dan blijft nog mijn punt dat als een Nvdia gpu met de naam A 2x zo snel is als AMD gpu met de naam B, dat de prestaties hier in de buurt moeten blijven. En dan mag best de gpu A 2,5x zo snel zijn of 1,5x zo snel bij respectievelijk een AMD Gaming Evolved en een Nvidia gameworks titel. Maar dat A 4x zo snel is bij een Gameworks titel vind ik te ver gaan.
Dan blijft nog mijn punt dat als een Nvdia gpu met de naam A 2x zo snel is als AMD gpu met de naam B, dat de prestaties hier in de buurt moeten blijven. En dan mag best de gpu A 2,5x zo snel zijn of 1,5x zo snel bij respectievelijk een AMD Gaming Evolved en een Nvidia gameworks titel. Maar dat A 4x zo snel is bij een Gameworks titel vind ik te ver gaan.
Dat komt vooral omdat jij het veel te simplistisch bekijkt.
Een GPU is een complex systeem van vele verschillende onderdelen. Hoe dat precies in de praktijk presteert, hangt af van hoe de workload de verschillende onderdelen belast.
In dit specifieke geval loop je hard tegen de bottleneck aan van de niet-schaalbare implementatie van de tessellator bij AMD. De implementatie van nVidia is gewoon ruim twee keer zo snel in de praktijk.
Dus AMD *kan* niet in de buurt blijven. Ze moeten hun ontwerp aanpassen (zoals ik al sinds 2009 roep).
(tessellation is een duidelijk voorbeeld waar nVidia met kop en schouders boven AMD uitsteekt).
je bedoeld overdreven veel capaciteit daarvoor heeft, en dat ze dat (door middle van gameworks) misbruiken voor dingen waar het TOTAAL niet voor nodig is, op zo'n manier dat het zelfs voor hun eigen klanten negatieve gevolgen voor de performance heeft zonder visueel iets toe te voegen, enkel en alleen om AMD te zieken.
je bedoeld overdreven veel capaciteit daarvoor heeft
Nee, want ook Intel heeft veel meer capaciteit dan AMD in hun GPUs.
Als zelfs Intel het doet in hun low-end chips, dan is er blijkbaar geen goede reden om het niet te doen.
Bovendien zijn Intel en nVidia grotere spelers dan AMD, dus AMD zal zich gewoon moeten aanpassen aan de massa om in de race te blijven.
waar heb je het over intel heeft meer?

een hd5770 van 5 jaar geleden haalt nagenoeg 4 keer de performance van een hd4000 als je normale hoeveelheden gebruikt.

[Reactie gewijzigd door Countess op 22 mei 2015 13:38]

als je normale hoeveelheden gebruikt.
The devil is in the details.
Wat is 'normaal' volgens jou dan, want dat is puur subjectief natuurlijk? Je wekt sterk de indruk dat je dat puur baseert op hoeveel een AMD-GPU aankan, en daarbij negeer je het feit dat Intel en nVidia veel beter schaalbare tessellation hebben, dus voor die GPUs zou het punt 'normaal' heel ergens anders liggen, volgens jouw criteria.

[Reactie gewijzigd door Scalibq op 24 mei 2015 12:31]

oneens, het flinke zak geld gedeelte belet AMD daarvan. Daarnaast draaien gaming evolved games slechts beter op amd kaarten, bij de 2 voorbeelden in dit artikel valt daar niet meer over te spreken. Ze draaien op amd drivers gewoon ronduit klote.
Het probleem zit niet bij AMD mar bij nvidia...

het is deze laatste die ervoor zorgt/laat zorgen dat de andere het moeilijk heeft...

Als je een game hebt met het "optimized for amd' logo dan zal het spel inderdaad iets beter op amd kaarten lopen dan op nvidie kaarten, maar gelijkaardige kaarten van de concrrentie halen nog steeds prestaties die in de buurt komen; dat komt omdat amd de boel niet dicht-timmert wanneer ze zijn langsgeweest.
omgekeerd is het regelmatig wel zo; als je het nvidia-muntje ziet tollen zal je met een nvidia kaart wellicht de beste prestaties hebben; de kans is helaas ook groot da bepaalde functies zo zijn geimplementeerd dat ze ŗ la IE6 nvidia-specifieke functies gebruiken die helemaal geen del uitmaken van de standaard opengl / direct3d instructieset waardoor je voor diezelfde pracht en praal je met een niet-nvidia kaart veel meer werk moet verrichten.

ook in de opensource wereld is nvidia super populair (NOT) en doen ze hun uiterste best om alles zo goed mogelijk te documenteren (nog NOTTER); en daarom heeft Linux Torvalds (de uitvinder/schrijver van het linux besturingssysteem voor zij die hem niet kennen) een jaar of 3 geleden tijdens een presentatie/talk en pleine publique een mooi bedankwoordje aan nvidia gegeven...
de kans is helaas ook groot da bepaalde functies zo zijn geimplementeerd dat ze ŗ la IE6 nvidia-specifieke functies gebruiken die helemaal geen del uitmaken van de standaard opengl / direct3d instructieset waardoor je voor diezelfde pracht en praal je met een niet-nvidia kaart veel meer werk moet verrichten.
En bij AMD is dat niet het geval?
*mompelt iets over Mantle*
ook in de opensource wereld is nvidia super populair (NOT) en doen ze hun uiterste best om alles zo goed mogelijk te documenteren (nog NOTTER); en daarom heeft Linux Torvalds (de uitvinder/schrijver van het linux besturingssysteem voor zij die hem niet kennen) een jaar of 3 geleden tijdens een presentatie/talk en pleine publique een mooi bedankwoordje aan nvidia gegeven...
Torvalds snapt er niks van: https://scalibq.wordpress...18/voice-of-reason-quite/
en meer info: https://scalibq.wordpress...ux-the-dunning-kruger-os/

[Reactie gewijzigd door Scalibq op 22 mei 2015 14:18]

AMD heeft de optie voor nVidia om zich aan te sluiten bij Mantle anders open gelaten. Ze gaan alleen niet een nieuwe API schrijven voor nVidia eenvoudigweg omdat ze niet genoeg inzicht hebben in de architectuur van die kaarten.
nVidia heeft rustig gewacht op DirectX12 wat weer tot stand is gekomen naar goed voorbeeld van AMD met zijn Mantle.
AMD had ook de optie om samen met MS aan DX12 te werken, of om met Khronos aan OpenGL te werken.
In plaats daarvan gaan ze eerst games uitbrengen met een API die nog niet eens gestandaardiseerd is, laat staan open.
Waardoor Mantle-support in games dus AMD-only is en blijft.
Microsoft was niet gewillig een nieuwe DX versie uit te brengen voordat Mantle uit kwam. OpenGL is nu eenmaal niet een veel gebruikte API om het Windows platform en het ontwikkelen van een eigen (open) API heeft als voordeel dat je deze van de grond af kan opbouwen. Dit was nodig omdat zowel DX als OpenGL te ver van de hardware af staan voor wat AMD met Mantle wilde bereiken.
Daarnaast is er geen enkel spel dat enkel Mantle ondersteund (volgens mij), het is altijd een optional extra voor ontwikkelaars die de tijd hebben om het te implementeren (of een zak geld krijgen van AMD). Het sluit nVidia gebruikers niet uit van features, het biedt enkel betere performance op AMD kaarten.

Je kunt hier een lange discussie over hebben, maar AMD heeft altijd een veel meer open standard attitude gehad, nVidia is veel meer gesloten en probeert overal geld aan te verdienen. Niet dat dat noodzakelijk slecht is, het is uiteindelijk een business, maar voor gebruikers zitten er meer na- dan voordelen aan.

Om direct wat voorbeelden te noemen, G-Sync, PhysX, CUDA en SLI zijn allen gesloten technieken of technieken waarvoor licenties (of in geval van G-Sync een proprietaire module) moeten worden afgedragen, waar AMD de open varianten gebruikt, respectievelijk FreeSync, (AMD heeft geen Eigen physics engine), OpenCL en Crossfire.
Microsoft was niet gewillig een nieuwe DX versie uit te brengen voordat Mantle uit kwam.
Volgens AMD...
Ondertussen was Microsoft al met nVidia en Intel aan DX12 aan het werken.
Het sluit nVidia gebruikers niet uit van features, het biedt enkel betere performance op AMD kaarten.
En hoe is dat anders dan The Witcher 3?
AMD-gebruikers worden niet uitgesloten, nVidia-gebruikers hebben alleen betere performance.
Je kunt hier een lange discussie over hebben, maar AMD heeft altijd een veel meer open standard attitude gehad, nVidia is veel meer gesloten en probeert overal geld aan te verdienen.
Onzin. AMD roept harder dat ze zo open zijn.
nVidia is degene die samen met Microsoft en Khronos daadwerkelijk het meeste aan ontwikkeling gedaan heeft voor DX en OpenGL in de afgelopen jaren.
Zo heeft nVidia samen met Microsoft GLSL ontwikkeld, en nu DX12.
Verder heeft nVidia talloze OpenGL-extensies ontwikkeld, die nu tot de core behoren.
Ook indirect heeft nVidia veel invloed gehad. Door met Cuda te komen, zijn DirectCompute en OpenCL ontwikkeld, welke nVidia overigens ook prima ondersteund heeft.
Ik begrijp dat je ontzettend nVidia fanboy, of anti AMD bent.
Ik prober een beetje neutral in het midden te blijven, zowel AMD als nVidia hebben uiteraard veel betekend in de ontwikkeling van graphics. Toch, Mantle was een initiatief dat tot stand kwam omdat DX12 uitbleef en DX11 erg veel overhead geeft. Ik weet niet precies hoe dit met OpenGL is, maar ook daar zit je redelijk ver van de hardware af.

http://www.extremetech.co...e-and-destroy-amds-mantle

Ik zal niet ingaan op het specifieke geval van de Witcher 3, daar ben ik in eerste instantie ook niet op in gegaan. Games zijn eigenlijk altijd wel geoptimaliseerd voor de een of de ander.

En samen werken met bedrijven om iets toe te voegen (in het voordeel van je Eigen product) of het daadwerkelijk gebruiken van open standaarden en het niet vragen om licentie gelden zijn natuurlijk 2 verschillende dingen.

Je verwijst trouwens ook nog naar een artikel dat je zelf geschreven en gepost hebt. lekker betrouwbare bron dan :).

geloof wat je wilt trouwens, ik zie dat je erg hardnekkig bent in je denkbeelden, en dat mag ;).
omdat het doel van mantle (namelijk de ontwikkeling van dx12 en openGL beinvloeden en veranderen is geslaagd.
AMD had ook de optie om samen met MS aan DX12 te werken, of om met Khronos aan OpenGL te werken.
dat 2e is dus precies wat ze aan het doen zijn/gedaan hebben:
http://wccftech.com/vulka...ightest-parts-mantle-api/
Waardoor Mantle-support in games dus AMD-only is en blijft.
dit is jammer genoeg waar, maar dat maakt nu eigenlijk weinig meer uit, AMD heeft al aangegeven dat developpers zich moeten focussen op Vulkan en DX12, en dat Mantle gebruikt blijft worden voor 'internal research', het aantal games dat mantle ondersteunt is zeer klein, en draaien nog altijd perfect op DX11
dat 2e is dus precies wat ze aan het doen zijn/gedaan hebben:
http://wccftech.com/vulka...ightest-parts-mantle-api/
Pas nadat DX12 al in hun nek liep te hijgen, en het duidelijk was dat Mantle totaal ging floppen, omdat developers het alleen implementeren met een flinke zak geld van AMD.
Vind ik toch een stuk minder dan dat ze meteen Vulkan hadden ontwikkeld, en het meteen onder de vlag van Khronos was, en meteen open. Zoals het bv met Apple en OpenCL gedaan is.
Als ik jou was zou ik mij maar eens gaan inlezen waarom Mantle in het leven is geroepen.. Mantle is niet in het leven geroepen om nVidia te benadelen (dat doet het ook niet itt GameWorks) maar bedoeld om spelers te bevorderen. Het is niet iets om te laten zien van: kijk eens wat wij kunnen! maar om de industrie wakker te schudden dat DirX bijvoorbeeld te log is. Zie het resultaat wat DirX12 in performance voor non-12 kaarten moet gaan brengen! Mantle kun je ook niet implementeren in een spel zoals GameWorks. Mantle is namelijk geen feature (zoals PhysX) die nVidia kaarten een nadeel geven.
Mantle is opensource.

Kijk naar project cars, dat is gewoon pure treiterij voor de consument en AMD. Ook oudere kaarten van nVidia worden benadeeld zonder reden.
dat mantle amd-only is, komt omdat jou 'beloved' nvidie het weigert te implementeren;...
niet omdat amd het verbied of er geld voor vraagt ...

dat er op amd kaarten geen physx zit is omdat nvidia weigert amd toe te laten dit op amd kaarten te integreren, niet omdat amd het niet zou willen ...


kan je het verschil zien???? kom nu eens met je artikeltje (dat je zelf geschreven hebt) af om dit te weerleggen alsof nvidia de betere partij is ...
dat mantle amd-only is, komt omdat jou 'beloved' nvidie het weigert te implementeren;...
niet omdat amd het verbied of er geld voor vraagt ...
Hhet komt vooral omdat AMD Mantle niet open heeft gemaakt, waardoor niemand over de documentatie beschikt om het te implementeren.
dat er op amd kaarten geen physx zit is omdat nvidia weigert amd toe te laten dit op amd kaarten te integreren, niet omdat amd het niet zou willen ...
nVidia staat daar officieel ook voor open: https://web.archive.org/w...-support-to-amd--ati.html
Nvidia’s director of product PR for EMEA and India, Luciano Alibrandi, told Custom PC that ‘We are committed to an open PhysX platform that encourages innovation and participation,’ and added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’
Maar in beide gevallen is de verklaring erg simpel: je wil geen technologie steunen waar je concurrent de touwtjes in handen heeft. Alleen onafhankelijke, open standaarden, maken kans op ondersteuning door meerdere fabrikanten.

[Reactie gewijzigd door Scalibq op 23 mei 2015 19:48]

ben je weer bezig met je onzin? er is je al MEERDERE MALEN uitgelegd dat mantle NIET AMD only is van opzet.
'Van opzet'... interessante toevoeging.... die de doelpalen even een stuk verschuift...
jij bleef volhouden dat dat wel het geval moest zijn, maar dat zowel dx12 als openGL het zelfde kunnen wat mantle doet maar dan voor beide GPU's bewijst gewoon keihard dat je ongelijk had.
Nee, het bewijst het juist:
1) DX12 en Vulkan zijn niet 100% gelijk aan Mantle, juist die paar verschillen zijn de doorslag. AMD heeft ook zelf aangegeven dat ze met Mantle nog wat AMD-specifieke optimalisaties kunnen doen ten opzichte van DX12: http://www.techradar.com/...mantle-2-and-apus-1255575
Being generic means that it will never be perfectly optimized for a particular piece of hardware, where with Mantle we think we can do a better job.
2) Omdat DX12 en Vulkan er zijn, gaat AMD niet verder met Mantle, en maakt het dus ook niet open. Waardoor het dus definitief AMD-only blijft: https://community.amd.com...-and-the-future-of-mantle

[Reactie gewijzigd door Scalibq op 23 mei 2015 16:12]

dus jouw punt is dat omdat AMD al eerder op houdt met mantle als geplant, nog voor ze het officieel geleased hebben en dus nog voor ze er een open standaard van hebben gemaakt (dit is hun MO geweest met heel veel zo niet al hun open standaarden geweest), dat AMD daarom heeft gelogen.

en het feit dat AMD mantle practische heeft overgedragen aan project vulcan doet daar voor jouw natuurlijk niks aan af...

heeft AMD wat van je gestolen ofzo zeg? jesus.
Nee, het bewijst het juist:
1) DX12 en Vulkan zijn niet 100% gelijk aan Mantle, juist die paar verschillen zijn de doorslag. AMD heeft ook zelf aangegeven dat ze met Mantle nog wat AMD-specifieke optimalisaties kunnen doen ten opzichte van DX12: http://www.techradar.com/...mantle-2-and-apus-1255575
behalve dat het zo niet werkt.
DiretX12 is een stuk generieke software die nog steeds tussen driver en game zit. die software kan dus niet geoptimaliseerd worden voor de hardware.

bij mantle is die software er niet. er zijn maar 2 partijen, de driver maken (die optimaliseert voor zijn eigen hardware) en de game developer die dat doen voor de mantle API.)

hier zit dus geen Microsoft code tussen en daarom kan er meer en beter geoptimaliseerd worden.

[Reactie gewijzigd door Countess op 22 mei 2015 12:25]

dus jouw punt is dat omdat AMD al eerder op houdt met mantle als geplant, nog voor ze het officieel geleased hebben en dus nog voor ze er een open standaard van hebben gemaakt (dit is hun MO geweest met heel veel zo niet al hun open standaarden geweest), dat AMD daarom heeft gelogen.
Mijn punt is...
Feit 1: AMD heeft geroepen dat Mantle een open standaard is.
Feit 2: Mantle is niet open.
Feit 3: AMD zegt dat Mantle niet open gaat worden.

Conclusie: AMD heeft gelogen.
en het feit dat AMD mantle practische heeft overgedragen aan project vulcan doet daar voor jouw natuurlijk niks aan af...
Nee, want Vulkan is geen Mantle (Mantle games gaan niet werken op drivers met Vulkan-support, om maar wat te noemen), en Khronos is geen AMD.
Feit 1: AMD heeft geroepen dat Mantle een open standaard is.
fout. AMD heeft gezegd dat het een open standaard zou worden bij release (net als ze dat altijd hebben gedaan). mantle is nooit released geweest, enkel preview. nu wordt het niet meer gereleased omdat het niet meer nodig is.
Erm, ik neem aan dat je naar Mantle verwijst? Er is NIETS dat nVidia verhindert prestaties te verbeteren voor Mantle games. Helemaal niets: Mantle is geheel open source en kan op eender welke GPU werken.

GameWorks van nvidia echter, dat is een closed source blob, die niet simpelweg 'geoptimaliseerd' is voor nVidia, het is erger: het voegt nutteloze effecten toe, die performance voor zowel nVidia als AMD kaarten verlaagt, maar meer voor AMD dan voor nVidia. Wat er nu al meermaals is gebeurd, is dat GameWorks idioot hoge tesselation toevoegt, die noch door de gebruiker, nog door de dev op een lager niveau kan worden gezet (aan of uit, dat is de enige optie voor hun hairworks draak) . In the Witcher 3 is het zo dat het haar van gerald 64x wordt getesselate, wat in de praktijk neerkomt op dat er per pixels meer dan 10 polygonen aan haart worden gerenderd. Je kunt voor ultra-hoge settings gaan, maar dit is letterlijk onzichtbaar.
Een ander, nog achterlijker voorbeeld, was Crysis 2: daar weld water via tesselation gerenderd.... ONDER DE MAP. Er werd dus water gerenderd dat nooit zichtbaar was.

En waarom? Omdat nVidia kaarten dedicated tesselation cores hebben: de impact op algemene performance is bij AMD een stuk groter dan bij nVidia kaarten.

Je hebt wel volledig gelijk dat het voornamelijk de fout is van de developers dat ze in dit idiote gedoe meestappen: dit is enkel nadelig voor hun gebruiukers. En devs weten dat! ik denk echter dat dit soort idiote zetten een geval is van tech vs non-tech mensen: de bselissing om zo een wurgcontract aan te gaan met nVidia wordt meestal door een of ander managertje genomen zonder enige technische kennis: nVidia beidt aan het 1-2 miljoen te geven in 'steun', en verkoopt het aan die manager als een deal die gewoon 'dingen wat optimaliseert voor nVidia gebruikers!', terwijl het echt puur gaat om crippling van AMD gebruikers. Dat managertje met zijn master in economie en cursus team leading heeft echter geen bal verstand ervan, en naar de grote baas komt het natuurlijk over als dat hij anderhalf miljoen heeft binnengebracht, zonder dat er ook maar 1 game verkocht is.

En wie betaalt dat? Nog eens het dev team, die niets met de beslissing te maken heeft. Als de game lage scores krijgt, zien zij hun bonus verdwijnen. Zeker wanneer de commentaar is dat het spel technisch niet goed werkt.
Erm, ik neem aan dat je naar Mantle verwijst? Er is NIETS dat nVidia verhindert prestaties te verbeteren voor Mantle games. Helemaal niets: Mantle is geheel open source en kan op eender welke GPU werken.
Dat is niet waar.
Mantle is nog steeds gesloten: http://developer.amd.com/mantle/
AMD heeft ook zelf aangegeven dat ze geen SDK voor Mantle beschikbaar gaan maken, en alleen voor intern gebruik verder ermee gaan.
In plaats daarvan moet men focussen op DX12/Vulkan: https://community.amd.com...-and-the-future-of-mantle

Kortom, Mantle is een doodlopend spoor, en het heeft weinig zin voor nVidia of Intel om daar nu in te stappen.

Verder, beetje jammer dat niemand hier goed geinformeerd is. AMD is een verwerpelijk bedrijf, die hun klanten misleidt en bespeelt.
Ze hebben ooit iets van 'open' geroepen (niet 'open source' trouwens), en dat is blijven hangen. Maar ze hebben het nooit daadwerkelijk open gemaakt. Toch roept iedereen nog steeds dat het open is, zelfs open source. En ze vinden AMD zo geweldig omdat het bedrijf open standaarden en open source initiatieven zo goed steunt!
Het meest simpele argument: Als het open source is, waar is de source code dan?

[Reactie gewijzigd door Scalibq op 22 mei 2015 10:55]

jij bent echt weer op een anti-AMD rant zie ik.

het doel van mantle is al bereikt dus AMD houdt er mee op. de key features zijn overgeheveld naar project vulcan, en nu dus onder beheer van de Khronos groep.

dus hoe open wil je het hebben zou ik zeggen?
AMD is een verwerpelijk bedrijf, die hun klanten misleidt en bespeelt.
maak me maar wakker als ze het niveau van nVidia of Intel hebben bereikt. wat een gezwets zeg.
wel makkelijk om AMD zo af te kraken, AMD vond het gewoon de moeite niet meer om mantle verder te zetten, aangezien ze er eindelijk voor gezorgd hebben dat microsoft en Khronos hun API verbeteren
AMD heeft letterlijk de ganse source-code aan de khronos-group gegeven, en gezegt dat ze zoveel mochten gebruiken als ze wouden in OpenGL Next( vulkan)
zowel Intel, als Nvidia maken deel uit van de Khronos Group, en hebben dus ook toegang tot de source van mantle, het heeft nu gewoon geen zin meer om aan mantle te werken als er een Cross-platform open API komt die essentieel het zelfde doet
amd zei dat ze het gingen openen voor Intel en Nvidia, dit hebben ze dan ook gedaan, al is het in de vorm van Vulkan, amd heeft dus niks misleid, mensen hebben het gewoon verkeerd geinterpreteerd als 'mantle word open-source software'
ja ik ben het met je eens over open source, maar niet over het feit dat mantle niet open is,
Maar ze hebben het nooit daadwerkelijk open gemaakt.
buiten dat is je manier van reageren is ongeloofelijk kinderachtig
AMD is een verwerpelijk bedrijf, die hun klanten misleidt en bespeelt.
Als je nu AMD koopt, beloon je ze voor hun inferieure implementatie van tessellation, wat de markt verziekt, omdat tessellation dan niet gebruikt kan worden op grote schaal.
je kunt het moeilijk duidelijker maken dat je een blinde fanboy bent, want natuurlijk verziekt nVidia de markt niet door tesselation toe te voegen, op objecten onder de grond die nooit zichtbaar zijn, zelfs hun eigen klanten krijgen erdoor een zware performance hit, maar dat maakt nVidia klaarblijkelijk niet uit, zolang de performance hit bij AMD maar groter is
sorry, je gedrag is enorm kinderachtig en eenzijdig

[Reactie gewijzigd door jeroen7s op 22 mei 2015 12:59]

Noem je dit open dan? http://developer.amd.com/mantle/
zoals ik al zei, open voor Intel en nVidia, en dat is het via de Khronos Group
Ik ben dus compleet neutraal in deze. Het feit dat ik AMD's gedrag rond Mantle afkeur zegt niets over enige voorkeur voor nVidia.
nee daarom praat je de tesselation ondergrond wel goed, maar dat Mantle niet open-source is, ohh dat kan toch echt niet...
Het ligt echter niet aan AMD maar aan nVidia. Hier kun je lezen hoe nVidia actief AMD het leven moeilijk maakt. De code die nVidia maakt is closed source, in tegenstelling tot die van AMD. Daardoor is het veel moeilijker voor AMD om drivers te maken voor spellen met oa Hairworks omdat nVidia het verbiedt aan developers om code te delen met AMD.
Bij WatchDogs heeft nVidia bijvoorbeeld een tesselation sea onder de map geplaatst puur om AMD kaarten het lastiger te maken. Ze gaan zelfs zo ver dat ze er met code voor zorgen dat een GTX780ti opeens net zo traag is als een GTX960 in nieuwere games.

NVidia moet zich eens gaan gedragen en misschien wordt het tijd dat de EU bij hun een anti trust onderzoek doen.
Ze gaan zelfs zo ver dat ze er met code voor zorgen dat een GTX780ti opeens net zo traag is als een GTX960 in nieuwere games.

Heb je hier bewijs van? Dat zou ik namelijk wel eens willen zien.
Ik zou zo zeggen zie de reviews... Deze bijvoorbeeld, waar de oude 780 voorbijgelopen wordt door de 960, en de 290X totaal platgelopen wordt, terwijl die het normaal uitvecht met de 970...
De 960 zou normaal niet tegen de 770 opkunnen... en heeft totaal niks tegen de 290... Just saying.

[Reactie gewijzigd door FreezeXJ op 21 mei 2015 18:27]

Hij heeft het over de 780TI en de 960, niet over de 290X.

Jouw bron geeft aan dat de 780TI de 960 totaal platwals. De 960 komt richting de 780. Iets wat onverwacht is ja. Maar de 960 is de ene keer relatief veel sneller dan de andere. Naar gelang zijn bus en vRAM niet limiterend zijn. Hij heeft bijna even veel shader kracht al de 780. Dus ik snap werkelijk niet waarom iedereen zo verbaast is. Heeft niemand ergens eens een in depth review van maxwell gezocht voor te gaan ragen op fora...

De 970 heeft ~50% meer shader kracht als een 960 en als je de 970 met de 780 vergelijkt zit je op +20-40%. Dus hoe onverwacht is het dan dat een 960 de 780 kan matchen is een enkele game. Je moet voor de grap eens wat andere benches zoeken. Waar de 128bit/2GB wel een limiet is. Daar laat de 780 niets heel van de 960.

[Reactie gewijzigd door Thekilldevilhil op 21 mei 2015 18:12]

Ik zou zeggen lees de link die ik heb gepost en de comments in die thread.

Het heeft alleen betrekking op tesselation trouwens. Dat is door nVidia expres gesloopt voor andere kaarten in hun code die developers gebruiken bij oa HairWorks.

[Reactie gewijzigd door Eli3l op 22 mei 2015 23:56]

Alleen si tessellation sowieso een ontzettend sterk punt van nvidia gpus dus ik vind het maar een matig argument. Als nvidia express enorme hoeveelheden tessellation heeft gebruikt en Amd kan het daardoor niet bijbenen, wie zijn fout is dat dan?

Amd heeft al een "patch" uitgebracht due tessellation naar in brengt waardoor de game veel beter draait. Hiermee geven ze zelf impliciet al aan dat het niet nvidia per se is maar een zwak punt in hun gpus. Verder geeft dat nergens meer problemen in TW3 dus dat hele argument nvidia sloopt de boel vind ik eerder een hele zure gedachte van hele zure mensen.

[Reactie gewijzigd door Thekilldevilhil op 23 mei 2015 12:22]

Als je de thread nou eens zou lezen voor dat je antwoord. De AMD gpu's waren/zijn juist beter in tesselation zoals dat normaal gesproken gebruikt wordt en straks dus ook in DX12. nVidia maakt de code op zo een manier (en geeft deze ook niet vrij, wat AMD wel doet) dat AMD allemaal rare sprongen moet maken om het werkend te krijgen. Ik zou zeggen lees de thread op Reddit en volg de link daar naar een guru3d artikel. Heel informatief lees voer en een reden voor mij om met een grote boog om nVidia heen te lopen.
Uhrm wat? De tesselator van nvidia is al sinds de 400 serie stukken sterker dan die van AMD. Dat komt letterlijk uit elke tesselation test. En ook bij de 900 serie is dat weer zo. Dat is alles wat ik zei. Daarbij staat die thread op reddit echt vol emt misinformatie. Het is gewoon weer eens redenen zoeken om nvidia te haten.


Hier te zien:
http://wccftech.com/amd-r...lyst-whql-drivers-issued/

AMD neemt stappen (285 >290) maar is er nog niet.

http://www.guru3d.com/new...h-normal-performance.html

Het valt allemaal reuze mee.

Daarbij:"It seems that the performance trade-off with HairWorks enabled takes a huge toll specifically on AMD cards. However by decreasing tessellation you can get to very normal numbers."

De oorzaak daarvan is de ondermaatste tesselation units in AMD gpu's. Dat nvidia 0,0 aandacht aan AMD besteedt kan je ze moeilijk kwaad nemen. Het is een bedrijf, ze willen winst maken. Waarom moeten ze AMD helpen? De enige optie is TW3 niet kopen en CD red een mailtje sturen waarom.
Overigens wat wel leuk is:

" AMD users have a way of enjoying The Witcher 3: Wild Hunt with the Nvidia HairWorks feature enabled and actually getting better performance than GeForce users not using a Maxwell architecture Nvidia GPU. It seems a bit ironic but exciting nonetheless."

Oh boehoe, wat een problemen allemaal. Ik heb het net op mijn r9 270 getest, De performance is precies ik er verwacht afgaande op de benches van andere games en de positionering t.o.v. andere kaarten die ik in bezit heb. Welke de GTX660, 770, 970, 2x r9 270 en een HD7970 zijn.

Mensen moeten niet zo ontzettend zeuren om helemaal niets. Als je het alemaal zon probleem vind koop je toch neits van nvidia.

[Reactie gewijzigd door Thekilldevilhil op 23 mei 2015 16:18]

http://www.techpowerup.co...ysis/The_Witcher_3/3.html
http://www.guru3d.com/art...performance_review,6.html
Hier bewijs voor het tegenovergestelde. De performance ligt in de lijn der verwachting. De 780TI is relatief aan de 960 sneller als de settings/resolutie hoger wordt.

Ik ben dat broodje aap verhaal over TW3 en alle performance degraderende gel*l nou wel eens zat. Hij draait hier op FHD op medium op een 660... Misschien moeten mensen niet alles geloven wat er geroepen wordt.

[Reactie gewijzigd door Thekilldevilhil op 21 mei 2015 18:03]

Amd zegt dat nvidia expres inefficient codeert (bv. extreem veel tessalation van het haar) terwijl dat volgens amd verspilling is van rekenkracht en helemaal niet nodig is.
Nvidia kaarten zijn daar beter op toegerust dus daarom zijn de benchmarks vaak negatiever voor amd .
Tsja, denk nog eens goed na over wat je daar zegt...
AMD's kaarten zijn minder goed in tessellation dan die van nVidia, en AMD vindt dat er 'teveel' tessellation gebruikt wordt.
Natuurlijk roept AMD dat. Dat doen ze al ruim 5 jaar.
Ik had liever dat ze hun hardware hadden verbeterd, dan hadden we ook dat gezeur niet. Daar wordt iedereen beter van.
o god.... dus jij denkt dat het naar hell and back tesseleren van een ocean onder de stad in crysis 2 die NIEMAND ziet wel een doel dient?

of dat de haren op de hond van ghost werkelijk een shader van 6000 regels code nodig heeft?

of de cape van batman echt zo ver getesseleert moet worden dat de polygons kleiner zijn als de pixels van welk scherm dan ook?

NIEMAND heeft daar wat aan. OOK nvidia's eigen klanten niet. maar jij slikt het gewoon omdat het negatief is voor AMD.
o god.... dus jij denkt dat het naar hell and back tesseleren van een ocean onder de stad in crysis 2 die NIEMAND ziet wel een doel dient?
Dat is mijn punt helemaal niet.
Mijn punt is:
Als fabrikant A geen probleem heeft met workload X, en fabrikant B wel, dan moet fabrikant B dus aan de bak om hun hardware sneller te maken.

Sowieso is je argument nogal onzinnig.
Maar dat begrijp je misschien pas als je daadwerkelijk iets snapt van rendering, en de evolutie daarin.
Hoe we tegenwoordig renderen is compleet anders dan vroeger. Bepaalde dingen die we nu doen, *lijken* heel inefficient, vergeleken met vroeger. Neem bv een z-buffer... Je gaat dus iedere pixel rasterizen, en dan bepalen of je hem wel of niet ziet, en dan maar weggooien? Dan doe je een hoop onnodig werk dat niemand ziet!
Of backface culling pas NADAT je transform en projectie hebt gedaan? Maar dan heb je het misschien voor niets gedaan!

Ja, vroeger deden we dat anders. Maar tegenwoordig hebben we andere hardware en andere workloads, waardoor het vaak sneller is om gewoon bruteforce de triangles door de pipeline te gooien en de hardware het uit te laten zoeken, dan om eerst te bepalen wat je wel of niet ziet.

Denk daar eens goed over na. Als je nog vragen hebt (en die op een normale manier kunt stellen), dan beantwoord ik die graag.
en hier kun je lezen dat vrijwel iedere game broken de deur uit gaat. Ik geloof zelf dat Nvidia's GameWorks niet bedoelt is om AMD's prestaties onderuit te halen. Nvidia heeft er gewoon geen enkele baat bij om voor concurerende GPU's te optimaliseren. En het closed source houden van de GameWork code is ook hun goed recht. Waarom zou je je grootste concurent inkijk geven in de source code van een project waar je miljoenen in hebt geÔnvesteerd? Nvidia (en ook AMD) is geen liefdadigheidsinstelling, maar een bedrijf, dat net als ieder ander winst wilt maken. Liefst zo veel mogelijk in zo min mogelijk tijd.

Verder heeft WatchDogs geen tesselation onder de map, dat was crysis 2. WatchDogs loopt gewoon als stront, onafhankelijk van welke GPU of CPU je gebruikt.
Project CARS is een spel dat zeer zwaar steunt op physics en SMS heeft gekozen om daarvoor de Physx engine van nVidia te gebruiken, bij mijn weten 1 van de betere engines. Dat dit AMD kaarten zwaar benadeeld is zeer spijtig maar men heeft dan ook een spel willen maken zonder compromissen over de rijvaardigheid van de wagens te willen maken.

Het zijn nog altijd de developers die voor een technologie kiezen en die er eventueel voor kiezen om sponsoring van nVidia of AMD aan te nemen. Het exclusief optimaliseren voor 1 fabrikant is zeker geen nieuw gegeven en is iets wat beide partijen in het verleden gedaan hebben.

Het is dan ook niet aan nvidia om ineens hun code zomaar open te gaan gooien voor de concurentie. Als AMD er een probleem mee heeft moeten ze zelf met een antwoord komen door bijvoorbeeld een concurerende technologie in de markt te zetten die minstens even goed werkt en voor developers minstens even eenvoudig is om te implementeren.

Een anti trust onderzoek zal er ook niet komen. Om te beginnen is Intel nog altijd de grootste GPU fabrikant en is AMD nog altijd een groter bedrijf dan nVidia. Dit is gewoon marktwerking.
"een spel willen maken zonder compromissen over de rijvaardigheid van de wagens te willen maken."
Maar hiermee spreek jij jezelf tegen.. Want er wordt een compromie gemaakt.. een erg grote.. er wordt gezegt, als je een AMD kaart hebt heb je een slechtere ervaring.. Als je echt geen compromie had willen maken, gebruik je een physics engine die goed loopt onder bijde merken. In plaats van dat je een derde? of zelf al een vierde van de gamers benadeelt.. Wat uit eindelijk iedereen benadeelt.. Want als het slechter gaat met AMD... naja we zien het al bij Intel.. die doen ook niet echt de moeite...

AMD is zeker groter dan nVidia... maar niet op videokaart gebeid..
En natuurlijk Intel heeft een groot markt aandeel als het om videokaarten gaat. Maar op dit moment zitten ze nog lang niet in de High End markt..

Dus helaas al vind je AMD rot producten leveren.. Ze zijn voor de markt belangerijk..
HairWorks (stomme naam trouwens) is nu eenmaal ontwikkeld door Nvidia. Als je er optimaal gebruik van wil maken moet je dus voor het groene kamp gaan. Dit geldt ook voor Physx. AMD heeft weer andere foefjes. Overigens schijnt het ook behoorlijk zwaar voor Geforce kaarten te zijn en kan t uitzetten zo 10 fps schelen.
Hier scheelt het blijkbaar 25 fps, da's nog even een flink stuk meer.
10FPS op 20 scheelt meer dan 25fps op 100 dus zonder referentie zegt het weinig. Ik weet wel dat het bij mij TW3 onspeelbaar maakt op WQHD+high.
HairWorks kost mij op een 970 (1440P+semi-ultra) zo'n 20-25FPS. Met HairWorks haal ik gemiddeld 45FPS, terwijl ik zonder tussen de 65-70FPS haal.
Ik heb de zelfde opstelling en dezelfde resultaten. Hairworks is leuk maar de drop in framerate niet waard.
Het is met de Witcher 3 niet anders dan met andere spellen: Je moet als gebruiker zelf uitmaken waar je de balans wil neerleggen. Bij de eyecandy of bij de performance. Als het eerste belangrijk is en je kunt leven met een lagere framerate dan moet je daar het spel voor configureren en als het laatste het meest belangrijk is dan moet je de eyecandy opofferen.

Ik snap best dat iedereen het liefst beide wil hebben, maar als je niet wil investeren in betere hardware dan moet je offers brengen.

En ben nou eerlijk: is een hoge framerate bij de Witcher 3 extreem belangrijk? Is 45 FPS niet meer dan genoeg voor het spel. Het is niet echt een twitch shooter zover ik kan zien uit de gameplay video's, dus ik zou zeggen dat het spel met 45 FPS nog prima te spelen is.
30% van je framerate eraf voor fancy haren... Het is maar wat je nuttig vind.

Daarbij, als ik niet wil investeren in betere hardware? Ten eerste is er voor een hoop mensen een groot verschil tussen willen en kunnen. Ten tweede, de 970 toont niet een gebrek aan de wil om te investeren.

[Reactie gewijzigd door Thekilldevilhil op 22 mei 2015 13:05]

In dit geval is het 25 fps op 68 fps, dus het wordt zo'n 37% trager. Da's flink.
Physx is (in principe) niet door Nvidia ontwikkeld, maar opgekocht zodra het een beetje vaart begon te maken en vervolgens nvidia-only gemaakt. (Of CPU, maar dat komt nog niet in de buurt). En daarmee AMD buitenspel gezet. Een low-end Nvidia kaart naast je high-end AMD zetten puur voor Physx is een tijdje terug ook onmogelijk gemaakt door Nvidia.

Vies bedrijf dat Nvidia. En blijf het jammer vinden dat gamers dat allemaal al dan niet bewust blijven aanmoedigen.
Veel "domme"gamers lezen dit nieuws en denken dat AMD slechte drivers maakt.

Iets wat al lang niet meer zo is.

Overigens zullen vele spellen relatief goed op AMD draaien wanneer ze ports zijn van consoles, daar heeft AMD in ieder geval een kleine voorsprong.
Off-topic: de Linux drivers zijn nog steeds om te huilen. Zo ondersteunen ze niet altijd de nieuwste kernel en/of Xorg. Ook de performance valt nog vies tegen. Helaas is de AMD driver nog altijd beter dan de ATI.

Het wordt tijd dat de EU nVidia inderdaad gaat aanpakken. Het is absurd hoe NV - AMD 'eenvoudig' buitenspel kan zetten. In feite zeg je als game ontwikkelaar, koop een NV-kaart dan weet je zeker dat het (optimaal) werkt. Terwijl een AMD kaart evengoed of zelfs beter presteert (bus issues anyone?).

Ik hoop dat ze bij de EU (snel) wakker worden, bij de Intel-zaak vond/vind ik dat ze (nog) steeds te laat waren/zijn. :(
Ik als "domme" gamer baal er van als een videokaart in mijn computer niet lekker werkt. In mijn geval ervaarde ik problemen met win8.1 i.c.m. AMD's driver (catalyst control center)....of het de driver is of niet maakt mij niet uit....het werkte niet.....nu deze game niet lekker draait op een AMD290 kaart met wat voor reden dan ook en er een work around nodig is...tja of ze slechte drivers maken weet ik niet, wat ik wel weet uit ervaring is dat het allemaal niet lekker werkt. Sinds lange tijd heb ik met mijn "groene" gtx770 en 980m kaarten geen problemen met drivers en/of software. Just a feeling van een "domme" gamer.
True dat. Hoewel ik als enigszins meer pc nerd en Tweaker niet heel veel geef om perfecte compatibility moet ik zeggen dat Nvidia zijn zaakjes beter op orde heeft. Waar dit gevoel vandaan komt is denk ik een combi van goeie marketing en het snel uitbrengen van nieuwe drivers bij game releases.
Daarnaast gebruikt ik als professional ook graag Nvidia met hun CUDA processors
Of ze kunnen niet met de dev's samenwerken omdat ze een NDA sluiten met Nvidia waarin staat dat de dev's niet (of een later tijdstip) met AMDmogen werken.
Nvidia verstrekt ook the witcher 3 bij alle Titan X kaarten. Wat je schrijft klopt dan ook wel. Het zo moeilijk mogelijk maken van de concurrentie is Nvidia goed in. Het is die aggresieve marketing dat bij AMD ontbreekt.
AMD heeft geen alternatief voor de door nVidia aangeboden technologie en heeft geen geld meer om nog zwaar te investeren in game development. Het bedrijf staat gevaarlijk dicht bij de afgrond en dat bemoeilijkt de concurentiepositie.
Het is dan ook niet aan een GPU-fabrikant om game software technologie te gaan maken. Zoals we zien met Gameworks levert dit alleen negatieve gevolgen voor de klanten.
Volgens nVidia is er niemand anders die het doet, als zij het niet doen.
Dingen als physics zijn dermate specialistisch, zeker op het niveau van correcte simulatie van kleine details als haar, rook, vuur etc, dat dat niet iets is dat een game-ontwikkelaar zelf kan ontwikkelen.

Dus als nVidia het niet doet, dan doet niemand het. nVidia heeft nu eenmaal genoeg geld om te investeren in dergelijke technologie, en een groot team van gespecialiseerde software-ontwikkelaars/fysici hier fulltime aan te laten werken.

Ik denk dat nVidia daar wel een puntje heeft, want er zijn eigenlijk maar 2 populaire physics-libraries... PhysX van nVidia zelf, en Havok, van die andere gigant: Intel.
Er zijn geen game studios meer die hun eigen physics proberen te ontwikkelen, en ook geen andere spelers die (succesvol) ingestapt zijn in deze markt.
De drempel ligt gewoon te hoog.
Crytek, Source, Frostbite, id Tech, Chrome Engine (Call of Juarez, Dead Island, Dying Light), Dunia (Far Cry serie), RAGE (GTA4, GTA5, Read Dead Redemption), hebben hun eigen physics engine en er zijn tal van games die zelf een physics engine bouwen (al is dat in meeste gevallen een simpele physics engine). Al zal er in sommige games met deze engines af en toe ook wel PhysX gebruikt worden (vooral Chrome Engine door Dying Light en Dunia engine door Far Cry zijn een waarschijnlijke kandidaat voor PhysX gebruik).
Physx is ook maar opgekocht door Nvidia en verder opgebouwd. Het is sinds 2008 in handen van Nvidia.

Het lijkt eerder dat developers gestopt zijn met physics engines te bouwen omdat ze er eentje van Nvidia kregen met wat hulp.

Daarnaast is de cpu versie van Physx nu ook niet meteen iets om naar huis te schrijven. Blijf je enkel zitten met een gpu implementatie die echt nuttig zou kunnen zijn, maar dan enkel voor Nvidia gebruikers natuurlijk. O wee als er iemand anders nut aan heeft!

(Daarnaast maakt een goede physics engine niet veel uit als de devs alsnog niet weten hoe ze er mee om moeten springen, geldt even goed voor PhysX - de PhysX exclusieve physics in Borderlands waren om je ziek te lachen...)
(al is dat in meeste gevallen een simpele physics engine)
Fijn, dankjewel.
Nu even teruglezen naar wat ik zei:
zeker op het niveau van correcte simulatie van kleine details als haar, rook, vuur etc, dat dat niet iets is dat een game-ontwikkelaar zelf kan ontwikkelen.
Wel eens gehoord van een 'knee-jerk reaction'? Voortaan liever eerst even nadenken en rustig lezen voordat je reageert.
Heb je de rest ook gelezen of enkel daarop focusen? Misschien ook even nadenken voor je reageert.
Ik heb de rest gelezen, en geconcludeerd dat het 'butt-hurt' gezever is over PhysX, waar geen alternatief voor bestaat. Ik vond het niet de moeite waard om erop te reageren. Nog steeds niet.
Geen alternatief, buiten die zeven die ik opnoemde, Havok, en nog een handvol andere physics engines. Maar goed... Ignorance is bliss.
Geen alternatief, buiten die zeven die ik opnoemde, Havok, en nog een handvol andere physics engines. Maar goed... Ignorance is bliss.
Er is geen enkele andere physics-library die GPU-acceleratie toepast, bedoelde ik natuurlijk (en daarmee bepaalde effecten mogelijk maakt die op CPU te traag zouden zijn).
Er zijn wel andere physics-libraries, maar geen enkele die alles kan dat PhysX kan.
Wederom, beetje beter nadenken voordat je reageert.

[Reactie gewijzigd door Scalibq op 22 mei 2015 12:16]

Volgens nVidia is er niemand anders die het doet, als zij het niet doen.
Tuurlijk wel, zie mijn lijst.
Als je het specifiek over gpu had dan had je dat wel mogen vermelden.
Dingen als physics zijn dermate specialistisch, zeker op het niveau van correcte simulatie van kleine details als haar, rook, vuur etc, dat dat niet iets is dat een game-ontwikkelaar zelf kan ontwikkelen.
Tuurlijk wel, zie mijn lijst.
Dus als nVidia het niet doet, dan doet niemand het.
Right...
Ik denk dat nVidia daar wel een puntje heeft, want er zijn eigenlijk maar 2 populaire physics-libraries... PhysX van nVidia zelf, en Havok, van die andere gigant: Intel.
Er zijn geen game studios meer die hun eigen physics proberen te ontwikkelen,
Behalve iedereen in mijn lijst.
en ook geen andere spelers die (succesvol) ingestapt zijn in deze markt.
De drempel ligt gewoon te hoog.
Daar heb je gelijk in.

Wanneer je het over physics op de gpu hebt, dan doet inderdaad niemand anders dat, want zij willen dan ook dat hun engine op alle hardware kan, niet op een enkel merk.

Mijn punt blijft, het is niet iets wat een gpu fabrikant hoort te doen.

Beetje nadenken voor je zo'n uitspraken doet kan ook geen kwaad hoor. Krijg je lekker door Nvidia betaald om zo'n onzin uit te kramen? Of heb je beetje last van Stockholm syndroom?

Toevoeging: http://physxinfo.com/index.php?p=gam&f=gpu ook niet meteen een lijst om van achterover te vallen...

[Reactie gewijzigd door Nha op 22 mei 2015 12:28]

Als je het specifiek over gpu had dan had je dat wel mogen vermelden.
Dat was impliciet in mijn lijst van gedetailleerde physics-simulatie.
Dat jij de link niet weet te leggen, zegt meer over jouw gebrek aan kennis van de materie en de hoeveelheid GFLOPS die je tegen dergelijke situaties aan moet gooien.
Mijn punt blijft, het is niet iets wat een gpu fabrikant hoort te doen.
Waarom niet? Als niemand anders het doet, is het wel fijn als er een GPU-fabrikant is die in dat gat stapt.
Wanneer je het over physics op de gpu hebt, dan doet inderdaad niemand anders dat, want zij willen dan ook dat hun engine op alle hardware kan, niet op een enkel merk.
En dat kan niet met physics op de GPU, want?
Er bestaan geen GPGPU-APIs zoals OpenCL of DirectCompute, die op GPUs van alle merken werken?
Beetje beter nadenken, alsjeblieft!

[Reactie gewijzigd door Scalibq op 22 mei 2015 12:36]

was impliciet in mijn lijst van gedetailleerde physics-simulatie.
Hoe kan het impliciet zijn wanneer het nergens vermeld werd en wanneer de cpu implementatie van PhysX de meest gebruikte implementatie is?
En dat kan niet met physics op de GPU, want?
Er bestaan geen GPGPU-APIs zoals OpenCL of DirectCompute, die op GPUs van alle merken werken?
Wil jij nu gaan beweren dat enkel het almachtige Nvidia een kostenbaat vergelijking heeft opgesteld en zag dat het goed was? Zelfs Nvidia kaarten hebben last met Gameworks... Zelfs het optimaliseren voor eigen hardware lukt niet goed daar en dan wil jij gaan beweren dat Nvidia een enorme software guru is ineens?
Hoe kan het impliciet zijn wanneer het nergens vermeld werd en wanneer de cpu implementatie van PhysX de meest gebruikte implementatie is?
Omdat bepaalde effecten dus dermate veel processing-power nodig hebben dat ze niet haalbaar zijn op de CPU.
Daarom zijn dat soort effecten meestal uitgeschakeld als je PhysX in CPU-only modus gebruikt.
En ontbreken dat soort effecten vaak sowieso compleet bij andere CPU-only libs.
Wil jij nu gaan beweren dat enkel het almachtige Nvidia een kostenbaat vergelijking heeft opgesteld en zag dat het goed was?
Je springt wel erg van de hak op de tak. Waar wil je nu weer heen?
Jij beweerde dit:
Wanneer je het over physics op de gpu hebt, dan doet inderdaad niemand anders dat, want zij willen dan ook dat hun engine op alle hardware kan, niet op een enkel merk.
Met andere woorden: jij denkt dat physics op de GPU alleen op een merk-gebonden manier kunnen.
Ik geef aan dat dat niet het geval is, want er zijn twee GPGPU-APIs die vendor-agnostic zijn, waarmee je een physics-library op de GPU zou kunnen implementeren.

Er is alleen geen bedrijf die in dat gat is gestapt, omdat niemand (ook AMD niet) de resources heeft om een succesvolle physics-API uit de grond te stampen. nVidia en Intel hadden wel genoeg resources om PhysX/Havok uit te kopen, en vervolgens door te ontwikkelen.
Ik vrees dat de jaren dat AMD met verlies werkte de reden ervoor is. De markt dominantie van Nvidia & Intel op de GPU & CPU markt heeft AMD al verschillende keren tot verandering van hun model gedwongen.

En vaak hebben ze veel mensen buiten gesmeten tijdens die herstructureringen = veel kennis dat weg is. En om constant de games te helpen / optimaliseren ervoor moet je best wel wat mensen in dienst hebben. Dat is niet ťťn persoon dat dit effen allemaal oplost.

Als je ziet hoe hun CPU's onderdeden voor Intel's CPU op hun eigen video kaarten! Tot nu EINDELIJK MS hun drivers aanpast in DX12 voor betere multicore optimalisatie ( en AMD wint het meest daaruit waardoor hun CPU eindelijk op gelijk voet komen met Intel ).

Het probleem is dat AMD gewoon de macht niet heeft voor zaken te pushen. Mantle is een goed voorbeeld. Ondanks dat het al lang geleden uitkwam hebben maar ene paar games patchen gemaakt ervoor. De prestatie winst is enorm voor AMD's CPU ( dezelfde techniek word gebruikt in DX12 door MS nu ).

AMD heeft enorm veel verkoop via de console markt maar de marges zijn enorm klein. Er is ťťn reden waarom ze bij Nvidia niet overdreven treurig waren dat ze het contract niet kregen.

Ik kan me niet meer herinner hoe lang geleden dat het is, dat AMD/ATI nog deftig winst maakte.
Mantle was meer een showcase om MS en OpenGL wat meer te pushen naar betere API's. DX en OpenGL waren redelijk logge beesten van API's met enorme bergen ouderwetse meuk en rare workarounds (DX en OpenGL hadden net als AMD en Nvidia met hun drivers, tevens veel last van brakke developers). DX12 was al in ontwikkeling toen AMD met Mantle kwam. Makkelijkere/lichtere API betekend tevens makkelijkere/lichtere drivers.
AMD had nooit de intentie om met Mantle de GPU API markt over te nemen.

Oh en dat zowel Sony als MS voor AMD kozen heeft niets te maken met prijs oid. En Nvidia baalde er wel degelijk van. AMD is wat betrouwbaarder als partner en Nvidia wat minder

MS en Nvidia staan iig redelijk vijandig tegenover elkaar. Als MS Nvidia kan ontwijken om zaken mee te doen, doen ze dat :)
Ik denk niet dat Mantle simpelweg een showcase was. Daarvoor heeft het volgens mij te veel geld gekost. Ik denk dat vooral de soms tegenvallende prestaties (waarbij in uitzonderlijke gevallen de performantie zelfs lager was dan met DX) hen ertoe bewogen hebben om af te zien van de technologie.

AMD hoopte zich met Mantle opnieuw op de kaart te kunnen zetten als een voortrekker in de GPU wereld en door het open maken van Mantle voor de concurentie hoopten ze game devs over de streep te trekken. Hierdoor hadden zij het voordeel dat zij als eerste kaarten op de markt hadden met ondersteuning voor de nieuwe technologie.

Het feit dat Sony en MS voor AMD gekozen hebben zal ook te maken hebben met het feit dat AMD zeer performante GPUs kan maken (iets wat Intel niet heeft) terwijl zij ook al jaren vertrouwd zijn met x86/AMD64 (iets wat nVidia ontbeert). Hierdoor kunnen ze een degelijke APU afleveren voor een lagere ontwikkelkost dan de concurentie.
https://community.amd.com...-and-the-future-of-mantle
Compelling content was delivered on Mantle in historically quick time, paving the way for various graphics standards bodies to move forward with conviction on their own similar API standards and specifications
3.Mantle must take on new capabilities and evolve beyond mastery of the draw call. It will continue to serve AMD as a graphics innovation platform available to select partners with custom needs.
Zijn wel wat meer bronnen dat Mantle voornamelijk bedoelt was om de zooi vooruit te pushen. MS had DX11 al een stuk lichter kunnen maken maar stelde het maar uit. OpenGL deed wel wat maar kwam ook laat op gang. Waarna AMD maar besloot de voortouw te nemen, waarna straks MS en OpenGL al het stokje overnemen.
Zijn wel wat meer bronnen dat Mantle voornamelijk bedoelt was om de zooi vooruit te pushen.
Geen betrouwbare bronnen helaas. Dit is een marketing-blog van AMD.
MS had DX11 al een stuk lichter kunnen maken maar stelde het maar uit.
Nee, dat kan niet.
DX11 is alweer uit 2009, en was mede bedoeld om op legacy DX9-hardware te draaien, en ook op smartphones.
Je kunt er dus geen 'moderne' API als DX12/Mantle van maken, omdat je compleet andere soorten hardware ook moet kunnen ondersteunen.
DX11 had al wel ondersteuning voor meerdere contexts in meerdere threads, maar uitgerekend AMD heeft daar geen goede implementatie van.
nVidia en Intel laten zien dat DX11 best aardig kan multithreaden.
En Nvidia baalde er wel degelijk van.
...
MS en Nvidia staan iig redelijk vijandig tegenover elkaar. Als MS Nvidia kan ontwijken om zaken mee te doen, doen ze dat :)
nVidia baalde er helemaal niet van. Microsoft had eerder met de Xbox nVidia enorm onder druk gezet om steeds de prijzen maar te verlagen. nVidia hield er uiteindelijk vrijwel niets aan over.
Daarom heeft nVidia geen moeite gedaan om het contract van de Xbox One binnen te halen.
Bij AMD zien we nu hetzelfde... Ze hebben leuk twee consoles die ze van APUs kunnen voorzien, maar het levert ze geen winst op.

Het Mantle-avontuur was waarschijnlijk bedoeld om 1 API op Windows, PS4 en Xbox One te krijgen, om op deze manier toch een voordeel uit de consoles te kunnen halen.
Maar zowel MS als Sony hebben Mantle geweerd van hun consoles, en als Windows-only oplossing was Mantle gedoemd te falen. nVidia en Intel gaan zich daar echt niet aan branden, en als je ontwikkelaars geen grote zak geld toeschuift, gaan ze ook niet de moeite nemen om hun engines aan te passen voor support van een API van de kleinste speler, die ook nog eens op maar een klein deel van hun DX11-hardware loopt.

nVidia is trouwens wel de belangrijkste partner van MS in het DX12-project, dus het is zeker niet zo dat MS en nVidia geen zaken meer doen.

[Reactie gewijzigd door Scalibq op 21 mei 2015 20:55]

AMD doet dit erg selectief. Ze hebben dit in een extreme vorm gedaan met DICE (Battlefield 4). Ze hebben deze game zelfs gebruikt om Mantle uit te rollen naar de massa.

Al moet ik wel zeggen dat ik het Nvidia kamp weinig heb lopen klagen over performance problemen met BF4 (die specifiek voor hun van toepassing waren). Mogelijk hanteert DICE de API regels beter zodat er minder in de drivers rechtgezet moet worden.

[Reactie gewijzigd door Pikkemans op 21 mei 2015 16:56]

Developers programmeren games vaak brak en houden zich niet aan de api. De drivers moeten dat dan maar detecteren en corrigeren.

Ik denk dat het simpelweg een vuil spelletje is wat ze (nvidia) spelen. Net als Intel tegen AMD computers. AMD distantieert zich daar van.
Wat een onzin. De drivers van AMD hebben een grote CPU overhead waardoor de DX11 api calls per thread niet snel genoeg verwerkt worden.

Hiervoor is men nu ook iemand aan het inhuren, een CPU engineer, om zich hierop toe te leggen.

"We are looking for a CPU performance engineer working with highly talented 3D graphics driver developers to optimize graphics drivers. The responsibilities include analyzing CPU bound benchmarks and games to identify a variety of CPU bottlenecks in drivers, optimizing the drivers, and providing optimization actions to ISVs. The candidate will analyze new CPU architecture impact on driver performance and translate into actionable tasks. This position requires the candidate to collaborate with graphics and CPU architects at multi-sites across multiple graphics driver components. "

Zie: https://www.amd.apply2job...b&RID=31326&CurrentPage=3

en nieuws: https://www.google.nl/web...=UTF-8#q=amd+cpu+engineer


Dus dat onzin verhaal van Nvidia is evil klopt niet in deze. Zeker aangezien Project CARS geen Nvidia proprietary dingen gebruikt. Alleen Physx vast gezet op CPU voor botsings detectie.
Nvidia heeft haar drivers dus gewoon beter geoptimaliseerd in de jaren, en AMD loopt gewoon tegen een CPU bottleneck aan. Daarom zie je ook verbetering in Windows 10 welke een directere aansturing gebruikt. Dit zal ook de reden geweest zijn waarom AMD Mantle heeft ontwikkeld, om juist die bottleneck te omzeilen.
In het geval van The Witcher en Project Cars komt het 100% door GameWorks.
Ik wil dan ook hierbij duidelijk maken dat GameWorks ongelooflijk slecht voor de consument.
Dit gaat richting exclusiviteit en dat is gewoon niet gewenst. Dat soort grapjes laten ze maar op de consoles.
Klopt, ik vind het ongelofelijk jammer dat de consument dit met een donderend applaus ontvangt. Ik kan er nog veel meer over zeggen dan dat, vooral eigen ervaringen hoe crossfire en de frametimes zich gedragen wanneer er gameworks in de engine zit, maar het valt toch op dovemans oren, en maakt sommige mensen zelfs kwaad.

Ik vraag mij af hoeveel lijken er nog uit de kast moeten vallen vooraleer het grotere publiek hierop begint neer te kijken.
Ik ken The Witcher niet, maar in CARS komt het in de eerste plaaats doordat dit spel zeer zwaar leunt op physics. En hoewel ze in plaats van voor Physx ook voor bijv. Havok hadden kunnen kiezen vermoed ik dat deze keuze o.a. gemaakt is net omdat de Physx engine bij zowat de helft van de gamers zijn taken kan doen op de GPU ipv de CPU.
Onzin, Project CARS is/heeft geen GameWorks. Dat AMD in Project CARS slecht presteert ligt 100% aan AMD zelf. In tegenstelling tot nVidia hebben ze gewoon geen fluit uitgevoerd aan optimalisatie, terwijl ze vanaf het begin bij de ontwikkeling zijn betrokken. nVidia pakte die bal wel op en de drivers/profiles waren dus al ver voor release ingebakken.

En AMD drivers zijn wel degelijk brak, en zijn in veel situaties CPU bound!
Lijkt me dat ze de workaround 1 op 1 overnemen in de driver.
'Cheat' is een betere benaming.
Ze schroeven gewoon het aantal te renderen triangles enorm omlaag. Ja, geen kunst dat het dan sneller loopt. Dat heeft verder niets met driver bugs of rare praktijken van nVidia te maken dan.
De vraag is eerder: waarom werkt een standaard-feature van DX11 jaren later nog steeds niet goed op AMD kaarten/drivers?
Tesselation is 'goed genoeg' geÔmplementeerd op AMD kaarten. Hairworks past zoveel tesselation toe dat je meerdere polygonen per pixel krijgt, totaal onnodig dus. Maar omdat Nvidia kaarten sterker zijn in tesselation heeft het daar een minder grote performance hit.
Maar omdat Nvidia kaarten sterker zijn in tesselation heeft het daar een minder grote performance hit.
Dus als AMD eindelijk eens zorgt dat ze het gat qua tessellation dichten ten opzichte van nVidia en Intel, dan hebben we dit soort 'problemen' dus ook niet, en hebben we dit soort 'fixes' ook niet nodig.
Waarom komt intel in dit lijstje voor je mag die onboard kaarten blij wezen als je 10 fps krijgt.
Intel heeft net als nVidia een goede parallele implementatie voor tessellation, AMD niet.
...wat?

Hoor jezelf eens bezig.

[Reactie gewijzigd door boe2 op 22 mei 2015 13:41]

Tesselation op zich is geen probleem voor moderne AMD-kaarten; daar zit het probleem niet. Het probleem is dat de game het haar 64 keer tesselleert, wat zwaar overdreven is. Het gerucht gaat dat Nvidia dit heeft afgedwongen omdat hun kaarten minder last ondervinden van extreme tesselation dan AMD-kaarten, en ze zo een vals voordeel kunnen creŽren (wat ze eerder deden in Crysis 2). Maar het schaadt de performance van Nvidia-kaarten ook, en het is gewoon zwaar overdreven. Boven de 8x zie je nagenoeg geen verschil meer in dit geval, dus het lijkt me aan te raden om deze fix sowieso door te voeren.

[Reactie gewijzigd door geert1 op 21 mei 2015 18:48]

Tesselation op zich is geen probleem voor moderne AMD-kaarten; daar zit het probleem niet. Het probleem is dat de game het haar 64 keer tesselleert, wat zwaar overdreven is.
Als het geen probleem is, is het geen probleem. Ook niet bij 64x.
Of het zwaar overdreven is of niet, daar wil ik graag bewijzen van zien.
Ik neem aan dat het adaptive tessellation is, dus dan gaat het *tot* 64x, alleen waar nodig.
Wireframe renderings kunnen misschien wat beter laten zien wat er echt gebeurt.
Het gerucht gaat dat Nvidia dit heeft afgedwongen omdat hun kaarten minder last ondervinden van extreme tesselation dan AMD-kaarten
Wat dus duidt op een probleem in de architectuur van AMD.

[Reactie gewijzigd door Scalibq op 21 mei 2015 19:33]

Een probleem in de architectuur vind ik erg sterk uitgedrukt, maar AMD loopt met de GCN-kaarten naar verluid een stukje achter op Nvidia wat tesselation betreft. Als je maar genoeg tesselation toepast gaat natuurlijk elke kaart op z'n knieŽn, maar de AMD-kaarten wat eerder.

Je ziet hier hoe klein het verschil is tussen 64x en 16x. Vandaar dat ik het overdreven noemde, hoewel dat subjectief is. Bij waarden lager dan 16 begin je wel flink verschil te zien.

Maar ach, misschien is het ook gewoon CD Project Red zelf die iets doorschiet in tesselation; bewijs tegen Nvidia heb ik niet. Gelukkig zijn er nu wat tweaks bekend en wordt er door zowel AMD als CD Project RED hard gewerkt aan performance-verbeteringen. Al met al is het spel nu al prima speelbaar op veel AMD-kaarten en dat zal alleen maar beter worden.
Een probleem in de architectuur vind ik erg sterk uitgedrukt
Wat zeg je hiervan dan? http://i.4cdn.org/v/1432220573559.gif
nVidia kaarten zijn dik twee keer zo snel.
En dit is pas 32x, misschien dat het gat bij 64x nog extremer is.
Als je dat geen probleem noemt, wat dan wel? Dit is gewoon bizar.
Dat verschil is inderdaad groter dan ik had gedacht. Nu is dat natuurlijk een synthetische test en zal tesselation in de praktijk meestal niet de grootste factor van invloed zijn, maar evengoed is dit inderdaad wel erger dan ik dacht.

Hopen dat AMD het de volgende generatie beter voor elkaar heeft qua tesselation, want het is een handige techniek die alleen maar meer gebruikt zal worden volgens mij.
In mijn opinie is het de bedoeling dat een game zo goed mogelijk geoptimaliseerd moet zijn om het beste uit het slechtste te kunnen halen. Ofwel: Een budgetkaart moet het redelijk kunnen doen (op lagere settings) en hoe beter je videocard, hoe meer details je eruit kunt halen. Daarbij moet je natuurlijk wel proberen zo efficiŽnt mogelijk om te gaan met resources, en geen onnodige taken laten uitvoeren die visueel geen meerwaarde hebben (net zoals Fraunhofer bedacht dat alle geluiden die je niet hoort -overstemd worden door een ander geluid-, ook niet in een .mp3 hoeven te zitten. Dat scheelt onnodige ruimte).

Zoals ik nu alle comments lees over Nvidia en AMD, is dat er onnodige bewerkingen in worden gezet puur om de framerate van de concurrent onderuit te halen (het enige wat telt, voor de 'kritische' koper, die zonder achtergrondinformatie, alleen naar de (synthetische) benchmarks kijkt en niet de praktijk...).
Daarnaast is de beste optimalisatie zorgen dat code niet onnodig runt. Dus opzich is het nogal krom om een super hoge setting te hebben die amper invloed heeft op GFX verbetering. Er is punt waar LOD bare tesselatie amper wat opbrengt.

Daar in tegen zijn over de top physX effect physics wat prominenter aanwezig in games. Wat wel meerwaarde heeft. Aangezien dat vaker wel opvalt.

En ja slechte zaak dat PU merk midleware gebruikt om de Concurrent buiten te houden.

Dit is dus een case waar twimtbp gelobby negatieve invloed heeft .

Het is ook lastig om een game object te hebben die extreme mate van tesselatie nodig heeft.

LOD is ook afhankelijk van draw distance. Een object moet complex groot en dichtbij tov camera vp. Om extremere tesselatie op te laten vallen.

Er zal wel een case zijn waar dit zin heeft. Maar NPC kapsel is al gauw te ver weg en niet beeld vullend.
Begrijp ik het dus goed dat jij liever je PC en videocard continu op 100% load wilt laten lopen, als het ook, met efficiŽnt coderen en dezelfde kwaliteit misschien op 80% kan? Want dat is wat ik graag wil, en jij je boos over maakt...

Als ik mijn auto kan optimaliseren zodat ie 1 op 20 rijdt in plaats van 1 op 18, wil ik dat ook. Dat wil toch iedere autobezitter?

Als ik 1000 in plaats van 100 muzieknummers op mijn mp3-speler in dezelfde kwaliteit kan zetten, dan vindt toch ook niemand dat een probleem?

Als ik dezelfde game, in dezelfde kwaliteit in een minuut kan downloaden ipv een half uur, over dezelfde lijn, dan wil jij dat toch ook?

Gewoon efficiŽnt omgaan met resources zonder inboeten van kwaliteit. Waarom ben je daar in hemelsnaam tegen, je kijkt nu toch ook naar BluRay's in plaats van DVD's (efficiŽntere codec MPG2 vs MPG4(AVC) kleiner bestand, zelfde kwaliteit)?
Uhhh, je hebt het hier tegen 1 van de coders van 8088 MPH: http://trixter.oldskool.o...break-all-your-emulators/
En je wil tegen mij beginnen over optimalisaties? :)
Echt...
Barking up the wrong tree...

Punt dat ik maak gaat over optimalisaties in de hardware, niet de software. AMD moet z'n tessellator verbeteren.

[Reactie gewijzigd door Scalibq op 22 mei 2015 22:33]

Hairworks loopt op Nvidia hardware ook niet goed en kan ook 20 fps schelen. Standaard tesselation staat overigens op 64x voor Hairworks.
Ik denk dat veel mid-end kaarten niet leuk vinden om tessalation 8x te zetten.
Het gaat hier om MAXIMUM tesselation level. Dus dat maakt voor mid-range en low-range kaarten helemaal niets uit : )
Volgens mij zijn er geen lagere tessellation factors dan 8.
Ik wacht liever een week langer op een werkende driver, dan dat ik deze week een matig afgemaakte gehaaste driver ontvang.
Zonder Hairwork is de game prima speelbaar op AMD kaarten. Ik loop op een stabiele 50 frames op ultra (R9 290). Zakt nooit onder de 45 frames en tikt regelmatig de 60 aan.
Zet ik de workaround aan krijg ik 5 frames minder (nu stabiel op 45).
edit: ik heb ook nog 4x adaptive multisampling aan staan via de drivers.

[Reactie gewijzigd door Maulwurfje op 21 mei 2015 17:22]

Ik heb ook geen enkel probleem met mijn 7970 hoor. Draait prima :) Maar mijn argument blijft hetzelfde, liever iets dat af is dan iets wat matig werkt. Je koopt toch ook geen auto waarvan de wielen er soms af vallen?
Als de prestaties nu om te huilen waren, had ik liever een halve oplossing. Maar dit is gelukkig niet het geval en ik wacht dus ook op de volledige werkende drivers.
Meest vreemde blijft dat dit niet uit eerdere testen blijkt. Lijkt me dat de uitgever als gpu fabrikanten al maanden voordat iets uitkomt bezig moeten gaan. Nouja, na 4 jaar AMD gpu ellende weer lekker naar Nvidia, echt heerlijk, nu al weken zonder de dagelijkse crashes.
Alleen jammer dat Nvidia zo'n software troll is, ik gebruik geen hardware waar je verplicht een Nvidia kaart nodig hebt om alles uit een game te halen.

AMD ondersteunt tenminsten alle standaarden en vooral op vulkan en OpenCL/DirectCompute waar nVidia steenvast aan hun Cuda rommel vast blijft hangen.
Zolang Nvidia dingen doet zoals verplichte driver signing onder Linux kan Nvidia gewoon echt de pot op, Nvidia is en blijft gewoon een trol zolang ze geen open development toe laten...
Volgens mij heeft het toch ook weinig zin om zoveel rekencapaciteit toe te kennen aan het tesseleren van wat haren. Lijkt me beter om die tesselation beter te verdelen over de grond en muren zodat die vierkantigheid eens eruit gaat.
Bovendien is voor mij gameplay vele malen belangrijker dan super realistische haren. Zoals een interactieve grond en muren icm met physics. Buiten de echte gameplay dan. Een reden waarom ik dit soort spellen ook nooit speel.
Hairwork maakt ook de omgeving interactief door dat dingen stuk kunnen gaan etc. Ook maakt het dat kleding doeken en vlaggen er realistisch uitzien, als je gezwommen hebt zal je nat zijn en langzaam op drogen. Hairwork is meer omvattender dan alleen haar.
https://youtu.be/Md4Hmgtl8q0 Ik heb het niet zonder hairwork gespeeld ik heb wel wat vergelijkingen gezien deze bv is interactief http://international.down...mparison-2-on-vs-off.html
zonder hairwork is het een soort zombiewolf.

in het algemeen:Voor Nvidia eigenaren van een GTX 780/780TI kan je het beste de vorige driver gebruiken niet de nieuwste die voor The Witcher 3 is uitgekomen hier staat meer:
https://forums.geforce.co...e-witcher-3-wild-hunt-/2/
Dan is de performance weer zoals je hem zou verwachten:
1 GTX980
2 GTX970
3 GTX780 TI
Of Heeft Nvidia werkelijk GameWorks gesaboteerd zodat AMD slechter presteerd tijdens Witcher 3?

http://arstechnica.co.uk/...ed-witcher-3-performance/
Voor de mensen die daadwerkelijk de game willen spelen in plaats van erover te praten op tweakers: Schakel Hairworks gewoon uit in de graphics settings en het spel draait 10x beter!
Hier staat een vergelijking over wat je mist (zonder hairworks):
http://www.pcgames.de/The...pps/Tuning-Tipps-1159267/

Ik kan er wel mee leven! En nu terug naar de game :D
Volgende keer wellicht handig om even de 'How to' erbij te vermelden. Bij deze: http://wccftech.com/witch...us-crippling-performance/

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True