Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 201 reacties

Nvidia heeft in het afgelopen kwartaal een recordomzet geboekt. Die is grotendeels te danken aan de verkoop van grafische kaarten voor gamers. Ten opzichte van het derde kwartaal vorig jaar steeg de omzet uit GeForce-gpu's met 44 procent.

Nvidia heeft het derde kwartaal van zijn fiscale jaar 2016 afgesloten met een recordomzet van ruim 1,3 miljard dollar, omgerekend bijna 1,2 miljard euro. De winst kwam uit op 246 miljoen dollar. Het bedrijf haalde het overgrote deel van zijn omzet uit de verkoop van gpu's; in totaal is dat 1,1 miljard dollar. De verkoop van grafische kaarten voor gamers leverde Nvidia een omzet van 761 miljoen dollar op. Dat is 44 procent meer dan het derde kwartaal vorig jaar.

Tijdens de presentatie van de cijfers maakte Nvidia verder bekend dat de inkomsten uit de auto-industrie met 51 procent zijn gestegen. Met 79 miljoen dollar haalt Nvidia momenteel een relatief klein deel van de omzet uit deze tak, maar er zijn veel autofabrikanten die techniek van Nvidia gebruiken voor hun digitale cockpits. Op de Auto Show in Frankfurt hebben Mercedes Benz, Audi, Porsche, Bentley en Honda modellen getoond met Nvidia-hardware aan boord. Ook Tesla gebruikt in zijn nieuwe Model X een infotainmentsysteem dat aangedreven wordt door chips van Nvidia. De fabrikant zegt verder met vijftig bedrijven samen te werken aan Drive PX. Dit platform voor autonome auto's werd in mei gepresenteerd en maakt gebruik van twee Tegra X1-socs.

Met zijn Tegra-socs weet Nvidia geen groeiende cijfers neer te zetten als het gaat om verkoop aan oem's voor gebruik in bijvoorbeeld tablets en laptops. Google gebruikt de X1-soc in de Pixel C, en daarnaast maken Acer en HP gebruik van K1-socs in hun Chromebooks. De omzet in dit segment is met 192 miljoen dollar echter 82 procent lager dan in hetzelfde kwartaal een jaar geleden.

Nvidia Trends Q3 2016

Moderatie-faq Wijzig weergave

Reacties (201)

Vind dit oneerlijk. Nvidia een bedrijf dat 3.5GB VRAM verkoopt voor 4GB. Hetzelfde bedrijf dat verklaard dat hun kaarten DirectX 12 ready zijn, terwijl dit niet zo is. Buiten deze misleiding zitten ze AMD dwars met vieze deals voor de implementatie van hun Physx. Wat ervoor zorgt dat AMD kaarten sommige games veel minder goed draaien. Uiteraard closed source, terwijl AMD met heel veel open source alternatieven komt, zoals bijvoorbeeld Freesync. Daarnaast zitten ze Nvidia ook niet express in de weg wanneer ze samenwerken met een game developer.

Amd komt met nieuwe technieken zoals Mantle en opvolger Vulkan, naast het op de markt zetten van HBM en Nvidia de kans geven om een licentie af te nemen.

Wanneer we de mid-high kaarten vergelijken: GTX970 en R9 390, zitten ze op ongeveer dezelfde prijs alleen is de R9 390 nieuwer en komt deze met 8GB VRAM ipv 3.5GB VRAM.

Het klopt dat de kaarten van AMD een stuk minder energie zuinig zijn, waarschijnlijk door het hogere procede (28nm). Nu hoop ik dat AMD volgende stap kan maken: nieuws: GlobalFoundries maakt eerste AMD-testchip met finfets op 14nm
Wanneer ze dit doen kunnen ze Nvidia naast hun 3.5 en DirectX debacle nog een klap geven, want dat hebben ze in mijn ogen verdient.
Wat een onzin verkondig je zeg. De kaarten niet Direct X 12 ready?

Kijk anders hier even hoe Nvidia kaarten notabene met AMD kaarten met de nieuwe DX12 functionaliteit met elkaar gekopped worden. http://www.anandtech.com/...-plus-radeon-mgpu-preview

Oftewel notabene een soort SLI/Crossfire opstelling met 2 verschillende GPU merken. Nvidia had wat opstart problemen qua performance in 1 DX12 benchmark. Poeh poeh was dat alles, staat dat nou gelijk aan niet ready zijn? Nvidia had altijd al vanaf het begin DX12 gesupport en Mantle heeft nooit echt een grond aan de voet kunnen krijgen omdat een heel hoop GCN kaarten van AMD er niks mee konden. Het had ook nauwelijks tot geen voordelen op high end system.

De R9 390 is niet nieuwer, het is een rebranded 290 met extra geheugen. Geheugen waar AMD per definitie niet super mee omgaat maar wel veel van hebben. Ze zijn aan elkaar gewaagd qua snelheid waarbij op stock snelheden de 390 gemiddeld maar 2 frames meer heeft. Oftewel nihiel. Haal daarbij het feit erbij dat een Geforce 970 fors beter overclocked waarbij Hardocp meer dan 40% extra eruit kon persen op lucht met een milde voltage verhoging en de 390X moeite had om uberhaupt meer dan 100mhz over te kunnen klokken kan een 970 dus bijna de snelheid bereiken van een 980.

Ik zou graag AMD supporten maar sinds de 290 serie vind ik ze niet erg sterk. Driver updates zijn dan nog een verhaal er naast waarbij Nvidia vrijwel altijd drivers ready heeft voor nieuwe games en AMD gebruikers moesten ploeteren met slechte drivers tijdens de Project cars en Witcher 3 launch,
Het verschil tussen de R9 390 en GTX 970 is in nieuwe games wel degelijk meer dan 2fps.

Hier een voorbeeld: http://www.computerbase.d...d-black-ops-iii-2560-1440

Toch zo'n 25% sneller!
Pak je 1 game met nu nog forse issues.
Lang niet alle features die DX12 ondersteunt worden zowel door Nvidia alsook door AMD NIET volledig ondersteunt. De eerste full DX12 kaart moet nog op de markt komen. ;)

Ze hebben beide een andere feature set voor DX12.

[Reactie gewijzigd door Tourmaline op 6 november 2015 18:27]

Neemt niet weg dat ze Direct X 12 ready zijn.
720P is ook HD ready maar niet volledig HD(1080P). Allemaal leuke marketing termen maar alleen een full featured DX12 kaart is volledig DX12 ready. Er missen immers features die ze niet in DX12 onderteunen, dus zijn ze dan echt wel DX12 ready???!!!
Ze doen gewoon conform de specs van Microsoft. Vandaar de tier 1, 2 etc gebeuren. Klaag op Microsoft als je de terminologie niet goed vindt.
Als dat zo was zouden beide fabrikanten dezelfde features ondersteunen en juist dat doen ze dus niet! ;)
Natuurlijk niet. De echte interessante feature levels van DX12 zijn tiled resources en dergelijke, en die gaan echt niet werken op de huidige GPU's.

De kleine verschillen in feature levels die er momenteel zijn, zijn niet eens relevant. Iedereen die wat verder leest dan het tabelletje waar de huidige kaarten in staan, kan dat concluderen. Ik begrijp de hele heisa niet. De enige GPU's en systemen die écht gaan profiteren van DX12 op de korte tot middellange termijn (zeg 1-2 jaar) zijn de tragere CPU's en mid range GPU's.

De high end merkt niets van de CPU optimalisaties (want games worden niet voor high end maar voor de tragere CPU's gemaakt anders verkoop je ze niet - als het niet draait op 8 low power Jaguar cores, forget it) buiten betere threading en wat koelere cores, en de GPU features zijn pas interessant als er genoeg GPUs de nieuwe feature levels ondersteunen. Kip/ei verhaal, gelukkig zijn er genoeg kippen aan het broeden. Maar nu, a'la moment een GPU kopen 'met de beste DX12 features' is totaal kansloos en de discussie hierover al helemaal. Ook dat SLI/Crossfire combinatie gebeuren is niet relevant; hoeveel mensen hebben nu 2 high end kaarten liggen van verschillende merken? Juist... Je kunt je beter druk maken over SLI support op de huidige games, dat is al lastig zat.

[Reactie gewijzigd door Vayra op 9 november 2015 14:56]

Nvidia en AMD gebruiken hetzelfde procédé, 28nm. Daarbij komt ook dat de 390 een rebrand is en wel degelijk ouder Is dan de 970.

Ook zijn de kaarten van Nvidia werkend onder Dx12. AMD kaarten missen ook functies, alleen Nvidia mist dus async compute (in ieder geval als het op Nvidia kaarten wordt ingezet bied het geen voordeel. Dit kan ook komen door de kortere pipeline in vergelijking met AMD).

De zak met geld, daar zou ik ook graag bewijs van willen zien. De rest van je punten kloppen in ieder geval wel, Nvidia is smerig bezig. Maar hun dx11 kaarten zijn wel degelijk beter dan die van AMD (en ook duurder ;)).
Klopt de R9 390 is een rebrand van de R9 290. Hiermee doelde ik eigenlijk op het punt dat deze kaart later is uitgebracht "nieuwer", maar wel voor een vergelijkbare prijs of goedkoper te verkrijgen is.

Het Async compute is naar mijn weten juist een van de punten wat juist voordeel gaat opleveren in DirectX 12. Bron: http://www.extremetech.co...-dx12-what-we-know-so-far

Wel moet hierbij worden gezegd dat er op dit moment amper DirectX 12 games verkrijgbaar zijn. Wel weet ik dat bijvoorbeeld ARK Survival Evolved er deze maand nog support voor in gaat bouwen en een verbetering van ongeveer 20% ziet hiermee boven DirectX 11.

Grote kans dat Nvidia en dit met volgende versie wel juist heeft geïmplementeerd en we totaal geen verschil meer gaan merken wanneer de meeste games DirectX 12 zijn.
AMD vs Nvidia discussie is net zo zinloos als Microsoft vs Apple of Samsung vs Apple of wat dan ook...

Het zijn gewoon bedrijven die op dezelfde markt/segment concurreren met elkaar.
Dit doen ze op alle (legale) manieren tot hun beschikking en je kunt ze dat niet kwalijk nemen.
Als jij als consument vind dat open-source belangrijk is en je wilt dit steunen, koop lekker een AMD kaart... Stemmen doe je met je portemonnee, het zijn immers bedrijven die geld willen verdienen.

Niemand houd van predikanten die jou wel eens even gaan vertellen waarom hun mening en kijk op de wereld de juiste is en waarom product/bedrijf X beter is dan product/bedrijf Y.
Als ik zo iets wil weten dan lees/kijk ik wel reviews en beoordeling en trek ik zelf een conclusie naverhand mijn eigen mening en kijk op de wereld. ;)

[Reactie gewijzigd door Ayporos op 6 november 2015 16:30]

Toch blijf ik het bedroevend vinden dat ik met mijn amd kaart een spel als bijvoorbeeld de mmorpg age of conan niet spelen kan. Althans niet zonder op de forums in te tikken welke bestanden ik na iedere age of conan patch weer moet verwijderen. Keer op keer weer.

Dat vind ik toch wel een erg minne streek van nvidia. En hebben ze eigenlijk echt niet nodig.
Age of Conan is ook een product van een bedrijf.
Als je het niet eens bent met hoe de makers van AoC Nvidia gebruikers voortrekken door hun spel te optimaliseren voor Nvidia kaarten dan koop je het spel toch niet of vraag je je geld terug (nadat je binnen de 14 dagen geconstateerd hebt dat het spel slecht/onacceptabel/enkel met handmatige tweaks werkt op AMD kaarten).

Als je ontwikkelaars wilt duidelijk maken dat je wilt dat ze open-source technieken gebruiken en AMD kaarten niet in de steek laten dan koop je hun spellen gewoon niet en stuur je ze een bericht dat ze jou klandisie verloren zijn tot het moment dat hun producten voldoende rekening houden met AMD kaarten.

Ik snap niet precies waarom jij vind dat Nvidia schuldig is aan het slecht werken van AoC op jou AMD kaart.
Zelfs al zou Nvidia de makers geld hebben gegeven om hun spel te optimaliseren voor hun kaarten, dan kan je het Nvidia noch de uitgever/developer kwalijk nemen in mijn ogen.
Je neemt een PC-hardware reviewers of professionele gamers/streamers toch ook niet kwalijk dat ze bepaalde producten/componenten gebruiken/promoten omdat deze bedrijven hun sponsoren?
Tja ik ondersteun ook wel open source maar ik gebruik ook Linux en die AMD drivers zijn evenals de hardware gewoon bedroevend dus koop ik Nvidia.

Het is ook altijd wel makkelijk om de concurrent de schuld te geven natuurlijk. Maak gewoon zelf goede producten dan verkopen die zich zelf wel ook al speelt de concurrent vieze spelletjes.
Dit is inderdaad voor mij ook de reden om altijd bij NVidia uit te komen. Zowel op desktop als laptop gebruik ik regelmatig Linux.
De drivers, hoewel closed source en eigenlijk tegen de open structuur van Linux werken wel altijd goed.
ik ben het verder helemaal met je eens maar nvidia zit ook nog op 28nm.

het verschil in verbruik zit hem voornamelijk in het feit dat nvidia flink heeft zitten snijden in de double precision performance. Die is nog maar 1/32ste van de single precision performance. en dat bespaard transistors en energie uit.

met fury heeft AMD dat ook deels gedaan en het terug gebracht naar 1/16. en fury X verbruikt (onderandere) daardoor maar 30 watt meer als een GTX 980TI in games. (fur mark is een ander verhaal, maar dat komt omdat nvidia gewoon trottled, en AMD met hun watercooling dat niet hoeft te doen)
Vanaf wanneer betekent dx 12 ready gelijk full support als ik vragen mag, er is nog geen enkele kaart te krijgen met full dx 12 voor zo ver ik weet?

Vanaf wanneer heeft Nvidia nog geen Vulkan die is er en ook mede ontwikkeld door Nvidia net als DX12.

Wat i s er mis met G-sync die wat verder ontwikkeld is en de monitoren zijn niet veel duurder dan een Free sync monitoren, waar voor AMD zelf alleen maar drivers moet te leveren en nvidia een stukje hardware waar ze ook zelf voor betaald hebben om het te maken, dus dat je daar wat voor betaald is niet zo gek. Wel had ik liever gezien dat G-ync ook op AMD werkt en andersom wat ik wel weer teleurstellend vind.

[Reactie gewijzigd door Spliffire op 6 november 2015 15:47]

Vulkan is echt niet door Nvidia ontwikkeld of mede ontwikkeld.. Vulkan is gebaseerd op Mantle en bouwt juist voort op AMD technologieën.

http://www.pcworld.com/ar...as-opengls-successor.html

https://en.wikipedia.org/wiki/Vulkan_(API)

Het probleem met Gsync is dat die monitoren direct 100 a 200 euro duurder zijn dan de Freesync varianten.

http://www.144hzmonitors....rs-available-august-2015/

GSync is een nvidia only technologie terwijl FreeSync deel uitmaakt van de Display poort protocol. Dat is juist het hele probleem.
Vulcan is echter ook niet door AMD/ATI ontwikkeld, Vulcan is de "nieuwe" opengl, een api die juist maar weinig liefde kreeg van AMD/ATI, veel van de mogelijkheden van mantle zag je bijvoorbeeld ook terug in bepaalde opengl extensies (van o.a nvidia).

Ik gebruik redelijk veel opengl (voor het gros van mn games zelfs) en juist daarom heb ik geen AMD/ATI hardware, aangezien driver support nog steeds een zwak punt is bij ATI op niet-windows platformen (ja, het gaat steeds beter maar zo extreem traag dat ze altijd achter zullen blijven als ze niet iets veranderen).

Overigens ben ik zeker geen fan van nvidia als bedrijf, maar het is voor mij als consument op dit moment de minste van 2 kwaden.

[Reactie gewijzigd door blouweKip op 6 november 2015 20:33]

Waar zeg ik dat AMD Vulkan heeft ontwikkelt? Het is een algemeen feit dat Vulkan is gebaseerd op Mantle en de Mantle code heeft verwerkt in het uiteindelijke product. aka Vulkan.

Ik game zelf niet dus ik gebruik OpenGL helemaal niet. Ik ben wel developer voor het Apple platform en gebruik voor de huidige game waar we aan werken Metal.
Gebaseerd op Mantle of OGL zoals uit je wiki?
Het is indd mede ontwikkeld door AMD maar Nvidia heeft het ok al een klein poosje in zijn drivers meegenomen.

Het is niet helemaal waar dat de zelfde free sync monitor 100 euro duurder is. Kijk maar eens naar de Asus met de zelfde technieken, die andere monitoren verschillen weer erg met paneel techniek en daarom lijkt het of G-sync duurder is vanwege ips of een hogere resolutie en een hogere hz.

Ik zie het probleem eigenlijk niet zo van Gsync omdat het weer een aangepaste techniek is van de standaard VESA. Daar mag je dan best wat extra's voor vragen. Het enige probleem is dus dat het alleen maar op Nvida werkt en dat Nvidia geen free sync wil ondersteunen,

[Reactie gewijzigd door Spliffire op 6 november 2015 17:04]

Het is indd mede ontwikkeld door AMD maar Nvidia heeft het ok al een klein poosje in zijn drivers meegenomen.

Er is dus een verschil tussen ontwikkelen en implementeren. En dat is dus het verschil wat ik aankaart. Misschien implementeert Nvidia het wel maar ze hebben er geen semicolon aan ontwikkeld.
Mooi voor nVidia! het is daar ook een tijd minder gegaan, zeker ten tijde van de Ati Radeon 9700 en 9800 Pro. ;)

Die nVidia GTX 970 is inderdaad een triest voorbeeld, 4 GB RAM waar maar 3,5 GB effectief van benut kan worden.

Vergeet niet dat AMD zijn chipjes in alle PlayStation 4's en Xbox One's heeft zitten. :)

Bij Desktop GPU's heeft nVidia bij mij toch vaak de voorkeur, de GPU's worden vaak net wat langer drivertechnisch ondersteunt. Dan heb ik het over Microsoft Windows drivers, over andere OS'en kan ik niets zeggen.
Bij Desktop GPU's heeft nVidia bij mij toch vaak de voorkeur, de GPU's worden vaak net wat langer drivertechnisch ondersteunt. Dan heb ik het over Microsoft Windows drivers, over andere OS'en kan ik niets zeggen.
Daar zou ik niet altijd zo blij mee zijn. Het is al een tijdje bekend dat de ~2 jaar oude 700 serie kaarten met de nieuwste drivers juist slechter presteren dan met de oudere drivers.
Die keutel heeft Nvidia ook al weer anderhalve maand ingetrokken. Kepler krijgt geen optimalisaties meer omdat het is uitontwikkeld, net zoals Fermi niet meer sneller wordt. Ja, er was een slechte driver serie waarin Kepler klappen kreeg (vooral omdat Maxwell een betere Tesselation engine heeft) maar dat is ook weer teruggedraaid met de driver erna.

[Reactie gewijzigd door Vayra op 9 november 2015 14:40]

Toevoeging voor Linux:

Onder Linux is de AMD support belabberd en worden high-end kaarten van AMD qua performance verpletterd door Nvidia kaarten wanneer de closed-source drivers van AMD en Nvidia gebruikt worden. (bron) Al is AMD druk bezig om voor hun nieuwe GPU's een open-source driver te maken, op dit moment halen de AMD drivers niet uit de kaart wat er in zit. Nvidia daarentegen heeft wel een goede closed-source driver, maar mist een goede open-source driver, zeker voor hun nieuwste kaarten, waar door gesigneerde firmware Nouveau helemaal niets kan.

Conclusie is helaas wel dat voor Linux-gaming AMD kaarten nauwelijks een optie is.
Ik denk dat de support bij beiden wel snor zit op een gegeven moment zijn bepaalde kaarten gewoon legacy als ik mij niet vergis en zit de code wel in een nieuwere driver maar doen ze niet echt optimalisaties meer.

Als de optimalisatie natuurlijk voor de architectuur ia dan zit je snor. Maar als ik de korte changelogs zie bij drivers dan wordt daar bar weinig aan oude kaarten gedaan.

Meestal iets in de trant van:
- Optimal performance for game x for 900 series
- performance optimalization kepler cards

Mij lijkt dat dit voor amd niet anders is (mijn excuses mijn laatste amd waren 3600 pros
Mooie fanboy rant ;)
Vergeet niet dat nVidia al jaar en dag de betere drviers levert en beter ondersteuning bij hun produkten.
Ik ben me momenteel weer aan het orienteren op een nieuwe kaart en in het midden segment levert AMD de betere performance. Als je alleen kijkt naar het aantal problemen waarover je leest op diverse fora dan denk ik toch dat het nVidia gaat worden.

Natuurlijk hebben beide bedrijven voor en nadelen en heeft nVidia wat rare acties gehad met de 970 maar AMD is ook niet vies van wat misleiding en marketing bullshit.

[Reactie gewijzigd door rajackar op 6 november 2015 15:59]

Ik heb al jaren (high end) AMD kaarten gebruikt en nog nooit noemenswaardige problemen ondervonden door Amd drivers. Mijn nieuwste AMD kaart die er recent in is gekomen draait ook zonder problemen op windows 10 en draait ook zonder problemen de games die ik binnenkort wil gaan spelen: Battlefront van EA en Lara croft in 2016.

Misschien heb ik altijd geluk met het uitzoeken van de games maar ik heb nooit noemenswaardige problemen.
The WItcher en Project cars was echt wel een drama bij release.
The Witcher 3 problemen kwamen door de Hair Works physics van, oh wacht, was dat niet van Nvidia's ?

En, project cars... tjaaa.... wacht eens, is hun physics engine niet gedeeltelijk gebaseerd op de Physx engine van ..... Nvidia?

Nouja, even serieus, meeste dingen zijn verholpen of zijn uit te zetten(behalve de physx bij project cars |:( ) of waren geruchten en ook amd haalde zo'n zelfde stunt als nvidia had gedaan met the withcer met tomb raider(TressFX Hair Phyics). Wel interesante leesvoer:

http://www.eurogamer.net/articles/digitalfoundry-2015-does-nvidia-hairworks-really-sabotage-amd-performance

-Ps, ik weet dat dit volgens officiële uitlatingen niet expres door de game ontwikkelaars en nvidia gedaan is, maar ik vond wel grappig dat je 2 games opnoemde die bij hun release een nvidia pisses on amd debacle opriepen ;D
Met die link gooi ik ook vaak. Juist omdat daaruit blijkt dat Nvidia op driver gebied veel op orde heeft. Ook zonder hairworks was the witcher niet optimaal en hetzelfde gold voor Project cars. De sourcecode van Physx is overigens gewoon in te zien dus AMD kan er drivers voor maken.

https://developer.nvidia.com/physx-source-github

Project cars doet het nu nogsteeds niet optimaal op AMD kaarten helaas.
Welke betere drivers? en Welke betere ondersteuning?

http://techraptor.net/con...t-problems-gtx-900-series
Nvidia komt tenminste met drivers. Toen ik een 7950 had waren afgelopen december de nieuwste officiele AMD drivers nog uit juni/jui. Best pauper.
Over welke fora heb je het dan want op het Videokaarten en Beeldkanonnen forum beantwoord ik met name driver problemen van Nvidia waar dit vroeger (1-2 jaar geleden) veel minder was.

Kom maar met een paar goede voorbeelden van misleiding en marketing bullshit van AMD, ik ben benieuwd. Als je zoiets claimed dan zie ik ook graag een bron :p.
Overigens doet iedereen aan marketing, dit is niet altijd bullshit.
Ik koop al 10 jaar amd en nooit gezeik gehad met amd drivers of ondersteuningsproblemen. Nog nooit een drivercleaner hoeven gebruiken.
Halleluja rajackar, eindelijk iemand die mijn ervaringen deelt, paar jaar geleden een top-of-the-bill AMD videokaart gekocht en enkel maar ellende mee gehad, voornamelijk vastlopers of spelen die er spontaan uitvlogen, dom dom dom dacht ik steeds dat het aan andere componenten lag (omdat de AMD kaart zo gewaardeerd werd) tot ruilen geen optie meer was, maand of wat geleden gewisseld voor een Nvidia 970 en sindsdien geen 1 probleem meer, statistisch verantwoord of niet, AMD komt er bij mij nooit van zijn levensdagen meer in.

[Reactie gewijzigd door gumkop op 6 november 2015 23:44]

Of je had gewoon een kapotte kaart. Dat kan altijd gebeuren, bij elk merk. Ik heb al van beide kampen kapotte kaarten gehad.

Niet zo snel een heel merk veroordelen wegens ervaring met 1 kaart.
Hier gaan we weer. Het zijn beide commerciele bedrijven, en die zijn op zich geen haar beter dan elkaar (cfr. de Nano launch en Fury als geweldige overclocker). Alleen slaagt Nvidia meer in zijn opzet, omdat het zijn hardware engineering maximaal weet te vercommercialiseren. Daarbij kiezen ze ervoor om zoveel mogelijk closed source/proprietary te houden om hun concurrenten af te houden. En ja, ze negeren vaak problemen. Maar het is nu niet dat AMD als bedrijf echt zo open is.

AMD heeft vooral goeie hardware, en probeert door soms geweldige initiatieven openingen te creeren (64-bit, HT, Mantle). Maar vaak zijn ze te vroeg en gezien hun kleine marktaandeel kunnen ze daarbij moeilijk anders dan eerder open source te gaan. En de follow-up ontbreekt telkens om er naderhand een commercieel succes van te maken. AMD is een hond die een bot opgraaft en een ander ermee laat weglopen.

Los daarvan reageren ze laat op wijzigingen en veranderen ze te vaak van strategie door het wisselend management.

Waar is de minutieus uitgevoerde roadmap? Waar is het software-ecosysteem om unieke features te bieden? Waar zijn de snelle driver-updates die echt het maximum uit de krachtige hardware halen? (als je ziet hoe CGN het doet onder DX12, dan moet je je toch vragen stellen over de DX11 drivers).

AMD heeft de laatste jaren al zoveel steken laten vallen en zoveel bezuinigd, dat Nvidia gewoon al schade kan toebrengen door te stellen dat ze voor alle AAA gametitles die dit jaar nog uitkomen een driverupdate gaan uitbrengen.

Dat is heel spijtig, maar uiteindelijk is het maar een bedrijf. Dat bovendien meedraait in een systeem waar de sterkste wint.

Dus wie een probleem heeft met de positie van AMD en een mogelijk monopolie van Nvidia, kan zich misschien eerder vragen stellen over het systeem. Want het huidige AMD schiet zichzelf te veel in de voet om mee te kunnen, zelfs met de steun van enkele enthousiastelingen.
Nvidia zit in hetzelfde schuitje als Intel, beiden zouden het NIET leuk vinden als AMD van de markt zou verdwijnen! Dan worden beide een monopolist met de daarbij geldende regels, die ze beslist willen vermijden. Nu kunnen ze nog een beetje doen wat ze willen maar als monopolist sta je vergroot in de schijnwerpers en gelden er andere regels. Dan kan de EU maatregelen gaan opleggen. Zolang je nog (een beetje) concurrentie hebt is het alleen maar gunstig.

[Reactie gewijzigd door Tourmaline op 6 november 2015 18:31]

Ze zijn dan alleen 'monopolist' in een klein deel van de markt (losse kaarten), het overgrote deel van de GPU's zijn tegenwoordig geintegreerd, en Intel, Imagination (oa Apple) en Qualcomm verkopen veel meer geintegreerde gpu's dan AMD en nVidia. Het zal nog heel erg afhangen van hoe nauw de regulators daar tegenaan kijken. Ook is het voor een Qualcomm of Intel een peuleschil om, als de marges een beetje stijgen, in de markt voor losse gpu's te stappen, ze hebben alle technologie al in huis.
Naast het feit dat ook ik AMD's Radeon-kaarten heel wat meer verkoopsucces toewens (ik heb zelf alleen Radeons in huis), haal je hier toch enkele dingen serieus uit context.

Vulkan wordt de nieuwe implementatie voor OpenGL, net zoals Dx12 een nieuwe implementatie is van DirectX. Daarbij werd Mantle grotendeels als basis genomen om van te vertrekken. Maar het is nog steeds niet geweten of AMD nu eerst Mantle heeft ontwikkeld, of zich voor Mantle net heeft gebaseerd op de dingen die het samen met Sony & Microsoft voor hun respectievelijke consoles (die ook gebruik maken van GCN-GPU's) heeft ontwikkeld. Het enige wat we zeker weten, is dat AMD de eerste is die publiekelijk bekendmaakte te werken aan een "close-to-metal"-API voor de PC, maar dat wil nog niet zeggen dat ze de originele bouwstenen ervoor hebben gelegd.

Daarnaast, de R9 390 nieuwer noemen dan de GTX970 is wel heel gedurfd. De GTX970 is gebaseerd op de toen nieuwste GPU (GM204) van nVidia uit september 2014, terwijl de R9 390 eigenlijk gewoon een rebrand is van de R9 290-Hawaii chips uit 2013 en met de belachelijke 8Gb VRAM eraan toegevoegd. Tegen de tijd dat games effectief 8Gb VRAM nodig hebben is de GPU van de R9 390 toch te zwak geworden. Nieuwer kan je ook anders interpreteren dan enkel maar de release-datum of 'more stuff'...

Met HBM en FreeSync kan AMD wel degelijk veel goodwill creëren, alleen blijkt eens te meer waarom nVidia nog even op GDDR5 bleef plakken (meer dan 4Gb VRAM voor topkaarten is toch al wenselijk) en waarom ze hun eigen scaler pushten met GSync (FreeSync werkt op veel vlakken nog steeds niet zo optimaal als GSync). Allemaal een kwestie van tijd voor AMD de puntjes op de -i- zet natuurlijk, maar ik kan de keuze voor nVidia goed begrijpen als je het afgelopen kwartaal een nieuwe videokaart wou kopen.

[Reactie gewijzigd door darkjeric op 6 november 2015 15:47]

AMD heeft toch ook nog wel voordelen hoor ten opzichte van Nvidia, zo vind ik standaard zonder calibratie van je monitor AMD kaarten toch een mooiere kleurweergave hebben en hebben AMD kaarten een veel betere video output.

Vraag maar eens aan een HTPC bouwer welke kaarten een beter plaatje weten neer te zetten. ;)

Dus, voor een HTPC zou ik in ieder geval zonder twijfel voor een AMD kaart kiezen.

Zoals je leest, is snelheid of energieverbruik(een passief gekoelde AMD verbruikt ook niet zoveel) van een grafische kaart niet altijd van belang maar meerdere elementen bepalen een aanschaf voor een bepaald merk.

Als kleurweergave en video output een key factor is dan heb je allicht betere opties dan nvidia.

[Reactie gewijzigd door Tourmaline op 6 november 2015 18:24]

Dat is raar aangezien het signaal pas in de monitor wordt omgezet naar een analoge kleur (licht) en tot die tijd volledig digitaal is.
Misschien dan toch betere drivers voor video-output?! ;)
Zo slecht zijn de AMD drivers dus toch niet. :)

De kaart stuurt de monitor immers aan en die bepaald hoe de kleur wordt gestuurd naar de monitor.

https://www.amd.com/Documents/10-Bit.pdf

[Reactie gewijzigd door Tourmaline op 7 november 2015 10:36]

10 bit output zegt niet zoveel als het gros van de consumentenschermen maar 6 bit kan weergeven. Bij de wat betere monitoren wordt een '8-bit' kleurenweergave met een 6 bit scherm bereikt door de subpixels snel aan en uit te laten gaan.
Native 10 bit schermen zijn er nog niet zoveel, en al helemaal niet bij consumenten.

Als een programma een kleur op het scherm wil zetten dan moet de driver zich daar niet mee gaan bemoeien.

Berekeningen (hardware video-decoding, 3d) kunnen echter wel een andere implementatie hebben en als gevolg een andere kleuroutput, misschien is dat wat je bedoelt?
TV's hebben tegenwoordig wel 10 bit. Een HTPC kan ook 10 bit uitsturen. ;)
Je hebt die kleurinformatie helemaal niet, dus het is zinloos. Wel erg leuk dat het kan, maar alleen als je ook 10 bit sources hebt en die zijn er alleen binnen, en met professionele apparatuur. Pas nu zijn de eerste stappen gezet om 10 bit naar de huiskamer te brengen, maar we wachten nog altijd op source materiaal met die kleur informatie.

Ook de 'betere kleuren' met AMD drivers zijn een fabeltje. Misschien als je video kijkt, dat kan nog omdat de GPU daar iets mee kan doen zoals deinterlacing, maar verder toch echt onmogelijk. Dit zijn ongetwijfeld geluiden uit een HTPC clubje, en die hebben doorgaans last van elfjes en maanlicht syndroom zoals een audiofiel dat ook heeft bij kabels van een paar honderd piek.

[Reactie gewijzigd door Vayra op 9 november 2015 15:06]

Mijn elfjes ogen zeggen mij dat een AMD kaart betere video out heeft dan een Nvidia kaart. Zelfs met niet elfjes ogen duidelijk te zien. :) ;)

Ik las net een review over video output op een website AMD vs Nvidia en die geeft ook de voorkeur aan AMD. ;)

Je graka stuurt de kleurweergave aan. Immers, een colorimeter ziet de kleuren van de monitor en past de kleuren aan via een icc profiel die je graka leest en derhalve de kleuren aanpast zodat je goede kleuren op je scherm hebt. ;)
Op je monitor hoef je meestal alleen helderheid en contrast in te stellen, de rest doet de graka via het icc profiel.

Tenzij je een hardware lut hebt in je monitor.

[Reactie gewijzigd door Tourmaline op 9 november 2015 16:20]

AMD is net zo erg, sorry dat ik het zeg. Iedereen maakt zich er schuldig aan, niets is te dol en als het dat wel is, wordt er een rekensommetje op los gelaten en soms neemt men gewoon het risico van een juridisch conflict. Kijk naar Volkswagen nu. Ik geef je op een briefje dat nadat de storm voor VW is gaan liggen, ze er nog steeds enorme winst uit hebben gehaald.

Nvidia is er alleen beter in, en dat is inderdaad geen compliment.

[Reactie gewijzigd door Vayra op 6 november 2015 17:56]

Hetzelfde bedrijf dat verklaard dat hun kaarten DirectX 12 ready zijn, terwijl dit niet zo is.
Dat geldt vooralsnog voor zowel AMD als nVidia.
waarschijnlijk door het hogere procede (28nm).
Ook hier geldt weer dat dat vooralsnog voor beide geldt.
Buiten deze misleiding zitten ze AMD dwars met vieze deals voor de implementatie van hun Physx.
Zowel Physx als gameworks maken gebruik van proprietary IP ja. Echter, in bijna alle games die er gebruik van maken kun je het via de settings ook aanpassen of uitzetten.

En de invloed op de performance van AMD GPU's is niet altijd puur aan nVidia te wijten. Hadden AMD GPU's bijvoorbeeld een betere tessellation implementatie en performance gehad, dan had de gameworks implementatie in the Witcher 3 bijvoorbeeld (die volledig uit te zetten Is) niet of nauwelijks invloed gehad op de performance van AMD GPU's.
md komt met nieuwe technieken zoals Mantle en opvolger Vulkan,
Vulkan is meer de opvolger van OpenGL.

AMD zal daar vast aan bijdragen. Maar dat geldt voor heel veel meer andere partijen.
GTX970 en R9 390, zitten ze op ongeveer dezelfde prijs alleen is de R9 390 nieuwer en komt deze met 8GB VRAM ipv 3.5GB VRAM.
De 970 is een uitgeklede Maxwell GPU terwijl de 390 een rebranded Hawaii GPU is. De 390 is daarmee een stuk ouder dan de 970.
Het 4GB vs 3,5GB drama was inderdaad een vervelend marketing spelletje. Al kun je natuurlijk ook stellen dat de 8GB van de 390 net zo goed een cijfertje is voor de marketingafdeling. Die 8GB Is namelijk ten opzichte van de mogelijke performance van de 390 compleet niet in verhouding. Tegen de tijd dat de kaart die hoeveelheid geheugen wil aanspreken Is de performance normaal gezien al tot een diashow gereduceerd, tenzij het een crossfire opstelling betreft.

Anyway, leuke fanboy rant. Maar je mist imho wat perspectief op de zaak. Het is mijns inziens veel verhelderender zowel nVidia als AMD gewoon als hardware leveranciers te zien, niets meer, niets minder.
Vind dit oneerlijk. Nvidia een bedrijf dat 3.5GB VRAM verkoopt voor 4GB. Hetzelfde bedrijf dat verklaard dat hun kaarten DirectX 12 ready zijn, terwijl dit niet zo is.
De GTX 970 heeft gewoon 4gb VRAM het laatste stukje is alleen wat langzamer verder is het gewoon een prima kaart en op 1080p merk je daar geen bal van. Ook zijn de kaarten wel geschikt voor DX12 maar missen alleen features net als die van AMD trouwens. Beetje misleidend van Nvidia misschien maar jouw beweringen kloppen gewoon niet.

[Reactie gewijzigd door dezwarteziel op 6 november 2015 19:26]

De GTX970 is een goede en populaire kaart, gewoon met de 3,5GB werkt die prima. Misleiding, tja sommige mensen hebben daar last van maar in de praktijk niet merkbaar toch? Feit is dat Nvidia ook met gaming verkoop flink in de plus zit, zal niet zomaar zijn.
Het ging hier om de GTX970. Gelijk dat deze "4GB" VRAM heeft, maar hiervan is maar 3.5GB het snelle aangeboden VRAM en 0.5GB een heel stuk trager:
nieuws: GTX 970 heeft minder L2-cache en minder rops dan Nvidia meldde
4GB is uit testen ook ruim voldoende gebleken. Zelfs op 4K.

Het gaat er alleen om dat je een 4GB kaart koopt en je een 3,5GB kaart plus 0,5GB krijgt. En dat is wat iedereen niet leuk vind.
Denk het niet hoor! Uit de benchmarks blijkt dat de nieuwe titels die er nu aankomen zeker wel een 4gb kaart nodig hebben! Dus, zo ruim voldoende is het al niet meer.
Dat noem je een luie programmeur. Arkham die met 12 GB pas goed draait, De nieuwe Cod die 12 GB nodig heeft.

Dit heeft niks met de zwaarte te maken maar met programmeurs die geen zin hebben om het te optimaliseren.

Als ik zulke games en apps zou lanceren in de AppStore wordt ik zeker weten op mn vingers getikt
En net als die game shadow of mordor. De game zag er ook niet heel bijzonder uit., maar op de hogste setting was het beter dat 4gig vram had. En dit zie je steeds met meer games.
Crysis 3, nog steeds veel zwaarder dan wat er op de consoles draait tegenwoordig, pakt 2GB en draait daar goed op.

The Witcher 3, 1080p, ultra textures, pakt niet meer dan 2GB.

GTA V, alle schuiven los met een beperking van het aantal NPC variaties, kan prima binnen de 2GB en ziet er dan veel beter uit dan de console equivalenten met meer VRAM. Ga je er structureel overheen met een 2GB kaartje, dan zie je héél zelden een beetje stutter of een hikje.

Het kán dus wel... Daarmee zeg ik overigens niet dat het onmogelijk is dat een game meer dan 2 GB vraagt, ook niet voor 1080p, en het is ook onvermijdelijk dat we nu 4GB gaan aanraden, maar we weten ook allemaal dat werkelijk en letterlijk élke game die een hoge VRAM eis heeft, ook een console port is. En we weten ook dat die consoles een andere samenstelling hebben, met een hele sloot unified of GDDR5 RAM. En als kers op de taart hebben 7 lange jaren last-gen consoles bewezen dat ports er vaak bekaaid vanaf komen en de PC versie dan het doodgeboren kindje wordt.

1+1 = ?

[Reactie gewijzigd door Vayra op 9 november 2015 14:31]

3.5 vs 4GB heeft geen impact. Blijkt ook uit testen. Bovendien zit er wel echt 4GB in, alleen 0.5GB in een tragere vorm.
Je moet eens op HWI lezen naar de testen en reviews van DatzAccountz. Hij heeft wel degelijk problemen aangekaart betreft deze zogenoemde MemoryGate.
Dat verbaast me niets. De GTX970 loopt als een trein; echt een groot succes die kaart (ondanks het 3,5gb VRAM drama..), met een erg goede prijs-prestatieverhouding.
toch heeft de AMD R9 390 tegenwoordig een betere prijs/prestatieverhouding. Kost hetzelfde, maar vecht in meer games met de 980 dan met de 970. Helemaal als je op 1440p speelt ipv 1080p.

Wat ik op zich zelf heel opvallend vond, aangezien dit weer een refresh is van AMD van architectuur van een paar jaar geleden. Toch krijgen ze het voor elkaar om een kaart op de markt te zetten die mee kan doen met de nieuwere architectuur van Nvidia. Ik vraag me af of ze deze strategie niet al in gedachten hadden toen ze de architectuur ontworpen, aangezien er dus blijkbaar heel veel verbeterruimte zit in die architectuur.

[Reactie gewijzigd door Nighthawk213 op 6 november 2015 15:21]

Ben echt benieuwd wat er gaat gebeuren wanneer ze de stap van 28nm naar 14nm gaan maken: nieuws: GlobalFoundries maakt eerste AMD-testchip met finfets op 14nm

AMD's kaarten worden een stuk minder warm en gaan dan minder verbruiken. Dat is het enige punt waar Nvidia nog iets van voorsprong op heeft. AMD kan met de oude architectuur al jaren opboksen tegen nieuwere technieken van Nvidia.
nvidia gaat dat zelfde 14nm gebruiken natuurlijk.

waar nvidia vooral stroom mee bespaard heeft is door de double precision performance flink af te bouwen. die is nog maar 1/32ste van de single precision.

en met fury heeft AMD die double presicion naar 1/16 gezet en die verbruikt maar 30 watt meer in games als de gtx980ti. het verschil is dus helemaal niet zo groot.

sorry, ik had te snel gelezen, ze gaan allebij 16nm gebruiken.

[Reactie gewijzigd door Countess op 7 november 2015 15:54]

Het staat nog niet vast of AMD z'n GPU's bij Global Foundries op 14nm gaat bakken of dat ze voor hun GPU's bij TSMC blijven waar een 16nm procede gebruikt gaat worden.

Indien ze bij TSMC blijven zitten ze net als voorheen nog steeds op hetzelfde procede, bij dezelfde chipmaker, als nVidia.

Waar AMD zijn discrete GPU's gaat bakken lijkt me uiteindelijk erg afhankelijk van de productiecapaciteit en de yields bij Global Foundries. AMD verwacht veel van Zen. En het succes van Zen is naar verwachting veelbepalend voor het voortbestaan van de CPU-tak. Logischerwijs heeft Zen dus voorrang bij Global Foundries.

Indien Global Foundries en TSMC afvallen kan Samsung op 14nm wellicht ook nog een optie zijn. Al Is daar de ervaring met complexe discrete GPU's niet aanwezig.
Global Foundries gebruikt Samsungs 14nm proces, dus als dat bij hen werkt kan het ook bij Samsung natuurlijk.
In principe wel ja.

Het hebben van de machines en de techniek van een process node is echter an sich geen garantie tot succesvolle productie of goede yields. Ervaring en expertise speelt ook een rol. Ja, dat kan gaandeweg opgebouwd worden, maar de GPU markt heeft redelijk snelle cyclussen en het betreft bij discrete GPU's relatief complexe chips. De hoeveelheid beschikbare tijd en de benodigde tijd om aan de productie vraag te voldoen moeten wel enigszins overeenstemmen.

Ik meen ergens gelezen te hebben dat nVidia met zowel TSMC als Samsung onderhandeld heeft voor de productie van Pascal, en mogelijk de opvolgers daarvan. Een van de redenen die nVidia als ik het me goed herinner opgaf om toch voor het proces bij TSMC te gaan was de bij TSMC aanwezige ervaring met de productie van hun chipontwerpen.

Anderzijds, het is Samsung. Geen kleintje op chips gebied en sowieso een bak ervaring wat betreft chips bakken.
14nm vs 16 nm betekent volgens mij niet zoveel meer. Het is de zelfde verkleiningsstap, dus ze zullen op redelijk gelijk niveau zitten.
Genoeg hoor, dat kan je zo een 30-50 watt schelen aan hitte wat je kwijt moet. :)
Kan maar hoeft niet er komen nog flink wat andere dingen bij kijken.

Daarnaast kan een kleiner procede ook betekenen dat je meer uitval hebt.
Ooooow daarom presteerd 16nm TSMC in de iphone beter dan 14nm Samsung.

Alleen nm's van de kleinste features zeggen niet zo veel!
Het punt is meer dat die 14/16nm schaal niet persé representatief is voor de daadwerkelijke grootte van het proces. Verschillende fabrikanten anteren andere "maten".
Die link gaat niet om GPUs. Zoals in het artikel staat is men zich niet zeker of dit om een CPU of APU gaat. Een APU is een CPU met ingebouwde GPU.

En Nvidia gaat ook naar een kleiner proces en Nvidia komt in 2016 ook met een nieuwe arch welke waarschijnlijk een flinke sprong naar voren zal zijn. Deze zal dan ook meteen HBM2 hebben.
Sorry nu wil ik onderbouwing zien. Want elke benchmark die ik zie laat ongeveer het beeld zien als in dit filmpje. Naast dat het een hele slechte overclocker is tegenover de 970 die je daadwerkelijk kan klokken tot 980 niveau. https://www.youtube.com/watch?v=k9cKZiJw6Pk

AMD lijkt overigens echt gewoon heel weinig te verdienen op hun gpu's omdat deze veel complexer en groter zijn om hetzelfde qua prestaties neer te zetten. Dit is vooral een groot probleem voor AMD. Nvidia cashed lekker in met efficiente GPU's die relatief goedkoop zijn om te produceren waarbij AMD heel veel extra werk moet verzetten om hetzelfde te bereiken. Is ook niet zo gek, de cashflow van Nvidia is vele malen hoger.
Battlefield 4:

http://www.eteknix.com/sa...b-graphics-card-review/5/
http://www.tomshardware.c...ro-r9-390-8g-d5,4245.html

Battlefield: Hardline
http://www.guru3d.com/art...90-pcs-8gb-review,19.html

Hitman: Absolution:
http://www.eteknix.com/sa...b-graphics-card-review/8/
http://www.guru3d.com/art...90-pcs-8gb-review,21.html

Metro: Last Light:
http://www.eteknix.com/sa...b-graphics-card-review/9/
http://www.tomshardware.c...ro-r9-390-8g-d5,4245.html

Thief:
http://www.guru3d.com/art...90_pcs_8gb_review,14.html

Middle earth: Shadow of Mordor:
http://www.guru3d.com/art...90-pcs-8gb-review,16.html
http://www.tomshardware.c...ro-r9-390-8g-d5,4245.html

GTA V:
http://www.tomshardware.c...ro-r9-390-8g-d5,4245.html
http://www.guru3d.com/art...90_pcs_8gb_review,13.html
http://www.eteknix.com/sa...b-graphics-card-review/7/

Guru3d: in 6/9 is de 390 dichterbij de 980 dan de 970, of beter, doch soms alleen vanaf 1440p

Eteknix: in 4/6 is de 390 dichterbij de 980 dan de 970 of beter, doch soms alleen vanaf 1440p

Tomshardware: 4/6 is de 390 dichterbij de 980 dan de 970 of beter, doch soms alleen vanaf 1440p.

Dit waren de eerste 3 reviews bij de zoekterm "r9 390 review" op google. Ik zie dus toch wat anders dan jij blijkbaar ;)
Man man man wat verkleur je hier het beeld zeg. Een toprange 390 die aardig tot d emax overgeclocked is in het geval van de Sapphire vergelijken met 1 van de mindrre 970 varianten.

Daarom pakte ik nadrukkelijk dat filmpje als argument qua framerates. Dan zelfs nog in je links val die er vooral in het midden. Bij de Guru3d pak je weer een overclocked kaart versus referentie kaarten in de grafieken. Ik noem dat niet objectief.

Zo kan ik zaken ook wel verkleuren. Zie maar wat er gebeurd als je het megahertz schuifje wat naar rechts schuift in MSI afterburner op een 970 http://www.hardocp.com/ar...ng_4g_video_card_review/9

Geen enkele AMD kaart in deze range die zo ver komt en er zoveel baat bij heeft.
Overclocks? De kaarten zijn allemaal met de stock snelheden gebenchmarked, of mis ik iets?

Die Sapphire kaart bij eteknix heeft standaard een 5% overclock, die pCs+ kaart een 1% overclock boven de reference design. Maar bij beide reviews zijn ze niet verder geoverclockt voor de benchmarks.

Bij Tomshardware moet ik je gelijk geven, dat was me niet opgevallen. Dus de benchmark van Tomshardware bij Battlefield 4 en GTA V vallen af. Bij alle andere benchmarks is de kaart op stock snelheden nog steeds sneller dan een GTX 980.

Dus gaat het nou om die 5% en 1% overclock? Want zelfs als je 5% of 1% van de FPS afhaalt zijn ze nog steeds sneller of dichterbij de 980 dan de 970 in hoeveelheid fps.

Heb ik dus iets over het hoofd gezien?
De 390 heeft wel baat bij overclocks. Net zoals de 970 overigens. Maar die PCS dacht ik dat die hoger geclocked was. Maar kan me daarin vergissen. In andere benchmarks zie ik in ieder geval kleine verschillen. Heb de 390 overigens zelf getest en op mijn systeem inclusief overclocken kwam ik in ieder geval tot de conclussie dat ik de 390 van MSI overigens terug ging sturen. De *gb is wel erg leuk als je crossfire gaat draaien en ik denk dat deze daarmee the best bang for the buck zou zijn. 4K met 2 gpu's moet lukken en je hebt 8 GB om die resolutie in kwijt te kunnen.
Ik vermoed toch elke keer weer dat Nvidia de winst vooral pakt in een heel strak QA en- driver-regime tegenover een veel minder adequaat QA - en driver team bij AMD. Je ziet het aan alles, de time to market van drivers na een game release, de afwerking van de applicaties, de hoeveelheid updates en ook de stock koeler die meer dan eens het feestje voor AMD wist te verpesten... Dat verklaart ook dat AMD na verloop van tijd meer uit de bestaande hardware weet te halen, en Nvidia nieuwe hardware moet uitbrengen om verder te komen.

[Reactie gewijzigd door Vayra op 6 november 2015 18:01]

Je ziet het aan alles, de time to market van drivers na een game release,
dat is vaak afgekocht bij publisher, In het contract staat dat AMD pas een kort voor de release bij de game betrokken mag zijn, lang nadat alle belangrijke beslissingen al gemaakt zijn, en AMD zelfs te weinig tijd heeft om geoptimaliseerde drivers te schrijven. en zelfs dan mogen ze veel broncode niet in zien, en is er te weinig tijd om iets met enige sugesites van AMD te doen voor de code die ze wel mogen zien.

dat is dus niet zo zeer het falen van AMD maar de market verziekende praktijken van nvidia.

daarbij heeft nvidia al tot 2 keer toe drivers uitgebracht die tot het overlijden van je kaart konden leiden. ja heel strak idd.
Ja, leuk geprobeerd, maar het is meer dan eens voorgekomen dat AMD benaderd wordt en geen respons geeft. Soms komen ze pas na een release kijken omdat een game zonder tweaks niet lekker loopt.

[Reactie gewijzigd door Vayra op 9 november 2015 09:23]

bij een tripple A game? lijkt me sterk.

dat ze niet de middelen hebben om bij iedereen langs te komen lijkt me niet meer dan logische.

[Reactie gewijzigd door Countess op 9 november 2015 10:02]

Bij zo;n statement betreft contracten zou ik graag bewijs willen zien. Nvidia beweerd namelijk iets heel anders.
Dat ga je niet vinden. Countess ook niet. HIj echo't een paar Youtube filmpjes.

Case in point, Shogun 2, Gaming Evolved titel met nul komma nul Gameworks, draait beter op Nvidia hardware. En zo zijn er nog een sloot voorbeelden. Er is gewoon een feitelijk verschil in budget voor het driver team en dat zie je. Beetje jammer om dan gelijk weer een vinger richting Nvidia te wijzen, alsof AMD Calimero heet.

[Reactie gewijzigd door Vayra op 9 november 2015 13:58]

> Gaming Evolved titel met nul komma nul Gameworks, draait beter op Nvidia hardware.

maar niet bagger op AMD hardware, zoals gameworks games dat wel doen. het bewijs dat AMD nvidia geen strobreed in de weg legt.

[Reactie gewijzigd door Countess op 9 november 2015 14:02]

Het wordt een beetje de Godwin van je, dat alles en iedereen AMD pest. Niet echt zuiver.

[Reactie gewijzigd door Vayra op 9 november 2015 14:17]

1 bedrijf pest AMD en dat is nvida.

en dat doen ze keer op keer, en mensen gaan het nog verdedigen ook.

[Reactie gewijzigd door Countess op 9 november 2015 14:40]

Misschien moeten ze gaan meehuilen, daar wordt AMD rijker van...

Zet die oogkleppen een keer af, AMD laat gewoon heel veel dingen na en dát is de reden dat ze marktaandeel bloeden, en niet de 'pesterijtjes' van Nvidia. Als je dat écht denkt, dan zit je nog in een schoolplein mentaliteit en hoor je daar ook thuis.

[Reactie gewijzigd door Vayra op 9 november 2015 14:43]

ik heb nooit gezegd dat AMD perfect is. en als jij jouw oogkleppen eens af zou zetten zou je gewoon zien dat nvidia dingen doet die niet door de bugel kunnen, die ronduit slecht zijn voor de PC game market, AMD klanten, en zelfs hun eigen nvidia klanten die niet de aller laatst generatie hebben geschaden toe brengt.

daar over klagen en dat onder de aandacht brengen is niet 'huilen'. dat is iets aankaarten dat, op de lange termijn gewoon slecht is voor iedereen die van PC games houdt.

en wat zat je net over shogun 2 te roepen

de r9 390x presteert gewoon gelijk aan de gtx980 bijvoorbeeld

http://www.cowcotland.com...te-graphique-r9-390x.html (eerst benchmark in google)

[Reactie gewijzigd door Countess op 11 november 2015 00:28]

Gameworks draait alleen minder op AMD hardware omdat er een heel hoop tesselation in verwerkt zit. Iets waar AMD kaarten niet goed in zijn. AMD heeft weer andere voordelen zoals een heel hoop bandwidth. Toch draaide proprietary AMD code minder goed op Nvidia uiteraard zoals TressFX in Tomb Raider.
zoals TressFX in Tomb Raider.
kijk, dat is dus niet waar. alleen heel in begin toen het net uit was. maar omdat AMD er een open standaard van heeft gemaakt kan nvida net zo hard optimaliseren als AMD en loopt het nu ongeveer gelijk was prestatie kosten betreft.

en bij tessellation zit het toch ook iet anders. AMD kan juist veel meer tessellation aan als nvidia, alleen niet op 32 of 64x (wat ook gewoon belachelijke waardes zijn)
bij 4x of 8x is AMD VEEL sneller, en bij 16x maar iets langzamer.
nvidia werkt anders en kan een bepaalde (veel kleinere) hoeveelheid tessellation aan, maar dan maakt het bijna niet uit of het 2x of 64x is.

als AMD nvidia zou willen zieken dat zetten ze op alles in de game 2x tessellation en dan is het niet meer vooruit te branden op nvidia terwijl AMD nergens last van heeft.

[Reactie gewijzigd door Countess op 9 november 2015 16:39]

Fijn voor Nvidia, waar ik al een aantal jaar trouw aan ben, maar ik wordt echt bang dat AMD straks het onderspit gaat delven. Wellicht uit principe bij de volgende upgrade maar weer eens voor het rode kamp gaan...
Hoe je kijk op AMD ook is voor ons als consument zou het niet zo best zijn als AMD nog verder aftakelt. Bij het CPU gebied hebben ze het moeilijk en de GPU verkopen zakken het laatste jaar ook flink in. Intel en Nvidia krijgen een beetje een monopolie, dat is voor de vooruitgang en aanschafprijs meestal geen gunstig teken.

Ben wel benieuwd of ze met deze goeie cijfers wat meer vaart zetten achter Pascal, als alles wat ze claimen ook waargemaakt kan worden gaat dat een leuk chipje worden :)
Over de GPU divisie (ATI) van AMD hoef je je weinig zorgen te maken hoor.
Zie: http://i.imgur.com/bNqJYgA.png En wat nieuwere info

Komt mij niet echter als een leien dakje over ;)
De laatste rebrand op GPU zag er anders behoorlijk uit als een sterfhuisconstructie.
is puur gedaan omdat de hoeveelheid winst te halen op de laatste generatie op 28nm miniem was en niet opwogen tegen de kosten voor het uitbrengen een hele lijn kaarten die ze nog geen jaar gaan verkopen.
Inmiddels wel, vroeger hielden ze elkaar nog in evenwicht maar nu verliest AMD in hoog tempo marktaandeel aan nVidia.
Laten we hopen op een goede Zen CPU's
Op een of andere manier koop ik liever een AMD GPU dan een Nvidia. (voelt sneller bla bla, weet ik veel) CPU dan weer Intel.
AMD is alleen niet zo energiezuinig }>
Qua grafische kaarten doet AMD het toch nog steeds vrij goed? Alleen vind ik het jammer dat ze bepaalde modellen constant blijven rebranden waardoor je gewoon een hele oude chip koopt zonder alle nieuwe AMD features en al helemaal geen HDMI 2 en HEVC. Wat dat betreft doet nVidia het beter zeker nu ze ook met de GTX950 het instapsegment een vernieuwing hebben gegeven.
Qua grafische kaarten doet AMD het toch nog steeds vrij goed?
Nee, het gaat minder en minder goed.
https://i.imgur.com/bNqJYgA.png
Daarom domineert AMD de Hogere resolutie wereld al jaren. Zelfs met 4K is de Fury net wat sneller.
Domineren is een heel groot woord. Op die resoluties schommelt het 1 a 2 frames onderling. De 980TI en Fury X presteren nagenoeg identiek.
Even wat voorbeelden:

HD5800 serie. Allemaal beter op hogere resoluties
HD7000 serie. Waren allemaal beter op hoge resoluties
R9 200 serie waren beter op Hogere resoluties

Fury serie. Hoe hoger de resolutie des te sneller.

Dit is allemaal op Google te vinden hoor.
En dat zou heel leuk voor AMD zijn als daar veel kaarten mee worden verkocht maar gezien AMD's resultaten is dat duidelijk niet de markt waar echt op verdiend wordt.
Daar gaat deze discussie niet om. Chicane zegt dat AMD het qua kaarten nog goed doet. En t feit is dat die kaarten ook goed zijn,
Daar gaat het dus wel om, AMD lijd gigantische verliezen ieder kwartaal en als dat niet snel veranderd dan is er straks gewoon geen concurrentie meer en dat is slecht voor iedereen.

Dat de kaarten op zich goed zijn is geen issue, dat er geen winst op gemaakt word wel en dat komt omdat de Nvidia de prijs kan bepalen en AMD meemoet in het prijsbeleid van Nvidia die duidelijk goedkoper kan produceren en hogere marges heeft, 20% winst maken is behoorlijk hoog in dit sort markt.
Dat ze verlies maken is de discussie niet. Ik weet dat begrijpend lezen moeilijk is maar ChicaneBT heeft gewoon gelijk dat AMD goeie GPU's heeft. De discussie die jij op poten probeert te zetten is helemaal niet aan de orde.
En blijkbaar hebben ze daar vrij weinig aan aangezien ze steeds meer marktaandeel blijven verliezen en het financieel ook verre van goed gaat.

Slechts een klein deel van de mensen speelt op 4k dus dan heb je er niet zoveel aan dat jouw producten hier beter in zijn.
Zoals reeds is aangehaald op hardware-fora en sites als AnandTech: AMD is nu eenmaal een (veel) kleiner bedrijf dan Intel en nVidia, maar probeert wel te concurreren op beide markten. Dit zorgt ervoor dat ze heel wat strategischer moeten omgaan met R&D-budgetten, en dus hebben ze hierdoor wellicht besloten pas met nieuwe designs te komen wanneer hun 14nm-procédé ook echt gebruikt kon worden. Daarom hebben ze hun 300-reeks vooral gebaseerd op oudere, lichtjes getweakte ontwerpen en brengen ze al jaren geen high-end CPU's meer uit. De grote focus ligt op hun volgende serie GPU's op 14nm (en wellicht veel meer toegepast HBM2-geheugen) en de Zen-architectuur voor CPU's.
ik zou de R9 fury toch wel high end noemen hoor.
Veel kleiner? Tot een jaar geleden was AMD nog een groter bedrijf dan nVidia, en nog steeds werken er meer mensen.
zo oud zijn die chips niet, en nvidia verkoopt nog net zo'n oude chips in somige segmenten.

daarbij is de hele lijn vervangen vlak voor 28nm met pension gaat (en straks compleet word weggeblazen door de nieuwe chips op 16nm) gewoon zonde van het geld.
ik snap je wel hoor maar ik ga mijn zuurverdiende centjes uitgeven aan de zo best mogelijke hardware. Is dat nu groen(nvidea, rood(AMD) of blauw(intel) dat maakt me niet zoveel uit.
Dat is logisch en werkt op korte termijn ook zeker in je voordeel. Alleen op lange termijn mogelijk niet, en dat is nou net hoe Maruten het bekijkt ;)

Ik ga itt jou niet voor het beste maar wat mij het meeste oplevert voor het minste geld, ik ga voor 10% betere performance dus niet 20% meer betalen, uiteraard ga ik wel voor een high end kaart, maar 300 a 400 euro is wel mn max...

[Reactie gewijzigd door watercoolertje op 6 november 2015 15:22]

AMD heeft 2 kleuren :P

Groen voor de CPU divisie en Rood voor het GPU kamp.
Van gamer perspectief 10% maakt je game beleving niet drastisch anders. Wordt dan cijfertjes neuken. tov iNtel lopen ze zo ver achter dat gecompenseerd wordt door dump prijs. Een CPU blijft lang up to date dan GPU. En bij Games is de GPU die meeste onderscheid maakt. Met DX12 de toekonst helemaal.

Maar tov NVidia is verschil praktisch niet zo relevant dus met AMD zit je ook goed.
Dan kan je kiezen op wat is je favo game. gebruik je veel games die Cuda PhysX gebruiken.

Maar voor ietsje beter presteren ga ik niet voor NV. Moet kawa prijs performance stukken beter zijn. Ik kijk uit wat AMD op 14nm gaat brengen kwa CPU en GPU.

Mijn voorkeur is AMD tov van iNtel en NVidia.
Nu zou ik intel gaan voor CPU en AMD voor GPU.
kan nog jaar duren voor AMD en NVidia 14 en 16 nm geweld.

Dus R9 380 gehaald om 5870 te vervangen
Nvidia is ook wel hard bezig met anticompetitieve maatregelen die vooral voor AMD ongunstig zijn. Al zou ik willen zeggen dat Nvidia niet eens zijn best hoeft te doen om AMD te benadelen, dat kan AMD zelf ook wel best goed. Kijk alleen al naar de dramatische OpenGL implementatie van AMD.
met vulkan voor de deur gaat dat ook niet gefixed worden. daarbij is voor het overgrote deel van de gamers openGL totaal niet interestant omdat weinig games het gebruiken.
de openGL implementatie van AMD is lang niet zo dramatisch als mensen zeggen, althans niet op windows, zo draait bevoorbeeld mijn moeder zijn laptop van 6 jaar oud met een budget AMD kaart met gemak openGL games als rage en amnesia: The Dark Descent
Grappig dat je het zegt, ik heb zelf laatst een AMD 390 gekocht als warmhouder voor de release van de Nvidia Pascal chip, waar ik hoge verwachtingen van heb.
En hier zien we hoe AMD ten onder gaat.

Nvidia boekt een enorme winst, met deze winst kunnen ze nog meer deals afsluiten waardoor ze AMD nog meer in de weg gaan lopen en ofc researh zodat de Nvidia kaarten nog beter vooruitgaan dan AMD waardoor nog meer mensen AMD links laten liggen.

Natuurlijk is het AMD's fout dat ze achterlopen (In elk geval Ati dan, AMD heeft het jaren moeilijk gehad met Intel sure) maar als AMD inderdaad op de fles gaat betekend dit voor ons gamers dat de prijzen lekker hoog kunnen blijven, aangezien Intel niet kan concurreren en Matrox, tja Matrox is niet eens meer noemenswaardig.

I miss the old days, 3Dfx, Ati, Matrox Nvidia, Hercules en nog een beetje S3

[Reactie gewijzigd door rickboy333 op 6 november 2015 19:16]

En hier zien we hoe AMD ten onder gaat.
Och, de tenondergang van AMD is helaas al behoorlijk lang bezig. De aankoop van ATI was veel te duur. Dat Is de basis imho. De financiële impact daarvan weegt als een vicieuze cirkel door op hun R&D budgetten, marketing budgetten, etc.

Onafhankelijk van elkaar deden beiden het relatief gezien bijzonder goed. ATI en nVidia gingen haasje over, en lange tijd was ATI gewoon beter, sneller en groter dan nVidia. Intel had vaak een flinke kluif aan AMD, en AMD wist regelmatig betere performance te leveren dan Intel.

Maar goed, dat zij oude koeien.

Mocht AMD ten onder gaan dan zie ik dat nog niet eens zo duister tegemoet. De GPU tak heeft namelijk een enorme hoeveelheid kennis, ervaring, en IP. Een mogelijke koper van dat deel van AMD, of een doorstartend afgesplitst ATI, kan daarmee vrijwel per direct de concurrentie hervatten met nVidia. Vanuit een waarschijnlijk financieel veel gezondere bedrijfssituatie.

Wat de CPU tak betreft is dat lastiger doordat de x86 deal met Intel niet zomaar overdraagbaar is aan een andere entiteit. Maar Intel is anderzijds niet gebaat bij een totaal monopolie op x86 gebied, dus idk.

[Reactie gewijzigd door houseparty op 6 november 2015 19:39]

AMD is te goed om ten onder te gaan, ik zie dan een andere grote speler AMD opkopen. Allicht Intel?
Misschien dan hopen op een overname van (een tak van) AMD door bv. IBM of Qualcomm of een dergelijke marktspeler. Want inderdaad, het is echt rampzalig als er een dergelijk monopolie zou bestaan.
Hercules past niet echt in dat rijtje: powervr, rendition en matrox wel :D. Maar laten we eerlijk zijn 3DFX maakt de enige echte PC 3D kaart in die tijd tot Nvidia en ATI eindelijk met iets competitief kwamen (TNT & Rage128).
nou de TNT ben ik met je eens maar laten we even niet vergeten hoe bagger slecht de driver support was in die tijd van ati
Ja zoveel is er niet veranderd. Nu eerlijk toegegeven mijn 3DFX Voodoo Banshee (de goedkope 2D/3D combokaart van 3DFX) had net zoals zijn spirituele voorganger de Voodoo Rush ook initieel een hoop driverproblemen.
Ach zelfs al gaat AMD als gpu fabrikant ten onder, er zijn aan het gpu front ook nieuwe spelers opgekomen: Intel, Qualcomm, Imagination, ARM. Zolang de discrete gpu markt voldoende marges biedt springt er echt wel 1 van dat groepje in het ontstane gat.
Matrox is nog steeds een goede keuze voor desktops in het bedrijfsleven die een zeer goede kleurweergave nodig hebben. Daar was en is Matrox toch nog steeds heer en meester. Qua snelheid inderdaad niet echt een kaart voor multimedia en gaming.
oooo die prijzen kunnen prima wat omlaag :+
Als ze uit een omzet van 1,3 miljard dollar 246 miljoen dollar winst maken zitten ze (ookal is het veel geld) niet met een mega grote winst marge...
Beter dan AMD het doet, maarja
20% winst vindt jij weinig? Heel veel bedrijven zijn er jaloers op...
In de tech industrie is het volgensmij redelijk standaard om zulke marges te halen, maar dat kan ik natuurlijk verkeerd inschatten ;)
ik vind 20% een mooi streefgetal voor een bedrijf als dit.
Even een andere tak: Wat dacht je dat er voor een winstmarge op elektrische fietsen zit/zat? :9
Ik vind het weinig.
Daar zijn de aandeelhouders het vast niet mee eens...
Het feit dat NVIDIA aanzienlijk marktaandeel wint tov AMD wil zeggen dat de prijzen niet te hoog zijn. En het is geen liefdadigheidsinstelling natuurlijk :)
Mijn voornamelijke reden dat ik nVidia koop is toch vooral de betere software. nVidia levert frequent goede drivers aan en heeft GeForce Experience die ook veel functionaliteiten bied als ShadowPlay en vele andere opties.

De laatste keer dat ik een AMD kaart had ik alleen maar problemen met die drivers en software. Mensen die ik ken die nu nog een AMD kaart hebben zeggen nog steeds dat het altijd zo omslachtig werkt. Binnenkort gaat AMD volgens mij wel hun software wat aanpassen, maar eerst zien dan geloven :)
er zijn ook genoeg klachten over geforce experiance anders. en dat ze nu registratie verplicht gaan stellen om game ready drivers te mogen downloaden schiet ook in het verkeerde keelgat bij een aantal mensen.

en AMD heeft in Gaming Evolved de Game-DVR als alternatief voor shadow play. al meer als een jaar overigens.
De laatste grote stunt van AMD is natuurlijk het niet meer drivermatig ondersteunen van oudere kaarten in Windows 10. En dat terwijl die kaarten daar perfect voor geschikt zijn. Drivers en AMD, het zal nooit goed komen.
Ehmm, wat dacht je van scanners en printers die niet meer werken vanwege het missen van driver updates(voornamelijk 64 bit drivers) of andere 3rd party apparatuur. Ze doen het allemaal om hun nieuwe kaarten te pushen! ;)

Voor Windows 10 is het sowieso verstandig om minimaal een DX11.2 of een DX12 kaart te hebben, wil je er alles uithalen.

Je kunt niet verwachten dat een kaart van 5-10 jaar oud nog mee kan.

[Reactie gewijzigd door Tourmaline op 6 november 2015 18:45]

Ik draai een 6 jaar oude 5870. Onder windows 10 draaien spellen gewoon. Ik weet niet wat je bedoelt met geen driverondersteuning?
In je drivers voor je oude kaart zit natuurlijk geen ondersteuning voor DX12 features. ;)

Basis driver zal allicht werken onder Windows 10 en DX11 features.
Geforce Experience is dan ook niet de driver maar een losstaand programma tot nu toe. De drivers zijn tot op heden, en dat is in mijn persoonlijke ervaring, gewoon stukken beter als bij AMD en op de dag dat een AAA release uitkomt is er meestal een geoptimaliseerde driver van Nvidia te downloaden. Dat is voor mij persoonlijk gewoon een enorm pluspunt van Nvidia.
Als Linux gebruiker heb ik deze ervaring destemeer. AMD staat ook niet bepaald bekend om hun geweldige OpenGL implementatie. En dan moet ik alsnog dingen als GeForce Experience missen, terwijl ik dat ook wel soms een handig programma vind.
Hetzelfde hier, ik ben van het groene kamp puur omdat ik nooit (op een 7850 na) soepel met ATI/AMD drivers heb kunnen werken. Zeker als het op prebuild aankomt.
En hoeveel daarvan komt uit laptops? Mijn vrouw had pas een nieuwe laptop nodig, en het viel me op dat bijna overal nvidia gpu's in zitten. Waar mijn vraag dus feitelijk op neerkomt: Is deze recordomzet dankzij de keuze van consumenten voor nvidia, of voor de keuze van oems voor nvidia?
Alleen laptops met een discrete GPU hebben Nvidia aan boord voornamelijk omdat Nvidia een product levert voor laptops wat minder warmte produceert, ik schat dat 90% van de laptops toch echt geen discrete GPU hebben maar een integrated GPU van Intel.
AMD focussed geloof ik op hun integrated GPUs en de meeste laptop fabrikanten kiezen voor Intel.

En met OEM deals haal je vaak flink geld binnen maar geen absurde winsten aangezien het hier gaat om wie het meeste levert tegen de laagste prijs.
Dan is mijn vraag, welk model is het meest verkocht? Met de release van de 950 lijkt me dat er heel veel zijn verkocht van die.
Ik stoor me hier een beetje aan die laatste paragraaf.
Meer specifiek deze zin:
"De omzet in dit segment is met 192 miljoen dollar echter 82 procent lager dan in hetzelfde kwartaal een jaar geleden."

Ik denk dat het hier om een misverstand gaat aangezien in de afbeelding duidelijk Q3 FY16 staat.
De afbeelding handelt over de trend revenue.
Ik heb nooit financiën gestudeerd, maar wilt dit niet zeggen de toekomstige (geschatte) inkomsten?

Geen grote fout in het artikel, maar toch iets waar ik even op wil wijzen.
Geen fout, FY = fiscal year. En dat is niet gelijk aan onze kalender.

[Reactie gewijzigd door aval0ne op 6 november 2015 16:20]

nVidia zit nu in hun boekjaar 2016, dat loopt niet gelijk met het kalenderjaar.
Ik heb best een leuk kastje staan met een AMD Radeon R9 290 Tri-X er in, maar er zijn maar weinig games die echt goed gebruik maken van de kracht van AMD (veel komt toch op de CPU aan waar het niet zou moeten).

In mijn ervaring worden games echt gebouwd voor nVidia, wellicht door sponsoring (altijd als er heibel is, ontdek ik hun logo weer op een splashscreen of dergelijke). Ik begin een beetje een aluhoedje te krijgen, ik verdenk nVidia er wel van om ontwikkelaars te manipuleren.

Tot DirectX 12 goed en wel is ingeburgerd in nieuwe games, vrees ik dat AMD het onderspit gaat delven. En dan mag je gaan vrezen voor de prijzen van grafische kaarten.
of Vulkan, liever Vulkan dan DX12
DX12 is prima in Windows 10. Die maakt ook al gebruik van minder schillen in het driverproces.
ja dat is nu net het probleem, vendor locking...
Als het goed werkt is het niet zo'n probleem. Als het niet goed werkt heb je wel een groot probleem. Maar vooralsnog blijkt DX12 goed te werken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True