Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia's omzet stijgt door GeForce-verkopen en groeiende datacentermarkt

Nvidia's kwartaalomzet is met een derde gestegen en de winst nam met meer dan 50 procent toe. Verantwoordelijk voor de goede cijfers waren de gamedivisie, waar de GeForce-verkopen onder vallen. Daarnaast nam de omzet uit chips voor datacenters flink toe.

Nvidia claimt dat de vraag naar GeForce-gpu's hoog is in alle regio's en voor alle formfactors. De vraag naar videokaarten voor cryptomining droeg ook bij aan de resultaten, maar Nvidia benadrukt dat deze markt volatiel is, en Nvidia 'niet afleidt' van zijn focus op de gamemarkt. Het zorgde voor een groei van de omzet van de gamedivisie met 32 procent ten opzichte van vorig jaar, tot 1,56 miljard dollar, omgerekend 1,34 miljard euro. Daarmee is deze divisie verantwoordelijk voor 60 procent van Nvidia's omzet.

Met een omzet van 501 miljoen dollar is de Datacenter-divisie Nvidia's tweede belangrijke pijler en deze omzet was zelfs 109 procent hoger dan vorig jaar. Onder andere was er veel vraag naar de Tesla V100 met Volta-gpu, waarvan Nvidia de productie in het derde kwartaal wist op te voeren. De accelerator wordt gebruikt in datacenters van onder andere Alibaba, Baidu, Tencent, Amazon Web Services en Oracle Cloud.

De divisie Professional Visualization, van de Quadro-gpu's, had een 15 procent hogere omzet; deze kwam uit op 239 miljoen dollar. De omzet uit Tegra's steeg met 74 procent tot 419 miljoen dollar, geholpen door de verkopen van de Nintendo Switch. De Automotive-tak realiseerde een omzetstijging van 13 procent. Nvidia heeft hoge verwachtingen van deze markt, onder andere met zijn Drive PX-platform voor autonoom rijdende voertuigen, maar voorlopig is het aandeel in Nvidia's kwartaalomzet nog beperkt, met 144 miljoen dollar.

De totale kwartaalomzet bedroeg 2,64 miljard dollar, een stijging van 32 procent. De winst kwam uit op 838 miljoen dollar. Nvidia behaalde niet eerder zo'n hoge kwartaalwinst.

Door

Nieuwscoördinator

148 Linkedin Google+

Reacties (148)

Wijzig sortering
Sinds Nvidia verplicht inloggen heeft geïntroduceerd bij GeForce Experience, krijg ik de kots van Nvidia. Niet alleen vanwege die maatregel, maar ook omdat ze een monopoliepositie hebben en daardoor qua prijzen vrij veel kunnen vragen. Helemaal als je je bedenkt dat ze dus met die verplichte login ook nog eens data van je verzamelen en doorverkopen - al dan niet delen, wat ook voor meer geld in het laatje zorgt.

Ik heb zelf een GTX 970 van Nvidia, maar ik ben blij dat Intel en AMD gaan samenwerken, en dat AMD ook steeds beter wordt in het ontwerpen en maken van GPU's. :)

Gelukkig heb ik nog 1 versie vóór 3.0 in gebruik, die geen inloggen vereist :). Hier staat uitgelegd hoe je dit moet doen en dat hij niet automatisch update: niico0708 in 'nieuws: GeForce Experience 3.6 heeft ShadowPlay-ondersteuning v...

Heb het al een tijd in gebruik en werkt prima. :)

Voorbeelden:
  • Nvidia werkt met een aantal gamestudio's samen om games te optimaliseren alleen voor Nvidia GPUs, waardoor ze in benchmarks altijd beter uit de bus komen;
  • G-Sync monitoren zijn een stuk duurder dan FreeSync van AMD
  • Deze video is wel interessant en somt het een en ander op
Begrijp mij niet verkeerd: Nvidia maakt erg goede producten en de drivers zijn ook erg stabiel (al is het de laatste tijd wat minder), maar de mentaliteit "schijt aan de klant" ben ik zo'n beetje beu.

[Reactie gewijzigd door AnonymousWP op 10 november 2017 11:39]

AMD gpu's waren vroeger vaak beter in alle aspecten, maar ze verkochten niet. nu is het geld min of meer op en zodoende zijn ze zich op datacenter/server aan het focussen, met dan consumenten producten als bijzaak.
Nog steeds (niet over vega, maar de rx 5xx series) zijn het prima kaarten die vaak door de software updates langer meegaan dan die van nvidia. De performance blijft vaak toenemen bij bestaande modellen, 2/3880/90x draaien beter dan die van NVIDIA die gelijktijdig uitkwamen en toen gelijk waren aan elkaar.
Dat is allemaal leuk voor de budget mensen maar de high end gamers die alles 120 fps willen draaien is het nog steeds NVIDIA waar je je videokaart van koopt.. zeker met de 1000 series
Daar heb ik het verder niet over. Dan is de 1080ti de kaart! Wat ik zeg is dat bijv een 280/390 meer performance heeft gekregen door de jaren dan een 770/970.
Maar aan die paar extra fps meer heb je jaren later niets meer aan.. De 390 is trouwens meer een GTX 980 kaliber GPU.
Nee, niet eens in de buurt. Mijn toenmalige 390x deed praktisch hetzelfde als een 970 van een maat van mij. (Los van de Vram)
Dan is je systeem niet helemaal op orde....

“Any Radeon R9 390X in most scenarios will be performing roughly at GeForce GTX 980 and Titan like performance”
http://www.guru3d.com/art...x_strix_8g_review,27.html

https://www.techpowerup.c...SI/R9_390X_Gaming/30.html

De R9 390 (x) gaan ver voorbij de GTX 970.
"980 and titan like". Want die zijn te vergelijken?
Euhm, die overzichten laten toch duidelijk zien dat een 390X gemiddeld genomen dichter bij een 970 zit dan een 980 en al helemaal niet in de buurt van een Titan X komt.. Op 1920x1080, wat de resolutie is waar veruit de meeste mensen met zulke kaarten op zullen spelen..
Die kaarten zijn bedoelt voor 1440p.
Je kan het gaat verdraaien wat je wil maar de resultaten liegen niet...
Ik verdraai helemaal niks, lijkt me dat jij daar juist mee bezig bent.. Jouw opmerking dat er iets mis is met zijn systeem klopt niet, want de resultaten zijn wat dat betreft inderdaad duidelijk.. Op de meest gebruikte resolutie van 1920x1080 zit een 390X dicht op het niveau van een GTX 970, dus klopt de ervaring van Juliuth hoogstwaarschijnlijk gewoon..

[Reactie gewijzigd door Inflatable op 11 november 2017 12:57]

390, 390x, 980 en de titan zijn dan ook geen 1080p kaarten!
Voor 1080p kocht je een 970 of een R9 380(x).
Uiteraard kijkend naar de games in 2013/2014/2015.
Er is niemand die bepaalt voor welke resolutie een videokaart bedoelt is, dat verschilt per persoon, wat je eisen zijn qua fps en grafische settings.. Laat Juliuth hier zelf maar vertellen op welke resolutie hij en z'n maat speelde met de 390X en GTX970, dan is het duidelijk..

Mijn punt was en is nog steeds dat je niet zomaar kan roepen dat er iets mis is met zijn systeem als je dat niet weet.. Als dat zijn ervaring was dan is de kans groot dat het gewoon 1080p was..
De eerdere high-end kaarten zijn ook stukken beter dan die van nVidia qua pure performance. Maar door middel van het manipuleren van benchmarks of game ontwikkelaars, kwam dit niet aan het grote licht. Het grote probleem was dat nVidia gewoon de hele markt in z'n palm had en dus min of meer dicteerde wie wat kocht. Daarnaast hielp het niet dat de mythe bestond dat ATi/AMD (Hierna gewoon AMD) altijd slechte drivers heeft. Hoewel hier een kern van waarheid in zit, was dit lang niet altijd het geval.

Mensen lijken te vergeten dat er genoeg shit fout was (en zelfs is) met de huidige drivers van nVidia. Zodra dat omhoog gebracht word is het allemaal ineens oké. Maar blijft AMD bestaan omdat ze er zogenaamd enorme fouten mee hebben gehad, of er was iets anders aan de hand.

Punt is niet dat het hier om budget gaat, maar om het feit dat zowel AMD als nVidia dezelfde fouten maken en nVidia hier op een hele sluwe manier mee wegkomt. nVidia zet zichzelf in het spotlight door hun GameWorks, door AMD eruit te kopen of zelfs slopen. En iedereen lijkt hun bullshit te kopen en geloven. Nu zitten we op een punt waar we feitelijk niet anders kunnen. Nog maar de bek niet open te breken over de mining markt die de prijzen van AMD (En later ook van nVidia) omhoog laten schieten.

[Reactie gewijzigd door sxbrentxs op 10 november 2017 17:55]

Zal allemaal goede punten zijn dude, maar feit is dat de 1080 TI nog steeds de top kaart is met de meeste FPS dus dat is degene die in me pc zit.. Simpeler kan niet
Mwoah, menig driver en CCC van AMD hebben mij redelijk tot wanhoop gedreven (PC die reboot zodra er een scherm uitgaat na 10 minuten niet gebruiken, niet willen afsluiten, etc). Dat soort vage problemen heb ik nog nooit met nVidia gehad.

Jammer genoeg kleunt AMD er telkens naast de laatste jaren. De Vega serie heeft een performance die gelijk is aan nVidia kaarten van vorig jaar, maar wel een prijskaartje van nu.
Ik moet toegeven AMD drivers zijn bij lange na niet perfect (met name de oudere), maar nvidia drivers kunnen er ook wat van hoor. Zo heeft nvidia een keer een driver uitgebracht die ervoor zorgde dat je gpu letterlijk stuk ging. Vega is overigens ook niet echt bedoeld voor gamers, hij is bedoeld als concurent met de quadro en tesla kaarten. Als je hem undervolt dan gaat het stroomgebruik drastisch omlaag, maar dat terzijde.
Onzin, vega as bedoeld voor gamers maar kon de hype niet waarmaken, hij blijkt het goed te doen in de compute markt maar daar gaat nV binnenkort heen met meer volta kaarten, terwijl AMD door moddert met GCN6 (of denk je dat Raja zomaar weg is gegaan? hij had zijn doelen bereikt..).
Deze verkopen laten zien dat nV gewoon zijn vak verstaat, zonde dat het nu een monopolie is en dat we minder waar voor ons geld krijgen maar het succes afbranden van een bedrijf of persoon is wel heel erg Hollands eigen.
En niet te vergeten, 100w meer gebruiken dan de vergelijkbare nvidia kaarten... Ideaal zou zijn als beide farikanten ongeveer gelijkwaardige kaarten zouden uitbrengen zodat er een beetje concurrentie zou zijn, maar helaas is dat niet echt het geval :/
CCC bestaat al een paar jaar niet meer ... denk dus dat je niet echt recente ervaring hebt met AMD.
Ik heb sinds de 9800 pro m.u.v. de GeForce 7900GT altijd een AMD/ATi kaart gehad. In al die jaren nooit gezeik gehad met amd/ati drivers, nvidia daarentegen juist wel. Betekent dan dat Nvidia slechte drivers maakt? Nee, en dat geldt evenmin voor AMD.
Is het nou een monopoliepositie omdat nvidia rond een jaar 1½ vroeger is met de performance? Je kunt gewoon wachten en daarna AMD kopen, ik zie daar geen monopolie.
Dat komt denk ik omdat die omschrijving
Is het nou een monopoliepositie omdat nvidia rond een jaar 1½ vroeger is met de performance?
naar mijn idee weinig met monopolie te maken heeft.

De volgende omschrijving zal ietwat kort door de bocht zijn, maar is het niet zo dat:
Nvidia al veel langer een soort kunstmatige monopolie heeft, waarin het eerder AMD in leven hield en nu tolereert specifiek om ervoor te zorgen dat ze op papier geen monopolie hebben?

En dat in de praktijk AMD die prikkende mug is die de Olifant Nvidia te lijf 'moet gaan'?

Helaas gaat het in de echte wereld er niet om wie het beste product heeft, maar wie dit het beste kan verkopen. En bij dat tweede helpt het enorm als je kunt vechten met ongelijke middelen. Daarom kan de VS het zich ook permiteren zich met de hele wereld te bemoeien zonder daadwerkelijk tegengas te krijgen.
  • Nvidia werkt met een aantal gamestudio's samen om games te optimaliseren alleen voor Nvidia GPUs, waardoor ze in benchmarks altijd beter uit de bus komen;
  • G-Sync monitoren zijn een stuk duurder dan FreeSync van AMD
  • Deze video is wel interessant en somt het een en ander op
Begrijp mij niet verkeerd: Nvidia maakt erg goede producten, maar de mentaliteit "schijt aan de klant" ben ik zo'n beetje beu.
"Nvidia werkt met een aantal gamestudio's samen om games te optimaliseren alleen voor Nvidia GPUs, waardoor ze in benchmarks altijd beter uit de bus komen;"

Uh dat is toch juist slim? Niks mis mee. Zou ik ook doen. Mag AMD van mij ook doen.

"G-Sync monitoren zijn een stuk duurder dan FreeSync van AMD"

In elke beeldscherm waar G-Sync in zit moeten fabriekanten voor betalen, maar dit betekend niet dat de FreeSync monitoren dan altijd persee goedkoper zijn.

[Reactie gewijzigd door Iva Wonderbush op 10 november 2017 11:30]

Het is slim voor de portemonnee van Nvidia, want dan heb je geen eerlijke concurrentie.

Niet altijd misschien, maar in de meeste gevallen wel. En omdat Nvidia vaak als eerste is met een bepaalde techniek, kunnen ze de hoofdprijs vragen. Vervolgens komt AMD met een stuk goedkopere oplossing, omdat het helemaal niet zo duur hoeft te zijn. Vind ik - persoonlijk gewoon afzetterij.
Hoezo? AMD mag het toch ook doen? Als ze het beide doen krijgen we toch juist betere optimalisatie voor games? Toch beter?

En dat doet iedereen. De eerste 1GB opslag was al een miljoen dollar. De eerste telefoon in een auto was ook niet te betalen. Iedereen vraagt altijd de hoofdprijs als ze ergens nieuws mee komen. Het daalt altijd. Dat ze de eerste zijn maakt het niet ineens "oneerlijk" dat ze de hoofdprijs vragen.

[Reactie gewijzigd door Iva Wonderbush op 10 november 2017 11:36]

Nee, dan krijg je dat je Call of Duty beter met je Nvidia kaart kan doen en Battlefield met je AMD kaart. Mag je twee kaarten kopen voor maximale performance :')

Als iedereen het doet krijg je segmentatie. Als iedereen zich aan open standaarden houdt, dan krijg je optimalisatie.
je hebt gelijk. maar je vergeet dat het commerciële bedrijven zijn
deze doen dingen niet omdat ze de wereld willen verbeteren, maar omdat ze geld moeten verdienen.
Dat snap ik ook wel, maar dat is niet waar de discussie om ging ;)
Daarnaast welke kaart beter is voor een game ligt vaak ook aan wat voor eigenschap keuzes de ontwikkelaars hebben gemaakt want nvidia/amd doen performance wise het op verschillende delen beter van elkaar.
Tuurlijk, daarom blijven benchmarks natuurlijk relevant en belangrijk. Er zullen altijd verschillen zijn wat komt doordat men verschillende architecturen heeft. En dat is prima.

Desalniettemin heeft geen enkele speler behoefte aan een extreem zware tessellation-opdracht die in de spelwereld totaal onzichtbaar is. Tenzij jouw videokaart toevallig weinig moeite met die berekeningen heeft natuurlijk :) http://techreport.com/rev...oo-much-of-a-good-thing/3
The tessellated water mesh remains in the scene, apparently ebbing and flowing beneath the land throughout, even though it's not visible. The GPU is doing the work of creating the mesh, despite the fact that the water will be completely occluded by other objects in the final, rendered frame.
Unnecessary geometric detail slows down all GPUs, of course, but it just so happens to have a much larger effect on DX11-capable AMD Radeons than it does on DX11-capable Nvidia GeForces. The Fermi architecture underlying all DX11-class GeForce GPUs dedicates more attention (and transistors) to achieving high geometry processing throughput than the competing Radeon GPU architectures.
Dát zijn de streken waar we het over hebben: soms maken ontwikkelaars bewust onnodig gebruik van een bepaalde feature die op merk X beter werkt, zodat merk X beter uit benchmarks komt. En merk X is toevallig heel vaak het bedrijf waar dit nieuwsbericht over gaat...
Dat dus. Exact zoals ik er tegen aan kijk. Dank je wel.
Je vergeet dat Nvidia een gigantisch budget heeft en AMD niet (AMD heeft nu pas voor het eerst sinds tijden winst gemaakt), waardoor AMD de dingen niet kan doen die Nvidia wel kan. Daar speelt Nvidia juist op in.
blijkbaar vergeet jij dat het budget van AMD en nvidia zo goed als gelijk zijn geweest...
Inderdaad, zijn geweest. Verleden tijd dus :).
het staat nogal haaks op je argument van: AMD kan dingen niet doen die nvidia wel kan...
AMD heeft ook opties gehad om 'dingen te doen' maar blijkbaar de kansen verspilt in de ogen van de consumenten.

misschien zijn ze gewoon te laat met het opvolgen van alle negatieve praktijken van nvidia zoals jij ze noemt, AMD is namelijk sinds vorig jaar ook nauwer aan het samen werken met steeds meer game studio's.

[Reactie gewijzigd door Kenpachi1337 op 10 november 2017 14:05]

Je gaat veel te kort door de bocht en bent niet bewust van de geschiedenis van AMD om zoiets te kunnen zeggen. Maar vooruit, ik hap wel.

AMD is meer dan alleen videokaartenbouwer. Een stuk langer is het al bezig in de processorindustrie zoals je wellicht wel weet. En ondanks dat AMD verschillende architecturen heeft gehad die beter waren dan die van Intel, heeft AMD door illegale praktijken van Intel ontzettend veel omzet verloren. https://www.pcper.com/new...llion-USD-anti-trust-fine

Dat dus niet-al-te-rijke-bedrijf besloot op een gegeven moment om ATI over te nemen. Los van of dat een slimme keuze was, is het duidelijk dat AMD moeite had om de GPU-afdeling te positioneren binnen het bedrijf. Volledig focussen op APU's en teams integreren? Of een losse bedrijfstak genaamd RTG? Dit is gepaard gegaan met gigantische reorganisaties en veel personeel is ontslagen, mede omdat de CPU-tak met Bulldozer gewoon heel slecht liep. Dit soort fiasco's slepen dan dus ook de GPU-tak mee.

Dus nee. AMD (en dan vooral de afdeling ATI/RTG) heeft zeker niet de optie gehad om 'dingen te doen'. Waar het vrije bedrijf Nvidia alle ruimte had, was de bedrijfsvoering binnen AMD/ATI een beperkende factor en werd het R&D budget beperkt door falende CPU-architecturen.

Je zegt hierboven dat AMD en Nvidia eenzelfde budget hebben. Dat is gewoon niet waar. Nvidia gaf in Q2 (laatst bekende kwartaal) kwartaal 416 miljoen dollar uit aan R&D. Het verlieslijdende AMD gaf in diezelfde periode 279 miljoen uit. En in het geval van AMD moet dat dus verdeeld worden over zowel de CPU- als de GPU afdeling. Dit verschillende budget is volledig te danken aan de geschiedenis van beide bedrijven.

Je begrijpt wellicht wel dat je met zo'n dergelijk budget maar op één paard kan wedden. Laten we dat paard 'HBM2' noemen. Vervolgens komt dat paard maar niet van de grond en stelt de producent een release keer op keer uit, om het vervolgens alsnog voor de hoofdprijs te verkopen.
Stel dat je budget had om op 2 paarden te wedden, ja, dan verdeelde je je inzet over het paard GDDR5X en het paard HBM2 natuurlijk.
Bedenk dat die keuzes >4 jaar geleden gemaakt zijn.

TLDR: door heel veel verschillende factoren is AMD een klein bedrijfje geworden wat jaren verlies heeft gedraaid. Dat werkt keihard op de investeringsmogelijkheden van AMD, en dat in een industrie die praktisch draait om een voorsprong. Daardoor kan AMD niet meer elke kans grijpen, het geld is er niet.

Oh, en AMD werkt al jaren lang nauw samen met verschillende ontwikkelaars. Het hele Gaming Evolved-programma was een directe tegenhanger van het TWIMTBP van Nvidia. Onder andere Battlefield 4 draagt die titel en werkt ook zeer prima op AMD hardware. En dat blijven ze ook doen, Wolfenstein II: The New Colossus (benchmarks) is er eentje en Far Cry 5 gaat er ook een worden.

Het verschil tussen AMD optimalisatie en Nvidia optimalisatie heb ik hierboven al uitgelegd. Dát is het verschil.
"Je gaat veel te kort door de bocht en bent niet bewust van de geschiedenis van AMD om zoiets te kunnen zeggen"
AdoredTv op youtube ken ik prima, dus die geschiedenis les heb ik al uitgebreid gehad ;)

"Je zegt hierboven dat AMD en Nvidia eenzelfde budget hebben"
nee ik zei dat er een punt in de geschiedenis is geweest waar dit het geval was.

verder kan ik de moeite die AMD in HBM ontwikkeling steekt alleen maar waarderen en ik bewonder ze zeer voor wat ze aan het doen zijn met het kleinere budget van nu.
De samenwerking met ontwikkelaars is er al langer inderdaad maar in recentere speeches van AMD hebben ze duidelijk laten weten deze focus te willen vergroten en imho zijn ze dat goed aan het doen.
"Je zegt hierboven dat AMD en Nvidia eenzelfde budget hebben"
nee ik zei dat er een punt in de geschiedenis is geweest waar dit het geval was.
Oke, point taken :P dat is natuurlijk waar. Maar dan kijken we echt terug naar de ATI-tijd.

Sinds de overname door AMD en de daarna hard falende CPU-architecturen heeft AMD eigenhandig ATI/RTG meegesleept naar beneden. Kijk anders even naar AMD's stock price begin 2006 (overname ATI) en eind 2008, AMD is daar letterlijk 18x minder waard geworden.

De afgelopen 10 jaar, oftewel de tijd van mobile/smartphones, IOT, big data, artificial intelligence - allemaal kernelementen van groei bij Nvidia - heeft AMD letterlijk geen cent te investeren gehad om 'kansen' te grijpen, waar je het hiervoor over had. Dat bedoel ik :)
Als AMD gewoon eens geld zou vragen voor bepaalde technieken zoals Nvidia doet, kunnen ze ook een stuk beter uit de bus komen.
Nvidia komt met G-Sync dat goed ontvangen word, AMD roept "oeh! dat gaan wij ook doen, maar dan goedkoper!"
Nvidia komt met GPU computing technieken (CUDA), AMD roept "oeh! wij gaan ook zoiets doen!"
Nvidia komt met GPU library voor physics berekeningen (Physx) en heeft AMD zelfs aangeboden het ook te ondersteunen. AMD roept "oeh! wij gaan met iets beters komen, en dat gaat open zijn zodat we niet van Nvidia afhankelijk zijn!" waarna we eigenlijk alleen TressFX gezien hebben wat een aanfluiting is in vergelijking met Physx waar als beiden dat zouden ondersteunen wij als gamers een stuk beter van zouden worden.

AMD heeft amper research budget nodig op deze manier als ze steeds Nvidia blijven kopieren en de technieken "gratis" of "open" uitbrengen en er zelf geen winst uit kunnen halen.

Begrijp me niet verkeerd, ik wil dolgraag dat AMD meer succes heeft en meer winst kan draaien, helemaal omdat wij als gebruikers er ook voordeel van hebben, maar het pad dat AMD de laatste jaren heeft met het achter Nvidia aan hobbelen, en hun vooruitgangen dwars zitten zit ons als gamers tegen te werken. Neem gewoon wat licenties op Nvidia technieken, en kom zelf met technieken die je weer aan Nvidia kan slijten, of jouw kaarten een betere keuze maken, maar KAP met dat continu de vooruitgang dwarszitten en al die technieken in 2 kampen te splitsen.

[Reactie gewijzigd door VNA9216 op 10 november 2017 17:49]

AMD's verkopen liggen laag. Hoe los je dat op?
1. Maak een beter product. Dat kan echter niet zomaar, want daar heeft AMD het geld niet voor. De gok op HBM2 had hier mogelijk in kunnen resulteren, dat is niet gebeurd.
2. Maak jouw product goedkoper. AMD verkoopt al jaren GPU's met meer transistors (=duurder) voor minder geld dan dat Nvidia voor een chip met evenveel transistors vraagt.
Echt, als Nvidia geen marges zou draaien van >40% op GPU's, dan was AMD allang failliet.

AMD moet haar producten wel goedkoper maken om relevant te blijven. Wie koopt er nou een tragere GPU voor meer geld? Door met open standaarden te werken weet het ook goodwill te creëeren. Dat is het enige wat AMD op dit moment kán doen. Of heb jij een beter plan?

Je gaat te kort door de bocht bij de technieken:
- AMD met een eigen, exclusieve techniek? Het heeft een marktaandeel van 15-30% en dat is vooral mid-range, de top-end en dus de big spenders zitten al jaren bij Nvidia (omdat AMD de laatste jaren geen top-end kaart heeft uitgebracht). Een exclusieve techniek zoals G-sync voor AMD zou echt niemand kopen. Verder heeft AMD niks uitgevonden, ze hebben alleen de open standaard Vesa Adaptive Sync gepushed.
- GPGPU technieken zijn van alle tijden. DirectX, je weet wel, de meest gebruikte abstraction layer voor videokaarten, biedt er support voor. Nvidia heeft een eigen layer bedacht genaamd CUDA. Leuk voor hun, maar waarom moet AMD ook een eigen layer bedenken?
- Nvidia die AMD heeft aangeboden om Physx te gebruiken? Da's nieuw, heb je een bron? PhysX is onderdeel van Nvidia Gameworks en die techniek heeft zelfs op Wikipedia een paragraaf met kritiek op de geslotenheid van Nvidia.
- TressFX (of beter GPUOpen, als tegenhanger op GameWorks) is inderdaad ontstaan omdat Nvidia zijn eigen technieken niet beschikbaar wou maken voor AMD en omdat DirectX maar niet een upgrade kreeg. AMD moest dus wel, of games op AMD hadden lelijk haar gehad en op Nvidia mooi haar.
Sidenote: TressFX draait wél op Nvidia kaarten (bijvoorbeeld in ROTR) :)

AMD's R&D gaat zo goed als volledig naar het maken van chips en architecturen. Dat is nou eenmaal een heel dure aangelegenheid. Het gaat helemaal niet naar nieuwe technieken, hier pushen ze liever open standaarden van andere aanbieders zodat het AMD zo min mogelijk investering kost. Dat geld heeft AMD niet namelijk.
Het is een vicieuze cirkel: minder investeren = minder opbrengsten in deze industrie. En minder opbrengsten = nog minder investeren. Echt, in het geval van Intel is het maar goed dat het jarenlang de consument heeft uitgemelkt met 5% performance increases per generatie, anders had AMD nooit meer kunnen bijbenen.
maar het pad dat AMD de laatste jaren heeft met het achter Nvidia aan hobbelen, en hun vooruitgangen dwars zitten zit ons als gamers tegen te werken
Waar zit AMD dwars?
Neem gewoon wat licenties op Nvidia technieken
Dat staat Nvidia niet toe.
en kom zelf met technieken die je weer aan Nvidia kan slijten
Buiten dat daar geen budget voor is, is er ook geen behoefte aan omdat alle 'innovaties' van Nvidia zijn gebaseerd op een (in eerste instantie) gefaalde open standaard.
of jouw kaarten een betere keuze maken
Dat is nou eenmaal heel erg lastig als je geen geld hebt om te investeren.
maar KAP met dat continu de vooruitgang dwarszitten en al die technieken in 2 kampen te splitsen
Het enige bedrijf wat dat doet en er bovendien zéér actief mee bezig is, is Nvidia.

[Reactie gewijzigd door Richh op 11 november 2017 02:17]

wat hij wil zeggen dat door deze taktiek jij voor de zelfde kaart 30% meer moet betalen.
want kijk met nvidia kaarten werkt die spel beter dus moet ik wel nvidia halen.
wat nvidia doet met studio's helpen is niet verbeteringen aanwijzen, maar meer van gebruik ons programma's die in het nadeel zijn van amd.
google even naar: nvidia hairworks
Hairworks kan prima werken icm amd videokaarten, als je maar niet te hoge tesselation levels gebruikt. Daarvoor zijn ook goede verklaringen voor gegeven. En die hebben veel meer te maken met mogelijkheden van amd videokaarten en keuzes van game developers dan met nvidia.
als Nvidia een zak geld heeft neergelegd om meteen te kunnen optimaliseren voor een game, dan staan ze niet toe dat AMD het zelfde doet, die mogen pas na uitkomst van de game gaan optimaliseren.
Dus wat houdt AMD tegen om dit ook te doen bij andere games of om er juist eerder bij te zijn?
Wat dacht je van geld? en ik neem aan dat je wel snapt dat dit gewoon niet bevorderlijk is voor de consument.
Je kan leuk bijdehand gaan lopen doen, maar het is gewoon de waarheid, AMD heeft lang niet het geld dat nVidia wel heeft om zulke dingen te kunnen veroorloven.

en AMD investeert in genoeg zaken, maar je kan je geld maar 1x uitgeven en game uitgevers zakken geld geven heeft waarschijnlijk geen prioriteit
https://ycharts.com/companies/AMD/r_and_d_expense

Sorry maar je kan mij echt niet overtuigen dat ze niet genoeg geld hebben. Bij zulke bedragen maakt het echt niet uit of Nvidia meer heeft. Of ga je nou ook nog beweren dat het miljoenen kost om developers over te halen om ervoor te zorgen dat een spel beter geoptimaliseerd is voor en bepaalde partij?

"game uitgevers zakken geld geven heeft waarschijnlijk geen prioriteit"

Maar misschien wel bij Nvidia dus is het Nvidia hun schuld dat AMD het niet doet?

[Reactie gewijzigd door Iva Wonderbush op 10 november 2017 14:31]

Ati/AMD heeft het voornamelijk een stuk slechter gedaan op gebied van marketing. Dit heeft niet altijd aan het geld geleden. nVidia's voordeel is dat ze zich veel prominenter hebben opgesteld en daardoor is nVidia het enige wat bij het gros van de mensen is blijven hangen. AMD is gewoon een veel te kleine speler om nu nog tegen nVidia op te boksen. Na jarenlange slechte marketing, slechtere drivers en slechtere performance (ookal is het verschil niet eens zo groot) is het nogal logisch dat men massaal voor nVidia kiest.

ATI heeft ooit een mega grote kans gehad, met de Radeon 9700, superieur in elk opzicht tegenover nVidia. Maar zelfs toen waren de verkoopcijfers van nVidia beter (de FX bagger kaarten), puur vanwege de naamsbekendheid.
Inmiddels lopen ze te ver achter om nog mee te kunnen doen. Slim genoeg zetten ze nu in op andere segmenten met de hoop weer meer marktaandeel te winnen. In de huidige positie is het onmogelijk om competatief te blijven.

En ja inmiddels is geld weldegelijk een issue, marketing kost verschrikkelijk veel en vergt tevens goeie strageie, iets waar nVidia goed in is en zich ook kan permiteren. Iets waar AMD de laatste tijd ook beduidend beter in is geworden trouwens maar nu is het te laat.

Zoals AdoredTV ook al aangeeft is het voor AMD onmogelijk om bij te blijven, zelfs als ze een product hebben dat beter is dan nVidia blijft nVidia hogere verkoopcijfers behalen vanwege de populariteit. Dit is ook een van de redenen dat wij (de personen die iets beter weten wat er allemaal speelt) het zo ontzettend jammer vinden dat AMD als het ware 'niet gezien wordt', de massa heeft simpelweg geen interesse in AMD. Ik hoop dan ook dat de deal met intel voor hogere verkopen zorgt in de OEM markt, hiermee zullen ze gelijk een enorm marktaandeel terug pakken tov nVidia.

Voor de high-end gamers blijft er dan alleen nog maar nVidia over, iets wat we al lange tijd zagen aankomen, het nadeel is dat dit segment erg duur zal gaan worden. nVidia producten heb ik niets op tegen, maar ik kan het tegenwoordig helaas niet meer betalen. Gelukkig ben ik er zelf op uitgekeken geraakt, pc hardware is helemaal niet boeiend meer vind ik, terwijl dit mijn grootste hobby was. Jammer eigenlijk maar tijden veranderen nou eenmaal.
Het is meer dan marketing. AMD is langer tijd vergeten dat het niet alleen om de hardware gaat, maar om het bouwen van een eco-systeem waarbij de software-componenten optimaal gebruik maken van de hardware zodat 1 + 1 = 2+
AMD gaf in Q2 270 miljoen uit. Dat is een getal wat in het geval van AMD direct in rode cijfers resulteert en het enkel doet om de industrie bij te benen. Meer kan het niet doen, daar is geen geld voor, aandeelhouders staan dat niet toe. Iedere cent moet het kunnen verantwoorden aan investeerders. Het is een bedrag dat gedeeld moet worden over zowel CPU als GPU.
Nvidia gaf in Q2 413 miljoen uit in dezelfde periode. Wat dus, uitgaande van een 50/50 verhouding GPU/CPU bij AMD, letterlijk bijna 4x zoveel is. Met ruimte genoeg om meer te investeren. Nvidia boert namelijk prima.
Daarnaast betwijfel ik of het omkopen van developers uit de R&D pot komt.

AMD investeert trouwens wel degelijk in relaties met developers. Het hele Gaming Evolved programma (onder andere EA/DICE met bijvoorbeeld Battlefield 4). Vorig jaar was Doom, met Vulkan, natuurlijk een grote titel bijvoorbeeld. En die game draait ook vrij goed op AMD kaarten. Recenter voorbeeld is Wolfenstein II: The New Collosus, die draait op 1080p zelfs beter op Vega56 dan op een 1080. Daarnaast heeft AMD nu ook Ubisoft, jarenlang trouwe partner bij Nvidia's TWIMTBP-programma, overtuigd om voor Far Cry 5 nauwer met AMD samen te werken.

Het hele punt waar je nu al tig posts omheen zit te draaien, is het subtiele verschil tussen een AMD-samenwerking en een Nvidia samenwerking. Alle bovenstaande AMD-games draaien namelijk prima op Nvidia hardware en alles presteert zoals verwacht.
Maar gaan we het dan hebben over samenwerking met Nvidia, dan resulteert dat in dit: http://techreport.com/rev...oo-much-of-a-good-thing/3
The tessellated water mesh remains in the scene, apparently ebbing and flowing beneath the land throughout, even though it's not visible. The GPU is doing the work of creating the mesh, despite the fact that the water will be completely occluded by other objects in the final, rendered frame.
Unnecessary geometric detail slows down all GPUs, of course, but it just so happens to have a much larger effect on DX11-capable AMD Radeons than it does on DX11-capable Nvidia GeForces. The Fermi architecture underlying all DX11-class GeForce GPUs dedicates more attention (and transistors) to achieving high geometry processing throughput than the competing Radeon GPU architectures.
The Witcher 3 is een game die iets gelijkwaardigs heeft gekend door HairWorks. Nvidia was ook bijna weggekomen met het hele Batman: Arkham Knight-fiasco. Ook zo'n TWIMTBP-game die zó slecht in elkaar stak dat het zelfs maanden is uitgesteld voor de pc.

Tijd om de oogkleppen af te doen. Meer duiding over hoe Nvidia de PC-markt aan het slopen is:
https://www.extremetech.c...elopers-end-users-and-amd
https://www.forbes.com/si...g-ecosystem/#5eb4b9bb3ca2

Het gaat allang niet meer om samenwerking, het gaat om doelgerichte sabotage. En voordat je zegt 'haha kut voor AMD, moeten ze dat ook maar doen' - buiten dat daar dus echt geen geld voor is... Nvidia heeft een marktaandeel van zo'n 75-80% tegenwoordig. AMD 20-25%. Voor Nvidia is dat een kleine investering. Voor AMD een gigantische waar geen developer mee in gaat stemmen, dat kost ze véél te veel omzet.
Niet voor de consument, nu gaan we richting een stagnatie.
Nvidia is heer en meester in DX11. DX12 en vulkan is meer AMD, Nvidia wil dat game defs DX11 blijven gebruiken en dat zie je nu ook gebeuren.
DX12 en vulkan is er al een aantal jaar en je ziet er nog weinig van. Want hoeveel echte DX12 games zijn er? 2 geloof ik en vulkan games ook 2.
Het heeft ook heel lang geduurt voordat de meeste games DX11 gingen gebruiken. Dat heeft te maken met bestaande tech die gebruikt wordt in games and die gemaakt is voor oudere DX versies.

Nieuwe engines worden allemaal gemaakt met ondersteuning voor DX12 en vulkan, maar het duurt een paar jaar voordat alle nieuwe games daar gebuik van maken.
Inderdaad. Nvidia houd DX12 en Vulkan ,waar Nvidia ook gewoon goed op presteert vanaf Pascal, helemaal niet tegen.
Uh dat is toch juist slim? Niks mis mee. Zou ik ook doen. Mag AMD van mij ook doen.
een van de dingen die nvidia dan doet is de tessellation locken op 64x.
64x is werkelijk een belachelijke hoeveelheid! Niemand zou dat OOIT moeten gebruiken. Als je het DENKT nodig te hebben dan moet je wat meer detail aan je model toevoegen en kan je toe met 8x op een veel goedkopere manier.

Maar omdat nvidia's kaarten daar minder slecht in zijn als die van AMD doen ze het wel.

het levert niks op aan visuele kwaliteit, zorgt voor lagere framerates, bij IEDEREEN, maar telkens weer net wat minder bij nvidia's laatste generatie dus blijven ze het doen.

en geen enkele game waarbij die gebeurt heeft er een slider voor om het lager te zetten... behalve witcher 3 die er, jaren na de launch, een kreeg van de developers.

het 'fuck de klant' gehalte is heel erg hoog bij nvidia.

AMD heeft inmiddels een tessellation slider in hun drivers zitten, maarja geen reviewer die het gebruikt. zeker niet op launch day.

[Reactie gewijzigd door Countess op 10 november 2017 13:45]

Moet AMD gewoon een betere tesselation engine bouwen dat ze ook zonder veel problemen 64x kunnen draaien.
Tuurlijk, dát is de oplossing! Waarom zou je een gebalanceerde chip maken die focust op wat games nodig hebben aan rekenkracht? Nee, de concurrent heeft wat extra shaders overgehad voor gebied X en zit daar doelbewust games mee te fucken... investeer daar maar extra in! :')

Even serieus; chipontwerpen maak je jaren van tevoren en belanden pas na een lange tijd op de markt. Het is niet logisch dat je zoveel performance voor tessellation inricht. Zoals iedereen zou beamen is dat namelijk niet nodig.
AMD heeft haar focus gelegd op een eerdere adoptie van DX12. Nvidia op GameWorks performance en Tessellation.
"Uh dat is toch juist slim? Niks mis mee. Zou ik ook doen. Mag AMD van mij ook doen."

In eerste oogopslag wel, maar het werkt in sommige gevallen averechts; Ik en genoeg andere geïnformeerde consumenten kopen dus al jaren geen Nvidia kaarten om exact deze reden. Ik houdt niet bedrijven die vrije marktwerking tegen gaan.

"In elke beeldscherm waar G-Sync in zit moeten fabriekanten voor betalen, maar dit betekend niet dat de FreeSync monitoren dan altijd persee goedkoper zijn."

Gemiddeld zijn de Freesync monitoren toch echt een stuk goedkoper. Zie pricewatch.
  • Nvidia werkt met een aantal gamestudio's samen om games te optimaliseren alleen voor Nvidia GPUs, waardoor ze in benchmarks altijd beter uit de bus komen;
  • G-Sync monitoren zijn een stuk duurder dan FreeSync van AMD
  • Deze video is wel interessant en somt het een en ander op
Begrijp mij niet verkeerd: Nvidia maakt erg goede producten, maar de mentaliteit "schijt aan de klant" ben ik zo'n beetje beu.
Zeker, dat je bericht op die van mij is gericht? Ik snap hem anders niet. Na mijn personkijke ervaring was NVidia deze keer veel vroeger op het niveau waar de gpus nu zitten.
Op het moment dat AMD de prestaties van Nvidia geëvenaard heeft (het topmodel bedoel ik dan) heeft Nvidia vast al weer iets nieuws. Vega is een stap in de goede richting maar de 1080 en 1080ti staan nog steeds dik bovenaan. Over een paar jaar zal dat denk ik niet anders zijn.
Zodra AMD de 1080ti voorbij gaat, zit Nvidia alweer op de 1180ti of zo.. Dan is het zonde om dan de AMD kaart te kopen voor hetzelfde geld.
  • Nvidia werkt met een aantal gamestudio's samen om games te optimaliseren alleen voor Nvidia GPUs, waardoor ze in benchmarks altijd beter uit de bus komen;
  • G-Sync monitoren zijn een stuk duurder dan FreeSync van AMD
  • Deze video is wel interessant en somt het een en ander op
Deals met game makers om de game te optimaliseren doet AMD ook. AMD heeft Battlefield 1 zo recentelijk gesponsord tijdens ontwikkeling. Battlefield 4 diende zelfs als exclusieve game die Mantle als eerste zou ondersteunen. Ik geloof dat de nieuwste Forza ook een AMD deal heeft.
Hier is echter niets sinisters aan. Het enige echte voordeel wat Nvidia/AMD na zo'n deal hebben is dat ze meteen goed presterende drivers hebben voor een game. De andere partij kan zulke drivers dan pas na een week of wat uitbrengen.

G-sync schermen zijn duurder dan Freesync schermen, maar dat is niet zo'n enorm verschil. G-synch legt echt een standaard op, als daar niet aan voldaan wordt krijgt het scherm niet dit stempel. Freesynch is veel vrijblijvender. Je hebt Freesynch schermen die je beter kan vermijden. Als je een van de betere Freesync schermen koopt is het niet zo'n groot verschil in prijs meer t.o.v. G-sync. Los daarvan vind ik beide technieken maar versiering. Mijn schermen ondersteunen geen van beiden en ik heb nooit last van problemen.

Dat filmpje is al lastig serieus te nemen met die clickbait titel.

Ik zie niet hoe Nvidia schijt heeft aan de klant, of je moet de verhalen van mensen als AdoredTV graag willen geloven. De huidige generatie Nvidia kaarten presteren goed en zijn ook prima geprijsd in hun segmenten. Nu er onlangs vragen weer kwamen of rond de kerst Volta uit zou komen heeft de topman van Nvidia heel duidelijk gezegd dat Volta pas ergens in 2018 uit zou komen. Hiermee haalt hij ook onduidelijkheid weg bij mensen die nu zich afvragen of ze wel moeten kopen. Dat is toch best netjes vind ik.

Dat Nvidia goed verkoopt is eenvoudige te verklaren, ze hebben goede producten op het moment. AMD is het niet gelukt om met Vega een overtuigend alternatief neer te zetten.
of je moet de verhalen van mensen als AdoredTV graag willen geloven.
die hoef je niet te geloven die kan je gewoon verifiëren. ze zijn waar.
ze hebben goede producten op het moment.
er is meer aan de hand als dat. AMD had objectief de betere kaarten vanaf de hd4000 serie tot aan de hd7000 serie (sneller, zuiniger, goedkoper). toch konden ze enkel de ~48% marktaandeel aantikken met de hd5xx serie
AMD had alleen in mid range de snellere kaarten en dat zie ik nu weer terug in reviews. High end was Nvidia altijd beter tot pascal aan toe.

GTX 580
https://nl.hardware.info/...ersus-predator-directx-11

GTX 680
https://nl.hardware.info/...ew-aliens-versus-predator

GTX 780
https://nl.hardware.info/...tx-780-review-titan-light

GTX 980
https://nl.hardware.info/...-benchmarks-battlefield-4

[Reactie gewijzigd door Gekke Jantje op 10 november 2017 15:21]

Behalve met de Radeon 9700? Maar dat is ook wel weer erg lang geleden natuurlijk ;)
de 850xt, 1900xtx, hd4870 hd5870 en hd6970 waren ook allemaal sneller als wat nvidia had.

en 7970 was ongeveer gelijk (en is een stuk beter oud geworden).
misschien mis ik iets, maar bij de eerste 3 links staat AMD bovenaan. en dat is precies tot aan met de hd7000 serie. precies wat ik zei.

in de 580gtx review missed deze overige zijn echte concurrent in die lijst: de 6970 (en nee, dat is geen dual gpu kaart), die de maand erna werd gereleased.

ja de 780 was meestal wat sneller als de 7970 ghz edition... maar de originele 7970 was al een jaar uit (de kaart waar ik het over had), en daarbij koste de ghz edition de helft van de 780 met zo'n 80% van de prestaties. dus ook niet bepaald een slam dunk van nvidia zeg maar.

dus:
7970 > 680
6970 > 580
alles > 480

[Reactie gewijzigd door Countess op 10 november 2017 16:46]

Ja met hun veel duurdere dual GPU in de eerste link en ik kijk ook nog graag naar de rest van de benchmarks dus naar alle games en naar de conclusie van de review. Nvidia presteert gemiddeld een stuk beter in bijna alle gevallen maar was ook iets duurder dan de tegenhangers.

[Reactie gewijzigd door Gekke Jantje op 10 november 2017 16:26]

ik heb mijn reactie geëdit om het te verduidelijken. je vergist je op 2 plekken.

de concurrent van de 580 was de 6970 en niet de 5xxx serie. die 6970 kwam een maand na de review die je poste uit. en was gewoon een single GPU kaart. (6990 was de dual gpu kaart)

en de 7970ghz edition (die het tegen de 780 moest opnemen) kwam meer als een jaar na de eerste 7970. ik had het over de originele 7970.

Die originelen 7970 versloeg gewoon de 600 serie (beide uit begin 2012), en was ook geen dual kaart.

[Reactie gewijzigd door Countess op 10 november 2017 16:52]

Over de HD 6970 kun je misschien nog wel eens gelijk hebben maar die kaart kwam puur omdat de GTX 580 veel sneller was dan de HD 5870 dus AMD moest snel even met een rebrand komen.

Je vergist je dat de HD 7970 de GTX 680 voorbij ging, dat is gewoon niet waar want gemiddeld was de GTX 680 sneller. AMD moet met een hgz editie komen om de GTX 680 bij te benen maar ook die was niet sneller.

AMD is met de HD 7970 wel geteld in maar 2 games echt sneller.
https://nl.hardware.info/...ia-geforce-gtx-680-review

[Reactie gewijzigd door Gekke Jantje op 10 november 2017 17:22]

Over de HD 6970 kun je misschien nog wel eens gelijk hebben maar die kaart kwam puur omdat de GTX 580 veel sneller was dan de HD 5870 dus AMD moest snel even met een rebrand komen.
Waar heb je het over? De 6900 serie gewoon een nieuw ontwerp dat gewoon ongeveer tegelijk met de 580 op de markt kwam.

Dus waarom doe je het af als noodgreep van AMD? dat slaat nergens op.

Wat de 7970 betreft, ligt aan de games. Maar dat is pas de kaart waarbij nvidia eendelijk weer eens een keer langs zij kwam bij AMD nadat ze een aantal generaties achter hebben gelopen.
Slimmerik, Bij de GTX 780 review zie ik geen R9 290 dus kan je die ook niet vergelijken.
Bij de GTX 980 zie ik geen R9 390/Fury staan dus kan je ook die niet vergelijken. :+
Dat klopt omdat de Redeon 200 serie ook later kwam.

Stuivertje wisselen
https://nl.hardware.info/...e-benchmarks---metro-2033
er is meer aan de hand als dat. AMD had objectief de betere kaarten vanaf de hd4000 serie tot aan de hd7000 serie (sneller, zuiniger, goedkoper). toch konden ze enkel de ~48% marktaandeel aantikken met de hd5xx serie
Een bijna 50 procent marktaandeel is toch netjes? (algemeen gesproken) Dan zijn Nvidia en AMD als reuzen op dit gebied prima in balans met elkaar. Uiteindelijk mag de consument kiezen.

Het probleem vooral is dat AMD er met de pet naar heeft lopen gooien de afgelopen paar GPU generaties. De 7000-serie was zo geweldig dat we die terugzagen als de 200-serie met wat tweaks. En die 200-serie zagen we terug als de 300-serie en zo verder tot en met de 400 en 500 serie. Vega is de eerste nieuwe kaart die AMD in jaren heeft ontwerpen. Echter is deze kaart bijna anderhalf jaar te laat uitkomen en de prestaties zijn niet bijzonder in vergelijking met de concurrent.

Deze stagnatie in ontwikkelingen is niet de schuld van Nvidia, maar van AMD zelf. Ze hebben destijds ATi gekocht voor hun GPU's om APU's te kunnen maken. De GPU divisie van AMD heeft er altijd maar wat bij gehangen en diende vooral om de noodlijdende CPU divisie financieel te helpen. Dit had dan natuurlijk zijn weerslag op de mogelijkheden om nieuwe kaarten te ontwikkelen.
De tweedeling in het bedrijf was duidelijk merkbaar, zeker als je terugdenkt aan Rory Reid die openlijk zijn minachting voor de GPU divisie uitsprak. ATi was nooit helemaal opgenomen in AMD en behield ook zijn eigen cultuur en eigen mensen. Voor een fusie is dat geen goed teken.
Een bijna 50 procent marktaandeel is toch netjes?
heel even. terwijl ze al 3 generaties daarvoor al de betere kaarten hadden. en dat zaken alweer terwijl ze nog steeds de betere kaarten hadden!

verder was de 400 serie was gewoon nieuw. en dat ze de refresh 500 serie noemde is niet heel relevant. nvidia had ook geen nieuwe serie in die zelfde periode.

en dat de 7000 serie terug kwam is niet zo gek want alles was nog 28nm.

[Reactie gewijzigd door Countess op 10 november 2017 15:08]

heel even. terwijl ze al 3 generaties daarvoor al de betere kaarten hadden. en dat zaken alweer terwijl ze nog steeds de betere kaarten hadden!
Ik verwijs hiervoor naar de post van Gekke Jantje. En na Maxwell had AMD echt een probleem, het enorme succes van Maxwell hadden ze niet gedacht.
verder was de 400 serie was gewoon nieuw. en dat ze de refresh 500 serie noemde is niet heel relevant. nvidia had ook geen nieuwe serie in die zelfde periode.
Nvidia had enkel Pascal, maar er was ook geen reden om die voortijdig te vervangen. Het lukt AMD niet om de high-end van Nvidia over te nemen, dus Nvidia kan rustig verder werken aan Volta terwijl de Pascal GPU's als broodjes over de toonbank gaan.
gekke jantje vergist zich lelijk. mijn reactie op hem legt het uit.

Maar in het kort:
7970 > 680
6970 > 580
alles > 480
Nvidia had enkel Pascal, maar er was ook geen reden om die voortijdig te vervangen.
maar je neemt het AMD dus wel kwalijk dat ze een refresh uitbrengen met toevallig een nieuwe naam. maar nvidia niet dat ze niks deden in de zelfde periode. dat snap ik niet.
Nee ik vergis me niet en dat liet ik later ook blijken.
je zat gewoon he-le-maal fout met de 580 vs 6970.
en de hd5xxx en hd4xxx heb je het niet eens over gehad.

en je had zelfs de claim dat nvidia ALTIJD betere high end kaarten had.

de 9700pro, de x850tx, 1900xtx, hd4870, hd5870 en hd6970 zijn het daar toch echt niet mee eens.

[Reactie gewijzigd door Countess op 11 november 2017 00:50]

Je had het over de laatste 3 generaties daarom nam ik eerdere generaties niet mee. En ik gaf je gelijk over de 6970 dat die niet sneller is dan de GTX 580. Ik zat verder niet fout als het ging om de GTX 580 en HD 5870.Je ziet hier ook dat de HD 6970 vaker onder de 580 presteert.

De enige kaart die boven de GTX 580 uit komt is de 5970 dual GPU
https://nl.hardware.info/...ersus-predator-directx-11

[Reactie gewijzigd door Gekke Jantje op 11 november 2017 08:54]

Schijt aan de klant? Ik ben juist blij met dat ze mijn data eindelijk aan een account kunnen koppelen. Mijn data is eindelijk gesynced en ik maak elke dag daar gebruik van met GameStream. Ook super handig dat na een volledig nieuw systeem alles gewoon weer ingesteld is zoals ik dat had. Perfect, 10/10, had het niet anders gewild.

Trouwens, je denkt toch niet dat ze voor de introductie van accounts je data niet verzamelden? Lol.

[Reactie gewijzigd door Iva Wonderbush op 10 november 2017 11:33]

Jij bent niet iedereen (en ik ben ook niet iedereen). Daarom is het persoonlijk of je het fijn vindt dat ze je data doorverkopen. Voor streamen kan het inderdaad handig zijn, want je kan ook niet zonder, maar ik gebruik het bijvoorbeeld alleen maar om m'n gameplay op te nemen. Waarom moet ik daarvoor inloggen? Maak de optie dan opt-in en geef je klanten de keus.

Ik heb het over accountinformatie, niet over systeeminformatie ;).

[Reactie gewijzigd door AnonymousWP op 10 november 2017 11:45]

Gelukkig kun je de driver ook los downloaden dus het probleem is sowieso een non-issue.
De driver wel ja, maar daarmee kan je je gameplay niet opnemen.
Nouja dan gebruik je OBS, ook geen probleem, desnoods met NVENC. Heb je ook hetzelfde effect. Sure wel niet helemaal hetzelfde maar wel veel meer controle over je encoder dat dan weer wel.
Hoezo verplicht inloggen? Ik heb net een nieuwe 1070, drivers geinstaleers en klaar. Niet eens een account hoeven aanmaken...
Ik had het dan ook over GeForce Experience en niet over de drivers zelf. Of is het er ondertussen uitgehaald? Hier kan ik niks over vinden in de changelog: https://forums.geforce.co...hread-released-10-16-17-/
Ooit gehoord van 10/20 minutes mail? > https://duckduckgo.com/?q...tes+mail&atb=v68-3&ia=web
Ik voer al jaren lang geen email-adressen meer in waar dat niet nodig is
En zeker niet bij Nvidia.
Dat ken ik maar al te goed, maar het probleem is, is dat je ook een wachtwoord nodig hebt + data verzamelen van je systeem etc.
Mbt tot de prijzen vind ik nvidia op het moment vrij goed. Je hebt een 1060 voor zo’n 250 euro. En dat is echt geen langzame kaart te noemen.
De GTX 1060 is inderdaad een goede kaart :). Maar ten eerste was dat niet bij launch, en ten tweede krijg je bijvoorbeeld voor 20 euro minder 1GB meer VRAM: https://tweakers.net/pricewatch/compare/757339;577623/

Edit: het is geen scheve vergelijking, want blijkbaar maakt kloksnelheid etc geen bal uit: https://www.youtube.com/watch?v=SjdqYJ2y2xo

[Reactie gewijzigd door AnonymousWP op 10 november 2017 11:42]

Hier de laatste benchmarkresultaten, van Assassin's Creed Origins:

1080p Medium - RX 570 4GB: 57.6 fps gemiddeld, 45.5 fps minimum
1080p Medium - RX 580 8GB: 61.5 fps gemiddeld, 48.8 fps minimum
1080p Medium - GTX 1060 3GB: 72.2 fps gemiddeld, 59.1 fps minimum
1080p Medium - GTX 1060 6GB: 75.7 fps gemiddeld, 61.9 fps minimum

1080p Ultra - RX 570 4GB: 44.2 fps gemiddeld, 30.3 fps minimum
1080p Ultra - RX 580 8GB: 49.0 fps gemiddeld, 34.9 fps minimum
1080p Ultra - GTX 1060 3 GB: 47.6 fps gemiddeld, 37.2 fps minimum
1080p Ultra - GTX 1060 6GB: 56.3 fps gemiddeld, 43.5 fps minimum

Dit is uiteraard getest met een sterke Intel-processor. Met name grafische kaarten van AMD houden vaak absoluut niet van voor gaming zwakkere processoren, zoals de Ryzens. De architectuur van de Ryzens leent zich helaas niet goed voor veel games (al is het niet zo dramatisch als Bulldozer was).

1080p Medium - R7 1800X & RX Vega 64 : 52.5 fps gemiddeld, 41.0 fps minimum
1080p Medium - R5 1600X & RX Vega 64: 52.0 fps gemiddeld, 38.5 fps minimum
1080p Ultra - R7 1800X & RX Vega 64 : 44.1 fps gemiddeld, 31.1 fps minimum
1080p Ultra - R5 1600X & RX Vega 64: 44.0 fps gemiddeld, 31.6 fps minimum

Je ziet, de resultaten van de AMD-AMD build in AC: Origins zijn zwáár teleurstellend, en dat is een understatement.

Bron benchmarks: http://www.pcgamer.com/as...rigins-performance-guide/

PS. Neem een i5-8400 voor gaming. Nu niet voorradig? Wacht een maand. Je gaat er geen spijt van krijgen:
https://cdn.mos.cms.futur...6HrySLF9atz2XJ-650-80.png
http://www.pcgamer.com/in...-new-gaming-cpu-in-years/

[Reactie gewijzigd door dusty-2011 op 10 november 2017 23:48]

Kloksnelheden etc maken echt geen bal uit, zo laat dit filmpje zien: https://www.youtube.com/watch?v=SjdqYJ2y2xo
Daar gaat het eigenlijk al mis; die benchmarks zijn puur gericht op specificaties. De benchmark zijn synthetisch en niet gedaan met games.

[Reactie gewijzigd door AnonymousWP op 10 november 2017 16:33]

Als je liever wat meer benchmarks hebt, dan wil ik die best geven hoor: https://www.youtube.com/watch?v=i8kXpUQVs7Q

https://www.google.nl/search?q=RX+570+vs+1060+3GB&cad=h

Het klopt dat in de ene benchmark de 1060 sneller is dan de RX 570, maar daar betaal je dan ook 20 euro meer voor. Uiteindelijk blijft het mening :).

[Reactie gewijzigd door AnonymousWP op 10 november 2017 11:55]

Ik stel de aankoop van een nieuwe kaart steeds maar uit in de hoop dat de mining craze een keer over is.

Mijn 780Ti begint nu toch echt te langzaam te worden. Ik heb een 1440p monitor met freesync en heb ook de balen van verplicht inloggen. Zal binnenkort dus wel een Vega64 worden die ik iets ga undervolten om het stroomverbruik en de herrie iets in te dammen.
Prijzen vallen weer mee toch? 1070 heb je al rond de 400, pricewatch: Inno3D GeForce GTX 1070 X2 V3

de 970 is heel lang ¤350 geweest, terwijl de 1070 de 980TI gewoon verslaat inmiddels.
Yup, maar heb een freesync monitor dus ga sowieso voor AMD. Zelfs de RX580 verslaat mijn 780Ti al, maar ik doe het niet voor minder dan ongever 1080 performance. Wordt dus een Vage64 en als ik de prijsverschillen met Duitsland en UK zie, dan wordt ik niet vrolijk van de Nederlandse winkels.

Goedkoopste Vega 64 op Alternate.de : 549 euro
Goedkoopste vega 64 op Alternate.nl : 679 euro
Goedkoopste Vega 64 in Pricewatch : 581 euro, bij een winkel waar ik nooit zal kopen 600 euro bij een winkel met goede beoordelingen.
Dacht vanwege je 780ti, dat het weer amd werd.
Dat freesync is natuurlijk een goede troef voor amd. Heb zelf een rx 580 8gb besteld, ¤250,- ook niet gek.

T kan nog goedkoper die 64:
https://www.vibuonline.de...x16--Retail-_1186795.html
Als een Vega 64 qua performance hetzelfde biedt als een GTX 1080, dan is de gebruikerservaring natuurlijk nog niet meteen van vergelijkbare kwaliteit. ;)

Met een GTX 1080 krijg je een uiterst stabiel en betrouwbaar systeem, met relatief weinig driverproblemen.

Met een Vega 64 krijg je een onstabiel, onbetrouwbaar systeem, met relatief veel driverproblemen.

Dat maakt de GTX 1080 een veel beter aanbod, wat één van de belangrijkste redenen is dat GPU's als de GTX 1070 en GTX 1080 vele en vele malen populairder zijn voor gaming dan de Vega GPU's.
Ik heb een GTX1070 en gebruik GeForce Experience niet voor zover ik weet.
Of je hebt het uitgevinkt tijdens de installatie of je weet niet dat het geïnstalleerd is. Sinds de laatste drivers is er geen icoon meer van nvidia in je taakbalk en kan je alleen configuratie scherm openen via rechter muisknop. Geforce experience staat wel in je startmenu.
Je kan nog altijd expliciet kiezen in de install welke onderdelen je wil installeren. En ja experience is uit te zetten.
Zo heb ik het in ieder geval draaien.
Nadeel is natuurlijk wel dat je terug manueel je driver versie moet bijhouden.
Ik zelf wil geen geforce experience op de pc hebben dus ik doe dat inderdaad ook. Samen met DDU de beste manier om nieuwe drivers te installeren.
Die voorbeelden die je op noemt zoals het saboteren van games zijn helemaal geen bewijzen van. Daar bij is Gameworks ook (deels) open source waar van een hoop waarschijnlijk nog open source word. SDK's werken nu eenmaal altijd iets beter op bepaalde hardware maar Gameworks kan nu beter geoptimaliseerd worden voor AMD omdat het open source is. Het is dus aan AMD om optimalisaties door te voeren.
Wat mij betreft mag AMD dan ook nog wel aan de drivers werken. Die hebben al jarenlang de reputatie erg brak te zijn. Dat merk je vooral als Linux gebruiker erg goed, want hun OpenGL support is altijd al ruk geweest. Op Windows heb je tenminste nog DirectX.

Overigens merk je ook wel het "schijt aan de klant" aspect van Nvidia erg goed op Linux. Ten eerste heb je helemaal geen ShadowPlay, en ten tweede is de closed source natuur van hun drivers best vervelend. Bij AMD kan je nog een keer vreemde dingen doen, zonder al te veel moeite. Bij Nvidia is het al lastiger om bijvoorbeeld bezig te gaan met VFIO of met Gallium3D. En daarnaast wil Nvidia nogal eens zeuren als je rare dingen dingen doet met je kernel. Ik heb al verscheidene keren gehad dat ik de driver niet goed geïnstalleerd kreeg. Maar als die eenmaal werkt, dan werkt die driver wel net zo goed als op Windows, waar die van AMD vaak toch beduidend slechter is (al verbetert AMD langzamerhand ook wel).
Een groter markt aandeel hebben betekend nog steeds niet dat ze een monopolie hebben.

Anders zouden alle bedrijven die in competitie met elkaar zijn een evenredig marktaandeel moeten hebben om een monopolie positie te voorkomen en dan kan je het dus ook geen competitie meer noemen.
maar ik ben blij dat Intel en AMD gaan samenwerken,
Daar zou ik maar niet teveel van verwachten. momenteel komen ze met hun gezamenlijke chip maar in de buurt van de GTX1050Ti.
De hoop op vernieuwing bij Intel heb ik al lang verloren. Ze maken amper maar een paar % vooruitgang per jaar. In het begin dacht ik dat dit gepland was maar nu dat AMD zo goed bezig is met hun CPU's en Intel niet direct een antwoord heeft(dat veel beter is) heb ik mijn twijfels.

Op GPU vlak hoop ik echt dat AMD eens eindelijk kan bijbenen met Nvidia maar dat ziet er ook niet direct naar uit aangezien ze nog niet eens kunnen concurreren men een al bijna 2 jaar oude Nvidia GPU.
Boehoe, je moet inloggen. Dat wil echt zeggen dat er schijt aan de klant hebben. Net zoals al die andere bedrijven die schijt hebben aan de klant zoals Google, Apple, facebook, etc.
Knappe resultaten, helemaal omdat nvidia geen nieuwe generatie videokaarten (voor de consument) geeft gelanceerd tegen over vorig jaar. Nvidia zal de komende tijd nog wel in het geld schijten.
Ik vraag mij af waarom ze voor Q2 2018 zo'n boost in OEM/IP verwachten, wat zou er voor product worden gelanceerd dat een dergelijke boost in verkopen teweeg moet gaan brengen?
Als developers hun spellen blijven verkrachten zoals DICE met BF1 gaan mensen wel een nieuwe kaart kopen. Vanaf bezig op ultra gespeeld met een 970, draait nu voor geen meter meer...
Je weet zeker dat dat door het spel komt? Kan natuurlijk ook wat anders zijn. Al zal ik ook niet ontkennen dat EA erg bedreven is in het verkrachten van spellen.
Ik heb ook een 970 en kan dit beamen.
Hier het antwoord waarom Intel met AMD bezig is.

NVIDIA heeft wel hoge marge van rond de 25%
Uitzonderlijk jaar.

De vraag is hoe lang ze dit kunnen volhouden, aangezien de achterliggende techniek voor supercomputing voor oa AI en autonooom rijden minder complex is. De grootste uitdaging zit hem in het schalen en achterliggende software.

Google is onlangs begonnen met een eigen chip in de Pixel 2, Huawei heeft ook de eerste stap gezet, Intel gaat frontaal met samenwerking met AMD, maar ze hebben ook oa MobilEye gekocht die ook chips ontwerpt voor autonoom rijden.


Nvidia heeft een voorsprong die niet te overbruggen lijkt, maar je hebt de wet van de remmende voorsprong.
Er komt een moment waarbij de innovatie en progressie afvlakt, en dan kunnen andere partijen een inhaalslag maken op met name kosten. Niets wat zo snel wordt afgeschreven als techniek in ICT.
Dat speelt zeker mee en is al genoemd als reden, maar intel heeft ook Raja Koduri, ex-AMD, aangenomen om weer een poging te doen eigen losse GPU's te gaan maken. Dus de combi van intel cpu en amd gpu zal denk ik slechts van enkele jaren zijn totdat intel een eigen goed presterende gpu heeft ontwikkeld.
nieuws: Intel neemt AMD-topman Raja Koduri in dienst om high-end gpu's te maken
Raja kon het niet voor AMD dus waarom zou het plots voor Intel wel gaan?
Geen enkele garantie nee. Ik weet ook niet wat de problemen bij AMD waren, dus of Raja daar aandeel of schuld in heeft kan ik niet beoordelen. Wel weet ik dat Vega in principe niet slecht is als je naar performance kijkt in vergelijking met de nVidia Pascal, alleen kwam Vega toch wel een jaar te laat en verbruikt het meer stroom dan de Pascal.
Niet zo gek met al die miners.
Videokaarten zijn toch allang weer passé in mining land buiten wat hobbymatig gebruik? Ik zie nochtans links en rechts dedicated mining hardware ingezet worden i.p.v. videokaarten.
Volgens mij komt het meer omdat PC gaming weer een beetje een hot item is.

[Reactie gewijzigd door Ton Deuse op 10 november 2017 11:23]

ETH lukt nog heel goed hoor ...
Elke cryptocoin heeft zijn eigen platform waarmee het beste te minen valt.
BTC word gemined met dedicated hardware maar er zijn genoeg coins waarbij videokaarten nog steeds genoeg opleveren. Daarnaast zijn er nog verschillen met AMD RX, Nvidea en AMD Vega kaarten met al hun preferred coin.
Weet je toevallig waar je ziet welke coin het beste werkt voor welk platform? Ik heb nog wel een GTX770 die ik niet de hele dag door gebruik, en geld tekort.
Je kan beste Nicehash gebruiken. Die selecteerd automatisch de juiste coin.
Nee, GPU minen is nog steeds een heel stuk sneller dan CPU.
Zou cryptomining hier iets mee te maken hebben? :P
Dat heeft het zeker. Je zou kunnen zeggen dat het een goudmijn is (waarbij de mijn meer oplevert dan het goud) ;)
Staat zeker niet in de tweede zin van de tweede alinea van het artikel.
Je wordt wel gemind maar dat kan wel, ik wilde heel graag een radeon kaart kopen voor mijn nieuwe build maar heb toch voor de gtx1060 gekozen omdat ie goedkoper en sneller is als de RX580

De AMD kaarten zijn nu gewoon te duur voor wat je krijgt als gamer, voor mij heet dit geen invloed op mijn volgende aankoop maar veel mensen zullen als ze eenmaal een kamp hebben gekozen daar ook bij blijven.
Ik denk dat inderdaad een hoop gamers gekeken hebben naar prijs en beschikbaarheid en daarbij overgegaan zijn van AMD naar Nvidia...
Wanneer de cryptocurrency mining geen roet in het eten had gegooid, was AMD wellicht een stuk meer favoriet met hun toenmalig beloofde prijzen.
Nee, dit komt omdat Nvidia kaarten over het algemeen niet goed zijn om mee te minen. Met AMD GPU's kan dit velen malen beter.

Er zijn wel miners die Nvidia kaarten hiervoor gebruiken alleen dit is maar een klein deel.

[Reactie gewijzigd door AlphaBetaGamma op 10 november 2017 11:23]

Zcash is best populair onder miners hoor (NVIDIA kaarten)

Bovendien wat ETHART zegt, mensen wijken uit naar NVIDIA, omdat AMD niet meer voor normale prijzen te verkrijgen zijn, dus indirect heeft het wel zeker invloed
Ik wil niet vervelend doen maar er staat een klein foutje in.
"tot 1,56 miljard dollar, omgerekend 1,34 miljoen euro"
Miljoen moet miljard worden
Daar is de feedback knop voor, rechts naast het artikel.
Aaah kijk eens aan, dankjewel!
Weet niet of het toeval is maar statistisch gezien gingen de verkopen omlaag laatste kwartaal 2017.
Reden daarvan de verwachte release van AMD's VEGA?
Je bedoelt die lege doos Vega?

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*