Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Groeiende vraag naar GeForce-gpu's bezorgt Nvidia omzetstijging van 55 procent

Door , 115 reacties, submitter: Nat-Water

Nvidia heeft zijn positie als leider op de markt voor gpu's verstevigd met een omzetstijging van 66 procent voor zijn Gaming-divisie en 55 procent voor het hele bedrijf. Met name e-sports zorgt voor de groei van de gamingsector, claimt het bedrijf.

Met een kwartaalomzet van 1,35 miljard dollar, omgerekend 1,27 miljard euro, is Gaming nog altijd met afstand de grootste omzettak voor Nvidia. Vorig jaar na hetzelfde kwartaal kon die divisie van Nvidia 801 miljoen dollar omzet noteren. AMD's omzet van het Computing and Graphics-segment, waar de videokaarten bij het bedrijf onder vallen, steeg ook wel met 28 procent ten opzichte van een jaar eerder, maar met een kwartaalomzet van 600 miljoen dollar haalt de concurrent minder geld binnen met gpu's.

Details over de hoeveelheid verkopen geeft Nvidia niet. Wel zegt ceo Jen-Hsun Huang volgens de toelichting op de cijfers bij Seeking Alpha dat er een install base van 100 miljoen GeForce-gamers is en dat binnen drie tot vier jaar iedereen een upgrade van zijn videokaart doorvoert. Verder noemt hij e-sports als drijvende kracht achter de groei van de gamingmarkt.

Ook bij de segmenten Professional Visualization, waar de Quadro-kaarten onder vallen, noteerde Nvidia groei van 10,8 procent. De grootste groei was bij de Datacenter-tak te zien: 205,1 procent. Nvidia kondigde voor dit segment onder andere het DGX-1-deeplearningsysteem aan. Met een kwartaalomzet van 296 miljoen dollar is dit na Gaming inmiddels de belangrijkste omzetpoot. Ten slotte was er groei bij Automotive, waar Jen-Hsun Huang hoge verwachtingen van heeft door de komst van zelfrijdende voertuigen. Nvidia produceert hier onder andere Tegra-chips voor, die onder andere door Tesla worden gebruikt.

De totale omzet van Nvidia bedroeg 2,1 miljard dollar, een stijging van 55 procent tegenover vorig jaar. De nettowinst kwam uit op 655 miljoen dollar.

Olaf van Miltenburg

Nieuwscoördinator

10 februari 2017 11:23

115 reacties

Submitter: Nat-Water

Linkedin Google+

Reacties (115)

Wijzig sortering
Dat is een erg nette winsmarge. Moet je na gaan hoe goedkoop kaarten kunnen zijn bij een echt forse concurrentiestrijd...
Als je bedenkt hoeveel miljoenen producten ze verschepen valt de winst gemiddeld per stuk denk ik op max een paar tientjes. De prijs zal dan waarschijnlijk niet onlaag gaan...
Als je denkt dat de winst op bijvoorbeeld een GTX1080 een paar tientjes is dan zit je er heel erg naast :P.
Denk eerder aan honderden euro's.

Edit:
Dit staat even los van alle marketings kosten en research kosten. Waarvan de tweede niet super hoog is. Pascal is niets meer dan Maxwell on steriods met een aantal leuke toevoegingen voor o.a. VR, de IPC is hetzelfde gebleven een Pascal kaart met hetzelfde aantal shaders als een Maxwell kaart op dezelfde clocks zijn nagenoeg even snel.
De winst zit hem vooral in het nieuwe productie process.

De die size van de GTX1080 is 314mm, die van de GTX1060 is 200mm, beide kaarten worden met een goede winst verkocht.; Nu heeft de GTX1080 GDDR5x wat iets duurder zal zijn en doordat de die size iets groter is zijn de yields ook iets lager. Dan nog als je kijkt naar het prijsverschil tussen de twee dan zijn dat meerdere honderden euro's. Laten we zeggen dat een GTX1080 2x zo duur is om te maken dan blijft er nog een gigantisch bedrag over dat je als winst kan wegschrijven.
Winkels willen natuurlijk ook wat meepakken en bedrijven zoals ZOTAC, MSI etc ook.

Normalitair heb je voor die prijs een kaart met een die size die 500mm of meer is. Zie bijvoorbeeld oudere kaarten, de GTX780 (Ti), de GTX480 of GTX 280. Nvidia heeft er een habit van gemaakt om mid-end kaarten als highend te verkopen. Hier kunnen ze meer winst op maken, dit komt mede door gebrek aan concurentie.

[Reactie gewijzigd door Sp3ci3s8472 op 10 februari 2017 12:15]

ff een wilde gok:
uit het artikel "De totale omzet van Nvidia bedroeg 2,1 miljard dollar, een stijging van 55 procent tegenover vorig jaar. De nettowinst kwam uit op 655 miljoen dollar."
Is gemakkelijk te halen dat er ongeveer een netto winst van 25% over de omzet gehaald word. Dus alle onkosten zoals R&D, de gebouwen, personeel ed zijn al van deze winst afgehaald.
een GTX 1080 kost rond de 800 euro. Het is dus gemakkelijk om te zeggen dat 25% hiervan idd honderden euros winst is.

uiteraard is bovenstaande verschrikkelijk heel erg kort door bochten, maar toch niet erg ver gezocht.
een GTX 1080 kost rond de 800 euro. Het is dus gemakkelijk om te zeggen dat 25% hiervan idd honderden euros winst is.
Je gaat alleen voorbij aan het feit dat nVidia alleen de GPU levert, en niet de hele kaart. Zelfs de Founders edition zal ergens anders geproduceerd worden.
Dat was ik me inderdaad ook aan het afvragen.

- MSI Geforce Gaming X 1060 6GB: 338,-
- MSI Geforce Gaming X 1070 8GB: 450,-
- MSI Geforce Gaming X 1080 8GB: 740,-

Dus wat kost nou eigenlijk de hele kaart excl GPU? Geheugen lijkt me de duurste component. Als we even de aanname doen dat het voor de 1060 zo'n 250,- is (GDDR5), dan zal het voor de 1070 zo'n 300,- zijn (GDDR5) en voor de 1080 zo'n 400,- (GDDR5X).

Allemaal natte vinger natuurlijk, heb zitten zoeken op "gddr5 spot price" maar kan het niet lekker vinden. (Iemand?)

De overige kosten lijken me vrij constant over deze kaarten.

Kosten GPU zijn dan wat je overhoudt, ongeveer:
- Geforce 1060: 88,-
- Geforce 1070: 150,-
- Geforce 1080: 340,-

Met 30% er vanaf kom je dan in totaal op:
- MSI Geforce Gaming X 1060 6GB: 312,-
- MSI Geforce Gaming X 1070 8GB: 405,-
- MSI Geforce Gaming X 1080 8GB: 655,-

Vind het totaalplaatje dan weer tegenvallen met hoe goedkoop dat is...
Dan vergeet je nog de kosten van de PCB, Koeler / Backplate (evt. RGB, RGB Software), Support, Packaging, Samples, Controle (FCC/EMC/CE)... . Dus denk dat de prijs van de GPU zelf nog goedkoper is dan wat je daar hebt.
Ehm nee vergeet ik niet :) Dat zat in de constante kosten.
Gelukkig heb je weinig verstand van ondernemen en finance,... :):) en te roepen dat er op 1080kaart dikke winst wordt gedraaid.

de 655 mio is voor belasting, dus zeg grofweg 50% gaat nog naar de staat. en hou je 378,5 over. daarnaast is het zo dat ze niet alleen geld verdienen met de kaart maar ook met andere producten, licenties (rebranden van kaarten aan cisco, hp, dell) enz.

Daarnaast heb je als onderneming ook een hele dikke spaarpot nodig, als namelijk een product niet loopt, de economie stort in of je hebt een dikke recall actie dan verdampt je geld sneller als dat jij en ik kunnen bedenken.

dus dit getal zegt heel weinig, want er zit ook nog een verschil tussen echte winst en winst voor de belastingdienst (en zeker in nederland). Daarnaast schermt nvidia erg met Omzet, omzet zegt geen drol! je kan 1 mio omzet hebben,...en 2 mio kosten, onder aan de streep dus 1 verlies.

Nvidia gaat nu goed, totdat amd weer een stap doet, t blijft mooi dat ze in ieder geval goeie producten voor ons ontwikkelen waar we graag gebruik van maken. :)

edit: aanvulling

[Reactie gewijzigd door itlee op 10 februari 2017 12:32]

Staat toch duidelijk in het artikel...655M is nettowinst...dat is dus na alle aftrekposten, waaronder belasting.
Ik heb een financiële achtergrond, dus hun rapportages lezen gaat mij iets makkelijker af. De cijfers die hierboven worden genoemd zijn geen jaaromzetten maar kwartaal omzetten en winstmarges.

Jaar omzet (12 month trailing) is 6.910M omzet en 1.666M aan winst.

Dit hoeft overigens niet te beteken dat ze dit letter in het laatje krijgen. Dit is een manier van rapporteren volgens de US Gaap regels. Dus geen actuele geldstromen.
1666/6910 is 25%. 655 / 2100 is 30%.

Noem me naïef, maar ik zie je punt niet...
Sorry, misschien niet duidelijk maar in het artikel werd aangegeven de jaaromzetten. Dit is niet juist. Verder ben ik niet ingegaan over de percentages.
ik geloof je op je woord, je kan me van alles wijs maken op financieel gebied, maar we hebben het hier niet over of het jaar of kwartaal omzetten zijn.

het gaat hier om die 655M NETTO winst...maakt niet uit of dat per kwartaal of per jaar is, al zou het per dag zijn...NETTO is NETTO, wat betekent...als alle kosten er al afgehaald zijn, hou je dat over...plain and simple.
Ja, je hebt gelijk over de netto winst, daar betwist ik je ook niet verder over. Wellicht niet handig van mij om het als een reactie op jouw comment te zetten, maar better om het los te verwoorden. Het was meer een aanvulling.

Waar het wel aan kan verschillen is dat het een Netto winst op papier is. Puur cashflow hoeft dit niet zo te zijn. Het kan betekenen dat zijn meer liquide middelen tot hun beschikking hebben of minder.
i ll rest my case....ik zeg, je hebt gelijk! :) reaguurders worden hier met de dag slimmer.

[Reactie gewijzigd door itlee op 10 februari 2017 20:10]

Tja kijk dan eens naar amd die zouden in die markt ook moeten scoren maar lopen ook daar achter. Jammer want zou ook in die markt goed voor concurrentie zijn.
Umh no

Beetje kort door de bocht zo terwijl je niet eens weet wat de winstmarge is van de andere nvidia producten
Je vergeet alleen doodleuk 21% belasting. Het is redelijk bekend dat ze maar paar tientjes per kaart winst maken. Dit geld voor de winkelier, distributie en nvidia zelf.
Rare beredenering, volgens die gedachtengang zouden ze op de echte highend kaarten van vroeger die 400-600 euro kosten en 500mm+ als die size hadden geen winst maakten of verlies.
Dat zou hetzelfde betekenen voor de lowend zoals de GTX1050.

Er worden tegenwoordig 300mm kaarten verkocht voor de prijs waar je vroeger 500mm+ kaarten had voor een lagere prijs.

Even een korte opsomming:
GTX280x, prijs $650, die size 576 mm²
GTX480, prijs $499 , die size 529 mm² (lang leve de HD5870 die de prijs drukte)
GTX780, prijs $649, die size 561 mm²
De GTX980Ti hoort ook in dit rijtje, het zelfde met de Titan X.

Met de 3 mid-end vreemde eenden
GTX680, prijs $499, die size 294 mm2
GTX980, prijs $550, die size 398 mm²
GTX1080, prijs $599-699, die size 314mm²

Dat iedereen tegenwoordig het normaal vind om de 650-800 euro te betalen voor een mid-end kaart is jammer, dit komt deels doordat AMD een tijd te laat reageerde en geen concurerende producten had. Dit gaf Nvidia de mogelijkheid om alles een segment hoger te plaatsen en pas als AMD iets had een nieuwe highend kaart uit te brengen in de vorm van een x80 of een Ti kaart.
Amd was met hun vorige high en niet goedkooer. Daarnaast die size was groter maar productie goedkoper. Op 14nm produceren is gewoon duurder en inflatie.
een GTX 1080 kost rond de 800 euro. Het is dus gemakkelijk om te zeggen dat 25% hiervan idd honderden euros winst is.
Waar haal je dat vandaan, je hebt nu al 20 Geforce GTX 1080 voor onder de ¤700,- en dat is al een tijdje zo.

categorie: Videokaarten

Je koopt de Galaxy GeForce GTX 1080 8GB EXOC-SNPR BLACK voor ¤623,10 en de KFA2 GeForce GTX 1080 EXOC 8GB ook voor ¤623,10, Asus TURBO-GTX1080-8G voor ¤649,- en de Inno3D GeForce GTX 1080 HerculeZ Twin X2 8GB voor ¤651,95.

Je bent echt dom bezig als je nu een lucht gekoelde Geforce GTX 1080 koopt voor ¤800,-

[Reactie gewijzigd door AmigaWolf op 10 februari 2017 22:56]

Een 1080 is in feite slechts een beetje een "opgevoerde" 1070, en zal marginaal meer kosten om te produceren. Maar hij kost wel wat honderdjes meer..

Daarnaast is het sommetje eigenlijk heel simpel, 655 / 2100 = 31% winstmarge gemiddeld genomen.

Dus dat is op een 1080 krap genomen ¤240... :)

Natuurlijk is er een kans dat een 1080 een product met een lagere marge is. Maar daar staat dan wel een product met hogere marge tegenover :)
Zoals Nox ook al zei: een 1070-chip krijg je in principe door de niet volledig werkende chips niet te gebruiken in de 1080. En er is nog iets. Een 1070 is uitgerust met het gangbare GDDR5, terwijl een 1080 beschikt over het snellere (maar duurdere) GDDR5X.
En Nvidia krijgt natuurlijk alleen geld voor de chips(tenzij je founder edition koopt). En MSI/Asus willen er ook nog iets aan verdienen. Dis blijft er nog een klein beter minder over. Maar nog steeds genoeg om er leuk aan te verdienen.
Eerder andersom, een 1070 is een mislukte 1080.

Tijdens het bakken krijg je foutjes. Gebruik je een paar streamprocessors niet en je hebt er genoeg over om te gamen. Alleen niet alle 100%. Het is soms goedkoper om alle 1080-1060-1070 in die serie met dezelfde chip uit te rusten en enkel de besten te verkopen als 1080. Als je goede yields hebt moet je sommige 'slopen' en verkopen. Maar dat is goedkoper dan een nieuwe lijn opzetten en de tweaker koopt eigenlijk een 1080 en kan deze soms unlocken.

</Jipjanneke>
Dit staat even los van alle marketings kosten en research kosten. Waarvan de tweede niet super hoog is. Pascal is niets meer dan Maxwell on steriods met een aantal leuke toevoegingen voor o.a. VR, de IPC is hetzelfde gebleven een Pascal kaart met hetzelfde aantal shaders als een Maxwell kaart op dezelfde clocks zijn nagenoeg even snel.
Yep, een GPU met miljarden transistors is echt makkelijk te maken. De R&D kosten in 2016 waren 1413 miljoen dollar. Echt super simpel, gewoon wat leuke toevoegingen en een beetje overclokken. |:(
[...]

Yep, een GPU met miljarden transistors is echt makkelijk te maken. De R&D kosten in 2016 waren 1413 miljoen dollar. Echt super simpel, gewoon wat leuke toevoegingen en een beetje overclokken. |:(
Ik zeg nergens dat het simpel is om een gpu te ontwerpen, het is alleen in verhouding tot simpel.

Als je de research kosten van Pascal gaat vergelijken met die van Volta dan kan ik je met grote zekerheid zeggen dat die van Volta een stuk hoger zullen uitvallen.

Pascal is niet meer dan een leuk extratje dat ze zonder veel moeite hebben kunnen maken.
http://www.anandtech.com/...cal-architecture-for-2016

Een groot deel van de research kosten van Nvidia liggen ook niet meer in GPU's alleen, ze hebben een aantal andere projecten. Zoals Shield, Tegra, zelf rijdende auto's etc....

[Reactie gewijzigd door Sp3ci3s8472 op 10 februari 2017 14:33]

Je moet ook rekening houden met research en ontwikkelingskosten.
Klopt, maar in princiepe zit dat er al in.
Wat er voor omzet met een kaart gehaald wordt is één ding.
Wat er voor kosten gemaakt zijn is een ander ding.
Trek ze van elkaar af en je hebt winst (of verlies).

Dat is wat Nvidia rapporteerd: 2.1 mlrd omzet, 655mil winst. Dus hun kosten over het boekjaar zijn 1445 mln. Dat zijn dus de kosten die zij in 2016 maakten over de ontwikkeling voor producten die uitkomen in 2017, 2018 etc. Dus daarom kan je die kosten niet zo makkelijk verrekenen met een kaart die in 2016 is verkocht.

Daarnaast heeft de retail prijs die wij betalen niet veel te maken met de omzet van NVidia. Die maakt chips. Asus etc. maken de PCB en koelers, en de retailers verkopen het. Die pakken allemaal hun marges, waardoor de prijs die NVidea uiteinlijk voor hun chips krijgt een stuk lager ligt.
Ik denk dat je bij "die size" de lengte van de videokaart hebt gebruikt.
Ik geloof je graag, maar heb je ook een bron?
Bijvoorbeeld waarin de hele videokaart uit elkaar wordt gehaald en getaxeerd o.i.d.?
Het is grotendeels ervaring en er zijn inderdaad wel artikelen te vinden die dit behandelen. Ik wil er vanavond wel eens een paar opzoeken :).

Als je de Nvidia/AMD/Radeon topics veel volgt dan vergaar je die kennis vanzelf.
Bijvoorbeeld waarin de hele videokaart uit elkaar wordt gehaald en getaxeerd o.i.d.?
En wat zou er dan uit moeten komen als kosten?

Nul?

Want dat is het getal waar ik dan op uit kom.

Pak een product. Autoband bijvoorbeeld.

Grondstoffen: zoveel
ProductieL zoveel
R&D: zoveel
etc

Splits elke post verder op en wat blijkt? Rubber kun je op precies dezelfde manier opdelen. En de ruwe grondstoffen waar rubber uit gemaakt wordt ook weer.. Uiteindelijk kom je altijd uit bij mijnbouw bedrijven die het 'gratis' uit de grond halen, telers die het 'gratis' van de bomen plukken etc.

Er bestaan geen echte kosten. Alleen maar stapels marge op marge op marge.
Paar tientjes winst op een paar miljoen exemplaren is nog steeds veel winst. Winst is wat je overhoudt als je alle kosten eraf haalt.

Stel:

10 miljoen verkochte producten en 20 euro winst oer product. 200 miljoen winst.
Voor belastingen he!
Ik zou willen dat ik t kon maken.. :z

[Reactie gewijzigd door wizzard48 op 10 februari 2017 12:00]

Maar enkel alleen naar absolute winstmarge en verkochte aantallen kijken is niet voldoende. ¤20 per product dat ¤100 kost, is een hele nette en gezonde winstmarge (20%), maar op een product wat ¤1000 is dat nog maar 2%. Dat is absoluut wel hetzelfde, maar geeft je als bedrijf erg weinig buffer ruimte om tegenslagen op te vangen.
Ik bedoelde ook alleen maar dat als ze die 20 euro aan 1 persoon verdienen dan zie ik niet in waarom ze producten goedkoper zouden moeten maken. Het is een bedrijf dus ze moeten winst maken. Al zouden ze 100 per product winst maken, als ze een product maken voor een prijs die het mij waard is vind ik dat prima.
Ah oke, ja daar kan ik je prima in volgen.
Sterker nog je kunt als bedrijf niet overleven met 2 procent marge. Simpelweg omdat het dan voor de kapitaalverstrekkers niet interessant meer is. Je kunt het dan beter in een super veilige belegging stoppen waar je 3 procent op pakt. Loop je ook nog minder risico.
Ik zou je 1 iets willen zeggen. Winst voor een bedrijf is nodig om voldoende investeringen te doen ;) want zeker in deze tijden is je winst gebruiken als investering belangrijk.
nee, voor investeringen is omzet nodig.
Winst is wat eventueel NA de investeringen overblijft, en word vaak als dividend uitbetaald aan aandeelhouders.

Dit betekend niet dat je verlies kunt draaien, maar wel dat je alles kunt herinvesteren.

[Reactie gewijzigd door Fiander op 10 februari 2017 16:33]

Toch, als je voor je gaat investeren geen winst hebt dan levert investeren dus verlies op. Het gebeurt wel maar de meeste bedrijven zijn niet blij met zo'n situatie en die kan normaal gesproken niet lang bestaan. Grote uitzondering hierop is bijv. Spotify, die al jaren miljoenen verlies maken maar blijven investeren.
Ze verdienen er dik aan hoor
Het grote geld zit in ontwikkeling.
Hoe hoger de aantallen hoe meer je de kosten kan spreiden en hoe meer winst.
Als de aantallen tegenvallen kan je winst heel snel kelderen.
nVidia z'n resultaat is een rechtstreeks gevolg van te weinig concurrentie: de wat meer eisende gamer is bijna verplicht een nVidia kaart te kopen aangezien er geen alternatief is.
Indien AMD een alternatief op de markt zou hebben, zouden de verkochte aantallen 50/50 kunnen zijn waardoor de winst een enorme duik neemt.

[Reactie gewijzigd door catfish op 10 februari 2017 11:59]

Het grote geld zit in ontwikkeling.
Hoe hoger de aantallen hoe meer je de kosten kan spreiden en hoe meer winst.
Als de aantallen tegenvallen kan je winst heel snel kelderen.
nVidia z'n resultaat is een rechtstreeks gevolg van te weinig concurrentie: de wat meer eisende gamer is bijna verplicht een nVidia kaart te kopen aangezien er geen alternatief is.
Indien AMD een alternatief op de markt zou hebben, zouden de verkochte aantallen 50/50 kunnen zijn waardoor de winst een enorme duik neemt.
Jammer dat ze niks vermelden is door welke videokaarten dit met name komt. Kijkend naar de cijfers van steam: http://store.steampowered.com/hwsurvey/videocard/?sort=pct zie je dat met name de budgetkaarten het goed doen en de middensegment kaarten (1060). AMD zit daar ver onder, terwijl AMD op dit vlak met de 460/470/480 wel goede tegenhangers heeft.

Mijn hypothese is dat NVIDIA een betere imago heeft. Ook in mijn omgeving verneem ik dit waar. Kleine kanttekening: spelers die alleen spellen als League of Legends of CoD spelen gebruiken vaak geen steam.
Hoe hoog de winst van zowel Nvidia als AMD is wordt in dit artikel helaas niet genoemd.
Ondanks de lagere omzet zou AMD dus meer winst gemaakt kunnen hebben dan Nvidia.

edit:
Zelf niet goed gelezen en te snel gereageerd, nu wat aangepast, excuus!

[Reactie gewijzigd door Cowamundo op 10 februari 2017 12:42]

Klopt, maar 2 partijen die vrijwel de volledige markt in handen hebben is dan ook niet echt een concurrerend geheel.
Als je met "de volledige markt" bedoelt de markt van video kaarten, dan vergeet je de grootste speller nog. Intel verkoopt meer videokaarten dan AMD en NVidia samen.

Weliswaar allemaal onboard. Maar dan nog.
Klopt, momenteel zit er ontiegelijk veel winst op een Nvidia GPU. Echt wel meer dan een paar tientjes inderdaad. Wanneer er bv een pricedrop komt nadat bv een concurrende GPU op de markt wordt gebracht maken ze nog steeds wins erop. Het is dan niet opeens dat er met verlies wordt verkocht. Nvidia kan momenteel gewoon alles vragen voor een GPU als ze willen. Het enige wat ze in toom houdt is dat als ze het te bont maken er minder wordt gekocht waar de hogere prijs niet tegen op kan. Stel dat vega straks uit is en de 1080 dropt in prijs met 100 euro, dan maken ze nog steeds winst hoor.
Zit hem ook een beetje dat ze amper belasting betalen: http://investor.nvidia.com/financials-statements.cfm

Lijken onderhand wel Nederlandse belasting deals, als ze gewoon belasting zouden betalen hebben ze nog steeds winst alleen niet zo exorbitant.
Ik zal niet beweren dat 17% belasting het hoogste is wat bedrijven betalen in de VS (is volgens Google namelijk maximaal 39.2% als je federale en lokale belastingen bij elkaar optelt), maar om nou te zeggen dat ze amper belasting betalen vindt ik een beetje overdreven.

Vergeleken met Apple die echt helemaal geen belasting betaald in de VS (al hun geld staat geparkeerd in belastingparadijzen) betaald NVIDIA een redelijke hoeveelheid belasting.

Je moet niet vergeten dat de meeste grote bedrijven allerlei belastingdeskundigen in dienst hebben om ervoor te zorgen dat ze zo min mogelijk belasting betalen.

Microsoft betaald bijvoorbeeld maar 13.4%, Google heeft al zijn geld ook buiten de VS geparkeerd en Facebook heeft in 2016 zijn belastingen weten te verlagen 40% naar 25%.
129m belasting op 743m winst = 17 procent belasting, dat is toch niet schokkend weinig?

Zeker als je bedenkt dat het dividend ($0.39 x 538m aandelen = $210m) daarna nogmaals met circa 10-35% belast wordt, en de waardestijging van de aandelen voor een Amerikaanse aandeelhouder als 15% capital gains tax.
En als het dividend wordt uitgegeven komt daar nog weer BTW op. Wordt het gespaard krijg je vermogensbelasting. Ga je dood en erft je kind het, succesierechten enz enz.
We missen een stukje in het nieuwsbericht. De (ongeveer) andere helft van de 2,17 miljard omzet.
Microsoft, Amazon en Alibaba zijn goed voor een omzet van 926 miljoen. Dat is bijna de helft van nvidias kwartaalomzet. Nou verwacht ik dat de winst bij deze partijen een stuk lager dan bij de normale geforce producten en dat deze dus voor deze klanten maar een kleiner gedeelte is van de nettowinst.

http://www.nu.nl/internet...inst-verdrievoudigen.html


AMD's omzet van het Computing and Graphics-segment, waar de videokaarten bij het bedrijf onder vallen, steeg ook wel met 28 procent ten opzichte van een jaar eerder, maar met een kwartaalomzet van 600 miljoen dollar haalt de concurrent minder geld binnen met gpu's

Maar in totaal zou AMD het wel beter doen met zijn omzet. Al zie ik daar nergens echte complete cijfers van terug.

Nvidia's grootste concurrent is AMD, dat ook bekend is geworden met het maken van videokaarten. AMD richt zich de laatste jaren met name op het ontwikkelen van chips voor specifieke apparatuur, zoals vliegtuigen, slotmachines en medische hulpmiddelen. De gemiddelde jaaromzet van AMD is bijna twee keer zo hoog is als die van Nvidia, maar groeit lang niet zo snel.

http://www.rtlz.nl/busine...ijn-winst-verdriedubbelde

[Reactie gewijzigd door Antarloka op 12 februari 2017 21:51]

Vreemd met die crapware van ze tegenwoordig. Voor mij reden genoeg dat de volgende kaart uit principes een AMD wordt. Dan maar misschien iets minder prestaties, heb nu ook niet de meest high end.
Vind je dat oprecht vreemd ja? Ik snap heel goed dat je graag een bepaald merk prefereert en in jouw geval heb je geen behoefte aan high-end, maar in feite heeft AMD voor een groot segment simpelweg geen alternatief.

De RX480 kan het net opnemen tegen de GTX1060, maar daarboven is er helemaal niets. Ik heb zelf juist het idee dat voor heel veel gamers de sweet spot rond de 1070 ligt, ook al zijn die wat duurder. Als ik naar mijzelf kijk, ik heb nu een GTX970. Een RX480 is amper sneller dan dat. Dus als ik wat zwaarders wil, dan kan ik al niet bij AMD terecht.

Ik snap met andere woorden heel goed dat NVIDIA het zo goed doet gekeken naar de hardware. Die 'crapware' hoeft van mij ook niet perse, maar ik heb er verder ook helemaal geen last van. Ik vraag mij oprecht af hoeveel mensen hun aankoop laten afhangen van de software.
Niet om een Nvidia/AMD flame war te starten:
Wat ik in een eerdere comment zei: bekende gamers hebben vaak GTX1070's en beter, waardoor een vertekend beeld ontstaat van de GPU markt.
http://store.steampowered.com/hwsurvey/videocard/

Veruit de meeste videokaarten zitten onder de 250 euro, hoewel ik moet toegeven dat het aandeel van de GTX 1070 groter is dan ik had verwacht. Verder zie je ook dat NVidia een enorme voorsprong heeft.

En om nog even op drivers terug te komen:
GTX 770 vs R7950 bij launch: https://www.techpowerup.c...A/GeForce_GTX_770/27.html
GTX 770 vs R7950 in 2017: https://youtu.be/JWuMYoijlH4?t=4m47s

Ik merk bij Nvidia dat een nieuwe generatie GPU's vaak zorgt voor het laten vallen van driver-updates van de voorgaande: mijn GTX760 deed het prima, maar nadat de 9xx serie uitkwam ging het rap achteruit in nieuwere games. Dat was voor mij een van de redenen om naar een RX over te stappen.

[Reactie gewijzigd door Richardus27 op 10 februari 2017 12:15]

Er is de Fury-X nog bij AMD. Deze is sneller dan de 480.
Welke crapware? Tijdens de driver installatie kan je netjes aangeven wat je wel en wat je niet wenst te installeren. Wil je geen dingen zoals de Geforce Experience dan installeer je dat gewoonweg ook niet.
En dan mag je voor straf bijvoorbeeld geen Shadowplay gebruiken. Of zoals onlangs bekend werd, ook de keys die je bij je aanschaf hebt gekregen zul je moeten gaan valideren via GFE.

GFE zelf is niet eens het probleem, ik gebruik met alle plezier GFE 2.x waar de interface reageert als je er iets mee wil doen, de applicatie zelf niet om de haverklap crashed en je niet verplicht bent om je email adres bij de zoveelste mailing list toe te voegen, maar laat dat nu eens niet Nvidia's bedoeling zijn ;)
Probleem is dat AMD nog steeds niks heeft om met de 1070 en 1080 te concurreren, de Fury was de laatste poging om high-end videokaarten te verkopen. Hoewel de meest verkochte GPU's rond de ¤250 zitten, heb ik het idee dat de winstmarges bij de high-end kaarten ook hoger zijn.

Daarnaast heeft Nvidia een monster van een marketingmachine: de meeste mensen die me vragen een game-pc in elkaar te zetten vragen wat voor GTX kaart het beste past. De meesten kennen AMD alleen van de CPU's, of geloven dat hun videokaarten alleen low-end zijn...
De RX serie zijn prima kaarten, maar de meeste youtubers etc. bouwen allemaal met 1070's waardoor Nvidia veel meer naamsbekendheid heeft.
Mensen kennen het bedrijf AMD als concurrent van Intel, en dus als processorfabrikant.
Daarbij komt ook dat de meeste mensen PC's bekijken/kopen bij mediamarkt en andere ketens: daar zijn Intel en Nvidia heer en meester. Dat verklaart deels waarom AMD minder bekendheid heeft bij niet-bouwers/tweakers/gamers.
Vergeet niet dat de productie en ontwikkelingskosten van de high end kaarten veel hoger zijn dan die van de middenklasse. Als je dit meeneemt in de marge dan verwacht ik dat er op de middenklasse kaarten veel meer marge zit dan de echte high end. Daarnaast worden de high end kaarten veel minder verkocht en moeten ze ook wel veel marge hebben om hun kosten terug te verdienen.
Dat is inderdaad de theorie, maar ik heb helaas nog nergens data gevonden over marges per segment. Vooral bij de vaste kosten als koeler, PCB, materialen etc. zou er meer marge op high-end kunnen zitten, zeker als rebranding en het gebruik van "gedowngrade" chips een rol spelen bij mainstream varianten.

[Reactie gewijzigd door Richardus27 op 10 februari 2017 12:13]

Dit zul je ook nooit vinden, want er zijn veel verschillende manieren om de ontwikkelingskosten af te schrijven. Dit kan per verkochte unit, en niet per se per type kaart. Hierbij zal er bij de duurdere modellen misschien een hoger bedrag gereserveerd worden omdat de marges daar ook hoger zijn.

Maar zulke informatie zullen de bedrijven niet vrijgeven. De winstmarge vindt ik echter best veel voor consumenten producten. Dit zit rond de 30%, wat betekend dat de marges op de producten vele malen hoger moeten liggen om dit te bewerkstelligen.
Het is precies de reden waarom ik voor een 1070 koos. Omdat AMD niets kon leveren. Anders had ik met alle liefde voor een AMD kaart gekozen.
Mij boeit de hele maketing machine niet, ik kijk wat ik op dat moment wil hebben en wie dat is maakt me niet uit.
Ik hou ook nauwlettend het AMD nieuws in de gaten en als zij met iets soortgelijks of beters komen dan is dat misschien het volgende wat in m'n PC komt (dan schuift de 1070 door naar m'n zoon b.v. :-) ).
Het probleem is vooral dat amd niks kan bieden op mobiwl gpu vlak. Terwijl gaming laptops een groeiende markt is.
Een boel ruimte dus voor Nvidia om door te gaan met R&D en langetermijn investeringen voor de GPUs. Ik ben benieuwd naar de optie om in de toekomst innovaties in de datacentrum tak terug te zien op consumentenkaarten. Wie weet kan er wat met deeplearning / AI gedaan worden in bijvoorbeeld games.
Het gaat hier om de omzet (wat er dus binnen gekomen is), niet om de winst (wat er van de omzet overgebleven is). Hoeveel dus uiteindelijk overblijft om in R&D te gaan steken valt dus nog te bezien, de aandeelhouders willen ook tevreden worden gesteld. ;)

EDIT: Ter verduidelijking nav onderstaande. De R&D zijn natuurlijk onkosten die gemaakt zijn en moeten dus van de omzet afgeteld worden. Het bedrag wat overblijft, is de winst, R&D is dus een kostenpost en het is aan het bedrijf / de aandeelhouders om budget voor R&D uit te breiden of niet.

[Reactie gewijzigd door CH4OS op 10 februari 2017 11:59]

De nettowinst kwam uit op 655 miljoen dollar.
Staat gewoon onderaan het artikel ;)
Ook dat hoeft niet per se ruimte te geven. De winst is het restant van de omzet minus de kosten, waar R&D ook onder valt... Het is aan de investeerders om te zeggen wat ermee te doen, dunkt mij. ;) Laten we niet vergeten dat nVidia een bedrijf is en geen liefdadigheidsinstelling.
Mjah, ik denk dat een hoop mensen nu het nut van een upgrade wel inzagen. Zelf zat ik met 2 x 290x kaarten en weinig dat niet wilde draaien. Maar ja nu een GTX1080 en dat is toch wel andere koek.

Ik vraag me af hoeveel mensen nog op de 'Vega' wachten, wat eigenlijk ook mijn idee was.
Ik zit nog te wachten op Vega. Momenteel doe ik het nog met een 290. Ik heb nog wel even tijd, momenteel draait het meeste nog wel, maar ik heb me een mooi 2560x1440 27" 144Hz freesync scherm gekocht en dat wil ik onderhand wel eens in al zijn pracht en praal weten presteren.
Ik had dezelfde setup en heb ook een upgrade gedaan naar een gtx1080. Voornamelijk om de betere linux support en om van de warmte verlost te zijn. Gamen in de zomer was gewoon onmenselijk zonder airco.
Off-topic Zelf ook van een 290X naar een GTX1080 gegaan omdat Vega te lang op zich laat wachten. :P
off-topic: Ik ook xD
Tja niet zo vreemd. Ik heb zelf een sterke voorkeur voor een AMD GPU, maar toen ik een half jaar geleden mijn GPU wilde vervangen kon ik gewoon niet om de 1070 heen in vergelijking met wat AMD te bieden had. Als ik op het 1060 niveau had willen gamen dan had ik misschien wel voor AMD gekozen.
Je kon toen een saphire nitro fury kopen voor 340 euro. Dat zit dicht tegen een 1070
Mwoah, als ik dit soort vergelijkingen zie dan is de GTX1070 toch wel ff nog een stukje sneller hoor! http://gpu.userbenchmark....vs-AMD-R9-Fury/3609vs3509

(Ik heb nu even deze site eruit gehaald, maar eigenlijk alle vergelijkingssites komen tot een soortgelijke resultaten)
Scheelt inderdaad wel redelijk wat ja, hier wat real world game vergelijking:

https://youtu.be/ljWJsvgs9Dw?t=47
Kon je niet weten, maar nee dat was geen optie in mijn geval. Past totaal niet in mijn mini ITX en kan me herinneren dat het vermogen ook hoger was, maar dat weet ik niet meer zeker,
Als ik naar mijn persoonlijke situatie kijk had ik de afgelopen jaren ook geen reden om mijn CPU te vernieuwen terwijl de grafische kaarten steeds beter werden. Ik hoor het ook om me heen dat mensen hun grafische kaart vernieuwen omdat de meeste snelheidswinst oplevert.
Als daar bij komt dat de CPU langer mee gaat is er in principe meer/sneller budget om de grafische kaart te vernieuwen.

Het trouwens mooi om te zien dat gamen op de pc populair blijft naast alle opties zoals de PS4 en XBONE die toch erg goedkoop zijn. Nu nog games als BF die weer mod tools uitbrengen en ik ben gelukkig :P
Mooi om te lezen dat het goed gaat met een bedrijf dat mooie en goede dingen maakt. Ik denk dat behalve gaming ook het minen met GPU's een (flink) steentje heeft bijgedragen aan de verkoopcijfers. Vooral in landen waar de stroom (realtief) goedkoop is minen best veel mensen met GPU's, o.a. Ethereum (ook ETH Classic), Zcash, Monero en andere scrypt coins zijn populair bij Scrypt/GPU miners.
Heb 4 weekjes geleden 2x960Gtx 4 Gb vervangen door 2xRX 470 4gb en ga terug naar 960.
RX 470 nitro kom ik te regelmatig ati driver stopt responding nieuwe drivers geen oplossing.
960 Gtx nooit een probleem gehad.

[Reactie gewijzigd door Exitz op 10 februari 2017 18:23]

Waarom geen single kaart nemen?. Werkt vaak veel beter, ook geen issues met gare sli / crossfire support.

[Reactie gewijzigd door Tortelli op 10 februari 2017 12:04]

Dat snap ik ook nooit zo goed. SLI is alleen leuk als een enkele 1080 te traag voor je is.
Waarom werkt die zooi niet zoals bij nvidia ? Zonder problemen ?
wie zegt dat het aan de kaarten ligt en niet aan iets anders in je Systeem?

als het echt een RX470 probleem was, was het lang en breed in het nieuws geweest
Systeem X79 I7-x3960
Systeem X99 i7-5930K
Zelfste probleem
Heel boel gelul zoeken en aanpassen nvidia plug and play.
Keuze is snel gemaakt.
Waarom maken ze die dingen Crossfire?
Ik heb het idee dat de crossfire / sli support de laatste tijd alleen maar gedaald is, je kunt 4k in principe al prima draaien met een enkele kaart. In een paar gevallen settings iets naar beneden schroeven. Misschien is een van je kaarten ook defect.

Ik heb 2 AMD 290's gehad welke beide allerlei BDOD's gaven, ingeruild voor een 780TI en had geen problemen meer, soms moet je wat geluk hebben.

Even snel gegoogled op een benchmark van een RX470 in crossfire, kaart is in enkele gevallen amper sneller als een GTX 1070, in veel gevallen helpt CF niets. Zoals ik al zei; als je ~¤400 uitgeef kun je beter doorsparen naar een GTX1070.

[Reactie gewijzigd door Tortelli op 10 februari 2017 20:17]

En je hebt alles schoon geinstalleerd? Of op z'n minst DDU gebruikt?
Goede PSU in gebruik?

[Reactie gewijzigd door _XipHiaS_ op 10 februari 2017 11:40]

Nieuwe OS laaste drivers.
Kaart Sapphire RX 470 NITRO+ 4 GB
Psu antec 1200
http://www.anandtech.com/...uepower-quattro-1200w-psu
Dan zou ik even kijken of je drivers wel goed zijn en of je psu dat wel aankan.

470 draait hier als een zonnetje terwijl ik met mijn 960 vanaf het begin problemen heb.
Psu 1200 W antec.
http://www.anandtech.com/...uepower-quattro-1200w-psu

[Reactie gewijzigd door Exitz op 10 februari 2017 18:22]

Dus geen reden om je videokaart de volgende generatie goedkoper te maken...
Vraag en aanbod.
Een bedrijf zal altijd zoeken naar het optimale resultaat.
Juist. Echter is er in deze markt niet of nauwelijks concurrentie, waardoor er ook zeker wel wordt gecasht door Nvidia.
Jarenlang heb ik AMD gehad (vanaf de Sapphire 9800pro 256mb)
De 9800 die ik had was geweldig, alles erna eigenlijk alleen maar problemen gehad met games.
En dan met name screen flickering en random driver crashes.
Dan hebben we het over de
HD4870 x2
HD6990
HD7990

Dus de volgende ronde wordt voor mij een Geforce.
Ook veel problemen in somige game menu's.
Komt door dat ati geen ondersteuning bied voor oude DX en nvidia well?

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*