Nvidia's jaaromzet uit gaming daalt met 12 procent

Nvidia's jaaromzet van de Gaming-divisie, waar de GeForce-kaarten onder vallen, is met 12 procent gedaald tot 5,5 miljard dollar. Het laatste kwartaal was wel een goed kwartaal voor de divisie, met een omzetstijging van 56 procent.

De kwartaalomzet van Nvidia's Gaming-divisie bedroeg in het vierde kwartaal van vorig jaar 1,49 miljard dollar, omgerekend 1,37 miljard euro. Dat was 56 procent hoger dan in hetzelfde kwartaal in 2018, maar wel 10 procent lager dan het kwartaal ervoor.

In een toelichting op de kwartaalcijfers, opgetekend door Seeking Alpha, meldt Nvidia-ceo Jensen Huang dat de invloed van gamelaptops en de Nintendo Switch op de omzet is toegenomen en dat daardoor de seizoensgebonden productie van deze apparaten een grotere rol spelen. Fabrikanten produceren de producten volgens de topman met name in het tweede en derde kwartaal. Voor het huidige kwartaal verwacht Nvidia dan ook een verdere omzetdaling 'van dubbele cijfers', waarbij het bedrijf ook de invloed van het coronavirus 2019-nCoV noemt.

Nvidia meldt verder dat laptopfabrikanten in het vierde kwartaal van vorig jaar 125 verschillende gamemodellen met Nvidia-gpu's op de markt aanboden, tegenover 94 in 2018. Het aantal modellen met Max-Q-videokaarten zou verdubbeld zijn.

De jaaromzet van Nvidia nam ten opzichte van een jaar eerder af met 7 procent tot 10,91 miljard dollar. Gaming is ondanks de omzetdaling nog altijd met afstand de meest lucratieve divisie van het bedrijf. De jaaromzet van de divisies voor Professional Visualization, oftewel Quadro, en Datacenter, met name de Tesla-accelerators, nam wel toe, met respectievelijk 7 en 2 procent. Net als voor Gaming was het vierde kwartaal voor Datacenter een goede periode: de kwartaalomzet nam toe met 43 procent tot 968 miljoen dollar, waardoor deze divisie hard op weg is om voor het eerst een kwartaalomzet van een miljard dollar te realiseren.

Door Olaf van Miltenburg

Nieuwscoördinator

14-02-2020 • 11:00

119 Linkedin

Reacties (119)

119
113
75
5
0
30
Wijzig sortering
Phoe deze cijfers zijn lastig te duiden omdat er op eerste oogopslag zowel positieve als negatieve uitschieters in staan.

Kijken we naar het hele jaar dan wordt het een negatief verhaal. Daar zien we 10.918 miljard omzet tegen 11.716 miljard omzet, een daling van 7%. Zorgwekkender is de enorme daling aan operationele winst (operating income); van 3804 naar 2846, maar liefst 25%(!). Het netto inkomen is nog harder gedaald, daar ging 32% af.

Maar kijken we naar de kwartaalcijfers dan zien we iets heel anders. Het eerste dat opvalt in de bron is dat Q4 FY19 $2,205 omzet behaalde en dit in Q4 FY20 is gestegen naar $3,105. Dus dat is een omzetstijging van 41% ten opzichte van hetzelfde kwartaal vorig jaar. Verder zien we ook dat de operationele winst (operating income) met 237% ten opzichte van hetzelfde kwartaal vorig jaar is toegenomen. Ten aanzien van Q3 zijn de stijgingen respectievelijk 3% en 7% dus ook dat is een positieve trend. Met andere woorden, het lijkt erop dat Nvidia het probleem van eerder in het jaar onder controle heeft.

Wat dat betreft is het wellicht handig om iets verder terug in de tijd te gaan, naar Nvidia van vóór de crypto hype. Aan de prijshistorie van de GTX 1070 te zien pricewatch: MSI GeForce GTX 1070 GAMING X 8G was de crypto hype vooral van invloed vanaf zomer 2017. In de winter van 2018 is de boel weer genormaliseerd. Dus dan zouden we naar de resultaten van 2016 moeten gaan kijken (FY17 bij nvidia).

2016:
Omzet 6.910
Operationele winst 1.934
EBITDA (winst voor belasting): 1.905
Gaming: 4.060, Pro 835, Datacenter 830, Automotive 487, OEM/IP 698

2019:
Omzet: 10.018 (+45%)
Operationele winst: 2.846 (+ 47%)
EBITDA:form10k nog niet gepubliceerd
per divisie: form10k nog niet gepubliceerd

Ik denk dat Nvidia weinig reden tot klagen heeft. Zeker als je bedenkt dat het R&D budget ondertussen van 1.36 miljard naar 2.829 miljard is gestegen (!). Ter vergelijking AMD heeft een R&D budget van circa 1.5 miljard en dat moet de GPU afdeling delen met CPU, Semi custom en overige activiteiten. Oh en Nvidia heeft 10 miljard 'cash' liggen. De crypto hype lijkt Nvidia geen windeieren te hebben gelegd. Of ze echt last hebben van de dure RTX reeks is lastig vast te stellen nu de volledige cijfers nog ontbreken. Maar nogmaals, ze staan er beter voor dan vóór crypto

[Reactie gewijzigd door sdk1985 op 14 februari 2020 17:32]

Met alle respect, maar het is gewoon selectief cherry picking wat Tweakers hier doet.
"Het laatste kwartaal was wel een goed kwartaal voor de divisie, met een omzetstijging van 56 procent."

De flinke groei in het laatste kwartaal is dan toch veel nieuwswaardiger dan een beperkte daling over het hele jaar, of mis ik iets?
Het lijkt de koers overigens geen kwaad te hebben gedaan. die is alleen afgelopen maand al $50 tot bijna $290 gestegen
GoogleF
YahooF
Is dit ook het gevolg van het niet meer lucratief zijn van nvidia-kaarten voor het minen?
Misschien ben ik verkeerd, maar Ik heb ook de indruk dat mensen minder snel gaan upgraden tegenwoordig. De 10 series GPU's zijn nog steeds zeer goeie GPU's. Vooral als je nog steeds gamed op 1080p, waar je geen supersterke GPU voor nodig hebt, zelfs voor de nieuwere titels. En het is ook niet zo dat elke game developer nog tegenwoordig de uiterste pushed van huidige graphics.

En dan is er heel het RTX verhaal, klinkt promising, er zijn wel hier en daar wat interessante toepassingen. Maar niet interessant genoeg voor de average consumer, zoals het wordt toegepast in de huidige markt van beschikbare games.En toch zorgt het voor een hogere prijskaartje, wat upgraden weer minder interessant kan maken.

[Reactie gewijzigd door QUICKSORT op 14 februari 2020 11:18]

1400 euries voor RTX 2080 TI heb voor mijn 1080Ti 900 euro betaalt en ik ga echt geen 400 500 euro boven op gaan geven voor markting praatje.Laat de verkoop maar lekker zaken nu de grote afname crypto hype over is.Kunnen we terug een normale prijs betalen.
Wat is een normale prijs? Als de vraag groot is en het aanbod laag. Dan zijn hoge prijzen toch normaal?
Ik moet zeggen dat ik geen moment spijt heb van mijn aanschaf van een kaart met RTX. Voor de games die het ondersteunen maakt het ontzettend veel verschil. Ik denk juist dat als de average consumer door heeft dat het best veel verschil maakt (en meer games het ondersteunen) het bijzonder interessant is voor hen.
Het enige dat mijn interesse zou wekken in de RTX kaarten is Raytracing. In hoeverre ervaar jij de ontwikkeling hier van in games met de RTX kaart? Ook betreft FPS en het wauw effect?
Ik heb Quake geprobeerd die Raytracing aan bied met de GTX 1070, maar dat liep voor geen meter (wat logisch is). Ben benieuwd hoe die ervaring is met de nieuwere generatie kaarten.
In Quake 2 is het verschil het grootst ten opzichte van het origineel, maar de game blijft gedateerd dus het wow effect is gigantisch ten opzichte van het origineel maar de replay value wordt er niet groter van imho. Het wordt wel opvallend minder bruin allemaal wat echt heel welkom is en door de licht effecten lijken de textures minder grof dan ze in werkelijkheid zijn. Voor mij is dat een heel grote factor in dit verhaal. ik vind het niet erg om op textureresolutie in te leveren ten gunste van RTX juist omdat RTX ervoor zorgt dat je met lagere textures een mooiere game krijgt dan voorheen. Daarmee komt het FPS verhaal dan ook in compleet ander daglicht te staan.

Ik vind zelf in shadow of the tomb raider het verschil zo ontzettend groot qua sfeer en beleving dat ik niet meer anders wil. Het wow effect is daar echt overweldigend, hoewel het ook zonder RTX natuurlijk een heel mooie game is. Die game draait echt prima op mijn 2060 super (full HD) met ray tracing.
Ik heb de kritiek op de RTX-lineup nog steeds niet helemaal begrepen. Ten eerste is Raytracing een technologie die destijds en nog steeds in de kinderschoenen staat wat betreft de mogelijkheden tot implementatie. Voor mij zijn het vaak de wat kleinere details in games die de immersie tekenen en RTX is daar een onderdeel van. Het enige kritiekpuntje wat ik begrijp is de wellicht iets te grote hype die gecreëerd werd, maar daar keek ik doorheen, die marketingtrucjes zijn niets nieuws. Ten tweede vind ik de prijs/prestatie verhouding van een aantal RTX-kaarten hartstikke prima, laat staan de RTX-super lineup die een nog betere verhouding heeft. Ik heb bijvoorbeeld 680,- neergelegd voor mijn RTX 2080 (MSI Ventus) toen hij iets langer dan heen half jaar uit was, die op 1440p vrijwel alle games op ultra draait met gemiddeld 90 fps. Toen de GTX 1080 destijds uitkwam lag de prijs in hetzelfde tijdsinterval rond de 700 euro en die tikte dezelfde frames aan op maar 1080p. De RTX 2080 doet het vaak zelfs beter dan de 1080Ti die je kon kopen voor 900-1000 euro. Bovendien zie ik iemand hier 1400 euro noemen voor een RTX 2080 Ti terwijl je die ook voor 1150-1250 kan kopen. Niet om te zeggen alsof het geen geld is, maar je kan ook hyperboliseren om een punt te maken.

[Reactie gewijzigd door Sir Esselbink op 15 februari 2020 12:56]

Ik denk dat er maar relatief weinig mensen zijn die een RTX kaart gekocht hebben specifiek voor de Raytracing.. De meesten zullen het gedaan hebben gewoon voor de betere prestaties in het algemeen, zoals met elke upgrade.. Zo heb ik ook een RTX 2080 gekocht puur omdat mijn vorige GTX980Ti te langzaam werd.. En tot nu toe nog geen games met Raytracing gespeeld..
Leuk voor de handvol games die het ondersteunen, waardeloos voor de duizenden andere games..
Ligt dan aan ons als koper of aan de developers?

Beetje waardeloze comment want wij weten allemaal dat het aanbod nog steeds relatief schaars is...

Bij spellen waar het toegepast is (zoals Battlefield 5) is het wel een enorm gave ervaring en vaak de fps beperking (nog steeds dik boven de 60) wel waard. Mits je natuurlijk geen domme keuze hebt gemaakt betreft GPU/resolutie/refreshrate.
Dat zei men ook over opengl/3dfx ondersteuning in games toentertijd. Toch zijn er zo goed als geen games meer te vinden die puur softwarematig renderen.

Ik vind dat je een beperkte blik op deze zaak hebt die puur naar het verleden en heden kijkt. Raytracing heeft de toekomst, het is niet voor niets dat de komende generatie consoles het gaat ondersteunen.
Ik heb al een paar jaar een GTX 1080. Ik vind hem eigenlijk net te licht voor de games die ik speel (op mijn 4k TV). Ik moet wat settings omlaag zetten en de render resolutie wat lager zetten en eigenlijk is dat niet wat ik wil, maar er zijn maar weinig kaarten die beter zijn nog steeds dan deze en dan is het nog maar een klein beetje... Alleen de 2080ti kan 60 FPS met hoge settings (niet allerhoogste) op 4k en de 2080ti vind ik veeeeeel te duur. Upgrade naar 1080ti of 5700XT of 2080 zijn het geld niet echt waard naar mijn idee. Hoop dat big Navi straks wel voor een leuke prijs 2080ti prestaties geeft. Anders dit jaar geen upgrade van de game pc maar alleen een nieuwe PS5 of Series X
4K60 op ultra settings kan momenteel 1 GPU draaien en dat is de 2080Ti. Ik heb ook een GTX1080 en speel op 1440p ultrawide en met name Total War Three Kingdoms. Daar ga ik echt geen 1200 euro voor uitgeven omdat het de enige GPU is waarbij je alles op max en rond de 60fps krijgt met grote legers.

Speel nu op High, zaken als AA op FXAA of uit als ik me niet vergis en zit gemiddeld rond de 50fps.Hopelijk brengt AMD een mooi alternatief uit binnenkort. Als ik de specs van een 5900 XT moet geloven wordt dat nog best interessant. Hopelijk niet meer dan 800 euro.

https://www.techpowerup.c...s/radeon-rx-5900-xt.c3481
Ik fronste mijn wenkbrauwen toen ik die pagina zag, zo van huh gemist? Tot ik naar onder scrolde.

Quote van pagina:
Based off of speculation/reddit and other sources online.
Ik speel zelf Total War: Warhammer 2 op een 1440P 144hz scherm. Onlangs een nieuwe PC gebouwd om het maximale uit dit spel te kunnen halen. De stap van een 7700K naar 3700X was goed te merken. Voor nu draai ik nog een GTX1080. Daarmee haal ik met alle settings op high en unit scale op ultra in battle zo’n 60 fps, zijn het multiple armies dan dipt die wel hard in naar 45 fps. 2080ti kon in het budget, maar gekozen om dat geld apart te zetten voor de 3080ti. Hopelijk dat ik daarmee alles op ultra kan zetten en boven de 100 fps kan komen.

[Reactie gewijzigd door JeroenNietDoen op 14 februari 2020 19:33]

Het ligt echt helemaal aan je FPS eisen op 1080p.
Ikzelf speel graag Hunt: Showdown op 144hz en het liefste zo dicht bij 144fps voor zo min mogelijk input lag.
Op 1080p met alle settings low, behalve objects op medium (spelers op langere afstand kunnen zien) en antialiasing TSAA 2x i.c.m. mijn Vega 56 op Vega 64 snelheden zit ik nog niet constant op de 144fps of hoger.
Hierbij zie ik overigens wel dat zelfs een 9700k @ 4,9 all cores een bottleneck kan zijn.
Er is gisteren een update voor de game uitgebracht die de client cpu prestaties verbeterd.

Het upgrade verhaal gaat voor mij ook op.
Een 5700xt upgrade een 6 maanden geleden viel mij erg tegen qua problemen, maar ook qua prestaties (t.o.v. de Vega 56).
Die ging dus retour.
Nu wacht ik liever op de nieuwe generatie AMD en Nvidia kaarten, maar eigenlijk ben ik nog best tevreden met mijn Vega 56.
Totdat de warme zomer weer begint ;)

Quake II RTX zou ik graag een keer spelen maar op dit moment die ene game (voor mij interessant) is het mij niet waard.
Ik vind de Nvidia kaarten gewoon te duur/overpriced.

[Reactie gewijzigd door HugoBoss1985 op 14 februari 2020 11:30]

Op 1080p met alle settings low, behalve objects op medium (spelers op langere afstand kunnen zien) en antialiasing TSAA 2x i.c.m. mijn Vega 56 op Vega 64 snelheden zit ik nog niet constant op de 144fps of hoger.
Je hebt een goeie videokaart nodig.
Want een vega 56 is geen goede videokaart?
Blijkbaar niet als je zijn verhaalt leest; Er zijn er veel betere natuurlijk.
Blijkbaar weet je er niet veel van, hij zegt nl aan t eind dat ie best tevreden is met zn kaart ;)
Inderdaad, de oudere generaties van GPU's zijn nog zeker competitief naar de eisen van de huidige generatie van games. De specificaties van de meeste games worden afgestemd op de console markt. Deze bevat namelijk een heel groot deel van de omzet van games.

Laat het net dat zijn dat de laatste jaren stabiel is geweest met geen nieuwe generatie in de afgelopen jaren en nieuwe platformen. Ik denk dan ook dat dit gaat veranderen eens de nieuwe generatie van consoles gaan gelanceerd worden, games met zwaardere vereisten hier voor zullen worden geoptimaliseerd en dit hogere eisen gaat stellen qua GPU's en de verkoop hiervan gaat stimuleren.
Ik ben niet competitief, speel gewoon adventures, rpg's. Zit nog op een i7-3770 met een GTX 1060 6GB en game op 1080p met een 74Hz OC op mijn IPS-panel en alles gaat in weze prima, alles op ultra met shadows doorgaans op medium of high en krijg gewoon 50 tot 60 FPS, wat gewoon prima is met mijn type games. Waarvoor zou ik dan in vredesnaam upgraden? Ga ik te hoog, ga ik bottlenecken. Tenzij ik weer een nieuw mobo, nieuwe cpu en een panel die de kracht ook gebruikt gaan kopen. Dan is dit prima.
Dit denk ik ook. Totdat er een concrete aanleiding is om te upgraden, of het prijsniveau van upgrade-kandidaten genoeg zakt houdt de gemiddelde consument blijkbaar liever even de hand op de knip.
Zelf verwacht ik iets soortgelijks met mijn nVidia Shield (2017). Ding werkt als een tierelier met 4K/60hz i.c.m. alles wat mijn TV ondersteund. Nog lang geen reden om te upgraden (dat ik weet :P ).

Opmerking, absoluut zonder flame intended of vervelend bedoeld. Wel omdat het me opvalt. :)
Voor een (in) Belg(ië studerende Tweaker) ben je wel van de Engelse woorden. ;) Waarom is dat? :>
"... het uiterste pushed ..." --> 'het uiterste vraagt', of 'het uiterste haalt uit de huidige graphics'
"... klinkt promising ..." --> 'klinkt veelbelovend'
"... de average consumer ..." --> 'de gemiddelde consument'
Krijg het vaker te horen over mijn Engels, ben alleszins blij dat je er beleeft over bent, wat niet altijd het geval is.
Ik gebruik actief 3 talen, en talen is één van mijn zwakste kanten, en het voelt bijna alsof mijn kennis van andere talen de andere talen onderdrukt? Weet niet of dat effectief correct is, maar weet ook niet hoe ik het anders moet verwoorden. Of misschien is het een consequentie dat ik vaker Engelse uitdrukkingen gebruik omdat ik voel dat ik me daarmee beter kan uitdrukken? Ben dus zelf niet zeker, maar het gebeurt gedeeltelijk subconscious.

Ook al ken ik de correcte woorden in het Nederlands, vaak kom ik er niet "snel genoeg" op hierdoor, en zoek ik toevlucht bij het Engels, wetende dat iedereen mij hier zal verstaan en het toch maar om een simpele internet commentaar gaat.

En mijn excuses voor deze off topic commentaar.

Edit: Ik zie inmiddels dat ik mijn profiel een lange tijd niet meer heb aangepast. Ben dus geen student meer, maar dus ondertussen al 5 jaar lang een Software Engineer.

[Reactie gewijzigd door QUICKSORT op 14 februari 2020 13:31]

Mn 1070 kan prima 2khd aan, 1440p, qhd, je weet wat ik bedoel.

Gta5, alles aan behalve supersampling @60fps...
Klopt wel hoor. Ik draai nog alles met een VEGA56 en zie totaal geen reden om te upgraden voor 1080p gaming.
Als ik vanuit mijn situatie bekijk vind ik dat Nvidea te snel nieuwe kaarten maakt. Ik heb momenteel zelf de 1070 GTX die ik voor mijn doeleinden meer dan genoeg vind. Zou het stiekem zelfs met een 1060 kunnen redden, maar heb de 1070 omdat die iets meer future proof is. Ook koop ik videokaarten bijna altijd 2e hands, omdat de nieuwprijzen nogal eens omhoog willen vliegen en de 2e hands markt is wat stabieler (en vele malen goedkoper dan bijv de 2070).
Nvidea brengt vaak eerst de normale versie uit en ineens korte tijd erna de TI versies die iets beter zijn, met nadruk op iets %-gewijs. En tegen de tijd dat je gespaard heb om deze te kopen komt de nieuwe serie al weer uit, dus loop je alweer achter de feiten aan.

Als ik kijk naar benchmarks voor de GTX 1070 VS RTX 2070, vind ik de dure aanschafprijs in verhouding tot een 2e hands GTX 1070, de aanschafprijs alles behalve waard. Tenzij je echt graag raytracing wil hebben, dat nog in zijn jonge ontwikkelingsfase zit, dus pas vanaf de 3000 serie beter zal zijn.
Prijsverschil zit hem in de +/- 250 euro voor 1070 en +/- 600 euro voor een 2070, dus tel uit je winst.

https://gpu.userbenchmark...vidia-GTX-1070/4029vs3609

Ik denk dat meerdere mensen zo zullen denken zoals ik doe. Laatst zelfs een Tweaker over de vloer gehad die mijn GTX 1050 Ti over nam en er enorm blij mee was voor de toekomst (VR gaming).
Dat is een rare vergelijking. De 2070 super is al enige tijd uit en voor dezelfde prijs te halen als de 2070. De 2070S is toch zeker een stuk sneller dan de 1070. Daarnaast is het natuurlijk afhankelijk van hoe je wilt spelen. Op 1440p doet de 1070 toch echt tekort en is de 2070S op dit moment de sweetspot.

Ik ben juist overgestapt van een 1070 naar een 2070S en ben meer dan tevreden. Je hebt niet alleen een veel betere framerate maar ook minder framedrops en snellere frametimes (minder inputlag). En helemaal als je op een gsync of freesync scherm speelt wil je gewoon zoveel mogelijk FPS hebben.

De 2070S is vanaf 550 euro verkrijgbaar.

En hoewel ik de 2070S pas een paar maandjes in huis heb ga ik waarschijnlijk de 3080 halen zodra deze eind dit jaar (hopelijk) uit komt. De 2070S kan ik dan nog voor een prima prijs verkopen en met de 3080 kan ik eindelijk (hoop ik) toe naar de ultieme sweetspot van 1440p, 144 FPS op een 144 hz gsync scherm. Uiteraard afhankelijk van de prijs.
Kijk en daar in ben jij iemand die makkelijker het geld kan missen. Van een 1070 naar 2070S en nu al geld klaar liggen voor een 3080 serie die er aan komt.
Mijn situatie is net wat anders en vandaar de vergelijking betreft & winst op snelheid als je minder geld hebt liggen en de GPU 2e hands aanschaft a 240 euro, in verhouding tot jouw genoemde 550 euro.
Niet iedereen heeft een geldboom in de tuin staan, heb overigens wel druiven, maar die worden als snel opgegeten door de vogels in de zomer :+
Wijn van maken, duur verkopen :9
140fps~ op een 144hz G-sync scherm werkt net ff beter.

Mooi he? Anders Maak je geen gebruik van Gsync dus. ff nitpicken :P
Als ik vanuit mijn situatie bekijk
Dit is letterlijk zijn eerste zin. Dus hij heeft het over zijn situatie maat.
Doe je wat settings lager maat, niet alle ultra settings hebben ook daadwerkelijk zin..
Dit is ook wat ik meteen dacht
Tja, nVidia heeft hun kaarten te duur gemaakt.
Meeste games draaien full-HD op een goede mid-high range van paar jaar geleden.
Of kopen een console.
Mijn (VR) games doen het nog prima op mijn GTX970 :Y)
De GTX970 was dan ook wel een enorm machtige kaart destijds (en nog steeds). Tof om te zien hoe relatief oudere videokaarten nog steeds games kunnen draaien. Als je kijkt op bijvoorbeeld Steam bij de systeemeisen van nieuwere games, mag je zelf op 10 jaar oude hardware volop meegenieten (met medium settings).
Ik dacht dat de GTX970 juist helemaal niet zo goed deed vanwege die 3,5gb vram blunder.
Naar ik begrijp kan voor hogere resoluties die VRAM-grootte een probleem zijn. Met een 1080p scherm zou je geen probleem daarvan moeten merken.

Zelf draai ik nog op een GTX970 en heb een 1200p scherm en ervaar de kaart nog als adequaat. Ter relativering, ben niet zo'n kritische gamer die meestal RPG's speelt en gebruik ook geen V-sync, maar die 970 doet nog geen pijn.

Zou ik weer naar een Total War game grijpen dan zou ik 1440p toch wel heel mooi vinden. Dan wordt het tijd voor een systeemupgrade. Het kriebelt al wel een tijdje, maar voor een upgrade moet je ook even tijd maken, dat is eigenlijk mijn voornaamste drempel.
Hier ook nog steeds een GTX970 gebruiker! :)
Dit denk ik ook. Gewoon een schappelijke prijs en ze gaan als hot cakes.
Tja, nVidia heeft hun kaarten te duur gemaakt.
Meeste games draaien full-HD op een goede mid-high range van paar jaar geleden.
Of kopen een console.
Dat.is het denk ik ook. Recent een 1080ti gekocht en dat scheelt gewoon de helft met een nieuwe 2080/Ti.
Niet helemaal, games zijn veelal op console gebasseerd, wanneer de PS5 uitkomt zal er wel weer een boost komen in vraag naar rekenkracht voor PC games.
En dan is er nog hun irritante software. hoezo moet ik een nvidia account maken om drivers te kunnne updaten??
Dat hoeft niet daar kan je voor het installeren voor kiezen.
als je automatische updates wil moet je geforce experience gebruiken. en dat kan je niet gebruiken zonder in te loggen in een nvidia account.

En niemand gaat elke week de nvidia website afschuimen achter driver updates...
Tjah, is gewoon je eigen probleem dan. Ik zoek gewoon voor mijn geval mijn videokaart op 1080 Ti driver pak het van de Nvidia site en dan kan ik gewoon kiezen of geforce experience erbij wil hebben of niet. Maar als jij dat teveel moeite vind moet je ook niet gaan klagen. En komt er ook nog eens bij niet elke driver update hoeft perse goed te zijn. Als je huidige driver gewoon prima werkt waarom dan updaten? Of houd je ook elke moederbord bios update in de gaten of firmware update van je schijf?

[Reactie gewijzigd door PatrickSeastar op 14 februari 2020 13:21]

Tja doet AMD toch stukken beter. En doordat AMD het een stukken beter doet op hardware als hun software. Merk je dus de dalingen. Ik vindt het ook belachelijk dat je een account nodig hebt voor basic dingen.
En je hebt dus geen account nodig voor basic dingen? En AMD doet het momenteel helemaal niet beter dan Nvidia integendeel zelfs mede door hun drivers heb ik mijn 5700 XT nitro weg gedaan en was ik genoodzaakt om over te stappen naar Nvidia, en zo zijn er genoeg mensen die op die moment helemaal gek worden van de AMD driver issues. Deed AMD het maar beter op alle vlakken dan Nvidia dan hadden de prijzen nog wel wat gekelderd maar Nvidia kan lekker doorgaan met belachelijke hoge prijzen doordat AMD ligt te slapen op driver gebied.

[Reactie gewijzigd door PatrickSeastar op 14 februari 2020 15:03]

Ik heb maanden een XFX RX 5700XT raw II, geen enkel issue. Mijn zoon heeft een Sapphire RX 5700 Pulse, geen enkel issue. In de huiskamer heb ik een PC met een Gigabyte GTX 1060 3GB, bij een van de drie keer opstarten (gemiddeld), ben ik geforceerd om te rebooten, omdat de PC opstart met een groen en paars knipperend scherm. Wat zegt dat nou helemaal? Niks. Behalve dat ik een issue met drivers, of de kaart zelf of compatibiliteit heb.
Als je het internet gaat afstruinen naar medeslachtoffers, vind je die altijd wel. Mensen die een oplossing voor hun issue hebben gevonden plaatsen echter zelden die oplossing. Zoek maar eens op "Call Of Duty - Modern Warfare errors en crashes". Komt van alles langs. Waaronder een populaire: drivers van je GPU. Mijn broer had ook een issue daarmee en guess what: het waren geen driverissues, geen AMD of nVidia, geen tekort aan RAM geheugen , maar simpelweg een instelling die meerdere mensen toepassen: Virtueel geheugen zelf beheren en daarbij te laag instellen, omdat ze bijvoorbeeld niet willen swappen op hun bootdisk (SSD) o.i.d. en men denkt dat hun overdaad aan fysieke RAM de noodzaak voor SWAP geheugen drastisch verkleint. Op mijn prima werkende PC met een Gigabyte Z390 AORUS ULTRA moederbord heb ik sinds kort één issue: wanneer ik hun drivers installeer voor die knipperende ledjes. Shit... but happens.

[Reactie gewijzigd door Anoniem: 25604 op 14 februari 2020 16:08]

Leuk verhaal, moet waarschijnlijk ook de reden zijn dat specifiek GamerNexus HardwareUnboxed filmpjes maken hoe slecht de drivers van AMD zijn en dat er erg veel problemen mee zijn? Als je inderdaad kritisch over een product bent zal er inderdaad altijd wel weer een fanboy zijn die zijn product met hart en nieren zal verdedigen daar je hoef je tegenwoordig je best niet voor te doen. Veel succes met je probleemloze producten. Ik weet van mezelf dat ik vastlopers blackscreens niet heb gefantaseerd en talloze anderen ook niet. Om nog maar te zwijgen over de brakke bios updates die jezelf moet uitvoeren als je een nieuwe kaart koopt lekker allemaal.

[Reactie gewijzigd door PatrickSeastar op 14 februari 2020 16:09]

Aah... het "fanboy" tegenargument. Heheheh. Je zinsopbouw is overigens best beroerd, dus het kan zijn dat ik jou verkeerd begrijp.
Boos? Hoe kan je dat zo zien of merken? Ik ben eigenlijk best blij vandaag, leuke dag gehad, zometeen lekker uit eten, 's avonds PC'tje aanzwengelen en een game-pje wegtikken. Van boosheid niks te bespeuren, ik ben zelfs een beetje in een melige bui, anders zou ik niet eens meer reageren. Ik snap jóuw boosheid wel... als ik jou mag citeren: "...mede door hun drivers heb ik mijn 5700 XT nitro weg gedaan en was ik genoodzaakt om over te stappen naar Nvidia". Vreselijk als je gedwongen wordt... vreselijk. :'(
Ik ben niet boos ik heb een ruil gedaan wat voor mij en de andere geen centen heeft gekost en de 1080 Ti draait verder probleemloos in mijn itx kast. Ik ben gewoon kritisch op een product wat driver technisch in mijn ogen nog steeds veel te wensen overlaat.
Nou... jij blij, ik blij. Mooi toch? Vaarwel :*)
Enigste die boos lijkt ben jij, valt anderen aan omdat ze stellen dat ze geen problemen hebben met amd..doet het pijn?
Ik had 1 issue met de 5700XT en dat was binnen 1 driver opgelost. Dus tja het is maar hoe je het bekijkt. Ik heb de Powercolor Red dragon 2Slot.

En nu heerlijk voor 380,- alles op ultra spelen. Hoeveel heb jij voor je Nvidea betaald hoeveel zeg me. Nee laat maar niet nodig sowieso het dubbele bijna of je hebt een kaart in een mindere klasse O-) De 5700XT series is op een nieuwere infra gebouwd dus ja logisch ook. Bij Nvidea is het mensen kopen het toch dus pushen we de prijzen omhoog ongeacht de kwaliteit.
Ik heb niks voor mijn Nvidia betaald en toen 1080 Ti nog te koop was had ik het ook niet gekocht voor die prijs omdat ik het ook een absurd hoge prijs vond. Maar dat neemt niet weg dat als een goedkoper product met vergelijkbare prestaties constant problemen geeft dan hoef ik daar dus niet tevreden mee te zijn en mag ik daar best kritisch op zijn. Als de driver probleem niet had bestaan dan had AMD Nvidia omver geworpen en dat mag van mij want de prijzen van nu slaan werkelijk nergens op je kan er een tweedehands auto van halen.

Hopelijk houd mijn kaart het lang vol want de aankomende releases van beide kampen zullen allerminst goedkoop zijn als de geruchten kloppen.

[Reactie gewijzigd door PatrickSeastar op 15 februari 2020 06:12]

omdat de drivers geupdate worden met performance improvements voor AAA games...

Het heeft jaren perfect gewerkt zonder account, en nu willen ze plots een account verplichten. leuk voor jouw dat jij dat allemaal niet nodig, of zelfs normaal, vindt; maar ik vindt het een slechte evolutie.
De gpu driver updaten zou ik ook enkel doen als de game het vereist of niet goed werkt. Een nieuwe driver komt vaak met minder compatibiliteit voor oudere games en kan instabiel zijn. Vervolgens mag je ook nog eens custom game settings en custom resoluties opnieuw instellen.
Dat is ook lang geleden, ik update mijn driver gewoon eens in de zoveel tijd. Maar ik merk niks van incompatibility en of instability. Wat dat betreft gaat het wel goed met NVIDIA. Hooguit dat eens in de zoveel jaren er een erge derp is waardoor iets goed niet werkt. Maar dat is zelden.
Er zijn wel wat oude games die op basis van één of ander ID hun settings behouden. Als je een GPU driver update doet veranderd dat ID en dan worden je settings gereset ja.
Maar dat is gewoon de developer die er voor heeft gekozen om settings te invalidaten zodra dat ID veranderd. Zoals bijvoorbeeld De Sims 3. Inderdaad niet echt handig.
'automatische updates' je bedoeld dat je een notificatie krijgt en dat je vooralsnog zelf op downloaden moet klikken. Auto install (update) van GPU drivers zou ik niet eens willen.
En dat het een account nodig heeft boeit me ook 0,0. 1 keer instellen en niet weer naar omkijken. Goh kost een paar minuten. Maar ja als je per sé geen account wil maken kun je toch zelf gewoon elke maand kijken of er updates zijn en de driver handmatig downloaden?
ach, je kun ook amd kiezen, en dan tijdens installatie van een nieuwe driver er achter komen dat je niet kun updaten omdat jij bedacht had dat je je windows librarys extern op je nas wilde opslaan.

geef mij dan maar een Nvidia met een account.
Dat lijkt me eerder je eigen probleem, waarom zou je dat uberhaupt willen..
eh, waarom zou ik mijn windows library niet op mijn nas mogen hosten ipv lokaal op de pc? waarom zou dat ooit een probleem moeten zijn voor het installeren van de videokaart driver?

ik heb 2 ssd's erin van 500 gb, en vind het zonde om mijn library's daar ook op te huisvesten, dus deze worden lekker naar mijn nas geleid. of jij dat zinvol vind is een hele andere discussie die we niet eens hoeven te voeren lijkt me.
In een toelichting op de kwartaalcijfers, opgetekend door Seeking Alpha, meldt Nvidia-ceo Jensen Huang dat de invloed van gamelaptops en de Nintendo Switch op de omzet is toegenomen en dat daardoor de seizoenen van productie van deze apparaten een grotere rol spelen.
Ik snap niet waarom de switch hier genoemd wordt.
Het type gamer dat honderden tegen zo'n videokaart aan gooit, is toch niet het type gamer dat dat niet meer doet specifiek vanwege de switch?
Ik zou dan eerder kijken naar XBO en PS4. Misschien zijn mensen aan het afwachten wat next gen consoles gaan doen?

Die verwijzing naar game laptops snap ik niet ook niet helemaal. Game laptops zijn nog altijd significant duurder met mindere performance en nul upgradability van core componenten buiten misschien een ssd en wat ram. Bovendien zijn die dingen al decennialang een feit. Of zijn ze specifiek afgelopen jaar echt zo populair geworden?

Zijn ze niet gewoon minder popular vanwege hun directe concurrent misschien? En hoe zit het met terugloop van de vraag naar kaarten in cryptomining?
En misschien gaan kaarten ook wat langer mee? In mijn pc zit een 980ti uit 2015 en die trekt alles nog gewoon als een koning(*) en voel me niet gemotiveerd dat ding te upgraden.

Volgens mij zag je zo'n zelfde stagnatie in de aanloop naar de huidige generatie consoles als ik me het juist herinner omdat ze een beetje uitgeinnoveerd waren op PS3 en XB360 generatie hardware deden de games op de pc eigenlijk ook niet zo veel spannende dingen waar je heftige videokaarten voor nodig hebt.

(*ik speel gewoon op full-hd op een goedkope monitor dus 60+ fps is perfect)

[Reactie gewijzigd door Koffiebarbaar op 14 februari 2020 11:27]

Het gaat toch om de omzet van de gaming divisie? Ik vind het niet vreemd dat laptop gpu's en de Tegra in de switch hieronder vallen, de laatste maakt gebruik van de Maxwell architectuur die je ook in de GeForce 900 serie zag.
Ik lees in die alinea die ik gequote heb de implicatie dat toegenomen verkoop van switch en laptopchips ten koste gaat van videokaarten.
Misschien was dat wat voorbarig.

[Reactie gewijzigd door Koffiebarbaar op 14 februari 2020 11:45]

Dat is een interpretatie die je maakt. Als je in de verdere alinea's leest dan zie je dat de seizoensinvloeden van de Tegra meer doorwerken in de omzetcijfers. Die Tegra zou vooral in de middelste twee kwartalen van het jaar worden geproduceerd. In het laatste kwartaal ebt die invloed dus al weer weg

Een relatie tussen de lagere omzet en de Tegra legt het artikel echter niet. Met jou denk ik trouwens ook dat die Tegra, en ook die laptops zich in een andere markt bevinden dan de losse grafische kaarten. Die zouden elkaar dan niet sterk moeten beïnvloeden. De Tegra zou dus een netto groei moeten opleveren ten opzichte van de bestaande losse grafische kaart verkopen. Dat nVidia dus ondanks die grotere wordende invloed van de Tegra geen omzetstijging (over het hele jaar 2019 gezien) laat zien vind ik dan ook het raadsel in dit bericht. Corona is te laat om effect te hebben gehad op de 2019 omzet. Dan toch nog de steeds verder doordalende verkopen voor cryptofarms? Is dat effect dan nog niet weg?
Denk dat t gaat om de Switch die Nvidia chip gebruikt? Tegra?
Ik maak op dit moment nog gebruik van mijn GTX 980. De meeste games die ik speel zijn toch wat ouder en aangezien ik op een 60hz monitor speel is dat vaak nog goed genoeg. Nu speel ik bijvoorbeeld Bloodstained Ritual of the night. Daarvoor is hij goed genoeg.

Neemt niet weg dat ik voor sommige games meer power wil. Zoals voor Farcry 5 maar ook voor City skylines alhowel die meer op de cpu leunt. Dit jaar ga ik Nvidia mogelijk weer helpen als de 3080 uit komt!
Zit zelf op een i5-3570K en RX 570 4GB te gamen met een oud h61 moederbord van Intel met 8GB DDR3. Draait elke game op 1080p prima af. Bizar dat Quad Core processors eigenlijk nu pas de standaard zijn. Als je nu een hyperthreaded dual core gebruik begint menig game toch wel te haperen.
Dat is vergelijkbaar met mijn set up. Ik heb een 3770k. Waar ik mij bij de wat nieuwere games aan kan ergeren is de 1%\ 0,1% lowest fps! Dit merkte ik bijvoorbeeld heel erg bij Farcry5. Veel games trekt de rig goed hoor voor 1080p 60 fps averagd met medium- high settings.

Ik kan niet wachten op de 3k serie. Als ik dan weer eens een gpu haal maak ik qua performance echt een sprong.
Als je goede koeling hebt gewoon die cpu wat oc'n dan worden die waardes wel beter.
Dan noem je ook een toffe en destijds future proof CPU. Ik gebruik een 4000 serie i5 processor en tot op de dag van vandaag draait deze nog alle games op ultra settings (1080p in combinatie met GTX 1070).
Ik ben sowieso enorm te spreken over de i series CPU's, ook de i3 series voor kantoor/thuis PCtje zijn enorm stabiel en verouderen langzaam.
Mbt videokaarten is er nog geen betaalbare 4k /144hz videokaart op de markt, ik denk degene die dit als eerste voor elkaar krijgt daar veel aan kan gaan verdienen.
Ik heb namelijk het idee dat er veel mensen erop zitten te wachten en ondertussen voor een betaalbare AMD videokaart gaan.
Maar je moet dan ook nog een 4k monitor wat nog niet gemeengoed is volgens mij. Dat gezamenlijk is best wel een kostenpost natuurlijk.
4k/60 is al een hele kluif. Een 2080ti kan niet elke game op max settings draaien. Laat staan op 144hz of met RTX onzin.
4k monitoren 144 hz zijn er al, helaas nog geen videokaarten die ze kan aansturen.
Kortom laat die videokaart maar komen, de monitoren zijn niet eens zo duur meer...
Klopt, ik zit nu nog op 1440p/120hz en wacht idd op een meer capabele en meer betaalbare 4k/120hz kaart ;)
Laat maar komen.
Tsja er was een vraag naar extra kaarten door mining. Dat is serieus afgezwakt. Dan is er nog het feit: moet je echt alles op ultra spelen ? Ikzelf heb nog een 960 met 2gb (i7 6700, 32gb ram, samgsung 950 pro). Anderhalf jaar geleden opfzo geupgrade naar 1440p schermen. Echter speel ik bijvoorbeeld alleen World Of Warcraft, Diablo III & HearthStone. En heb vorig jaar ook Apex legends effe gespeeld. Leuk alles draait, ok niet met "ultra settings". Nu het plan was om te upgraden anderhalf jaar geleden ... Is er nooit van gekomen ... dan is er nu het plan om te upgraden. Ik ga dus gewoon een 1660 super nemen.
Een AMD kaart 5600xt/5700 (xt) valt uit de boot, wegens hoog stroomverbruik van 2 monitoren (en nee ik ben niet zo groen, maar ik betaal wel de rekening). Ik heb nog gedacht om een 2060 super te nemen, maar deze pc wil ik nog anderhalf tot 2 jaar mee verder. (voor een VM, wat development in python/node/C# is dit ruim voldoende). Voor hetzelfde geld koop ik volgend jaar een nieuwe pc. Dan is er ongetwijfeld wel wat nieuws. Voor mijn gebruik heeft het niet veel nut om telkens een nieuwe kaart te kopen en ook niet top of the line. Wil je altijd de laatste nieuwe games spelen is dat een ander verhaal. Maar als je bijvoorbeeld een 1070/1080/1080 ti hebt gekocht is er weinig reden tot misschien de volgende generatie om te upgraden. Tsja dat zie je ook in sales
Qua stroomverbruik zit je met de 5600XT juist wel goed tov de 1660 super, tenzij onder idle een kaart met 2 monitoren ineens een dijk meer stroom verbruikt bij AMD.

https://nl.hardware.info/...resultaten-stroomverbruik
https://www.techpowerup.c...5600-xt-red-devil/31.html

Deze hebben altijd multi monitor power use ook. En laat nu net bijna altijd 2 schermen openstaan hebben, buiten bij gamen en dan nog. Ik kom qua verschil toch uit op zo een +-30kwh per jaar basis uit qua extra stroomverbruik. Dat gaat het hem nu ook niet doen. Maar het is toch iets.

Maar ik heb al veel horror verhalen gelezen over drivers en stabiliteit van laatste AMD kaarten zou het beter moeten doen in Linux (95% van de tijd). Maar ik heb nog nooit gezeik gehad met een nvidia kaart onder linux (tenzij je de allerlaatste nieuwste kaart van dag 1 wilt gebruiken). Dat is wat mij nog een beetje tegenhoudt ook. Note: ik moet een PC hebben die werkt, niet eentje die blue screens gaat geven en dan gaat liggen crashen voor onbepaalde reden. Dus door het extra stroomverbruik + mogelijke stabiliteits issues toch maar voor een veiligere keuze gaan
Ultra settings propageren of er bij zweren is zowiezo onzin, tussen veel high of ultra settings kan je het verschil niet eens zien op je scherm, kan wel je fps enorm beinvloeden, zat yt video's waar ze het laten zien..

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee