Gartner: Nvidia voor het eerst chipbedrijf met grootste omzet ter wereld

Nvidia realiseerde in 2024 de grootste omzet van alle halfgeleiderbedrijven, aldus analistenbureau Gartner. Het is de eerste keer dat de chipontwerper die positie inneemt. Doorgaans staan concurrenten zoals Samsung Electronics en Intel aan de top.

Gartner schrijft dat de wereldwijde halfgeleidermarkt goed was voor 655,9 miljard dollar in 2024. Dat is een stijging van 21 procent ten opzichte van de 542,1 miljard dollar van 2023. Nvidia vertegenwoordigde met 76,69 miljard dollar 11,7 procent van de totale markt in 2024, ofwel 2,2 keer meer dan het jaar daarvoor. Die groei zou vooral te danken zijn aan de populariteit van AI-accelerators.

Samsung Electronics staat net zoals in 2023 op de tweede plaats, met een jaaromzet van 65,7 miljard dollar en 10 procent marktaandeel. De Zuid-Koreaanse fabrikant kon volgens Gartner deze positie behouden dankzij de sterke verkoop van dram- en flashgeheugen. De prijzen van deze producten zijn sterk gestegen als reactie op een onbalans in vraag en aanbod.

Intel, dat in 2023 nog op de eerste plek stond, is teruggedreven tot de derde plaats. De jaaromzet van 49,8 miljard dollar in 2024 was een stijging van 0,8 procent ten opzichte van het jaar daarvoor. De marktonderzoeker schrijft dat de concurrenten van ‘alle belangrijke productlijnen’ van het Amerikaanse bedrijf aan kracht hebben gewonnen. Daarnaast kon Intel niet profiteren van de aanzienlijk verhoogde vraag naar AI-rekenkracht.

SK hynix en Qualcomm sluiten de top vijf af. Deze bedrijven behaalden een jaaromzet van respectievelijk 44,19 en 32,98 miljard dollar, ofwel 6,7 en 5 procent van de markt. Ook SK hynix maakte met 91,5 procent een aanzienlijke groei door ten opzichte van het voorgaande jaar, al geeft Gartner daarvoor geen verklaring.

Positie 2024 Positie 2023 Fabrikant Omzet 2024 (in miljarden) Marktaandeel 2024 (in %) Omzet 2023 (in miljarden) Groei 2024-2023 (in %)
1 3 NVIDIA 76,692 11,7 34,846 120.1
2 2 Samsung Electronics 65,697 10,0 40,868 60.8
3 1 Intel 49,804 7,6 49,427 0.8
4 6 SK hynix 44,186 6,7 23,077 91.5
5 4 Qualcomm 32,976 5,0 29,229 12.8
6 5 Broadcom 27,801 4,2 25,613 8.5
7 12 Micron Technology 27,619 4,2 16,153 71.0
8 7 AMD 24,127 3,7 22,307 8.2
9 8 Apple 20,510 3,1 18,052 13.6
10 13 MediaTek 15,934 2,4 13,451 18.5
Overige 270,536 41,2 269,031 0.6
Totaal marktaandeel 655,882 100,0 542,054 21.0

Door Idriz Velghe

Redacteur

11-04-2025 • 15:34

47

Submitter: wildhagen

Reacties (47)

47
47
18
0
0
4
Wijzig sortering
En dit mensen is dus waarom Nvidia het maar bar weinig intereseert als er een paar gamers zeuren over te dure videokaarten die te weinig hogere prestaties bieden, over zogenaamde nep AI frames, of over dat ze nog videokaarten leveren met 8GB videogeheugen etc..

120% omzetgroei in 1 jaar.. Van 2023 naar 2024 was de groei zelfs meer dan 200%.. Bizarre cijfers..

Het feit dat de concurrentie niks kan en/of meer wil leveren dat hun als 5080 vermomde 5070 verslaat helpt ook niet.. Laat staan iets dat ook maar in de buurt komt van het vlaggeschip de 5090.. Nvidia verdient daarom ook aan de Geforce GPU's nu meer geld dan ooit.. Ze hebben aardig lopen schuiven met de modelranges (wat je kan opmaken uit de specs en zeer lage prestatie vooruitgang t.o.v. vorige generatie).. Dit is het rijtje wat ze ons nu infeite verkopen (zoals ze verkocht worden maar wat het in werkelijkheid zijn op basis van specs en prestaties):

5080 16GB -> 5070 16GB (€1129)
5070Ti 16GB -> 5060Ti 16GB (€889)
5070 12GB -> 5060 12GB (€629)
5060Ti 8/16GB -> 5050Ti 8/16GB (€415-470)
5060 8GB -> 5050 8GB (€?)

Alles is infeite 2 modellen naar beneden geschoven.. Je betaalt nu dus €1129 (veel meer nog voor custom versies in de winkels) voor wat historisch gezien eigenlijk een RTX 5070 zou moeten heten.. Die 4-5 jaar geleden nog €519 kostte (3070).. Meer dan een verdubbeling in prijs in slechts 2 generaties en dus kassa voor Nvidia..

[Reactie gewijzigd door Inflatable op 11 april 2025 21:01]

Je koopt toch gewoon de kaart die je prijs/performance aanstaat?
Wat maken die namen nu toch uit? Waarom zijn mensen daar geobsedeerd door?
Klopt, het is alleen mensen bewust maken van wat de situatie is en dat je daar best wel wat van mag vinden.. Marketingtechnisch hebben die namen ook echt nog wel waarde ookal komen de specs en prestaties niet meer overeen met wat je historisch gezien zou mogen verwachten bij al die modelnamen..
Er is niks “historisch gezien” dat is gewoon verzonnen onzin.

Net zoals bij cpu en elke andere tech word hoe langer tech er is hoe moeilijker echt vooruitgang te boeken.
Dat is helemaal geen verzonnen onzin, daar zijn heel duidelijke grafieken en uitleg over..

O.a. deze: YouTube: The Great NVIDIA Switcheroo | GPU Shrinkflation

Het feit dat er een 5090 bestaat geeft ook aan dat Nvidia het nog wel kan als ze willen.. Fatsoenlijke prestatieverbeteringen bieden over de vorige generatie.. Het gaat om de betaalbare en normaal verkrijgbare modellen daaronder, waarmee het gat qua prestaties en prijs nu groter is dan ooit en wat je krijgt qua betere prestaties voor hetzelfde geld bij een nieuwe generatie kleiner dan ooit.. Dat zijn allemaal gewoon aantoonbare feiten..

[Reactie gewijzigd door Inflatable op 11 april 2025 21:18]

Ach content creators maken dat graag omdat ze weten dat veel zich graag opwinden.
Het feit dat er een 5090 bestaat geeft ook aan dat Nvidia het nog wel kan als ze willen..
tja groot en veel verbuik en dus duur
Het gaat om de betaalbare en normaal verkrijgbare modellen daaronder, waarmee het gat qua prestaties en prijs nu groter is dan ooit en wat je krijgt qua betere prestaties voor hetzelfde geld bij een nieuwe generatie kleiner dan ooit.. Dat zijn allemaal gewoon aantoonbare feiten..
Het gaat over de beweringen dat dit express , "oplichting" "diefstal" and "geldklopperij" zou zijn.

Een 4060 tegen 300 euro is perfect betaalbaar.
Ok, Nvidia doet het niet express..
Inderdaad, het is ergens een wonder dat ze nog kaarten als een 5090 maken voor een zo lage prijs in vergelijking tot de pro producten. Het is knap hoe lang ze het tot nu toe kunnen volhouden om een merge rond de 1000% te vragen voor hun pro kaarten. Ik zie dit ook niet snel veranderen.
Daarom wordt de 5090 ook maar in zeer lage aantallen geproduceerd vermoed ik.. Enige verklaring waarom dat extreem dure topmodel nog steeds veruit het slechtst verkrijgbaar is van alle 50-serie videokaarten..
iereen wilt een spelletje spelen.
Ik denk dat het ook redelijk z'n max heeft bereikt qua 3D, buiten exotische features als raytracing en AI weegt de minituarisatie imo niet meer op tegen het vereiste vermogen voor verbetering.

Ik ben niet bepaald een gamer maar ik heb al een tijd de indruk dat AMD/Nvidia het eindstation in zicht hebben en op basis daarvan iteraties plannen om de jaarlijkse sales hoog te houden.

Een beetje zoals Intel in de Core tijden, het is goed genoeg voor de komende 10 jaar (en/of we weten niet beter) en voor 3D is alleen op geheugengrootte en -bandbreedte nog wat extra procenten eruit te persen..
Groot worden door/dankzij gamers en nu geven ze er niets meer om.
Ik geef ook niets meer om Nvidia, voor gamen komt er hier nooit geen nieuwe Nvidia videokaart meer.
Vanaf de top kun je ook heel hard naar beneden vallen... ik ben benieuwd of men (de gamers) gaat onthouden hoe dit bedrijf met ze omgaat zodra/als er ooit een rem (of veel concurrentie) komt op het AI gebeuren.

[Reactie gewijzigd door HugoBoss1985 op 11 april 2025 17:34]

ik ben benieuwd of men (de gamers) gaan onthouden hoe dit bedrijf met ze omgaat zodra/als er ooit een rem komt op het AI gebeuren.
Neen, dat gaan ze niet doen. Gamers hun geheugen is nog slechter dan dat van de goudvis.

Nvidia verkoopt hun kaartjes sterk boven de waarde, en toch is er nog een legertje dat hen verdedigt.
Nvidia heeft momenteel veel last van drivers issues, en toch is er nog een legertje dat hen verdedigt.
Nvidia had/heeft last van een slechte power connector, en toch is er nog een legertje dat hen verdedigt.
Nvidia liegt er vrolijk op los, en toch is er nog een legertje dat hen verdedigt.

"De anderen (firma's) doen het ook", etc.

In het land van de blinden is eenoog koning. En nvidia weet dat zeer goed.
Ik denk dat u een van de weinigen bent waarvan beide ogen het nog doen en ook iemand bent die beide ogen open heeft :)

[Reactie gewijzigd door HugoBoss1985 op 11 april 2025 17:12]

Er is een compleet nieuwe markt tegenwoordig, streamers en influencers, die willen gewoon het snelste en nieuwste spul hebben in hun pc. Ondanks jouw tegen argumenten werken de nieuwe kaarten nog goed genoeg zodat ze Nvidia blijven kopen. Daarbij willen een hoop van de followers het zelfde spul als hun streamer of influencer hebben en ga zo maar door.
Groot worden door/dankzij gamers en nu geven ze er niets meer om.
Dit is een les die je niet vroeg genoeg kan leren. Je kan loyaal zijn aan een bedrijf, maar een bedrijf zal nooit loyaal zijn aan jou. Zodra er een andere winstgevendere doelgroep is zal er niet twee keer over nagedacht worden om de oude doelgroep in de steek te laten.
Wat ga je dan kopen? AMD geeft ook niet echt heel veel meer om PC gamers blijkt.. Die zeggen doodleuk publiekelijk dat ze de highend PC markt niet meer gaan bedienen voorlopig.. En dus moet je het doen met een 9070XT die concurreert met een RTX 5070Ti wat dus infeite een 5060Ti is.. AMD is ook bezig met AI en heeft de luxe dat ze het goed doen op de CPU markt en voorzien de gameconsoles nog van chips, maar voor de rest heb ik er als higend PC gamer ook weinig tot niks aan.. Ik heb nu nog een RTX 3080 10GB en upgraden naar een 9070XT zou me 40-45% meer prestaties geven, nou poehee..

Het is wat het is.. Als ik nu wil upgraden en minimaal rond de 70% meer prestaties daarbij wil zien (met raytracing zelfs bijna een verdubbeling) dan heb ik geen andere keuze dan een RTX 5080 of nog veel duurdere 5090, van Nvidia.. En Nvidia weet dat..
Je stelt het erg zwart wit. Ook in tijden dat AMD een competitief product heeft, geeft “de gamer” massaal aan alsnog niet geïnteresseerd te zijn.

De doelpalen worden constant verschoven. Is het niet vanwege DLSS, dan is het wel omdat de tegenhanger presteert op het niveau van een generatie terug. (Die voorheen meer dan dik in orde was maar nu non grata)

Is het niet DLSS, dan komt men wel weer met de dooddoener “drivers” om de hoek, refererend aan een ervaring uit het jaar kruik.

Is Nvidia zuinig, valt AMD af. Is AMD zuinig, vindt men het niet zo belangrijk meer.

In de 4000 serie klaagde men dat enkel de 4090 goede value bood. Biedt AMD goede value in het segment daaronder, klaagt men dat ze niet meedoen voor de kroon.

Even uit de losse pols…

Men moet kopen wat men wil, maar het gros heeft het zichzelf aangepraat dat enkel Nvidia een valide optie is. AMDs aanbod is inderdaad qua prijs behoorlijk op Nvidia gericht, maar zelfs als het niet zo was, kocht men het ook niet. Dus waarom zouden ze hun marge ten grabbel gooien?
Ook in tijden dat AMD een competitief product heeft, geeft “de gamer” massaal aan alsnog niet geïnteresseerd te zijn.
Waar haal je dat? Zijn de verkoopscijfers van de nvidia en mad van de laatste maanden dan gekend?
In het verleden is amd/ati meerdere keren de betere geweest. Niet alleen qua prijs kwaliteit, maar hadden ze ook echt by far de beste en snelste hardware (9700/9800 pro anyone), toch koos het gros toen wederom nvidia FX (toendertijd). Ik kan het ze onderhand niet kwalijk meer nemen dat ze de high end markt links laten liggen , en zich focussen waar het geld zit.
AMD heeft nog 40% markt aandeel gehad hoor, paar jaar geleden hadden ze nog 30 echter is het de laatste jaren langzaam bergaf gegaan omdat nvidia gewoon beter was.
De 1080 was een enorm sterke kaart bijvoorbeeld.
Competitief product in de midrange ja zoals ik al uitlegde en AMD zelf ook zegt, in het highend hebben ze niks.. En laat deze gamer nou net altijd in het highend shoppen, van 3080, 1080Ti, 980ti, 780.. Bijna altijd **80 modellen.. Die vroeger zo'n beetje de beste prijs/verhoudingen boden net onder de topmodellen.. Helaas is het gat naar het extreem dure topmodel nu dus veel groter dan wat normaal was omdat ze dus hebben lopen schuiven met modelnamen en een echte **80 nu infeite dus niet meer bestaat..
Ik zit in vrijwel dezelfde situatie met mijn 6800XT, die wel als een 6900XT presteert en gelukkig nog genoeg VRAM heeft.
Heel even heb ik een 9070XT gehad en ik vond het wel een merkbare upgrade.
De 16GB die daar op zit vind ik ook niet toekomstbestendig.
Ik ben het er mee eens dat er niet genoeg (zeg maar: geen) keuze is bij AMD in het hogere segment.

Voor onze kaarten krijgen we ook nog maar weinig terug, wat je er dan bij moet leggen voor een 9070XT maakt het totaal niet interessant/niet in verhouding.
Ongeveer 100% erbij betalen voor (in mijn geval) zo'n 50% prestatieverbetering.

Vanaf een RTX 2070 naar de 6800XT was een enorme sprong en als ik zo'n prestatiesprong nu wil moet ik ook aan 4090 / 5090.

Eigenlijk doet de 6800XT het nog prima en aardig vlot, de prijzen moeten nog flink zakken wil ik opnieuw een andere 9070XT overwegen.
Het valt toch nog binnen het segment waarin ik de laatste jaren koop, meer uitgeven ga ik niet doen dus ik accepteer ook dit prestatie niveau en dan vind ik een 9070XT (mits betaalbaar/msrp) een erg leuke kaart afgezien van de 16GB VRAM voor de toekomst.

[Reactie gewijzigd door HugoBoss1985 op 11 april 2025 17:35]

De 16GB die daar op zit vind ik ook niet toekomstbestendig.
Wat denk je dan te gaan gamen dat 16gb vram voor een kaart zoals die niet meer genoeg zal zijn?
De meeste games gaan tegenwoordig naar de specs van de consoles toe, pas als deze meer can 16gb heeft zullen de games daar ook overheen gaan. De Playstation 5 zit nu op 16 GB, dus de volgende generatie zal daar wel weer overheen gaan. Hij zou nog gelijk kunnen hebben als de PS6 ergens tussen 2026 en 2028 uit komt. Maar ja de vraag is hoe lang doet hij met een videocard.
PS heeft 16gb totaal geheugen, 2GB is al voor OS blijft 14Gb voor al de rest. Het is dus eerder equivalent van een 12gb kaart. En dat is dan vooral voor 4k , er zijn weinig games die in 1080p 8+gb vram gebruiken.
Ja dat is het nu dus, volgende specs voor de opvolger zullen dus hoger zijn, waarschijnlijk 24 of 32 GB.
Je komt dan boven de 16 Gb uit ook als het gedeeld is. Game developpers zullen dan weer proberen om het max er uit te halen waardoor er spellen komen die meer dan 16 GB gaan gebruiken.
Ps6 komt ergens 2027-28 uit games ervoor ook maar dan dus en de meeste consoles zijn dan gewoon nog met minder en games moeten daarop gewoon speelbaar blijven.

En ja een low-mid end kaart van 4-5 jaar oud kan mogelijk niet alles op max settings spelen.
Dit soort dingen als "nooit meer" is altijd wel lachen. Over 8 jaar ofzo komt er een leuke deal, en is amd gpu opgeheven, dan gaan mensen toch weer kopen.

laatst nog één hier, vorig jaar zeiken over samsung en nooit meer, kom je hem later tegen op het forum pronken met een nieuw model.
Als je het ziet, help me dan maar herinneren.
Ik roep het al een aantal jaren en meestal doe ik wel wat ik zeg... dus ik acht de kans echt nihil op een nieuwe Nvidia kaart in mijn geval.

Over Samsung denk ik overigens hetzelfde, een aantal keren slechte (RMA/defecten) ervaringen mee gehad.
Dus wat dat betreft komt er hier alleen nog LG binnen als het over TV's gaat.
Verder ben ik niet in de markt voor ander soort elektronica (van Samsung).
Hoogmoed komt voor de val.
Weet je nog toen de RX 480 en 470 kaarten uitkwamen voor 229 en 189 dollar? Die waren door de boom in crypto-mining helaas ook niet veel beschikbaar voor gamers, maar wat een price-performance ratio was dat en in vergelijking tot nu zeg...
Exact. GPU’s voor gamers is nu een veredelde hobby geworden voor Nvidia.
Waarom denk jij dat nVidia hun kaatjes sterk boven de waarde verkoopt?
Ze verkopen vlot, dus veel mensen denken daar blijkbaar anders over.
Niemand is verplicht ze te kopen.

Jouw post is niets anders dan kinderachtig.

De GPU wereld is gewoon volwassen geworden. Net zoals dat intel en AMD er niet meer in slagen om grote snelheidswinsten te maken met nieuwe generaties, lukt dat bij de GPU's ook niet meer.
Maar de chips zijn wel zeer complex en duur om te maken.
Het feit dat een RTX 5090 en 6000 ADA bestaat haalt je punt dat er technisch niet zoveel vooruitgang meer geboekt kan worden met 2 benen gestrekt onderuit.. Dat het nog steeds verkoopt ondanks de overduidelijke "shrinkflation" strategie van Nvidia op alle modellen onder het extreem dure topmodel komt hoofdzakelijk omdat Nvidia een zo goed als monopolie op de markt had/heeft, zeker het wat hogere segment.. Dat heeft dus allemaal niks met volwassenheid van de markt te maken.. En als je geklaag erover maar kinderachtig gezeur vindt dan tja, houdt het op hè, einde discussie..

YouTube: The Great NVIDIA Switcheroo | GPU Shrinkflation

[Reactie gewijzigd door Inflatable op 11 april 2025 23:04]

Ah is de 7945HX laptop cpu daarom bijna dubbel zo krachtig als mijn desktop Ryzen 9 5900X? Omdat er geen grote snelheidswinsten meer te behalen zijn?
Waarom beginnen gamers meteen na zo’n bericht te mopperen over videokaarten?

In 2024 kwam nog maar zo’n 22% van NVIDIA’s omzet uit grafische kaarten (vooral gaming). Het overgrote deel, 78%, kwam uit datacenters en AI-gerelateerde producten. In het vierde kwartaal was dit zelfs 91% tegenover 6,9% voor gaming. NVIDIA verschuift dus duidelijk van videokaarten naar AI en datacenters
Hehe, leuk als je er aandelen in hebt in plaats van het bonnetje.
Hihi leuk om een doel te spekken die pc gaming vernietigt hihi
Vrijdag had je kunnen kopen op de laagste prijs sinds mei vorig jaar :)
Of toen het hele A.I net op kwam voor de massa, toen de schaarste en vraag naar NV producten al gigantisch was omdat CUDA al jaren een overhand hadden.
Of toen er nog veel hardware naar miners gingen én gamers.

Zoveel had gekund en velen hebben. Velen ook niet.

Maar het enige wat ik aan nieuwswaarde en punt kon trekken uit dit artikel is inderdaad, er zijn aandeelhouders en diegenen die afnemen.

Ik grap weleens dat ik de aankoop effectief gehedged heb op die manier en de belachelijke prijzen op die manier minder of zelfs geen pijn deden.
Hetzelfde geldt voor Ahold, energie, etc.

Zo had nvidia een ironische uitspraak gedaan dat de videokaart de beste investering zou zijn.

Toch vind ik het lastig, omdat het voor anderen die enkel de bon dragen, alleen maar dat is. Achterlijk duur zoals de rest in het leven.

[Reactie gewijzigd door lariekoek op 12 april 2025 12:52]

Jah, snap ik als je €1000 GPU's €5000 kosten.
Ruim +1500% koers winst in de laatste 5 jaar..

https://www.google.com/fi...c4Q3ecFegQIMxAf&window=5Y

[Reactie gewijzigd door etrans op 11 april 2025 16:26]

De verschillen tussen de omzetten voor 2023 in dit nieuwsbericht en dat van vorig jaar, verschillen behoorlijk =>

Volgens dit bericht maakte nVidia in 2023 35 miljard Dollar omzet. Volgens het bericht van vorig jaar was dat slechts 24 miljard Dollar. Dat is meer (veel meer) dan een simpel afrondingsverschil of ´gecorrigeerde financiele cijfers´.
Waar is TSMC in dit lijstje?


Om te kunnen reageren moet je ingelogd zijn