Nvidia's omzet uit datacenterhardware is meer dan verdubbeld in jaar tijd

De datacentertak van Nvidia heeft zijn omzet vorig jaar meer dan verdubbeld ten opzichte van een jaar eerder. In totaal kwam daar een recordomzet van 115,2 miljard dollar uit, een stijging van 142 procent.

Nvidia meldde voor zijn boekjaar 2024 al flink hogere omzetten door de grote vraag naar datacenterchips. Het vierde kwartaal van 2024 was daarin niet anders, blijkt uit de kwartaalcijfers van het bedrijf. De datacentertak draaide in deze drie maanden een omzet van 35,6 miljard dollar, wat zestien procent meer is dan in het derde kwartaal en een stijging van 93 procent ten opzichte van dezelfde periode een jaar eerder.

Oprichter en ceo Jensen Huang schrijft de sterke cijfers onder meer toe aan de sterke vraag naar de Blackwell AI-gpu, die in maart vorig jaar werd onthuld. "We hebben de grootschalige productie van Blackwell AI-supercomputers succesvol opgeschroefd en in het eerste kwartaal miljarden dollars aan verkopen behaald."

De omzet van het bedrijf als geheel kwam uit op 130,5 miljard dollar, een stijging van 114 procent. De winst steeg het afgelopen jaar ook flink, namelijk met 145 procent naar 73,88 miljard dollar. Voor het aankomende kwartaal verwacht Nvidia dat de omzet uitkomt op 43 miljard dollar.

Door Eveline Meijer

Nieuwsredacteur

27-02-2025 • 11:28

46

Reacties (46)

46
46
23
1
0
6
Wijzig sortering
Dat betekend dus dat consumentenvideokaarten nog geen 10 a 15% van de totaalomzet zijn. Geen wonder dat ze er geen zak meer om geven. Het is totaal niet relevant meer voor de investeerders. Zonde, hopelijk weten amd en intel hun kaarten zo te spelen dat ze deze slack op kunnen pakken.
Minder:
Gaming: 2.5
Datacenter: 35.6
Pro: 0.511
Automotive: 0.57

Dus gaming bedroeg 7% van de omzet het afgelopen kwartaal.

Waarmee ik je conclusie te kort door de bocht vindt. Als ze niks om gaming gaven hadden ze natuurlijk niet de tijd en geld gestopt om de 5 serie uit te brengen. Dan hadden ze nog een paar jaar de 4 serie geproduceerd. Die ontwikkelkosten moeten terug worden verdiend.

Maar waarom is er dan steeds geen launch voorraad? Wat niet veel mensen realiseren is hoe enorm veel groter de gaming markt is geworden. Als we 10 jaar teurg in de tijd gaan dan zien we een omzet van 1,305 miljard in Q4 2015. Dat is de omzet voor álle afdelingen . Nu doet alleen gaming al het dubbele daarvan. De logistieke uitdaging is daarmee minstens twee keer zo groot geworden.

Het tweede probleem is de wereldwijde lancering. Waar het vroeger per regio gebeurde mag nu elke winkel op de hele wereld vanaf dezelfde dag verkopen. Dus de logistieke uitdaging is daardoor 4x zo groot geworden.

Tel die twee verschillen bij elkaar op en de totale logistieke operatie is dus x8 gegaan.

Technisch is het mogelijk om daaraan te voldoen door een combinatie van voorraden aanleggen en je assembly op piek productie af te stellen. Maar dat kost énorm veel geld. Je moet al die voorraad en productie voorfinancieren. Je maakt enorm veel warehousing kosten voor opslag. Die peperdure opslag moet je vervolgens nog verzekeren (diefstal, brand). Tot slot verlies je onwijs veel geld op de assembly die na je eerste piek niet meer op 100% draait. Ga je dat doen dan kun je de adviesprijs onderhand wel met 50-100% verhogen. Consoles hebben hetzelfde probleem.

Ik zou eerder stellen dat AMD niet meer om de videokaart markt geeft. Kijk eens wat daar gebeurd:
Gaming Q4 2023: 1506 > Q4 2024: 462
Datacenter: 1598 > 3549
CPU: 1453>1881

AMD verdubbeld in datacenter maar verkoopt ondertussen bijna geen videokaarten meer. Zeker niet ten opzichte van Nvidia. Als we even vergeten dat onder het gaming segment ook de console omzet valt dan is de verhouding 16% Radeon vs 84% Nvidia. In werkelijkheid ligt het dus nog schever. Nvidia verkoopt in ieder geval nog ter waarde van 2.5 miljard aan videokaarten per kwartaal.

[Reactie gewijzigd door sdk1985 op 27 februari 2025 14:26]

Competitie is zeker goed, alleen kunnen AMD en Intel momenteel niet aan de performance van de high end Nvidia kaarten komen. Dus dan moeten ze het alleen op volume doen in het "lagere" segment.

Houd er trouwens rekening mee dat AMD en Intel natuurlijk ook een stuk van de Datacenter taart willen hebben en hier ook hoog op inzetten.
Performance? Wat Nvidia met de 50-serie doet, heeft nog maar weinig met pure prestaties te maken. Het draait vooral om AI-gestuurde framegeneratie, wat kunstmatig hogere framerates oplevert maar weinig bijdraagt aan echte grafische vooruitgang. Ondertussen slurpen deze kaarten steeds meer stroom, zonder dat games er daadwerkelijk mooier van worden.

Toch verkoopt de 50-serie als een gek (die kaarten die beschikbaar waren tijdens de paper launch). Maar laten we eerlijk zijn: gamers worden hier wel een beetje voor de gek gehouden. Ze betalen de hoofdprijs voor AI-trucjes in plaats van échte hardwarematige vooruitgang.
Beetje AI sjoemel drivers dus?
Je benoemt AI, maar ik snap niet goed waarom. Zelfs als we alle AI-foefjes (upscaling, frame-gen, noem maar op) weglaten en alleen kijken naar rasterized performance steekt NVIDIA er met kop en schouders bovenuit. De 7900 XTX kon de vorige generatie al niet tippen aan de RTX 4090. Daar doet NVIDIA deze generatie 30% bovenop met de RTX 5090.

Wat doet AMD deze generatie? Ze lanceren het equivalent van een 5070 (Ti) kaart met hun 9070 (XT) - een kaart die min of meer gelijk zal zijn met de 7900 XTX. En Intel... die zijn niet relevant in dit segment.
Competitie is zeker goed, alleen kunnen AMD en Intel momenteel niet aan de performance van de high end Nvidia kaarten komen.
De 50-series generatie van NVIDIA is een absolute ramp, begrijp me niet verkeerd, maar CaDje spreekt hier 100% de waarheid. Zelfs met alle tegenslagen en minpunten van team green kan AMD niet concurreren op gebied van performance.

[Reactie gewijzigd door IlIlIllII op 27 februari 2025 13:08]

Het maakt weinig uit of amd en intel mee kunnen komen in het topsegment als de kaarten van nvidia in het topsegment niet leverbaar zijn of allemaal stuk gaan want dan kunnen ze net zo goed niet bestaan. Ook zijn dat niet de hardlopers. Je haalt je omzet uit het "middensegment".
Maar hoeveel procent zijn de verkopen van die ene high end kaart? Waarom zou je je daar op richten als er veel meer afzet is op het midden en lagere segment?
Waarom gooien ze het eigenlijk niet open? Hier nog een oud laptopje staan met een Radeon Wrestler. Nog steeds een prima ding, maar buiten Windows, waarom een kms driver + drm prog + firmware per exact model, en dan helemaal niks laten zien mbt wat we doen. Zwart scherm of crash? Waarschijnlijk een verkeerde graphics setting maar het kan alles zijn. Geef gewoon van alle fatal errors een reden of verzin iets als je geen idee hebt. Dan zijn we al een stuk wijzer.

[Reactie gewijzigd door blorf op 27 februari 2025 16:11]

Ik snap de gedachte, maar ik vind hem ook niet helemaal kloppen.

Met zoveel winst kun je net zo goed een paar miljoen (of meer) extra besteden om op alle fronten goede producten en gezonde voorraad te leveren.

Voor de totale winst maakt dat namelijk ook weinig meer uit.


.... Als je tenminste met trots achter je producten en merknaam staat natuurlijk.... :/
Er is geen productiecapaciteit. Dus het is kiezen.

Niet voor niets dat het zo goed gaat bij asml en alle chipfabs. Ze kunnen niet snel genoeg bakken.

Helaas trekt de gamende consument aan het kortste eind.
Dan is het alsnog een keuze.

Als je dit namelijk van te voren weet, kun je er op anticiperen door product opties beter in te plannen.

Ik krijg het vermoeden dat men bij Nvidia die gok niet goed gemaakt hebben. Alles zou in die 5090 gestopt zijn.

Ik krijg dan ook het vermoeden dat AMD hier een betere keuze heeft gemaakt, door te zeggen leuk en aardig, maar dit keer dan maar geen high-end producten die capaciteit wegvreten.
Ik zou zeggen dat ze die gok juist goed gemaakt hebben. Als de vraag de productiecapaciteit overschrijd kies je meestal voor producten met een groter marge als producent. Dus de 5090 of de kaarten voor AI en datacenters. Met een marge van over de 70% op AI-hardware vind ik het nog een wonder dat er überhaupt game-gpu's gemaakt worden. Nvidia doet het alleen maar om nog de marktpositie te behouden in de game-markt voor als de ai-hype gaat dalen. Wel jammer, want door de hoge prijzen van de afgelopen jaren zijn er veel gamers die een beetje vast zitten aan een oude videokaart.
Nee je kiest voor de producten die de meeste winst opleveren.

Ik geloof niet dat de marge van een 5090 de aantallen van lagere modellen goed kan maken.

Het gaat namelijk om de schaal, van veel produceren voor weinig t/m weinig produceren voor veel

Dat is idd anders wanneer er een en-en keuze is.
Ik doelde echter enkel op wat er nog beschikbaar zou zijn uit het (schaarse) overgebleven potje.

[Reactie gewijzigd door B_FORCE op 27 februari 2025 13:03]

Maar er is geen capaciteit om op te schalen je gaat dus niet meer maken als je alleen op een lager model richt. Sowieso is het bij gpu's een beetje anders omdat er met binning gewerkt wordt. Je weet al van te voren hoeveel chips je gaat kunnen produceren, het engine wat je kan doen is de verhouding bepalen tussen luxe en minder luxe chips. Zolang de 5090 uitverkocht is lijkt mij dat nvidia een goed keus gemaakt heeft. Ook al is het jammer voor de consument :(

[Reactie gewijzigd door PjotrX op 27 februari 2025 13:50]

Je kunt toch ook gewoon op een andere manier binnen? (is dat een werkwoord? :D :D )

Ik zit zelf in R&D en productie, en ik vind het maar moeilijk te geloven dat die 5090 in dit geval de kosten draagt.

Ik heb heb het al ergens al eerder gezegd, maar ik krijg het gevoel dat Nvidia perse een 5090 wilde maken.
Waaruit is gebleken dat die kennelijk aan alle kanten wankelt.
Vervolgens is de rest kreupel gemaakt om zo product spacing nog een beetje redelijk te krijgen.
Resultaat is dat alles gewoon sneu is op dit moment.

Ik vind het al jaar en dag kwalijk hoeveel onzinnige keuzes er inmiddels zijn.
De normale versie, super, ti, ti super, ti super uber duber mega
Houd toch op.....

Houd het gewoon simpel, is ook veel makkelijker voor je eigen productie

Traditioneel was een xx70 super (equivalent vroeger) ongeveer het speer punt.
Waarbij er dan een luxere versie was on steroids en eventueel een variant met meer geheugen.
Daar onder dan een wat simpele spartaanse versie.

Inmiddels zijn er zoveel varianten dat het zelfs voor experts en enthousiastelingen bijna niet meer te volgen is welke GPU nu op welke manier presteert.
die een beetje vast zitten aan een oude videokaart.
Gemiddeld doe ik 8 jaar met een GPU, snap echt niet waarom iedereen steeds de nieuwste nodig heeft. Juist als je het eens in de 8 jaar doet zie je nog wat verschil.
De productie bottleneck ligt meer bij packaging (CoWos-L/R) en bij HBM3e.
Beide worden voorlopig nog niet gebruikt in de GeForce lijn. Verder is 4N node ook al volwassen, dus zelfs de gigantische GB202-chip in de 5090 zou redelijk yields moeten hebben.

Zelf heb ik meer het idee dat NVIDIA de beste GB202 dies aan het opsparen is voor een nieuwe Quadro kaart, maar dat zien we wel over een paar weken tijdens GTC.
Yep, ze zouden de kaarten zelfs voor een schijntje weg kunnen doen.

Alle features unlocken en nog een paar dingen.
Dit is een beetje het zelfde als Gillette en Intel,
Na de mach 3, kon je verwachten dat er iets kwam met 5 mesjes, en daarna een draaibare kop. Wel staggered uitgebracht, want dan verdienen ze meer.

Uiteindelijk draait het allemaal om geld.
Alleen lijken mensen weer uit te vinden dat de klassieke 'safety razor' eigenlijk prima scheert voor een fractie van de kosten van een mach 3 of wat er daarna allemaal is gekomen.

Ik geloof niet dat we bij GPU's al op het punt zitten dat de techniek een tiental jaar geleden qua functie en resultaat prima mee kan met de huidige kaarten :+
Ik kom zo langzamerhand wel tot de conclusie dat de hardware van 10 jaar geleden nog best prima mee kan.
Uiteraard afhankelijk van de use case.
Maar mijn 4th gen i7 doet alles nog vrij prima met 32GB RAM

Met name de laatste 5 jaar lijkt alles enorm te stagneren.

Dus misschien komen we inderdaad wel tot het einde waarbij een computer net zoiets gewoon wordt als het kopen van een hamer, toilet papier etc
Dat is eigenlijk een beetje waar ik op doelde.

Als het je toch geen bal uit zou maken, waarom dan AL die moeite doen om het leven van consumenten zuur te maken?
Omdat het gewoon een shitty bedrijf is. :)

Soms is een spade een spade.
Dat zou dan wel enorm narcistisch zijn. :?
Dit, waarom productie capaciteit aan consumenten te verspelen die het toch te duur vinden als er goud geld aan datacenter grade AI kaarten verdient kan worden.

Aan de andere kant hoop ik dat ze wel in de race blijven. Want er zijn al niet veel spelers op de game gpu markt. Aan de andere kant zou het aardig zijn geweest als ze de prijzen sinds corona niet zouden opdrijven, maargoed leg dat maar eens uit aan investeerders: "aardig zijn"

[Reactie gewijzigd door Splorky op 27 februari 2025 11:39]

AMD moet kritisch kijken naar welke prijzen ze gaan hanteren. Met net onder NVIDIA zitten kom je er niet mee weg.
Intel is ook met GPU's clueless dus die hebben nog veel werk te verzetten, en zullen voor markaandeel en heel goed product neer moeten zetten als ze iets met high end willen.
Tuurlijk wel. De MSRP van Nvidia kaarten is niet realistisch.

bv 5080 voor 1000 euro wat effectief geleverd wordt voor 1200-1500 euro. vs 9070 welke aan 750-800 euro effectief verkocht kan worden door dat er genoeg stock is...

Op papier is dan mss een 5070 ti interessanter, maar de retail prijzen en scalp prijzen veranderen het verhaal. Wat AMD moet doen is _genoeg stock hebben_ zodat de kaarten voor MSRP verkocht kunnen worden.
AMD heeft een enorme buitenkans op dit moment.

1) Nvidia is te duur en niet leverbaar.

Probleem is dat gezien het verleden AMD een lange lijst heeft van mogelijkheden verknallen.

1) AMD moet snappen dat 'nvidia -€50' in peformance niet gaat werken.
2) Je bent ongeloofwaardig als je een dag later alsnog de prijzen gaat verlagen, die prijzen staan dan al in alle reviews als beoordeeld.

AMD's buitekans is simpel : zorg ervoor dat ZEER scherp geprijsde kaarten ('nvidia -€175' in peformance) bij bosjes leverbaar zijn.

Je klanten zijn je grootste bron van inkomsten ze hoeven alleen maar iets te KUNNEN kopen.
bonus tip : zorg vorige week voor een '9050' voor onder de 500 en een '9030' voor onder 375. en een instapper '9010' voor onder 250. met resp 20/16/12/10 gb vram. HIER zitten je grootste hoeveelheid klanten.

Helaas AMD kennende komt gamers nexus idd aan het eind van het jaar met de AMD editie van zijn dissapointment shirt. Jammer.
Ik denk dat al die partijen een spelletje moeten spelen. In feite heb je 2 a 3 spelers in de markt die voor een bepaalde product categorie chips kunnen maken. Ik denk dat AMD hun productie niet zomaar kunnen opschalen dus het is kiezen tussen CPU's voor consumenten, CPU's voor servers en GPU's. Ik kan het niet hard maken maar het voelt voor mij alsof ze op dit moment de focus hebben op CPU's voor servers. Dus ja, dan laat je kansen liggen op andere vlakken

[Reactie gewijzigd door Mellow Jack op 27 februari 2025 12:12]

Dat zou fantastisch zijn, (ik heb geen idee hoor) maar is dat überhaupt mogelijk qua kosten die ze maken?
De GPU chip wellicht, maar de VRAM hoeveelheid niet. Die chips zijn gewoon duur. Dus veel VRAM zie je 1 op 1 terug in de prijs van je kaart
Dat is niet helemaal waar.

Intel heeft bv laten zien dat ook voor een goede prijs een gezonde hoeveelheid VRAM kunt krijgen.

Daarnaast is het ook geen custom part, wat de GPU chip zelf wel is.
Dus het is een kwestie van schaalgrootte.

In dit geval is het vrij duidelijk een bewuste keuze qua marketing strategie.
Vram duur??
https://www.tomshardware.com/news/gddr6-vram-prices-plummet

Voor die prijs moet je standaard 16gb aanbieden. Er is niet op deze aardbol die niet voor 50 euro meer niet een 16 gb rtx 4060 wilt zien.

Ook de rtx 4060 ti 8 vs 16 gb is maar 110 euro(msrp). Dat is niet echt 1 op 1.
Is het duurder geworden dan?
Ja en? Wanneer kwam bv de rtx 4060 uit? En als je het zo stellig iemand zo stellig stelt dat het zo duur is en ik ontkracht dacht met een bron uit 2023 dan verwacht ik een nieuwere bron die het tegenovergesteld beweerd anders voegt het niets toe.
Zolang Intel op de huidige voet doorgaat, kan de markt misschien op den duur wel weer echt interessant worden. Er hoeft maar één generatie Intels echt interessant te zijn in midden-tot-hoog en dan zul je zien dat de meeste mensen kiezen tussen Intel en AMD, maar dat alleen de high end van Nvidia komt.
De MSRP in NL voor de 5080 is € 1190 euro, wordt verkocht voor 1500-2000.

En de 5090 € 2369, gaat weg voor prijzen van 3000 tot zelfs 4500!
En wie is schuldig aan deze prijzen? De gamers zelf!!
die kijken kritisch als er moet gezonde marge op wat ook vaste kosten dekt zoals R&D wafer allocatie inflated loon kosten
En dan kom je ergens op uit. Wat weet voor intel AMD NV.
Maat consument
zoals het in hun eigen straatje past zo laag mogelijk inschatten.
EVGA is niet voor niet eruit gestapt. AMD vega HBM cost prijs drama.
Waar zou jou pensioenfonds in moeten investeren? Lage marge business om leuke dingen voor consumenten te maken, of hoge marge business zodat jouw pensioen met een lage premie toch een leuk bedrag op gaat leveren?
Waren er recent geen geruchten dat Nvidia door een plotse vraagdaling in het datacentersegment wafers die oorspronkelijk voor datacenterkaarten bedoeld waren heeft herbestemd naar consumentenkaarten?
Nvidia behaalde dus 56% winst, op voornamelijk fysieke goederen met slechte verkrijgbaarheid. Wat extra concurrentie zou de markt goed doen denk ik dan.

[Reactie gewijzigd door Herr_Boogie op 27 februari 2025 12:00]

Dat zullen de potentiele concurrenten ook wel bedacht hebben. Maar die moeten dan wel de juiste producten kunnen maken en leveren. Als dat makkelijk zou kunnen hadden ze dat al gedaan lijkt me.
De winst is met 145% gestegen en het eerste wat de aandelen doen is dalen. Er is toch serieus iets mis in de hoofden van de beleggers als je het mij vraagt.

Op dit item kan niet meer gereageerd worden.