Omzet Nvidia uit consumenten-gpu's groeit, omzet datacenter-gpu's groeit sneller

De omzet van Nvidia die komt uit videokaarten voor consumenten, vooral voor gaming, groeide met 49 procent ten opzichte van dezelfde periode vorig jaar. De omzet uit videokaarten voor datacenters groeide in diezelfde periode met 56 procent.

De omzet uit datacenterkaarten is veel hoger dan die uit de RTX-serie van videokaarten, zo blijkt uit de kwartaalcijfers van Nvidia. Nvidia verdiende afgelopen voorjaar 41 miljard dollar aan videokaarten voor datacenters en rond 4,3 miljard dollar aan videokaarten voor consumenten.

De omzet uit videokaarten voor gaming groeide zo sterk vanwege de release van de RTX5000-serie aan videokaarten, zoals de RTX5060 in mei. Vorig jaar was er geen nieuwe serie aan videokaarten op de markt. De vraag naar videokaarten voor datacenters groeide sterk door de AI-trend van afgelopen jaren.

Nvidia haalde als geheel een omzet van 46,7 miljard dollar, bij een operationeel inkomen van 28,4 miljard dollar. Dat zijn jaar-op-jaar stijgingen van 56 procent en 51 procent. Nvidia zei verder dat het nog geen H20-gpu's heeft geleverd aan Chinese klanten. De Chinese overheid raadt dat bedrijven af, ook al mogen Chinese bedrijven de H20 wel weer kopen.

Door Arnoud Wokke

Redacteur Tweakers

28-08-2025 • 20:47

71

Submitter: wildhagen

Reacties (71)

71
69
17
1
0
45
Wijzig sortering
Ik vraag me werkelijk af wanneer de GEN AI-bubble knapt.

nieuws: MIT: projecten met generatieve AI leveren bedrijven zelden snelle omzetgroei o

Er heerst vaak toch gewoon angst bij de bedrijven dat ze de AI boot gaan missen en ze wel moeten investeren. Maar in wat geen idee. Iedereen dan maar een co-pilot licentie, want dan zijn we toch goed bezig 🤷🏻‍♂️


Dus hopelijk knap ie snel en worden consumer gpu’s weer betaalbaarder 😜

[Reactie gewijzigd door klakkie.57th op 28 augustus 2025 20:58]

Je bent zeker geen ontwikkelaar. De AI bubble of buzzword bestaat niet. Ik heb er enorm veel baat bij tijdens mijn werk. Dat gaat ineens niet verdwijnen hoor.
Met alle respect, maar dat klopt gewoon niet. Het feit dat er waardevolle toepassingen bestaan, betekent niet dat er géén bubbel is. Het internet had destijds en ook nog vandaag zijn enorme waarde, en toch was er begin 2000 een internetbubbel.

Ik spreek uit ervaring: 25 jaar als ontwikkelaar, waarvan bijna 10 jaar in AI en computer vision, de laatste jaren zelfs als lead AI. Voor mij is het duidelijk dat we opnieuw in een bubbel zitten - de signalen zijn identiek aan die van eerdere hypes.

Het cynische is dat ik nu overal mensen AI zie “verkopen”, terwijl diezelfde personen me vroeger uitlachten omdat ik mijn tijd en energie in AI en computer vision stak. Toen was het immers blockchain dat zogezegd de toekomst was, met eindeloze toepassingen die uiteindelijk nauwelijks ergens zijn doorgebroken. Zijn er daarom geen toepassingen die het helemaal nutteloos is? Neen, zelfde zoals ai.

Sorry, maar als ik zie hoeveel miljoenen dollars er momenteel vloeien naar bedrijven die vaak niet meer zijn dan een wrapper rond een bestaand LLM-model - neem bijvoorbeeld Perplexity - dan moet ik onvermijdelijk terugdenken aan de dotcom-tijden, toen pets.com miljoenen kreeg puur op basis van hoop en potentieel.

Als ik met oud-collega’s praat, hoor ik vaak dezelfde signalen terugkomen - zeker wanneer ik zie hoeveel VC-geld naar startups gaat die eigenlijk nog niets concreets te tonen hebben of niet eens bewust zijn van de beperkingen van AI en nieuwe studies tonen dat keer op keer ook aan.

Eerlijk gezegd: op de beurs heb ik intussen mijn winst genomen. Mijn huis zou ik er in elk geval niet op durven verwedden.
simplicidad slaat de spijker op zijn kop. Die bubbel zit hem vooral in de (financiële) overwaardering omdat er enorme groei verwacht wordt. Zo gauw dat voorbij is klapt de bubbel. Daarmee verdwijnen de taalmodellen niet.
AI is een revolutie, net zoals de industriële revolutie, en de silicium revolutie.
het verschil met een bubbel of een hype, is dat er effectief geld wordt verdient dankzij de technologie.
james watt zijn stoommachine of de eerste silicium-chips zijn niet te vergelijken met de tulpen-bubbel.

Wel denk ik dat apple een zeer sterke chip heeft om lokale llm voor iedereen toegankelijk te maken.

nvidia zal een betalende cloud service bedienen
En 5 jaar geleden, deden we niet aan softwareontwikkdling 🤷🏻‍♂️.

We kunnen resources maar 1 keer inzetten, laat ik nu onderzoek naar dingen waar de gehele mensheid van kan profiteren belangrijker dan “administratieve” winsten.
Zeker, maar ook 35 jaar geleden, toen Google nog niet bestond en je alle kennis uit boeken moest halen, intellisense niet bestond en je veel tijd kwijt was aan het managen van je geheugen pointers.

Wat jij zegt komt op mij over hetzelfde als dat internet en bubble is en over gaat waaien, dat het zoeken op internet naar code voorbeelden of probleem oplossingen een bubble is. Of dat nieuwe generaties programmeertalen bubbles zijn.

De software van nu is behoorlijk complexer en functioneel veel rijker dan vroeger. Dat gaat niet zonder de genoemde hulpmiddelen. Het inzetten van Gen AI tijdens het ontwikkelen is een hulpmiddel die een volgende stap zet in ons vermogen om sneller, beter en efficiënter code te schrijven. Heeft niks te maken met administratieve winsten.
sneller en efficicienter zijn voor mij “afministratieve” winsten, of het ook beter is daar kan ik geen uitspraken over doen.

Maar mijn punt blijft hetzelfde , moeten we als mensheid niet beter kiezen waar we ons geld aan uitgeven ? Het is de zoveelste keer dat we echt dingen kunnen veranderen en wat doen we met al die rekenkracht …. Fotos en filmpjes maken voor op instagram, meeting notes maken, pivottables, dashboards ….😕

Stel je eens voor wat onderzoekcentra met deze berg geld / resources zouden kunnen doen.

[Reactie gewijzigd door klakkie.57th op 29 augustus 2025 11:39]

Tja, ik denk dat iedereen daar anders over denkt. Veel mensen vinden al het geld die we steken in ruimtevaart weggegooid geld, zonder even stil te staan bij wat het wel bijgedragen heeft de afgelopen 80 jaar.

Ik zie voor mezelf wel de voordelen van Gen AI. Als je het helemaal niet gebruikt dan kan ik me ook voorstellen dat je liever het geld ergens anders wil spenderen. Meta en al haar producten mogen wat mij betreft ook wel verdwijnen inclusief alle bijbehorende datacenters bijvoorbeeld :D. Moet je je voorstellen wat we met al dat geld zouden kunnen doen ;)
Jij schrijft je code in notepad, in assembler, zonder enige vorm van naslagwerk via internet? Nooit iets opgezocht in stackoverflow? Jij kent alle design patterns uit je hoofd?

Ik ben geen code guru, maar gezien je antwoord denk ik dat mijn code en architectuur iets beter is dan die van jou ;). De beste ontwikkelaars die ik ken maken juist het meeste gebruik van AI. De slechte ontwikkelaars juist veel minder of helemaal niet, omdat ze niet snappen hoe ze gen AI goed moeten inzetten of bang zijn voor het onbekende.

[Reactie gewijzigd door david-v op 29 augustus 2025 11:34]

Ik vraag me werkelijk af wanneer de GEN AI-bubble knapt.
Dit vraag ik me ook af, naast het feit de aanzienlijke energieconsumptie die deze harde groei meebrengt. Laatst werd weer bekend dat bepaalde gevolgen van klimaatopwarming sneller eraan zitten te komen, de honger naar processorkracht is met AI significant gestegen. Ik zou wel eens onderzoek willen zien van welke impact dit heeft op ons milieu. Ik ben verder geen klimaatcriticus, maar ik vind het wel belangrijk dat technologie tot ons algeheel goed recht komt.
Als consument wil ik ook goedkopere gpu;s, Maar geloof me, gen AI maakt zo veel dingen mogelijk in de toekomst dat ik mijn wensen voor een 4k 200 fps kaart graag op zij zet voor deze nieuwe technology.

Ik snap sowieso het negativisme onder tweakers over een nieuwe technologie niet, zelfs als het faalt, is gen AI niet het meest interessante wat de afgelopen 20-30 jaar op computer gebied gebeurt is? Als tweaker moet je daar toch van smullen?

Ja natuurlijk, het kan onze banen overnemen, maar goed wij (tweakers) zijn ook in de beste positie om te begrijpen waar de nieuwe kansen liggen..
Ik vind eerlijk gezegd het Internet een veel belangrijkere innovatie dan generatieve AI. En zelfs als je dat te oud vindt vind ik het modulaire chiplet design dat nu meer en meer wordt gebruikt in consumer computing relevanter dan AI.
AI heeft zeker voordelen, maar brengt ook zoveel nieuwe problemen, dan is het heel moeilijk een eindconclusie positief te geven. Het is een mooie tool, maar het kan zo misbruikt worden. En dat op niveau gevaar voor de samenleving.
Inference brengt net als crypto gekte enorme energie last met zich mee. Als AI farms vreten energie.

Men liever lui dan moe AI dient mens dient het gemak. Houd ook hersen elasisity wordt huidige generatie stuk minder gestimuleerd. Goede promt maken wel. Maar iets zelf uitvogelen wordt dan oude manier.

Memsheid wordt dommer. De huidige gen die AI breedt zal toepassen verliest de knowhow hoe iets op te lossen als chatgpt het voor je doet.

Vaardigheden leer je door het vaak te doen. Met AI zul nog meer dingen niet meer doen. Die vaardigheden vervagen. Maar nog erger. Baby nu zullen opgroeien zonder die simulate van vaardigheden die AI overneemt. Ik zal AI meer gebruiken voor uitleggen van oplossingen. Hulp bij leten. Niet te veel voorkauwen
internet is veel ouder als 30 jaar, en dat was idd een mega innovatie dat ben ik met je eens, maar dat valt buiten mijn range van 20-30 jaar..

Chiplets is leuk, maar is niet echt schokkend.. het is het iets anders produceren van chips wat betere yields opleverd. Zeker innovatie maar niet revolutionair.
Elke design keuze heeft zijn pro en cons.

Chiplets is low cost yield productie efficient en cost reductie door mijden van big monolitic DIE’s.

Maar het heeft ook cons ipv 1 centrale gedeelde L3. Krijg je meerdere L3. Dus je hebt local en far L3.

Zo ook far L2. Chiplets zitten ook ver van mekaar dus interchip connect latency is grootst.

Pro software HPC werkt al decades met multi socket en NuMA clusters. Gaan daar goed mee om. Ook omdat data diversity en dependicies daar wat homegener zijn. Bij games extremer is.

Waar bij consumente OS schedular big little cores voor games probleem is. Zo meerdere chiplets.

Omdat software architecture waar numa aware software problemen oplossen een programmeer probleem is. En niet alleen driver en hardware.

AMD gaat van Chiplets naar bridged chiplets lower latency maar complexer.

Fusion DIE apple silicon.

Intel tile wat duurdere oplossing is.

Elk hun pro en cons.

AMD is de eerste en chiplets heeft meer focus op server , software architectuur beter data en cache locality en mem acces patern optimised is omdat daar multie socket en server clusters kwa software enginering en best MT programmer practices naast programmeer kennis daar al gangbaar is.

Client lift mee maar cons zijn daar groter. Het niet zozeer schedular dat oplost of cpu drivers in server branch. Maar op aplicatie development.

C++ was daar zeer beperkt in met evoluerende Thread STD libary. Dat ze daar al decades leunen op de vele multithread libaries sls OpenMP pThread MPI en vele anderen zoals intels .

Games laten dat over aan windows schedular en wordt game op grote hoop van vele proccesen en threads gegooid

En op default deels aangestuurd door drivers om wat problemen op te vangen wat lap middel is.

Met standaard C++ en vanilla OOP is MT schaling effcientie vergeten en thread savety al groot software probleem om goed te krijgen. Naast savety strijd tussen c++ en de “Saver” alternatieve prog.talen.

In de latere c++ 17 20 23 is savety focus en STD::JTHREAD de J staat voor Join. Net als smart pointer . Out of scope is Join al geregeld.

Kunnen games e-cores gebruiken ja maar sat thread management probleem wat geimplementeerd moet worden in thread management en ook code moet daarvoor met goede MT programmer guidline opgezet worden. Zo ook numa awarenes en cache relatie tussen verschilende cores wat ook Numa en SMT gerelateerd is.

Chiplets is cost yield innovatie
AI is een nieuwe techniek, waar effectief al veel toepassingen voor zijn
ai is al in gebruikt door studenten, advocaten, ministers, wetenschappers, programmeurs, ingenieurs
AI is de revolutie die de wereld nodig had. AI is een totaal nieuw product, zonder voorganger.
ai valt niet te vergelijken met evolutie en integraties (zoals internet, email, drones, telefoon, smartphone, fotografie, zonnepanelen, ev, etc.)
Maar zelfs dan James watt heeft zijn machines met paarden moeten vergelijken om ze te verkopen. Edison moest de overtuigen dat de elektrische lamp was revolutionair was ten opzichte van kaarsen en gaslampen. Tesla moest de inductie motor (en wisselstroom) aan de man brengen.
voor internet konden we al "online" bestellen uit een boek, en dan het nummer bellen. fax bestond al en heeft meer legale status dan email, en zelfs brieven. drones vervangen helicopters, telefoon was wel revolutionair, al zag bells dat niet.
Ik vind plaatjes en text genereren totaal oninteressant. Zet al die rekenkracht in voor universitair onderzoek in domeinen waar wij als mensen tegen onze limieten aanlopen.

wat is er belangrijk voor de mensheid? Kankeronderzoek , onderzoek naar nieuwe molecules, onderzoek naar kernfusie … of spreadsheets en dashboardjes maken 🤷🏻‍♂️

[Reactie gewijzigd door klakkie.57th op 28 augustus 2025 23:40]

Het een sluit het ander toch niet uit? Ik kan geen onderzoek doen naar die belangrijke zaken want daar mis ik de kennis voor maar kan het wel in mn eigen werk gebruiken.
Niet echt.

Je kan de hoeveelheid beschikbare gpu-kracht maar 1 keer uitgeven en doe je dat dan om instagram plaatjes te genereren of kankeronderzoek te steunen. Als je ziet hoeveel geld de Meta’s van deze wereld in AI pompen denk ik toch echt dat we onze prioriteiten dringend eens moeten herbekijken.

[Reactie gewijzigd door klakkie.57th op 29 augustus 2025 11:40]

Waar haal je al die mensen vandaan die plots kankeronderzoek doen dan en daar alle capaciteit van GPUs bij nodig hebben die er beschikbaar is? Ik ben t met de doelstelling niet perse oneens maar je kunt dit doortrekken naar alles. Ben jij al je beschikbare tijd ook bezig met deze belangrijke zaken?
dat is het hem net …, je laat AI het onderzoek doen.we hebben meer onderzoekers nodig, niet minder secretaresses/programmeurs/vertalers/…
Ik denk dat je je misschien even meer moet inlezen wat "AI" is, doet en kan.
Als je dit allemaal gelezen hebt, dan is het toch vrij duidelijk dat je wel wetenschappers nodig hebt om training data goed te krijgen en onderzoek te doen? Hoe graag we t misschien zouden willen, de hoeveelheid mensen die hier iets mee kan is vooralsnog beperkt. Tegelijkertijd kan iedere idioot ChatGPT en Gemini gebruiken, dat is geen 1 op 1 capaciteit die je voor iets nuttigs kunt gebruiken.

Anders gezegd; de bottleneck is niet de capaciteit van GPUs.

[Reactie gewijzigd door Cartman! op 29 augustus 2025 13:44]

Wel dan zijn we het niet eens.

De supercomputers aan onze universiteiten zijn overgevraagd, je moet slots inboeken om dat je data kunnen verwerken , maw wetenschappers zitten te wachten op meer rekenkracht
Dan maak je het ineens heel specifiek terwijl je het eerder had over het gebruik van GPUs voor plaatjes en spreadsheets. Die supercomputers van universiteiten worden niet gebruikt door de Meta's en OpenAI's van de wereld.
De meta’s van deze wereld spenderen miljarden aan gpu’s en energie voor stomme AI doeleinden en dingen die we als mens ook kunnen. Stel je nu eens voor dat ze dat geld en bijgevolg dus de gpu’s voor daadwerkelijk wetenschappelijk onderzoek zouden inzetten en kanker,MS, honger de wereld zouden uit kunnen helpen …

META defeated MS zoiets.

Dat zou pas een meerwaarde zijn, ipv een miljoen gegenereerde plaatjes van eenhoorns en dolfijnen of een domme filter op je vakantiefotos
Zou ik heel mooi vinden maar bedrijven moeten winst maken en blijkbaar is het geen verdienmodel voor ze.
Er moet ook entertainment zijn he.. zodat mensen zich niet vervelen en elkaar uit verveling naar de strot vliegen... De Romijnen zeiden niet voor niks: , "panem et circenses" wat zoveel betekend als brood en circussen.

Je hebt entertainment nodig om die 98% van de bevolking bezig te houden, zodat die 2% van de bevolking iets zinnigs kan doen. (en s'avonds ook van wat brainless entertainment kan genieten....)
Merk wel dat er ook in de AI markt wat meer sceptisch zijn het worden of AGI wel gaat lukken op deze manier en of deze hele manier van AI het net niet zal zijn. Vooral door de tegenvallende GPT5.

Er zijn markten die compleet verstoord worden, maar volledig vervangen van werkers gaat wss nog langer op zich laten wachen en of die tientallen miljarden terug verdiend gaan worden is nog maar de vraag.

[Reactie gewijzigd door Rogers op 28 augustus 2025 22:28]

Consumer gpu,s zijn inmiddels al redelijk betaalbaar, tijdens release 2.5k en nu inmiddels 1k, voor de AI gekte waren ze ook al rond 1k, de tijd van 200 euro voor een high-end videokaart betalen gaat echt niet terug komen (Pentium 4 tijd en daarvoor).

Je moet inflatie meerekenen namelijk.

[Reactie gewijzigd door mr_evil08 op 29 augustus 2025 08:15]

Dat gaat zeker gebeuren. Technologische revoluties en winnende industrieën gaan doorgaans gepaard met slechte resultaten:
YouTube: Investing in Technological Revolutions
YouTube: Why Betting On “Winning” Industries Almost Never Works

Echter, dat is voor 99,9% van de beleggers niet relevant. Om zoveel mogelijk rendement te maken neem je een ETF met lage kosten en zit je deze crashes gewoon uit, totdat de aandelenmarkt weer terugveert.

"Far more money has been lost by investors preparing for corrections, or trying to anticipate corrections, than has been lost in corrections themselves"
- Peter Lynch


"Time in the market beats timing the market"
- Kenneth Fisher

[Reactie gewijzigd door Dekar op 29 augustus 2025 10:43]

Niet, het zal normaliseren meer niet want het is geen bubble.
Ik zie nvidia nog wel uitbranchen naar consumer CPU met een nieuwe architectuur, net zoals Apple heeft gedaan in recente jaren. De x86-markt lijkt me moeilijker om in te raken.
Vraag me af of dat erg interessant is. De totale markt van consumenten CPUs is 75mUSD (2023). Het gaat niet briljant met Intel, maar dat marktaandeel wegeten zal niet makkelijk zijn. nVidia zelf doet 150mUSD+ per jaar in data centers, zelf al koelt de groei wat af, is dat nog vele malen interessanter dan een paar miljard aan CPUs die ze nog niet hebben.
Daar staat billion, met een b, wat in het Nederlands miljard is.
Zijn ze al mee bezig, als wij de geruchten mogen geloven.

https://www.pcgamesn.com/nvidia/pc-arm-cpu-rumor
Uiteindelijk wordt bijna iedere marktleider een keer ingehaald (zie Intel). Het is wat mij betreft wachten tot China z'n eigen, veel goedkopere chips en chipmachines heeft ontwikkeld. En nee, die zullen niet van nVidia niveau zijn. Maar goedkope spullen die (bijna) net zo goed werken als echte dure spullen, daar smullen we hier van.

Computers, laptops, auto's, telefoons enzovoort overspoelen onze markt intussen. Chips zullen dus ook niet lang meer duren.
De eerste concurrentie voor Nvidia zal niet uit China komen. Waarschijnlijk AMD. China moet en met goede designs en software komen, en dan nog met betere productie dan TSMC. Voor de ultra high end zoals data center gpus etc zal dat nog wel een hele tijd duren maar voor goed genoeg voor een grote groep mensen voor smarttelefoons of laptops oid zullen ze er wss wel binnen een jaar of 5 zijn..
Ze kunnen ook gewoon op prijs concurreren, daar zal geen AMD of Nvidia tegenop kunnen.
Voor de ultra high end, maakt prijs bijna niks uit. Nvidia vraag 40k voor een GPU die hun 4k kost om te maken, en bedrijven betalen het allemaal. Ze willen, en moeten het beste hebben, anders koopt je concurrent het wel.

AMD is de prijzen oorlog aan gegaan met Nvidia, maar verkoopt nog steeds bijna niks vergeleken met hun, is daar bewijs van.

China kan wel een flop datacenter GPU op de markt brengen voor noppes, maar die wil toe nu toe nog niemand.

En trouwens, de yields van Chinese chip fabrikanten zijn echt waardeloos, dat drijft de prijs alleen maar omhoog, niet naar beneden.
Kwestie van tijd wanneer ze de yield op orde hebben, het is niet 'of', maar 'wanneer'.

AMD weet ik niet in de server space. In de consumenten space is het geen prijzenoorlog, ze vragen nagenoeg hetzelfde op een paar euro na.
Dat AMD er een beetje onder zit voor de consumenten mooi, maar grote bergen verzetten noem ik het niet.

[Reactie gewijzigd door grasmanek94 op 29 augustus 2025 18:05]

Ja, dat is ook wat ik zei. Dat het nog een tijd gaat duren. Niet dat het niet ging gebeuren.


En AMD betreft datacenter, geen consumenten gpu's, die markt is niks vergeleken met de datacenter gpu. Daar proberen ze van Nvidia marktaandeel te pakken, en dat lukt niet, ondanks dat ze een stuk goedkoper zijn.
Ik denk niet dat China in staat is op dit moment om zeer highend chips te ontwikkelen, daar missen ze de basis apparatuur voor van ASML. Zolang die niet beschikbaar is voor China zal het voornamelijk middenmoot CPUs blijven leveren vrees ik.
Onderschat China niet. Die kunnen ineens gigantisch snel gaan. Kijk hoe lang Boston dynamics al bezig is robotjes te bouwen, en hoe China ineens de markt ineens lijkt te overspoelen met robots die minstens vergelijkbare trucjes kunnen.
Een robot of een machine van ASML zie ik toch in een heel andere schaal van complexiteit. ASML heeft hier meer dan 2 decennia aan gewerkt en kan sinds 2023 als enige producent euv machines maken. Hoe slim en daadkrachtig ze ook in China zijn, dit kunnen ze niet zomaar even bedenken en uitvoeren in een paar jaar tijd, zelfs niet als ze allerlei informatie stelen van ASML wat daadwerkelijk al gebeurd is.
Klopt, maar het is altijd makkelijker iets na te maken dan iets zelf te ontwikkelen. Tijd gaat het leren.
Je kan de machines van ASML niet namaken, het is geen Valentino shirt ;). Je moet de volledige kennis in huis hebben.
Tuurlijk kan je ASML's techniek namaken. Ik zeg niet dat het gemakkelijk is, maar 1.5 miljard mensen die de zelfde taal spreken, een extreem hoge werkdrang hebben, met een gemiddeld hoog IQ en oneindige subsidies in de industry zullen uiteindelijk wel een weg vinden.

Mijn punt was, dat mensen zeggen dat ze ''zoveel jaar'' achter liggen het niet betekent dat het nog zoveel jaar duurt voor ze bij zijn. Uit eindelijk is de weg niet hetzelfde tussen iets compleet zelf ontwikkelen wat 20 jaar duurde en het proberen na te maken terwijl je precies kan kijken hoe en wat je concurrent doet.

''Je moet volledige kennis in huis hebben'' - daar zijn ze dus al jaren volop mee bezig.

Een klein, leuk voorbeeldtje, is Intel en AMD. Intel was de koning, AMD was niks. Uit eindelijk zijn ze Intel keihard voorbij gegaan. Ja, mede door Intel's laksheid, maar dat was door een kleine bedrijfje (en wie zegt dat ASML niet laks wordt op gegeven moment, China is wel wat anders.

Je opmerking ''het is geen Valentino shirt'' slaat nergens op. Uit eindelijk is alles na te maken en heeft geen enkel bedrijf tot nu toe nog een oneindige monopoly op technologie gehad.
Op dit moment niet, maar dat kan over een jaar of 2 wel eens heel anders zijn.
De machines van ASML heb je niet in 2 jaar ontwikkeld. ASML had daar meer dan 20 jaar voor nodig. Die kennis is zo specialistisch dat je dat niet zomaar kan namaken
Nogmaals, dat zeg ik ook niet. Maar je moet de Chinezen niet onderschatten in het op termijn ontwikkelen van een alternatief.
Hierbij hoort ook de reportage van Gamers Nexus bij die Bloomberg op youtube probeert te dwarsbomen. Gelukkig zijn er meerdere die de documentaire opnieuw hebben geupload zoals: YouTube: THE NVIDIA AI GPU BLACK MARKET | Investigating Smuggling, Corruption, & Governments

Nvidia is goed aan het geld harken en alle kanten aan het bespelen.
Het verbaast mij elke keer weer hoeveel ze nog konden groeien, de productie capaciteit van chips schroef je toch niet zomaar op.
Prijzen zijn flink omhoog gegaan en dat heeft ook voor veel groei gezorgd. en Nvidia maakt zelf de GPU's niet, dat doet TSMC, die heeft de capaciteit wel opgeschroefd.
Nu GPU's ook interessant zijn voor servers (AI, cloud gaming, rendering, encoding/decoding en what not) kan ik mij voorstellen dat het daarom ook booming is. Doordat steeds meer partijen dan ook voor servers GPU's gaan aanschaffen, komt die markt de laatste jaren ook echt helemaal los. Maar ik kan mij dan ook wel voorstellen dat de consumenten markt met vooral gaming en encoding/decoding vooral dankzij gaming zo groot is. Maar aangezien dat ook een hele grote markt al is, is groei daarin lastiger. 50% van 100.000 is makkelijker dan 50% van 10.000.000 immers. Dat GPU's voor server dus "harder" groeit zegt eigenlijk nog niet zo heel veel zonder exacte aantallen erbij te hebben.
Dat zou ik ook vertellen als ik Nvidia was...
De financiële cijfers? Je doet alsof ze dit verzinnen, terwijl je als beursgenoteerd bedrijf je cijfers in een zeer uitgebreid rapport moet delen met de markt.

[Reactie gewijzigd door david-v op 29 augustus 2025 09:19]

Ik bewonder je goede vertrouwen!

Ik zeg helemaal niet dat ze het verzinnen. Ik zeg alleen het toch wel een 'wij van WC eend' gehalte heeft. Natuurlijk zeggen ze dat het allemaal goed gaat. Dat zou ik ook doen als ik de CEO van Nvidia was.

Ik weet waar je als beursgenoteerd bedrijf aan moet voldoen. Ik zeg niet dat het hier het geval is, maar het zal niet voor het eerst zijn dat een bedrijf de boel rooskleuriger voordoet dan dat het in werkelijkheid is.
Ik bewonder je (vooralsnog) ongefundeerde argwaan ;) . Een bedrijf als NVIDIA kan met "sjoemelen" een complete markt op zijn gat gooien, ik zie weinig redenen waarom ze dat zouden willen doen. Als je alles bij elkaar pakt; dus de analisten, de forecast van aan NVIDIA gelieerde bedrijven zoals bijv. TSMC, de grote klanten van NVIDIA (MSFT, Amazon, xAI, Meta etc) dan is er alle reden om te geloven dat NVIDIA voorlopig nog wel zo doorgaat en dat ze zulke cijfers kunnen blijven presenteren.
Een recordomzet kon bijna niet anders. De RX 9xxx serie van AMD Radeon staat nog altijd niet in de normale steam survey, terwijl ze best populair lijken. Alleen bij vulkan als subselectie kom je ze tegen; https://store.steampowered.com/hwsurvey/directx/.
Kan best zijn.

Maar sinds ze wallstreet/investment darling zijn, zijn ze een rentseeking vehicle, geen techbedrijf.

Extractie van geld ten koste van goodwill zal loyalteit verbranden en de deur openen naar een switch naar opkomende concurrentie. Met de marges die nvidia rekent is er ineens zat ruimte voor.


Om te kunnen reageren moet je ingelogd zijn