Het ding van nVidia is, is dat hoewel ze natuurlijk het "gebruik van" gereedschap ook zo af en toe wel laten zien, en vaak een inspiratie/catalysator zijn voor anderen om iets op te pikken (denk aan VRR, upscaling, deep learned audio filtering, etc...), dat ze primair natuurlijk géén software/toepassingenhuis zijn.
nVidia is een fabless hardware ontwerper. Hardware die nu, voor zolang dat duurt, TOEVALLIG heel erg in belang is voor een stukje van de markt wat economisch een soort hyperfocus heeft, nog meer zelfs dan die andere concurrent van gaming, cryptomining daarvoor.
nVidia is dus eigenlijk meer van het 'ontwerpen 'van gereedschappen VOOR toepassingen, en kan die gereedschappen niet zelf maken: daarvoor kopen ze vierkante centimeters in bij bedrijven mét fabs. TSMC/Samsung/SK Hynix (want geheugen) zijn welliswaar bedrijven die die vierkante centimeters verkopen (TSMC volgens
Fab Capacity - Taiwan Semiconductor Manufacturing Company Limited heeft 17mln 30cm wafers, waar volgens veel speculatie, zoals hier:
Spitballing Nvidia's RTX 5090 GPU die manufacturing costs — die could cost as little as $290 to make | Tom's Hardware 47 "top GPU" dies uitkomen, tellen we geheugen/controllers/signalling nog niet mee, maar de productiecapaciteit is dus beperkt), maar nVidia zelf hééft geen vierkante centimeters uit zichzelf. Ze kopen in op verwachting van afzet.
Maar laat ik dan toch weer even crypto voor me nemen, of VRR. nVidia als gereedschapsfabrikant heeft namelijk toch wel wát software voor zichzelf waar ze enorm ver in zijn: hun ontwikkel-tools. Het is immers eenvoudig om met pytorch/CUDA een CNN/TNN model te bouwen (wat later weer een LLM kan worden) omdat het gewoon werkt. Alleen werkt CUDA alléén op nVidia hardware, en hoewel we training en uitvoering LOS van elkaar kunnen zien, is zeker in de beginfase nVidia vanwege dat stukje gereedschap én die hardware toch vrij snel het meest kosteneffectief: geen datacenterbouwer is ooit ontslagen omdat hij nVidia heeft aangeraden ging het gezegde net zoals dat voor Intel ooit ging.
Alleen komen we nu uit bij de wereld van Edge Compute: laptops, desktops, smartphones, en tablets. Daar waar nVidia niet alleen NIET de grootste GPU bouwer is (want die zit vaak in een CPU/SOC, en nVidia mocht ARM niet overnemen,
Arm-overname door Nvidia gaat definitief niet door - Tweakers, dus dat gaan ze ook niet worden), maar ook niet de grootste AI executor: ONNX/4-bit runtimes op CPU's (NPU's) en SOC's in smartphones (Qualcomm en Apple hebben beide NPUs in hun systemen, en ze worden voor meer AI dan enkel LLM's gebruikt).
Sterker nog: in de datacenter wereld, waar AI nu ook "volwassener" begint te worden begint de vervolg stap van ná de eerste "boom" van MVP's gebouwd op die CUDA tooling ook te leven:
OpenAI koopt voor 6GW aan AMD-gpu's en neemt tot 10 procent AMD-aandelen over - Tweakers
AMD krijgt toestemming voor export Instinct MI308-AI‑chip naar China - Tweakers
Huawei toont SuperPod-machines met 15.000 npu's voor AI-training - Tweakers
Microsoft maakt eigen chip voor draaien AI-modellen - Tweakers
Dus niet alleen begint nVidia het te "voelen" qua uitvoeren van AI, maar ook in het TRAINEN van AI zijn ze steeds minder dominant omdat een "vroege" industrie waar "MVP dan maar met CUDA" eigenlijk begint te merken dat het een wereld wordt van: "cut out the middle man: we kunnen meer geld verdienen als we niet zoveel omzet aan nVidia afdragen".
Zelfs in de diepe krochten van open tools zie je dat verschijnen:
SAM with AMD GPU (ROCm) · Issue #601 · facebookresearch/segment-anything
onnx-community/Llama-3.2-3B-Instruct-ONNX · Hugging Face
GitHub - yangyanli/PointCNN: PointCNN: Convolution On X-Transformed Points (NeurIPS 2018)
En wat betekent dat?
Niet dat er minder AI/Deep Learning gebeurt, maar wel dat de deep learning/AI die er is welliswaar nog steeds van TSMC silicon wordt gebakken, dus diezelfde vierkante centimeters, maar minder van nVidia afhankelijk is.
Net zoals VRR (is nu een VESA standaard/Freesync is open).
Net zoals upscaling (zowel FSR als XeSS zijn érg goed en niet afhankelijk van merk en wordt steeds meer een Vulkan/DX12 (wat steeds meer eigenlijk ook vulkan is) standaard:
Microsoft DirectSR is een api die werkt met upscaling van DLSS, FSR en XeSS - Tweakers)
Net zoals eigenlijk alles.
En wat blijft dan over? Ik denk dat nVidia wel zal blijven bestaan. Sterker nog: ondanks dat ik hier regelmatig heb gezegd dat mocht mijn 3090 ooit kapot ga dat ik door hoe slecht hun drivers de laatste... jaren zijn (566.36 is de laatste die stabiel is voor mij... over Linux drivers beginnen we niet eens) en hoe slecht ik hun gedrag vindt waarschijnlijker voor iets van AMD of Intel zal gaan, hoop ik dat nVidia blijft bestaan. Ooit kom ik misschien wel weer bij ze terug. Want ook op hun hardware kun je de open API's uitvoeren. En eigenlijk is mijn hobby (gamen en werken) erbij gebaat dat er een nVidia is. Net zoals dat ik blij was (ondanks dat ik een Voodoo GPU had) dat de TNT kaart ooit uit kwam.