Door Tomas Hochstenbach

Redacteur

Waarom juist Nvidia dit jaar het waardevolste bedrijf ter wereld werd

20-12-2025 • 06:00

57

Multipage-opmaak

Waarom juist Nvidia dit jaar het waardevolste bedrijf ter wereld werd

Eind oktober passeerde Nvidia als eerste bedrijf ooit een beurswaarde van 5000 miljard dollar, oftewel 5 biljoen. Hoewel de chipontwerper voor 2021 niet eens op een tiende daarvan werd gewaardeerd, was Nvidia fantastisch gepositioneerd om te profiteren van de groei van AI – veel beter dan een concurrent als AMD. Om te begrijpen hoe dat zo kwam, nemen we een diepe duik in de geschiedenis van Nvidia.

De eerste gpu

De Denny's-vestiging waar Nvidia is opgericht. Foto: Koen Crijns
De Denny's-vestiging waar Nvidia is opgericht, in San Jose.
Foto: Koen Crijns

Nvidia heeft misschien wel een van de mooiste oprichtingsverhalen uit de techindustrie. Oprichter en huidige ceo Jensen Huang at in april 1993 bij een Denny's, een van de bekendste Amerikaanse diners, met zijn vrienden en latere medeoprichters Chris Malachowsky en Curtis Priem. Huang, die in zijn schooltijd overigens ook bij Denny's had gewerkt als afwasser en ober, dacht met zijn vrienden een grafische rekeneenheid te kunnen bouwen die een revolutie binnen videogames zou ontketenen.

Groen van jaloezie of van het lachen?

Ze richtten samen Nvidia op, dat daarmee aanzienlijk jonger is dan veel van zijn concurrenten. Toen Nvidia in april 1993 werd opgericht, bestond AMD al 23 jaar en Intel zelfs bijna 25 jaar. Oorspronkelijk zou het bedrijf Nvision gaan heten, maar dat werd uiteindelijk Nvidia, gebaseerd op 'invidia', Latijn voor jaloezie. Volgens medeoprichter Priem was het doel dat concurrenten 'groen van jaloezie' zouden worden. Priem was tot 2003 de cto van Nvidia, waarna hij met pensioen ging. Malachowsky is nog altijd lid van Nvidia's directie en tevens senior technology executive.

De visie van de drie oprichters resulteerde in de grafische versneller NV1, die in 1995 op de markt kwam. De chip werd geproduceerd door SGS-Thomson op een 500nm-productieproces en gebruikte kwadratische texturemapping. Kort daarna koos Microsoft voor zijn industriestandaard DirectX echter voor driehoekige polygonen, waardoor de NV1 geen succes werd. De als opvolger ontwikkelde NV2 zou terechtkomen in een nieuwe console van SEGA, maar de ontwikkeling werd gestaakt. Jensen overtuigde SEGA ervan om de betaling voor de ontwikkeling van de NV2 om te zetten in een investering. Hoewel Nvidia alsnog de helft van zijn personeel moest ontslaan, werd het bedrijf daardoor gered.

Een Diamond Edge 3D 2200-videokaart met een Nvidia NV1-chip. Foto: Tweakers
Een Diamond Edge 3D 2200-videokaart met een Nvidia NV1-chip. Foto: Tweakers

Van 3d-kaart naar gpu

Hardware transform & lightning

Heel kort uitgelegd worden in de transformfase de coördinaten van de virtuele wereld omgerekend naar die van de 2d-viewport waarmee je door je scherm de 3d-wereld 'in kijkt', terwijl in de lightingfase de effecten van lichtbronnen worden berekend. Gpu's konden de hiervoor vereiste matrixberekeningen veel sneller uitvoeren dan cpu's, waardoor objecten en scènes veel complexer en daarmee realistischer konden worden. Tegelijkertijd ontlastte het overhevelen van deze berekeningen de processor, waarmee die een minder grote bottleneck werd en voor andere taken kon worden ingezet.

Nvidia gebruikte de investering namelijk om de NV3 te ontwikkelen, die in 1997 op de markt kwam als de Riva 128. Voor deze chip stapte Nvidia over op de inmiddels gebruikelijke driehoekige polygonen en bovendien kon de Riva 128 zowel 2d- als 3d-beelden genereren. Concurrenten als de 3dfx Voodoo vereisten nog een losse 2d-kaart. De Riva 128 werd daardoor een veel groter succes dan zijn voorgangers.

De echte doorbraak volgde echter pas in 1999, met de Nvidia GeForce 256. Dit was de eerste gpu die hardware transform & lighting ondersteunde, waarmee het berekenen van de geometrie niet langer op de processor, maar op de videokaart werd gedaan. Volgens Nvidia was het gerechtvaardigd om vanaf dit punt niet langer te spreken van een 3d-kaart, maar van een graphics processing unit oftewel gpu; de GeForce 256 ging daardoor de boeken in als 'de eerste gpu'.

Terwijl Nvidia veel succes boekte met de GeForce 256, verdwenen concurrenten als 3dfx en S3 Graphics langzaam van de markt. Alleen ATI bleef over als serieuze concurrent met zijn Radeon-kaarten. Dat bedrijf werd later overgenomen door AMD, dat tot dan toe alleen cpu's maakte.

Een GeForce 256-videokaart van de fabrikant ELSA. Bron: Tweakers
Een GeForce 256-videokaart van de fabrikant ELSA. Foto: Tweakers

Programmeerbare gpu's en CUDA

We komen langzaam in de buurt bij wat Nvidia-gpu's nou zo geschikt maakt voor AI-berekeningen. Cruciaal daarbij is het inzicht dat graphics eigenlijk ook gewoon wiskunde zijn. Afstanden, lichtval, locaties, diepte: het wordt allemaal berekend, vaak met gebruik van tabellen met getallen oftewel matrixen.

Begin jaren nul kende een gpu echter nog een beperkt aantal trucjes die de shaders, zeg maar de cores van een gpu, konden uitvoeren. Met DirectX 8 werden de programmeerbare shaders geïntroduceerd. Shaders konden niet langer alleen vaste trucjes, maar ook een soort miniprogramma's draaien om vertices en pixels te manipuleren. Langzaamaan werd de gpu zo een echte rekeneenheid.

Ander rekenwerk dan graphics

Een van de eersten die de potentie van gpu's buiten graphics voor games zag was Ian Buck, een PhD-student aan de universiteit van Stanford. Vooral in taken waarbij grote hoeveelheden data parallel worden verwerkt, waren gpu's in potentie veel sneller dan cpu's. Buck experimenteerde met het inzetten van gpu's voor generiek rekenwerk en mocht in 2004 voor Nvidia aan de slag.

Een slide uit een presentatie die Ian Buck gaf op Siggraph 2004, waarin hij laat zien hoe veel sneller de rekenkracht van gpu's toenam in vergelijking met cpu's. Bron: Ian Buck / Stanford
Een slide uit een presentatie die Ian Buck gaf op Siggraph 2004, waarin hij laat zien hoe veel sneller de rekenkracht van gpu's toenam in vergelijking met cpu's. Bron: Ian Buck / Stanford

Daar ontwikkelde hij samen met John Nickolls wat de Compute Unified Device Architecture zou worden, oftewel CUDA. Via deze software konden ontwikkelaars gpu's gebruiken voor ander rekenwerk dan graphics. Dat gebeurde bovendien in bekende programmeertalen als C en C++, in plaats van de ingewikkelde en meer voor graphics bedachte api's als OpenGL en later OpenCL.

CUDA was veelbelovend, maar werd eerst met scepsis ontvangen

De officiële release van CUDA vond plaats in 2007, samen met de GeForce 8800 GTX-videokaart. Tot dan toe hadden videokaarten vaste hoeveelheden pixel- en vertexshaders. De verhouding daartussen kwam zelden overeen met de exacte verdeling van het rekenwerk in een game, waardoor een deel van de shaders vaak niets te doen had. Vanaf de 8800 GTX beschikten gpu's over unified shaders, die beide soorten berekeningen konden doen en dus flexibel inzetbaar waren. Dat alle rekeneenheden nu voor iedere taak te programmeren waren, bood ook enorme potentie voor CUDA.

Een ASUS EN8800GTX AquaTank, gebaseerd op de GeForce 8800GTX-gpu. Foto: Tweakers
Een ASUS EN8800GTX, gebaseerd op de GeForce 8800 GTX-gpu. Foto: Tweakers

Het splitsen van shaders in verschillende soorten gebeurde traditioneel vanuit efficiëntieoogpunt; de simpelere shaders verbruikten minder stroom en namen minder ruimte in. De chip in de 8800 GTX was met 484mm² dan ook gigantisch voor die tijd. Investeerders vonden alle extra ruimte op de chip en de daarmee samenhangende hogere kosten vaak zonde, want een duidelijk verdienmodel had CUDA niet. De introductie verliep traag – drivers die het ondersteunden verschenen pas in de loop van 2008 – en de functionaliteit was in eerste instantie beperkt. Een Folding@Home-client en een video-encoder behoorden tot de eerste CUDA-applicaties die beschikbaar kwamen.

Toch bleek CUDA later een gouden greep te zijn geweest. CUDA was zowel makkelijk te gebruiken als hypergeoptimaliseerd voor de architectuur van Nvidia-gpu's, of zoals uit het voorgaande voorbeeld bleek, misschien ook wel een beetje andersom. Dat bleek een vruchtbare voedingsbodem voor de ontwikkeling van toekomstige toepassingen van gpu's, anders dan games.

(Ook) Nvidia faalde in de smartphonemarkt

Toch moet ik hier even een uitstapje maken, want het was niet alleen maar rozengeur en maneschijn bij Nvidia. Net als veel fabrikanten die traditioneel actief waren in de pc-industrie probeerde Nvidia een graantje mee te pikken van de snel groeiende smartphonemarkt na de introductie van de iPhone in 2007. In tegenstelling tot Intel, dat het met de x86-architectuur probeerde, had Nvidia door dat Arm de winnende architectuur zou zijn op de smartphonemarkt – al kun je ook beargumenteren dat Nvidia vanwege een ontbrekende x86-licentie niet anders kon.

Nvidia maakte een tijdlang eigen Android-tablets met zijn Tegra-socs. Foto: Tweakers
Nvidia maakte een tijd lang eigen Android-tablets met
zijn Tegra-socs. Foto: Tweakers

De Nvidia Tegra-socs maakten dus gebruik van de Arm-architectuur en kwamen al gauw in de eerste smartphones en mediaspelers terecht. In het begin waren die vaak nog gebaseerd op Windows Mobile, maar vanaf 2009 draaiden Nvidia's socs ook Android. Onder meer de LG Optimus 2X en HTC One X gebruikten Tegra-processors en toen later de tablethype losbarstte, werden Nvidia's chips ook in veel tablets gestopt.

Grote merken als Samsung en natuurlijk Apple maakten echter niet of nauwelijks gebruik van Nvidia's aanbod, en latere Tegra's werden vooral nog in Nvidia's eigen Shield-tablets en -mediaspelers gebruikt. Een opvallende uitzondering was en is de Nintendo Switch, waar sinds het eerste model uit 2017 Nvidia-chips met een Arm-cpu en een GeForce-gpu in zitten.

Nvidia's poging om een deel van de mobiele markt te veroveren lijkt op het eerste gezicht dus weinig succesvol, maar de ervaring die Nvidia hierbij opdeed met het gebruik van de Arm-architectuur, zou later goed van pas komen bij zijn AI-platforms.

Transformers waren 'het iPhone-moment van AI'

Dat Nvidia's CUDA klaarlag als een gespreid bedje voor ontwikkelaars, droeg eraan bij dat in 2012 het convolutional neural network AlexNet werd getraind op Nvidia-gpu's. AlexNet was de inzending van de universiteit van Toronto, Canada voor de Large Scale Visual Recognition Challenge voor de ImageNet-database, waarin de inhoud van meer dan 14 miljoen foto's staat beschreven. Het neurale netwerk had slechts in 15 procent van de gevallen de juiste categorie niet bij zijn top 5 staan, terwijl dat bij de nummer twee van de challenge 25 procent was.

Convolutionele neurale netwerken werden snel de standaard voor het classificeren en analyseren van beeldmateriaal. Deze netwerken bekijken afbeeldingen in lagen, om eerst basisvormen als randen of hoeken te herkennen en daarna steeds complexere patronen. Upscalingtechnieken als Nvidia DLSS maakten hier bijvoorbeeld gebruik van.

Van cnn's naar transformers

De paper waarin het transformermodel werd voorgesteld. Bron: Arxiv
Het rapport waarin het transformermodel werd voorgesteld. Bron: Arxiv

In het in 2017 verschenen rapport Attention is All You Need, geschreven door medewerkers van Googles onderzoeksdivisie, wordt de transformer voorgesteld als opvolger van de tot dan toe veel gebruikte convolutionele neurale netwerken. Een transformermodel hakt input op in tokens, waarvan de relevantie met andere tokens wordt gewogen, wat ook wel 'self-attention' wordt genoemd. Met deze korte omschrijving doe ik de ingewikkelde achterliggende wiskunde vanzelfsprekend geen recht, maar voor Nvidia's succes is vooral relevant dat transformers volledig te parallelliseren zijn – precies waar gpu's goed in zijn. De onderzoekers trainden het transformermodel dat ze in hun rapport voorstelden op een achttal Nvidia P100-gpu's.

30 november 2022 gaat misschien wel de geschiedenisboeken in als de belangrijkste datum van dit decennium. Het was de dag waarop ChatGPT live ging, een AI-chatbot die met honderd miljoen gebruikers in twee maanden de snelst groeiende consumentenapplicatie ooit werd. Al die mensen maakten kennis met de kracht van een transformermodel; drie keer raden waarvoor de T in GPT staat.

Een halfjaar later noemde Nvidia-ceo Jensen de introductie van ChatGPT 'het iPhone-moment van AI'. De iPhone was misschien niet de eerste smartphone, maar wel de eerste smartphone die door iedereen eenvoudig te gebruiken was. En waar Nvidia nergens was bij het originele iPhone-moment, zat het bedrijf er dit keer bovenop. GPT-3, het model waarmee ChatGPT werd uitgebracht, werd getraind op tienduizend Nvidia A100-gpu's. Voor diens opvolger GPT-4 werden 25.000 van die gpu's honderd dagen lang aan het werk gezet.

Nvidia denkt in een ecosysteem

Nvidia's aanpak om een platform te creëren in de hoop daar later de vruchten van te kunnen plukken, zou je ecosysteemdenken kunnen noemen. Videokaarten werden niet alleen verkocht voor hun primaire gebruiksdoel, gaming, maar ook voorzien van een complete softwareomgeving waarop andere partijen kunnen inhaken. Dat is niet alleen een driver, maar ook zaken als api's, library's, documentatie en plekken waar ontwikkelaars elkaar kunnen ontmoeten, zowel fysiek als online. Ook de al vroeg toegepaste tactiek om onderzoekers en wetenschappers gratis of tegen gereduceerd tarief te voorzien van gpu's (of gpu-tijd in datacenters), is een voorbeeld van ecosysteemdenken.

Als het balletje eenmaal rolt, krijg je al gauw een sneeuwbaleffect waarbij CUDA de aantrekkelijkste optie is om snel van start te gaan. Inhakende of juist concurrerende software zal vaak op basis van dezelfde bewezen stack worden gebouwd en als je tegen een probleem aanloopt, is de kans op nuttige zoekresultaten groter. Andersom zul je als gebruiker of medeontwikkelaar ook wel een Nvidia-gpu moeten kiezen, want CUDA draait uitsluitend op chips van deze fabrikant.

Introductie van de Tensor-core

Nvidia's tensor cores zijn volledig gespecialiseerd in matrixberekeningen. Bron: Nvidia
Nvidia's Tensor-cores zijn volledig gespecialiseerd in matrixberekeningen.
Bron: Nvidia

Toen dat balletje begon te rollen, leunde Nvidia niet achterover. Het begon al vroeg met het toevoegen van speciale rekeneenheden voor AI-berekeningen aan zijn videokaarten. In 2017 en 2018 werden voor het eerst Tensor-cores toegevoegd aan respectievelijk Volta (datacenter) en Turing (gaming). Deze cores kunnen in één stap matrixen door elkaar delen of met elkaar vermenigvuldigen, terwijl normale shaders daarvoor meerdere stappen nodig hebben. Tensor-cores kunnen dat alleen met een relatief lage precisie, maar dat maakt voor AI-modellen niet zo veel uit, want daarbij gaat het uiteindelijk meer om kansrekening dan om exacte waarheden. Meer of langer kunnen rekenen doordat dat sneller gaat, levert een beter resultaat op dan minder berekeningen met een hogere precisie.

In de eerste generatie Tensor-cores kon er met een minimale precisie van fp8 worden gerekend. Vanaf Blackwell kon dat ook met fp6 of zelfs fp4. Dankzij nieuwe technieken, waaronder quantisation, kunnen dergelijke gegevensformaten worden toegepast zonder een al te groot kwaliteitsverlies, terwijl de doorvoersnelheid verdubbelt met de stap van fp8 naar fp4.

Ook in het datacenter levert Nvidia niet alleen gpu's

Nvidia's ecosysteemdenken was echter nog veel duidelijker merkbaar in de datacenterwereld. In 2019 nam de gpu-ontwerper Mellanox over, een fabrikant van netwerkapparatuur voor servers en supercomputers. Nvidia betaalde 6,9 miljard dollar voor Mellanox, waarmee het tot op de dag van vandaag met afstand zijn duurste overname is. Nu supercomputers en 'AI-fabrieken' soms uit duizenden gpu's bestaan, was de beschikbaarheid van goede technologie om ze aan elkaar te knopen cruciaal.

Waar Mellanox-technieken als InfiniBand servers en racks met elkaar verbinden, heeft Nvidia ook een eigen standaard ontwikkeld om gpu's binnen een systeem op elkaar aan te sluiten. NVLink is niet alleen aanzienlijk sneller dan PCI Express – de nieuwste versie biedt tot 1800GB/s bandbreedte per gpu – maar ook complexer. NVLink kan bijvoorbeeld functioneren als een meshnetwerk of de communicatie via een switch laten verlopen.

Nvidia verkoopt lang niet alleen gpu's voor datacenter
Nvidia verkoopt lang niet alleen gpu's voor datacenters. Foto: Nvidia

Eigen processors en 'superchips'

Met de introductie van een eigen techniek om gpu's aan te sluiten op een systeem ontstond ook de noodzaak voor eigen processors. Platforms van AMD en Intel bieden immers geen ondersteuning voor NVLink en konden dat ook niet zolang Nvidia de techniek gesloten hield. Hier kwam Nvidia's eerder besproken ervaring met het maken van Arm-socs voor onder meer smartphones van pas. De eigen Grace-cpu's maken namelijk gebruik van Arm-cores en zijn verder vooral gefocust op het bieden van een enorme bandbreedte richting de gpu's.

Nvidia verkoopt zogenaamde 'superchips', een soort moederborden met daarop zo'n Grace-processor en meerdere gpu's, waarvan er in serverracks weer meerdere gecombineerd kunnen worden. Eerder dit jaar kondigde Nvidia overigens aan om NVLink open te stellen voor gebruik op cpu's van derden. Uit de aankondiging van Nvidia's investering in Intel bleek dat Intel een van de partijen zal zijn die cpu's met NVLink-ondersteuning gaat maken.

De financiële vruchten

Nvidia mocht dan wel optimaal gepositioneerd zijn voor het uitvoeren van berekeningen met gpu's en daarmee voor het trainen van AI-modellen, maar een echt AI-bedrijf zou ik Nvidia niet noemen. Het vermarkten van AI-modellen en het bouwen van AI-fabrieken doet het niet zelf; dat doen de klanten van Nvidia. Een veelgemaakte vergelijking is dat Nvidia niet zelf de goudkoorts heeft, maar de fabrikant van schepjes en zandzeven is voor iedereen die dat wel heeft. Van de echte goudkoorts weten we dat die leverancier vaak nog het meeste geld verdient.

Voordat we financiële cijfers gaan bekijken even iets dat je moet weten: Nvidia gebruikt een beetje een gekke fiscale jaarkalender. Nvidia's fiscale jaar loopt van februari tot en met januari. Het fiscale jaar 2025 eindigde dus al in januari 2025 en de negen daaropvolgende maanden zijn Nvidia's eerste drie kwartalen van 2026. De voorlopige cijfers over '2026' in de grafieken gaan dus over de periode van februari tot en met oktober van dit jaar.

In de eerste helft van de jaren 10 was de omzet van Nvidia vrij stabiel, op een kleine 5 miljard dollar per jaar. Met nettowinstmarges van een procent of tien mocht Nvidia niet klagen, maar bijzonder hoog is dat niet. Aan het einde van dit decennium stijgt de omzet, maar de winst nog veel harder.

In 2017 en 2018 vond de eerste 'cryptoboom' plaats. Videokaarten worden massaal gebruikt om cryptovaluta als ethereum te minen, wat door de sterk gestegen koers winstgevend was. Doordat de koers van cryptovaluta weer even daalde, de moeilijkheidsgraad van het minen toenam en er steeds meer specifieke mininghardware beschikbaar kwam die dat efficiënter kon dan een normale videokaart, nam de vraag vanuit deze hoek weer af. Hoewel dit Nvidia meer overkwam dan dat het bewuste strategie was, kon Nvidia tijdens deze periode voor het eerst proeven aan de omzetten en marges die mogelijk zijn als gpu's voor iets anders dan gaming worden gebruikt.

Het percentage van de omzet dat afkomstig was van Nvidia's datacenterdivisie steeg intussen gestaag. In 2014 was dat met 5 procent nog vrijwel nihil. Gaming was toen nog goed voor meer dan de helft van Nvidia's inkomsten. In 2019 was het datacenterpercentage al opgelopen naar 25 procent en in 2023 waren servers voor het eerst goed voor meer dan de helft van Nvidia's omzet. Sinds de AI-boom echt is losgebarsten, zijn negen van de tien dollars die Nvidia verdient afkomstig van datacenter-gpu's.

In de laatste jaren nam de omzet in een enorm tempo toe, terwijl ook de nettowinstmarge steeg naar meer dan 50 procent. De brutowinstmarge ligt zelfs rond de 75 procent. De beurswaarde, die als het goed is vooral een weerspiegeling is van de toekomstverwachtingen van investeerders, laat zien dat investeerders denken dat de top nog lang niet bereikt is. Na een kleine dip in het voorjaar steeg die waarde in de loop van dit jaar zo hard, dat Nvidia als eerste bedrijf ooit door de grens van 5000 miljard dollar brak.

Het beste model maak je met zo veel mogelijk en zo snel mogelijke videokaarten, of AI-accelerators zo je wil, waardoor de vraag vanuit bedrijven die AI-modellen ontwikkelen immens is. Veel daarvan zijn grote namen uit de techindustrie, Google bijvoorbeeld, maar dat geldt lang niet voor al die bedrijven. Daardoor is de interessante dynamiek ontstaan dat Nvidia als leverancier investeert in veel van zijn klanten, waaronder Mistral, xAI en in het bijzonder OpenAI. In ruil voor het kopen van miljoenen AI-chips investeert Nvidia maximaal 100 miljard dollar in die klant. Over dit rondpompen van geld en de vraag of het barsten van deze AI-bubbel onvermijdelijk is, publiceert Tweakers binnenkort een volledig artikel.

Waarom het Nvidia's concurrenten niet lukte

Het mag duidelijk zijn dat Nvidia zijn zaken goed op orde had voor het geval er nieuwe, generiekere doeleinden voor gpu's zouden opduiken. Aan de andere kant lijkt Nvidia's aanpak geen enorme rocket science en voerden concurrenten innovaties als programmeerbare shaders vaak praktisch gelijktijdig door. Waarom lukte het hen dan toch niet om zo gigantisch te profiteren van de AI-boom?

Laat ik beginnen met dat laatste te nuanceren. Intel lijkt de AI-boot totaal te hebben gemist, maar de directere concurrent AMD boekt op dit moment ook recordomzetten en -winsten dankzij de verkoop van AI-chips. Dat komt alleen ook wel een beetje doordat Nvidia lang niet aan de vraag kan voldoen. Als een AI-bedrijf voor dezelfde prijs kon kiezen tussen AMD- en Nvidia-hardware, dan zou de keuze gegarandeerd altijd op het groene kamp vallen.

Niet de hardware, maar de software maakte het verschil

Zoals uitgebreid beschreven, moet je dat niet alleen zoeken in de ruwe prestaties van Nvidia's chips, maar ook in de dominante rol die CUDA op softwarevlak speelt en in het feit dat Nvidia een completer ecosysteem heeft. AMD heeft wel een alternatief voor CUDA, ROCm, maar dat vertrok met kilometers achterstand. Bij de eerste release ervan bestond CUDA al tien jaar, wat niet alleen betekende dat er veel software voor bestond, maar ook dat ontwikkelaars erin thuis waren. ROCm werkte bovendien lange tijd niet onder Windows en niet op consumentenhardware, waardoor de drempel om ermee te gaan experimenteren veel hoger lag.

ROCm is AMD's alternatief voor Nvidia CUDA
ROCm is AMD's alternatief voor Nvidia CUDA.

CUDA-code kan niet zomaar op AMD-kaarten draaien en het automatisch laten vertalen naar ROCm haalt lang niet de maximale prestaties uit de AMD-chips, zo schrijft onder meer serverbouwer ElioVP. Zowel de ROCm-software als AMD's hardware verschilt significant van die van Nvidia, terwijl CUDA juist volledig geoptimaliseerd is voor alle typische kenmerken van Nvidia-gpu's. Handmatig omzetten van code is complex en vereist kennis van beide platforms.

Een AMD Instinct MI350X-gpu
Een AMD Instinct MI350X-gpu

Daar komt nog eens bij dat ROCm door sommige experts lange tijd scherp werd bekritiseerd. Toen SemiAnalysis de MI350X-accelerator eind vorig jaar vergeleek met de Nvidia H100 en H200, konden er alleen fatsoenlijke resultaten worden behaald doordat 'meerdere teams van AMD-ontwikkelaars hielpen bugs in de software te fixen'. Naar aanleiding van dit artikel mochten de auteurs zelfs langskomen bij AMD-ceo Lisa Su, die toegaf dat de ROCm-stack achterliep en beloofde te gaan werken aan verbetering.

Intel miste de boot compleet

Waar AMD het moet doen met een status als B-merk in de AI-wereld, kun je je afvragen of Intel daarin eigenlijk wel een status heeft. Intel wilde een rol spelen in de markt voor AI-accelerators met zijn Gaudi-kaarten, gebaseerd op de technologie van het in 2019 overgenomen Habana Labs. In plaats van het propriëtaire NVLink vertrouwde Intel op ethernet om de accelerators te verbinden. De software en het gebrek aan een ecosysteem waren misschien nog wel problematischer dan bij AMD, waardoor de Gaudi-accelerators weinig succes hadden. Inmiddels is duidelijk dat de serie na de huidige Gaudi 3-generatie wordt geannuleerd.

Een laatste trend is dat grote AI-bedrijven hun eigen chips ontwerpen voor het trainen van AI-modellen. Google doet dat bijvoorbeeld met zijn tensor processing units oftewel tpu's, terwijl Amazon eigen chips ontwikkelt onder de naam Trainium. Ook Meta en Microsoft hebben eigen AI-chips, terwijl OpenAI vanaf volgend jaar eigen AI-chips wil gaan gebruiken. Het voornaamste probleem is dat die chips uit dezelfde fabrieken van bijvoorbeeld TSMC moeten komen en de capaciteit daarvan voor de voorzienbare toekomst al is verzadigd. Zeker als de AI-hype in intensiteit afneemt en de modellenmakers weer wat te kiezen hebben, zouden deze eigen AI-chips een bedreiging kunnen vormen voor Nvidia.

Googles eigens Ironwood-tpu's voor het trainen van AI-modellen
Googles eigens Ironwood-tpu's voor het trainen van AI-modellen

Voorlopige conclusie

Het gaat te ver om te zeggen dat Nvidia de AI-boom al zag aankomen toen het bijna twintig jaar geleden CUDA bedacht, maar het is zeker niet alleen maar geluk waardoor Nvidia als geen ander kan profiteren van deze ontwikkeling. Hoewel gpu's in eerste instantie alleen werden ontwikkeld voor 3d-graphics, realiseerde Nvidia zich het beste dat gpu's voor veel meer doelen zouden kunnen worden ingezet. Onder de streep zijn graphics ook maar gewoon wiskunde.

Deutsche Telekom AI-fabriek
De opening van een Duitse 'AI-fabriek', in aanwezigheid van Nvidia-ceo
Jensen Huang. Bron: Deutsche Telekom

Nvidia legde met CUDA een stevig fundament voor het toepassen van gpu's voor andere gebruiksdoelen. Als het al niet de enige optie was voor een ontwikkelaar, dan was het toch zeker wel de toegankelijkste en gebruiksvriendelijkste. Het was dus geen toeval dat zowel het convolutionele neurale netwerk als het courante transformermodel, wat aan de basis staat van llm's als ChatGPT, in feite zijn uitgevonden op Nvidia-hardware.

Ook nu AI-chips massaal worden gekocht voor het bouwen van 'AI-fabrieken', oftewel datacenters waar AI-modellen worden getraind, biedt Nvidia het compleetste ecosysteem aan. Naast gpu's levert het ook Arm-gebaseerde cpu's, waarvoor ervaring uit het eerdere smartphoneavontuur goed van pas komt, en de interfaces waarmee de chips en de complete servers onderling communiceren. AMD holt daar zo goed en kwaad als dat lukt achteraan en profiteert zeker nu de vraag vrijwel onbeperkt is ook goed mee van de AI-boom, zij het in een andere ordegrootte dan Nvidia. Intel heeft de AI-boot intussen compleet gemist.

Toch zijn er wel bedreigingen, zoals dat steeds meer AI-bedrijven eigen chips ontwerpen en dat China de import van Nvidia-chips steeds meer aan banden legt. Die bedreigingen zullen alleen pas een rol gaan spelen als de honger naar rekenkracht niet langer groter is dan het aanbod, of als de bubbel zelfs compleet knapt. Vooralsnog is Nvidia echter de hofleverancier van de schepjes en de zandzeven tijdens de goudkoorts, een positie waarop elk ander bedrijf jaloers zal zijn.

Redactie: Tomas Hochstenbach • Video: Luke van Drie, Stijn de Wit • Eindredactie: Marger Verschuur

Lees meer

Reacties (57)

Sorteer op:

Weergave:

Als bijna 90% van de omzet alleen van AI afkomstig is dan is het nog oppassen voor Nvidia. Mocht de vraag afnemen dan is er geen fatsoenlijke backup waarmee ze omzet en winst kunnen behalen.

In dat opzicht is AMD een stabielere bedrijf dat niet op 1 paard wet. Doordat meerdere game consoles met AMD chips worden uitgerust en hun gpu's betaalbaarder zijn dan Nvidia op dit moment, zal hun fanbase groeien en ook gamemakers zal meer op AMD gpu's gaan richten.
Volgens mij is Nvidia hier juist prima op voorbereid met CUDA, waarop alles dat goed paralleliseerbaar (wat een woord) als een trein loopt. Ik wist niet dat AMD daar eigenlijk niet echt een goed antwoord op heeft.

En ook met DLSS heeft Nvidia (hoe vervelend ook) volgens mij in de gaming sector betere kaarten in handen dan AMD met FSR...
AMD is bezig met AMD ROCm. Maar ze hebben nog een lange weg te gaan om aandeel te krijgen en om op gelijkehoogte met CUDA te komen. AMD is over het algmeen meer open source georienteerd, maar is daardoor minder cutting edge.


Op de cpu market innoveren ze wel, maar op veel vlakken heb ik het idee dat ze alleen maar Nvidia navolgen en het concept naboosten en de open source strategie hanteren om enigsinds relevant te blijven, en dat vind ik jammer. Nieuwe technologie creert mogelijkheden en voor de consument is dat een win win

[Reactie gewijzigd door Brawler1986 op 20 december 2025 09:15]

AMD is over het algmeen meer open source georienteerd, maar is daardoor minder cutting edge.
Is dat niet eerder andersom? Ze zijn minder cutting edge, en moeten daarom andere selling points hebben, zoals open source / open standaarden.
Beide zijn denk ik waar. Ik denk dat ze wel bewust kiezen voor open source om meer adoptatie te krijgen, het nadeel van deze strategie is dat je met software een brug moet slaan tussen een breder scala aan devices en systemen en dus meer een interface moet creeeren wat ten koste gaan van overhead en performance integenstelling tot dedicated hardware zoals Nvidia heeft met bijvoorbeeld FPGA modules in monitoren.
Dat valt tegenwoordig wel mee met de huidige en komende versies van FSR.

Voorgangers, FSR 3.0 en ouder, liepen inderdaad een heel stuk achter op de toenmalige DLSS versie.
Mwah, FSR3 is ook reeds goed genoeg voor wat het moet doen (framerate boosten en non-native resoluties netjes upscalen voor LCD/OLED panelen). Nvidia fans liepen reeds weg met DLSS toen DLSS op FSR3 niveau presteerde. En FSR4 is effectief gewoon gelijkwaardig.

Met alle respect voor het werk van Digital Foundry, maar je moet het pixelneuken met 2x/4x zoom bij slowmotion niet in de weg laten staan van plezier hebben in games.

Super interessant vanuit technisch oogpunt, maar om het nou doorslaggevend te maken zou voor mij enkel van toepassing zijn wanneer alle andere factoren, zoals RAM, prijs, drivers, gelijk waren. En dat is niet het geval.
Zelfs dan kan je die 90% niet ineens opvangen met andere toepassingen.

Als je ziet hoe absurd veel geld in AI is gepompt en hoe dat ook is rondgepomt, zal er ergens een klap komen. Nvidia kan bij het wegvallen van een groot deel van de vraag niet zomaar vervangende vraag creëren.

Ik hoop dat ze daar rekening mee houden.
Dat zullen ze ongetwijfeld doen. Desalniettemin is het voor bedrijven met winstoogmerk een geval van “pakken wat je pakken kan”. Als de vraag naar je product daarna flink instort, is dat slechts een probleem voor later.

Bovendien wordt het opgevangen met exorbitant hoge prijzen en winstmarges. De vraag is hoger dan het aanbod.
Voor gaming gaat het om prijs/kwaliteit. AMD heeft met de RX 9070 XT toch wel een veel betere value kaart dan zijn directe tegenhanger, de RTX 5070 Ti. Die is meer dan 100 euro duurder, en niet echt sneller. nVidia heeft ook nog eens de verplichte 12V2X6 connector die soms smelt. nVidia verkoopt eigenlijk nu nog zo goed vanwege naamsbekendheid en premium imago. AMD staat berucht om instabiele drivers en hoog verbruik, maar dat is met deze laatste generatie totaal niet meer aan de orde.

DLSS, FSR en XESS hebben allemaal hun voor- en nadelen. Eigenlijk is upscaling uitgeschakeld nog steeds het beste voor de grafische kwaliteit.
In dat opzicht is AMD een stabielere bedrijf dat niet op 1 paard wet.
Het is niet zozeer de Nvidia op 1 paard heeft gewed (AI), maar dat AI op Nvidia heeft gewed. Ook op zo ongeveer elk ander gebied zijn ze groter dan AMD (enkel de semi-custom markt voor consoles niet denk ik zo, ja en natuurlijk de CPUs). Maar AI is simpelweg zo enorm gegroeid dat de rest klein lijkt. Terwijl de gaming markt simpelweg niet veel groeit. En zeker Nvidia daar niet verder kan groeien, omdat ze al ~92% marketaandeel hebben (nieuws: Intel haalt voor het eerst 1 procent marktaandeel met zijn Arc-videokaarten).
Die 92% gaat echter voorbij aan de werkelijke gamingwereld, waar je de consoles en mobile ook toe dient te rekenen. Anders is het een beetje als wereldkampioen worden in Amerika :)

Dat is meteen een factor waarin Nvidia niet mee kan doen: APUs. Daar hebben ze immers enkel hun Tegra als succesnummer, terwijl AMD en Intel complete APUs voor laptops en Playstations weten te bieden.
Dat is idd de semi-custom markt, maar fair enough, dat hoort ook bij de gaming markt als geheel. En ik zou zeggen gelukkig maar dat AMD het daar goed doet, want als Nvidia daar ook 90%+ marktaandeel had, dan was er echt niks behalve Nvidia.
Zeker weten. Het houdt bij AMD ook de druk er op denk ik, vanuit Sony, om dus niet te ver achterop te raken. Niet dat PSSR zo geweldig is, maar het was wel weer een stap in de juiste richting.
Nvidia blijft wel bestaan. Het bedrijf maakt absurde nettowinstmarges van boven de 50%. Ze kunnen hierdoor ook veel meer investeren dan de concurrentie door schaalgrootte en daardoor kunnen ze de technische voorsprong behouden.

Maar dit soort winstmarges zijn natuurlijk niet houdbaar. Er zal concurrentie komen en dan komen die marges onder druk te staan.

Dit is geen risico voor de continuïteit of marktpositie van het bedrijf, maar wel voor de aandeelhouders.
Ah, ja, doemdenkers ook altijd. Scaling Hypothesis in AI zegt gewoon dat ze voor AGI en daarna ASI alleen nog maar exponentieel meer rekenkracht nodig hebben voor lineaire verbetering in AI modellen...
Ik zou het geen doemdenken noemen. Ik vermoed dat de bubbel wel een keer barst, niet omdat ze niet steeds meer rekenkracht nodig hebben om die dingen die jij noemt te halen. Maar omdat er geen goed of verstandig verdienmodel onder de hype zit. Wie blijft dit sponsoren? Heel veel open source of iig vrij beschikbare modellen kunnen 80% van de 'echt nuttige' taken ook wel uitvoeren (dit zuig ik uit mijn duim, werkelijke percentage kan flink lager liggen, maar ik denk van niet). Waar de grote jongens er op wedden dat de investeringen hoog kunnen blijven tot we AGI en Skynet bereikt hebben vind ik de sprong van bijvoorbeeld ChatGpt4 naar 5 niet spectaculair voor de praktische toepassingen...

Er valt geen winst te maken, de nuttige inzet heeft het extreme tempo niet nodig van investeringen maar zal veel meer geleidelijk gaan. Dus ik verwacht wel een stevige correctie waar Nvidia zeker niet van in de problemen gaat komen, maar de beurskoersen wel. En vlak daarna is het mss een leuk moment om te kijken of je een nieuwe GPU op de kop kan tikken (als je je pensioenbericht afgewacht hebt). ;)
Wat? Ik zou juist kijken naar wie het meeste geld verdient aan Nvidia GPU's voor AI. Dat zijn de infrastructuurbedrijven (datacenters) die de GPU's verhuren aan de AI-bedrijven zoals OpenAI en niet de AI-bedrijven zoals OpenAI zelf!

Bijvoorbeeld (stand eind 2025, recente kwartalen):

Microsoft Azure met zo'n 30-40% meer jaarlijkse omzet mede dankzij de Nvidia-chips (AI draagt vaak 15+ procentpunt bij aan de groei, recente Azure-groei rond 33-39%).
Amazon Web Services (AWS) met zo'n 20% meer jaarlijkse omzet dankzij de Nvidia-chips (recente groeiversnelling tot rond 20%).
Google Cloud met ook zo'n 30-35% meer jaarlijkse omzet dankzij de Nvidia-chips (sterke groei rond 34%, deels door AI-infra).
Cloudproviders zijn als de verkopers van houwelen en scheppen tijdens de AI-goudkoorts: ze verdienen betrouwbaar aan de opbouw van de infrastructuur, terwijl pure AI-bedrijven de goudzoekers zijn die schatrijk kunnen worden als de modellen onmisbaar worden en de kosten dalen, maar nu enorme bedragen uitgeven om daar te komen.

Ter aanvulling: Nvidia zelf heeft nog steeds brute marges (gross ~73-75%, netto rond 53%), maar de cloud-giganten vangen een groot deel van de recurring omzet op via verhuur en schaal. De echte winnaars nu zijn dus niet de goudzoekers (OpenAI/Anthropic/etc.), maar de verhuurders van de mijnen + houwelen. Voorlopig blijft de infrastructuur-kant (Nvidia + clouds) het meest solide.

[Reactie gewijzigd door licon op 25 december 2025 08:47]

Er valt geen winst te maken was mss wat te stellig. Maar op dit moment valt de omzet die er gemaakt wordt wel in het niet tegenover de extreme investeringen. En Idd Nvidia verdient alleen maar. Maar de cloud aanbieders moeten hun data centra ook nog kunnen verhuren als de investeringen wegvallen.

Dus ja er valt winst te maken nu door bedrijven, maar in de koersen zit een aanname dat dat zo blijft. En dat kan imo wel eens snel veranderen. Maar goed, wie het weet mag het zeggen idd.
Dat komt mede omdat de afzetmarkt voor nvidia gpu,s veel te duur is gewone console makers hebben graag wat goedekoper spul in hun console zitten en daarom zijn deze gpu,s gewoonweg veel te duur voor geworden bovendien zitten ze ook nog met dat geheugen te klooien deze zou ook veel te duur zijn.
Als bijna 90% van de omzet alleen van AI afkomstig is dan is het nog oppassen voor Nvidia.
Dat kan je ook zeggen van Cocacola die het vooral van frisdrank moet hebben.

Ik ben het niet eens met uw analyse: AI is overkoepelende term net zoals Frisdrank of landbouw dat is. AI is natuurlijk volatieler omdat het nu aan het boomen is maar bedrijven zoals TSMC die de chips maken lopen meer risico omdat als de vraag met 50% zou teruglopen door een correctie dan zitten ze nog wel met al die machines en productiehallen. Nvidia verkoopt dan gewoon minder en hun kosten zakken samen mee zodat ze weer rendabel kunnen zijn.

Ik zie AI wel niet direct crashen. Mss een correctie over enkele jaren waarbij de investeringen in datacenters afnemen maar nu is iedereen nog haastig AI-software aan het ontwikkelen om de beste te zijn. De potientiele inkomsten zijn voor de winnaars extreem.

1dev kan tot $200.000 dollar per jaar kosten. Als AI dat goedkoper gaan dan weet je nu al dat ze $2k/maand per agent per dev aanvaardbaar wordt omdat het bedrijf met minder devs meer code kan onderhouden en bijcoderen.

En dan heb ik het nog niet over alle andere efficientievoordelen van Agentic services. Zelfs gynaecologen scannen nu de gezondheid van een feutusen via AI. Dus met 5min scannen krijgen ze een volledig rapport van de hersenen, hartklepfunctie, ruggengraat etc.

AI is een overkoepelende term en al wie denkt dat AI iets tijdelijk is dat wel weer gaat liggen heeft het mis. De toepassingen gaan alleen maar breder en complexer worden. Heel onze industrie zal AI-driven zijn. Heel onze economische groei zal AI-driven zijn = meer produceren met minder = groei = Industrie 4.0.

Het kan bijna niet anders dat Nvidia daar concurrenten bij zal krijgen. De winsten zijn daarvoor te groot. Al kan het nog 5jaar duren alvorens ze zich daar echt zorgen over moeten maken.

Ze hebben ook nog veel marge om de prijzen te laten zakken moest de markt afkoelen. Dus we zijn nog niet snel van Nvidia af.
Heel onze economische groei zal AI-driven zijn
Waar is dat "zal" (wat niet anders te lezen is dan 'met grote zekerheid') op gebaseerd? Is er, buiten de nog steeds uiterst matige LLM's, iets wat ik gemist heb?

De huidige 'AI' kan, zelfs vergeleken met de laagste verwachtingen uit de beginperiode, nog bizar weinig...
Dat veel mensen zich zo makkelijk laten 'betoveren' door LLM's zegt duidelijk meer over het (enorme) tekort aan vermogen tot kritisch denken en (zelf)reflectie dan over (de toekomst van) AI.

Maak mij maar wakker als er echte AI doorbraken zijn!
Het is nog steeds 'dikke hype' (ondanks zeer weinig vooruitgang) gecombineerd met 'er zit nu zoveel geld in dus moet het wel fantastisch zijn', dat dit ook duidelijke 'bubbel staat op barsten signalen' zijn moeten we maar gewoon volledig negeren blijkbaar...
Ik herinner me nog dat toen de Turing GPUs uitkwamen (de 20XX serie), er veel commentaar in de reacties hier op Tweakers was op de Tensor cores. Ze kostte veel chip area, maakte de chips duur, en waren redelijk in de richting van nutteloos volgens genoeg.

Los van dat ze voor gaming tegenwoordig ook goed worden gebruikt (DLSS), lijkt dat toch wel echt een voor Nvidia hele goede stap te zijn geweest om die toe te voegen.
Dat maakt het voor de consument natuurlijk niet beter en het commentaar niet minder valide.
Zoals ik ook schreef, DLSS is toch wel een redelijk integraal onderdeel geworden voor de ervaring van consumenten, dus dat maakt het voor de consument wel beter. Daarnaast doet Nvidia natuurlijk dingen voor Nvidia.
Mwoah, of DLSS goed is kun je over discussiëren. :)

Dat Nvidia dingen doet voor Nvidia was ook de reden voor het commentaar.
Nvidia lijkt de keerzijde van zijn enorme groei te beseffen en daarom in zijn eigen klanten te investeren. Benieuwd of dit voldoende zal zijn.

Daarnaast is het risico, omdat ze geen eigen fabrieken hebben, ook relatief beperkt.
Is er werkelijk "enorme groei" of is dit de grootste 'investment cirkel jerk' die de wereld ooit gezien heeft?
Voor Nvidia, voorlopig, wel. Voor alle andere AI-bedrijven is dat sterk de vraag.
Waarom "Nvidia (voorlopig?) wel"? Dat vraagt toch echt om iets meer uitleg...
Ik zie namelijk, ook in het geval van Nvidia, niets 'tastbaars' (lees; groei die niet uit cirkel investeren afkomstig is) zolang het product AI nog geen enkele winstgevendheid vertoont.
Geen eigen fabrieken is juist gunstig. Als de ai bubbel barst hoeven ze dat niet voor een habbekrats te verkopen. Enkel RnD ontslagen.
“Een opvallende uitzondering was en is de Nintendo Switch, waar sinds het eerste model uit 2019 Nvidia-chips met een Arm-cpu en een GeForce-gpu in zitten.”

De Nintendo Switch kwam toch in 2017 uit, of gaat het in het artikel specifiek over de V2 uit 2019?
Dat moest inderdaad 2017 zijn, scherp gezien. Fixed!
Is hoogste beurswaarde gelijk aan waardevolst? …
Met "hoogste beurswaarde gelijk aan waardevolst" niet als feit te stellen heb je zeker een punt.

Zolang ze blijven innoveren en niet zoals Intel achterover gaan leunen omdat ze veruit de grootste zijn, is het een waardevol bedrijf. Daarbij kan je wel een vraag stellen bij de monopolie positie die men inneemt met de bijbehorende prijzen.

Zodra de concurrentie echter meer weet te innoveren, ook al zijn het veel kleinere bedrijven, zal de markt heel snel kunnen verschuiven zoals afgelopen jaren een andere processor strijd heeft laten zien.
Wat maakt een bedrijf waardevol? Dat zijn altijd de producten of diensten die ze verkopen. Een hoge beurswaarde kan de volgende dag de helft zijn, terwijl de producten van het bedrijf nog steeds zeer waardevol zijn. De PE (price to earnings) kan je veel vertellen over de verhouding tussen de prijs van het aandeel en de winst per aandeel.

Bij nvidia is de PE nu 44.48. die van AMD is 113.55 en die van Intel 4124

Dit is een moment opname. Hoe hoger de PE hoe meer een bedrijf overgewaardeerd is of investeerders schatten de kans hoog op toekomstige groei. Hoe lager de PE hoe meer een bedrijf ondergewaardeerd is of investeerders zijn pessimistisch over de toekomst van het bedrijf.

Bij nvidia is de PE wel goed, momenteel leveren ze veel waarde op en dat zien investeerders ook. Intel aan de andere kant zit in een hele moeilijke hoek. De winst is sinds 2021 aan het kelderen en alleen het derde kwartaal van 2025 laat een positief beeld zien. Aandeel is wat mij betreft behoorlijk overgewaardeerd. Tenzij ze met iets geweldigs komen... Wat dat betreft is beurswaarde soms wat de gek ervoor geeft ;)
PE is Price Earnings en dat is Prijs Winst (moest het even opzoeken, het had ook Prijs Omzet kunnen zijn). Als je als bedrijf ooit een jaar verliles maakt is die ratio gelijk oneindig. Zowel Intel als Nvidia hebben natuurlijk ook bezittingen en potentie om die bezittingen in te zetten. Nvidia heeft op dit moment nu eenmaal (een recept voor) een kip met gouden eieren.
Als je bedrijf verlies maakt dan is de PE negatief. Het is een moment opname en je moet het in een veel bredere context zien en over langere periode. Het is één van de markers waar je naar kijkt als je investeert, maar niet de enige.
In de economische wetenschap is het gangbaar om daarmee te rekenen. En de auteur bedoelt dan ook enkel waardevol is financiële zin. Dat is eenduidig te meten, in tegenstelling tot waardevol in niet financiele zin.
Ik vind het jammer dat de gaming divisie ondergeschoven is geraakt. Hopelijk komen we met wat innovatie ooit weer bij beter betaalbare GPU’s uit
Zoals Sebiastian Aaltonen beschrijft zou gaming in theorie kunnen meeliften op deze makkelijk programmeerbare GPU's.
Klinkt goed maar ik hoop alleen dat we bij het wegstrippen van 30 jaar aan legacy API-design niet ook de retro-compatibiliteit ''met het badwater weggooien''.
Voorlopig lijkt Nvidia juist alleen maar steeds minder geintereseerd in Geforce.. Zie o.a.: https://www.techradar.com/computing/gpu/uh-oh-nvidia-could-drastically-reduce-supply-of-its-rtx-5000-gaming-gpus-in-2026-cutting-production-by-up-to-40-percent

Resultaat zal waarschijnlijk weer hogere prijzen zijn helaas..
Nvidia heeft niet alleen goede chipontwerpers, maar ze zijn vooral heel goed, om de markt in de gaten te houden. Ze houden alle ontwikkelingen goed in de gaten, kijken wat de grootste ripple maakt en afhankelijk van hun portfolio, duiken ze erin, waarbij ze hun prioriteiten verschuiven, hun toeleveranciers bijpraten en vroegtijdig productie inkopen (reserveren) bij de beste chip bakker. Dat leidt ertoe dat ze snel en veel producten kunnen aanbieden, vertrouwen opbouwen en het balletje begint te rollen.

Een andere groot bedrijf die precies dezelfde werkwijze handelde was Samsung. De panelen afdeling die eerst CRT monitors produceerde, zag dat platte panelen sneller te produceren waren, betere beeld, meer kleuren konden leveren en sneller op te schalen waren, dumpte hun CRT afdeling en zetten vol in in platte panelen, de rest is history.

Hetzelfde met de harde schijven, ze hebben een geheugen chip producerende afdeling in hun portfolio. Hetzelfde verhaal, de harde schijven gedumpt en vol ingegaan op geheugen chips. Toegegeven ze hebben wat vertrouwen verloren door corruptie schandalen en hardware errors, maar hun handelswijze is hetzelfde als Nvidia.

Qualcomm heeft'n vergelijkbare handelen, alhoewel ze niet zo breed inzetten qua producten aanbieden, houden zij ook de markt scherp in de gaten en handelen op de Amerikaanse manier, overnames van kleinere, veelbelovende bedrijven die in hun straatje passen en gaan met die banaan.

Al deze leidende bedrijven hebben dus'n vergelijkbare formule om succesvol te worden, begeerde producten aan te bieden en te groeien.
De VOC is nog steeds het bedrijf met de hoogste beurswaarde ooit als het omgerekend word naar huidige maatstaven. De waarde zou 7.9 biljoen dollar zijn in 2017

https://www.rtl.nl/economie/beurs/artikel/3762251/onze-voc-was-het-allergrootste-beursfonds-ooit
Waarom ze het meest waardevol zijn geworden? AI, dat is waarom. Geen ellenlang verhaal voor nodig.
En waarom zijn andere bedrijven vanwege AI niet het meest waardevol geworden? Daarvoor is dus een "ellenlang" verhaal nodig. (Niet dat het zo lang is, gewoon een interessant stuk geschiedenis hoe ze zijn gekomen waar ze nu zijn).
De kracht van Nvidia, de ijzersterke software ondersteuning, is echter ook een risico. Eerder heeft Nvidia door een driver update dubble position berekeningen voor wetenschappelijke doeleinden softwarematig sterk beperkt op consumenten GPU's (al weer tien jaar geleden en nog voor de hardware lock op de rtx 2080 ti). Geen garantie dat onderdelen van de CUDA code ook niet achter een slotje komen. Let wel, wetenschappelijk is CUDA een revolutie en geweldig, er is geen goed alternatief voor. Maar of het duurste bedrijf ter wereld met een strikte patent en bescherm strategie (https://insights.greyb.com/nvidia-patents/) altijd transparant en open blijft met CUDA is een risico dat je moet afwegen.

Om te kunnen reageren moet je ingelogd zijn