Nvidia komt met opvolger Blackwell-AI-chips met aanzienlijk betere prestaties

Nvidia presenteert tijdens CES 2026 een nieuw platform dat de populaire Blackwell-chips voor AI-datacenters moet opvolgen. Het zogenoemde Rubin-platform bestaat uit zes nieuwe chips, waaronder een Vera-cpu en een Rubin-gpu. De AI-supercomputer moet in de tweede helft van 2026 op de markt komen.

Het Rubin-platform bestaat uit zes chips, namelijk de Vera-cpu, Rubin-gpu, de NVLink 6-switch, de ConnectX-9 SuperNIC, een BlueField-4-dataprocessor en de Spectrum-6-ethernetswitch. Nvidia claimt dat het platform vergeleken met Blackwell tot tien keer minder tokens vereist voor AI-inferenceopdrachten, ofwel het toepassen van een getraind model op nieuwe data, en tot vier keer minder gpu's vereist om bepaalde taalmodellen te trainen.

Nvidia Rubin-chips

Volgens Nvidia is een dergelijk systeem in staat om met een Rubin-gpu een rekenkracht van 50 petaflops te behalen voor AI-inference tegenover 10Pflops met Blackwell. Dat is wel op basis van het eigen NVFP4-floatingpointformat. AI-training zou met 35Pflops mogelijk zijn tegenover 10Pflops met Blackwell, wederom op basis van het eigen dataformat. Een Rubin-gpu heeft een bandbreedte van 3,6TB/s en heeft 336 miljard transistors. Ter vergelijking: een RTX 5090 heeft een geheugenbandbreedte van 1,8TB/s en ongeveer 92 miljard transistors.

De Vera-cpu's van Nvidia bestaan uit 88 Olympus-cores gebaseerd op Arm64-architectuur. Deze processor heeft 227 miljard transistors en ondersteunt een geheugenbandbreedte tot 1,2TB/s, het dubbele ten opzichte van de voorgaande Grace-cpu's. Daarnaast wordt tot 1,5TB Lpddr5x-geheugen ondersteund, wat een verdrievoudiging is. De cpu ondersteunt PCIe Gen6- en CXL3.1-geheugen.

Nvidia Vera Rubin-specsNvidia Vera Rubin-specs

Racks en datacenters

De eerste cloudproviders moeten in de loop van 2026 toegang krijgen tot de nieuwe Vera Rubin-systemen van Nvidia. Onder meer Amazons AWS, Google Cloud en Microsoft gaan de nieuwe AI-datacenterproducten van Nvidia gebruiken.

Het gaat in het geval van Microsoft om een Vera Rubin NVL72-systeem, wat een unified datacenterrack is dat onder meer uit 72 Rubin-gpu's en 36 Vera-cpu's bestaat. Dit systeem heeft een totale gpu-geheugenbandbreedte van bijna 260TB/s en ondersteunt 800Gb/s via Nvidia's InfiniBand-ethernet.

Er komt ook een HGX Rubin NVL8-platform beschikbaar. Dit noemt Nvidia een serverboard met acht Rubin-gpu's dat via NVLink 6 moet werken met x86-gebaseerde AI-platforms.

Nvidia Vera Rubin-systeem

Door Yannick Spinner

Redacteur

06-01-2026 • 13:08

53

Reacties (53)

Sorteer op:

Weergave:

Mooi om te zien dat ze zoveel in een klein chipje kunnen bakken, alleen wel weer erg jammer dat het allemaal voor dat lompe AI is en de gamers weer met de gebakken peren zitten.
Aangezien de CEO van Nvidia constant bang is om failliet te gaan, richt hij zich op de markt waar het meest verdient wordt.
Amai haha, dus hij beseft wel dat de bubbel op elk moment kan knappen
Ik denk niet dat het een bubbel is, maar eerder een concurrentie probleem.

Vroeger was kennis topgeheim voor grote bedrijven, en hierdoor konden andere bedrijven nooit concurreren omdat ze niet over die speciale kennis beschikten (zoals ASML heeft voor chipproductie)

Maar door AI is dat veranderd, eender welk bedrijf kan nu beschikken over de nodige kennis om speciale kaarten te produceren(zoals gpu's, cpu's), of om robots te maken, of speciale medicatie, of eigenlijk eender wat.

Dus nu zie je allemaal kleinere spelers afkomen met cutting edge technologieen die concurreren met grote bedrijven zoals Nvidia. Het is dus geen AI bubbel, maar een 'legacy kennis" bubbel, in die zin dat beschikken over topsecret kennis niet meer je overleving garandeerd. Een nvidia of asml van vandaag kan vervangen zijn volgend jaar door een heel ander bedrijf. En zelf als het die niet vervangt, dan gaat de concurrentie de inkomsten zwaar onder druk zetten waardoor ze ook failliet kunnen gaan.
Heb je een voorbeeld van wat je beschrijft?

Het lijkt me heel sterk dat specifieke kennis wat maar enkele bedrijven bezitten nu ineens ontsloten worden door AI. Deze kennis is niet openbaar en het resultaat van decennialange research. Het is goud waard, wordt zeer goed bewaakt. Daarom worden bedrijven als ASML en Nvidia dag in dag uit bestookt met hackpogingen en verdienen hun werknemers zeer goed.
Ik kan niet van alles een voorbeeld geven omdat ik hier geen paper wil schrijven, maar één van de allermoeilijkste zaken om chips te maken is chip architectuur, dat had vroeger 2 a 3 jaar tijd nodig om te weten hoe je alles met elkaar moet verbinden (elektrische paden van de circuits in de cpu's,GPU's,NPU's,etc).

Om dat te doen had je een groot bedrijf nodig, met extreem goede engineers die gespecialiseerd zijn in dat vak, en moest je dat maken en testen. Maar nu zijn er AI modellen gemaakt die zowel de architectuur van een chip kunnen tekenen als de resistentie paden simuleren, hierdoor worden die 3 jaren en expertise herleid naar een paar minuten zonder expertise en zonder meermaals te moeten sampelen om te testen.

Google had als eerst zo een model gemaakt, en die noemde Alphachip:
https://deepmind.google/blog/how-alphachip-transformed-computer-chip-design/

Een paar maanden later hadden ze hun eerste chips die van de band rolden die Ai training konden doen zonder Nvidia expertise of patenten. De hele Gemini 3 familie is daarmee gemaakt. Hier is wat meer uitleg daarover: YouTube: Why Google Just Ended Nvidia's AI Monopoly

Het straffe is dat er intussen zelf opensource modellen gemaakt zijn, die deze chips kunnen maken. Stel je nu voor dat je veel geld geinvesteerd hebt in Nvidia omdat zij zogezegd koploper zijn, dan gaat je aandeel zeer binnenkort naar beneden donderen, want nvidia heeft nu concurrenten waar het er vroeger nooit had (het liep jaren voor op anderen), er is een reden dat de CEO van nvidia zich erg zorgen maakt, het word zeer moeilijk om zich te blijven onderscheiden. Zelf AMD komt nu met chips die Nvidia waardig zijn, kijk bijvoorbeeld naar het parade paardje van Nvidia "DGX sparx", terwijl AMD met zijn 1 jaar oude 395+ chip net sneller is dan nvidia (die dubbel zoveel kost) , en zelf meer kan doen.

De wereld orde en ons begrip van economische technieken die jaren gewerkt hebben, zijn aan het veranderen. Dat is de reden dat ik nergens meer durf in te investeren. Zelf Robots kan door iedereen gemaakt worden, het is geen speciale niche meer, door AI modellen

[Reactie gewijzigd door sebastienbo op 6 januari 2026 17:25]

Je gaat heel kort door de bocht. Die modellen laten je uiteraard niet toe om een chip te maken, daar komt enorm veel input, testing en packaging bij kijken.
Iedereen die een op software schrijven taalmodel gebruikt heeft weet dat het zeer krachtig is, maar ook heel wat kennis en bijsturing vraagt.

AMD loopt nog een heel stuk achter met zijn AI chips.

Ik zou ook bezorgd zijn als CEO van Nvidia, maar dan vooral dat de bubbel barst, niet dat iemand anders kan wat zij kunnen.
Ik zeg niet dat jan en alleman op straat het kan doen. maar de kennis en tijd voor de meest compelxe zaken valt weg voor bedrijven (of overheden) die het vroeger niet konden maar wel kapitaalkrachtig genoeg zijn om iets gelijkaardig te maken. En AI kan ook gemakelijk gebruikt worden om patenten te omzeilen (op basis van een methodologie kan hij een andere methodologie bedenken die niet valt onder die patent)

Een voorbeeld zou kunnen zijn dat een patent een bepaalde procédé uitgevonden heeft voor een speciale metaal te maken die geleiding verbeterd door x koper te mengelen, met y cobalt, aan z temperatuur. Niemand kan hierdoor deze samenstelling gebruiken in zijn chips. Maar AI kan dankzij die hint zelf moleculaire eigenschappen analyseren van die metaal samenstelling en zelf met andere molecules afkomen die zelfde eigenschappen zou creeren. Dat word al gretig gedaan in de medische wereld door gebruik te maken van protein folding AI van google (dewelke initieel bedoeld is voor proteine folding te voorspellen, maar dus ook gebruikt kan worden om gelijkwaardige andere proteinen te vinden die gelijkaardige eigenschappen hebben).

Ik zie niet waar jij denkt dat AMD achterloopt, kijk maar naar die DGX sparx paradepaartje(van nvidia) versus de AMD 395+ benchmarks voor LLM's te draaien. En ook de chips van google zijn nu gelijkwaardig of zelf beter geworden dan Nvidia (althans voor matrix berekeningen -> voor LLM's te maken of te infereren) . Ook intel heeft haar achterstand in de laatst 6 maanden serieus ingehaald dankzij AI analyses, het zou me dus niet verwonderen dat de komende intel chips een stuk beter gaan worden na jarenlang achtergelopen te zijn. Hun drivers is daar een goed voorbeeld van, dat was de grootste achileshiel van intel. Hun laatste drivers zijn echter extreem efficient aan het worden (dankzij ai).
Deze video van CBC legt heel goed uit waarom het wel degelijk een bubbel is:

YouTube: If the AI bubble pops, will the whole U.S. economy go with it? | About That

Het heeft vooral te maken met de uitgave. Alle AI-aanbieders zijn op dit moment enorm verliesgevend. Precies om die rede kan je over de acties van zowel Nvidia als OpenAI speculeren. OpenAI koopt 40% van alle RAM wafers op, en Nvidia zou van plan zijn om zijn om de prijzen van videokaarten significant te verhogen. De enige manier van OpenAI om een eventueel faillissement het hoofd te bieden is door de inkomende geldstroom aanzienlijk te verhogen. Mijn insteek (en daar wordt o.a. door Gamers Nexus over gespeculeerd) is dat ze met deze hardwareschaarste er naartoe willen dat mensen gaming als SAAS dienst gaan afnemen. Geen eigen hardware meer, maar maandelijks betalen voor gaming over het internet.
Als je micro economie zou geleerd hebben, dan zou je tussen de lijnen zien waar dat video echt over gaat, het is niet de AI dat de bubbel is, maar het feit dat er te veel geinvesteerd word in AI alleen en dan nog wel specifiek in Amerikaanse bedrijven alleen. Elke persoon dat ooit aandeleen heeft gekocht weet dat hij moet zijn portefeuille differcifieren zowel op wat je aankoopt (technologie, grondstoffen,etc..) maar ook buiten je eigen land (want anders als daar iets gebeurd zoals een oorlog of natuurlijk fenomeen of een slechte president, dan vervliegt je hele portefeuille)

Die video is duidelijk gemaakt door mensen die micro economie niet begrijpen. AI is echt geen bubbel, de technologie bestaat en groeit exponentieel,dat gaat nu niet meer vertragen en heeft gevolgen ook voor robotica,geneeskunde,biologie,chemie,wiskunde,fysica,etc..). Maar de vraag is hoe je moet investeren en waar. Want als je denkt dat al die amerikaanse bedrijven (of zelf asml in NL) over twee jaar nog steeds koplopers zijn, dan zal je investering imploderen als een bubbel (en dat is de echte bubbel -> het is dus een investeringsbubbel specifiek voor amerika).

Langs een andere kant, iedereen weet dat je verlies moet maken om al je concurrent ver achter je te laten en geen nieuwe concurrenten te krijgen, je lage tarief zorgt er voor dat andere bedrijven hun kostenbaten berekening negatief zal maken. Zo investeren zij niet. Dat is althans de techniek die amerikanen de laatste 80 jaar toepassen (zowel in de prive als de overheid), maar nu tonen de chinezen dat ze gelijkwaardige technologie kunnen maken met veeeel minder geld, en dat brengt dat hele principe nu in gevaar. Zie maar hoe Qwen3, Deepseek of MinMax met heel weinig geld gelijkwaardige modellen maken als google en openai. En om het nog erger te maken hebben zij hun modellen opensource gemaakt waardoor iedereen in de wereld dezelfde technologieen kan maken, maar nog erger: de investeringen in amerikaanse bedrijven remt, want het is niet zo speciaal of uniek, als een opensource technologie bijna even goed is. De huidige QWEN3 modellen zijn intussen al beter geworden dan chatgpt5 of gemini 2.5 pro dat amper 6 maand oud zijn.

Het opensource maken van die modellen is geen vriendelijkheid van de chinezen, het is een bewuste strategie om de AI macht van de verenigde staten in te tomen. De meeste privé software maakt gebruik van die opensource modellen (voor privacy redenen), dus niet van de amerikaanse super modellen die een paar punten hoger scoren op de AI intelligence index. Wie wil namelijk die dependency? Het is daarom dat openai uiteindelijk toch zelf met hun eigen open model gekomen is gpt oss 120b, en die draai ik hier gewoon op mijn laptop terwijl het zo slim is als gpt 4.5 van vorig jaar, en toch draait aan 45 tokens per second (heel snel) zonder internet nodig te hebben of mijn data te versturen.

[Reactie gewijzigd door sebastienbo op 6 januari 2026 17:03]

Je schrijft AI is echt geen bubbel, de technologie bestaat en groeit exponentieel. Ik zie het niet, na GPT 5 zijn er GPT 5.1 en GPT 5.2. Evolutie, geen revolutie, laat staan exponentieel. Die hardware in dit artikel is 3,5x tot 5x sneller in bepaalde AI taken, maar nog altijd tegen een gigantisch stroomverbuik. Steeds meer mensen gebruiken het voor steeds meer dingen, want zodanig door die investeerders gesubsidieerd dat gratis te gebruiken is wat zelf absoluut niet gratis is, naast milieubelastend.

Degenen die echte haast hebben, zijn dan ook de investeerders die steeds meer geld zien verdampen en dat uiteindelijk niet vol kunnen houden, naast alle direct betrokkenen die afhankelijk zijn van de AI bubbel. Verder voel je eerder minder dan meer de haast met AI. Steeds meer vragen waar nu de betrouwbare kwaliteit van AI processen blijft, worden traditionele algoritmes met AI gecombineerd om meer lijn en voorspelbaarheid in het eindresultaat te brengen.

Ofwel met taal werkt het prima die LLM's, bespaart een mens tijd. Plaatjes genereren heeft ook sprongen gemaakt, alleen vraag niet zo een model om ook wat goed kloppende regels tekst in je plaatje te verwerken. Een Excel sheet begrijpen laat staan verbeteren met formule's ho maar. Het zijn indrukwekkend knappe trucs en sommigen ervan zeker op bruikbaar niveau, maar uiteindelijk blijft het transformer model een one-trick-pony, geen AGI.
Je kijkt met een vergrootglas op OpenAI, als je achteruit stapt en de big picture bekijkt dan zien je wat er in 2025 wel allemaal gebeurd is. AI is trouwens ook veel meer dan Large Language modellen.

Als ik kijk naar 2023 (eerste jaar dat het publiek gebruik maakt van AI) vs 2024 (2de jaar) vs 2025 (derde jaar) dan zie ik een exponentiele curve op alle vlakken. Medisch, Robotica, maar ook de LLM's of de Local LLM's. Persoonlijk vond ik agentic AI's en Agentic Browsers het meest interessante van 2025 dat ik alle dagen gebruik.

Diffuser modellen zoals nanobanana of qwenedit doen meer dan alleen maar text in beelden te zetten, je kan volledige photoshop trukken uithalen zonder photoshop in enkele woorden. Ik heb overlaatst een foto gekregen van mijn moeder waarop een tablet te zien was van een andere foto van mij en een vriendin toen we 5 jaar waren. Ik heb de ai gevraagd om die foto te restoreren, zo da ik precies de oroginele foto zou ontvangen hebben, vervolgens heb ik gevraagd om mijn arm uit te steken en duim omhoog als een OK teken. Nadien heb ik een foto van mijn moeder met kerstmis gegeven eng evraagd om haar in die foto te zetten met haar rechterhand op mijn schouder , en gekleed in de stijl dat wij gekleed waren. En poef de maggie was gebeurd. Je ziet niets mis met die foto. Dit is dus diffusion, niet transformers.

Maar ook in transformers is er veel veranderd, en persoonlijk denk ik dat onze hersenen op een gelijkaardige manier werken, ik denk dus niet dat je de output als vreemd moet aanzien

[Reactie gewijzigd door sebastienbo op 7 januari 2026 10:04]

Het heeft ook decennia lang geduurd voordat Netflix of Spotify winstgevend werden.

Hetzelfde met maaltijd bezorgers en dergelijke. Er wordt veel geïnvesteerd en soms in de verkeerde bedrijven.

En aan complottheorieën hebben we vrijwel niets. Er was gewoon niet voldoende productie en de vraag is explosief gestegen.

Dit is gewoon een wereld wijd probleem en niet overal is de internet toegang te vergelijken met Nederland.
Vraag me zeer af of dat echt klopt. Nu er veel meldingen zijn van alles hardware gekocht waar geen datacenter of stroom voor is. Ze moeten wel inkopen die amerikaanse bedrijven want als ze 1 kwartaal geen groei laten zien ontploft die hele ai hardware bubbel.
Geen idee waar u deze informatie van daar tovert , er zijn een heleboel datacenters en die krijgen al stroom. Zelfs in ons land die u blijkbaar als referentie gebruikt.

Maar Nederland stelt natuurlijk vrij weinig voor, al zijn er wel meer plannen.
Bizar he.

Zoals @MichaelBelgium ook al zegt. Nvidia CEO heeft het ook allemaal wel door.
Je hebt het hier over een psychologische staat van zijn. Dat is wat iemand percipieert. Dat is niet wat er in de werkelijkheid gebeurt. Gewoon even naar de CES keynote kijken van deze man. Dan ga je snappen waar ze mee bezig zijn. En waarom er zoveel chips geïntroduceerd worden.
Of stel...wetenschappelijke onderzoek, zoals weermodellen en inzichten krijgen in ons DNA of hersenen.
Tja, nvidia kiest voor geld waar het te rapen valt. Ook dat is in een bepaalde groep zijn belang 😀
Toen ik in 1982 tv begon te kijken voorspelde Erwin Kroll het weer al. En toen konden ze het ook best prima :)

Het schiet teveel door allemaal, oplossing op zoek naar problemen die er niet zijn.
Verschil: Erwin Krol vertelde ongeveer 99% van de tijd welk weer het geweest was.

Nu kunnen ze ook zien wat voor weer het wordt.
In 1982 hebben ze nooit het weer goed voorspeld.

Dat kwam omdat de meteoroloog.
!!! Dad joke warning !!! (maar toch grappig :D )
ja of een zelfvliegende auto, 3D TV en een metaverse.
Uiteindelijk komt dit toch wel weer tot op het consumentenniveau. Op een gegeven moment zal de kostprijs danig zakken dat dit wel beschikbaar zal worden voor onze geldbeugel.

[Reactie gewijzigd door kayjay op 6 januari 2026 14:34]

Het gaat vooral over de beschikbaarheid van technologie voor consumenten. Zie bijvoorbeeld bij geheugen. Die productie van consumentengeheugen wordt afgebouwd waardoor de beschikbaarheid daalt. Het is niet ondenkbaar dat het ook met GPU's zal gebeuren.

Wat niet wil zeggen dat AI geen catalysator kan zijn maar als de productie wordt gestopt dan heb je daar als consument of gamer weinig aan. De kans bestaat dus wat wij nooit een goedkope variant van de Vera-cpu of de Rubin-gpu in onze PC's zullen krijgen omdat bedrijven nu eenmaal meer betalen.
Ik zie niet in waarom dit nu anders is dan vroeger. Akkoord, er is een plotselinge overvloed aan de vraagzijde waardoor het consumentensegment uitgeperst wordt. Dit is van alle tijden.

Momenteel zitten we in een hausse en aangezien de markt nog altijd cyclisch werkt komt er ooit wel een moment waarop wij onze kans kunnen wagen, aan schappellijkkere prijzen. Ik geloof niet dat deze economische wetmatigheid nu plots niet langer zou gelden. Ben geen econoom maar de manier waarop de balans tussen vraag en aanbod zeer ruw werd verstoord zal moeten gecompenseerd worden.
Ik zie niet in waarom dit nu anders is dan vroeger.
Dit is fundamenteel anders en nog nooit gebeurd. Enkel tijdens een oorlog zou zoiets nog voorkomen waarbij je bijv geen auto meer kan kopen omdat die autofrabrikanten legervoertuigen zou moeten maken.

Het aantal bedrijven dat RAM kan maken is zeer beperkt. Productie opzetten is duur, complex en neemt vele jaren in beslag. Het is allemaal niet zo simpel. Het gaat dus jaren duren. Jaren.
Ben benieuwd of ze beschikbaar komen voor of na het knappen van de AI-bubble...
Na het knappen van de internet-bubbel in 2000, verdween het internet niet maar kwam het nog veel sterker terug. Hetzelfde gaat ook gebeuren na het (eventueel) knappen van de AI-bubbel. Diegenen met aandelen Nvidia zijn tijdens het knappen van de bubbel het haasje. Bij een faillissement van Nvidia gaat de AI technologie naar een nieuwe eigenaar. De AI technologie is er en verdwijnt niet meer.
De bubbel die er vanuit gaat dat bepaalde bedrijven de grote winnaar worden van de AI ontwikkelingen. Waardoor die voor biljoenen op de beurs gewaardeerd worden, terwijl er toch echt een heel groot probleem aan de inkomsten kant zit. Hun beurswaardering heeft geen enkele relatie meer met de jaarwinst of de omzet.

Er zijn zoveel parallellen te trekken met de Internet hype. Destijds hoog gewaardeerde bedrijven zijn simpelweg verdwenen. Enorm veel kapitaal is er toen in een hele korte tijd verdampt. En de winnaars nu zijn lang niet altijd degene die verwacht werden tijdens de hausse.
Maar draaide de dot‑com bubble niet vooral om onrendabele internetstartups met torenhoge waarderingen zonder solide businessmodel? Terwijl de vermeende AI‑bubble vooral wordt gedragen door extreem winstgevende techreuzen die massaal investeren in dure AI‑infrastructuur. Daardoor oogt de huidige koersrally naar mijn idee minder als pure speculatie.
Tja, AOL was echt een techreus, net als (lokaal) KPNQWEST, WorldOnline (de naam alleen al..), Freeler en vele vele anderen. Er is verschrikkelijk veel geld verbrand zonder dat we wisten hoe dat ooit terug te verdienen.

Niet erg hoor, maar dat zien we nu op een grotere schaal.

Uiteindelijk gaat JanKees-met-de-pet - of Yankees ervoor betalen, zie de bankencrisis.
Nee het is hetzelfde. De koersen zijn enorm opgeblazen op basis van toekomst verwachtingen. Terwijl de omzet en winst van de bedrijven niet navenant is toegenomen.

Zo heeft OpenAI nauwelijks inkomsten maar willen ze voor een biljoen naar de beurs. xAI zelfde laken een pak, is voor 12 miljard gefinancierd terwijl de jaaromzet 100 miljoen is.

Hetzelfde zien we bij Alphabet. De koers is in iets meer dan een half jaar tijd verdubbelt. Oracle precies hetzelfde.

NVidia, ook daar is de koers bijna verdubbelt in 9 maanden tijd.

Meta en Microsoft doen het iets rustiger aan maar ook daar heb je 50 procent stijging van de koersprijs in iets meer dan een half jaar tijd.

Maar net als ten tijden van de Internet bubbel, er is nog geen verdien model. Het is de verwachting dat het bedrijfsleven massaal dure AI agents gaat afnemen waarmee ze heel erg veel geld gaan verdienen. Sommige bedrijven nemen alvast een voorschot en zijn al gaan saneren. Maar de algemeen intelligente AI die noodzakelijk is om complexe bedrijfsprocessen over te nemen, die bestaan nog niet.

Maar als de huidige generatie AI agents niet heel snel een groot succes worden, dan worden de beleggers zenuwachtig. Geen rendement op hun investering, koersen komen dan onder druk en zodra de eerste uitstappen, klapt de bubbel.

Hoe de wereld er na het klappen van de bubbel eruit gaan zien, is niet te voorspellen.
Het ene AI bedrijf wat investeerd in het andere AI bedrijf.
Een net zulke enorme bedragen dat ik me inderdaad afvraag waar dat geld uiteindelijk vandaan moet komen.
Een bubbel is inderdaad absoluut niet het einde van een markt; dat klopt. Maar aan de andere kant is het niet gezegd dat deze ontwikkelingen binnen AI zich zullen voortzetten zonder bijvoorbeeld een vijfjarige neergaande periode ertussen. Het hoeft zeker niet alleen maar soepeltjes te verlopen; de risico's zijn momenteel erg groot.

Zou er zo'n tijdelijke "mindere periode" komen, met daarna weer een opleving, dan zullen de datacentra zelf alsnog goed inzetbaar zijn, maar de chips misschien niet. Vooral als zo'n tweede wind komt van een andere klasse aan chips die veel beter zijn. Het bedrijf dat dan net 50.000 stuks van deze komende Blackwell-opvolger had gekocht, vóór die mindere periode startte, kan flink hard onderuit gaan. En ook Nvidia als geheel, als blijkt dat er echt te hard van stapel was gelopen en er rustiger jaren volgen. Of als de betere chips komen van een andere partij dan Nvidia.

Het hangt af van hoe lang de investeerder vast durft te houden, hoe snel er gaat worden overgestapt op nieuwe chips onder druk van concurrenten, hoeveel beter de AI gaat worden qua output, hoeveel waarde AI echt begint te maken (en daarmee omzet/winst), en andere factoren.

AI en robotica gaan inderdaad niet verdwijnen tenzij het allerergste gebeurt (wereldwijde totale instorting). Maar dat wil niet zeggen dat elke chip ook zeker weten goed ingezet gaat worden in deze gehele periode; er kunnen prima pijnlijke gaten vallen. De komende paar jaar zullen veelzeggend zijn voor AI en de economie als geheel.
Er zit een verschil in GPU's die je wil inzetten voor het trainen van modellen, en de GPU's die je nodig hebt om een miljard mensen van chatreacties te voorzien (zoals bijv. copilot, chatgpt of gemini).

En vergeet ook niet dat je nu bijv. bij OVH GPU servers kunt huren met GPU's van 5 jaar oud (link).

De huidige generatie GPU's zullen nog best een tijdje waardevol zijn.
De A100 PCIe 80 GB, uit 2021 is niet gratis af te halen bij de krinloop, om het zomaar eens te zeggen (link).

Het is 'koffiedik kijken' hoe de AI ontwikkelingen zullen verlopen de komende paar jaar.
Wellicht blijkt het niet rendabel te zijn en zijn extreem hoge abonnementsprijzen nodig (die niemand gaat betalen). Als dat zo is, dan voorzie ik een sterke toename van bedrijven om zelf meer te gaan hosten (met eigen GPU servers). Maar ook dat is natuurlijk gissen, en hangt ook af van hoe gebruikersvriendelijk de hele tooling erom heen wordt. Het kan alle kanten op....

Hierboven wordt geschreven: "Bij een faillissement van Nvidia gaat de AI technologie naar een nieuwe eigenaar.".

Zo grappig.... Het getuigt van zo verrekte weinig kennis...

Nvidia boekte in zijn derde kwartaal 31,9 miljard dollar winst (link).
Als de GPU verkoop volgend jaar halveert... dan zal het minder winst maken. Maar de stap van bijna 32 miljard winst (in één kwartaal) naar faillissement, is - eehhh - best groot. Microsoft, Alphabet, Meta, Nvidia... die gaan niet zomaar failliet. Sommige mensen lijken inmiddels te denken dat Nvidia een 'startup' is en gebakken lucht verkoopt...

En mensen vergeten dat 'de markt' al lang forse correcties heeft uitgevoerd. Ondanks de megawinsten van Nvidia is de koers de afgelopen maanden bijvoorbeeld redelijk gezakt. Oracle en ARM zijn gekelderd...

Tenslotte realiseren velen zich niet dat koersschommelingen en faillissementen twee geheel verschillende dingen zijn. Je kunt een overname-prooi worden als de koers te laag staat. Maar als je bedrijf netjes winst maakt (of anders gezegd: niet al te lang verlies maakt)... dan ga je niet failliet...
Klopt Piet, uw insteek is al wat genuanceerder. Paar maand geleden imec Leuven bezocht "Clean Room". Daar hoor ik een heel ander verhaal. De meeste mensen beseffen niet wat er aan de hand is. Maandag 3 uur tot middernacht naar conference call geluisterd CES. Veel nieuwe startups. Alles staat nog in kinderschoenen. We gaan nu naar level 3, physical Ai en dat is de belangrijkste stap. Cosmos, Omniverse, Cuda, Alpa Mayo Nemotron 3. etc . Data residence. Internet bubble meegemaakt. Hier toch totaal anders. Maar natuurlijk men moet op zijn hoede zijn. Wat ik niet begrijp is waarom SanDisk gisteren 75 dollar steeg, 325 $? Na results grote maand geleden nog gekocht aan 200 ?

Eigenlijk weet ik het niet maar volg alles nauwkeurig
Hopelijk NA. Dat is de enige manier waarop ze huiverig worden in de toekomst om weer een cashgrab product te maken ipv je focussen op je core markt die je bestaansrecht gegeven heeft.
De CEO zou al lang buitenliggen mocht hij zich enkel focussen op de markt die hem bestaansrecht heeft gegeven en de cashgrab links zou laten liggen.

Ik ben eerder van het principe van "het is wat de zot ervoor wil geven". Als er 10 klanten zijn die mijn product willen en ik kan er maar 2 leveren, waarom zou je dan de prijs niet opdrijven?
Tot zo ver het sprookje van de 6 jarige effectieve levensduur ;)
Kan prima hoor, deze komen gewoon in het volgende datacenter dat gebouwd word. Ze zijn nog steeds aan het opschalen om de bubbel maar gaande te houden.
Er komen vaak nieuwe datacentra online, vaker dan elke 6 jaar. En er komen ook vaker nieuwe chips dan elke 6 jaar. AI zit in een geopolitieke race die gekker en extremer verloopt dan elke eerdere uitvinding.

Dus nee, ik verwacht dat hier wel enige spanning uit gaat komen op het gebied van investering versus duurzame waarde. Natuurlijk is deze opvolger nog niet uit; na de aankondiging moet de werkelijke verkoop nog komen, dus het gaat niet over vandaag of morgen.

Toch worden de al bestaande AI-datacentra snel minder concurrerend op deze manier. Ik vraag me af of de grote spelers in deze race genoegen zullen nemen om jaren door te draaien met Blackwell als er iets beters bestaat. Kunnen ze zich dat veroorloven? Uiteraard hangt dit samen met de performance van deze opvolger: zal er 10% hogere efficiëntie komen per Watt/Dollar/m2, of 20%, of 50%? En hoe lang kunnen bestaande Blackwell-datacentra dan blijven draaien zonder hopeloos achter te lopen?

6 jaar is best lang in de huidige AI-race dus het is niet vreemd dat mensen twijfelen aan die uitspraken. De systemen in de huidige datacentra zijn hoog gevalueerd, vaak in de miljarden per datacentrum. Als dat versneld afgeschreven moet worden dan wordt het voor de AI-bedrijven nog lastiger om tot echte winst te komen, dan het al was. Ik ben benieuwd hoe het verder gaat.

[Reactie gewijzigd door geert1 op 6 januari 2026 14:20]

Tot zo ver het sprookje van de 6 jarige effectieve levensduur ;)
Dat zie je verkeerd. Het belangrijkste doel van veel AI datacentra is investeerders het tastbare en keiharde bewijs leveren dat men serieus aan AI werkt en geloofwaardig maken dat in die datacentra talloze innovatieve en grensverleggende modellen worden ontwikkeld en getraind die straks tientallen, nee honderden miljarden gaan opleveren.
Een AI datacentrum ter ondersteuning van het betoog in de prospectus dat een mogelijke investeerder met een nieuwe minimale investering van enkele miljarden om de software en technologie up-to-date te houden een unieke kans krijgt om straks volop mee te delen in de megawinsten!

Beetje handige CEO weet dat riedeltje wel 6 jaar te verkopen dus die nuttige 6 jaar levensduur van de huidige generatie chips haalt hij er wel uit. Dat met de razendsnelle ontwikkelingen in hardware en modellen ieder hardware generatie hooguit een jaar of 2 commercieel zinvol is te gebruiken weten ze zelf ook wel.
De Mercedes CLA krijgt in Q2 2026 de Nvidia Vera Rubin chip voor een level 2+ systeem genaamd MB.DRIVE ASSIST PRO.

Nvidia unveils open-source AI for autonomous driving, ships in Mercedes-Benz CLA in Q1 2026
Volgens mij staat dat niet toch?

While much of this is data-center focused, the “Rubin” GPUs and “Vera” CPUs are what will likely be training the next iterations of Alpamayo that end up in your car.

De chip zelf komt dus niet in de Mercedes, het vision-language model Alpamayo zal door Mercedes gebruikt worden en dit model is getraind op de Vera-Rubin chips.

[Reactie gewijzigd door Arjant2 op 6 januari 2026 15:04]

Je hebt gelijk, ik had het artikel iets te vluchtig gelezen.
Inderdaad, Jensen Huang heeft daar uitvoerig over gesproken in CES. Mercedes-Benz en Nvidia werkten al 5 jaar samen. Dat is al meer in de richting van physical Ai , de toekomst en volgens mij winstgevendheid. Het wordt veel bla, bla verkocht. Eigenlijk moet het nog allemaal beginnen volgens conference. Daarom geloof ik niet in echte bubble maar stock picking
Het "Nederlandse" Nebius gaat overigens vanaf de tweede helft dit jaar Nvidia Vera Rubin NVL72 clusters aanbieden in de USA en Europa.
Correct ook dat aandeel Nebius, maar 50% verkocht bij verdubbeling. Nog gekocht a 29 dollars. Waarom SanDisk gisteren 75 $ steeg weet ik niet? Na results bleek dat groei enorm was? MU steeg ook wegens HBM uitverkoop? Heeft contract v 3 jaar bij imec. Asml ook contract? Een 500 tal bedrijven wereldwijd. Ook Nvidia en intel, Taiwan Semiconductor etc ...
Voor de gene die denken dat het geen bubbel is:
YouTube: "we are not enron" van Coffeezilla
Die CPU power kunnen Intel, AMD, IBM & co. ook bakken, maar dit maakt een hele vette netwerk switch of router.

Om te kunnen reageren moet je ingelogd zijn