OpenAI belooft vier tot vijf miljoen AI-chips van Nvidia te kopen

ChatGPT-maker OpenAI heeft beloofd vier tot vijf miljoen AI‑chips te kopen van Nvidia. De chipmaker belooft op zijn beurt honderd miljard dollar te investeren in OpenAI. Dat gebeurt geleidelijk in de komende jaren.

De eerste AI-chips die OpenAI koopt onder deze overeenkomst zijn gebaseerd op het Vera Rubin-platform, zeggen beide bedrijven. Die verschijnen voor het einde van volgend jaar. Beide bedrijven beloven elkaar ook om de roadmaps op elkaars producten en diensten af te stemmen. OpenAI heeft de gpu's hard nodig voor het trainen van de volgende generaties van zijn GPT-modellen. Ook voor het gebruik van ChatGPT en andere diensten is datacentercapaciteit nodig.

Hoe de investering er precies uitziet, zeggen beide bedrijven niet. Nvidia investeert in de komende jaren 100 miljard euro in OpenAI, terwijl OpenAI in totaal tot vijf miljoen AI-chips koopt. Nvidia investeert vaker in grote afnemers van zijn producten. Beide bedrijven willen de details van de overeenkomst in de komende weken vaststellen.

Door Arnoud Wokke

Redacteur Tweakers

22-09-2025 • 21:02

75

Submitter: crunchytail

Reacties (73)

73
73
28
4
0
39
Wijzig sortering
Ik weet niet wat de bedoeling hiervan is. Ik stel me grote vragen. Is het mogelijk dat Nvidia een (grote) daling van de vraag naar GPUs voorziet? En zo marktvraag wil forceren door OpenAI geld toe te stoppen, dat OpenAI dan gebruikt om GPUs te kopen?. Zo kan het Meta, Google, Microsoft,... bijna veplichten om toch mee te gaan in het verhaal van "kopen, kopen, kopen" ? Misschien is er een bubbel en wil Nvidia die nog wat groter maken....

Ik was in een ver verleden aandeelhouder (= dedupeerde) van Lernout & Hauspie. Het was lucht. En L&H had ook bedrijfjes welke ze geld toe stopten om hun "technologie" te kopen. Zo was er omzet en een verhaal om de aandeelhouders te paaien. Uiteraard is Nvidia van een totaal andere grootorde, maar toch...

En niet te vergeten : Huawei haar supernode computing cluster : het wegvallen van de Chinese markt?

[Reactie gewijzigd door jdiv op 22 september 2025 21:27]

AI heeft zich allang bewezen als katalysator van productiviteit. Het is geen vraag van als, maar eerder wanneer, er een massale omwenteling plaats vind in de manier waarop we werken en hoe we dit indelen. Alle verwijzingen naar de Dotcom bubble slaan compleet mank. Een website produceert geen 'waarde' tenzij er een daadwerkelijke dienst aan verbonden is die commercieel rendabel is. AI heeft zich in dit aspect al 3 dubbel bewezen.
Bewezen als herkauwer en samenvatter van teksten, als jatter van beeldwerk, als generator van paragrafen die niemand wenst te lezen noch schrijven, als uitkotser van code die niemand wil onderhouden of begrijpen, als vervanger van eerstelijns klantenservices: sure. En als verbrander van kapitaal en elektriciteit.

Verder: mwah.

[Reactie gewijzigd door CodeCaster op 22 september 2025 21:43]

Jij bent duidelijk geen programmeur. :9~ Als AI écht nutteloos was, zouden Microsoft, Google en de rest van Silicon Valley het niet massaal inzetten in hun codebases. Microsoft geeft zelf toe dat AI inmiddels 20–30% van hun software schrijft. ( https://nationalcioreview.com/articles-insights/technology/ai-is-coding-at-microsoft-and-its-writing-nearly-a-third-of-the-software/ )
Microsoft geeft zelf toe dat AI inmiddels 20–30% van hun software schrijft.
Ik ben zelf ook programmeur die dagelijks LLM's gebruikt in zijn werk, maar dit soort berichten moet je echt met een kilo zout nemen. Ik vind het knap dat ze zoveel onzin en gebakken lucht in zo weinig tekst hebben weten te stoppen.

Ten eerste: de hoeveelheid code zegt niets over de kwaliteit of de productiviteit van de maker. Al sinds de uitvinding van de computer proberen managers die twee aan elkaar te linken en het is nog nooit gelukt. Lees bijvoorbeeld deze anekdote om te snappen waarom dat niet werkt.

Ten tweede: wat je je onmiddellijk bij zo'n bericht moet vragen is: is er een definitie van AI-gegenereerde code? Al voor de LLM-hype had je IDE's met auto-complete die gebruik maakten van machine learning. Als je dus een code-base hebt met een functie die "heleLangeNaamVoorMoeilijkeOperatie" heet, je vervolgens alleen "hele" in hoeft te typen, omdat dat al genoeg informatie is om de rest van die naam te determineren, dan heb je al 29 van de 33 letters met "AI" gegenereerd. Lekker percentage, weinig spannende techniek.

Ik ga niet alles langs, maar statements als "GitHub Copilot and Codex Are Powering the Surge" en "Layoffs Provide Contextual Undercurrent to the Announcement" zijn absoluut gelul. Copilot is zo'n ongeveer de minst populaire tool (na Cursor, Claude, enz.) en het is algemeen bekend dat de techbedrijven jaren geleden veel te veel programmeurs hebben ingehuurd. Nu, na Covid, blijkt dat ze die toch niet nodig hebben en daarnaast is er nog een wijziging in de Amerikaanse belastingen waardoor een programmeur meer kost, om niet te spreken over het feit dat de rente tegenwoordig niet meer nul is en investeringen daarom duurder zijn. Allemaal redenen om mensen te ontslaan. Maar het is veel makkelijker om het op "AI" te gooien, want dan is het niet de fout van de bedrijven zelf en het jaagt de hype lekker aan.
Ik programmeer al een jaar of dertig waarvan vijftien als m'n baan. Ik gebruik LLM's dagelijks. Ik ken de mogelijkheden en beperkingen. Ik slik nieuwsberichten van wc-eend niet voor zoete koek.

Silicon Valley heeft maar één doel, en dat is zo veel mogelijk geld persen uit gebruikers van technologie. Dat betekent niet dat wat ze produceren ook daadwerkelijk nuttig of goed is, gegenereerde code incluis.
Ik slik nieuwsberichten van wc-eend niet voor zoete koek.
Lol?
Silicon Valley heeft maar één doel, en dat is zo veel mogelijk geld persen uit gebruikers van technologie. Dat betekent niet dat wat ze produceren ook daadwerkelijk nuttig of goed is, gegenereerde code incluis.
Ik weet niet of je dit serieus bedoelt. Ik ken geen enkele dev die geen LLM gebruikt of er op z’n minst met bewondering naar kijkt. Groetjes van een C tegenwoordig Rust dev. :P
Nou, ik weet niet hoe jij het niet eens kan zijn met de andere reacties. Je reactie lijkt haast puur om het trollen te zijn. Die reacties zijn volkomen terecht. AI op het code vlak simpelweg niet volwassen genoeg om goede functionele code te schrijven.

AI slaat vaak de plank mis als het gaat om context. Het zien van het algehele plaatje. Ja, AI kan kleine Python of Bash scriptjes schrijven. Ja, AI is best sterk in suggesties op PR's zoals bijv. Copilot van Github. Maar wat je me niet kan zeggen is dat het stukken code kan schrijven die door een redelijke kwaliteits controle heenkomen. Althans, niet bij ons. Wij schieten alsnog gaten in die code en vaak schiet het gewoon mijlenver te kort.

AI is sterk in een redelijk contextloze situatie. Kleine behapbare brokjes - denk aan 1 script met 1 simpele taak. Jetbrains AI, die al redelijk wat context kan verzamelen komt in de buurt maar is toch niet goed genoeg.

Als ik alles vooralsnog tegenover de kosten zowel in de buidel als milleu technisch kijk, dan ben ik niet onder de indruk. Het is vooral een duur product waarvan ik de kosten niet kan verantwoorden.
Ik wacht wel totdat een LLM een compiler of een OS kan schrijven voor ik me zorgen ga maken. Dat is echt wel 100-1000x complexer dan een Python scriptje.
Wat wil je nu Mictosoft wil copilot licenties verkopen, tuurlijk zeggen die hoe geweldig hun AI wel niet is 8)7
Microsoft verkoopt al flink wat ongevraagde Copilot-licensies doordat ze abonnementsprijzen flink verhoogden toen ze besloten iedereen op elke denkbare plek Copilot door de strot te duwen.
Precies …kunnen ze weer zeggen kijk hoeveel copilot gebruikers we al hebben. 8)7
Als je weet hoe je moet programmeren is AI heel handig. Het vervangt veel werk, maar je moet het natuurlijk wel controleren. Naar mijn ervaring geeft het geen goede suggesties voor packages, dat moet je zelf doen maar als je dan de documentatie copy paste geeft het hele goede code.

Maar ja, vibe coders zijn niks.
Er is weinig bewijs dat het mensen productiever maakt. Er is wel wat bewijs dat het juist minder productief maakt. En dat het vaardigheden doet verleren.
Dat is een manier van ernaar kijken. Ik heb (in de Propaedeuse) van mijn studie Assembler (Motorola 68000 microchip) geleerd. Harstikke belangrijk (1987) en nu? Hoeveel van de moderne programmeurs/coders zouden nu nog een print-commando kunnen uitleggen of programmeren met machinetaal?

Toendertijd moest ik op de Technische Universiteit met Pascal en Modula programma's uit mijn hoofd schudden en wiskundig moest bewijzen dat ze deden wat ze moesten doen. Welke developer doet dat tegenwoordig?

Maar is het nodig? We werden/worden geholpen met Intellisense, en nu met AI-scripts en programma's. Als ik vroeger een script in Powershell of een C#- applicatie moest maken, was ik er een dag of weken mee bezig. Teams zijn weken bezig om m.b.v. Agile en scrum zo snel mogelijk op te leveren. Nu spuugt Chat GPT - met een goed geformuleerde wens - dat in een tiental seconden eruit en hoeft iemand alleen nog maar e.e.a. te controleren of aan te passen. Is dat jammer? Oude kennis vergaat nu eenmaal. Al sinds het begin der tijden bouwen wij voort op oude vergeten technieken.
Machinetaal is net zoiets als latijn. Behoorlijke leercurve, maar vereenvoudigt wat daarop volgt aanzienlijk.
Er is weinig bewijs dat het mensen productiever maakt. Er is wel wat bewijs dat het juist minder productief maakt. En dat het vaardigheden doet verleren.
Ik ben hier niet mee eens, dankzij AI ben ik instaat geweest om verschillende packages op Ubuntu te installeren en optimaliseren. Zonder AI was ik maanden bezig geweest, nu lukte mij dit in een week tijd. Het was een installatie van de laatste versies van Graylog met OpenSearch, Zabbix, Mongod, rsyslog, SNMPTT, waar ik XFCE installeerde met LightDM en ook nog toegang via XRDP. Conky en nog wat optimalisatie scripts.


Een gehardende Linux Tijger zal zeker hier niet wakker van liggen (al zag ik veel gehuil op de Forums). Maar het maakte mij productiever en het bespaart mijn bedrijf een developer op dit gebied.
Het is ook handig als je niet weet hoe je moet programmeren. Ik heb weleens Linux scriptjes nodig voor mijn werk. Nu kan ik wel wat programmeren, maar die dingen zijn altijd vooral veel Googlen wat ik nu precies nodig heb. Het werkte verre van feilloos nog, maar algemeen kan AI best simpele scriptjes voor mij maken. En dat zijn dingen die een ieder die een beetje bekend is met Linux shell scripts echt in 3 seconde in elkaar hackt. Maar dat ben ik niet. En dan helpt het mij dus.
En ben je ook in staat om te verifiëren of de output van de LLM correct is en of het resultaat van het script klopt? Als je niet weet wat je doet kan je wel eens het risico lopen dat je een script uitvoert dat een ongewenste of onveilige actie uitvoert.

Vind ik wel een risico bij dit soort dingen.

Moet zeggen dat ik hem zelf wel eens een Excel-formule in elkaar laat prutsen. Krijg wel ieder keer een andere met steeds dezelfde vraag en de ene werkt wel en de andere niet, dus het ding "doet maar wat" en je moet scherp blijven.

[Reactie gewijzigd door vickypollard op 22 september 2025 23:09]

Ik gebruik het zelf dagelijks met Excel icm python. Gedaan met formules doortrekken, gewoon simpel in een python. Zo heb ik een Excel file van een collega van 500Mb weten te reduceren tot 25Mb en hebben we meer analyse mogelijkheden (scenarioplanning).
Persoonlijk denk ik dat Microsoft die kant op gaat. LLM zet user vraag om in Python code en geeft de uitkomst direct in een tabel/pivot/graph of alle drie.

Wij hebben (nog) Geen Copilot in Excel daarom dat ik in Chatgpt een agent heb die weet wat het moet doen en wat het retour moet geven. Hiermee is Truus van HR opeens capabel om wel die maandelijks file op dag1 rond te sturen.

Python is al bewezen in data analyse, veel sterker en betere functies dan Excel (unpivot maar ook opvullen, ratios berekenen etc) en met Copilot integratie kan dit perfect werken. En er is een gigantische markt van klanten die het wel willen betalen.
Nu ja, als je een Excel file hebt van 500Mb dan kon je je jaren geleden wel al eens afvragen of je Excel wel correct gebruikt en of Excel wel de juiste tool is voor wat je wil doen ;) .
Ja als ik het script uitvoer en hij geen foutmelding geeft plus een output heeft die ruwweg is wat ik verwacht.

En ja dan kan je altijd een worst case "stel je voor dat" situatie bedenken, maar in de praktijk werkt het best wel goed daarvoor. Als voorbeelden van mijn laatste toepassingen:
  1. Ga recursief door alle mappen heen, als er een log file met een bepaalde naam is, haal de verlopen tijd uit die gegeven is in dit formaat "xxx", reken het om in secondes en gooi de resultaten in een CSV file.
  2. Ga recursief door de mappen heen en maak een lijst van alle mappen waar slechts één file is met een naam "xxx".
Die tweede faalde als eerst omdat hij was vergeten dat als er één file is in linux, hij ook nog één dir omhoog list (en huidige dir ook geloof ik?). Tweede poging werkte hij wel.

Nu scan ik wel een beetje wat hij doet, als er een rm -rf * in voorkomt zou me dat opvallen, maar tegelijk maak ik me daar nou niet heel veel zorgen om. En anders hebben we altijd nog backups :P .
Nog even los van hoe goed het is: hoeveel zou je hiervoor willen betalen?

De huidige daadwerkelijke kosten en investeringen worden echt totaal niet gedekt door de abonnementen. Ben je bv bereid 500 of 1000 euro per maand te betalen voor deze functionaliteit?

Vergeet niet dat de 100-en miljarden terug verdient moeten gaan worden en ik zie nog steeds niet die killer app die dit overduidelijk gaat zijn zodat de halve wereld bereid is om elke maand honderden euro’s hiervoor neer te leggen../
Linksom of rechtsom worden investeringen uiteindelijk toch afgewend op de "gebruiker".
Dat geld moet ergens vandaan komen en daarna terugkomen met winst.
Als verlies wordt het afgeschreven van de belasting en/of worden prijzen van andere producten verhoogt.
Als winst gaat het in zakken van de bedrijven.
Dat is de kort-door-de-bocht analyse m.b.t. het nut van AI. De werkelijkheid is toch behoorlijk anders. Er zijn al heel veel dingen die met AI mogelijk zijn, die met mensen zo goed als onmogelijk zijn. Probeer eens een contract van meer dan 400 bladzijden op consistentie te checken als mens. Gaat je echt niet lukken. Met een AI kan je in relatief korte tijd alle discrepanties en ambigue clausules identificeren. Zomaar een voorbeeld die wij op het werk wekelijks gebruiken.
Ik hoor juist van juristen dat ai volstrekt onbetrouwbaar is als het op legal documents aankomt omdat die juist heel precies moeten zijn en een "Ohja, goed punt! Dat verwoordde ik inderdaad verkeerd! Laat me het nog eens doen!" funest kan zijn...
Ja joh lekker erop vertrouwen dat zo’n AI njet van alles bij elkaar verzint.
Hoe kom je dan aan een inconsistent contract van 400 bladzijden? Als mensen dat hebben kunnen schrijven, kunnen ze het ook controleren en corrigeren. Heb je na zo'n check al eens "weet je het zeker?" gevraagd en een totaal andere uitkomst gekregen? Maar goed, die use case valt inderdaad exact onder mijn noemer "paragrafen die niemand wenst te lezen noch schrijven".
Is dat ook niet hoe we als mens leren en slimmer worden? En zaken kunnen maken die we nu allemaal hebben? Alles dat bestaat komt voort uit iets dat iemand ooit heeft geleerd van iemand anders en puzzelstukjes samen raapte om iets nieuws te maken... 1 + 1 = 3 als je kennis goed gebruikt.
Ik ben er ook van overtuigd dat AI voor een Revolutie gaat zorgen. Ook het internet deed dit. Ik stel de technologie niet in vraag (immers ben ik een dagdagelijkse gebruiker van AI voor programmeerwerk). Het is de financiële bubbel waar ik het over heb.

En meer : AI zal voor sociale revolutie zorgen. Daar maak ik me zorgen om. Niet over de financiële bubbel. Trouwens, we zitten nog maar in het begin van de weg naar toepasbaarheid van AI.

[Reactie gewijzigd door jdiv op 22 september 2025 21:52]

Als je het bijvoorbeeld vergelijkt met de internetbubbel destijds, is het daarna alleen maar meer meer meer geworden. Wat we toen absurd veel geld voor een bedrijf vonden is nu de waarde van een succesvolle startup die wordt overgenomen door 1 van de big tech bedrijven.
Het verschil met de internet bubbel is dat er nu ook daadwerkelijk winst gemaakt wordt, kijk maar eens naar de cijfers van nvidia. In 2000 was het daadwerkelijk ook allemaal lucht. Er viel toen nog weinig te verdienen online.

[Reactie gewijzigd door Navi op 22 september 2025 22:39]

Nvidia is dan ook toevallig een van de weinige (enige?) bedrijven die winst maakt dankzij AI. Van de rest van de bedrijven die met AI bezig zijn weten we dat ze verlies lijden op AI of die verliezen hoogstwaarschijnlijk verdoezelen door geen specifieke cijfers m.b.t. tot AI meer te noemen (Microsoft bijvoorbeeld; als de cijfers goed waren hadden ze het wel gespecificeerd).

[Reactie gewijzigd door vickypollard op 23 september 2025 00:14]

Microsoft weet dat je soms jaren verliezen moet incasseren waarna je uiteindelijk toch een product met marktwaarde krijgt. Hun X-box heef de eerste jaren zware verliezen geleden en bij hun mobiele telefoon uitstapje hebben ze uiteindelijk de stekker er uit getrokken terwijl het best wel goede telefoons waren.

Ik denk wel dat het goed is dat er diverse verschillende AI's getrained worden, bedenk maar eens wat er zou gebeuren als over 30 jaar een ai overal is ingebouwd en hij besluit dat het communisme een betere oplossing is voor alle wereld problemen.....
Bekende strategie, je maakt meer winst op de pikhouwelen dan op het delven van goud.
- Dubbelpost -

[Reactie gewijzigd door klakkie.57th op 23 september 2025 02:11]

Die hadden dus helemaal niks met internet te maken, die hadden al moeite om te concurreren met 3Dfx en Matrox , zelf ATI deed nog mee.

Maar allemaal niks met internet.

ik had in de jaren negentig al een smartphone en internet. En al snel in de gaten dat dit echt de toekomst was.
Ik verwijs even naar het verleden. De goldrush in de VS was vooral goed voor mensen die materiaal verkochten om goud te vinden/opgraven. Hier en daar is er iemand rijk geworden door effectief een deftige hoeveelheid goud te vinden maar het grootste gedeelte van de mensen heeft alleen veel miserie gevonden...
AI is niet betrouwbaar, mensen kunnen de output ervan soms slechts beoordelen of zijn er te lui voor en studies zeggen dat AI ons minder productief maken. Erg optimistisch om te roepen dat het 3-dubbel bewezen is dat het wel zo is!


En om nog maar te zwijgen van de security nachtmerrie die vibe coden met zich meebrengt.
Hmm openai publiceert zelf onlangs dat transformers wel theorwtisch op hun piek zitten qua kunnen (wat ai researchers al jaren riepen), dus agi moet een compleet ander iets gaan worden... wat weet niemand.
Verder draai ik nu zelf bv lokale open source modellen voor coding, zoals qwen coder 30b, dat doet eigenlijk niet echt onder voor de dure modellen en is geheel gratis en lokaal, geen geld naar openai oid, geen geld naar cloud, geen data naar cloud, en blijft in principe nu eeuwig werken.
Dus... waar gaat ai haar geld pakken?
AI heeft zich allang bewezen als katalysator van productiviteit
Nee, het vervangt op een matige manier soms menselijke arbeid. Daarom is het 'gewild'. Omdat menselijke arbeid steeds schaarser/duurder wordt (in verhouding tot geautomatiseerde arbeid).
Als tool is het niet slecht of onbruikbaar maar we hebben allemaal al eerder nieuwe en/of betere tools gekregen - en die kregen nooit zoveel geld en resources toegestopt....
Heel valide punt, een bedrijf dat 100 miljard gaat investeren in haar klanten roept bij mij ook vragen op. Alsof ze vraag uitval willen voorkomen, of ze geloven er echt in natuurlijk.
4-5 miljoen enterprise chips is grofweg 200 miljard. Dat is een bedrag waarbij je behoorlijk kan onderhandelen, of zelfs behoorlijk wat zelf zou kunnen doen. NVIDIA lijkt aandelen als betaling te accepteren voor een groot gedeelte van hun marge.
De bedoeling is een deel van OpenAI te kopen door ze ‘gratis’ hardware te geven.

Dus 100 miljard eruit aan één kant en in de volgende jaren komt meer dan 100 miljard erin aan de andere kant. nVIDIA verdient als bedrijf genoeg geld dat ze niet weten wat ze er moeten mee doen, in de bank laten liggen en inflatie (en de belastingsdienst) snoept er ook wat van weg.

Beter in iets te investeren dan er niets mee te doen, ze hebben genoeg fabs om aan de vraag te voldoen zonder in hun eigen prijzen te schieten, er is letterlijk niets dat in de volgende 5 jaar genoeg GPU chips kan vreten, zelfs AI niet en functioneel geen concurrentie. Ik heb vorige week een gesprek gehad met nVIDIA en ze zeggen zelf dat de stroom zelfs in de laatste datacenters van de grootste hyperscalers niet genoeg gaat zijn. Binnen 6 jaar willen ze zoveel compute density hebben dat voor een vol rack (48U) je 1.2MW zult moeten leveren. Ter vergelijking, een ‘normaal’ rack is vandaag 30-90kW, een GB300 NVL72 130-150kW met netwerk, de huidige nieuwbouw ligt met de hyperscalers aan 120-300kW. Een 600kW prototype dat ik gezien heb is 1 rack voor compute en de 2 racks ernaast voor koeling.

[Reactie gewijzigd door Guru Evi op 23 september 2025 03:22]

Als China opeens hun mega-bestelling van die chips af hebben gezegd dan moet iemand anders het gaan kopen. Er is gedoe geweest vanwegen de vermeende inbouw van een kill-switch en locatie-verklikker in die chips waardoor China uiteindelijk verontwaardigd had aangekondigd dat ze de chips niet meer wilden. https://www.reddit.com/r/...er_if_it_has_to_put_kill/
Het is binnen de AI wereld allang bekend dat het geen zin heeft om de LLM modellen nog veel groter te maken. Zonder nieuwe innovaties in de structuur van AI modellen bereiken we rap de plafonds van de modellen. Accuratesse, aantal hallucinaties en "intelligentie" verbeteren niet meer zonder fundamentele nieuwe doorbraken binnen de AI.

Het is heel plausibel dat NVidia hier nog een slaatje wil uitslaan voordat we de hype fase voorbij zijn en erachter komen dat een 2x zo groot GPT6, nauwelijks betere resultaten gaat geven dan GPT5.

https://garymarcus.substack.com/p/confirmed-llms-have-indeed-reached
Nvidia krijgt dus aandelen OpenAI.
Nee, dat hoeft "dus" helemaal niet.
een investering zonder aandelen heet een donatie ;)
Grappig, maar inhoudelijk onjuist.
Aandelen van nvidia kopen dan maar✅
100 miljard investeren om 5 miljoen chips te kunnen verkopen ...

Doen ze dit om het eigen orderboek te vullen nu verkoop in china tegenvalt ?
Als je dit leest nieuws: Nvidia en Intel gaan samen x86-chips ontwikkelen voor pc's en datacenters dan lijkt mij dat Nvidia dit wil gebruiken om "hun" chips te gebruiken.
Dus kunnen ze gelijk testen hoe goed hun chips zijn.

Ik vraag me wel af waarom ze voor Intel maar 5 miljard over hebben, maar voor OpenAI het twintigvoudige. :?
Haha, NVIDIA geeft z'n klant geld zodat z'n klant meer van z'n producten kan kopen. Number must go up. Let op, dit is niet de enige shady deal die NVIDIA met z'n klanten doet. Zo huren ze bijvoorbeeld ook effectief hun eigen chips weer in via Coreweave (https://www.reuters.com/business/coreweave-nvidia-sign-63-billion-cloud-computing-capacity-order-2025-09-15/), die de chips van NVIDIA heeft gekocht, en die overigens die chips weer gebruikt om nieuwe leningen aan te gaan om meer van die chips te kopen (https://www.reuters.com/technology/coreweave-raises-23-billion-debt-collateralized-by-nvidia-chips-2023-08-03/)

De vraag is niet of deze bubbel gaat knappen, maar wanneer.

[Reactie gewijzigd door vickypollard op 22 september 2025 22:57]

Wij doen dat natuurlijk ook gewoon in de EU , honderden miljarden euro’s in onder ontwikkelde gebieden. En straks kopen ze onze spulletjes.
Two wrongs don't make a right.
Dat is uw bescheiden mening, maar ik zou eerder zeggen twee keer goed maakt het niet slecht.

We gaan morgen zien wat de markt er van vindt, en dat zegt ook verder weinig.

Terwijl de markt bij deepseek leek in te storten dacht ik als je voor zo weinig geld gebruik kan maken van Ai dan is het juist een groter succes,

Niks mis mee om niet met de kudde mee te lopen, tenzij je direct door emoties een ravijn in draafd .
Hoeveel zou één ai chip van Nvidia kosten? Bij 20.000 dollar en 5 miljoen chips zou de deal in balans zijn.
20.000 dollar zou zo maar kunnen. Als je kijkt wat een "simpele" processor als een Intel Xeon met 64 of meer cores als kost dan is 20k voor zo'n NVIDIA chip mogelijk.
De individuele chips zelf zijn niet zo heel boeiend, men loopt vooral binnen op de complete servers en de kracht van verticale integratie; er is eigenlijk geen andere leverancier die voor alles wat Nvidia aanbiedt een alternatief heeft.

Ik weet de cijfers niet meer exact maar ik geloof dat voor 2025 men het doel heeft om iets van 60k tot 80k Blackwell GB200 servers te verkopen met daarop een omzet van 210 miljard dollar.
Strategic partnership enables OpenAI to build and deploy at least 10 gigawatts of AI data centers with NVIDIA systems representing millions of GPUs for OpenAI’s next-generation AI infrastructure.
Je vraagt je af wat ze met al die rekenkracht gaan doen aangezien inmiddels dus wel duidelijk is dat je met nog meer brute kracht je geen AGI gaat krijgen.

Het voelt alsof partijen als OpenAI en NVidia inmiddels meer meegesleurt worden door het momentum van de markt dan "dat ze zelf het tempo bepalen". Investeerders willen dat het geld wat geinvesteerd word / verdient word aan het werk gezet word. Want als je het op de bankrekening laat staan zeggen investeerders: "Geef het dan maar weer terug, dat kunnen we zelf ook wel".
Je vraagt je af wat ze met al die rekenkracht gaan doen aangezien inmiddels dus wel duidelijk is dat je met nog meer brute kracht je geen AGI gaat krijgen.
Het is mogelijk dat nadat er 10-tallen jaren een AI winter is geweest met de toenmalige stand van AI(symbolic reasoning en shallow neural networks) en daarna een jaar of 10 'deep learning' zoals CNNs de stand van de techniek was, er nu een plateau komt waar de huidige stand van Transformers/LLMs niet/nauwelijks meer verbetert en er weer een revolutie nodig is om de volgende sprong te maken. Op meer/betere data trainen lijkt nauwelijks meer rendement te hebben en alleen met enorm veel resources nog enige verbetering te brengen. Ook hallucinaties lijken inherent te zijn aan deze technologie.

Ook interessant dat de Transformer voornamelijk als vertaalsysteem ontwikkeld werd en de ontwikkelaars de huidige toepassingen niet/nauwelijks voorzien hadden en wat we nu als AI kennen dus eigenlijk min of meer een toevallige ontdekking was.
Dit lijkt me vooral gedaan om AMD een hak te zetten. Die gaan nu geen voet aan de grond krijgen bij een van de grootste AI bedrijven, waardoor hun marktaandeel op dit gebied ook in de toekomst klein zal blijven.
Ik weet weinig van amd en chips voor ai, misschien bedoelt u arm, want daarvan weet ik wel iets en Google ai ook.
Hardware technisch zijn AMD ai chips het snelst. Veel bedrijven gebruiken nvidia omdat hun software integratie beter werkt. Hardware van arm en google komen niet eens in de buurt van nvidia/AMD chips.
ChatGPT-maker OpenAI heeft beloofd vier tot vijf miljoen AI‑chips te kopen van Nvidia. De chipmaker belooft op zijn beurt honderd miljard dollar te investeren in OpenAI.
Kun je dat tegen elkaar wegstrepen dan?
Nvidia zegt een megadeal gesloten te hebben en investeringsruimte in een hot ai bedrijf te hebben, goed nieuws, aandelen stijgen... openai zegt een mega investering binnengehaald te hebben en hun toekomstige compute veilig gesteld te hebben in een schaarse markt, aandelen stijgen. Uiteindelijk betalen investeerders het. Maarja, win/win zero sum deals zijn niet altijd slecht natuurlijk. Misschien boomem beide nu, hoewel ik het betwijfel.

Zuckerberg bekende ook laatst de mogelijke bubbel ergens, en stelde dat hij het ok vindt als er veel failliet gaat en honderden miljarden verdampen als dat hem zijn infrastructuur oplevert voor toekomstige winst. Socialise losses, privatise profits.
Dat is interessant! Wanneer en waar zei Zuckerberg dat? Kan ik dat terug zien/horen/lezen?
Zoiets denk ik? https://fortune.com/2025/09/19/zuckerberg-ai-bubble-definitely-possibility-sam-altman-collapse/. Dit is van twee dagen geleden.

[Reactie gewijzigd door vickypollard op 23 september 2025 00:27]

Je moet ook nog nieuws: WSJ: OpenAI wil voor 300 miljard dollar aan compute afnemen bij Oracle erbij nemen.
  • Nvidia levert compute chips aan Oracle
  • OpenAI neemt compute af van Oracle
  • OpenAI "betaalt" maar 200 miljard aan Oracle


Om te kunnen reageren moet je ingelogd zijn