OpenAI werkt samen met Broadcom aan eigen AI-chips, gaat ze vanaf 2026 gebruiken

OpenAI en Broadcom gaan samen AI-chips maken. Het is de bedoeling dat er 'voor 10 gigawatt' aan AI-accelerators worden ontworpen voor gebruik in de datacenters van OpenAI. De financiële voorwaarden van de samenwerking zijn niet bekendgemaakt.

OpenAI gaat de chips ontwerpen, waarna Broadcom ze vanaf de tweede helft van 2026 ontwikkelt en implementeert in de datacenters van OpenAI en die van 'partners'. De bedrijven zeggen dat de zelfontworpen chips in totaal 'voor 10 gigawatt' aan energie moeten verbruiken, maar concretere informatie wordt niet gedeeld. Alle eigen chips moeten voor het eind van 2029 in gebruik zijn genomen.

Volgens OpenAI is deze stap noodzakelijk om te kunnen voldoen aan de groeiende vraag naar AI. Het bedrijf ging onlangs ook al grote samenwerkingen aan met Nvidia en AMD, om zo aan meer AI-chips te komen. De ChatGPT-maker beloofde vier tot vijf miljoen chips van eerstgenoemde te kopen, waarna Nvidia honderd miljard dollar in OpenAI besloot te investeren. AMD gaat op zijn beurt 'voor 6 gigawatt' aan gpu's leveren aan OpenAI, terwijl het AI-bedrijf zo'n 10 procent van AMD's aandelen overneemt.

Er gaan al een jaar geruchten over een in-house ontwikkelde AI-processor van OpenAI, die in samenwerking met Broadcom wordt gemaakt. Volgens Reuters wordt de chip gemaakt op een 3nm-procedé van TSMC. Broadcom gaf vorige maand aan dat het een nieuwe klant heeft binnengehaald die bestellingen plaatst ter waarde van 10 miljard dollar. Volgens ingewijden ging dat om OpenAI.

Door Kevin Krikhaar

Redacteur

13-10-2025 • 16:57

31

Reacties (31)

Sorteer op:

Weergave:

Pfff.... Een deal van 6 maal Nederlands grootste energiecentrale (Eemshaven). Moeten we dit als wereld echt allemaal willen?
Ik snap het ook niet helemaal. Veel van de huidige AI modellen kunnen volgens mij niet winstgevend zijn. Ik ben bang dat als de reële kosten worden doorberekend naar de afnemers dat het voordeel van de AI toepassingen niet opwegen tegen de kosten. Er wordt op dit moment enorm gewed op dat een toekomstig model zo goed zal zijn dat het opweegt tegen eventuele arbeidsloon.
OpenAI's Altman gaf ooit aan in een interview, toen ze net hun 20000 USD/maand plan introduceerden, dat hun AI dan nog steeds niet winstgevend is. Is een speciaal plan voor een AI vorm vergelijkbaar met een persoon met een PHD achter hun naam.

De 20 USD/maand abonnementen vinden een veel groter publiek, maar met de mate waarin geld word verstookt, moeten er wel gigantisch aantallen abonnementen worden afgesloten om het financieel rendabel te krijgen. Je besteed beter tijd, geld en moeite aan lokale modellen. Ja, hun resultaten zijn minder, maar voor de echte taken die je met AI uit wil voeren, c.q. automatiseren, zijn de lokale modellen al goed genoeg.

Vooral als deze zich gaan specialiseren in een klein aantal kennisdomeinen. NVidia zelf heeft een paper geschreven, waarin zij omschrijven dat kleine specialisten de weg voorwaarts zijn in AI, niet de producten welke OpenAI/Anthropic/Google en anderen je door de strot willen duwen.

Want die oplossingen mogen zeer bruikbaar zijn op het eerste gezicht, maar ze zijn ook enorme overkill voor het overgrote deel van vragen die gesteld worden. En ze zuipen energie als een dolle en vereisen enorme datacenters en deze hebben ook een boel milieu-technische nadelen.

Lokaal is het energieverbruik stukken minder. En zelfs oudere NVidia GPUs zouden nog goed kunnen volstaan, als er een makkelijke methode zou zijn om hun huidige "kleine" VRAM modules te vervangen voor grotere.

Mijn n==1: heb een Ryzen 5 1400, met daarin 24 GB aan RAM, een GTX1060 met maar liefst 3 GB aan VRAM. Echter, met 1b modellen haalt deze computer nog steeds een snelheid van 55 tot 65 t/s.

Met kleinere modellen schommelt deze snelheid al gauw tussen 80 en 90 t/s. En dat is zelfs op ouwe meuk als dit erg werkbaar. Testen zijn gedaan met LM Studio (v0.3.30) wat een grafische schil is voor llama.cpp.

Op een andere computer, een i3 10e generatie met 32 GB RAM en een GTX1650 en 4 GB VRAM, is Tabby geinstalleerd. Deze software is op vLLM gebaseerd. De ietwat grotere modellen in deze opstelling hebben een snelheid die schommelt tussen 80 en 100 t/s, maar doen er veel minder lang over om hun 1e token te genereren, waardoor deze zeer responsief aanvoelen. Sterker nog, net zo snel als je van OpenAI/Anthropic/enz. verwacht

Tabby (software) wordt gemaakt door TabbyML (bedrijf) en is gratis te gebruiken met maximaal 5 gebruikers tegelijkertijd. Je dient de nieuwste NVidia driver voor je kaart in de Tabby host te installeren, maar ook de CUDA ontwikkelsoftware van NVidia (v12 voor de meesten, mijn 1650 werkt alleen met v11). Dat is in beide gevallen een 2,5 GB installer die je moet downloaden en installeren.

Maar daarna kun je via een batch of powershell scriptje Tabby starten in Windows (of Linux/Mac). Gebruik een browser en navigeer naar http(s)://localhost:8080 (of http(s)://<ip of FQDN>:8080. De allereerste keer zal het opstarten sloom zijn, omdat dan de door jou geconfigureerde modellen eerst gedownload moeten worden. Daarna start de Tabby software stukken sneller op (ligt aan de omvang van de door jou gekozen modellen).

Je krijgt dan een zeer bruikbare webpagina te zien waarin je gelijk kan chatten, documenten kan RAGgen, je github/gitlab projecten kan koppelen enz en dan gerichte vragen te stellen. Daarna zul je blij verwonderd zijn om te zien hoe rap je oude GPU nog is in combinatie met lokale AI. En betreur je het flink dat er maar zo weinig VRAM op is geplaatst door NVidia destijds.

Met Tabby heeft je oude afgeschreven apparatuur echt nog genoeg leven in zich als lokale AI machine, mits je er een GTX1xxx of beter in zet. Zou voor funsies Tabby ook nog eens onder Linux moeten draaien om te zien of dat dit nog beter werkt dan onder Windows.

Caveat: mijn preferentie is US Engels, dus heb ik een Engelstalige Windows, een Engelstalig toetsenbord en vragen stel ik ook alleen in Engels.

Noot:
Ben in geen enkele vorm betrokken bij Tabby de software of TabbyML het bedrijf, alleen een blije gebruiker van het gratis produkt.
De opzet is mooi. Tegelijk is een algemener 1B model wel echt heel beperkt en foutgevoelig, beginnen die vaak pas bij 8B omvang enige kwaliteit te antwoorden als je wat specifiekere vragen stelt. Gebruik je dan in plaats van algemene AI modellen heel gespecialiseerde modellen elk voor een soort taak/domein, en zo ja welke?
Wat kost het als we het allemaal op "de oude" manier blijven doen? Weet ik ook noet hoor, maar voordat we kunnen zeggen of iets veel is moet je eerst weten wat het nu kost.

Zelfde met de energieverbruik van algemene data centers. Die hebben forse aansluitingen maar als ieder bedrijf het inhouse zou doen is het meer.
Of dat inhouse meer energie verstookt dan datacenters, dat betwijfel ik ten zeerste.

Allereerst, alles inhouse betekent decentraal verbruik. Energie-distributie heeft wel wat reserve-capaciteit ingebouwd, dus voldoet het huidige grid nog en kan men verantwoord gridproblemen oplossen, zonder alteveel mensen tegelijkertijd daarmee lastig te vallen.

Op het eerste gezicht klinkt je comment heel logisch. Alles centraal, dus kan er efficienter worden gewerkt.

Dit argument klopt wanneer het om opwek gaat. Maar een datacenter is een verbruiker en dan houdt het argument amper stand. Want een datacenter moet geld verdienen, dus wordt dat ding volgepropt met servers, supersnelle netwerkapparatuur, koelinstallaties en waterzuiveringsinstallaties.

En dat gaat op grotere schaal dan je verwacht. Dus servers draaien op volle kracht 24/7, genereren heel veel warmte, dus staat de koelinstallatie ook op volle toeren te draaien. En die koelinstallatie heeft grote hoeveelheden superschoon water nodig, want anders hebben ze zo last van allerlei nare zut in koelleidingen en aircos, wat dan weer gereinigd dient te worden. En dat doe je niet zomaar, want dit zijn industriele aircos, welke worden afgesteld op koelprestaties, niet op zuinigheid.

En dan hebben we het nog niet eens over de supersnelle netwerkapparatuur. Er zijn namelijk switches welke 250000USD of meer kosten en deze hebben alle energie nodig van een 3-fasen aansluiting op 25A. En nemen een half tot heel full 19inch rack in beslag.

Nogmaals, ik denk dat je het energieverbruik van datacenters (zwaar) onderschat en het decentrale verbruik overschat.
Ik heb soms het gevoel dat bedrijven enkel samen werken met OpenAI om wat meer beurswaarde te krijgen.
Ik vraag me af wanneer die honderden miljarden die bedrijven investeren in AI terug verdient gaan worden. Want tot nu toe zie ik enkel meer nadelen als voordelen en ergens zou ik hopen dat ze AI zouden verbieden.
Garbage in garbage out!
Een mobiele provider in Finland gebruikt al een paar jaar AI om de performance van hun netwerk te monitoren. Zij kunnen potentiële problemen al zien voordat er merkbare performance degradatie is en het probleem oplossen voordat klanten storingen ondervinden. Sinds ze dit gebruiken is er geen netwerk outage meer geweest. Is dat een nadeel volgens jou?
Machine learning werd al lang en breed ingezet voordat Tjetdjiepietie populair werd. Ik denk dat er niet veel zullen zijn die machine learning onzin noemen. Generative AI daarentegen... een soort one size fits all overhyped net-niet oplossing voor niet-bestaande problemen, lijkt het wel.
Je kunt je de vraag stellen in hoeverre dat AI is. Monitoring tools verbeteren ook nog altijd. Maar als een bedrijf er de letters A en I kunnen op kleven, is het natuurlijk veel meer waard. En dat zie je nu overal in het bedrijfsleven opduiken.

In het (Belgisch) nieuws waren er twee voorbeelden:
  • Vuilniszak herkenning: Afvalzakken worden niet meer apart opgehaald maar alles samen in één vrachtwagen. Het afval wordt dan gemeten met videobeelden die verwerkt worden door AI. Dat is gewoon object herkenning. Er is geen AI nodig om een groene zak te onderscheiden van een zwarte zak.
  • beveiliging van tramlijnen: een camera is gericht op het traject en waarschuwt voor objecten op het spoor. Hoe simpel kan het zijn? Het terrein is netjes afgebakend en een lidar scant wat er voor de tram ligt. Daar heb je echt geen AI voor nodig
En de enigste reden dat dit in het nieuws komt, is door de letters AI
AI verbieden is een heel slecht idee. Dan zou je dat in heel de wereld moeten doen, en de rest van de wereld (china) gaat dat echt niet doen. En als enkel 'wij' het dan doen, dan staan we binnen 10 jaar zo ver achter en worden we letterlijo nder de voet gelopen door wie AI wél omarmd heeft.

We moeten wél gaan voor een realistische kijk, en duidelijk doelen definiëren, gealigneerd met zowel onze eigen normen en waarden als rekening houdend met de andere normen en waarden die de rest van de wereld erop nahoudt...
Deze video van eergisteren laat prachtig zien hoe alle Big Tech bedrijven in elkaar investeren om hun marktwaarde op te pompen.

YouTube: Big Tech Is Faking Revenue
Doet mij denken aan de dot-com bubble
Ik krijg het gevoel bij al die samenwerkingen dat openAI de bui ziet hangen (imploderen van de AI bubble) en dat ze zich daartegen willen indekken door anderen mee het bad in te trekken. Hoe meer er het bad in gaan (cruciale bedrijven) hoe groter de kans dat ze gered zullen worden (indien niet zijn de economische gevolgen niet meer te overzien) . Verder: Door afhankelijkheidscnstructies op te zetten verzekert openAI zich ervan dat als het fout dreigt te lopen, hun partners 'gemotiveerd' (lees: 'gedwongen') worden om ze overeind te houden...
Broadcom joining the infinite money glitch....
In het Financieel Dagblad was er ook een interessant artikel over:
'Met deal AMD zit OpenAI ook goed als de bubbel barst' https://fd.nl/financiele-...rm=app-android&gift=WSn3T (gratis te lezen)

[Reactie gewijzigd door RogerSch op 14 oktober 2025 03:06]

Ik vind Financieel Dagblaf wel een leuke naam :P Je linkje lijkt trouwens een maximum bereikt te hebben.
Aangepast en ja helaas de eerste 5 viewers kinnen het gratis lezen.
Categorie Albert Heyn verkoopt ook bier, dus dan zullen de appels die ze verkopen ook wel slecht zijn voor de gezondheid.
Het is in de mode om daar over te schrijven.

Het zal wel een trend zijn als je ziet hoe snel de ontwikkeling gaat.
Dus aandelen Broadcom kopen als ze ff dippen en nvidia voor de operationalisering dumpen :O
Beide aandelen had je al jaren geleden moeten kopen :P
Er zal zeker ooit weer een crash komen, maar wanneer weet niemand. De koersen staan hoog, maar als je jaren geleden laag bent ingestapt in deze aandelen is er geen reden tot verkoop. Op de huidige koersen zou ik in ieder geval niet deze 2 bijkopen.
Tuurlijk dat er een crash zit aan te kopen maar dan moet er ook wel een volgende bubbel in het zicht zijn om interessant te zijn. Als bedrijf X (broadcom, nvidia, chatgpt, ...) in mekaar stuikt, kan je misschien wel goedkoop aandelen kopen maar dan moet er wel een vooruitzicht zijn dat ze weer omhoog gaan
Buy and hold is de strategie die het meeste rendement oplevert. Ook niet met hypes meegaan. Die moet je voor zijn. Nvdia en Broadcom had je 3 jaar geleden moeten kopen. In dat geval ben je er nu niet mee bezig of ze 50% dalen, want dan sta je nog steeds op een mooie winst. Ik houd ze dan ook gewoon aan, en mocht er een dip komen, dan zit ik die gewoon uit. No stress.
Per abuis dubbel geplaatst.

[Reactie gewijzigd door P. vd Loo op 14 oktober 2025 01:05]

En de burgers wereldwijd moeten energie besparen, laat me niet lachen. Zolang we AI onzin toestaan moet de groene deal van tafel.


Om te kunnen reageren moet je ingelogd zijn