'OpenAI gaat zelfontworpen AI-chips vanaf volgend jaar gebruiken'

OpenAI's eigen AI-chip gaat vanaf volgend jaar in productie, zeggen ingewijden tegen de Financial Times. Eerder bleek al dat OpenAI werkt aan een eigen chip voor het draaien van AI-modellen. Het bedrijf zou de chip samen met Broadcom ontwerpen.

OpenAI's eigen chip gaat vanaf volgend jaar in productie en wordt in datzelfde jaar nog geleverd, zeggen bronnen tegen de Financial Times. Het AI-bedrijf gaat de chip alleen gebruiken voor het draaien van zijn eigen modellen, zegt een van de bronnen tegen het dagblad. De AI-chip zal dus niet verkocht worden aan externe bedrijven.

Vorig jaar werd al bekend dat OpenAI aan een eigen AI-chip werkte in samenwerking met Broadcom. De chip zou gemaakt worden door TSMC op een 3nm-procedé, zo meldde Reuters eerder, dat toen ook meldde dat het ontwerpproces van de chip dit jaar nog wordt afgerond.

De twee bedrijven hebben de samenwerking nog niet officieel bevestigd. Broadcom-ceo Hock Tan zei donderdag wel dat het bedrijf een vierde grote klant heeft binnengehaald voor zijn activiteiten rondom custom-AI-chips. Volgens de ceo plaatste die nieuwe klant bestellingen ter waarde van 10 miljard dollar. Broadcom deelt geen concrete details over zijn klanten, maar volgens ingewijden gaat het hier om OpenAI.

Steeds meer techbedrijven werken aan hun eigen chips voor het trainen van AI-modellen, om zo minder afhankelijk te worden van de gpu's van Nvidia en AMD. Voor OpenAI werkten ook Google, Meta, Amazon en Microsoft aan hun eigen AI-chips, ook wel 'xpu's'. Broadcom werkte eerder al samen met Google aan het maken van Googles tpu-chips.

Door Daan van Monsjou

Nieuwsredacteur

05-09-2025 • 10:28

28

Submitter: Mapje

Reacties (28)

28
27
10
2
0
16
Wijzig sortering
De beslissing van OpenAI om eigen AI-chips te maken is een logische in de concurrentiestrijd tegen giganten als Google. Door een chip op maat te ontwerpen, kan OpenAI de prestaties van hun modellen zoals GPT-5 optimaliseren en de enorme kosten van NVIDIA-GPU's verlagen.

Google doet dit al jaren met hun TPU's, dus dit is een strategische zet om de controle te behouden en de afhankelijkheid van externe partijen te verminderen.

Tegelijkertijd is het een frustrerende ontwikkeling voor de 'pro-sumers' van AI modellen en de open-source gemeenschap, omdat het de kloof vergroot. Terwijl deze bedrijven miljarden investeren in hun eigen servers en gesloten hardware, zijn er nog altijd geen goede, betaalbare chips beschikbaar voor consumenten om thuis zware AI-modellen te draaien.

De hardwareleveranciers richten zich nu (logisch) op de winstgevende datacentermarkt, maar lijken inference on the edge enigszins te negeren. De DGX Spark van NVIDIA is nog altijd niet in de winkel. Met de toenemende kwaliteit van open-weight modellen zal uiteindelijk de vraag naar betaalbare lokale AI-hardware de markt dwingen om te veranderen.

Ik heb nog altijd de hoop dat de monopolie van de grote techbedrijven op de beste AI uiteindelijk doorbroken wordt door de collectieve kracht van de open gemeenschap.

Maar misschien ben ik naief.
'De collectieve kracht van de open gemeenschap'. Weinig kans denk ik. Je hebt er veel research en hardware voor nodig. En de collectieve kracht vind ik bij bijvoorbeeld linux ver te zoeken. Elke dev heeft zn eigen distro. Wat een verspilling van focus en resources. Maar dat is natuurlijk volledig imho.
broadcom werkt ook samen met Apple voor hun server specifieke AI chips. (codenaam ACDC dacht ik)
Dat klopt heeft ook hier op Tweakers gestaan: 'Apple werkt aan eigen AI-chips voor gebruik in datacenters' - Tweakers

Hoewel het daar niet om Broadcom zou gaan, maar om UALink, zie Nvidia vs Apple and the world: Apple may have just confirmed its ACDC superchip will use UALink tech van eerder dit jaar.

UALink is dan weer een alliantie waar meerdere techbedrijven in samenwerken: Alibaba, AMD, Apple, Astera Labs, AWS, Cisco, Google, Hewlett Packard Enterprise, Intel, Meta, Microsoft en Synopsys.

Ik vraag me af of OpenAI hier ook niet beter bij zou kunnen aansluiten ipv het hele wiel opnieuw uitvinden en alles in eigen beheer doen.
Ik vraag me af of OpenAI hier ook niet beter bij zou kunnen aanluiten ipv het hele wiel opnieuw uitvinden en alles in eigen beheer doen.
Ik denk juist van wel, we zitten in z'n enorme beginfase van het ontdekken van dit wiel. Daar is juist de meeste ruimte om je eigen pad te kiezen en er zijn nog zoveel verschillende wegen te bewandelen. Later kan je dan de beste ideeën samen tot 1 superwiel combineren.

Ik ben voor standaarden maar in de beginfase houdt dat ontwikkeling juist tegen, en met 10 mensen moeten overleggen of zelf je pad kiezen zonder overleg heeft ook wel veel invloed in ontwikkelsnelheid.

[Reactie gewijzigd door watercoolertje op 5 september 2025 10:47]

Op het moment dat dit ontwikkeld wordt om uiteindelijk als een standaard uit te brengen dan ben ik het met je eens. Ik ben het niet eens als dit een gesloten systeem wordt waarbij OpenAI alles gaat draaien op eigen hardware, software, etc.

Dus als het doel is om een open standaard te ontwikkelen waar de wereld beter van wordt, eens. Als dit als doel heeft om een gesloten systeem te maken waarbij het openAI alleen gaat om er financieel beter van te worden dan ben ik het niet eens.
Ze gaan dit uiteraard wel proberen natuurlijk, want als het lukt om dit als een gesloten systeem neer te zetten wat anderen enkel in licentie mogen afnemen, levert dit vele, vele miljarden op. Het is nu dus een ratrace, want al die grote jongens denken hetzelfde en willen de eerste zijn, zodat ze anderen kunnen dwingen licenties af te nemen. Geld!
Precies. OpenAI is naarstig op zoek naar producten die ze kunnen beschermen en daarmee in licentie kunnen verkopen om zo een grote inkomstenstroom te ontwikkelen.

Gezien de mega investeringen die OpenAI opgehaald heeft en nog altijd ophaalt, is dit noodzaak.
Ik vraag me af wat voor gevolgen dit wellicht voor Nvidia gaat hebben (Niet alleen OpenAI maar ook als andere bedrijven hun eigen chips gaan inzetten)

Ik had gelezen dat de bulk van nVidia's winst maar van 3-4 mega grootte bedrijven af komt. Als 1 of meerdere van die bedrijven opeens hun eigen chips gaan inzetten kan dat denk ik zware gevolgen voor Nvidia hebben
Ze verkopen ook heel veel (indirect ivm sancties) aan China. Dus voorlopig zullen ze nog wel goede resultaten neer kunnen zetten.
Maar ook China zal inmiddels op de achtergrond wel steeds meer bezig zijn met eigen productie. Zeker gezien de politieke sfeer op het moment.
Eens. Alleen, het is best moeilijk om je eigen chips te ontwerpen (en vooral te maken, in elk geval voor de highend chips).
Als jan met de pet het gaat hebben over nvidia aandelen weet je dat de bubble bijna gaat barsten
Weet ook niet of het een goed teken is voor een aandeel in OpenAI. Deze bestelling geeft een transitie aan van een R&D gestuurd bedrijf, waarbij gegeneraliseerde hardware word gebruikt om maar zo snel mogelijk en flexibel mogelijk nieuwe modellen te kunnen uitvinden. Naar een bedrijf die een service aanbied, met R&D op een 2 of 3e plaats. Want ze inversteren nu een enorme bedrag in eigen-chips, die allemaal ge-optimaliseert zijn voor een bepaald type model, b.v. goed in int4 berekeningen. Terwijl het best kan zijn dat in de toekomst int2 of mischien omgekeert toch weer double precision modellen het beste gaan werken.
Op dit moment is de vraag zo groot dat bedrijven nog steeds een combinatie doen van eigen chips en die van nvidia. Hun eigen productie kan de vraag gewoon niet bijhouden. Er gaat iig niet opeens een stuk van de omzet van nvidia weg, zoiets zal over een lange tijd geburen terwijl de bedrijfen de productie van inhouse chips opschalen. En dan gok ik dat over zo'n periode nvidia wel andere klanten vindt. De marges van 70%+ gaat nvidia alleen niet kunnen vasthouden.
Nvidia is zo gortig met ai prijzen dat het voor vele grote corporaties loont om zelf chips te laten maken.
Naast dat pure AI SOC zuiniger is ivm de rest wat gpu naast tensor cores heeft. Nv zal ook zelf dedicated AI soc hebben. Maar vraagt er erg veel voor. En dan zit je vast in AI nV ecosysteem. Kleinere corporaties die wachten of kijken naar alternatieven intel AMD
Dat zal wel meevallen, de orde portefeuille van NVidia is voor vele jaren gevuld. Ze hebben de productie capaciteit al voor jaren ingekocht, hun chips worden geproduceerd.

OpenAI staat in de kinderschoenen met haar chipontwerp. Voordat deze massaal van de productieband komt afrollen, ben je vele jaren verder.
OpenAI staat in de kinderschoenen met haar chipontwerp. Voordat deze massaal van de productieband komt afrollen, ben je vele jaren verder.
Maar zijn ze pas net begonnen dan? Het artikel stelt toch dat ze die vanaf volgend jaar al gaan gebruiken?

Lijkt mij persoonlijk wel (ver) voorbij het stadium 'in de kinderschoenen'.

Dan zou het best kunnen dat ze vanaf volgend jaar geen nvidia meer afnemen, het is niet dat je met alles over hoeft, wat ze nu hebben draaien kan gewoon langzaam vervangen gaan worden of gewoon blijven draaien (en de eigen chips voor uitbreiding)...

[Reactie gewijzigd door watercoolertje op 5 september 2025 12:27]

Zo werkte het niet met het opzetten van grote productie lijnen. Ze moeten toch echt naar een foundry en daar dikke contracten tekenen om de productie lijnen speciaal voor hun op te zetten. Dat zijn projecten die jaren lopen.

Het toverwoord is hier schaalgrootte.
Hoewel andere bedrijven zoals Huawei flink op weg zijn met de ontwikkeling van eigen ai chips, blijkt dat nog niet eenvoudig te zijn.
Hoewel hier de Huawei chips gebruikt worden voor het gebruiken van het model, het trainen ervan gebeurt nog steeds op nvidia chips (Zo worden de Google-Broadcom chips ook niet gebruikt voor het trainen van modellen).

Daarnaast zijn een groot aantal modellen gebouwd om gebruik te maken van onderdelen van het CUDA platform, wat eigendom is van Nvidia. De invloed van CUDA overschaduwt het open-source ROCm platform van AMD en het intel oneAPI platform, wat onlangs nogmaals duidelijk werd in de uitzending van Gamers Nexus.
Nu zou je denken: openAI/Broadcom kan toch de eigen architectuur schrijven? Dat is nog niet zo makkelijk, te zien aan het feit dat AMD en intel nog niet écht meespelen in de markt (Nvidia heeft 94% van het marktaandeel van losse grafische kaarten, al weet ik niet of dit ook datacentra beslaat). Dit duidt ook aan dat een vertaling (welke beide platformen natuurlijk aanbieden) nog niet zo gemakkelijk is.
Zoals in de bovengenoemde aflevering te zien is, zijn niet enkel de chips en de ondersteuning vanuit de fabrikant zelf belangrijk, maar ook de ondersteuning uit de gemeenschap. Zo wordt er aangegeven dat in de ai wereld uitvoerig gebruik gemaakt wordt van open-source software welke beter presteert op CUDA (zoals pytorch).

Hiermee wil ik niet zeggen dat nvidia alleenheerser blijft, noch wil ik zeggen dat ze binnenkort tweederangs ontwikkelaar zijn. Het duidt er wel op dat het volledig in gebruik nemen van een eigen chip, niet zonder slag of stoot zal gaan. De gevolgen voor Nvidia zullen daarom niet onmiddelijk zijn, wat ze mogelijk in staat stelt op de voorsprong voort te bouwen.
Steeds meer techbedrijven werken aan hun eigen chips voor het trainen van AI-modellen, om zo minder afhankelijk te worden van de gpu's van Nvidia en AMD.
Voor openAI zie ik de afhankelijkheid van Nvidia niet als grootste bedreiging overigens, maar de financiële situatie waarin ze zich bevinden.

[Reactie gewijzigd door Thonz op 5 september 2025 12:26]

Voor OpenAI werkten ook Google, Meta, Amazon en Microsoft aan hun eigen AI-chips, ook wel 'xpu's'.
Wat is dan een XPU, of wat is het verschil met een NPU bijvoorbeeld? En eigenlijk dat is voor zover ik weet ook niet meer dan een coprocessor die alleen AI-gerelateerde taken afhandeld (correct me if I'm wrong).
Daar zit denk ik het verschil, waar een npu een co-processor is is een xpu een hoofdprocessor die voor AI is geoptimaliseerd.
Volgens broadcom zelf een accelerator voor AI, dus geen CPU

https://www.broadcom.com/info/ai/3point5d
Hij zegt ook niet CPU maar hoofdprocessor.

Op je grafische kaart is je GPU de hoofdprocessor. En op die accelerator is de XPU de hoofdprocessor.
Volgens mij klopt de tekst niet. Het gaat hier specifiek over npu's (voor wat betreft het werken aan eigen AI-chips).
xpu wordt gebruikt als verzamelnaam voor alle pu's: cpu, npu, gpu, etc. En het kan ook gebruikt worden als algemeen systeem waar de software bepaald welke soort unit de taak gaat uitvoeren, dus een computer waarin meerdere soorten units zitten.
Er staat dat TSMC het gaat produceren voor ze dus niet China
Kan je dit eigenlijk vergelijken met een soort ASIC miner voor crypto, maar dan voor neurale netwerken? Zal hier ook een orde van grootte efficientie-winst bijkomen?


Om te kunnen reageren moet je ingelogd zijn