'OpenAI bereikt laatste stap in ontwerpproces eigen AI-chip'

OpenAI heeft naar verluidt de laatste stap bereikt in het ontwerpproces van zijn eigen AI-chip. Het Amerikaanse bedrijf zou nog steeds op koers zijn om de custom AI-chip in 2026 door TSMC te laten produceren en nadien in de eigen infrastructuur te gebruiken.

Reuters schrijft dat OpenAI de AI-chip wil laten bakken op een 3nm-procedé van TSMC. De chip zou aanvankelijk in beperkte aantallen worden ingezet en voornamelijk worden gebruikt om AI-modellen te draaien. Het onderdeel zal echter ook in staat zijn om AI-modellen te trainen.

Volgens bronnen die Reuters sprak is het team dat de chip ontwerpt de afgelopen maanden toegenomen tot ongeveer veertig personeelsleden. Voormalig Google Tensor-ontwikkelaar Richard Ho staat nog steeds aan het hoofd van de afdeling. In oktober vorig jaar was er nog sprake van twintig werknemers.

Het is niet de eerste keer dat Reuters bericht over de AI-chip van OpenAI. In oktober vorig jaar schreef het persagentschap nog dat het AI-bedrijf samenwerkt met Broadcom en TSMC aan de custom AI-chip. OpenAI werkte toen naar verluidt aan gespecialiseerde inferencechips. In tegenstelling tot de meeste huidige processors is zo'n chip niet bedoeld om kunstmatige intelligentie te trainen, maar om op basis van een 'afgetraind' model en nieuwe informatie een resultaat te berekenen. De AI-chip zou vanaf 2026 geproduceerd worden. Op dit moment koopt OpenAI gpu's en andere processors bij fabrikanten zoals Nvidia.

Door Jay Stout

Redacteur

10-02-2025 • 15:34

34

Lees meer

Reacties (34)

34
34
14
0
0
8
Wijzig sortering
Vind het wel opvallend. Nvidia maakt al bijna 10 jaar chips met speciale AI functies. En OpenAI denkt dat ze op een paar jaar iets kunnen maken dat even goed is als Nvidia?

Voor alle duidelijkheid: ik juich dit toe. Nvidia is momenteel teveel een spil van de Westerse economie, en hoe sneller daar iets aan verandert, hoe beter. en hopelijk kunnen ze als de AI bubbel gebarsten is wat terug keren naar hun roots, namelijk gaming hardware...
Nja, NVidia doet natuurlijk méér dan alleen de AI-chips. OpenAI hoeft zich maar op één ding te focussen. Net zoals wat Apple met z'n Apple Silicon doet: die hóeven geen Windows te supporten en dergelijken, die kunnen gewoon voor hun eigen toepassingen specifiek ontwikkelen.
NVidia maakt chips die van alles kunnen. De Chip can OpenAI hoeft alleen het model uit te kunnen voeren. Het is dus geen gebruik maken van een "standaard" rekenkern die je o.a. voor AI kunt gebruiken. Maar het complete model in een chip zetten verwacht ik. Dus dit betekend ook dat als het model teveel veranderd. De chip moet veranderen.
en ze kunnen AI gebruiken om het te ontwerpen!
gaat extra snel...
Volgens mij bewijst dat alleen al dat het een commerciële hype is.AI had zichzelf zowel in hardware als software automatisch moeten optimaliseren met alle beschikbare middelen, tenzij het aan alle kanten kunstmatig wordt beperkt om het met een clubje mega-bedrijven te melken. Realiteit is dat het voor een end-user niet eens zelf een redelijk computerprogramma kan produceren.

[Reactie gewijzigd door blorf op 10 februari 2025 18:12]

Inderdaad.
Tot de dag, minuut, seconde, dat AI het plots wél kan. En dan is het gepasseerd. :+
@blorf trolt altijd. Kun je beter niet op ingaan.
Leg het eens anders uit dan...
DIe AI-bedrijven concurreren precies waar mee? Ze zijn allemaal in de race met hun eigen LLM. Nu eentje er bij die "open source" is. :z
Neuh, ik ga je niks uitleggen. Onbegonnen werk.
Wat een verrassing. 8-)
Euhm, het kan redelijk goed pocs programmeren? Kan mijn reis in Croatie wat voorbereiden en plannen? Op je vraag over waarmee het concurreert-> rekenmachine, vandaele,..
Een zoekmachine. Wacht...
Doe maar: "plan mijn reis Croatie" een paar zever websites krijg je en geen extra promt van verander eiland x naar eiland y enz.. maarja u soorte vit op alles,dus ik laat het hierbij.
Het zijn allemaal data-bunkers. De LLM's zijn een schijn-prestatie voor de buitenkant.
AI-services produceren niets van waarde. Dat zien ze als weggeven. Ze verzamelen tot ze er bij neervallen.
Er komt een moment dat ai haar waarde bewijst, zoek maar eens naar alphafold, die ai heeft meer structuren gevonden dan in alle tijd ervoor door specialisten bepaald is. 50 jaar onderzoek en de ai vind 10000x meer dan alle onderzoekers in alle jaren ervoor in een tijdsbestek van maanden.
Jaren geleden kon je al aan genome folding bijdragen. Dat gebruikte na verloop van tijd een deep learning-achtig systeem dat het iets versnelde door voorspellingen op basis van eerdere resultaten. Dat is wetenschappelijke software uit de biochemie-hoek.
Maar het is geen service als ChatGPT. Zelf heb ik er wel genoeg van. Er valt niks noemenswaardigs uit te halen. Helemaal een ramp wordt het als ze gewoon infornatie niet hebben en gaan kronkelen om dat te verbergen.
Ze hoeven het niet even goed te doen, ze hoeven maar een onderdeel te implementeren die voor hun nodig is. Ook gaat het meer om de kosten. Nvidia neemt nu 70% marge dus zelfs al zijn de chips niet zo goed, als ze maar een stuk goedkoper zijn is het al een net win.
'Even goed' hoeft niet het doel te zijn.
Wat minder goed maar stukken goedkoper, zuiniger of beter verkrijgbaar zijn ook zinnige doelen.
Nvidia maakt chips, volgens wat Nvidia denkt dat nodig is voor AI.
OpenAI maakt AI systemen, en heeft misschien ideeen die afwijken van die van Nvidia, ideeen die ze beter vinden.

AI chips zijn duur, want de vraag is gigantisch. Nvidia is daardoor degene die het grote geld verdient.
Daardoor kan zelf doen de kosten aanzienlijk verlagen.

Nvidia is zo goed als een monopolist op AI chip gebied.
Als bedrijf afhankelijk zijn van een monopolistische techgigant is geen gezond bedrijfsmodel. Dat weet elke app ontwikkelaar wiens app ineens uit de appstore gegooid word, of wiens idee ineens als standaard app meegeleverd wordt door die techgigant.
Ook Vendor lock-in zit je niet op te wachten. Je kunt maar beter zorgen dat dat niet gebeurt terwijl het nog kan.

Eigenlijk precies dezelfde problemen waar consumenten ook mee te maken hebben, maar grote bedrijven hebben de middelen en motivatie om er iets aan te doen.
Vind het wel opvallend. Nvidia maakt al bijna 10 jaar chips met speciale AI functies. En OpenAI denkt dat ze op een paar jaar iets kunnen maken dat even goed is als Nvidia?
Al hier aan gedacht?

1. Nvidia maakt chips voor algemeen gebruik, als ze zelf chips maakt dan kan je ontwerpen voor uw specifieke behoefde.
2. Nvidia vraagt de hoofdprijs. Zelf is uw eigen chip iets minder performant, je spaart nog steeds veel geld.
3. Je bent zeer afhankelijk van Nvidia. Als pakweg 70% van uw budget naar Nvidia gaat is dat een risico en aderlating.
4. Je bouwt geen Intellectueel eigendom op als het op AI hardware aankomt.
Vind het wel opvallend. Nvidia maakt al bijna 10 jaar chips met speciale AI functies. En OpenAI denkt dat ze op een paar jaar iets kunnen maken dat even goed is als Nvidia?
...
Blijkbaar.
Voor alle duidelijkheid: ik juich dit toe. Nvidia is momenteel teveel een spil van de Westerse economie, en hoe sneller daar iets aan verandert, hoe beter.
Een spil van de Westerse economie? Wat?
en hopelijk kunnen ze als de AI bubbel gebarsten is wat terug keren naar hun roots, namelijk gaming hardware...
Moest AI een bubbel blijken te zijn, dan zou het wel eens een hele uitdaging kunnen zijn om de implosie van die bubbel te overleven.
heb het niet zozeer over hun AI chips, maar eerder over hoe ze het grootste bedrijf ter wereld zijn en hoe hun producten in feite een rol spelen waar niet direct één van hun directe concurrenten iets tegenin kan brengen. Zelfs hun consumentenkaarten krijgen met moeite tegenwerk van AMD of Intel...
Ze zijn het meest waardevolle bedrijf. Niet perse de grootste. De waarde ligt gedeeltelijk id prognose dat hun producten veel gaan profiteren vd AI hype (hiervoor was het de GPU hype). Denk dat je de concurrentie in deze context niet volledig bij AMD en Intel moet zoeken. Er zijn veel partijen bezig met cores gericht op bepaalde aspecten van de AI hype. Persoonlijk verwacht ik daar eerder de concurrentie. De huidige AI toepassing LLM is volledig gebaseerd op GPU's. Het zou me niet verbazen dat iemand iets zal verzinnen wat fundamenteel anders werkt met hetzelfde resultaat.

Aantal jaren geleden al eens verdiept in CPU vs. GPU. Was een bepaald algoritme die op GPU 10 x sneller was t.o.v. CPU. Toen is dr ergens een slim persoon aan de slag gegaan en heeft op een heel andere manier ervoor gezorgd dat de CPU weer 2 x sneller was t.o.v. GPU.

In dat geval is de hele LLM (en afgeleide) markt wel interessant. Ben benieuwd of iemand een stukje hardware kan verzinnen wat de overmacht van Nvidia teniet zal doen. Als dat gebeurt zal het geen concurrerende GPU zijn maar een geoptimaliseerde LLM chip, kaart, algoritme, framework etc
De implosie van die bubbel gaat vooral een paar VCs en zeer welvarende beleggers raken. Het doet verder met de echte economie weinig (de toegevoegde waarde van AI is toch echt vrij beperkt en het gaat ook niet bepaald rap vooruit). Sterker nog, een daling in de vraag naar chips en daarmee dalende prijzen zouden zomaar tal van andere industrieën een steun in de rug bieden door dalende kosten.

[Reactie gewijzigd door Darkstriker op 10 februari 2025 16:53]

Een spil van de Westerse economie? Wat?
Denk aan alle video-editing, 3D rendering, gamingmarkt, alle bedrijven die compute nodig hebben, denk dan bijvoorbeeld aan architectuur of het doorrekenen van weermodellen, of het simuleren van hoe een auto verkreukelt bij impact.
Er is echt gruwelijk veel afhankelijk van grote hoeveelheden parallelle computerkracht en nvidia levert dat op dit moment als geen andere, vandaar de afhankelijkheid.
De chip lijkt alleen niet bedoeld om te concurreren met de bestaande Nvidia-chips. Ik weet ook niet of Nvidia plannen heeft om een chip te maken voor een "afgetraind" model, het lijkt mij dat dat tenzij ze zelf een model willen maken niet iets is waar Nvidia veel in zal zien. Dan maak je je chip toch al gauw afhankelijk van 1 klant/model en is de chip mogelijk niet even efficient voor AI modellen van een concurrent.
In tegenstelling tot de meeste huidige processors is zo'n chip niet bedoeld om kunstmatige intelligentie te trainen, maar om op basis van een 'afgetraind' model en nieuwe informatie een resultaat te berekenen.

[Reactie gewijzigd door jumbos7 op 10 februari 2025 16:06]

Vind het wel opvallend. Nvidia maakt al bijna 10 jaar chips met speciale AI functies. En OpenAI denkt dat ze op een paar jaar iets kunnen maken dat even goed is als Nvidia?
Dit soort molochen gaan altijd verder op iets wat ze al kennen. Misschien is er wel een betere manier. Had apple laatst niet best een prestatie neergezet met hun eigen CPUs?
Vind het wel opvallend. Nvidia maakt al bijna 10 jaar chips met speciale AI functies. En OpenAI denkt dat ze op een paar jaar iets kunnen maken dat even goed is als Nvidia?
Het issue is dan ook niet performance, maar performance per watt en performance per dollar. Nvidia wijzigt maar mondjesmaat hun basisarchitectuur en verkrijgt de toegenomen performance vooral door het verhogen van het aantal CUDA cores en daarmee de vereiste stroom. Als je de performance per watt en performance per dollar omlaag kunt krijgen, levert dat winst op. Ook de afhankelijkheid van CUDA verkleinen lijkt me een goed streven, omdat de invloed die NVidia daarmee heeft onevenredig groot is, wat een strategisch risico is.
In korte tijd met 40 man een alternatief maken voor nvidia-chips, dat is wel knap te noemen.
Niet helemaal... Ze gebruiken technologie van Broadcom (zie hier). Dit is vermoed ik hetzelfde team dat meegewerkt heeft aan de Google Tensor Processing units.
Ben benieuwd of ze zo iets alleen intern gaan gebruiken, of ook op de markt gaan gooien. Lijkt me dat er best vraag naar is, maar kan ook in de "verkeerde" handen vallen (Deepseek, vanuit hun perspectief :P)
Bij TSMC laten bakken in Taiwan. Mag dat wel van Trump? :?
Waarschijnlijk niet, want alles moet in Amerika gebouwd worden... Dat is toch een van de motto van Trump?
@JayStout
Het onderdeel zal echter ook in staat zijn om AI-modellen te trainen.
"Het onderdeel"?

Op dit item kan niet meer gereageerd worden.