Reuters: Nvidia wil custom AI-chips voor andere bedrijven gaan ontwerpen

Nvidia wil custom chips gaan ontwerpen in opdracht van andere bedrijven. Volgens bronnen van Reuters richt het bedrijf een nieuwe divisie op die chips voor AI gaat maken, die specifiek gericht zijn op de wensen van andere bedrijven.

Reuters sprak met negen bronnen over de plannen. Nvidia verkoopt momenteel vooral general-purpose datacenterchips, die veelal gebruikt worden voor AI-toepassingen. Daaronder vallen bijvoorbeeld de A100 en H100. Het bedrijf zou in de toekomst echter ook aangepaste AI-chips willen maken, die speciaal zijn ontworpen naar de wensen van individuele bedrijven.

Veel grote techbedrijven maken momenteel gebruik van de A100 en H100 van Nvidia voor het trainen van AI-modellen. Tegelijkertijd hebben die chips vanwege de hoge vraag een lange wachttijd en bovendien kosten ze tienduizenden dollars. Verschillende techgiganten werken daarom aan hun eigen chips voor het trainen van AI-modellen. Die chips zijn, anders dan de A100 en H100, specifiek bedoeld voor het trainen van hun AI-modellen en zouden daarmee goedkoper en efficiënter moeten zijn.

Amazon heeft bijvoorbeeld zijn eigen Trainium-AI-chips, terwijl Microsoft onlangs zijn eerste Maia 100-AI-chips aankondigde en Google vorig jaar zijn Cloud TPU v5e-serie voor het trainen van AI-modellen introduceerde. Ook Meta en OpenAI overwegen volgens geruchten hun eigen AI-chips te ontwikkelen.

Reuters schrijft dat Nvidia dergelijke bedrijven wil ondersteunen bij het ontwikkelen van dat soort custom AI-chips. Momenteel wijken bedrijven daarvoor bijvoorbeeld uit naar Broadcom en Marvell, zo schrijft het persbureau. Volgens Reuters heeft Nvidia inmiddels gesproken met techgiganten als Amazon, Meta, Microsoft, Google en ChatGPT-maker OpenAI. Het is echter niet bekend wat de status van die gesprekken zijn. Het bedrijf zou daarnaast hebben gesproken met telecom-, automotive- en gamebedrijven, maar ook daarvan zijn geen details bekend.

Nvidia zei eerder al dat het bepaalde van zijn technologieën beschikbaar wil stellen voor andere bedrijven. In 2022 zei het bedrijf dat het een aantal van zijn netwerktechnologieën beschikbaar zou stellen voor chips van derde partijen, maar daar heeft het bedrijf sindsdien niets meer over laten weten.

Door Tijs Hofmans

Nieuwscoördinator

09-02-2024 • 16:08

5

Lees meer

Reacties (5)

5
5
1
0
0
2
Wijzig sortering
Eigenlijk geeft NVidia aan dat hun producten niet competitief zijn met Marvell.

Marvell bijvoorbeeld geeft ook hun ThunderX core in licentie; een beest van een CPU die 384 threads kan draaien.

Marvall heeft de custom ASIC club van IBM opgekocht van GloFo.

Bedrijven in de AI willen geld besparen, dus shoppen ze liever voor een chip-ontwerp dat ze nig kunnen laten optimaliseren, dan dure NVidia producten kopen.

Volgens mij heeft Marvell ook een aardige vinger in de pap in NPU's (vroeger DSP's). Maar er zijn meer.

Apple bijvoorbeeld was een bedrijf zonder competenties op dat gebied. Die kochten CEVA ontwerpen en plakten er Apple stickers op.

Ed: De reden trouwens dat NVidia waarschijnlijk zal falen:

Niemand wil graag aan NVidia vertellen wat ze nodig hebben, want dan kan NVidia die wetenschap (eigenlijk geheimen van klanten) meenemen in haar _eigen_ AI producten, die ook aan concurrenten van de desbetreffende klant wordt verkocht.

Hetzelfde als dat Apple geen cPu's bij Samsung wil laten maken, want samsung kan die kennis meenemen, in de exynos stoppen en die Exynos verkopen aan bijv. Oppo.

TSMC, ASML en ARM hebben al lang aangetoond dat uiteindelijk de 'omafhankelijke' bedrijven die niet concurreren met hun klanten en waar geen belangenverstrengeling is, winnen.

Als je als MSFT of FB kan kiezen voor iets laten ontwerpen door Marvell en je weet zeker dat Google en de AI chip ontwerptak van NVidia het niet ziet, of kiezen vor Nvidia zonder die gararantie en zonder dat die ervaring hebben met custom ASICs, dan is de keuze snel gemaakt.

[Reactie gewijzigd door kidde op 23 juli 2024 09:02]

Nvidia is wereldwijd de grootste leverancier van AI-gpu's die in cloudcomputing worden gebruikt voor het draaien van kunstmatige-intelligentietoepassingen, een markt die onlangs sterk is gegroeid. Marvell producten zijn niet competitief met Nvidia.
ze worden bang dat als iedereen zijn eigen meuk gaat maken hun general purpose spul fors minder verkocht zal worden dan is dit de beste oplossing om toch te blijven verdienen aan de AI boom
Dit is een logische evolutie van de markt omwille van de wijdverspreide interesse in artificiële intelligentie. Bedrijven zijn nu analyses aan het uitvoeren om de haalbaarheid van het volgende niveau automation te kunnen bepalen. En zodra je wat schaalgrootte hebt, wordt het al erg interessant om je niet te moeten plooien naar de levertermijnen van NVIDIA en daarnaast je niet blauw te moeten betalen aan hun general purpose oplossingen.

Daarentegen heeft NVIDIA een heel mooi ecosysteem en kunnen zij een volledige oplossing aanbieden van development en collaboration software, pre-trained models tot volledige hardware appliances om je AI modellen te trainen.

Maar men is ook al enkele jaren misbruik aan het maken van die monopoliepositie om gigantische winsten te maken. Vraag het maar aan eender welke gamer... Maar die trend is zeker ook door te trekken in hun professionele oplossingen.

Daar gaat de markt logischerwijze op reageren omdat het niet economisch leefbaar is om general purpose chips aan te kopen terwijl het mogelijk is om die chips veel goedkoper en efficiënter te ontwikkelen. Slim van NVIDIA om hierop te reageren door hun ervaring en kennis te kapitaliseren.
Ergens logisch; Nvidia doet dit reeds voor allerlei custom chips, van de GPUs/SoC's in gaming handhelds (Xbox 1 (anno 2000 dus), PS3, Ninendo Switch...) als ASICs voor in datacenter netwerk equipment. Het is maar logisch dat ze deze resources gaan inzetten voor andere bedrijven.

Op dit item kan niet meer gereageerd worden.