Nvidia kondigt NVLink Fusion aan, laat custom cpu's samenwerken met zijn gpu's

Nvidia's NVLink-interconnect komt ook beschikbaar voor andere chips. Dat maakte ceo Jensen Huang bekend tijdens de Computex. Met NVLink Fusion kunnen Nvidia's datacenterchips onderling verbonden worden met de cpu's en accelerators van andere bedrijven.

Met Nvidia's NVLink Fusion-techniek kunnen systeembouwers voor het eerst custom cpu's en asics combineren met Nvidia's datacenter-gpu's. Tot op heden was die interconnecttechniek, die wordt gebruikt om chips met elkaar te verbinden zodat ze als 'één grote chip' werken, grotendeels gesloten. Nu komt daar verandering in; Nvidia stelt zogeheten IP-blokken beschikbaar, waarmee andere bedrijven ondersteuning voor NVLink Fusion in hun eigen ontwerpen kunnen verwerken. Daarvoor moet in het ontwerp wel specifiek rekening gehouden zijn, dus NVLink Fusion werkt niet zomaar met iedere cpu.

Nvidia heeft al verschillende partners voor het nieuwe initiatief. Zo gaan Qualcomm en Fujitsu allebei cpu's maken die compatibel zijn met NVLink Fusion. Daarnaast ondersteunen chipbedrijven als MediaTek en Marvell de techniek ook, samen met onder andere Synopsys en Cadence; die laatste twee maken software voor het ontwerpen van chips.

Nvidia-concurrenten AMD en Intel werden overigens niet genoemd tijdens de presentatie van Huang. Beide bedrijven zijn lid van het UALink-consortium, dat aan een open alternatief voor NVLink werkt, samen met bedrijven als Apple, Broadcom, Google en Meta. Het lijkt er dus niet op dat die cpu-makers NVLink Fusion in toekomstige processors gaan verwerken, of in ieder geval niet op de korte termijn.

Chip-tot-chip-bandbreedte is een belangrijk onderdeel voor het opschalen van datacenters en 'AI-fabrieken'. Wanneer tientallen chips met elkaar verbonden worden, is bandbreedte namelijk al gauw een bottleneck. NVLink biedt een hogere bandbreedte dan vergelijkbare alternatieven als 'standaard'-PCIe, hoewel NVLink zelf ook gebaseerd is op PCIe. Die bandbreedtes leverden Nvidia een voordeel op in de hpc-markt.

Ter illustratie: NVLink Fusion maakt gebruik van de vijfde generatie van de interconnecttechniek. Die biedt in theorie 1,5TB/s aan bandbreedte per gpu voor een maximum van 72 gpu's, wat een totale bandbreedte van 130TB/s oplevert. Volgens de gpu-maker is de bandbreedte daarmee veertien keer hoger dan die van PCIe 5.0. Het is ook fors sneller dan alternatieven als CXL.

Nvidia NVLink Fusion op Computex 2025
Foto: Tweakers

Door Daan van Monsjou

Nieuwsredacteur

19-05-2025 • 10:57

13

Reacties (13)

13
13
4
0
0
9
Wijzig sortering
'AI-fabrieken'
Datacenters dus.
Dat hoeft niet perse. Het artikel zegt:
datacenters en 'AI-fabrieken'
Kan me voorstellen dat een (wetenschappelijke) organisatie ook een 'AI-fabriek' kan runnen zonder datacenter.
Rekencentrum dan.
Dat is een mooie benaming.
Groot computerapparaatje
Ook niet eens. De datacenter van CERN/LHC in Nikhef Amsterdam is een rekencentrum. Dan heb je de traditionele datacenters. Iets specifiek op AI heeft dus een ander naampje nodig. Hopelijk wordt dat niet officieel "AI-fabriek" want dat klinkt stom. AI-centrum ligt voor de hand, lijkt mij...?
De term AI-fabriek dekt redelijk de lading qua wat er zoal gedaan wordt binnen zo'n gebouw.
Het trainen en maken van algoritmes (om ze maar een generieke term te geven). Net zoals je koekjes maakt in een koekjesfabriek.

Voor het toepassen van deze algoritmes doe je meestal niet op dezelfde infrastructuur waar de training op is gedaan. Omdat je een andere eisen stelt aan connectiviteit en verdere inrichting van de onderliggende systemen.

Voor de term rekencentrum: Ja Nikhef is hier een voorbeeld van. Maar SURF, TU Delft, RUG, ASTRON en vele andere hebben ook een rekencentrum in huis. Allemaal doen ze aan grootschalige dataverwerking, maar wel allemaal op hun eigen manier.
Kijk ik naar waar ik de term 'AI-Fabriek' in Europa zie, dan is het grotendeels een datacentrum (supercomputer genoemd vaak) met nog een kleine kantooromgeving er aan vast. Deze woordkeuze zorgt voor minder weerstand bij het plaatsen van wat gewoon een datacentrum is.
Een AI fabriek wordt door Jensen expliciet benoemd in presentaties omdat een traditioneel datacenter de lading niet echt meer dekt.

Bij een AI fabriek werken GPUs samen voor dezelfde taak, hiertoe is een compleet andere infrastructuur ontstaan en ook nodig, waarbij je dus die racks hebt met 72 Nvidia GPUs die allemaal via een NVLink met elkaar verbonden zijn.

Bij een traditioneel datacenter zijn alle servers individuele computers en typisch enkel met elkaar verbonden met ethernet.
Of je nou NVLink of (Ultra)Ethernet of Infiniband of Postduiven(tm) gebruikt voor het koppelen van de GPUs, maakt niets uit of je het kan zien als een AI-fabriek of niet. Je kan prima een AI-fabriek bouwen door gebruik te maken van Ethernet. Een voorbeeld van zo'n systeem: https://datacentremagazin...ads-at-nscale-data-centre
Uiteindelijk bepaald je ontwerp van je systeem en wat je doel is, welk naampje je erop zou kunnen plakken.
We zijn het eens, ik had ethernet als traditioneel ethernet moeten bestempelen, waarbij het doel niet veel meer is dan dat al de computers in het data center bereikbaar moeten zijn via internet.

Het is grappig dat het geen sinecure is om het eenduidig te benoemen omdat er nogal een paradigmaverschuiving aan het plaats vinden is.

En dat er nog zat mensen zijn die dat nog niet beseffen of erkennen en flauw reageren dat een ai factory gewoon een data center is, vanwaar mijn eerste reactie.

Want een Formule 1 wagen is puur gezien ook gewoon een auto, maar het kan erg nuttig zijn om het toch een Formule 1 wagen te noemen ter verheldering van de context.

Over 10 jaar is het denk ik doodnormaal dat we het over AI fabrieken oid hebben.
Ik vermoed dat NVIDIA dit voornamelijk doet voor opslag, zodat een SAN aangesloten kan worden via NVLINK.


Om te kunnen reageren moet je ingelogd zijn