Maxsun brengt eerste Intel Arc B60-kaart met dubbele gpu met 48GB vram uit

De Chinese fabrikant Maxsun heeft een Intel Arc B60-videokaart aangekondigd met daarin twee gpu's en in totaal 48GB aan vram. Vorige week verscheen die kaart al online, maar nu toont het bedrijf die kaart officieel.

Maxsun heeft de kaart tijdens Computex definitief aangekondigd, nadat het bedrijf die vorige week al kort op zijn website had staan. Het gaat om een Arc Pro B60, de nieuwe zakelijke videokaart die Intel eerder deze week tijdens de techbeurs al aankondigde. De Arc Pro B60 is een videokaart voor zakelijk gebruik en workstations die is gebaseerd op de Battlemage-architectuur, waarmee het feitelijk een zakelijke variant van de B570 en B580 is.

Intel zei bij de presentatie al dat er ook dual-gpu-varianten van de kaart zouden uitkomen. Maxsun heeft daarvan nu het eerste product uitgebracht. Omdat Maxsuns B60 twee gpu's heeft, verdubbelt daarin het videogeheugen. Dat is in de B60 standaard 24GB, dus heeft de Maxsun Arc Pro B60 Dual 48G Turbo, zoals de naam al voorspelt, 48 gigabyte aan vram aan boord. De helft daarvan zit op de voorkant en de andere helft op de achterkant van de kaart, spotte Tweakers op de beurs.

Waar op de beursvloer nog weinig bekend was over de kaart, geeft Maxsun nu iets meer informatie. Zo is duidelijk dat de kaart twee PCIe 5.0-interfaces heeft en kan worden gebruikt op moederborden waarbij een x16-slot kan worden gesplit. Verder heeft de kaart native ondersteuning voor verschillende llm's en aanverwante software, zoals PyTorch en Intels ISV. Wanneer de videokaart uitkomt en wat hij gaat kosten, is niet bekend. De kans is niet groot dat dat in Nederland zal gebeuren; Maxsun levert hier meestal niet. Bovendien is de kaart voornamelijk bedoeld voor zakelijke toepassingen zoals in AI-centers en niet voor consumenten.

Door Tijs Hofmans

Nieuwscoördinator

21-05-2025 • 11:01

39

Reacties (39)

39
39
11
0
0
24
Wijzig sortering
Wat is het voordeel van twee losse gpu's ipv meerdere gpu's samenvoegen tot een grote chip? Zoals apple heeft gedaan met haar M chips.
Modulariteit, het is veel makkelijker om een zooi gelijke chips te maken en voor een krachtiger apparaat gewoon een langere PCB te maken en er 2 op te plakken dan het is om een enkele niche GPU te bakken met een grotere die, zeker gezien het marktaandeel. Intel heeft gewoon nog geen breed aanbod en dit is een logischere stap dan een monolithische mega GPU maken.
Maar dat is niet wat Apple doet, die maken geen grote monolitische die. Ze maken 2 dies en plakken die letterlijk aan elkaar. Elke die heeft aan 1 kant een hele grote interconnect (die apple UltraFusion noemt). Ze pakken dan 2 identieke dies proppen die in 1 package met de 2 interconnects tegen elkaar. De M1 Ultra die bijvoorbeeld is exact dezelfde als die in de M1 Max, er zitten er alleen 2 naast elkaar.

Zie hier voor details.
Even grofweg dit:
Voordelen:
  • Warmte
  • Zoals [~Vinny_93] aangeeft is warmte er eentje, gezien de hotspots zijn verdeeld over een groter oppervlak.
  • Complexiteit
  • Dit zijn gewoon twee videokaarten op 1 slot, niet meer niet minder. Het systeem zal ze hoogstwaarschijnlijk als 2 apparaten zien
Nadelen;
  • Tragere geheugen communicatie
  • De communicatie tussen het geheugen van chip 1 en 2 verloopt waarschijnlijk via de CPU (PCie). Het zou kunnen dat ze een trucje hebben toegepast om de communicatie op de kaart zelf te laten verlopen (soort ingebakken nv-link) maar dat weet ik niet.
Nadelen;
  • Tragere geheugen communicatie
  • De communicatie tussen het geheugen van chip 1 en 2 verloopt waarschijnlijk via de CPU (PCie). Het zou kunnen dat ze een trucje hebben toegepast om de communicatie op de kaart zelf te laten verlopen (soort ingebakken nv-link) maar dat weet ik niet.
Ik denk niet dat deze kaart een trukje gebruikt maar dit gewoon over de PCIe bus loopt.
Vroeger heb ik een asus dual kaart gehad, de 760 mars denk dat dat was, deze had ook twee losse gpu chips, die waren verbonden via een PLX chip, dat is een hele dure oplossing, maar toen had je nog geen of zelden pcie bifurnication.

Moederborden van de laatse generaties hebben dat standaard vaak wel, of iig de Zxxx varianten.
dus gewoon 2x 8 lanes pcie.
Het is in theorie denkbaar dat een AIB een PCIe switch-chip op de kaart zelf plakt. Maar MaxSun stelt dat het moederbord dit moet supporten, wat erop lijkt te wijzen dat ze dat niet gedaan hebben. Zonder PCI-e switch zullen de twee GPU's inderdaad via de PCIe root (i.e. CPU) moeten communiceren.
Als ik zou moeten gokken, zou ik zeggen warmteopbouw. Maar een logische oorzaak zou kunnen zijn dat Intel een grotere chip gewoon niet werkbaar heeft gekregen, dus dit is wat ze bieden en MaxSun vindt het nodig om dubbele capaciteit te leveren.
het kost ook geld om een grote die te maken bovendien is de intel kaart meestal low budghet en dus worden twee kaarten aan elkaar geplakt.
Dit is eenvoudiger en dus goedkoper te bouwen dan een chiplet bijv., jaren terug had je ook AMD kaarten met 2x een GPU op de print. En je hebt nu twee kaarten in één insteekslot, en vloeropppervlakte is nu eenmaal erg duur.
Goedkoper, hogere yields want meerdere kleine chips vs 1 grote, geen extra ontwikkelkost voor nieuwe chip uit te draaien, geen complexe nieuwe interconnect want je verplaatst het probleem naar de client op de PCIe bus.

Voor sommige doeleinden heeft dit nadelen, vooral wanneer je veel heen en weer moet tussen de twee chips. Maar voor veel compute, simulaties, en nu AI training en inference, is dat geen groot probleem en sowieso al de status quo voor grotere modellen / simulaties / etc.

Voor gaming geeft dit vaak wel enorm nadelig, tenzij een game specifiek gemaakt is om meer kaarten te ondersteunen, maar veelal is dit niet makkelijk en niet de moeite voor de weinige gebruikers met meerdere videokaarten in 1 systeem.
Ik zie het echte antwoord in de context van deze Intel kaarten er nog niet tussen staan: Project Battlematrix. Even snel geript van Heise.de:
Project Battlematrix

Intel also intends to sell the Arc Pro B60 in particular as part of workstations for AI inferencing. Up to eight Arc Pro B60s with a total of 192 GB of graphics memory (distributed across four plug-in cards) will then give AI applications a boost. With appropriate optimizations and adjustments, larger models can also be distributed across the graphics memory of different cards. This can also increase the number of simultaneous requests, for example, which would otherwise take up additional memory.

Intel wants to deliver optimized container-based software for LLMs that contain everything from Linux drivers to adapted LLMs with corresponding quantization to get started right away.
Zie ook filmpje van Linus Tech Tips.

De dual GPU is hier niet analoog aan SLI of Crossfire of zoeits. Het is gewoon meer GPU's in workstations / servers met beperkte PCI-e slots (PCIe bifurcation: van een 16x slot bijv 2 gpu's op 8x) en dat dan tezamen met Project Battlematrix.

Edit: Ah het was kort benoemd door @n4m3l355 :) .

[Reactie gewijzigd door snoopdoge90 op 21 mei 2025 15:45]

Het voordeel van de DualGPU oplossing is dat het minder ruimte inneemt (beide kunnen bijv 8 lanes van de 16 gebruiken in hun pci slot gebruiken), Efficienter te koelen is (dit soort kaarten draaien vaak* trager voor stabiliteit en koeling) en je op die manier een grotere totaal capaciteit kan realiseren op een compactere manier.
Gisteren op LTT lieten ze een setup zien met 4*2 gpu's en dan ook 192 GB geheugen. Samen met een stukje software kun je daar dus grote LLMs in draaien.
Vooral de kosten. Om meerdere chips aan elkaar vast te plakken vereist dure packaging zoals TSMC's CoWoS.
Meerdere chips op een pcb plaatsen is technisch gezien een stuk simpeler en daardoor goedkoper. Nadeel is natuurlijk wel dat de inter-chip bandwith en latency vele malen langzamer zijn.
Deze kaart is bedoeld voor toepassingen die goed scalen met meerdere GPUs, maar dan nog zal je scaling nooit perfect zijn. Je kunt dus bijvoorbeeld met 1 GPU 100% prestaties hebben en met 2 175% oid. Dit ding is gewoon twee B60 gpu's op één printplaat. Met twee normale B60 insteekkaarten zou je hetzelfde prestatieniveau hebben. Een logische GPU met 2x zoveel prestaties is in eigenlijk elke situatie beter en of ie nou met chiplets of monolitisch is maakt verder niet zoveel uit. Intel maakt alleen geen grotere GPU, dus dan moeten ze wat.
Vanochtend de aankondiging voor een 32gb 9700 AMD kaart, nu een van Intel met 48GB, het gaat eindelijk de goede kant op qua videogeheugen om LLM's lokaal te draaien.
Nvidia: Best I can do is 16GB
5090's komen volgens mij allemaal met 32 ;)
NVidia: Blackwell RTX Pro 96 GB kopen?
Leuk ja, voor die mensen die dat zouden willen, maar dit soort zakelijke kaarten zijn vaak wel een heel stuk duurder dan de consumentenvariant, en daar klaagt men vaak al over de hoge prijs..
Volgende stap is een case waarin de grafische kaart de basis vormt, en je een insteekkaart plaatst om in I/O en een beetje x86 processing te voorzien.
Waarom x86? AI is niet bepaald een sector met tientallen jaren aan legacy software. Zie NVidia Jetson., gewoon een GPU met wat ARM cores er naast. Ja, Intel zal voor Arc wel een voorkeur hebben voor x86, maar Intel gaat zeker niet voor zo'n GPU-first strategie.
Nu dit Intel kaarten betreft, vraag ik mij af of je dan ook 2 krachtige cpu's nodig hebt om het allemaal een beetje bij te benen. :+
Had een hoge verwachting hier van maar het is dus gewoon 2x een 24GB kaart via pcie 5 x8 met bifurcation.
Zou je ook twee van zulke kaarten naast elkaar kunnen zetten? Dan heb je wel een flinke voeding nodig gok ik zo.
Volgens mij kun je er zelfs 4 naast elkaar zetten, de video van Linus Tech Tips hierover laat dat zien :)

[Reactie gewijzigd door TV_NERD op 21 mei 2025 11:21]

Ik zie het nut niet zo.

Voor "kleine" lokale AI systemen met hoge interconnect bandbreedte heb je Tenstorrent en NVIDIA. AMD heeft geen zin meer om met niet cloud klanten zaken te doen blijkbaar, mi3xx or GTFO.

Hacken met consumenten onderdelen en weinig interconnect bandbreedte is een optie, maar dan ga je toch ook de consumentenkaarten gebruiken voor maximaal besparen? Deze kaart en de AMD 32GB kaart zijn vlees nog vis.
Dit is dan ook voornamelijk voor de chinese markt. Dit zijn geen consumenten onderdelen.
Wat houdt Intel tegen om na de dual, gelijk ook een quad of otca versie te maken?
Als het (kennelijk!) mogelijk is om méérdere GPUs het werk te laten uitvoeren en de takenlijst te verlichten doorsimultaan meerdere GPUs de rendertaken uit te delen, dan zou toch een 4X en 8X ook insteressant kunnen zijn?
Beperkte pcie bandbreedte en de bij horende moederbord ondersteuning.
bandtbreedte te kort met PCIE 6 , denk dat je disks en CPU die transfer rates niet bij zullen benen.

Wat wil jij naar die vid kaart sturen ?
PCIE 6 256Gb/s en is inmiddels 4 jaar oud
PCIE 7 wordt dit jaar afgemaakt voor 512Gb/s

[Reactie gewijzigd door Scriptkid op 22 mei 2025 10:43]

Gaat om pcie 5 en dan ook het aantal fysieke lanes.

De eerste server borden met pcie 6 worden nu courant en pcie 7 is er nog helemaal niet . En al zeker niet in de consumenten markt waarvoor deze chips gemaakt zijn.
Ook bij PCI 5 x8 heb je het dus nogsteeds over 64Gb/s dat is nogsteeds dubble zo snel als de snelste consumenten SSD kan leveren.
Je hebt ook een beperking op de mogelijkheden voor bifurcation , koeling en power delivery.

Je maakt een kaart die in zoveel mogelijk moederborden gaat werken dus je hebt echt wel wat beperkingen die veel eerder bereikt worden dan de theoritische limieten.

[Reactie gewijzigd door CrazyBernie op 22 mei 2025 17:09]

Je gaat geen quad cpu In een low end bord stokken Je zit dan in de enthusiast segment waar veel meer pcie lanes beschikbaar zijn. AMD epic series cpus etc
Hoe schalen dit soort dubbele GPU's voor RAW developing en fotoediting software met hoge resulitie files?
Hoe schalen dit soort hoge VRAM (24GB, 32GB, 48GB) bij diezelfde RAW foto developing software?

Willen software zoals DXO Photolab, Capture One, Adobe Lightroom doorgaans meer RAM (is Vram van 16GB het bottleneck?) of willen deze software doorgaans meer GPU cores (en is benutting van de volledige Vram voorbij 16GB een zeldzaamheid en dus zonde van het weggegooide geld) ?.
Intel heeft een demo waar deze b60's Deepseek draaien met 4 kaarten en 8 gpu's wat 192gb vram maakt. De rest van Deepseek draait helaas in ram, maar toch: YouTube: THIS is the Most Important GPU of 2025 vanaf 7:12.

Op dit item kan niet meer gereageerd worden.