'Intel onthult binnenkort nieuwe Arc Pro B60-videokaart met 24GB vram'

Intel kondigt later deze maand nieuwe Arc Pro-videokaarten voor workstations aan, zo bevestigt het bedrijf. Volgens bronnen van VideoCardz gaat het om een Arc Pro B60 die beschikt over 24GB aan GDDR6-geheugen.

Intel Arc Pro op Computex 2025
Bron: Intel

Intel bevestigt op sociale media dat het nieuwe Arc Pro-videokaarten zal aankondigen tijdens de computerbeurs Computex, die vanaf 20 mei plaatsvindt in Taiwan. Het bedrijf lijkt daar dit jaar geen uitgebreide keynote te houden, in tegenstelling tot AMD en Nvidia, maar is wel aanwezig op de beursvloer. Intel bracht eerder al Arc Pro-videokaarten voor workstations uit. Die waren echter nog gebaseerd op Arc Alchemist, die inmiddels is opgevolgd door Battlemage. De nieuwe Arc Pro-kaarten worden vermoedelijk gebaseerd op die nieuwere architectuur.

Volgens bronnen van VideoCardz wordt de Arc Pro B60 een van de modellen die Intel aankondigt tijdens de Computex. De techwebsite meldt dat die kaart gebruik zal maken van een BGM-G21-gpu, die ook in de bestaande Arc B580-consumentenvideokaart zit. Daarmee moet de Arc Pro B60 beschikken over twintig Xe2-cores voor een totaal van 2560 shaders. De Pro-variant zou wel dubbel zoveel vram krijgen voor een totaal van 24GB. De geheugenbus van 192bit blijft hetzelfde. Het is niet bekend wanneer de B60 op de markt moet verschijnen of wat hij gaat kosten.

Door Daan van Monsjou

Nieuwsredacteur

08-05-2025 • 14:46

50

Lees meer

Reacties (50)

50
49
16
1
0
25
Wijzig sortering
Kijk 24GB VRAM maakt het intressant. Krijgen we net zo wedloop als met telefoons?
Steeds meer opslag en ram zit daar in.

[Reactie gewijzigd door Cybermage op 8 mei 2025 16:02]

Dit is precies waarom we onderlinge concurrentie moeten aanmoedigen i.p.v. die "ag ik vind t allemaal wel best dat er maar 1 gigant is die alles doet".

Dit is een mooi kenmerk van meer concurrentie, er gebeuren dingen om consumenten te verleiden om hun product te verkopen, als het bijv Intel lukt omdat te doen met RAM, moet de rest daarna eigenlijk ook wel volgen. Laten we Intel een mooi marktaandeel toewensen (en dan ben ik dus niet een Intel fanboy).
Principieel helemaal mee eens, maar als het AMD al niet lukt om nVidia te dwingen meer ram op hun kaarten te monteren, dan zie ik Intel daar eerlijk gezegd ook niet zo snel in slagen.
Dus kun je maar beter opgeven, is niet anders..
maar als het AMD al niet lukt om nVidia te dwingen meer ram op hun kaarten te monteren
AMD speelt het zelfde spelletje als nVidia. Zij hebben ook maar 16gb geplaats op de huidige generatie kaarten. Het kost een paar tientjes extra om wat meer geheugen er op te zetten maar toch vertikken ze het.
Kan ik alleen maar aanmoedigen, kom maar op met highend kaarten met 64gb, ram zou toch relatief goedkoop moeten zijn op het hele ding. Ik denk dat ze dit niet doen vanwege AI, een 64gb ram videokaart zou daar heel erg interessant voor zijn, nu ben je aangewezen op peperdure Tesla's enzo. Daarom kon dit ding van intel ook nog wel eens interessant worden, afhankelijk van wat hij moet kosten.

Als er nou een fabrikant slim genoeg is om in dit bewust opengelaten gat te springen ...

[Reactie gewijzigd door Zoop op 8 mei 2025 15:25]

er is nog wel wat meer nodig dan wat ram chipjes..... kijk eens naar de technische specs van al de huidige GPU en hun geheugenbus principe, snelheden etc...

dez ekan dan wel mooi zijn met meer RAM maar is zuiver voor prof doelstellingen, die kaart heeft ander geheugen, andere clocks en bios afstellingen. niks consument aan tenzij eentje die wat thuis met AI zit te spelen.

[Reactie gewijzigd door d3x op 8 mei 2025 15:58]

Ik werk ook bij een bedrijf dat graag AI modellen zelf wil gaan draaien. We zijn een startup dus hebben geen geld voor H100 ofzo. Voor ons zou een GPU met 64GB voor een consumentenprijs fantastisch zijn en ik denk dat er nog veel meer kleine bedrijven zijn die zo denken.
daarvoor heb je nu net de workstations met PRO kaarten. Nog altijd een verschil met een consument design.
Ja klopt alleen deze zijn vaak ook nog een stuk duurder. Daarbij komt dat onze modellen misschien maar 30% van de tijd nodig zijn dus ze staan niet onder constante load. Zou dus prima kunnen met consumer hardware denk ik.
Zolang we het niet zien bij consumenten/gaming kaarten maakt het vrij weinig uit.
Ik zie eerlijk gezegd weinig meerwaarde in 24GB VRAM. De B580 (zelfde aantal shaders) is een kaart die het al behoorlijk lastig heeft op 1440p en ultra settings. VRAM wordt tijdens het gamen gebruikt om textures in te laden (en shaders, maar die vereisen amper geheugen). Als een GPU het al lastig heeft om op maximale settings 60fps te kunnen draaien, dan worden de grafische instellingen al snel naar beneden gezet door de eindgebruiker. Lagere settings betekent dat bepaalde textures op een lagere resolutie worden ingeladen en dat betekent dat er minder geheugen nodig is.

Eigenlijk moeten we helemaal niet willen dat er steeds meer en meer VRAM gekoppeld wordt aan GPU’s, want dat betekent alleen maar dat ontwikkelaars 'lui' worden en dat je als consument op een vrij korte termijn steeds kan upgraden.

Nog niet zo heel lang geleden moesten ontwikkelaars slim omgaan met textures. Textures werden hergebruikt voor tig verschillende objecten, door ze te spiegelen, en andere kleur te geven, ze anders te 'vouwen', door deeltjes te combineren, etc. Maar tegenwoordig zijn er games met 50+ GB aan high res texture packages die voor iedere neusporie van de protagonist een eigen unieke texture hebben. Games gaan er daardoor steeds realistischer uitzien, maar omdat de textures zo extreem gedetailleerd zijn worden ze amper hergebruikt.

Die details zijn mooi om te zien, maar je moet ook wel goed kijken om het verschil te kunnen zien. Zeker als je niet met je neus op het scherm zit.

Nu ben ik niet tegen vooruitgang, als je een 5090 koopt moet je er ook zoveel mogelijk kunnen uitpersen en is 32GB absoluut een meerwaarde.

Maar dit is een low-mid range GPU. Als 24GB de standaard zou worden voor dit soort GPU’s games er niet beter opeens veel beter uitzien of presteren. Het resulteert vooral in onnodig grote games.
Dit is een Pro kaart, niet bedoeld voor games. De 24GB VRAM zal zeker wel nuttig gebruikt kunnen worden voor AI toepassingen, ook met een meer midrange GPU ontwerp.
Het is ook lastig met alle consumenten producten waar ze tegenwoordig "pro" opzetten.
Snap ik, bij smartphones heb je Pro varianten die niets meer Pro zijn maar gewoon een betere camera hebben. Bij videokaarten wordt Pro momenteel niet echt gebruikt als suffix voor consumentenkaarten, al herinner ik mij wel de Ati Radeon 9700 Pro die dan wel een gaming kaart was.

Niet slecht bedoeld, maar het staat wel meermaals in het artikel dat de kaart gericht is op de workstation markt en een variant is van de B580. Het artikel is zelfs korter dan de rant die MadDogMcCree neergepend heeft. Maar dat was een reactie op Cybermage, en die heeft het over een wedloop terwijl 24GB voor workstation kaarten niet echt uitzonderlijk is, afhankelijk van de prijs.

Het is toch ook bij andere merken al jaren zo dat workstation videokaarten meestal meer geheugen hebben dan de consumenten variant. Ik zag gisteren nog iemand met Quadro K6000 kaarten uit 2013 met 12GB VRAM. De GTX 780 Ti had maar 3GB en de GTX Titan 6GB, beide ongeveer dezelfde GPU als die Quadro.

[Reactie gewijzigd door MacPoedel op 8 mei 2025 17:22]

Ik zat te kijken voor een ai gpu voor in mijn HA server, en Intel valt voor mij iig meteen af, vanwege het hoge idle verbruik B580 = 34W = €100/j voor 24/7 gebruik .
Tegenover 9070XT = 9W = €27/j of 5060Ti = 11W = €33/j.

En er is sprake van dat er een 9070XT 32GB komt, wat interessant is voor grotere llm's.
hoe lang denk je te kunnen doen met zo'n kaart dat je op amper 100€ per jaar IDLE kijkt?
Terwijl AMD al meerdere keren heeft gezegd van 'die komt er niet', komt vast wel een workstation variant uit met meer RAM, maar dus ook een berg meer geld.

Kleinere entry-level / mid-range GPU, maar met bakken aan RAM om te kunnen spelen en trainen met AI dingen en zo is toch wel interessant, als ze betaalbaar blijven.

HiDream-i1 heeft al 27gb nodig om te draaien, zelfs 4bit quantized versie heeft 13+ gb nodig (dus 16gb kaarten).
Kijk 24 VRAM maakt het intressant.
Voor de non-consumer markt, zeker. Maar daar waren 16Gb kaarten al jaren de standaard.
Lekker bezig Intel, kom nu maar op met die gaming variant en laat AMD en Nvidia maar weer wat prijsbewuster worden. In het levertijden topic is het "normaal" dat mensen reikhalzend uitkijken om 2,5k te betalen voor de nieuwste gpu. Bizar.
Ik denk niet dat je van deze kaart nog een gaming variant mag verwachten. De kaart is namelijk (gezien de die) al afgeleid van een gaming kaart: de B580. En ik denk niet dat Intel nogmaals een B580 gaat uitbrengen, maar dan met dubbel de VRAM. Des te meer omdat in het €200-350 segment 8GB VRAM nog steeds het meest voorkomend is en ze met 12GB VRAM op de B580 dus al een uitzonderlijke kaart bieden.

Deze kaart is vooral bedoeld om te cashen bij de AI-bros en degenen die workflows hebben waarbij VRAM de #1 prioriteit is.
En ik denk niet dat Intel nogmaals een B580 gaat uitbrengen, maar dan met dubbel de VRAM.
Mwa, waarom niet? De A770 had ook een “Limited Edition” met 2x zoveel ram, dus twee varianten van dezelfde kaart vindt Intel prima. Er zijn in het verleden ook wel vaker kaarten geweest die later een variant kregen met 2x zoveel ram (alleen nog niet van Intel). Dan krijg je als fabrikant ook weer even wat publiciteit. Ik zou het niet meteen uitsluiten.
is er al iets bekend dat Intel ook zijn ogen op gamers gaat richten?
Hoe bedoel je dat precies? Er zijn momenteel Intel kaarten die gericht zijn op gamers: Intel B580, A750, A770. Of ze altijd concurrerend zijn laat ik even in het midden, maar we hebben inmiddels al een aantal kaarten waarmee je prima kan gamen.
je uitleg is precies antwoord op mijn vraag. Ik dacht dat ze tot nu toe alleen AI en 3D rending gerichte kaarten maakte. Dat is wat ik eigenlijk altijd lees.
Of ze altijd concurrerend zijn laat ik even in het midden, maar we hebben inmiddels al een aantal kaarten waarmee je prima kan gamen.
Ja, Ze zijn immers ook later met GPU begonnen, toch? Maar wel goed om te horen dat ze al beginnen op te komen. Hoop dat ze Nvidia en AMD wakker houden.
Tweakers heeft er zelf ook een review van. Wellicht leuk om te lezen:
review: Intel Arc B580 - Grote stap voor Intel, kleine stap voor gamers

B580 is de opvolger van de A-serie kaarten en dus 'al' de tweede generatie kaarten van Intel.
Ik heb net ook gekeken via https://technical.city/en/video. Een B580 is net iets beter dan mijn 2060 super. Dus ik weet nu precies wat de B580 qua gaming aan kan en dan is het gewoon een goede 1080p gaming kaart en oke 1440p kaart.
Niet om flauw te doen, maar Intel doet al tig jaar aan GPU's, het enige is dat ze nu (weer) het proberen met dGPU's, waar ze voor langere tijd alleen iGPU's deden (in een wat verder verleden hadden ze chipset GPU's en ook dGPU's).

Het enige wat wel veranderd lijkt te zijn is dat Intel, qua GPU's, nu ook meer een focus heeft op performance, waar het in het verleden vooral licht gamen en desktop werk was.
Is totaal niet flauw, vandaar de toch. Het was een halve vraag/ opmerking. tevens heb ik het natuurlijk over dGPU. Voor wat ik wist hebben ze altijd alleen maar iGPU's gehad. Al had ik laatst een video gezien dat op inter iGPU's sommige lichte games te spelen zijn.
Het enige wat wel veranderd lijkt te zijn is dat Intel, qua GPU's, nu ook meer een focus heeft op performance, waar het in het verleden vooral licht gamen en desktop werk was
Dit is wat ik bedoel.
Tsja, ook die iGPU’s schommelden een beetje. Soms hadden ze ineens een enorme sprong waardoor gamen best mogelijk was (zoals de eerste Iris-gpu’s, die soms in lijn presteerden met de GT 750M van toen) en soms zetten ze jarenlang geen echte stappen op het gebied van prestaties. Maar eigenlijk zijn we natuurlijk al verwend sinds Intel geen GMA’s meer levert :+.
True. Het waren altijd prima chips, zolang je geen echt grafisch veeleisende games ging spelen was het over het algemeen prima te doen.

Zelf altijd meer van het strategie (rts, 4x, etc) genre geweest, en dat was an sich prima spelen op Intel iGPU's.
niet echt later , Ze waren eerder dan AMD en volgensmij zelfs Nvidea.

I740 was van 1998

Gforce 256 was van 1999


Battlemage zijn de 13de generatie GPU van Intel

[Reactie gewijzigd door Scriptkid op 8 mei 2025 15:44]

Another successor that was ultimately cancelled in September 2000 was the GPU (code-named Capitola) to be used in conjunction with the similarly ill-fated Timna processor. An unrelated project known as Larrabee was initially developed as a discrete GPU product before being cancelled in 2010 due to delays and unsatisfactory performance; the company would not revisit the idea of a discrete graphics card again until 2018, when the company said that it would produce a discrete GPU by 2020.[8] This would eventually culminate in a line of discrete graphics cards produced by Intel known as Intel Arc in March 2022, 24 years after the release of the i740. The Intel Arc series of graphics cards are based around the Intel Xe GPU architecture.
Ze waren misschien eerder maar ze zijn er al een tijdje neit mee bezig geweest. Ik lees uit een wiki artikel dat ze 24 jaren niks hebben gedaan aan desktop GPU's
Ik vergeet elke keer dat tweakers ouder is dan ik. Er is ook nog een artikel over de I740

[Reactie gewijzigd door RcsProst op 8 mei 2025 15:53]

Intel wou rond 2010 ook nog de Larrabee GPU uitbrengen, maar die hebben ze tijdens de ontwikkeling geannuleerd, in 2009.

Wikipedia: Larrabee (microarchitecture)
Definieer desktop GPU een IGPU is toch ook een desktop GPU,

Zoals ik al aangaf is dit de 13de generatie desktop GPU.
Ik bedoel de gene die je in de PCIe slot doet.
Volgensmij zijn je juist alweer gestopt met gamingkaarten met geen zicht op nieuwe kaarten.
Celestial (de volgende generatie) is volgens mij nog steeds op komst. Of ze daarna nog doorgaan is inderdaad de vraag maar laten we het hopen.
https://www.pcgamer.com/h...or-their-eventual-launch/

Deze recente informatie doet toch wat anders vermoeden.
Dat klinkt inderdaad al een stuk positiever dan wat ik in mijn hoofd had.
Interessant.

'Vroeger' hadden we ook een tijdje de VRAM wedloop, toen waren er zelfs GPU's die al het VRAM niet konden aanspreken of niet eens snel genoeg waren om het hele VRAM te vullen. Dus laten we vooral ook de specificaties en de prestaties van de GPU afwachten, voor we gaan juichen.
Nvidia GeForce FX5200 met 256MB DDR, twee keer zoveel geheugen als wat er op een FX5800 of FX5900 zat. :9

[Reactie gewijzigd door SirNobax op 8 mei 2025 19:29]

Nvidia heeft geen preoriteiten op de consumentenmarkt. Maar gaat vol voor AI ontwikkeling bij de tech giganten van deze wereld.
Dat is zo langzamerhand wel duidelijk. Anyway, Amd heeft prima opties, en als daar dan nog intel bij komt dan kan ik dat alleen maar aanmoedigen
Ik veronderstel GPU voor werkstations. Hoewel je hem technisch gezien zou kunnen gebruiken voor gaming, is zijn primaire doel zware 3D rendering ?
Ja, Hij zal voor dingen zoals Autocad en videobewerken bedoelt zijn. technisch gezien kan je hem voor gamen gebruiken. Maar is die neit voor geoptimaliseerd. Je kan dan denk ik beter naar een oudere generatie AMD of Nvidia kaart kijken.
Als ik aan veel vram denk heb ik altijd AI voor mijn neus.
Vraag me af hoe supported intel is in de AI wereld
Is dat niet een 'simpele' kwestie van 'Beschikbaar Vram = XX GB, fabrikant lekker belangrijk' in het geval van AI modellen? Mijn 'Hoed of rand/klok of klepel' kennis laat mij enkel denken dat AI graag snel Vram gebruikt om in te 'leven', lijkt mij dat het niet zozeer uitmaakt van welk merk dat afkomstig is.
Dat dacht ik ook inderdaad. Daarom zijn Macs in sommige AI-toepassingen zo geschikt, want die hebben relatief potente iGPU’s die soms beschikken over honderden GB’s aan “VRAM”.


Om te kunnen reageren moet je ingelogd zijn