'Nieuwe Intel Arc Pro-gpu's krijgen 32GB geheugen voor zwaar rekenwerk'

De onaangekondigde nieuwe Intel Arc Pro Battlemage-gpu's voor workstations, de B65 en B70, zouden naar verluidt beide 32GB GDDR6-geheugen krijgen. Naar verwachting komen de videokaarten nog dit kwartaal op de markt.

Maxsun Intel Arc Pro B60 Dual 48G Turbo
Maxsun Intel Arc Pro B60 Dual 48G Turbo ter
illustratie

De Intel Arc Pro B65 en B70 hebben beide een 256bit-geheugenbus. In theorie zou dat met een geheugensnelheid van 20Gbit/s voor een bandbreedte van 640GB/s zorgen. De gpu's zouden gebruikmaken van de BMH-G32-gpu, zo meldt VideoCardz op basis van bronnen.

Het voornaamste verschil tussen de B65 en B70 is de hoeveelheid gpu-cores. De B70 zou op basis van 32 Xe2-architectuurcores tot 4096 FP32-cores krijgen, ofwel shadingunits. De B65 zou 2560 van deze cores krijgen.

Volgens het medium is het niet waarschijnlijk dat fabrikanten een consumentenvideokaart op basis van de workstation-gpu's gaan maken. Intel zou voorlopig geen interesse in een gamingvariant hebben en deze uitvoeringen van derden daarom niet willen ondersteunen.

Wel kwamen er onlangs nog geruchten over de Arc B770-consumentenvideokaart uit. Deze zou echter intern uitgesteld zijn en volgens een bekende leaker mogelijk helemaal niet meer op de markt komen. Er zijn meer aanwijzingen dat deze gpu voorlopig uitgesteld wordt.

Door Yannick Spinner

Redacteur

27-01-2026 • 11:08

75

Submitter: Scribe

Reacties (75)

Sorteer op:

Weergave:

Wat vreemd, de naam "Battlemage" doet mij vermoeden dat het juist een gamingkaart is. Maar het tegendeel is dus waar?
Battlemage is de codenaam van de architectuur: Wikipedia: Intel Xe

Intel gebruikt namen met de alfabetische letters voor de generatie:

A = 1e generatie -> Alchemist
B = 2e generatie -> Battlemage
C = 3e generatie -> Celestial
D = 4e generatie -> Druid

De naam zegt dus niets over het doel van de kaart (laptop, desktop, gaming, workstation etc), maar duidt enkel de generatie aan.

En dan daarbinnen heb je uiteraard weer de getallen (zoals 65, 70 in dit artikel), waarbij meestal geldt: hoe hoger het getal, hoe krachtiger de kaart.
Je hebt gelijk, maar de keuze van de namen duidt natuurlijk wel degelijk op gaming gebruik. Indertijd was Intel waarschijnlijk nog gefocusseerd op games, maar tegenwoordig is natuurlijk de complete wereldeconomie op AI, vandaar de gaming achtige naam voor kaarten waarvan het merendeel nu waarschijnlijk nooit voor gaming zal worden gebruikt.
Het zijn ook relatief generieke fantasy termen, niet heel veel anders dan de sterren van AMD of de Wiskundige van Nvidea...
Tuurlijk, maar de keuzes van AMD en NVIDIA zijn wat "serieuzer".
Als Intel aanvankelijk vooral op workstations of AI gemikt had, hadden ze waarschijnlijk een wat andere naamgeving gekozen.
Je hebt gelijk, maar de keuze van de namen duidt natuurlijk wel degelijk op gaming gebruik.
Inderdaad. Net als 'BatteEye' (Rockstar's anti-cheat tool). "De naam zegt dus niets over het doel van de kaart" kan dus waar wezen, maar dat is precies wat er wat raar aan is: ze suggereren weldegelijk een doel, maar dan zeggen dat dat doel er niets mee te maken heeft. Dat is alsof ik een 'SpeedyMouse' zou uitbrengen, en dan verbaasd zou zijn wanneer mensen dat associeren met gamen.
Elvenranger (ofzo?)

Maar ik ben benieuwd wat ze met de F willen gaan doen. :/
Ach daar is altijd wel wat voor te verzinnen.

Bijv:

E = 5e generatie → Elementalist
F = 6e generatie → Frostwarden
G = 7e generatie → Geomancer
H = 8e generatie → Harbinger
I = 9e generatie → Invoker
J = 10e generatie → Judicator
K = 11e generatie → Keeper

En zo kunnen we er vast nog wel meer verzinnen... :Y)
Oh, cool! Dan kunnen ze er wel even tegenaan :D
Dit klopt helaas niet helemaal meer nu, want Xe3 is nog steeds Battlemage? Maar Xe3P wordt dan Celestial?
Het is dan ook niet de naam van de kaart, maar de codenaam van de generatie van de GPU waarop deze gebasseerd is.
Inderdaad, maar ... zit er nog een video connector op ... dat is wat ik mij afvraag ?
Intel zou voorlopig geen interesse in een gamingvariant hebben en deze uitvoeringen van derden daarom niet willen ondersteunen.
Jammer, maar ik snap het wel. Voor gaming moeten er veel optimalisaties in drivers voor specifieke spellen geregeld worden. Er zit veel meer geld en veel minder onderhoud in datacenterdiensten, zeker met de LLM-bubbel.
Vrijwel alle games maken tegenwoordig gebruik van dezelfde off-the-shelf game engines dus daar zit het probleem niet zo in. Het is meer dat de datacenterklanten zo n beetje oneindig veel geld hebben en de hoofdprijs kunnen betalen.
Dit inderdaad,

Laten we hopen dat de debiele datacenter/AI bubbel maar heel snel popt, en als ze dan hééééél braaf zijn en de prijs eens terug correct is , dan "mogen" ze terug aan mij een gaming kaart verkopen :) :)
Ik vrees dat het barsten van die bubbel meer negatieve effecten heeft dan de situatie waar we nu in zitten. Ik heb liever dat de boel zich een beetje stabiliseert.
Die bubbel gaat knallen. Misschien maar beter nu ipv later als er nog meer geld verbrand is.

OpenAI zal eraan gaan, de rest zal eieren voor zijn geld moeten kiezen, inclusief de chipbakkers.
Dus in essentie terug naar de situatie voor rammaggeddon. Doen ze dat niet, gaan ze ook failliet.

Nou denk ik niet dat het gaat gebeuren, dus knalt die bubbel later met nog veel grotere schade. Als dat Nvidia, AMD, Intel, Samsung, Hynex etc meetrekt zijn de rapen echt gaar in techland.
Veelste simplistische kijk op de wereld. GPU gebaseerd rekenen was al flink bezig met groeien voordat OpenAI de chatbot bubbel heeft geïnitieerd. Het is maar de vraag of de hardware bubbel ook gaat knappen op het moment dat de chatbot/agent bubbel knapt.

Daarnaast heb ik een beetje problemen met deze manier van nadenken. Toen ik 8 jaar geleden mijn huis kocht twijfelde we of het slim was om iets te kopen op het hoogtepunt vd markt die op knappen staat. 8 jaar later blijkt dat het nog veel gekker kan
Dat klopt wel, maar er is nu een spurt ingezet. En het is nog maar de vraag of er zoveel nodig is.
Er word onzettend veel geld rondgepompt, maar verdienen? Dat zie ik nog niet echt.

En vergeleken met een dak boven je hoofd is AI natuurlijk wel een beetje van de afdeling overbodige luxe.
Ik ben eerder bang voor de software reuzen, investeerders en banken, met hun 1000en miljarden aan commitments. Dan voor de hardware boeren die gewoon betaald zijn voor de geleverde hardware.

Ja ze zullen heel fors marge verliezen, maar die AI producten komen niet op de consumenten markt want dat past niet op onze moederborden.
Het geld wat Nvidia investeert in OpenAI koopt OpenAI weer Nvidia handel mee terug.

Gezien de marges van Nvidia op hun producten blijven die wel bestaan.

OpenAI verdiend oprecht geen pepernoot afgezet tegen hun investeringen. En die bubbel gaat klappen. De vraag is alleen wanneer.

“the markets can stay irrational longer then you can stay solvent.”

John Maynard Keynes
Dat is precies wat ik bedoel. Geld word rondgepompt, maar een echt serieuze buisenesscase zie ik op het ogenblik niet. Ja, allemaal luchtkastelen wat de AI bedrijven je willen aansmeren.
Op dit moment is er geen business case. Niet afgezet tegen de miljarden aan investeringen.
Maar de prijzen zakken ... Als ze het niet meer kwijt geraken misschien. Maar als een bedrijf slechts 500 miljoen winst maakt ipv 900 miljoen dan is het een slecht jaar hoor. Zo denken de mensen op de beurs. Tegenvallende resultaten heet dat ... Mijn eigen bedrijf maakt vorige jaar slechts 5k meer winst dan het jaar voordien ... Er zijn veel mensen die niet snappen dat er geen oneindige groei kan zijn. Als de markt verzadigd is, dan mag je doen wat je wilt, maar dan kan je met moeite nog groeien. En dan blijft er alleen prijs verhogen over om meer winst te maken
Goh,

Stabilizeren is dan spijtig genoeg wel terug gaan naar de tijd sinds corona waar ze door gekregen hebben dat er genoeg "gamers" zijn waarvan pappy geen probleem heeft om 4000+ euro neer te tellen voor een videocard die "eigenlijk" 1500 euro waard is :( :(

Maarja, zullen wel dromen blijven vrees ik, maar een goede harde knal zou ook echt niet slecht zijn voor moment, want ben trouwens zeker dat er nu nog meer dan genoeg vooraad is van bijvoorbeeld home desktop ddr5 , nu zijn ze gewoon aan het speculeren tegen de schaarste die er gaat komen omdat alle productie gaat naar de AI "bubble" Die gasten kopen geheugen dat nog moet gemaakt worden, met geld dat ze nog moeten verdienen, met investeringen die ze nog moeten aantrekken ?
OpenAI verliest tussen de 7 en 10 euro per euro inkomsten.

Een zwart gat valt niet te stabiliseren.
exact,

Ik wacht op de implosie :)
kan nog wel even duren. Met de kredietcrisis duurde het ook vrij lang tot het kaartenhuis in elkaar donderde.
Das ook het probleem, het kaartenhuis was inmiddels tot een wolkenkrabber gegroeid.
Vrijwel alle games maken tegenwoordig gebruik van dezelfde off-the-shelf game engines dus daar zit het probleem niet zo in.
Wat raar dan dat alle GPU makers dan toch elke (driver)update game-specifieke verbeteringen toevoegen. Doen ze dan expres moeilijk?
Er zal vast per game een optimalisatie nodig zijn maar dat zal niet de hoofdreden zijn voor GPU ontwikkelaars om te focussen op enterprise klanten.

Naast videokaarten zien we dit ook bij RAM geheugen en SSD's en hardeschijven.
maar dat zal niet de hoofdreden zijn voor GPU ontwikkelaars om te focussen op enterprise klanten.
Dat zegt ook niemand. Dat is natuurlijk geen reden om te doen of drivers maar simpel zijn omdat er maar een hand vol engines zijn :P

Eigenlijk hoefde je helemaal niks te zeggen over hoe moeilijk of makkelijk drivers zijn te maken/onderhouden (anders dan aangeven dat het eigenlijk niet relevant is). Het feit dat de andere doelgroep 10 tot 100 (of 1000?) keer zo veel op kan leveren spreekt uiteraard voor de beslissing die ze gemaakt hebben.

[Reactie gewijzigd door watercoolertje op 27 januari 2026 11:54]

Omdat ze dan net een cijfertje hoger scoren in benchmarks, waar je in de praktijk niet zoveel van merkt.
Zijn ook zat game-breaking bugs geweest, dat merk je wel...

[Reactie gewijzigd door watercoolertje op 27 januari 2026 11:36]

Soms zal de oorzaak liggen bij de maker van de driver, maar volgens mij 'repareert' de maker van driver ook vaak dingen die gewoon door slechte implementatie van de game makers komen. Het is in het beste belang van een AMD / nVidia / Intel dat games zo goed mogelijk draaien, voor de publieke opinie. Dus ook als de fout bij ontwikkelaar ligt zullen ze soms bug fixes uitvoeren.

Dat veel dingen redelijk plug and play zijn (direct X, standaard engines als UE5, Unity), pakt niet altijd heel positief uit natuurlijk. Ontwikkelaars worden er ook laks door en optimaliseren tegenwoordig een stuk minder dan vroegâh :).
Dit werd vroeger juist veel meer gedaan. Ik heb verhalen gehoord dat Nvidia van populaire games gewoon shaders zat te vervangen om sneller te werken op Nvidia.
Daar ontkom je niet aan. Je kunt moeilijk voor iedere GPU vendor een eigen shader gaan schrijven.
Dat veel dingen redelijk plug and play zijn (direct X
Dit vind ik toch wel opmerkelijk. Er is weinig minder plug-and-play dan DirectX12 (nouja, Vulkan maakt het nóg bonter). Er is bij de overstap van 11 naar 12 enorm veel verantwoordelijkheid bij de 3D renderer komen te liggen die eerst bij de driver lag.

Was het nog maar zo simpel als vroeger. Het is geen toeval dat we toen meer eigen engines zagen.

[Reactie gewijzigd door Wolfos op 27 januari 2026 12:30]

Daar heb je een punt. En veel parels draaide op eigen engines.
Ik gok dat dat game specifieke dlss model updates zijn
En toch als je de casus leest van Micheal Burry (the big short) die een short heeft lopen tegen meerdere spelers in die sector dat de diensten van datacenters niet stijgen maar zelfs dalen.

Lijkt dat er dus nog te veel geld in deze circulaire markt circuleert. OpenAI heeft blijkbaar wel steeds meer problemen met hun oplopende kosten zeker die van nutsvoorzieningen, zelfs met staat steun kan die niet eeuwig blijven duren, ze hebben nu al een bocht gemaakt door advertenties toe te voegen aan OpenAI.

Jammer genoeg zelfs als Burry gelijk heeft kan dit nog makkelijk tot 2028 duren.

Nvidia lijkt ons ook meer en meer richting hun dure streaming service te willen duwen.
zeker bij AAA games worden die engines stevig verbouwd om tot een product te komen. Gamestudios zijn net gamers. Ze hebben nogal wat eisen.
Gamers willen gewoon een goed product voor een voor hun normale prijs (dat laatste is soms niet reeel meer)

studio’s daarentegen produceren meer slob dan kwaliteit tegenwoordig. Gelukkig zien we wel een op mars van indie games.
Hier gaat het om workstationGPU's, niet datacenter.
Dit volgt wel de trend, data centers-first strategie omdat daar veel in te verdienen valt. Als consument die graag gamet is dit natuurlijk wel frustrerend om te horen maar goed.
Het maakt niet eens uit, als Intel wel voor consumenten gaat, kan een fabrikant geen geheugen kopen voor redelijke prijzen en kun je daarom nauwelijks kaarten maken voor de consument.
Kan je zo een kaart als consument dan alsnog kopen?
Jazeker, alleen ze zijn significant duurder.
uitvoering: Intel Arc Pro B50
Als je genoeg geld meebrengt kan alles.
Waarom zou je dat willen? Je hoeft niet te verwachten dat drivers geoptimaliseerd worden of bugs gefixt als alleen gamers er last van hebben.
Ik zoek een goede kaart om local LLM's te draaien, die toch niet overdreven duur is.
Koop een AppleSilicon. Dat is goedkoper dan een GPU kopen met 32GB op dit moment.
Het zou me niet verbazen dat Intel de chips van de B770 (die gebruikten ook 32Xe cores als ik het goed herinner?) geheralloceerd heeft voor enkel de Pro B70. De dies zijn zodanig groot dat het financieel niet aantrekkelijk is voor (over)dure consumentenproducten; voor de enterprise markt kunnen ze immers flink de prijs verhogen want businesses vinden die prijzen minder erg en is daardoor winst/financieel gezien veel meer interessant voor Intel.
Blijft ver onder de 1,8TBs geheugen bandbreedte van nVidia. Zonder de CUDA en Tensor cores en de ingebouwde grootschaal-transformatie mogelijkheden ver onder de gewenste AI perstaties steken.
Echt waar? Van wat ik begreep zijn de rekenprestaties van de intel Arc lijn best oké te noemen. Als het om spellen gaat lopen ze vooral achter omdat de aansturingssoftware het realiseren van goede prestaties in dat gebruiksscenario niet goed genoeg mogelijk maakt.
Laat mij één benchmark zien waar Intel in de buurt komt van de toplijn van Nvidia of AMD.

1...... meer vraag ik niet

[Reactie gewijzigd door Macboe op 27 januari 2026 13:09]

https://www.phoronix.com/review/intel-arc-pro-b50-linux/6 De prestaties op dubbele precisie van de B580 is leidend binnen die test. Als de B580 dat kan, dan verwacht ik meer van de B70.
"aansturingssoftware"...

Wanneer worden dit soort absurde vertalingen verboden? 🙄
Welk woord zou dan wel een goed Nederlands woord zijn? We moeten echt eens af van die eindeloze stroom leenwoorden die onze taal, en daarmee onze cultuur, langzaamaan vernietigt. En nu ik er over denk is "aansturingsprogrammatuur" waarschijnlijk een betere benaming, aangezien software ook een leenwoord is.

[Reactie gewijzigd door ocf81 op 27 januari 2026 13:00]

Volgens mij is de "officiële" Nederlandse term in Windows een besturingssysteem gewoon "stuurprogramma" daar hoeft geen nieuw woord voor bedacht te worden lijkt me.

Wikipedia: Stuurprogramma

[Reactie gewijzigd door ArcticWolf op 27 januari 2026 13:30]

Dank je voor het uitzoekwerk. Dat zal ik onthouden. :)
We moeten dringend stoppen met voor allerlei vaktermen in gelijk welke sector absurde vertalingen te gebruiken.

Dat komt de duidelijkheid en begrijpbaarheid absoluut niet ten goede.

Als je niet gewoon driver kan zeggen.. Zoek dan een andere hobby of arbeidssector..
Nee, we moeten dringend beginnen met het zeker stellen van onze eigen cultuur. Dat begint met het eigen maken van zaken waar we nu leenwoorden voor gebruiken door daar eindelijk eens een eigen woord voor te bedenken.
Mijn broeder, het vastleggen van onze cultuur doe je niet door een technische term uit de jaren 60 die nooit onderdeel van onze cultuur is geweest te vernederlandsen. Dat doe je door je bloemkool met worst te prakken.

De Fransen hebben het over het algemeen fout. Als het aankomt op jargon komt een universele taal alleen maar samenwerking ten goede.

Daarnaast hebben we, zoals @ArcticWolf aangeeft, Stuurprogramma als alternatief.

[Reactie gewijzigd door IamGrimm op 27 januari 2026 15:19]

Taal medieert je ervaring van de wereld en is zo ook cultureel van belang. Ik ben het daarom niet eens met jouw stelling dat cultuur enkel uit gewoonten bestaat. Cultuur in stand houden betekent dus ook actief zaken je eigen maken die uit vreemde oorsprong komen aanwaaien, en het zelf verzinnen van woorden is daar een onderdeel van.

[Reactie gewijzigd door ocf81 op 27 januari 2026 15:28]

Ik trek de notie dat aan cultuur koste wat het kost vastgeklampt moet worden in twijfel en ik verwerp linguistisch determinisme. Het eerste is namelijk al millennia onmogelijk gebleken en het tweede is over het algemeen onwaar bewezen.

Wat wel bewezen is, is dat samenwerking met andere mensen de mensheid verrijkt. Wat niet werkt is met z'n allen een eigen eilandje in stand proberen te houden.

Het woord cultuur zelf komt rechtstreeks uit het Latijnse "colere": Cultiveren of bebouwen. Het is per definitie iets wat vormbaar is en groeit. Een term uit een andere taal opnemen hoort daar ook bij.
Cultuur is een dynamische zaak, maar tegelijkertijd is in Nederland het klakkeloos overnemen van vreemde zaken zonder daar zelf bij stil te staan of het echt eigen te maken heden ten dage wel zodanig doorgeslagen dat alle eigenheid dreigt te verdwijnen. Dat is wat mij betreft het moment om toch echt eens stil te staan bij hoe wij met onze cultuur omgaan en hoe deze in stand kan worden gehouden. Niet door het onder een glazen stolp te stoppen, maar door op een weloverwogen wijze mee te groeien. Dat hoeft niet te betekenen dat je niet samen zou willen werken. Universalisme is daarvoor geen vereiste.

[Reactie gewijzigd door ocf81 op 27 januari 2026 15:58]

Cultuur bevat heel wat mer dan woorden alleen. Als je daarop al blijft hangen, dan denk je misschien wat te doen voor de Nederlandse cultuur, maar of je dat in werkelijkheid ook doet...

Mij boeit het niet zo. Maar goed, ik converseer dagelijks in Engels, Nederlands en Spaans. De Engelstalige termen maken communicatie een stuk makkelijker en bestand tegen onnodige fouten.

Zelf denk ik dat een term of concept welke te omvatten is met 1 simpel woord, in wat voor taal dan ook, het dan beter is om dat ene woord te gebruiken, in plaats van te krampachtig meerdere woorden te combineren, zeker zoals dat in het Nederlands gebeurt.
Ik ontken ook niet dat taal maar een deel is van wat onder cultuur valt. Maar het is wel een niet te miskennen deel en het is cruciaal dat we daar actiever mee aan de slag gaan. Als je met een vreemdeling praat die hier enkel op bezoek is, is er ook niks op tegen om in een andere taal te communiceren. Als het om Nederlanders onderling gaat is het wat mij betreft wat anders. Dan moeten we meer ons best doen om onze eigen cultuur in stand te houden.
U typt dit op uw systeem met 64 stukjes centrale verwerkingseenheid met 8 kernen en 16GB willekeurig toegankelijk geheugen?

Om te kunnen reageren moet je ingelogd zijn