Intel geeft Arc Pro B70- en Pro B65-videokaarten 32GB vram

Intel heeft twee nieuwe Arc Pro-videokaarten aangekondigd. De Pro B70 wordt het nieuwe vlaggenschip van de line-up voor workstationvideokaarten. De kaart heeft 32GB vram en is Intels eerste model met zestien PCIe-lanes op een 5.0-aansluiting.

De Arc Pro B65 en Pro B70 gebruiken de Battlemage-architectuur, net als de eerder uitgebrachte Arc Pro B60 en B50 en de Arc B580 en B570. Die videokaarten zijn allemaal gebaseerd op dezelfde G21-gpu, maar bij de nieuwe Pro B65 en B70 gaat het om een fysiek grotere G31-chip met meer cores. Deze Pro-varianten zijn specifiek bedoeld voor gebruik in workstations. Ze krijgen daarom bijvoorbeeld speciale Pro-drivers en zijn gevalideerd voor stabiliteit in professionele apps als SolidWorks, Autodesk en meer.

De Arc Pro B70 is Intels nieuwe hoogst gepositioneerde workstationkaart. De kaart krijgt 32GB GDDR6-geheugen, dat aan de gpu gekoppeld is met een 256bit-geheugenbus. Op de chip zijn 32 Xe-cores en 256 XMX-engines actief. De kaart ondersteunt PCIe 5.0 en heeft zestien lanes, een combinatie die de fabrikant voor het eerst gebruikt. Intel brengt een referentieversie van de Arc Pro B70 uit die 'ongeveer' 1000 dollar zou moeten kosten. Europrijzen zijn nog niet bekend.

De Arc Pro B65 is gebaseerd op dezelfde G31-gpu als de B70, maar dan met enkele onderdelen uitgeschakeld. Zo zijn er 20 Xe-cores en 160 XMX-engines geactiveerd. Toch is de geheugenopstelling hetzelfde gebleven. Zo heeft de Pro B65 ook 32GB vram en een 256bit-geheugenbus. Van de B65 brengt Intel geen referentiekaart uit; er komen er dus enkel versies van boardpartners uit. Wel is de total board power vastgezet op 200 watt, terwijl boardpartners bij de B70 hierin mogen variëren tussen 160 en 290 watt.

Waar blijft de Arc B770?

De G31-gpu is een logische kandidaat om ook voor de Arc B770 te gaan gebruiken. Over deze videokaart voor de consumentenmarkt gaan al langere tijd geruchten. Zo wisten meerdere bronnen tijdens Computex in 2025 aan Tweakers te bevestigen dat de B770 er nog zou komen, na eerdere geruchten dat hij geschrapt zou worden.

Toch is het nog onduidelijk of Intel nog steeds van plan is deze kaart uit te brengen. In januari gaven boardpartners aan dat ze nog geen testborden hadden ontvangen. Als Intel ervoor kiest de kaart wél uit te brengen, is dat ruim een jaar na de Arc B580. Die eerste videokaart op basis van Battlemage kwam uit in december 2024.

Arc Pro B70 Arc Pro B65 Arc Pro B60 Arc Pro B50
Xe-cores 32 20 20 16
XMX-engines 256 160 160 128
PCIe 5.0 x16 5.0 x16 5.0 x8 5.0 x8
Vram 32GB GDDR6 32GB GDDR6 24GB GDDR6 16GB GDDR6
Bandbreedte 608GB/s 608GB/s 456GB/s 224GB/s
Interface 256bit 256bit 192bit 128bit
Tbp 160-290W 200W 120-200W 70W

Intel Arc Pro B70

Door Reinoud Dik

Redacteur

25-03-2026 • 14:00

40

Reacties (40)

Sorteer op:

Weergave:

Leuk hoor, eindelijk een beetje vram, maar dit voelt wel rijkelijk laat. Voor gaming is 32GB grotendeels overkill, maar voor AI is het juist pas vanaf daar een béétje interessant aan het worden. Met die 8GB/12GB/16GB-kaarten van de afgelopen jaren kon je voor serieuze lokale modellen of fatsoenlijke batchgroottes vaak alsnog nergens heen.

Dus Intel komt nu eigenlijk met een kaart die voor gamers nauwelijks logisch is, maar voor AI-gebruikers pas net begint mee te tellen. Dat is op zich prima, alleen dan moet de prijs/prestatie/drivers-stack wel ook echt kloppen, anders blijft het weer zo’n “op papier interessant” product.

Welke game heeft hier anno nu echt iets aan? Vrijwel geen. Welke AI-workloads wel? Heel veel. Alleen daarvoor had dit eigenlijk al een generatie eerder moeten komen.
Welke game heeft hier anno nu echt iets aan? Vrijwel geen. Welke AI-workloads wel? Heel veel. Alleen daarvoor had dit eigenlijk al een generatie eerder moeten komen.
Er is meer dan alleen geheugen, snap niet goed dat je daar zo over valt.
Wat mij vooral verbaast is dat Intel nog steeds geen serieuze vuist weet te maken tegen NVIDIA en AMD, terwijl het nota bene zelf een van de grootste chipmakers ter wereld is. Ze lopen op gpu-gebied gewoon structureel achter de feiten aan.

De strijd win je anno nu niet met “een beetje meer vram” of net weer een kaart die op papier interessant oogt. Je moet concurreren op het totaalplaatje: geheugenbandbreedte, capaciteit, rekenkracht, drivers, softwareondersteuning, instructiesets en volwassen tooling voor de workloads waar mensen het echt voor kopen.

En daar zit voor mij precies het probleem: waarom zou iemand bewust voor Intel kiezen? Niet omdat het nu met iets meer van hetzelfde komt, maar alleen als het ergens echt overtuigend beter of aantrekkelijker is. Zolang dat niet zo is, blijft het vooral een interessant alternatief op papier in plaats van een serieuze concurrent.

[Reactie gewijzigd door sayf4u op 25 maart 2026 14:38]

De prijs/performance afweging weegt bij mij wel zwaar. Ik zie deze kaarten voor AI wel als heel interessant, mits er een fatsoenlijke performance uit te halen is met taalmodellen. De testen maar eens afwachten, als een paar van die kaarten modellen als qwen coder next met iets van 50 t/s draaien, ga ik dat wel gebruiken denk ik.
Ja, inmiddels gebruik ik de Tesla V100 met een SXM2 PCIe adapter... 32GB met rond de 40t/s gaat best goed maar het is dan ook puur compute... Wel betaalbaarder dan de nieuwste 32GB kaarten
Wat mij eerder verbaast is dat dit je verbaast. Intel maakt pas sinds een paar jaar serieuze GPU's, AMD en Nvidia al vele malen langer.
Als het zo simpel was om even een GPU in elkaar te knutselen als je een grote chipmaker was dan zou Nvidia echt niet zoveel waard zijn.
Er zijn ook nogsteeds andere grote spelers die gigantisch veel chips maken zoals Qualcomm en mediatek.
"Waarom maken zij niet even een GPU en maken ze een vuist tegen Nvidia en AMD. Als ik ceo was zou ik dat echt doen".
kom laten we nu niet doen alsof intel een soort tech-startup is, zelfs op gpu gebied zijn ze ouder dan AMD. dat ze een tijd lang geen losse gpu's hebben gemaakt wil nog niet zeggen dat ze de expertise niet hebben.

dat intel geen ultra-highend gpu's maakt zal grotendeels een keuze zijn een keuze om niet de beste designers in dienst te nemen, een keuze om maar zeer beperkt te investeren in deze tak.

een keuze die vooral gebaseerd zal zijn op een zo groot mogelijk aandeel voor een zo laag mogelijk ontwikkel-budget. en dat is ook gewoon een valide keuze. vechten tegen nVidia is gewoon ontzettend kostbaar en nu hun cpu-devisie ook al niet heel lekker gaat - zullen ze liever daar investeren.
Nvidia bezit 5% van Intel. Speelt ook een rol.

Samen concuren ze lekker tegen AMD. Intel op CPU / low end grakka, en Nvidia de high end / AI / pro grakka markt.
Intel doet best wel wat met Ai. Met deze professionele kaarten krijg je ook toegang tot intel Ai playground. Wat opzich best leuk is op gezet een 1 click installer met alles wat je nodig hebt. Intel loopt wel achter met software versies die compatibel zijn maar price performance doen ze het prima. Zeker als je kijkt naar performance/ watt. Dat is normaal niet belangerijk voor gamers maar data centers vol. Of iemand met een home lab ai is dat best belangrijk.
Dat was ook den tijd toen Nvidia hun eerste kaart op de markt kwam en was ook een flop en velen wouden ook niet voor Nvidia. Nvidia struikelden veel in hun jonge jaren. De volgende generatie ging het wel beter dus bij Intel gaat beetje beter maar nog geen concurrentie tegen AMD/Nvidia. Ook is Intel de grootste chipmaker, wil nog niet zeggen dat ze op alle vlak beter zijn.

Ik ben wel blij dat er een extra GPU op de markt is. Het was altijd AMD/Nvidia dus extra concurrentie mag er zeker zijn en vooral hoe hun prijzen omgaan.

Geef Intel gewoon wat tijd en vooral focussen ze veel op instapmodellen en midrange kaarten omdat die meer verkocht worden dan high-end GPU's van AMD/Nvidia. Zolang hun modellen blijven verkopen en hopelijk ooit veel winst maakt, is er kans op concurrentie. Er moet een mirakel komen bij intels GPU's.
Toen ze hun eerste kaart klaar hadden kondigde Microsoft DirectX aan waar ze geen support voor hadden. Gelukkig werden ze gered door Sega die een groot bekang van 5 miljoen $ in Nvidia namen. Vanaf de Riva 128 zaten ze op de goeie weg en met de TNT hadden ze de gamers mee. En Sega? Die verkochten hun aandelen weer voor 15 miljoen $.
Deze videokaart is niet voor games te spelen maar meer voor autocad gabruikers.
Voor dat LLMs op de markt waren kon je ook al workstation kaarten met meer geheugen kopen. Voor die traditionele markten is dit nog wel wat.
Heb je wel gezien wat traditionele/workstation kaarten met 32GB kosten? Of hoe beschikbaar ze zijn? In hun beste tijd waren er geen 32GB kaart voor de gewone consument en de RTX 5090 was een van de eerste. Voor de workstation kaarten was de aanbod best beperkt. De RTX 6000 met 48GB was een uitzondering.
De RTX 6000 Pro had altijd al 96GB, de RTX 5000 had 48GB de nieuwe (februari 2026) versie 72GB.
Ik heb hier een RTX 6000 (niet Pro) met 24GB en ik kon toen al de 48GB versie ook nemen
32 van nu is 16 van een paar jaar terug. Ja die waren er.
Sorry maar 32 is 32 en 16 is 16... Ik heb het niet over tijdgeest, maar over wat je ermee kan. Wat toen niet kon, kan nu nog steeds niet.
ik vraag me alleen soms af waarom er dan geen kaarten gebouwd kunnen worden met bijvoorbeeld.
128gb gddr3 *(of enig ander oud maar goedkoop type) - dat is wellicht niet het snelste ram dat je voor een kaart kunt vinden maar voor AI-taken zou ik liever meer dan sneller geheugen willen. een kaart met een interne m.2 controller zou wellicht ook heel interessant kunnen zijn, een 1tb m.2 kaartje kost misschien 150 euro als je de allersnelste wilt maar met een beetje optimalisatie zou je wellicht heel ver moete kunnen komen.
Maar dan stort je token generatie alsnog in elkaar. Dan kan je een hele dag gaan wachten op je antwoord. Daar heb je ook geen klap aan. Het is wachten op purpose build APU's met een sloot unified memory. Die zijn al in ontwikkeling. Die hebben wel een tegenslagje te verduren gekregen, omdat billionair en mega egoïst Altman de concurrentie een hak heeft gezet, door een groot deel van de geheugen productie op te kopen. Een trucje die hij waarschijnlijk nog wel een keer flikt zodra de volgende geheugen fabrieken in productie genomen worden over een jaar of twee. Het is Altman er alles aan gelegen om zijn markt dominantie te behouden.
Als token/s niet uitmaken neem dan gewoon een oude Xeon server met 512gb gebeuren. Llms draaien ook op reguliere cpus. De belangrijkste reden om het op een gpu te doen is juist de geheugens snelheid. Beetje versimpeld moet voor ieder token iedere waarde in het geheugen een berekening ondergaan. Als het scannen van je geheugen traag is duurt dit dus lang. Als je met 500gb/s over je geheugen kan rennen is dat al snel een keer of 10 sneller dan regulier geheugen. Dus een gpu met gddr3 oid is zonde van je geld om over een m.2 slot op je gpu nog maar niet te spreken
Een M2 slot is op zich wel interessant voor commercieel gebruik. Je kunt dan namelijk veel meer chats in parallel draaien door de KV cache van elke chat (paar GB) naar SSD te swappen.
GDDR3 chips waren er nooit in 1GB+ dus voor jouw idee had je dan 256 chips of meer op een bord moeten zetten. Dat eist dan weer een 8192 bits geheugen bus. Hoeveel pinnen moet je GPU dan hebben?

Nee, dat is alles behalve goedkoop
Je kunt hier devstral-small-2 mee draaien met een ruime context. Dat is voor lokale Claude of Zed prima.
Ik heb hier een paar W6800's met 32GB per stuk draaien. Die zijn toch echt niet de nieuwste meer. Qua gebruiksscenario's zit je bij 32GB meer te denken aan professionele taken zoals CAD en rendering, maar het kan ook interessant zijn voor VR en inderdaad voor lokale AI.
Dit zijn Pro-kaarten, dus gaming is NIET het doel van deze kaarten, maar wel de applicaties die vermeld zijn waarvoor de drivers specifiek geoptimaliseerd/gevalideerd zijn.
Ergens grappig dat je lijkt te denken dat enkel gamers en AIs GPUs nodig hebben. Dit is een pro variant voor workstations, en eigenlijk perfect in het marktdeel van personen die Autodesk apps moeten gebruiken voor bvb renders of architectuur. Daar wil je meestal wat meer VRAM zonder de grafisch zware gpu waar bvb een 5090 echt overkill zou zijn. ik zie dit dus echt wel een plaats hebben waar hij voor bedoeld is.
Ik ken genoeg architecten en ontwerpers voor de bouw (steden bouw tot en met schepenbouw) en geen van hun heeft 32GB nodig voor hun werk!

Laten we het omdraaien; welke gat in het marktaandeel moet deze kaart vullen? Let wel, we weten nog niet wat het voor de consument gaat kosten.
Je moet geen 32GB nodig hebben om met de 8GB die NV nog in hun kaarten steekt NIET toe te komen. Ik ken genoeg tekenaars en ontwerpers die niet toekomen met een 5060 gewoon door de VRAM, maar de gpu wel krachtig genoeg is om alles te doen. Fusion gebruikt ook al aardig veel VRAM en dat gaat er niet op beter worden autodesk kennende.

Welk gat gaat het vullen? Reeds beantwoord in de vorige comment, de prosumer die VRAM te kort heeft en niet gamed of in een werkpc een gpu nodig heeft. We weten inderdaad niet wat het gaat kosten, maar we gaan ervan uit dat het niet evenveel als een 5090 gaat kosten want dan koopt gewoon niemand hem, punt. Mijn comment zegt ook nergens dat deze goedkoop zal zijn, mijn comment zegt dat indien goed geprijsd is, hij wel een gat kan vullen of competitie kan zijn. Een RTX pro met wat geheugen kost tegenwoordig ook schandalig veel (5k€)... En daar is ook nog steeds vraag naar blijkbaar.
gpt-oss 20b Draait op een 16GB kaart, ook stable diffusion met diverse loras en audio modellen als ACE-1.5.
Uiteraard draaien ook speech to text, text to speech en vertaal modellen gewoon soepel op een 5060TI/16GB. En modellen voor object herkenning met meer frames per seconde dan je webcam.

[Reactie gewijzigd door djwice op 25 maart 2026 14:50]

Deze nieuwe kaart heeft dan ook wel x2 zo veel geheugen als nodig is voor gpt-oss.
Een 16GB kaart van Intel bestaat al sinds eind 2022 :
uitvoering: Intel Arc A770 16GB

En je krijgt op die "oude" kaart ongeveer 30 woorden per seconde:
https://www.reddit.com/r/LocalLLaMA/s/eyUYkzpQqj (tokens per seconde * 75%).
De meeste mensen lezen ongeveer 10 tot 15 woorden per seconde maximaal.

[Reactie gewijzigd door djwice op 25 maart 2026 17:23]

Ik moet zeggen dat ik dik tevreden ben over m'n A770. Ik speel er allerlei games op varierend van Fortnite of Black Ops 7 en dat op 3440x1440. Daarnaast kan Ollama er tegenwoordig mee overweg dankzij Vulkan support, waardoor ik LLM's van redelijk formaat kan draaien op deze kaart.

Het enige moment dat ik AMD/NVIDIA mis is voor bepaalde AI tooling die geen Vulkan, OpenCL of Level Zero ondersteunt. Dat is jammer, maar op een dag komt er vast een alternatief wat dat wel doet.

Ik kijk uit naar de B770 in ieder geval.
Gebaseerd op een leak van kortgeleden, heeft Intel de ARC B770 gecanceld doordat de videokaart niet financieel verantwoord is. Intel kiest voor de stille dood voor hun consumenten dGPUs geloof ik.

https://wccftech.com/intel-arc-b770-may-not-launch-while-the-arc-pro-b70-is-supposedly-launching-this-quarter/

Raar dat het vorige nieuwsbericht (nieuws: 'Nieuwe Intel Arc Pro-gpu's krijgen 32GB geheugen voor zwaar rekenwerk') over Intel GPUs dit wel meenam, maar dit artikel dan weer niet.
B770 zou toch niet in de top end meevechten maar flink meer kosten om te maken. Logisch om dan de midrange te bedienen: daar zit meer omzet.
De dood van Arc kaarten voor de consumentenmarkt is jammer, maar inmiddels lijkt dat inderdaad wel een feit. Jammer dat ze de drivers gewoon niet goed op orde hadden bij de lancering van Alchemist. Het zou denk ik best wel een kans hebben gehad als ze daar vanaf het begin een goede driver voor hadden gehad.
De dood van Intel Arc 'kaarten' voor de consumentenmarkt is niet een feit. Als integrated iGPU knallen ze best lekker door. Kijk maar naar Core Ultra "Meteor Lake", "Lunar Lake", "Arrow Lake" en "Panter Lake". Bij al die mobiele chips zit een Arc iGPU in die het best aardig doet. Ik zie daarom de driver-stack (die ze inmiddels redelijk hebben opgebouwd) ook niet snel verdwijnen. Maar ja ik had ook graag een 'B770' willen zien. Eigenlijk is ie er ook, maar heet ie 'Pro B70'.
De grafische co-processoren die bij de modellen die je noemt zijn gebundeld zijn geen kaarten, maar in de processor geïntegreerde elementen. Ik heb het echt over de kaarten voor consumenten. de termen dGPU en iGPU zijn anglicismen die ik weiger te gebruiken.
Fair point. We zitten bij Intel inderdaad voorlopig vast aan de Arc B580 op z'n best
Ik zou wel eens willen weten wat deze videokaarten wel niet kosten.met de verhoogde prijzen in het achterhoofd.

Om te kunnen reageren moet je ingelogd zijn