Gerucht: Intel brengt Arc Battlemage-gpu's mogelijk al in december uit

Leaker Golden Pig Upgrade suggereert dat Intel al in december zijn Battlemage-gpu's zou presenteren. Golden Pig geeft daarover geen details; eerder bevestigden bronnen al aan Tweakers dat de kaarten pas in 2025 zouden verschijnen.

Golden Pig Upgrade, die in het verleden vaker correcte geruchten heeft verspreid over gpu's, zegt op Weibo 'uit te kijken naar de prachtige prestaties van Battlemage volgende maand'. Het gaat dan om de desktopvariant van de nieuwe Arc-generatie videokaarten van Intel. Golden Pig geeft daarbij verder geen details en het is niet duidelijk wat de leaker daarmee precies bedoelt. Het kan bijvoorbeeld betekenen dat Intel de kaarten nog in december op de markt brengt, of dat het slechts gaat om bijvoorbeeld de eerste reviewmodellen en benchmarks die tegen die tijd naar buiten kunnen komen in afwachting van de definitieve release.

Intel heeft nog maar weinig informatie naar buiten gebracht over de nieuwe Battlemage-kaarten. Vorig jaar zei het bedrijf nog dat de Arc Battlemage-gpu's in 2024 op de markt zouden komen. Meerdere bronnen vertelden afgelopen zomer tijdens Computex tegen Tweakers dat de Arc-gpu's op z'n vroegst pas in 2025 zullen verschijnen. Als de kaarten in 2025 uitkomen, is dat naar verwachting op de CES-beurs. Die vindt begin januari plaats in Las Vegas.

'Battlemage' is de werktitel voor de komende generatie Arc-gpu's van Intel. Daarover is nog maar weinig bekend. Bronnen vertelden eerder aan Tweakers dat de kaarten zich qua prestaties moeten kunnen meten met Nvidia's GeForce RTX 4070-gpu's. Het is de tweede generatie van de losse videokaarten, waarvan de eerste generatie, Alchemist, een moeizame release kende. Eerder lekte al uit dat de midrange-gpu's 12GB vram met 19Gbit/s meekrijgen en een 192bit-geheugenbus hebben.

Intel Arc Battlemage-geruchten via RedGamingTech

Door Tijs Hofmans

Nieuwscoördinator

08-11-2024 • 14:40

42

Lees meer

Reacties (42)

42
40
26
0
0
12
Wijzig sortering
Volgens de CEO gaat Intel mogelijk de markt voor discrete GPU's verlaten:
... Gelsinger mentioned plans to streamline the company's product stack to simplify development. This means fewer SKUs, with discrete graphics on the chopping block. Gelsinger said the market will have less demand for dedicated graphics cards in the future.
Bron: https://www.techspot.com/...grated-memory-design.html
ik denk dat die knakker er goed naast zit.
Beetje Philips die ASML verkoopt vibes.
Dat weet ik nog zo niet. Philips deed vroeger veel bedrijfsstappen die "verticaal" geintegreerd zijn (je hebt de ene machine/onderdeel nodig om het andere product van jezelf te maken), terwijl CPUs en GPUs maken juist meer "horizontaal" is (met gebrek aan betere bedrijfskundige terminologie).

Niemand verplicht je om een Intel GPU te kopen als je een Intel CPU af neemt. Dus dan moet die GPU echt knettersgoed zijn om te kopen. Het is geen Apple computer waar je niks zelf meer in kan steken.

De verwachtingen waren hoog toen ze in 2022 mee zouden gaan doen, maar toen stond de GPU markt er ook heel anders bij. Ze hebben releases al uitgesteld omdat er genoeg problemen waren met stabiliteit/driver kwaliteit, terwijl juist de GPU markt weer net bij zinnen kwam (gemiste kans). En alsnog hebben ze er aardige tegenwind mee gehad op driver vlak. Nu dat wel stuk beter lijkt zijn de GPUs bijna niet meer relevant omdat AMD en NVIDIA een nieuwe generatie heeft uitgebracht.

Ik kan mij niet voorstellen dat ze echt heel veel geld aan die GPUs verdienen. Als Intel geld over had was het makkelijker voor ze om 2-3 generaties te blijven investeren.. Want per generatie wordt het driver pakket/ondersteuning wel steeds rijker omdat er een flow aan relevante producten de deur uit gaat. Als dan over 5-10 jaar een iGPU ook net zo snel is als een dedicated GPU, dan hebben ze in ieder geval al enige ondersteuning/ervaring voor een grote bilbiotheek aan games opgebouwd.

Maar heeft Intel wel geld? AMD krijgt meer tractie op de server en workstation markt, voor hobby/gaming zijn ze op het moment nergens, en in laptops hebben ze ook grote (premium) klanten zoals Apple kwijt geraakt. Niet zo raar dat ze zich juist willen focussen op 1 ding goed doen, ipv 4 dingen half goed.
Ik denk dat Dekar meer doelt op het feit dat nVidia zijn GPU's eigenlijk ontworpen worden voor de bedrijfsmarkt, daar verschrikkelijk veel geld mee verdiend en... ze dan ook verkoopt aan de consument voor spelletjes. Dat laatste is een leuke bijverdienste en goed voor de PR.

Meer producten maakt je ook minder kwetsbaar. Stel dat ARM doorbreekt op de desktop/laptop markt, dan heeft intel wel een probleem...
We gaan het zien. Als ik CEO was zou ik die tak iig niet in de etalage zetten.

Overigens is ook op iGPU niveau Intel nou niet bepaald sterk. De AMD 8000G serie doet de Intel lineup stof bijten.
Het kost nog wel een paar jaar, en een paar miljard, voordat Intel Arc GPUs echt winstgevend kunnen zijn. Tegenover die van AMD en Nvidia zijn ze groter (duurder om te maken) en trager (verkoopt aan lagere prijs).

Intel zet zwaar in op nieuwe fabs, da's strategisch ook levensbelangrijk en dat vreet ook geld.

Er moeten dus zware keuzes gemaakt worden.

[Reactie gewijzigd door florizla op 8 november 2024 22:23]

Apple stelt minder dan 10% van de laptop markt voor, zo belangrijk was Apple in het gehele plaatje niet.

Intel heeft nog steeds gigantische voorsprongen van 70% or meer marktaandeel voor laptops, business & office devices, financial sector backbone (100% zelfs - natuurlijk is dit gedreven omdat ze geen andere supplier willen uit vrees van een financiële crash als gevolg van nieuwe hardware), enz.

Intel overleeft wel, maar het zal niet gemakkelijk zijn en ze zullen keuzes moeten maken.
Zit je dadelijk met een GPU die niet meer ondersteund wordt (drivers voor nieuwe spellen, enz.). Zo'n uitspraken zal de verkoop ook geen goed doen.

Het is jammer dat het nog niet zo'n succes is want Nvidea kan echt wat concurrentie gebruiken. Nvidia's gpus zijn zo verschrikkelijk duur tegenwoordig en de consumenten markt is niet meer zo interessant voor ze dankzij de AI markt.

[Reactie gewijzigd door Rogers op 8 november 2024 18:58]

ALs ze 4070 performance kunnen bieden voor iets onder 400 euro dan kunen ze leuke zaken doen.
Zat ik ook aan te denken.

En als de Intel GPU's het goed genoeg doen met AI/LLMs dan zie ik nog echt wel kans van slagen voor thuisgebruik. Heb op Youtube al een filmpje bekeken van iemand die zijn lokale server heeft uitgebreid met een behoorlijk stevige GPU, maar ook een systeem(pje) met Home-Assistant daarop....en nu bedient hij via zijn stem zijn Hue lampen. Geen internet/Siri/Alexa meer nodig.

Als dat soort ongein een stuk goedkoper voor elkaar te krijgen is met Intel GPUs, dan is die markt voor Intel niet verloren.
Ik heb het idee dat de eerste generatie Arc videokaarten een proefballon was om de drivers in het wild beter te krijgen. Iets waarvan is gebleken dat het nodig was. Ben benieuwd of we van deze vermeende RTX 4070 concurrent volgend jaar flinke volumes gaan zien voor een interessante prijs. Wanneer de prijs goed is volgen de kopers vanzelf.
voor een 4070 concurrent is het veel te laat. De 5070 komt bijna uit. dit is dus effectief een 5060 competitie als dat waar zou zijn. en dan moet die nog goedkoper zijn ook...
Als je framegen uitzet is de 4070 maar een paar procent sneller dan een 3070, weliswaar wel met wat minder stroomverbruik. Dus nee, dat is niet te laat.
Als je met een paar procent 10 tot 30% met gemiddeld 20% bedoeld heb je gelijk. Dat is geen geweldige uplift over de 3070 maar gezien de frames die gehaald worden een aanzienlijke verbetering.
Had gelezen dat de architectuur veranderd is waardoor er vanaf Battlemage meer native (OpenGL/Vulkan) zou moeten draaien ipv dat alles via drivers geïnterpreteerd/geoptimaliseerd moet worden per game. Dat zou ook de backwards-compatibiliteit moeten vergroten.
Dat lijkt me sterk. Er is best wat aan reclame enzo gedaan, optredens van Intel advocates bij e.g. LTT enzovoort. "Never attribute to malice that which is adequately explained by incompetence." (misquoting Hanlon's Razer)

Hoewel "incompetence" misschien wat veel is, want om de gevestigde orde aan te vallen bij dedicated GPU's is "niet heel makkelijk". En ja, dat je dan je GPU een keer opnieuw moet uitvinden en de drivers op orde moet krijgen lijkt me daar deel van. Maar ik kan me niet voorstellen dat dat zo in hun roadmap stond. Ik verwacht op z'n hoogst dat ze er rekening mee hielden dat het niet met 1 iteratie klaar zou zijn.
Ik hoop dat intel hun comeback gaat kunnen maken. want ze zijn de afgelopen jaren de boot toch aan het missen. Als dit een echte 3 way concurrentie gaat starten zal zich nog laten zien.
Als dit een echte 3 way concurrentie gaat starten zal zich nog laten zien.
Dan heb ik goed nieuws voor je: de toekomst voor PCs lijkt zich stilaan richting ARM te bewegen. Daar hebben we straks dan ook nog de GPUs van ARM, Qualcomm*, Samsung, Apple en Mediatek. Dus genoeg concurrentie _/-\o_

*Grappig genoeg zijn de GPUs van Qualcomm gebaseerd op een mobiele afdeling die vroeger is overgekocht van ATI. Adreno = Radeon.
Volgens mij verkoopt ARM geen GPUs. Zij ontwerpen ze alleen maar. En ze zitten ingebakken met de CPU in een SoC. Dus in eerste instantie zullen we dan wel een stukje flexibiliteit kwijtraken en krijgen we meer apparaten zoals de consoles en handhelds: er is wel concurrentie en verschil, maar het zelfbouw forum op tweakers kan dicht.
https://www.arm.com/produ...talis-gpu/immortalis-g720

Ja, ze verkopen het ontwerp en niet de GPU direct maar dat maakt voor de rest niet zoveel uit. Het is wel degelijke een GPU van ARM.
Maar als jij die gpu wilt gebruiken moet je ook cpu licentie nemen en dus ook allebij gebruiken?
Dus je kan niet zeggen we nemen die gpu en plaatsen die in qualcomm cpu.
Dat geld net zo goed voor Qualcomm, Samsung, Apple en Mediatek. Ik denk niet dat deze partijen staan te trappelen om losse videokaarten te maken. Kijk eens hoeveel tijd en geld Intel er al in steekt.
Dan zijn het geen echte concurrentie teminste ik wil niet een hele nieuwe kast gaan kopen om mijn gpu te upgraden.
Intel kapt er ook al mee trouwens, voor de desktop dan. Gelsinger heeft het soortement al gezegd.
Geen enkele ARM based soc heeft een gpu welke echt vlot is. Wil je snellere gpus, dan is er meteen meer vermogen nodig. iets wat een beetje tegen het concept van ARM in gaat.
Zolang zij geen losse videokaarten maken, maar alleen SoCs, is dat hooguit interessant voor low-power laptops. Op gaming gebied ga je niet concurreren met zo'n ontwerp. Al helemaal niet als je deze verplicht combineert met een CPU die bijna alle games moet gaan emuleren.

Voorlopig is Qualcomm nog niet op het niveau van Intel's geïntegreerde GPU's. Laat staan een videokaart van Nvidia.

[Reactie gewijzigd door Wolfos op 8 november 2024 15:27]

Zo snel gaat dat ook nog niet. Met nieuwe generaties Intel en AMD is het toch niet ARM overal de komende 4 jaar. En bedrijven zitten ook massaal op W11 met Intel en AMD. ARM heeft toch nog wel een hele wereld te veroveren.
Of de andere kant op: de problemen bij Intel zouden zo groot kunnen zijn dat ze niet genoeg geld en inzet kunnen pompen richting de GPU-afdeling. Een nieuw product uitbrengen gaat beter als je bestaande producten het goed blijven doen (de CPU's), en op dat vlak heeft Intel nu grote uitdagingen. Dit zijn omstandigheden waarin sommige bedrijven de recente experimenten juist stopzetten of verkopen.

Laten we hopen dat de Arc-GPU's toch doorontwikkeld worden en goede prestaties gaan leveren, met deze Battlemage-generatie en daarna. Want de markt kan de concurrentie zeker gebruiken. En Intel is wellicht "too big to fail", dus misschien komt er staatssteun indien nodig. We gaan het meemaken.

[Reactie gewijzigd door geert1 op 8 november 2024 14:58]

Desktop voor thuis is niet zo heel boeiend voor Intel dat is maar een fractie van de markt. Het is ht feit dat intel op de server markt aan het verliezen is wat ze echt pijn doet. Want dat betekend niet alleen minder hardware verkopen maar ook de bijgeleverde service fees die ze relatief veel opleverde.
Daarnaast begint de laptop markt ook tekenen te vertonen van AMD market creep en dat was ook een relietief grotere markt als desktop voor thuis. Hoe het geheel voor zakelijke desktops zit weet ik niet want ik ben uit die markt maar als daar ook een verschuiving plaats vind hebben ze wel een groot probleem.


De beste scenario voor Intel is dat ze snel een goede server chip die zuinig is neerzetten met het nieuwe tile systeem en dat ze snel hun procedé in de fabs op orde krijgen met lage foutmarges en dat dat klanten aan trekt. De foundry kan als het goed gaat wel eens de core voor Intel worden met chip design als marginale zij tak. Maar dat valt of staat bij de processen werkend, zuinig en rendabel krijgen en momenteel is dat al jaren meer vallen dan wat dan ook.
Hopelijk betekend het skippen /cancellen van 18x dat de volgende stap sneller klaar is anders zie ik het somber in.
Voor de markt inderdaad goed te hopen want kijk maar waar we nu zitten. Geen competitie en de 9800X3D is al 600 euro...

Heb je 9800X3D launch dan gemist? AMD vraagt nergens 600eur... dat ze al snel uitverkocht waren wegens grote succes (desondanks dat jij overal natuurlijk aangeeft dat het niet interessant is zoals gewoonlijk ) en dat de winkels zelf hun prijzen verhogen heeft AMD geen controle over.

ter referentie de prijs staat zelfs in tweakers headline :+
nieuws: AMD brengt Ryzen 7 9800X3D uit voor 539 euro

aAle prijzen van borden zijn ook behoorlijk hoog geworden.
ook hier wederom, AMD verplicht je niet van een nieuw 800 chipset te nemen, de 600 werkt ook waar de prijzen al wat meer genormaliseerd zijn door het aantal chipsets en meerdere types/vendors... Is een beetje anders dan bij je favoriet waar je wel een ander moederbord moet nemen en daar zijn eveneens de prijzen navenant en beperkte chipset keuze.

[Reactie gewijzigd door d3x op 8 november 2024 16:47]

Volgens mij bedoel je het andersom? AMD heeft intel jarenlang eerlijk gehouden en nu is het na 10-15 jaar blauw eindelijk wat meer AMD aan het worden. Anders hadden we nog steeds op 400 euro quad cores gezeten…

Blijft natuurlijk wel zo dat deze omgekeerde wereld weer snel terug moet keren naar een situatie met minstens twee concurrerende bedrijven.
Intel is de afgelopen jaren degene met een betaalbare budget optie en heeft zijn prijzen niet of nauwelijks verhoogd.
Ze gaan wederom te laat zijn want de geruchten zijn dat Nvidia zijn launch naar voren gaat schuiven. Ze missen dus net als Arc weer ruimschoots de ideale launch window en weer gaat er niemand geïnteresseerd zijn. mensen wachten liever een maandje voor een AMD of Nvidia kaart.

Ze zijn echt gewoon compleet toon doof en markt blind. Zelfs als deze kaart de prestaties van een 4080 gaat hebben hebben ze een heel groot gat qua drivers en support dat ze moeten vullen met een flink lagere prijs en een nieuwe generatie om de hoek. Dat zou de prijs op 600 of minder moeten plaatsen voor een kaart met 4080 prestaties gezien de veel te late launch. De kans is immers groot dat de 5070 deze kaart gaat evenaren en rond de 600 a 700 euro gaat kosten.

Ik ben niet in de markt voor een gpu met min 6900Xt maar wil Intel mij verleiden met zet een 4090 presterende kaart dan zou ik die persoonlijk gezien de geschiedenis, de drivers, trage support voor nieuwe games en de kans dat ze support in zijn geheel opgeven hem voor 1000 nog niet kopen.

Ze zullen denk ik echt flink sneller tussen generaties moeten lanceren om een launch loze tijd in de markt te pakken om mensen te verleiden en de prijs flink te kunnen verlagen en zo marktaandeel en verkopen realiseren. Niemand gaat dit kopen uit de goedheid van hun hart. en hoe nieuwsgierig ik ook ben naar arc en battlemage ik ga het denk ik niet kopen door de onzekerheid. Het is echt een heel lastige markt voor Intel en ze zullen met een heel goede prijs moeten komen.
Ben het eens dat ze sneller met generaties moeten gaan. Momenteel zijn deze GPU's eigenlijk niet te verkrijgen. Ik denk wel dat het een valide strategie is om ARC als dedicated GPU te hebben omdat de tech ook door druppelt in de iGPU markt die heel belangrijk is in de laptop markt. Maar als dedicated GPU zijn ze nu simpelweg geen speler en hebben ze geen marktaandeel.

Gevaar is natuurlijk dat nVidia ook dieper in de CPU markt wil stappen, en dat kan wel eens makkelijker zijn dan het omgekeerde. Voordeel voor Intel & AMD is natuurlijk dat ze meer kennis hebben van kleinere nodes - GPU's gebruiken meestal niet de allernieuwste nodes, maar ik denk dat veel van die kennis ook bij TSMC zit.
Ben benieuwd, 4070 prestaties zou geen probleem zijn, mits het verbruik en de prijs lager ligt. De vorige ARC GPU's hadden een slechte start wat betreft drivers, maar zijn inmiddels degelijke GPU's.
Helaas zijn bij mij al 2 A770 LE's overleden door corrupt geheugen.
Ik heb nu nog 1 pc met een A770 LE en deze doet het gewoon goed op het moment, Had wel heel lang last van hoog idle gebruik (+40 Watt) maar sinds de laatste driver update gebruikt ie 7 tot 8 Watt idle.

Ik ben ook benieuwd naar Battlemage en schaf 'm zeker aan als ie er is, het topmodel dan natuurlijk tegen een concurrerende prijs.
Het was voor mij ook 1 die ik graag had willen kopen, maar Intel had geen prioriteit om te zorgen dat die goed met SteamVR werkte, en VR is nou net waar ik het meeste mee game.
Hopen dat ze het met Battlemage in 1 keer goed doen met VR :)
Die Gelsinger word naar mijn idee de man die de geschiedenis in zal gaan, Intel omzeep hebben gebracht.
Man wat een totaal gebrek aan visie.
Hij lijkt wel iemand die een hekel heeft aan success.

Op dit item kan niet meer gereageerd worden.