Gerucht: tweede generatie Intel Arc-gpu's krijgt tot twee keer zoveel Xe-cores

Intels tweede generatie Arc-videokaarten krijgt mogelijk tot twee keer zoveel Xe-cores als de Arc Alchemist-series. Dat stelt RedGamingTech. Het topmodel in deze Arc Battlemage-serie zou daarnaast een soortgelijk chipoppervlak krijgen als de Nvidia AD103 uit de RTX 4080.

Het topmodel in Intels Arc Battlemage-gpu-serie krijgt twee keer zoveel cores als de Intel Arc A770, het huidige topmodel onder Intels desktopvideokaarten. Dat claimt RedGamingTech in een YouTube-video. Het maximale aantal Xe-cores zou oplopen tot 64, waar het huidige Arc Alchemist-topmodel 32 van die cores heeft. Dergelijke Xe-cores beschikken ieder over 16 execution-units.

Deze Battlemage-gpu zou daarnaast een 256bit-geheugenbus, een onbekende hoeveelheid GDDR6- of GDDR6X-geheugen en 48MB L2-cache krijgen. De gpu zou een chipoppervlak krijgen dat vergelijkbaar is met dat van Nvidia's AD103-gpu, dat wordt gebruikt in de GeForce RTX 4080 en 379mm² beslaat. De Arc Battlemage-gpu wordt volgens RedGamingTech geproduceerd op TSMC's 4nm-procedé, net als de RTX 40-serie van Nvidia.

De nieuwe Battlemage-serie zou uiterlijk in het tweede kwartaal van volgend jaar beschikbaar komen. De Melville Sound-varianten voor datacenters zouden in de tweede helft van 2024 volgen. RedGamingTech publiceerde eerder een vermeende roadmap van Intel, waarin ook een refresh van de Arc Alchemist-serie werd vermeld. Die zou in de tweede helft van dit jaar verschijnen. Intel heeft de komst daarvan nog niet bevestigd.

Door Daan van Monsjou

Nieuwsredacteur

27-03-2023 • 10:06

54

Lees meer

Reacties (54)

Sorteer op:

Weergave:

Ik hoop toch echt dat Intel denkt aan het stroom verbruik. En niet helemaal de nvidia kant opgaat met 1000watt kaarten.
Als hun CPU's enig voorbeeld zijn ga je heel hard teleurgesteld worden.
Die CPU's hebben er last van dat ze op Intel 7 geproduceerd worden, wat redelijk achter begint te lopen op TSMC's 5nm (of zelfs 3nm). En omdat Intel per se de prestatiekroon wil hebben gaan ze maar idiote producten als de i9 13900KS uitbrengen.

Daar heeft Intel's GPU-tak geen last van, want die bakken ook gewoon bij TSMC. Al lopen ze daar weer achter op een ander gebied, namelijk ervaring. Maar dat is een kwestie van doorontwikkeling, zolang ze maar doorzetten.
Wat ik een beetje jammer vind is dat ik deze kaarten bijna helemaal nooit ergens kan vinden of althans niet bij de paradigit of mycom webshops ofzo.Of ze lopen met de productie achter of de verkrijgbaarheid van de kaarten liggen in het nauw, en dat vind ik een beetje jammer.Ik had graag zo een kaart gehad maar het word weer een asus 2070 met 6 gb geheugen.Alleen al omdat ik hem bijna nergens kan vinden in de webshops hier in Nederland.
Kijk anders hier gewoon eens via pricewatch, dan zie je dat die hier in Nederland gewoon in de webshops te krijgen is, goedkoopste is op dit moment proshop met 389 euro.
Grootste probleem voor mij op dit moment zijn de problemen met SteamVR die voorlopig niet opgelost gaan worden als ik de uitspraken van Intel moet geloven, omdat ze eerst voor nieuwe games de perfomance willen verbeteren.

[Reactie gewijzigd door SuperDre op 23 juli 2024 13:34]

1000Watt is schromelijk overdreven. De 4090Ti heeft een maximum board power van 600W, die van de 4090 is maximaal 450W en in de praktijk is het verbruik nog lager.
Was er niet een ding van die kaarten zoals piekspanning? Jayztwocents had dit volgens mij al aangekaart.
Transient spikes, dat was op de 3000 serie een dingetje, op de 4000 serie een heel stuk minder. Sowieso zijn dat pieken van microseconden (alhoewel die wel de voeding kunnen laten uitslaan), is dat wat anders dan continu vermogen.
Ja, maar dat geldt voor alle elektronische toestellen.
1000 Watt voor het complete systeem is helaas wel noodzakelijk.
4090TI 600 Watt
Moederbord + CPU 300 Watt
Totaal 900 Watt

En dan is plotseling een 1000 Watt voeding best redelijk.
Ik heb een elektrische kachel van 850W om mijn kantoor bij te warmen in de winter. Opeens zie ik een argument om een nieuwe PC te kopen.
En op die 600 Watt kan het zo bizar snel en veel uitrekenen, daar kom je met andere hardware niet bij de buurt.
Er kunnen wel spikes optreden die zo hoog gaan.
Dus dat ding trek 600W + mobo + ram + opslag + case fans. Dat is toch aardig wat stroom inmiddels.
Ja die case fans zijn pittige verbruikers! ;) Een gpu in vollast zou richting de 600 kunnen gebruiken is wat anders dan non stop 600..... Als het goed is game je niet de hele dag
En in dat lijstje mist natuurlijk de CPU nog die ook nog een paar wattjes trekt. Maar 600W voor alleen een kaart is gewoon erg veel, mijn pc zijn in geheel trekt dat niet eens.
Je kunt echt merken dat ze bij Nvidia hetzelfde doen als met Fermi decennia geleden; elke laatste drup performance uit de kaart persen door er zoveel mogelijk stroom doorheen te jagen. Nu de mining hype voorbij is en we op 4-slot kaarten zitten met 400+ W verbruik hoop ik echt dat er een nieuwe 600-serie aan komt waarbij ze weer naar efficiency gaan kijken.

Bij AMD blijft het nog enigzins binnen de perken, maar op basis van dit nieuwsbericht lijkt het er op dat Intel ook van plan is om te brute-forcen, wat ik heel apart vind aangezien de meeste games tegenwoordig dergelijk veel power zelfs op 4K echt niet nodig hebben.
Bij het ontwerpen van een GPU kijk je niet naar het hier en nu, maar naar de toekomst en de technische mogelijkheden die daarvoor nodig zijn. Anders had raytracing of zelfs bijvoorbeeld hardware transform & lightning niet bestaan.

[Reactie gewijzigd door CH4OS op 23 juli 2024 13:34]

elke laatste drup performance uit de kaart persen door er zoveel mogelijk stroom doorheen te jagen
Volgens mij is dat niet per se een probleem met de efficiency van het ontwerp of het productie proces van de NVidia chips. Het heeft denk ik vooral te maken met de PR die NVidia en de board partners willen genereren door de voltages en kloksnelheden van die chips tot aan het randje op te schroeven, zodat ze in benchmarks kunnen claimen de snelste te zijn. Dat je met een 4090 OC versie 2550fps kan halen in CS in plaats van 2450fps. Het is namelijk een fluitje van een cent om recente NVidia kaarten een klein beetje te undervolten zonder noemenswaardig performance verlies, en op die manier het verbruik letterlijk met tientallen Watt te verlagen. Ik kan het iedereen met een recent NVidia kaart aanbevelen...
Ach voelt ook een beetje als het tic tok proces. Eerst de nieuwe technieken waar je winst haalt daarna verbetering van het proces algemeen waardoor je er meer uitperst.
Allereerst zijn de huidige kaarten natuurlijk de eerste generatie serieuze videokaarten van Intel, dus daar is nog veel ruimte voor verbetering. Dat zal niet in een of twee generaties net zo goed zijn als de concurrentie die dit al 20 jaar continu doet.

Maar ten tweede geeft dit ook gewoon wat druk op de concurrentie. Meer marktwerking is meer beter. Je ziet nu al dat NVidia en AMD het wel best vinden dat er onder de 300 euro nauwelijks iets fatsoenlijks te krijgen is, terwijl je 10 jaar geleden prima budget-kaarten had rond de 100-150 euro.

Dus zelfs al koop je straks deze kaarten niet vanwege de matige kwaliteit, het kan toch wel wat bijdragen. :)

Wat dat betreft ook goed om te zien dat Intel doorpakt en niet meteen de keutel weer intrekt.
nVidia komt altijd uit in meerdere series: xx90, xx80, xx70, xx60, xx50 met dito prijskaartje en energieverbruik.
Zo heb ik zelf de GTX1660 Super en die gaat al een aantal jaren mee.
Slechts een handjevol mensen gaan voor de xx90, maar die hebben genoeg resources voor een matching PSU + energierekening.
De 4090's die nu uit zijn hebben een verbruik van 450W. Maar gemiddeld zie je in gaming een verbruik van rond de 300W. Dus ik weet niet helemaal waar je 1000W vandaan haalt. Of je refereert aan een engineering sample waar ooit eens over bericht is?
Als dit waar is, ben ik wel benieuwd naar het verbruik van deze kaarten.
Mij maakt dat initieel niet zo heel veel uit moet ik zeggen. Intel is een nieuwe speler en ik vind het persoonlijk belangrijker dat ze goede performance per euro leveren dan dat ze een super efficiente kaart maken. Nvidia en AMD spelen dit spelletje al veel langer dus het is dan ook niet onredelijk dat intel wat werk te verzetten heeft
Uiteindelijk speelt efficiëntie ook een rol in FPS per Watt. Als ik (even overdreven) een nieuwe 1200W voeding moet kopen om deze kaarten te kunnen gebruiken, tel ik dat wel bij de prijs op zodat de verhouding minder gunstig wordt. En dan heb je nog de warmte die vrij komt, wat mogelijk betere/meerdere fans vereist etc.

Echter heb je wel gelijk in het punt dat het beter is als er een derde partij in de markt stapt en ook ik geef ze daardoor iets meer ruimte om niet even efficiënte kaarten uit te brengen. Maar tot een bepaald punt.
Ik deel je mening, maar vergeet niet wat een "compacte" koelingoplossing welke 300-400watt warmte kan afvoeren kost. En dit kan belangrijk zijn voor adoptie bij AIB. Intel kan zoveel geld verliezen als ze zich kunnen veroorloven met het winnen van marktaandeel. Maar wanneer een AIB geen brood kan verdienen aan Intel kaarten, zullen ze nooit echt voet aan de grond krijgen.

Ik meen me te herinneren dat veel AIB fabrikanten de 30- en 40- series kaarten klaagden over dat ze niet genoeg marge hadden tussen de componentprijzen van de PCB en MSRP van Nvidia om een fatsoenlijke koelingoplossing te ontwerpen.
Ook wanneer je de teardowns van recente kaarten met hoog stroomverbruik ziet, wordt duidelijk dat er meer nodig is dan een 3-tal ventilatoren en een paar heatpipes.
Ja, ik geef je meteen gelijk dat ze een stabiele basis moeten hebben. Onderdeel daarvan is inderdaad prijs/kwaliteit en een goede installbase. Maar wat mij betreft is verbruik ook onderdeel van performance. Als je te weinig ruwe performance haalt, kun je er altijd meer vermogen tegen aan gooien.

Dat zie je niet alleen bij videokaarten, maar ook bij andere apparatuur. Zo was er bij stofzuigers op een gegeven moment een zuigkrachtwetloop die werd gewonnen door maar meer energie te gaan verbruiken. Er kwamen stofzuigers met 2000w verbruik op de markt. Tot de EU dat aan banden legden.

Punt wat ik probeer te maken, om een aantrekkelijk product neer te zetten, gaat het om het geheel plaatje. En zeker met de huidige energieprijzen, is verbruik daar onderdeel van.

[Reactie gewijzigd door Gropah op 23 juli 2024 13:34]

Stroomverbruik neem ik anders gewoon mee in prestatie per euro. Zo'n kaart draait bij mij toch wel een uur of 6 per dag vol open en dan is 150 watt toch wel significant. Dat kost dit jaar zon 130 euro meer aan stroomverbruik. En dan heb je nog het gevalletje zomer waar mijn game kamer al 32 graden word als het buiten 30 graden is met de gpu gecapped op 150 watt... Als ik dat moet gaan koelen kost dat dus nog een beste cent meer.

Daar niet om geven is een beetje als een goedkope sportauto kopen die 1 op 2 ipv 1 op 12 rijdt. Onder de streep betaal je gewoon via het gebruik.
Uhm, je vergelijking met een sportauto gaat niet op, want het zijn vaak juist de dure varianten die de slurpers zijn.
Toevallig 10 jaar geleden gekeken naar een oude Corvette vs een modernere Porsche boxter. Maar dat was toch echt 1 op 4/5 vs 1 op 12. Kostte destijds 6k en 9k maar de Porsche had goedkoper in gebruik geweest.

Maar goed je hebt idd uitzonderingen met 800pk mega slurpers maar als je die kan betalen...

Maar goed. mensen die de pv veel gebruiken of beter gezegt waar de pc veel aan staat moeten gewoon alle power draw variabelen mee nemen in de prijs of gewoon helemaal niet naar de prijs kijken. Want 50 euro besparen op een pc om vervolgens 200 te betalen aan stroomrekening gaat er bij mij niet in maar is wel wat er vaker gebeurd dan je denkt.
Maar nu ga je ineens een oude corvette met een nieuwe Porsche vergelijken, vergelijk de oude corvette met een uit dezelfde periode porsche en dan is het ineens een heel ander verhaal.
tja, mijn jeep cherokee uit '96 rijdt ook 1 op 6 en een bietje op lpg, maar de laatste hummer H3 haalt zowat bijna 1 op 11.
Ik heb persoonlijk anders liever dat zuinigheid al ingebakken is vanaf het begin in plaats van dat ze hier nu zo op in zouden gaan hakken en dan volle snelheid met hun neus tegen de muur lopen.
Dit zullen ongetwijfeld prima verwarmingselementjes worden...
Nieuwe wet van Moore? Niet meer het aantal transistors verdubbelen maar het aantal cores.
En het aantal euro's 8)7
Gezien de prijzen van high-end GPU's tegenwoordig zou een verdubbeling van de prijs voor een verdubbeling van de performance van de A770 helemaal niet verkeerd zijn.
Ik dacht dat het vermogen 2 keer zo hoog gaat worden.
I don’t care how big they are, I want more!
-that spoiled kid from Harry Potter
Komt toch op hetzelfde neer?
Cores hebben transistors :)
Als ze dan ook rond dezelfde prijs kunnen blijven als de huidige A770/16GB dan zou dat wel heel erg interessant zijn. Het is dat, op dit moment, de A770/16GB problemen met SteamVR heeft, maar anders zou ik die kaart zeker hebben gekocht, want met de laatste drivers heeft deze kaart enorme stappen vooruit geboekt ten opzichte van release. Eindelijk een kaart met 16GB onder de 400 euro. en de A750 blijkt ook voor de prijs een acceptabel alternatief te zijn. Het heeft wat maandjes geduurd, maar toch heeft Intel wel nu bewezen dat ze zeker een acceptabele GPU op de markt kunnen zetten, het zijn dan wel geen highend cards, maar met de huidige prijzen zijn die sowieso voor de meeste mensen buiten bereik.
Dit worden gewoon higher-end kaarten. Als ze twee keer de cores konden bieden voor dezelfde prijs dan kocht niemand nog iets anders :+
Nog even en je krijgt een aggregaat meegeleverd met je kaart en is een driefasenaansluiting benodigd. Niet alleen Intel that is trouwens.
Als ze later dit jaar de Alchemist generatie een refresh geven komen ze misschien eindelijk ook met de A5xx serie die ze aangekondigd hadden voor eind vorig jaar. Ben benieuwd wat die refresh in gaat houden.
Zouden ze de Alchemist generatie een refresh geven dan? ik dacht dat de volgende gewoon de batlemage zou worden, maar wel dus pas in de loop van volgend jaar.
Lees het artikel eens een keer door:
RedGamingTech publiceerde eerder een vermeende roadmap van Intel, waarin ook een refresh van de Arc Alchemist-serie werd vermeld. Die zou in de tweede helft van dit jaar verschijnen. Intel heeft de komst daarvan nog niet bevestigd.

[Reactie gewijzigd door Loller1 op 23 juli 2024 13:34]

ah, nou, naar die refresh kijk ik wel uit als dat een verbeterde A770/16GB oplevert.
Veel VRAM voor weinig geld, deze kaarten spreken me wel aan, maar ben nog niet overtuigd van alle compatibiliteit.

Wel prachtig dat er een nieuwe concurrent op de markt is!
Als Intel met het dubbele aantal cores een verdubbeling van de snelheid weet te bereiken,
dan zitten ze op het nivo van een RTX 2070 nu...
Ze zijn dan wel de GTX 1660 SUPER voorbij (eindelijk)
NVidia en AMD hoeven zich nog geen zorgen te maken, helaas...
https://www.videocardbenchmark.net/high_end_gpus.html

[Reactie gewijzigd door Geekomatic op 23 juli 2024 13:34]

Ik weet niet hoe ze tot die cijfers komen, maar in daadwerkelijke games scoort de A770 net onder de RTX 3060 (vooral als de resolutie omhoog gaat):
review: Videokaart Best Buy Guide - De beste gpu's in februari 2023

Met dubbele prestaties zouden ze dus ergens rond een RTX 4090 komen. Doen ze dat ook voor dubbel het geld dan is dat flinke concurrentie voor Nvidia.

[Reactie gewijzigd door Wolfos op 23 juli 2024 13:34]

De RTX3060 is al het niveau van de RTX2070 en de A770/16GB is al voorbij het niveau van de RTX3060 en zelfs soms beter dan de RTX3060ti. Dus een verdubbeling zal het waarschijnlijk voor bij de RTX3080 brengen.
Er zijn helaas teveel van die waardeloze vergelijkingssites tegenwoordig.....
Ben dan wel eens benieuwd of het prijskaartje dan ook verdubbeld zoals het aantal Xe-cores maar dat zit er denk ik wel dik in. Alleen is het mij nog steeds niet duidelijk hoe compatibel deze Xe-cores zijn met b.v. Nvidia Cuda Cores. Dus in de zin van dat programma's die Cuda cores ondersteunen ook Xe-cores ondersteunen. Vind ik vooral wel belangrijk als je met b.v. Adobe Premiere Pro werkt wat nog steeds het beste werkt met Nvidia Cuda.

Op dit item kan niet meer gereageerd worden.