'Intel Arc Celestial-videokaart bereikt nieuwe stap in ontwikkelproces'

De Intel Arc Celestial-videokaart zou in een nieuwe stap van het ontwikkelproces zijn aanbeland: de pre-silicon hardware modeling phase. Dat blijkt uit vermoedelijke loopbaaninformatie van Intel-medewerkers. Het is niet duidelijk wanneer de videokaart wordt geïntroduceerd.

Uit de screenshots die X-gebruiker Haze2K1 heeft gedeeld, blijkt dat er al low-level system software en drivers in C++ voor de videokaart zouden zijn ontwikkeld. Uit een van de screenshots valt ook af te leiden dat er al bepaalde pre-silicon hardwaremodellen voor de Intel Arc Xe3-videokaart zijn gemaakt. In deze fase kunnen OEM’s en partnerbedrijven elementen van de nieuwe chiparchitectuur virtueel testen, nog voordat de pcb van de videokaart is geproduceerd.

Het is niet voor het eerst dat er nieuws lekt over de Intel Arc Celestial-videokaart. Eind 2024 vertelde Intel-topman Tom Petersen in de Full Nerd Podcast dat de basisarchitectuur van de Xe3-gpu toen al was vastgelegd en dat de Intel-ingenieurs al aan het werk waren aan de volgende generatie videokaarten.

Door Jay Stout

Redacteur

04-05-2025 • 12:42

44

Submitter: Scribe

Lees meer

Reacties (44)

Sorteer op:

Weergave:

Als ze hiermee een blockbuster ontwikkelen, dan kan dat Intel uit t slop trekken.
Ze missen iets als de 9070/5070(ti), dat zijn toch wel de kaarten waar men nu veelal op oriënteert.
Zo groot is de gamingmarkt toch ook weer niet?
The Gaming GPU Market size is estimated at USD 4.89 billion in 2025, and is expected to reach USD 20.98 billion by 2030, at a CAGR of 33.84% during the forecast period (2025-2030).
Zie https://www.mordorintelli...reports/gaming-gpu-market

Een kleine 5 miljard dollar voor dit jaar dus, en over 5 jaar zo'n 21 miljard. Dat is een leuke markt waar toch best wel wat geld in om gaat.

En dat is dan de high end markt. Als je de GPU-markt als geheel neemt:
In 2024, the global graphics processing unit (GPU) market was valued at 65.3 billion U.S. dollars, with forecasts suggesting that by 2029 this is likely to rise to 274.2 billion U.S. dollars, growing at a compound annual growth rate (CAGR) of 33.2 percent from 2024 to 2029.
Zie https://www.statista.com/...pu-market-size-worldwide/

Daar willen fabrianten best een leuk deeltje van meepikken denk ik :)

[Reactie gewijzigd door wildhagen op 4 mei 2025 15:09]

Maar alleen de server CPU markt was volgens diezelfde website in 2022 500 miljard waard, dan is 5 miljard toch klein bier?

Ik snap wel dat intel de GPU markt in wil komen, maar ik denk eerder dat hun einddoel AI-toepassingen is dan consumentenkaartjes, eigenlijk.
Ondanks dat het grote geld nu in AI toepassingen zit, gaat het om wel meer dan alleen dat. Intel wil graag de semicustom business in en zie je tegelijkertijd dat de industrie steeds meer naar complete SOCs gaat. Zo heb je bij AMD de Mi300A and Strix Halo en zie je nu Nvidia diezelfde kant op gaan met Grace en de geruchtte samenwerking met Mediatek. De efficïentie winsten die je maakt met data localiteit zijn immers immens. Als dit allemaal van de grond komt en Intel heeft geen GPU dan staan ze met een mond vol tanden, in het geval van high-end clients maar zeker ook met server CPUs (waar ze qua gebruik van accelerators nu eigenlijk voorlopen) en de groeiende semicustom markt waar je een robuste GPU IP block wil kunnen aanbieden.

Die consumentenkaarten zijn een noodzaak om dit alles tot een succes te ontwikkelen. De adoptie van niet-CUDA GPUs is buiten de gamemarkt gewoon erg laag, hier loopt AMD ook tegen aan. OneAPI is een knap stukje software, dan wil je devs een zo laag mogelijke drempel geven om dit te gebruiken en zo adoptie te bevorderen. Echter is een consumentenkaart zonder goede gaming support gedoemd te falen, niemand zal dit willen kopen. Dus als je als grote speler de GPU markt binnen wil treden, dan is het bedienen van die kleinere gaming markt een belangrijke eerste stap.
En consumentenkaarten zijn wat de studenten gebruiken.

Vroeger was GeForce en Radeon competitief in prijs en je kreeg bij Nvidia meer features zoals CUDA voor een kleine premium. Aan de universiteiten werd CUDA aangeleerd en voor onderzoek gebruikt. Het wordt erin gelepeld zoals de goedkope studentenlicenties zijn nodig om iedereen aan Microsoft, Adobe, Autodesk,... producten verslaafd te maken.

Nu kan de situatie omslaan zoals we in de beeldvorming van recente releases kunnen zien. Iedereen naar de MicroCenter voor een RX 9070 XT of non-XT en er wordt nog altijd 100 euro premium boven de MSRP (599 dollar voor 9070 XT is nu 528 euro excl. BTW en maal 1,21 is 639 euro incl. BTW) betaald. Niemand ging daar wachten op een RTX 5060 Ti en RTX 5070 is al onder de MSRP gezakt.

De gamers en universiteiten aan de Radeon (met bruikbare hoeveelheid VRAM tegen een betaalbare prijs) helpen, zorgt ervoor dat generaties ook ML, AI,... code zonder CUDA kunnen kloppen. De CUDA-afhankelijkheid moet afgebouwd worden.
Op een of andere manier lijkt AMD dit nog niet zo te snappen, anders had RDNA4 wel ROCm ondersteuning bij launch (en heeft volgens mij nog steeds geen support). Misschien was het splitsen van HPC en consumenten architecturen niet zo'n goed idee. Of naja, dit is allemaal makkelijker gezegt dan gedaan. Met de kaarten die ze gedealed kregen moesten ze wel. Het is in ieder geval een perfect voorbeeld waarom het bedienen van de gamingmarkt zo belangrijk is om adoptie van je API te bevorderen.

GCN was een beest in compute, zeker in double precision, maar kon lang niet meekomen met Nvidia op het gebied van rendering en hadden ze geen goed alternatief voor CUDA, zeker omdat OpenCL vaak als te ingewikkeld werd gezien. GCN3 en Vega waren een grote teleurstelling, en begonnen ze steeds meer aandeel te verliezen precies op het moment dat ze ROCm introduceerde. Zoedoende hebben ze RDNA ontwikkeld om mee te komen met Nvidia op het gebied van graphics terwijl ze GCN doorontwikkelde in CDNA.

De consessies die er zijn gemaakt om RDNA te laten werken zorgen er voor dat het niet zo makkelijk is om de volledige ROCm feature set te ondersteunen. Bij RDNA 2/3 kwam gedeeltelijke support ook pas ver na de launch. De compute architectuur werd steeds minder toegankelijk, en dus blijft de adoptie van ROCm laag. Helaas voor AMD had Nvidia ook nog eens geluk dat ML/AI toepassingen juist de half-precision/minifloat kant op ging en werd CDNA eigenlijk vooral relevant voor wetenschappelijke doeleinden.

Intel lijkt dit beter aan te pakken vanaf het begin, ze hebben in ieder geval een duidelijk plan. Al gaat AMD de goede kant op met UDNA waar de HPC en consumentenchips weer naar dezelfde architectuur gaan.

[Reactie gewijzigd door 24hourpartypal op 6 mei 2025 18:59]

Precies. Het gaat Intel niet uit het slop trekken.
Ofwel de gaming markt stelt amper iets voor voor intel, AMD of Nvidia, allemaal ver onder de 10% van hun hele business.
Ik durf zelfs te beweren als zij een betaalba(arde)re 5060 Ti tegenhanger met 16GB, 18GB, 20GB of 24GB ontwikkelen die duidelijk goedkoper is en beter beschikbaar is (die twee gaan vaak hand in hand), dan zullen behalve gamers ook productiviteits zakelijke gebruikers voor hun workstation de regelmatig negatief in het nieuws zijnde Nvidia met al die Fake frames, gesmolten connectors, peperdure kaarten die niet voorradig zijn, Nvidia steeds vaker links laten liggen.

Tegelijkertijd staat Intel letterlijk in de kinderschoenen met hun eerste en nu net pas uitgekomen Tweede serie. Alle kritiek zal dus logischerwijs eersst uitgestreken moeten worden. Het feit dat ze kennelijk de stekker nog niet eruit hebben getrokken voor Celestial en Druid getuigt van een langer termijn visie en dito adem.

Iets wat gamers niet zo goed kunnen apprecieren. Die willen elk jaar een 25% tot 50% snellere kaart voor een lagere prijs. Omdat Nvidia daar ook niet meer op antwoord, is de markt vrij voor nieuwe ontwikkelaars om marktsegment in te nemen. Het verbaast mij dat zo'n groot bedrijf als Nvidia de basisprincipes van Electrische verbindingen zo slecht onder de knie heeft. De oude 8 pin connector was betrouwbaarder dan hun "innovatieve" 12vpwr connector.

Ooit was Nvidia de beste grafische kaart maker met de beste drivers en ondersteuning en innovaties.
Maar ik lees hier dat steeds meer mensen telleurgesteld zijn of worden bij elke nieuwe release.
En dan vooral de daadwerkelijke benchmarks van echte frames, niet de fake frames die Nvidia zelf als echt verkoopt in hun prestatiemetingen. Zo beweerde Nvidia dat de 5060 Ti 50 keer sneller is dan de 1060 Ti. Maar dat blijkt in realiteit slechts 3 tot 4 keer sneller te zijn dan een kaart van 10 jaar geleden.

Ik hoop dat Intel ondanks hun achterstand doorgaat van Battlemage naar Celestial en Druid.
Dan zijn de kaarten volledig opnieuw geschud en ziet het GPU landschap er heel anders uit.
Is de wat oudere A770 tot nu toe gewoon de betere al is het maar dat de geheugenbus 256b is en de B serie 192b is?
Het hogere model van de B serie is ook nog niet uit gekomen. Het is ook de vraag of die nog wel komt.

De 16gb vram is ook een voordeel maar de battlemage architectuur is wel veel beter geworden.

Helaas hebben ze een cpu overhead issue en werken dese gpu's slecht met goedkopere cpu's terwijl je als je een top cpu koopt juist geen Intel gpu gaat kopen omdat die onder in de markt opereren. Hopelijk kunnen ze dat issue oplossen dan zijn het namelijk wel interessante gpu's mits Intel ze voor de msrp wil leveren (echt lijkt het er op dat ze die liever niet verkopen want er is niet echt veel voorraad).
Het hogere model van de B serie is ook nog niet uit gekomen. Het is ook de vraag of die nog wel komt.
Gemiste kans van Intel. Door de hoge prijzen en slechte verkrijgbaarheid van Nvidia en AMD was er boven de B580 ruimte.
Ik denk het niet. Gezien de grote van de B580 en wat die kost is het geen vetpot voor Intel. Daarnaast heeft een snelle model nog meer last van de cpu overhead issues en kan die nog minder goed concureren tegen de snellere modellen van AMD en NVidia.

Ze moeten eerst die issues opgelost zien te krijgen.

Ik vraag me ook af of Intel nog veel tijd en moeite in celestial gaat stoppen Gezien de grote problemen die het bedrijf inmiddels heeft doordat cpu en gpu's niet goed genoeg presteren tov de concurrentie.
Ik denk dat ze eerst de cpu markt willen proberen te redden en dan datacenter gpu's voor dat ze aangedacht besteden aan gaming gpu's.

[Reactie gewijzigd door Astennu op 4 mei 2025 16:56]

De Xe3 architectuur, en de Xe2 architectuur wordt ook al gewoon in datacenter gebruikt, naar ook voor iGPU. Dus de architectuur ansich is niet alleen voor gaming.
Dat klopt het was sowieso een datacenter first architectuur gaming was bijzaak. Maar momenteel is dat met alles wat er aan komt. Bij NVidia is dat ook al langer het geval en bij amd krijg je straks UDNA wat ook weer meer datacenter focus heeft.
Nouja, gezien het artikel van vrijdag is er toch nog een kans dat die er wel komt.
Ze ontwikkelen het in ieder geval door voor de igpu tech. Maar ene kleine dgpu zoals de B580 lijkt in ieder geval een optie.

Nu hopen dst ze de drivers ook door blijven ontwikkelen.
Helaas hebben ze een cpu overhead issue en werken dese gpu's slecht met goedkopere cpu's terwijl je als je een top cpu koopt juist geen Intel gpu gaat kopen omdat die onder in de markt opereren. Hopelijk kunnen ze dat issue oplossen dan zijn het namelijk wel interessante gpu's mits Intel ze voor de msrp wil leveren (echt lijkt het er op dat ze die liever niet verkopen want er is niet echt veel voorraad).
Voor zover ik het kan overzien is die overhead issue met Arc ook helemaal niet nieuw. Althans dat wordt regelmatig genoemd in podcasts van reviewers. Er is alleen niemand die de moeite neemt er nu nog een video/artikel over the maken
Arc had het inderdaad ook al.
Er zijn meerdere outlets die er specifiek op in gegaan zijn zoals kitguru, digital foundries En hardware unboxed. Intel heeft ook zelf toegegeven dat het een issue is.
Goedkope cpu is hier wel relatief toch? Het gaat dan wel om heel goedkope exemplaren die het weliswaar beter doen met gpu van de concurrent maar het is niet realistisch om te verwachten dat men een gpu van 300 combineert met een cpu van 100 euro. Neem er een van 200 euro en we hebben het nergens meer over.

De prijs kwaliteitsverhouding van je GPU staat toch los van welke CPU geschikt is voor je workloads? Mensen staren zichzelf iets te vaak blind op 'een pc is primair een game machine en elk onderdeel staat daar centraal in'.

Uiteraard blijft het hoe dan ook een beetje bitter welke cpu je ook hebt dat door het gpu ontwerp er überhaupt een cpu overhead is maar in de praktijk is het enige waar echt een probleem zit de ultra low budget gaming build.
De B580 is in 95% van de games een stuk sneller dan de A770.
De A770 is mijn inziens nog een goede gpu die door driver optimizations nog verder zal verbeteren, maar zoals alle GPU's in de A-series heeft deze wel tekorten op basis van hardware-architectuur.

Alleszins werken deze het beste op PCIe 4.0 en met 4G decoding en Resizeable BAR enabled.

[Reactie gewijzigd door GerreV op 4 mei 2025 17:11]

Ok thnx voor de aanvulling, ben zelf beetje zoekende naar betaalbare kaart en over de A770
Zou nu echt niet meer voor de A770 gaan, het was zeker een heel goed begin voor intel als losse GPU, maar nu nog daarvoor gaan is geen slimme zet, tenzij je into 2e hands bent en voor een wat ouder systeem als upgrade GPU (en dan ook echt ver sub 200 euro kunt krijgen, de 16GB variant dan wel te verstaan). Anders zou ik gewoon voor de B580 of een ander gelijkgestelde AND/Nvidia gaan.
Als Intel met een Arc C770 komt zou dat best nog al eens een zeer competetieve kaart kunnen worden! Met de uitegelekte informatie dat deze kaarten GDDR7 zouden gebruiken en de mogelijkheid dat ze op de nieuwe process node in de Intel fab gemaakt worden kan ik me voorstellen dat dit heel interessant kan worden.

Zou leuk zijn als ze iets hebben om met de xx70 of zelfs xx80 tier van nvidia te concurreren... Weet niet hoe het zit qua drivers op Intel Arc tegenwoordig (al helemaal qua productivity-applicaties) maar de B580 op zichzelf lijkt al een zeer competetieve kaart. Ben heel erg benieuwd, zet hem op Intel!
De B580 is inderdaad reeds een erg goede gpu voor de prijs. Momenteel staan ze altijd duurder dan de MSRP, maar ja... welk merk en/of bedrijf doet dit niet...

Performance wise gaan ze absoluut niet op het niveau van de RTX 5080-5090 geraken, maar dat is ook totaal niet nodig, gezien deze GPU's verschrikkelijk veel stroom verbruiken en meer dan een volledige computer kosten.

Een beetje competitie tegen de RX 6000 / 7000 reeks en RTX 4060 Ti - RTX 5070 zou top zijn.
Intel steunen lijkt hier een goede optie, gezien Nvidia hier enorm profiteert van de monopolie, en dat is betreurenswaardig.
GDDR7 is te duur voor prijs knaller.
Mijn kennis is hier niet toereikend. Betekend dit dat het proces al op het stadium van productie is aangekomen? Of zitten we nog daarvoor?

Ik hoop dat de performance de A580 naar B580 sprong maakt, maar qua prijs niet al te veel stijgt. Heel eerlijk, puur omdat ik wil dat er 3 op hetzelfde speelveld staan, met hun eigen specialiteiten, ipv dat men NVIDIA's tepel blijft zuigen (Steam hardware survey laat zien dat bij gamers iig team groen de markt in zijn hand heeft).
Volgens mij is 'pre-silicon hardware modeling phase' de fase waarin je CPU ontwikkeld hebt in software en je het ontwerp aan het testen bent in software. Soms draaien ze het ontwerp ook op een FPGA. Als je deze validatie stap door komt ga je pas het ontwerp fysiek maken.

Dat ben je dus nog niet in productie, dit is de stap voor 'tape-out'. Je ontwerp fysiek maken kost zoveel geld en moeite dat je er zeker van wilt zijn dat je ontwerp gaat werken.
Hoop dat Intel met een nog beter product dan de Arc b580 komt, die is prijstechnisch ook een zeer interessante kaart. Vooral in de huidige markt is elke vorm van concurrentie welkom, ik word niet blij als ik nu een systeem met goede prijs/kwaliteit gpu moet uitzoeken.
Die ouwe prijzen komen niet meer terug , tenzij TSMC wafers factor 10x price hike daalt naar 2x . Oftwel concurrentie in de wafer markt. 500 naar 5000 dat is geen inflatie maar markt dominantie van TSMC. Houd ook in dat intel en AMD zelfs nv niet de nieuwste nodes voor nextgen gebruiken maar die alloceren voor hun money maker SKU. Nv is dat pro AI gpu voor AMD Epyc server.
Gezien de prestaties van de ARC B570 en vooral de B580 t.o.v. de gevestigde orde, is dit zeker een zeer interessante ontwikkeling. Er waren, zoals het artikel vermeldt, al genoeg nieuwtjes over deze nieuwe kaart te vinden op het internet, maar nu is het dan officieel. Mooi man, ben benieuwd waar Celestial mee gaat concurreren. Heb inmiddels twee systemen gebouwd met de B580 en die doen het erg goed in games zoals CP2077 en Satisfactory, beide zeer zware games als je ze maxed out speelt. De B580 concurreert hevig met de 4060 Ti en de RX 7600 XT en presteert bovenmaats in voornoemde spellen, waar de 4060Ti het alleen wint als je (fake) DLSS4 gebruikt. Maar de B580 blijft een stuk koeler, wat beter is voor de rest van de componenten in je kast (aangezien 90% van de wereld een midi-tower heeft).
Komt dat meer door grotere DIE wat intel nodig heeft om met nv en AMD te concureren.
Positief dat ook in slechte tijden de ARC-GPU's niet afgevoerd zijn, en doorontwikkeld worden. We weten niet hoe deze gepositioneerd moeten worden tov de huidige en toekomstige kaartreeksen van AMD en Nvidia. Waarschijnlijk niet gelijk tov de 5090 van deze wereld, maar maakt het gamen voor normale mensen meer haalbaar.
Intel ziet gpu AI succes van nV. Eerder minder nadruk op CPU en GPU is belangrijker geworden. Al lange tijd was er strijd tussen Xeon vs pro nv gpgpu gebeuren. Hooguit dat gamer gpu geschrapt kan worden , maar pro tak is sowieso blijvertje

Ik hoop niet dat die geruchten gebaseerd zijn op out of context leaker, dat chip die eigenlijk voor pro tak bedoeld is.
Als Intel een net zo grote stap maakt met Celestial als van Alchemist naar Battlemage, dan kan deze architectuur een mooie verrassing worden. Intel zal wel moeten zorgen dat er voorraad is, en zich niet uit de markt prijzen.
Het uit de markt prijzen hebben we helaas tegenwoordig meer te danken aan onze webwinkels. 9070XT had ook een mooie prijs maar winkels zoals Megekko gooien er sinds de corona periode al te graag een marge van 300e overheen omdat mensen het toch wel kopen...
Dat is natuurlijk niet alleen maar te danken aan een webwinkel. Het feit dat mensen die hoge prijzen willen betalen, inkoopprijs, vraag en aanbod, en schaarste omtrent een release zijn daar de boosdoener van.

Als een videokaart niet verkoopt voor een bepaalde prijs, dan gaat ie vanzelf omlaag. Ook bij Megekko.
Moeten ze wel opschieten. Als ze weer wachten tot net voor de rtx 6000 serie en whatever amd de volgende generatie gaat noemen (want 10070x is net zo idiote naam als de intel 10900k die alle amd fans belachelijk maakte qua naam) dan wachten mensen gewoon op een kaart van de gevestigde orde.
Mooi om te horen dat de ontwikkeling doorgaat maar wel jammer dat er ondertussen nog geen Battlemage 770 is, beetje gemiste kans.
Als we nu een pre-silicon validation zien moet er dus nog een tapeout komen en dan in-silicon validation, waarna er nog een of meer cycli van correctie en tapeout moeten komen voordat de definitieve versie ten tonele verschijnt. Dit gaat waarschijnlijk dus pas volgend jaar een kaart opleveren.
Aja, dus ze simuleren het nu nog op een nVidia cluster.,., }>
Of intel's eigen Gaudi lijn?

Op dit item kan niet meer gereageerd worden.