Intel introduceert zijn eerste Xe3P-gpu met 160GB Lpddr5x-geheugen

Intel heeft een nieuwe Crescent Island-gpu voor datacenters aangekondigd. Deze wordt gebaseerd op een nieuwe Xe3P-architectuur, die later ook gebruikt zal worden in Arc-gpu's. De chip krijgt 160GB Lpddr5x-geheugen aan boord, maar verdere specificaties zijn nog niet bekend.

Intel kondigde zijn nieuwe datacenter-gpu aan tijdens het OCP Global Summit in Californië. De chip krijgt dus de codenaam Crescent Island. Volgens Intel wordt de kaart met lucht gekoeld en specifiek gericht op efficiëntie.

De kaart maakt voor het eerst gebruik van de Xe3P-architectuur. Er is nog weinig bekend over Xe3P, hoewel Intel zegt dat het gaat om een 'algemene gpu-architectuur' die gericht is op hoge prestaties per watt. Intel noemde de komst van Xe3P eerder al; het bedrijf zei toen dat deze architectuur ook gebruikt zal worden in toekomstige Arc-gpu's voor gamers.

Crescent Island is daar echter niet voor bedoeld; Intels spreekt over een gpu die specifiek is bedoeld voor AI-inferenceworkloads. De chip moet daarmee AI-modellen gaan draaien. De gpu krijgt verder 160GB aan Lpddr5x-geheugen. Hij gebruikt dus regulier geheugen in plaats van gpu-vram als GDDR7 of HBM3E. Intel lichtte die keuze niet concreet toe tijdens de OCP Global Summit.

Intel zegt dat de eerste Crescent Island-samples in de tweede helft van 2026 worden verstuurd naar grote klanten. In 2027 moet de gpu breder beschikbaar komen.

Intel Xe-roadmap
Intel bevestigde eerder al dat Xe3P gebruikt zal worden voor nieuwe Arc-gpu's. Bron: Intel

Door Daan van Monsjou

Nieuwsredacteur

15-10-2025 • 15:37

18

Submitter: TheProst

Reacties (18)

Sorteer op:

Weergave:

Ter vergelijking

GDDR6 = 44 - 80 GB/s
GDDR7 = 112 - 160 GB/s

HBM3 = 819 GB/s
HBM4 = 2048 GB/s

LPDDR5 = 0.8 GB/s
LPDDR5X = 1 GB/s

Dus ze moeten er wel erg veel chips op zetten om de snelheid hoog te krijgen; niets is onmogelijk natuurlijk.
De vergelijking is echter incorrect.

LPDDR5X doet inderdaad ongeveer 8Gbit/s (1GB/s), maar wel per pin.
Het net aangekondigde HBM4E van samsung doet 13Gbit/s per pin.
Het verschil is dus niet enorm.

Bron LPDDR5X
Bron HBM4E
Ok, fair punt, maar jij laat het ook extreem uitschijnen.

HBM4 moet nog komen, dus daar ga ik niet over speculeren.

HBM3 zit in de H100 van NVIDIA.
Deze heeft 5 stacks van 1024 bits per stack (of dus 5120 bits), goed voor 3.35 TB/s.

HBM3 zit ook in de MI300X van AMD.
Deze heeft 8 stacks van 1024 bits per stack (of dus 8192 bits), goed voor 5.3 TB/s.

De snelste soort LPDDR5X is 10.7 Gbps in packages van 64 bits. Dat is 85.6 GB/s
Je hebt dan dus minimaal 40 chips nodig op een kaart om dezelfde snelheid te halen.
Het issue hier is dat dergelijke LPDDR5X chip 1.2 mm x 1.5 mm is; dat is 75 cm² aan puur de chips en dan spreken we nog niet over de runs zonder dat er signaalproblemen zijn, noch over het aansturen van 40 chips op een fluctuerende afstand.

Hoewel LPDDR5X gekend is als energie-efficient verbruikt deze meer pJ per overgedragen bit dan HBM3; tot wel 3.5 keer zoveel bij intensief gebruik. (en een datacenter heeft deze kaarten om intensief te gebruiken).
"HBM4 moet nog komen," Maar deze kaart van het artikel moet toch ook nog komen?

Ik juig deze kaart wel toe, want we zouden hier dan LLm's op kunnen draaien?
Je kan er LLM's op draaien, maar de vraag is "hoe snel"?
De grootste LPDDR5X packages zijn 32GB; dat zou 5 chips vragen en zelfs weinig zijn tegenover andere kaarten. Dan is het stroomverbruik ook onder belasting "maar" te vergelijken met 15 HBM3 chips. Maar dan heb je ook 'maar' 5x 85.6 = 428GB/s. Een LLM vergt ook enorm veel datatransfer tussen geheugen en core.

Nemen ze de 16GB variant, dan zijn er 10 chips op de kaart; ook goed te managen qua layout, interferance én je hebt 856GB/s. Dat is is vergelijkbaar met de snelheid van 1 HBM3 chip. (5x trager dan de H100).
Maar deze verbruik dus hopen meer stroom. Dat betekent voor een datacenter niet enkel grotere toevoer van energie, maar ook meer koelingcapaciteit, meer water, etc... (deze kaarten zijn voor datacenters, niet voor thuis bij jou)
Ik kan me voorstellen dat LPDDR minder stroom verbruikt dan GDDR/HBM. Misschien scheelt het qua prijs ook wel, maar dat durf ik niet met zekerheid te zeggen.

Iemand anders nog ideeën waarom Intel voor LPDDR5X kiest? Als er erg duidelijke voordelen zijn, zouden AMD/Nvidia dit ook wel eens toegepast hebben zou je denken.
Dit is goedkope laptopgeheugen vs Nvidia kan iedereen overbieden om de beste GDDR/HBM op te kopen. Als het goedkoop en in grote hoeveelheden moet zijn om de markt te overspoelen.

Voor 160GB VRAM heb je een 640bit brede geheugenbus of 2 GPU's met 320bit geheugenbus.
The board will carry 160 GB of LPDDR5X memory (a lot more than one typically expects from a graphics card), which suggests the usage of many LPDDR5X devices. An LPDDR5X DRAM IC features two 16-bit channels, so its total interface width is 32 bits. The highest-capacity LPDDR5X die is 32 GB (8 Gb), so 20 of such chips are needed to equip a graphics card with 160 GB of LPDDR5X memory. This means that the card either carries one massive GPU with an unprecedented 640-bit wide memory interface connecting all 20 memory devices, or two smaller GPUs, each with a 320-bit memory interface and equipped with 10 memory devices. In both cases, it means that Intel will have two high-end graphics processors for inference, and the only question is whether these can also process graphics. 

https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
Interessant, maar zonder clocksnelheden weten we zelfs dan nog steeds niet wat de bandbreedte gaat zijn in GB/s, toch?
Ze hebben heel erg veel RAM. Dat kan betekenen dat de bus ook heel erg breed is. En dat daarmee LPDDR5x snel genoeg is.

Het is natuurlijk ook prijs/prestatieverhouding.
LDDR5x zegt nog helemaal niets over de bandbreedte, kan namelijk zoals standaard moederbord 128Bit bus zijn, Of zoals AMD unified memory AI MAX systemen met 256Bit bus. of Apple M3 Ultra met 1024Bit bus.
Die laatste is erg snel met net iets meer dan 800GB/s
GDDR5 heeft wel dezelfde GB/s op dezelfde busbreedte maar de clock ligt wel een stuk hoger.
Misschien dat de concurrentie voor high end geheugen te groot is door NVIDIA en AMD, dus slecht verkrijgbaar en duur?
Het is gezien de prestaties van de GPU gewoon niet heel erg zinnig om het duurste geheugen erop te plakken.
Dit is meer een kaart voor applicaties die meer geheugen nodig hebben dan GPU prestaties. Dan pak je dus gewoon et goedkoopste hoog capaciteit geheugen dat er te krijgen is om kosten te drukken en de concurrentie te slim af te zijn.
als te weinig HBM3E of GDDR7 een performance-bottleneck vormt (bvb omdat je LLM niet in memory past) kan die zomaar ervoor zorgen dat je kaart plots enorm traag wordt omdat er vanuit (remote) memory of storage constant geladen moet worden. 20 ritjes met een porche zal trager zijn dan 1 met een vrachtwagen als je 2 ton vracht moet vervoeren.
Geheugen op GPUs is nog wel eens een beperkende factor voor mijn rekenwerk, terwijl het heerlijk parallel is (ideaal voor een GPU). Ik zou een keer op dit beestje mijn modellen doorrekenen op hoge resolutie en in 3D :D
Waarom dan specifiek op dit beestje, met LPDDR (laptop) geheugen ipv het veel snellere GDDR wat op de meeste andere grafische kaarten en accelerators zit?
Het gaat niet zozeer om de snelheid van het geheugen maar het geheugen op zich. Bepaalde grote modellen zijn al te groot voor een dual 5090 setup.
Die 160 GB is het verkoop praatje de prestaties zijn verder niet super relevant omdat er bijna niets is op de markt met 160 GB geheugen.
Wel mooi voor ai, ik loop tegen de beperking van 24 gb aan. Eco systeem is ook belangrijk, nogal een onoverkomelijke drempel als er geen ondersteuning is. Dus gaat om meer dan alleen de hardware.
Slim want dit segment (modellen met veel geheugen waardoor ze grote LLM model.len kunnen runnen) wordt op dit moment uitgemolken door Nvidia en ook AMD.

Als zon ding 2000 euro zou kosten, dan brengt dat de hoop voor thuis AI setups weer in zwung


Om te kunnen reageren moet je ingelogd zijn