Intel introduceert zijn eerste Xe3P-gpu met 160GB Lpddr5x-geheugen

Intel heeft een nieuwe Crescent Island-gpu voor datacenters aangekondigd. Deze wordt gebaseerd op een nieuwe Xe3P-architectuur, die later ook gebruikt zal worden in Arc-gpu's. De chip krijgt 160GB Lpddr5x-geheugen aan boord, maar verdere specificaties zijn nog niet bekend.

Intel kondigde zijn nieuwe datacenter-gpu aan tijdens het OCP Global Summit in Californië. De chip krijgt dus de codenaam Crescent Island. Volgens Intel wordt de kaart met lucht gekoeld en specifiek gericht op efficiëntie.

De kaart maakt voor het eerst gebruik van de Xe3P-architectuur. Er is nog weinig bekend over Xe3P, hoewel Intel zegt dat het gaat om een 'algemene gpu-architectuur' die gericht is op hoge prestaties per watt. Intel noemde de komst van Xe3P eerder al; het bedrijf zei toen dat deze architectuur ook gebruikt zal worden in toekomstige Arc-gpu's voor gamers.

Crescent Island is daar echter niet voor bedoeld; Intels spreekt over een gpu die specifiek is bedoeld voor AI-inferenceworkloads. De chip moet daarmee AI-modellen gaan draaien. De gpu krijgt verder 160GB aan Lpddr5x-geheugen. Hij gebruikt dus regulier geheugen in plaats van gpu-vram als GDDR7 of HBM3E. Intel lichtte die keuze niet concreet toe tijdens de OCP Global Summit.

Intel zegt dat de eerste Crescent Island-samples in de tweede helft van 2026 worden verstuurd naar grote klanten. In 2027 moet de gpu breder beschikbaar komen.

Intel Xe-roadmap
Intel bevestigde eerder al dat Xe3P gebruikt zal worden voor nieuwe Arc-gpu's. Bron: Intel

Door Daan van Monsjou

Nieuwsredacteur

15-10-2025 • 15:37

10

Submitter: TheProst

Reacties (10)

Sorteer op:

Weergave:

Ik kan me voorstellen dat LPDDR minder stroom verbruikt dan GDDR/HBM. Misschien scheelt het qua prijs ook wel, maar dat durf ik niet met zekerheid te zeggen.

Iemand anders nog ideeën waarom Intel voor LPDDR5X kiest? Als er erg duidelijke voordelen zijn, zouden AMD/Nvidia dit ook wel eens toegepast hebben zou je denken.
Dit is goedkope laptopgeheugen vs Nvidia kan iedereen overbieden om de beste GDDR/HBM op te kopen. Als het goedkoop en in grote hoeveelheden moet zijn om de markt te overspoelen.

Voor 160GB VRAM heb je een 640bit brede geheugenbus of 2 GPU's met 320bit geheugenbus.
The board will carry 160 GB of LPDDR5X memory (a lot more than one typically expects from a graphics card), which suggests the usage of many LPDDR5X devices. An LPDDR5X DRAM IC features two 16-bit channels, so its total interface width is 32 bits. The highest-capacity LPDDR5X die is 32 GB (8 Gb), so 20 of such chips are needed to equip a graphics card with 160 GB of LPDDR5X memory. This means that the card either carries one massive GPU with an unprecedented 640-bit wide memory interface connecting all 20 memory devices, or two smaller GPUs, each with a 320-bit memory interface and equipped with 10 memory devices. In both cases, it means that Intel will have two high-end graphics processors for inference, and the only question is whether these can also process graphics. 

https://www.tomshardware.com/pc-components/gpus/intel-unveils-crescent-island-an-inference-only-gpu-with-xe3p-architecture-and-160gb-of-memory
Ze hebben heel erg veel RAM. Dat kan betekenen dat de bus ook heel erg breed is. En dat daarmee LPDDR5x snel genoeg is.

Het is natuurlijk ook prijs/prestatieverhouding.
Misschien dat de concurrentie voor high end geheugen te groot is door NVIDIA en AMD, dus slecht verkrijgbaar en duur?
als te weinig HBM3E of GDDR7 een performance-bottleneck vormt (bvb omdat je LLM niet in memory past) kan die zomaar ervoor zorgen dat je kaart plots enorm traag wordt omdat er vanuit (remote) memory of storage constant geladen moet worden. 20 ritjes met een porche zal trager zijn dan 1 met een vrachtwagen als je 2 ton vracht moet vervoeren.
Ter vergelijking

GDDR6 = 44 - 80 GB/s
GDDR7 = 112 - 160 GB/s

HBM3 = 819 GB/s
HBM4 = 2048 GB/s

LPDDR5 = 0.8 GB/s
LPDDR5X = 1 GB/s

Dus ze moeten er wel erg veel chips op zetten om de snelheid hoog te krijgen; niets is onmogelijk natuurlijk.
De vergelijking is echter incorrect.

LPDDR5X doet inderdaad ongeveer 8Gbit/s (1GB/s), maar wel per pin.
Het net aangekondigde HBM4E van samsung doet 13Gbit/s per pin.
Het verschil is dus niet enorm.

Bron LPDDR5X
Bron HBM4E
Geheugen op GPUs is nog wel eens een beperkende factor voor mijn rekenwerk, terwijl het heerlijk parallel is (ideaal voor een GPU). Ik zou een keer op dit beestje mijn modellen doorrekenen op hoge resolutie en in 3D :D
Waarom dan specifiek op dit beestje, met LPDDR (laptop) geheugen ipv het veel snellere GDDR wat op de meeste andere grafische kaarten en accelerators zit?
Wel mooi voor ai, ik loop tegen de beperking van 24 gb aan. Eco systeem is ook belangrijk, nogal een onoverkomelijke drempel als er geen ondersteuning is. Dus gaat om meer dan alleen de hardware.


Om te kunnen reageren moet je ingelogd zijn