'Intel wil zijn krachtigste igpu met twaalf Xe3P-cores verwerken in desktop-cpu'

Intel werkt naar verluidt aan een desktop-cpu met een geïntegreerde gpu met twaalf Xe3P-cores. Dat zou Intels krachtigste igpu voor een desktopprocessor zijn. Tot dusver is de Arc B390 van de Panther Lake-laptopprocessors de snelste igpu van Intel.

Intel werkt aan een Nova Lake-desktop-cpu met vier Coyote Cove P-cores, acht Arctic Wolf E-cores, vier LPE-cores en een igpu met twaalf Xe3P-cores. Dat meldt de bekende leaker Jaykihn. Wel geeft hij aan dat de specificaties nog 'voorlopig' zijn. Meer informatie, zoals de kloksnelheden, noemt hij niet.

De snelste igpu die Intel tot dusver biedt is de Arc B390 met twaalf Xe3-cores. Deze ipgu is bestemd voor zijn Panther Lake-laptopprocessors. Xe3 verschilt wel enigszins van de nieuwere Xe3P-architectuur. Die laatste moet volgens Intel betere prestaties leveren. De nieuwe Nova Lake-S-processors verschijnen naar verwachting in de tweede helft van het jaar.

Intel Xe-roadmap
Intel liet eerder al weten dat Xe3P gebruikt zal worden voor nieuwe Arc-igpu's. Bron: Intel

Door Kevin Krikhaar

Redacteur

14-04-2026 • 12:14

28

Reacties (28)

Sorteer op:

Weergave:

Goeie ontwikkeling. Ondanks dat ik mijn iGPU niet echt gebruik is het fijn dat het een beetje capabel is met gamen.
Een iGPU is fijn wanneer je alle VRAM van de GPU voor een LLM wilt gebruiken.
Vind het enorm handig in een Home Theater PC'tje, kan je probleem X265 & AV1 bestanden afspelen en ook wat fatsoenlijk emulators draaien in een heel kleine behuizing.

Ideaal om onder je TV te plaatsen, alles daarop doen, niet afhangen van het besturingssysteem en app updates van je TV zelf.
Mag ik vragen hoe je dat doet dan? Ik krijg met een Windows HTPC met geen mogelijkheid HDR10+ in films werkend over HDMI dus ik gebruik nu Plex via het netwerk.

@Ithaca81 je snapt me niet, sorry als ik onduidelijk was. Plex werkt feilloos, ik ken echter geen enkele methode om HDR10+ via HDMI te outputten op Windows 11, bij het kijken van een film. Heb álles geprobeerd met uitzondering van het kopen van een HD-Fury-achtige box.

[Reactie gewijzigd door TV_NERD op 14 april 2026 13:09]

Dit wordt echt gissen gelet op de beperkingen binnen plex maar als eerste zou ik zeggen: staat direct play aan, ondertiteling uit?
Je kan met MPC-HC en de ingebouwde MPC videorenderer (of met MadVR erbij) prima HDR10(+) werkend krijgen onder win11. Je moet dan wel autoswitch naar HDR aanzetten in de settings van de videorenderer. Je output is wel altijd HDR10.

Andere spelers zoals MPV hebben ook HDR10(+, en beperkte Dolby Vision) ondersteuning, maar MPC-HC vind ik het makkelijkst.
  1. A TV or projector that explicitly supports HDR10+ (e.g., Samsung, Panasonic, Philips models).
  2. An HDR10+–certified HDMI cable.

    Meer heb je echt niet nodig.

    Kodi als player.
  3. Supports HDR10+ passthrough in recent versions using FFmpeg.
  4. Ideal for local media libraries.
  5. Requires proper configuration and compatible hardware.
@Remzi1993 De kabel is goed, want in games is HDR op 4K met VRR en alles geen probleem.

@ViPER_DMRT Supports HDR10+ passthrough in recent versions using FFmpeg.

@Gundogan Wat heb ik er dan aan als mijn output HDR10 is naar mijn HDR10+ TV? Krijg ik dan alsnog de dynamische metadata over een HDR10 signaal? Ik heb het 3 jaar geleden voor het laatst geprobeerd en toentertijd was de beeldkwaliteit via HDMI met oplossingen als MadVR zwaar ondergeschikt aan Native HDR10+ via Plex (met dezelfde 90GB Blu-Ray RIP).

Dat moet er dan in de afgelopen 3 jaar bij zijn gekomen, 3 jaar geleden was dat absoluut niet het geval :) Straks maar eens testen. Dankjewel!!

@Remzi1993 dat beantwoord mijn vraag nog niet maar dat geeft niet. De laatste keer dat ik naar HDR10+ output via HDMI op Windows heb gekeken is 3 jaar geleden. De reacties die ik tot nu toe heb gekregen zijn genoeg indicatie er opnieuw in te duiken. Ben benieuwd.

[Reactie gewijzigd door TV_NERD op 14 april 2026 17:46]

Elk apparaat moet dan ook HDR10+ ondersteunen alsmede de software van alle apparaten. Dus als jou output HDR10 is dan is HDR10+ niet mogelijk.

[Reactie gewijzigd door Remzi1993 op 14 april 2026 21:59]

Yes, dat wordt dan HDR10 op je output noh ?
Mijn 4K UST beamer support HDR10 & Dolby Vision, als ik HDR10+ media speel op m'n shield (current) dan verschijnt het HDR10 content logo in beeld.

Of begrijp ik je verkeerd ? Scuzzi dan :)
Mijn TV kan HDR10+, ik wil dus een HDR10+ signaal naar de TV sturen. Toen ik dat voorheen probeerde met Kodi, VLC, etc, ging dat niet op Windows.
Dat kan aan allerlei factoren liggen. Heb je ook goede kwaliteit HDMI kabels gekocht? Dus niet eentje bij de Action of willekeurige webshop online. Ik kan je dit Nederlandse bedrijf aanraden: https://qnected.nl/hdmi-kabels/

Het is wat duurder maar de HDMI kabels zijn echt het beste wat ik ooit heb geprobeerd en heel sterk, prijs en kwaliteitsverhouding is wel goed.
Heerlijk dat mensen nog steeds in dit soort onzin geloven.
Niet alleen dat. Een iGPU is gewoon dik prima voor geel veel desktopgebruik. Mijn ~20 jaar oude laptop had nog een losse GPU. Intussen heb ik dat niet nodig en dan, volgens mij, ook maar een simpele AMD (i)GPU en niet een "zwaarder" model. En mijn desktop werkt ook gewoon prima op alleen de Intel iGPU. En ook bij familie draaien allemaal PCs (vaak ook nog eens oude) zonder dedicated GPU.

In principe heb je een dedicated GPU echt alleen maar nodig voor gaming of AI werk.
Voor AI zou dit nog wel eens mooier kunnen zijn omdat je meer traditioneel ram kan alloceren voor grotere modellen/sets. Bij Nvidia betaal je voor de relatief nieuwe rtx pro 6000 (een 5090 met ECC enabled, niet te verwarren met de RTX 6000) met 96 gb vram orde grootte 10k euro. Hier zou je daar tegen een fractie van de kosten meer voor kunnen hebben. Mits ze het toestaan. En natuurlijk is het minder snel.
Je hebt geen ECC nodig voor alle AI toepassingen natuurlijk.
Ik heb een 4090 met ECC als optie, die hebben eruit gesloopt bij de 5090 for a reason :-)
ECC in VRAm voor games maakt minder uit, maar voor andere taken is het eigenlijk net zo absurd dat het niet standaard is als voor gewoon RAM.


Het hele idee dat ECC alleen een workstation feature of server feature is pure winstgedreven marktsegmentatie geweest door intel. Bij DDR5 wilde JEDEC side-band ECC (en niet alleen on-die ECC) standaard maken, maar intel heeft dat geblokkeerd.

[Reactie gewijzigd door PjotterP op 15 april 2026 10:42]

Ik gebruik al jaren de iGPU voor mijn tweede scherm (mijn dGPU heeft maar 1 HDMI poort en die heb ik nodig voor VR HMD) en om het geluide over HDMI uit te sturen.

Bijkomend heb ik altijd een iGPU om een nieuwe dGPU te kunnen bestellen in geval van nood.

Voor vrienden van mij heb ik al meerdere HTPC en Office/email systemen gebouwd die puur draaien op de iGPU.
Zou fijn zijn als we voor de desktop dan ook een een discrete B570 Super of B580 Super ofzo krijgen. Of eerder B580 Ultra in Intel-terminologie. :)
Dus effectief gaat intel AMD nadoen? Want dit lijkt dan wel aardig op het APU concept dat AMD al een tijd lang hanteert.
Nee, effectief gaat Intel gewoon doen wat ze al decenia lang doen, maar nu gaan ze krachtigere iGPUs gebruiken.
AMD heeft pas recent een tamme iGPU toegevoegd aan de normale CPU-lijn. Dat is wat intel al heel lang deed. Ik zie nu een iGPU die veel weg heeft van wat AMD doet met de APU's. Qua concept lijkt mij dit toch meer op een APU dan op een CPU met leuke iGPU. Waarom is dit dan volgens jou de gewoonste zaak van de wereld voor intel?
Waarschijnlijk omdat Intel altijd al low-end iGPUs heeft gemaakt, en deed inbakken in de CPU, en zich pas relatief recent op de markt van mid-range GPUs aan het richten is? Het "nieuwe" zit in dat Intel betere GPUs maakt, niet dat ze nu GPUs inbakken in de CPU.

Terwijl het nieuwe bij AMD dan weer was dat ze nu GPUs inbakken in de CPU, terwijl je vroeger nog een losse GPU moest hebben.

Het resultaat is hetzelfde: okay iGPUs in de CPU. Alleen de weg er naartoe is compleet omgekeerd. AMD heeft mid en high end GPUs maar altijd dedicated gehad, en bakt ze nu in. Intel heeft altijd low-end GPUs ingebakken in de CPU en is zich afgelopen jaren meer op performance gaan richten waardoor ze richting mid-range gaan.

Is dit vervolgens nadoen van Intel? IMO niet. Eerder dat AMD begonnen is met Intel nadoen: GPUs inbakken in de CPU. Alleen waren die GPUs van AMD dan wel veel performanter dan die van Intel. Waarbij Intel juist steeds betere GPUs maakt, incl. dedicated modellen, en deze ook als "traditionele" iGPU inzet.

[Reactie gewijzigd door RobertMe op 14 april 2026 13:45]

AMD is ooit begonnen met de A-series APUs. Die hadden GPUs ingebouwd die sneller waren dan de iGPUs van Intel maar de CPU kant was woefully underpowered.

daarna kwam aMD Ryzen en hadden alle CPUs een redelijk slappe iGPU met in parallel de Ryzen G-series die vergelijkbaar met de APUs een redelijke iGPU bij een brakke CPU hadden.

Ondertussen zitten er geen iGPUs meer in de mainstream AMD processoren en waar ze er wel in zitten zijn ze alsnog gewoon zwak. Alleen de mobiele processoren van AMD hebben nog een beetje redelijke iGPU met uiteraard de 395 MAX als over-the-top voorbeeld met over-the-topper bijbehorende prijs.

Since de 10-series van Intel heeft Intel een behoorlijke inhaalslag gemaakt met de iGPU; over het algemeen een stukje sneller dan de AMD tegenhangers.

Dus nee, Intel gaat niet AMD achterna als het op "APU" aan komt. Ze gaan AMD achterna als het op de 395 MAX aan komt. En hopelijk niet alleen met een extreme CPU maar ook gewoon met een midrange GPU er achter om zo als interessant gaming systeem te dienen..... De GPU in de 395MAX is daar meer dan sterk genoeg voor en ik gok deze Intel tegenhanger ook.
Liever een B770 256bandbreedte en 16gig geheugen graag
Instant buy. Heb nu een wat stevigere PC, maar gebruik mijn GPU vaak maar voor 60-70%. Dit ziet er fantastisch uit, precies genoeg CPU, dikke GPU, hopelijk goeie NPU ernaast en een mooie hoeveelheid RAM via CAMM of DIMM. Grote voordeel voor zo'n setup is m.i. idle stroomverbruik. Ik krijg mijn desktops altijd net tussen de 20-30W idle, nooit lager. dGPU was daar vaak zo'n 10W van. Vervang de dGPU voor een goeie iGPU en die 10W verdwijnen waarschijnlijk als sneeuw voor de zon. <10W idle desktop, misschien?
Lijkt me ook heel praktisch voor Frigate om nog meer camera's aan het systeem toe te kunnen voegen.

Om te kunnen reageren moet je ingelogd zijn