Gerucht: Intel Nova Lake-S maakt grote prestatiesprong met ingebouwde npu

Intels nieuwe Nova Lake-S-desktopchips zouden een grote sprong vooruit maken met het prestatieniveau van de ingebouwde npu voor AI-taken. Deze Core Ultra Series 4-chips zouden 74Tops halen, wat ruim vijf keer zoveel is als de 13Tops van Arrow Lake-S en de refresh daarvan.

Intel zou met de Core Ultra Series 4 dan ruim voorbij de minimale vereisten komen die Microsoft stelt voor zogeheten Copilot+-pc's. De aankomende nieuwe Nova Lake-S-chips hebben een ingebouwde npu (neural processing unit) die volgens een gerucht maximaal 74Tops (tera operations per second) halen. Microsoft stelt voor Copilot+ een minimum van 40 Tops.

Nova Lake-S is niet Intels eerste chip die deze grens passeert, meldt TechPowerUp, maar wel de eerste voor desktopcomputers. De Lunar Lake-chips die Intel biedt voor laptops halen met hun npu 48Tops. Daarmee maakte de chipmaker in 2024 al een flinke sprong: de npu voor AI was toen vier keer zo snel. De huidige desktopchips van Intel, Arrow Lake-S en de aankomende Arrow Lake-S Refresh, hebben een oudere npu-generatie, die nog stamt van de Meteor Lake-chips. De Arrow-Lake-chips halen daarmee slechts 13Tops.

De nieuwe, krachtigere Core Ultra Series 4 zou tegen het einde van dit jaar pas op de markt komen.

Copilot-toets laptop hand Microsoft AI genAI
Copilot-toets (beeld: Microsoft)

Door Jasper Bakker

Nieuwsredacteur

10-02-2026 • 21:06

38

Reacties (38)

Sorteer op:

Weergave:

Leuk Intel, alleen gaat niemand het kopen omdat het bijbehorende RAM en SSD je aan de bedelstaf brengt.

Zo langzamerhand word dat AI een kip/ei verhaal. Straks alles ingezet op AI, maar niemand die nog hardware ervoor koopt. Terug bij af.
Nee, dat is juist top want als je 't niet lokaal kan, kunnen ze je een abonnement verkopen voor capaciteit op hun AI service. Op termijn is dat natuurlijk veel goedkoper dan eenmalig een chipje verkopen. Plus ze hebben je data. Winst! (voor de grote bedrijven dan).

[Reactie gewijzigd door Bundin op 10 februari 2026 21:27]

Subscriptions zijn de nieuwe heilige gralen voor alle bedrijven. GPU? nee betaal per maand om te gamen , de slechtere latency en dingen moet je vooral blij mee zijn. Opslagruimte? waarom niet per maand per GB, uiteraard ben je alles kwijt ook al was het onze fout.

ik ben echt blij dat ik alle oude fotos gewoon als .jpg heb , alle muziek of op CD/flac of (way to much) Vinyl.

Mensen gaan in de toekomst aan ChatGPT vragen waarom er geen potje HAK groenten te koop is, geen lekkere sappig fruit te koop is of waarom er geen Melk te koop is. ChatGPT was 'vergeten' voor te schrjjven dat de koe ook moest eten om melk te kunnen produceren en vooral hoe dat moest.

Mijn (inmiddels volwassen) Nichtje heeft als kind toch echt op een menu kaart buiten aan de muur zich afgevraagd waarom de volgende pagjna niet kwam na een swipe op het glas wat ervoor zat. [... ]
Hopelijk faalt subscription based computing.
Wat ik persoonlijk wel zou zien zitten als we gewoon weer normaal computers kunnen kopen, maar dan goedkoper en goedkoper en goedkoper. En local LLM's / AI kunnen handig zijn, daar heb je geen cloud based versies voor nodig. Huidige 13B modellen en lager die goede alignement hebben met goede quantization, werken uitstekend lokaal. En hoe beter de allignment wordt in de toekomst hoe beter ze worden. Zonder at je veel ram nodig heb. Een 12B model heeft gemiddeld 12GB ram en 12GB VRAM nodig, afhankelijk van hoe je omgaat met quantization en token size.
Ach dat kaartenhuis stort vanzelf in elkaar.

Daarbij je kan nu al LLM's lokaal draaien op consumenten hardware (qwen3-coder draait bijv gewoon snel op mijn rtx4070). Ja misschien niet het allermooiste model maar wellicht wel al goed genoeg en dat gaat de komende jaren door technologische vooruitgang alleen maar makkelijker worden. Tel daarbij op dat ze keihard tegen dimnishing returns aanlopen (nieuwere model zijn niet noemenswaardig beter dan oudere) en die LLM subscriptions zijn dan ook echt ten dode opgeschreven op de wat langere termijn.

Lokale AI daar zit de toekomst in.

[Reactie gewijzigd door Barsonax op 10 februari 2026 22:39]

Nou, ik denk dat het 'niemand zal gaan kopen vanwege RAM/SSD' wel mee zal vallen in werkelijkheid. Mensen zullen toch vaak genoeg een nieuwe PC moeten kopen, ook de zakelijke markt.
Ik moet bv voor werk een nieuwe NUC hebben, maar ik wacht nog even totdat de pantherlake varianten in april (hopelijk) op de markt komen, en daar gaat toch meteen minimaal 64GB RAM + 4TB SSD in, zodat ik daarna weer een jaar of 7 vooruit kan.
Bij subscription based computing heb je geen PC nodig in de zin van zoals we die nu kennen. Dan heb je een scherm nodig met genoeg hardware die je verbind met het internet en beeld op je monitor tovert. De rest komt uit de cloud. Persoonlijk vind ik dit een slechte richting en verliezen we autonomie. Dus we moeten ervoor zorgen dat subscription based computing faalt.
Heb je dan ook nog echt iets aan een npu? Behalve alle Copilot+ rotzooi
Er zijn best nuttige toepassing van AI / NPU. Object herkenning in foto's, video's en dergelijke, foto bewerkingen, etc. Tekst samenvatten of spraak omzetten in tekst en samenvatten (wel afhankelijk van het LLM dat je gebruikt). Ik kan me voorstellen dat men de NPU ook wel in games kan toepassen om computer tegenstanders wat uitdagender te maken. Op die manier speel je de CPU ook weer vrij voor andere zaken.
Als een NPU het kan kan de CPU het ook. Als je het dus maar incidenteel minimaal gebruikt hadden ze de transistoren ervoor ook in kunnen zetten voor meer CPU cache, betere iGPU oid. Nu het dedicated NPU is is het wellicht low-power, maar ook single-use geworden. Maar ik moet de NPU instructieset nog eens induiken om te zien wat voor een zinnige andere dingen dat ding kan (SSL offload? GZip compressie? Beetje zoals de QAT accelerators die intel ook een tijdje had).
Per transistor zijn ze voor NPU taken natuurlijk wel veel krachtiger dan voor CPU taken, dus door de NPU gaan 'AI' taken x 10 of 100, maar dezelfde die grootte op CPU maar + 10% ofzo. Zelfde verhaal als GPU eigenlijk.

Kan me voorstellen dat in ieder geval NPC's in games LLM generatie gaan krijgen op een bepaald moment, met een hele karakter beschrijving en welke staat ze nu in zijn. (Eg ze vragen je om knoflook te halen uit een dorp voorbij de berg waar de draak woont) ofzo.
Belangrijkste reden voor het gebruik van gpus en macs voor llm/ai werk is de geheugens snelheid en die is voor een npu gedeeld met de cpu. Ik verwacht dus meer dat het als offload dan versneller werkt. Zeker omdat de berekeningen in kwestie (veel matrix werk) ook door de igpu en de cpu versneld worden met de juiste instructies en de cpu nu meestal hiervoor afgeremd wordt door traag geheugen.
Ik kan me voorstellen dat men de NPU ook wel in games kan toepassen...
GPU's hebben natuurlijk ook al AI-cores om AI taken op uit te voeren met veel meer performance.
Dan zou men de NPu ook achterwege kunnen laten voor extra CPU power. Dan kun je die taken en nog meer ook prima doen.
"Ik kan me voorstellen dat men de NPU ook wel in games kan toepassen om computer tegenstanders wat uitdagender te maken."

In andere woorden, je NPU vertelt je gedrag 'terwijl je speelt" aan de game, de npc's zouden dit gedrag dus volledig de nek om kunnen draaien en je forceren een nieuwe strategie te bedenken?

Stel, op een bepaald level in de game zit je constant met je sniper van op afstand npc's neer te knallen, je npu meld dit en vervolgens staat er opeens iemand naast je die je door je kop schiet, wanneer je deze opnieuw speelt.
Foto en (realtime) video editen en alle pre-LLM AI toepassingen die we al tientallen jaren gebruiken.
Is dat op desktop niet veel handiger voor op de (i)GPU? NPU heeft vooral power efficiency als voordeel, vandoor ook dat het vooral voor laptops gemarket wordt
Een GPU heeft veel overlap met een NPU, dus ja, dat zou kunnen. Toch lijkt een NPU aantrekkelijk te zijn vanwege de lagere kosten, gedeeld werkgeheugen en stroomverbruik voor bijvoorbeeld bedrijven.
Dit kan bij mijn weten niet op een NPU, maar ik kan me vergissen.
Lokale spraakherkenning werkt heel vlot tegenwoordig. Dit bericht is er bijvoorbeeld mee gedicteerd.

Een andere die ik supervaak gebruik is tekst herkennen in screenshots.

[Reactie gewijzigd door jorisporis op 10 februari 2026 23:06]

Mwa... ik heb een gigabyte laptop met npu en hun marketing was meer van: hier je krijgt van ons een stable diffusion model in je control center.

En dat was het wel.

Als je er wat mee wil moet je het echt zelf doen. Je kan er best wat mee. Ikzelf zit te kijken naar object herkenning wat een andere tweaker al aangaf.
Die NPU interesseert me werkelijk helemaal NIETS Sterker nog als het stroom gebruikt of kosten toevoegt is het gewoon een achteruitgang. Wat mij betreft kan die zooi niet snel genoeg weer de kliko in.
Net als E-Cores overigens. Waste of silicon space. ik zie liever grotere snellere cores of meer cores zeker nu er geen HT meer is.
Zonder HT zal ik zeker niets minder als 12 cores kopen.

Verder geen woord over de daadwerkelijke cpu prestaties...
E cores is wel een vooruitgang, ze zijn sneller dan hyperthreading op een core.

Bewijs is een 285K die op veel fronten met 24 threads/cores sneller is dan een 9950X met 32 threads/cores. Theoretisch zou de 285K 25% langzamer met alles moeten zijn dan een 9950X. Maar dat komt niet uit.

EDIT: Voor jouw geval is bijvoorbeeld een 9900X erg mooi en dan hyperthreading uitschakelen. Heb je 12 volle cores draaien die iets hoger boosten dan standaard omdat de CPU dan ook minder warmteontwikkeling heeft.

[Reactie gewijzigd door kujinshi op 10 februari 2026 21:56]

Dat is m aar net wat je usecase is. Als een voornamelijk gamer zijn E-cores een drama. Ze gebruiken power budget op en software kan er niet mee om gaan waardoor je ze eigenlijk uit moet schakelen en dus betaal je voor iets waar je niets aan hebt. Ik koop liever 4 extra cores voor diezelfde silicon space.

Wat iets doet in een theoretisch benchmarkje als cinebench interesseert me helemaal niets.
Ik snap niet wat het probleem is met E-cores wat hyperthreading niet heeft. HT en E-cores leveren in een zekere zin namelijk hetzelfde: extra hardware threads die langzamer zijn dan de 'primaire' threads.

Daarbij geldt juist dat E-cores bepaalde belangrijke nadelen van HT niet hebben: voornamelijk zitten ze niet (of in ieder geval veel minder) in de weg voor de prestaties op een P-core, terwijl een hyperthread op die P-core dat wel zou doen.

Verder, wat is de prestatiewinst van HT nou eigenlijk? 20%? 30? 40? Zelfs bij 40% heeft een hyperthread ongeveer 70% van de prestaties, terwijl van wat ik zo kan vinden de E-cores in een 285K ongeveer 75% van de prestaties van de P-cores hebben. E-core threads zijn dus ook nog eens sneller dan hyperthreads.
Waarom moet er dan ook weer zo'n stomme Copilot knop op het toetsenbord 8)7

Je kunt toch gewoon klikken als je Copilot wilt gebruiken? Zal een marketing dingetje zijn maar ik zit er zelf totaal niet op te wachten.
Of gebruik maken van “Windows toets + C” wat ook prima werkt als je copilot nodig hebt.
Ik maak er op het werk wel eens gebruik van en gebruik dan deze sneltoetsen hiervoor. (Mijn toetsenbord heeft gelukkig nog geen copilot knop)
Helaas zit copilot ool onder ctrl-alt-c wat een voor mij in de ide een veel gebruikte combinatie is, en helaas kan je dat in copilot niet veranderen, waardoor ik dus copilot maar na starten van pc afsluit.
Eerste wat ik deed in Win11 was Copilot uitschakelen. Kijk als bedrijf zal je een andere keuze maken, dat begrijp ik. Maar gewoon voor thuis zou ik je hersenen toch niet te lui maken, en gewoon uitschakelen die AI.
Begrijp ik goed dat met deze processors elke desktop straks lokaal een AI kan/zal draaien? Want daar krijg ik wel een beetje skynet vibes bij eerlijk gezegd.
AI is niet altijd een LLM. Je kunt AI taken versnellen en dat kost dan minder energie en is vlotter. Bijvoorbeeld gezichten herkennen in een video of tekst uit een plaatje halen. Zo'n NPU zit al in meer PC's en mijn werklaptop had hem ook al.

Skynet is meer als je drone robots met AI mensen gaat aanvallen. Dat is gelukkig nog ver weg, 1500km ofzo.
Juist omgekeerd. Als je het lokaal draait, dan voorkom je dat die hele AI in de cloud nodig is. Skynet is (voor mij in ieder geval) AI juist in de cloud. Met een NPU (om bij dit artikel te blijven) doe je dat dus offline op je eigen systeem.

Dat gezegd hebbenden, ik heb zo'n 45 TOPS NPU, maar behalve wat Windows apps (Copilot+ enzo?) is er maar weinig software die een NPU gebruikt. De meeste AI software gebruikt nog gewoon je CPU en GPU. Misschien logisch omdat gewoon nog niet zoveel mensen een NPU hebben.

Mijn copilot in the cloud zegt overigens dat een 100 Tops NPU al vééél nuttiger is voor AI dan een 45 Tops NPU (laat staan een 17 Tops NPU). Als de software dan ook volwassen wordt, kan een NPU al heel veel taken beter dan een CPU en vaak ook beter dan een GPU. En dan ook nog eens véél energie-efficiënter.
Voor iedereen die tegen NPU is, waarschijnlijk kan je in de BIOS/UEFI van je computer de NPU units uitschakelen. Bij Intel kan je nu ook al Hyperthreading uitschakelen net als de E cores, en ook P cores kan je gedeeltelijk uitzetten, net wat je wilt.

Vele topgebruikers van de Raptorlake 13900K en 14900K draaien die ook op 24 cores met hyperthreading uitgeschakeld. Windows gaat minder over de z**k (lees, raakt minder in de war), games draaien sneller en alles gebruikt minder stroom (en minder warmteontwikkeling).
En als de optie niet in de bios zit.


Npu kun je ook in device manager uitzetten.
Ik ben nog ol zoek om e cores uit te zetten lijkt niet te kunnen op surface laptop.
Maar als je echt wat wilt met AI, dan heb je toch een GPU? Laten ze bij de CPU afstanden tussen de transitors breder opzetten dan kunnen we de CPU beter overklokken en naar de 7-8GHz toe.
NPUs zijn meer nuttig voor "kleine" AI, niet LLMs (en maar in beperkte mate voor afbeeldingen genereren). Ze zijn er meer voor de bijna onzichtbare AI-taken, zoals bijvoorbeeld background blur in een videocall, of het automatisch genereren van ondertitels. Deze features zijn erg goed te implementeren met kleine AI modellen, en die kunnen op een NPU uitgevoerd worden tegen een minimaal stroomverbruik.

Wat betreft het breder opzetten van transistors, ik hoop dat je zelf ook wel inziet dat dat niet opschiet. Ja, power density is een probleem, maar meer transistors zijn nog altijd een groter voordeel; grotere afstanden zouden bovendien ook de kloksnelheden beperken doordat signalen in de CPU dan verder moeten reizen.

Het lijkt me dan beter om meer cores te plaatsen, ipv verschillen in de kloksnelheid najagen die in de praktijk minimaal zullen blijken. Vergeet niet dat Intel ooit dacht dat ze de Pentium 4 zouden kunnen opkrikken naar wel 10 GHz!
Meh voegt dus niets toe.
Ben benieuwd hoe veel area dit gaat kosten; ik vind het namelijk eigenlijk nogal apart om de NPU te vergroten terwijl de huidige (Lunar Lake/Panther Lake) NPUs al ruim aan de Copilot+ voorwaarden voldoen, waar ik ook niet het idee heb dat de NPUs veel gebruikt worden en er dus behoefte is aan veel meer snelheid dan nodig voor het Copilot+-stickertje.

Misschien dat het extra binning mogelijk zou maken? Als in, als een deel van de NPU defect is, kan deze nog steeds gebruikt worden voor een langzamere chip die dan nog steeds snel genoeg is voor Copilot+?

Wel een interessante noot: bij Panther Lake is de NPU nauwelijks sneller geworden: van 48 TOPS (Lunar) naar 50. Daarentegen adverteert Intel wel een 40% increase in TOPS per mm², wat dus eigenlijk betekent dat de Panther Lake NPU kleiner is geworden. Ik weet dus niet of dit gewoon de gewonnen area weer terugclaimt, of juist nog grotere stappen zet in de area-efficientie van Intel's NPU.

Om te kunnen reageren moet je ingelogd zijn