Qualcomm-gpu-baas en Radeon-veteraan Eric Demers vertrekt naar Intel

Eric Demers gaat bij Intel aan de slag. Hij was voorheen verantwoordelijk voor de Adreno-gpu's van Qualcomm en werkte daarvoor ook jarenlang bij ATI. Demers voegt zich nu bij Intels gpu-team en gaat zich richten op het ontwikkelen van AI-chips.

Eric Demers bevestigt zijn vertrek bij Qualcomm op LinkedIn, merkte ook Tom's Hardware op. Hij bevestigt daar dat deze week zijn eerste werkweek bij Intel wordt. Demers zegt dat hij de afgelopen maanden met Intel-baas Lip-Bu Tan heeft gesproken en 'onder de indruk' is van zijn visie voor de chipmaker.

Demers meldt zelf niet wat zijn nieuwe positie wordt bij Intel, hoewel zijn LinkedIn-profiel hem aanmerkt als senior vicepresident van gpu-architectuur. Het is echter niet bekend of hij zich gaat bezighouden met de Arc-videokaarten van het bedrijf. Demers zou zich namelijk vooral gaan richten op het ontwikkelen van AI-chips voor datacenters, meldt CRN, dat Demers gesproken zegt te hebben.

Intel heeft nog geen belangrijke positie op die markt kunnen verwerven. Intels ambitieuze Ponte Vecchio-datacenter-gpu werd geen commercieel succes, en ook zijn recentste Gaudi 3-AI-chip behaalde zijn bescheiden verkoopdoelen niet.

Demers staat vooral bekend om zijn werk als gpu-architect bij andere bedrijven. Hij werkte ongeveer tien jaar lang bij ATI en later AMD, waar hij onder andere de Radeon R300- en R600-gpu's ontwierp. Die eerste werd onder andere gebruikt in de Radeon 9800- en 9700-videokaarten, die laatste zat in de Radeon HD 2000-serie.

In 2012 ging Demers aan de slag bij Qualcomm, waar hij de leiding kreeg over de ontwikkeling van Adreno-gpu's. Die zitten bijvoorbeeld in de smartphonechips van Qualcomm, maar ook in de nieuwere Snapdragon X-socs voor laptops.

Intel Gaudi 3
Gaudi 3, de recentste AI-chip van Intel, was geen succes.

Door Daan van Monsjou

Nieuwsredacteur

20-01-2026 • 08:08

17

Reacties (17)

Sorteer op:

Weergave:

Intel lijkt toch echt zo langzaam weer haar shit voor elkaar te krijgen, die nieuwste laptopchips zijn qua prestatie en stroomverbruik vergelijkbaar met de M4 Serie van Apple. Er is een argument te maken dat de voorsprong die Apple nog heeft vooral te danken is aan de volledige integratie van OS en HW die apple in eigen hand heeft. Eind van de maand komt de M5pro en M5max uit. Benieuwd wat die gaan presteren.

Dat Intel aan de kuiten hangt van Apple is goed nieuws voor iedereen, Intel gebruikers krijgen eindelijk prestaties met laag stroomverbruik en en Apple moet voor de M6 en M7 weer meer moeten gaan presteren.
Ik ben aan het wachten op een intel laptop die kan concurreren met een Macbook air M4. Aangezien we in een deel van onze organisatie Windows-only werken. Zijn er al draagbare (13 of 14 inch) toestellen die in de buurt zitten qua laag stroomverbruik (dus lange accuduur) en prijs (1100 euro incl btw)
Op de CES zijn de nieuwste Intel en Qualcomm gebaseerde laptops voorgesteld, zullen binnenkort wel op de markt komen.
Snapdragon laptops hebben heel lange accuduur. Nadeel is compatibiliteit. Bijna alles werkt, maar bijna alles is niet alles.
Exact M4 prestaties moeten we nog wel even op wachten, maar mijn Asus Zenbook 14 OLED met een Intel Core Ultra 7 155H doet het niet verkeerd op 60Hz SDR, ik kan makkelijk 6-9 uurtjes halen. Op 120Hz HDR is dat wel een ander verhaal en is dat ding met 4-5 uurtjes wel hlml leeg. Ik gebruik m'n laptop voornamelijk voor Pycharm, VS Code, Youtube en ChatGPT.

Ik moet wel eerlijk toegeven dat dit ding enorm heet kan worden en de cpu makkelijk op de 75-95C gaat zitten terwijl er niet zoveel gebeurt, hopelijk fixt Intel dit met nieuwere generaties of ontwerpt Asus een beter koelsysteem.
Het is grappig dat je alleen de prestaties vergelijkt. Apple’s chips verbruiken vaak veel minder wattage en hebben een kleinere koeler, soms zelfs maar één ventilator, omdat ze efficiënter zijn.

Intel boekt vooruitgang, maar is er nog niet helemaal. Het blijft natuurlijk de vraag of ze jaarlijks dezelfde vooruitgang kunnen boeken en de efficiëntie van Apple Silicon kunnen bijbenen

• Single-core gemiddelde verbetering 15%
• Multi-core gemiddelde verbetering 20%
• GPU gemiddelde verbetering 21%
• Efficiëntie (Perf/Watt) gemiddelde verbetering 20-25%

[Reactie gewijzigd door mavadosh op 20 januari 2026 09:03]

Houdt wel in gedachte dat intels processor veel meer legacy software moet ondersteunen he. Ze gaan nooit zo efficient als apple kunnen zijn. Plat gezegd... Wil je maximale batterij duur voor het huidige ecosysteem, dan is het Apple. Wil je ook je oudere programma's draaien(misschien wel speciaaltjes of dingen tot wel uit win95 tijdperk), dan is het Windows met zijn grotere instructie set en iets hoger verbruik.

Ze zullen altijd achter Apple aan hobbelen qua efficientie.
Je hebt gelijk dat de basis verschillend is. Dit is het fundamentele verschil:
• Intel (x86 architectuur): Dit is een CISC (Complex Instruction Set Computer) ontwerp. De instructieset is enorm en kan zeer complexe taken in één keer uitvoeren. Het nadeel is dat de processor complexe hardware (decoders) nodig heeft om deze instructies te vertalen naar iets dat de chip begrijpt. Dit kost stroom en transistoren.
• Apple Silicon (ARM architectuur): Dit is een RISC (Reduced Instruction Set Computer) ontwerp. De instructies zijn simpel en uniform (vaste lengte). Hierdoor is het decoderen veel energiezuiniger.

Je punt over legacy software klopt. x86 torst tientallen jaren aan instructies met zich mee (backward compatibility). Als je een programma uit 1998 draait, moet de chip dat vaak nog steeds "native" kunnen begrijpen. Apple is hierin meedogenloos; zij verwijderen doodleuk ondersteuning voor oude standaarden (zoals 32-bit apps), waardoor hun chips slanker en efficiënter blijven. Intel moet die ballast meedragen omdat de Windows-markt dat eist.

Het klopt dat Intel een zogenaamde "legacy tax" betaalt in termen van stroomverbruik.
• De Decoders: Omdat x86-instructies variabele lengtes hebben (kort en lang door elkaar), moet de processor hard werken om te bepalen waar een instructie begint en eindigt. Dit proces vreet stroom, nog voordat er daadwerkelijk gerekend wordt.
• Slaapstand en Low-Power: Apple's ARM-chips zijn van nature beter in het extreem snel opschalen van "niets doen" naar "vol gas" en weer terug. Intel heeft hier traditioneel meer moeite mee, wat resulteert in een hoger sluipverbruik.

Je stelling "Ze gaan nooit zo efficiënt als Apple kunnen zijn" is theoretisch waar vanwege de CISC-nadelen, maar in de praktijk komt Intel dichterbij dan je zou denken.
• Intel Lunar Lake (Core Ultra 200V): De nieuwste chips van Intel hebben drastische maatregelen genomen. Ze hebben Hyper-Threading verwijderd (wat legacy ballast is) en het geheugen op de chip geplaatst (net als Apple). De efficiëntie is hierdoor enorm toegenomen en komt in de buurt van Apple, al winnen ze het nog niet op absolute batterijduur.
• Windows op ARM: Vergeet niet dat Windows nu ook op ARM draait (Snapdragon X Elite chips). Hier krijg je Apple-achtige batterijduur op Windows. De keerzijde is precies wat jij zegt: legacy software werkt daar via emulatie, wat soms traag is of niet werkt.

[Reactie gewijzigd door mavadosh op 20 januari 2026 10:52]

Lunar lake is lichte soc 4/4 cores
Dat maakt het redelijk zuinig.
Kan je tegen M sic zetten.
Maar qualcom en apple hebben zwaardere socs met meer big cores.

Panther lake bied bredere lijn aan.
18A == 2nm als de concurrentie met hun 2nm spul komen
Ik kan nergens vinden dat Intel met de 200V hun geheugen op de chip hebben geplaats (zoals Apple Mx)

"• Intel Lunar Lake (Core Ultra 200V): De nieuwste chips van Intel hebben drastische maatregelen genomen. Ze hebben Hyper-Threading verwijderd (wat legacy ballast is) en het geheugen op de chip geplaatst (net als Apple). De efficiëntie is hierdoor enorm toegenomen en komt in de buurt van Apple, al winnen ze het nog niet op absolute batterijduur."


Toch wel:

"Memory

Lunar Lake features on-package LPDDR5X-8533 RAM available in 16 GB or 32 GB capacities.[21] This on-package memory is a similar approach to Apple with its M series SoCs that integrate unified LPDDR memory onto the package beside the CPU silicon.[22] On-package memory allows the CPU to benefit from higher memory bandwidth at lower power and decreased latency as memory is physically closer to the CPU. Intel claims that Lunar Lake's on-package memory achieved a reduction of 40% in power consumption and "up to 250 square millimeters" of space.[23] Furthermore, memory that is integrated onto the CPU package means that the overall processor physical footprint in laptops can be reduced as memory does not need to be placed onto a separate board with its own cooling solution. Less complex cooling being required means that Lunar Lake processors can more easily fit in ultra-low power compact mobile solutions. The downside of Lunar Lake's on-package memory is that is not user replaceable or upgradable to higher capacities beyond 32 GB with SO-DIMMs.[23] Due to the inclusion of on-package memory, an additional 2 W is added to the TDP of Lunar Lake processors. Lunar Lake processors have a TDP ranging from 17 to 30 W compared to the 15–28 W TDP of Meteor Lake-H processors."

Bron: Wikipedia: Lunar Lake

[Reactie gewijzigd door hbvdh op 20 januari 2026 18:53]

Misschien gaat intel eindelijk weer eens winst maken.

Met die nieuwere node 18 moet dat gaan lukken.
Ben benieuwd! Hoop dat Intel echt een positie kan krijgen binnen de dGPU markt. Ze zijn al flink op dreef qua productkwaliteit, alleen je kunt vrij weinig met de huidige RAM-crisis
Ik hoop ook dat hij aan (d)GPU's gaat werken, maar heb gezien deze zin niet persee veel hoop:
Demers voegt zich nu bij Intels gpu-team en gaat zich richten op het ontwikkelen van AI-chips.
Als het aan Nvidia ligt zijn dat twee dezelfde dingen :+

Weet niet of dat puur marketing is zat we GPUs nu "AI-chips" noemen, maar alle AI-chips van Intel draaien voor hoever ik weet gewoon op Xe cores.
Als het aan Nvidia ligt zijn dat twee dezelfde dingen :+
Maar dat hoeft niet. Het is mogelijk (ook met Xe cores) om enkel NPU-achtige chips (eventueel geïntegreerd in CPU's) uit te brengen zonder grafische mogelijkheden.

[Reactie gewijzigd door The Zep Man op 20 januari 2026 11:15]

Dan heb je het jan met de pet klanten maar daar moeten ze het volgens mij niet van hebben er zijn ook heuze bedrijven die chips nodig hebben denk aan asus en gygabite die ook chips nodig hebben.intel gaat volgens mij ai chips maken waarover zoveel hype is, misschien kunnen ze het intergreren op hun toekomstige intel chips en daardoor de chips meer krachtiger maken of ze intergreren het op het moederbord samen met de cache en het intern geheugen.Of ze nog moederborden maken dat weet ik niet bij intel ik denk het wel nog.
RAM crisis is een onderdeel van de AI crisis. Allerlei componenten stijgen hard in prijs, echt niet alleen RAM (hoewel die stijging het sterkste is). En de AI crisis staat ook weer niet los van de geopolitieke crisis, waardoor onder andere veel grondstoffen hard in prijs stijgen (denk aan goud, zilver, koper etc). Uiteindelijk moeten wij dat allemaal betalen, linksom of rechtsom.

Om te kunnen reageren moet je ingelogd zijn