Gerucht: Qualcomm Snapdragon 8 Elite Gen 2-chip krijgt 8 cores en 100Tops-npu

Qualcomms komende Snapdragon 8 Elite Gen 2-soc voor smartphones wordt mogelijk op TSMC's N3P-procedé gemaakt. Dat zegt bekende leaker Digital Chat Station. De chip moet daarnaast een snellere npu krijgen met 100Tops aan AI-rekenkracht.

Volgens Digital Chat Station krijgt de Snapdragon 8 Elite Gen 2-soc voor smartphones in totaal acht cpu-cores, merkte Wccftech op. Het gaat daarbij om twee hoger geklokte Prime-cores die worden bijgestaan door zes lager geklokte Performance-kernen, net als in de eerste Snapdragon 8 Elite. De leaker schrijft dat het gaat om de tweede generatie van Qualcomms zelfontworpen Arm-cores, die hun debuut maakten in de Snapdragon X-chips voor laptops.

Verder schrijft de leaker dat de gebruikte npu, die wordt ingezet voor AI-rekenwerk, ook is verbeterd in de volgende flagshipchip van het bedrijf. Daarbij wordt gesproken over 100Tops aan AI-rekenkracht. Dat is ongeveer dubbel zoveel als bij de npu die wordt gebruikt in de Snapdragon X-chips voor laptops, hoewel de Snapdragon 8 Elite Gen 2 is bedoeld voor telefoons. De hoeveelheid cache zou worden opgehoogd van 12MB naar 16MB. De chip zou ook een hogere schermhelderheid mogelijk maken.

De chips worden wederom geproduceerd bij TSMC op het N3P-procedé, een verbeterde versie van de N3E-node waarop de huidige Snapdragon 8 Elite wordt gemaakt. Er gingen al geruchten dat Qualcomm over zou stappen op N3P en Digital Chat Station onderschrijft dat nu. Naar verwachting kondigt Qualcomm zijn nieuwe smartphonechip in september aan, hoewel er nog geen concrete releasedatum bekend is.

Snapdragon 8 Elite

Door Daan van Monsjou

Nieuwsredacteur

08-05-2025 • 15:28

15

Reacties (15)

15
15
11
2
0
4
Wijzig sortering
Wow, dat is een flinke NPU. Als je bedenkt dat Intel's Lunar Lake 120Tops biedt (CPU, GPU en NPU gecombineerd) en AMD's Ryzen AI 9 HX 370 geadverteerd wordt met 80 'Overall Tops' dan is een NPU met 100Tops absoluut niet slecht voor on-device AI.

Kleinere modellen worden steeds beter, dus een 4B-parameter model (á la Qwen3 4B of Gemma3 4B) continu in de achtergrond draaiende hebben op de NPU is niet ondenkbaar. In combinatie met wat scripts om de AI te laten interacteren met de OS, heb je dan een soort van Google Assistant/Gemini, maar dan zonder dat al je data naar Google gestuurd wordt.
Bedenk wel, dat voor generatieve LLM text generation niet alleen voldoende Tops nodig zijn, maar ook voldoende RAM. Ik weet niet of deze nieuwe cpu shared memory heeft om de RAM met de NPU te delen.
zou 24GB zoals dat op sommige top android phones zit enigzins voldoende zijn?
Ja makkelijk. Android zelf draait op 8 GiB prima en zelfs top of the line GPU's hebben maar 16 GiB geheugen. Misschien dat als je een zwaar spel met AI gaat draaien dat het een probleem zou *kunnen* worden. Maar de meeste software houdt natuurlijk rekening met het feit dat de meeste mensen maximaal 8 GiB hebben. Pixel 9 telefoons hebben 12 GiB wat specifiek bedoelt is om ook lokale AI te kunnen draaien.
helder dan zit ik inderdaad wel goed
Toevallig zit net sinds vorige week ofzo in een local Android AI app die ik graag gebruik (https://www.layla-network.ai/) Qualcomm NPU support via een Alpha-update. Ik heb het uitgeprobeerd op mijn telefoon met een Snapdragon 7+ Gen 3, en hoewel het niet snel is (de 7+G3 heeft een matige NPU), werkt het prima. Ik kan makkelijk 4-8B parameter modellen (in Q4_0 quantization) runnen op 12GB RAM. In de Discord rapporteren mensen gigantische sprongen in snelheid en efficiëntie naarmate ze een meer high-end Qualcomm chip gebruiken.

Die app is gebaseerd op Llama.cpp, zeg maar, de framework van bijna alle LLM apps. Dus er is zowat ondersteuning op dag 1 voor deze Qualcomm NPU. En als ik mijn ervaring met die app mag gebruiken, dan zit het dus wel goed tussen RAM en NPU. Aangezien de meeste top flagships inmiddels geleverd worden met 24GB RAM, is het niet onredelijk om 4-5GB van die RAM standaard te reserveren voor het draaiende houden van een model in de achtergrond.
Let op, het gaat hier over de Sndapdragon Elite reeks, dat zijn laptop cpu's, ik denk niet dat de gewone mobilephone cpu's ook zo een sterke NPU's gaan krijgen.
Snapdragon X Elite is voor laptops. De Snapdragon 8 Elite is een telefoon SoC. Lees ook het artikel:
Daarbij wordt gesproken over 100Tops aan AI-rekenkracht. Dat is ongeveer dubbel zoveel als bij de npu die wordt gebruikt in de Snapdragon X-chips voor laptops, hoewel de Snapdragon 8 Elite Gen 2 is bedoeld voor telefoons.
Dus ja, de gewone telefoon SoC mag zo'n sterke NPU verwachten.
Ow, dat is verwarrend, ik dacht dat elite enkel voor pc's was.
Bedankt voor de verduidelijking
Snel UFS 4 flash geheugen kan ook nog wel uitmaken, zeker als de software wil switchen tussen modellen. Helaas heeft m'n nieuwe Pixel wel 12 GiB geheugen maar nog UFS 3.1.
Het grappige is alleen dat de meeste LLM software helemaal niet op NPU's draait maar nog voornamelijk op de GPU. Ik heb slechts 1 apparaat met een Qualcomm, met een NPU. maar juist dat aparaat draait de LLM's op de CPU, en is daardoor super langzaam, terwijl mijn andere apparaten heerlijk/snel de LLM's in de iGPU draaien van mijn AMD/Apple SOC's.

Ik kan niet wachten tot bijvoorbeeld LM studio support krijgt voor de Qualcomm NPU, en ik kan beoordelen of die 45 TOPS echt serieus bruikbaar zijn.
Is dat nu niet juist de volgende fase van AI? Alles verplaatsten naar de devices (bij voorkeur telefoons) zodat de datacenters het rustiger krijgen en de consumenten zelf voor de resources gaan betalen.

Devices zullen duurder worden en apps gaan het lokaal draaien de voorkeur geven t.o.v. centrale hosting (want geen datacenter kosten). Het gaat even duren voordat er voldoende devices zijn met deze hardware en het gaat even duren voordat de llm's klein genoeg worden met behoud van kwaliteit.
De leaker schrijft dat het gaat om de tweede generatie van Qualcomms zelfontworpen Arm-cores, die hun debuut maakten in de Snapdragon X-chips voor laptops.
De Qualcomm Snapdragon 8 Elite maakt al gebruik van de 2de generatie Oryon chips (het gelinkte artikel van Tweakers zelf haalt dit ook aan). De 1ste generatie werd enkel gebruikt in de Snapdragon X SoCs. Beide (de 8 Elite/X/X Plus/X Elite) zouden voor hun 2de generatie de 3rd generatie Oryon chips krijgen.

[Reactie gewijzigd door Loller1 op 8 mei 2025 15:54]

Hoop dat deze in de komende Galaxy S26 Ultra gaat zitten voor de Europese markt.
Eindelijk een substantiële verbetering! Dacht dat de AI sinds de Snapdragon 888 en latere 8 gen 1, 2 en 3 al een tijd rond de 35 Tops zaten. De elite gen 1 was al een kleine verbetering naar 45 Tops en nu dus straks naar 100 Tops.

Hoop ook dat de software steeds beter de AI hardware weet te benutten. Vaak wordt nog de algemene CPU en GPU onderdeel ingezet voor de AI berekening en die kunnen dat nooit zo energie efficiënt als de AI hardware onderdeel op dezelfde chip.

[Reactie gewijzigd door Epep op 8 mei 2025 19:03]


Om te kunnen reageren moet je ingelogd zijn