Gerucht: Qualcomm Snapdragon X Elite-soc voor pc krijgt 12 Oryon-prestatiecores

Qualcomm werkt naar verluidt aan een pc-soc met de naam Snapdragon X Elite. De soc zou uitgerust worden met Oryon-cores en moet gebruikmaken van het 4nm-procedé. De processor komt mogelijk halverwege 2024 op de markt.

Dat schrijft Windowsreport op basis van mogelijke uitgelekte marketingafbeeldingen van Qualcomm. Het bedrijf kondigde onlangs de Snapdragon X-serie aan, maar gaf nog geen details over de invulling van de socserie. Op de afbeeldingen lijkt Qualcomm te beweren dat de soc met twaalf Oryon-prestatiecores 'maximaal' dubbel zo snel is als concurrerende x86-socs. De cpu lijkt alleen twaalf prestatiecores en geen energiezuinige cores te krijgen. De cores hebben een basiskloksnelheid van 3,8GHz en een boostkloksnelheid van 4,3GHz.

Ook de onbekende Adreno-gpu met een rekenkracht van 4,6Tflops moet een twee keer zo snelle gpu opleveren. De soc zou naast Wi-Fi 7 ook 5G ondersteunen en Qualcomm beweert dat de Snapdragon X Elite slechts een derde van de energie gebruikt vergeleken met concurrerende x86-cpu's. Aangezien het om vermeende marketingafbeeldingen gaat en het bedrijf geen concrete vergelijking maakt, moet de informatie met een korrel zout genomen worden.

Snapdragon X Elite
Bron: Windowsreport

Door Yannick Spinner

Redacteur

23-10-2023 • 20:32

19

Reacties (19)

Sorteer op:

Weergave:

Dat zijn serieuze cijfers. Maar er worden geen verbruikgegevens gepubliceerd. Ben benieuwd wat het aan stroom trekt bij deze waardes.
Ze maken een vergelijking dat de soc 3x minder verbruikt dan vergelijkbare socs op x86 gebied.
Het probleem is dat er geen x86 processors zijn die vergelijkbaar is.
-alleen prestatie cores
-deftige cpu
-ingebakken ram
-AI coprocessor

Er zijn gewoon geen x86 CPU’s te vinden die punt 3 en 4 al mee pakken. Omdat er in de x86 markt tot nu toe nog gewoon geen vraag naar is geweest.

Wil je dus nu een 1-1 vergelijking maken, dan pak je al een x86 cpu, met een videokaart en ram modules.
Zoiets vraagt inderdaad meer stroom dan een alles-in-1 soc.
Je kunt ook de vraag stellen waarom hebben Intel en AMD niet het pad van niet-x86 processors gevolgd door RAM-geheugen te integreren in de CPU?

M.i. kun je ze prima vergelijken. Je hoeft geen externe videokaart te gebruiken deze CPU heeft een iGPU, net als vele Intel en AMD x86 CPU's. AI is nu eenmaal in de mode, dus is de coprocessor mogelijk geoptimaliseerd voor AI taken.

Al zou de helft waar zijn. ±1,5 x zo snel, ±50% zuiniger. Vervolgens de prijs van de processor afzetten tegen de prijs van AMD/Intel CPU's. Bang for buck.
Ik ben overigens meer geïnteresseerd of Windows (de grote meerderheid van PC's draait op Windows) stabiel draait.
Windows for ARM bestaat al jaren, waarom zou dat niet stabiel draaien?
Je kunt ook de vraag stellen waarom hebben Intel en AMD niet het pad van niet-x86 processors gevolgd door RAM-geheugen te integreren in de CPU?
Dat hebben ze wel, maar noemen het niet zo. Met L1, L2 en L3-cache hebben hun ook RAM-geheugen in de CPU. Alleen is dit niet GB's groot (op een enkele dure server CPU na).
Meer RAM inbouwen kost meer geld. Een externe RAM reepje is makkelijker en goedkoper te maken. Dus vanwege die lagere kosten, hogere flexibiliteit en vraag vanuit de markt blijft het voorlopig zo.
De pre-alder lake x86 processors hadden in principe alleen maar performance cores. Efficiency cores bestonden gewoon nog niet.

Alleen de laatste twee missen inderdaad. Edit: oh dat zeg je ook, beter lezen sorry 8)7 Nou moet ik wel zeggen dat ik het heel fijn vind dat RAM niet in de CPU geintegreerd zit. Want dat maakt het flexibel en uitbreidbaar.

[Reactie gewijzigd door Llopigat op 26 juli 2024 20:11]

Wat mij nu even onduidelijk is is of dit dan een x86 gebaseerde cpu word of toch dan een ARM cpu blijft want in het laatste geval vind ik de vergelijking met x86 cpu's ietwat krom. Als, dan zou eerder een vergelijking met Apples M soc een betere vergelijking zijn. En ja dat laatste zou zeker niet verkeerd zijn dat er serieuze concurrentie komt voor Apple M socket. Zeker als je bekijkt dat het Google met hun eigen soc nog steeds niet gelukt is althans als ik de reviews les van de Pixel 8 en 8 Pro.
Dit is ARM, bedoeld voor PCs. Wel vergelijkbaar met de Apple M serie, met het verschil dat die van Qualcomm Windows-ondersteuning heeft. Dus ze marketen hier waarschijnlijk richting de doelgroep van PC-gebruikers die een zuinige en tegelijk snelle CPU willen, maar niet ook Mac OS. Dan lijkt de vergelijking met x86 niet zo vreemd.
de doelgroep van PC-gebruikers die een zuinige en tegelijk snelle CPU willen, maar niet ook Mac OS. Dan lijkt de vergelijking met x86 niet zo vreemd.
MacOS werkt evenogoed met x86 cpu's van zowel Intel als AMD dus dat lijkt mij niet echt de rede. Voor die M series cpu is er net als bij Windows een ARM versie voor gekomen. En ja je weet nooit wat de toekomst brengt en wie weet dat er misschien Apple's komen met Qualcomm Snapdragon X Elite.

Maar zo qua vergelijking vind ik dan een veel betere vergelijking dan die X Elite met Apple M series en ook b.v. dan Mediatek soc's.
En ja je weet nooit wat de toekomst brengt en wie weet dat er misschien Apple's komen met Qualcomm Snapdragon X Elite.
Je weet nooit, maar het hele idee van Apple met de apple silicon was het onafhankelijk worden van derde partijen als fabrikant. Het lijkt me erg onwaarschijnlijk.

Het zou wel misschien weer hackintoshes mogelijk kunnen maken sinds dat fenomeen erg afhankelijk was van intel.
Je weet nooit, maar het hele idee van Apple met de apple silicon was het onafhankelijk worden van derde partijen als fabrikant.
Voor nu 20 jaar terug heeft Apple ook eigen cpu's ontwikkeld in de zin van de G serie, waarna ze uiteindelijk in 2006 toch geswitched zijn naar Intel.
Nee die waren van IBM. PowerPC. De move naar intel was juist omdat ze te afhankelijk waren van IBM die niet meer mee wilde doen met de Gigaherz race van toen. Omdat hun primaire markt embedded werd (nadat de PS3/Xbox 360 PowerPC gebruikten maar hun opvolgers niet!) waar dat soort snelheden niet nodig voor waren. De PowerPC was speciaal door IBM en Motorola ontwikkeld als joint venture en had speciale functies voor compatibiliteit met Motorola processoren (hij kon zowel big als little endian aan, wat erg bijzonder is in processoren).

En voor PowerPC gebruikten ze Motorola's 68000 serie die ook toen allang niet meer relevant was helaas.

Maar dat is ook de reden dat ik het niet zo gauw zie gebeuren. Apple heeft zich al 3x (Motorola en IBM op de Mac en later Intel op mobiel) in een hoek geverfd met afhankelijkheden van een derde partij voor processoren. Intel ging op zich wel prima voor Mac maar was niet acceptabel voor mobiel. En met Qualcomm hadden ze gedoe met beperkte supportduur. Uiteindelijk was het een no-brainer om de mobiele tech ook mee te pakken voor Mac.

Ik denk dat ze dit voordeel van eigen processoren niet gauw meer op gaan geven. En waarom zouden ze? Geen afhankelijkheid, het ideaal matchen van software en hardware. Eigenlijk is eigen hardware altijd al helemaal in lijn geweest met de visie van Apple alleen tot ze zo groot werden hadden ze er domweg geen geld voor.

[Reactie gewijzigd door Llopigat op 26 juli 2024 20:11]

Geen afhankelijkheid, het ideaal matchen van software en hardware.
Apple produceerd zelf geen hardware en dit evenzogoed door externe bedrijven gebeurd waarvan ze altijd afhankelijk zullen blijven. Maar neem maar van mij aan dat als hun in eigen beheer ontwikkelde hardware qua productie te duur word dat ze weer snel switchen.
Ze ontwerpen het wel zelf. De fab is niet zo belangrijk, dat kan iedereen. Laptopjes in elkaar schroeven ook. Als FoxConn daar niet meer aan wil dan gaan ze wel naar iemand anders.

Wat het probleem eerder was, was dat de bedrijven waar ze van afhankelijk waren gewoon niet wilden maken wat ze nodig hadden. Bijvoorbeeld IBM had gewoon geen zin om de 2Ghz barriere te slechten in hun mobiele processoren die niet te heet mochten worden. De PowerBook G5 werd een soort meme omdat iedereen wel wist dat die nooit zou gaan komen. Er werden grapjes over gemaakt dat als hij kwam, je er ook gelijk een eitje op kon bakken :D Op een gegeven moment zei Steve Jobs "Volgend jaar komt hij hoor". Maar IBM zei "Nope". Daardoor zat Apple helemaal vast en stond Steve met de bek vol tanden. Ondertussen kwam intel met de Core Duo's op basis van de Pentium M die enorme performance per watt hadden. IBM had daar gewoon totaal geen zin in omdat ze die nooit aan iemand anders kwijt zouden kunnen.

Apple had gewoon geen keus meer. In die zin was de move naar intel onvermijdelijk maar ook iets dat met noodgedwongen te veel haast is gebeurd (als je ziet hoe de eerste generatie MacBooks in elkaar zitten, brrrr). Ik denk echt dat ze die ervaring niet in de koude kleren is gaan zitten.

En te duur is voor Apple geen probleem. Ze hebben bijna 100 miljard op de bank waar ze niks mee doen en als het duurder wordt om te maken dan verhogen ze gewoon de prijs. Apple heeft allang aangetoond dat hun klandizie geen prijsplafond heeft :+ Zie de Mac Studio, Mac Pro, Vision Pro etc.

[Reactie gewijzigd door Llopigat op 26 juli 2024 20:11]

[...]
MacOS werkt evenogoed met x86 cpu's van zowel Intel als AMD dus dat lijkt mij niet echt de rede. Voor die M series cpu is er net als bij Windows een ARM versie voor gekomen.
, volgens mij bedoeld Pieter juist voor de doelgroep die niet op MacOS of Macbooks zitten te wachten maar toch een redelijk zuinige maar vlotte CPU willen (in ieder geval betere performance per watt dan Intel CPU's moet wel te doen zijn).
Gewoon wachten op reviews. Qualcomm heeft wel al eerder mooie beloftes gedaan die het niet kon waarmaken met hun PC chips. Misschien dat het met de Nuvia cores anders zal zijn, misschien ook niet. AMD en Intel hebben de laatste jaren ook niet stil gezeten.
Hoe snel gaat de gpu van de snapdragon gen 3 worden dan? 4tflops fp 32? Gen 2 doet nu al minimaal 3 tflops
Ik vind het artikel op XDA-developers erg verhelderend als het gaat om het uitleggen van de ARM instruction set gebaseerde Orion cores. Klaarblijkelijk zijn het Nuvia gemaakte cores die van de standaard ARM architectuur afwijken.

[EDIT: oh, de GPU support staat op het plaatje, duh, Adreno met 3 x UHD, zat voor e.g. laptops]
Ben benieuwd, meer concurrentie, meer innovatie, altijd goed

Op dit item kan niet meer gereageerd worden.