Gerucht: Qualcomm werkt aan pc-cpu met twaalf cores onder codenaam Hamoa

Qualcomm werkt naar verluidt aan een 'veelbelovende' desktop- of laptop-cpu met twaalf cores op basis van Nuvias Phoenix-ontwerp. De chipset zou in 2024 op de markt komen en zou geheugen- en cacheconfiguraties hanteren die vergelijkbaar zijn met die van de Apple M1-soc.

De Snapdragon-maker werkt volgens leaker Kuba Wojciechowski aan de desktop-cpu met de codenaam Hamoa, wat de doorgaans goed geïnformeerde WinFuture-journalist Roland Quandt bevestigt. Het zou gaan om een chipset bestaande uit acht prestatiecores en vier energiezuinige kernen. Er zou daarnaast ondersteuning voor dgpu's aanwezig zijn. Overigens liet Qualcomm in 2021 zelf al weten aan een M1-concurrent te werken, al bleef het sindsdien stil rondom de toetreding tot de pc-markt.

Dat heeft naar verluidt te maken met de overname van Nuvia, een chipontwerper met meerdere ex-Apple-medewerkers in topposities. Qualcomm werd namelijk recentelijk voor de rechter gesleept door Arm; door Nuvia over te nemen zou Qualcomm informatie in handen krijgen over Arms chipontwerp, wat eerdere licentieovereenkomsten zou schenden.

Door Yannick Spinner

Redacteur

07-11-2022 • 21:10

46

Submitter: Xtuv

Reacties (46)

Sorteer op:

Weergave:

even om het plaatje compleet te maken maar wat wordt er hier bedoeld met dGPU's

als daarmee dedicated gpu's zoals bijvoorbeeld een GTX1650M (50watt) zou worden bedoelt of een 3050m (60~80watt), dan valt er an sich nog wel wat van te maken... vraag is alleen of je dan niet liever 8/8 cores had gehad of zelfs 4/8/4 (4 ultra performance, 8 midrange 4 efficiency)..

in ieder geval vraag ik me oprecht wel een beetje af wat voor 'highend (vergeleken met de M1 dan) gpu je aan zo'n machientje wilt koppelen en welke software je er vervolgens voor wilt gaan optimaliseren...

om heel eerlijk te zijn verwacht ik namelijk relatief weinig goeds van een OS als windows ARM64. gwoon omdat men er nauwelijks tot geen prio in legt. dan blijven linux (liever geen nvidia) of chromeOS over maar bij die opties zie ik al weer heel snel veel nut verdwijnen omdat er (in ieder geval voor pro- software relatief weinig voor ARM beschikbaar is...

er gaat dan dus een enorme push nodig zijn om bedrijven zover te krijgen...

[Reactie gewijzigd door i-chat op 23 juli 2024 06:32]

Dedicated gpu, oftewel een normale grafische kaart. Een integrated gpu is het tegenovergestelde (zoals bijvoorbeeld Intel graphics op de cpu).

[Reactie gewijzigd door peeceej op 23 juli 2024 06:32]

Het hoeft geen aparte kaart te zijn. Bij de M1 bijvoorbeeld zit de GPU gewoon op de SoC, maar hij is niet geïntegreerd in de CPU.
Een veelgebruikte definitie van een igpu is een gpu op dezelfde die als de cpu, vaak met gedeeld gebruik van onder andere hetzelfde geheugen. Volgens die definitie lijkt me ook de GPU op de M1 gewoon een igpu?
Hangt van je definitie af. Consoles werken precies zo, en dat zijn gewoon desktop GPU's die toevallig op dezelfde printplaat gesoldeerd zijn. Ik zie een iGPU in ieder geval als één die in de CPU geïntegreerd is. Zoals AMD's G- chips en het grootste deel van Intel's CPU's.

Als ik de zoekmachine er even bij pak lijkt me dat deze definitie gangbaarder is:
https://www.pcmag.com/encyclopedia/term/integrated-gpu
A graphics processing unit (GPU) on the same chip as the central processing unit (CPU).
https://www.howtogeek.com...t-is-integrated-graphics/
Integrated graphics refers to a GPU (Graphics Processing Unit) that’s built into the same package as the CPU

[Reactie gewijzigd door Wolfos op 23 juli 2024 06:32]

Sinds de opkomst van multi-die ontwerpen (vooral bij AMD) is het onderscheid wat vervaagd.

Maar in elk geval zit je mis met je idee dat consoles een desktop GPU op een printplaat hebben. De PS5 'Oberon' APU heeft x64 CPU cores en RDNA2 GPU cores op 1 die, net zoals de Xbox Series X 'Scarlett` APU. Dat is niet eens multi-die, laat staan multi-chip.
Als het in de SoC zit, noemen we het een igpu. Het is een dgpu wanneer het een andere chip is. Dit kan een kaart zijn, of zoals we in laptops zien, een losse chip op het moederbord.

Het verschil zit in of je als bedrijf of individu een andere gpu zou kunnen gebruiken dan wat er in de SoC/CPU zit
Maar het is wel degelijk een andere chip. Hij zit alleen op dezelfde printplaat gesoldeerd in plaats van een module.
En dat is juist het verschil, in de zelfde package of niet.
De package is de chip. Niet de printplaat.
De package is een combinatie aan chips. Op mobiele apparaten is het vrij vaak een combinatie van processor, igpu, io controllers, in het geval van telefoons een modem, en soms ram (Mac m1/2 bijvoorbeeld).
Dan ben je wel heel oud. Ik ben een gepensioneerde IT-er en IGPU en dGPU zijn termen die mij wel wat zeggen. Ik zal dan wel een jongere zijn. Bedankt voor het compliment.
Als je al helemaal wilt gaan nitpicken dan is onboard ook weer anders dan een igpu want die oude moederborden hadden de onboard graphics in de chipset zitten...

De dGPU waar dit artikel naar refereert zijn gewoon PCIe/NVLink/CXL kaarten met een aparte chip en apart geheugen. De reden dat het benoemd wordt is omdat ARM processoren door architecturale keuzes moeilijk om kunnen gaan met de geheugen allocatie van die gpu's.
ARM processoren door architecturale keuzes moeilijk om kunnen gaan met de geheugen allocatie van die gpu's.
Waar haal je dat idee vandaan?

Sowieso is ARM een instructie set. ARM Ltd heeft een eigen architectuur (Cortex serie) maar Qualcomm gebruikt die niet eens. Niet dat het uitmaakt, want dGPU's hebben hun eigen GDDR geheugen waar de ARM processor niets mee te maken heeft. Als de CPU (ARM of x64) iets uit GDDR wil hebben, dan moet dat via een verzoek aan de GPU.

Geheugen allocatie is zelfs niet eens een GPU hardware functie, dat gebeurt door de driver.
Waar haal je dat idee vandaan?
https://threedots.ovh/blo...s-device-memory-on-arm64/
https://youtu.be/crnEygp4C6g?t=421 (timestamp)
(Ik wil hier vooral mee duidelijk maken dat het een firmware en hardware probleem is dat het allemaal niet werkt)

Verder wordt er bij bepaalde oudere GPU's een BAR grootte verwacht die niet standaard gebruikt wordt bij de firmware van veel ARM borden laat staan dat deze te veranderen is in de firmware (resizeable BAR).
Geheugen allocatie is zelfs niet eens een GPU hardware functie, dat gebeurt door de driver.
Ja daar heb je wel gelijk in, waar ik het vooral over had was de BAR space die vaak verkeerd loopt bij dit soort borden + de non-standard pcie implementaties waar de gemiddelde gpu niet mee om kan gaan, maar dat is een losstaand probleem.
Sowieso is ARM een instructie set. ARM Ltd heeft een eigen architectuur (Cortex serie) maar Qualcomm gebruikt die niet eens.
Ik gebruik hier "ARM processoren" als een verzamel naam voor SoCs als die van NXP, Apple, Qualcomm etc. etc. Veel van deze hangen af van dezelfde designs als "ARM Ltd" aanlevert (waaronder ook Qualcomm, Kryo is na de rampzalige Snapdragon 820/821 niet meer custom).
Niet dat het uitmaakt, want dGPU's hebben hun eigen GDDR geheugen waar de ARM processor niets mee te maken heeft. Als de CPU (ARM of x64) iets uit GDDR wil hebben, dan moet dat via een verzoek aan de GPU.
Hoe denk je dat dat verzoek plaats gaat vinden? Als je BAR niet uitlijnt is er niks voor de SoC om mee te praten laat staan data uit te wisselen.

[Reactie gewijzigd door jja2000 op 23 juli 2024 06:32]

Dat is wel heel lang geleden. vroeger in mijn jeugdige zelfbouw tijd de jaren 90 had je moederbord inderdaad een build-in of fixed video (VIA) chip of een AGP slot waar een videokaart kaart in kon om GPU aan de CPU te koppelen.

Omdat der gedreven door het succes van voodoo 3dfx meer en meer lose video kaarten en moederbord merken kwam verdwenen relevantie een build in GPU op het moederbord en wanneer deze kan je vaak niet meer dan het weergeven van test schermen. Het door succes van Voodoo kaarten dat markt explodeerde en VIA 3D zijn greep op de moederbord fabrikant verloor en ander en nieuwe GPU bouwers zoals NVIDIA en AMD de kans kregen

De eerste Cpu’s met een onboard video kaart (gpu) kwam pas in 2010 vanuit intel en toen sprak men vanuit intel ook over onboard video. Zegen dat een chip/CPU een igpu heeft is dus dubbel op. want een GPU in chip is altijd integrated of te wel onboard

Zelf nu noemt intel nog steeds het nog steeds de onboard video en gewoon een gpu en geen igpu
https://www.intel.com/con...etails/discrete-gpus.html

Ik snap wel dat rn waarom het benoemd wordt. Ik geef alleen aan dat de benaming van termen in IT constant constant veranderen/verschuiven en dat wanneer jij, ik als ITer je niet dagelijks met dat specifieke onderwerp bezighoudt het vaak voor terminologie verwarring zorgt. waardoor ik de vraagsteller prima begrijp. Aan het bericht van de vraag steller is duidelijk te zien dat hij het concept heel goed begrijpt maar dat hij vraagt of zijn interpretatie van dGPU als zijnde grafisch kaart volgens intels terminologie goed is.

https://www.intel.com/con...essors/what-is-a-gpu.html
GPU vs. Graphics Card: What’s the Difference?
While the terms GPU and graphics card (or video card) are often used interchangeably, there is a subtle distinction between these terms. Much like a motherboard contains a CPU, a graphics card refers to an add-in board that incorporates the GPU. This board also includes the raft of components required to both allow the GPU to function and connect to the rest of the system.
Waarom er van sommige mensen een kinderlijke uitleg komt over lose en ingebouwde GPU begrijp ik niet hoed volgens was simpel ja op zijn vraag was voldoende geweest

[Reactie gewijzigd door xbeam op 23 juli 2024 06:32]

Vroeger had een GPU die was altijd los en je had een type slot aanduiding zo dat wist deze hoe deze en met welk moederbord was verbinden of je had onboard gpu in de SoC.
Maar PC's hebben meestal geen SoC, de GPU zat in dit geval altijd in de CPU geïntegreerd als één chip. Dat is het verschil met SoC's, waar de GPU weliswaar op dezelfde printplaat zit maar wel een losse chip is.

Deze GPU zou ook op een PCI module kunnen en dan is het wel een dGPU terwijl de chip hetzelfde is?

[Reactie gewijzigd door Wolfos op 23 juli 2024 06:32]

Een discrete GPU, ofwel een losse videokaart die geen deel uitmaakt van de CPU.
er gaat dan dus een enorme push nodig zijn om bedrijven zover te krijgen...
Typisch kip-ei probleem. De push om meer software op de ARM architectuur te krijgen komt er alleen maar als er goed presterende ARM chips voor PC op de markt zijn. Tot nu toe heb je in dat segment alleen Appls Silicon en eigenlijk telt dat niet, want Apple is de enige serieuze speler in hun eigen ecosysteem.
Niet echt. Windows moet gewoon ARM goed gaan ondersteunen en een upgrade path aanbieden. (A la Rosetta voor Mac). We hebben voor windows al eens een omschakeling gehad van 32-bit naar 64 bit en bedrijven gingen vanzelf de nieuwe mogelijkheden gebruiken.

Als Apple dat kan (PowerPC -> Intel -> M1) dan moet Microsoft dat toch ook kunnen?
Dat laatste kan MS ook vast wel, maar dan komt het....leg me nu eens uit waarom je voor ARM icm Windows zou gaan als je dit ziet: https://www.notebookcheck...s-and-Specs.652916.0.html

Je koopt voor minder geld gewoon een x86 device dat betere prestaties levert, zuiniger is, beter ondersteund wordt, etc.. is.
Wat is dan de business case? Afgezien van Apple maakt niemand interessante( op z'n minst concurrerende is wat we willen) ARM chips voor desktop/laptop gebruik.
Het begint met de nieuwe devkit van Microsoft. Verder is ARM al vrij serieus binnen Linux communities. Probleem is alleen het tekort aan standaarden die het gemakkelijk booten van een iso mogelijk maken (zoals op x86) zonder het eea aan drivers te moeten schrijven die dan weer upstream moeten en vervolgens weer bij Distro bouwers terecht moeten komen.
Qualcomm werd namelijk recentelijk voor de rechter gesleept door Arm; door Nuvia over te nemen zou Qualcomm informatie in handen krijgen over Arms chipontwerp, wat eerdere licentieovereenkomsten zou schenden.
En Apple heeft ook Nuvia oprichter voor de rechter getrokken voor vermeend plannen en werken aan Nuvia designs terwijl die nog aan het werk was bij Apple. Met zelfs beschuldigingen dat de designs van Nuvia gewoon op de M1 chip gebaseerd zijn omdat de werknemer in kwestie aan de M1 designs werkte en aan Nuvia designs tijdens het designwerk van de M serie.

https://www.reuters.com/a...via-lawsuit-idUSKBN1ZK16R

Verder zou een ARM concurrent voor de M1 serie juist heel goed zijn voor Windows apparaten. Vooral omdat de eerste benchmarks van "Project Volterra" ook niet heel bijzonder zijn en een 2 jaar oude chip M1 niet bij kunnen houden.
https://www.youtube.com/watch?v=I3wmp9mstFM
Nja waarom zou het goed zijn voor Windows? Wat Apple slim heeft gedaan is een bestaand product met een bestaande markt (ontwikkelaars en mensen die iets grafisch doen) omgezet naar een andere chip. Die chip bevat features die het gebrek van ARM aanvullen waarna het OS en daarna de software specifiek hierop zijn geoptimaliseerd.

Wat voor winst heeft Microsoft om ditzelfde te doen bij Windows? itt Apple kan Windows niet zomaar van x86 afstappen waardoor ze 2 platformen tegelijkertijd moeten onderhouden
Grootste voordeel is energie efficiëntie.
De prestaties van de M1 afgezet tegen het verbruik zijn ongekend en breken alle wetten van Moore (of nou ja, die ene wet ;).

En met de stijgende energiekosten is dat helemaal geen gek idee. Grote datacenters zijn ook aan het kijken om naar ARM chips over te gaan, juist om kosten van verbruik én koeling te drukken.

En Apple onderhoud nu ook 2 platformen tegelijk. Waarom zou MS dat niet kunnen?
Andere reden is defensief. Door de mogelijkheid te hebben van ARM voorkom je dat er teveel betaald gaat worden voor x86.
ARM zet je geen Windows server op. Maar een Linux ARM distributie. MS heeft z'n lesje waarschijnlijk wel geleerd dat overstappen (heeft nauwelijks voordelen, tov de nadelen) naar ARM gewoon heel erg lastig is, dus dat blijft voorlopig nog een niche.
Windows niet zomaar van x86 afstappen waardoor ze 2 platformen tegelijkertijd moeten onderhouden
Dat doen ze toch al? Windows heeft net zo goed een ARM versie met een x86 emulator. Voor bedrijven als Qualcomm bied dit natuurlijk kansen.
Window ja, office vaak, maar de rest van de software nee. Het is Microsoft nooit gelukt dat software leveranciers voor meerdere processors aan te laten leveren. Apple doet dit tijdelijk door crosscompilers. Die gelijkwaardige prestaties leveren tov de oude processors. Maar native toch een boost te geven.
Plus, dat x86 bij Apple duidelijk eindig is. Dus, dat crosscompilen en Rosetta, weet iedereen dat het tijdelijk is.

Maar MS kan (bijna) onmogelijk van x86 af. Dus ze zullen altijd moeten blijven prutsen met 2 architecturen mocht men willen inzetten op ARM. Teveel gedoe voor weinig winst.
Windows NT en al diens opvolgers zijn nooit gebonden geweest aan x86. Windows 2000 was beschikbaar voor o.a. itanium, risc, sparc en x86. Windows draait danwel in CE, danwel andere vorm ook al decennia op ARM en aanverwante.

Waarom het goed is voor windows? Ik zou mijn macs instant de deur uit doen als binnen het windows eco-systeem dergelijke power beschikbaar komt tegen deze TDP: Ik vind MacOS een verschrikking om op te multitasken, maar fan noise vind ik nog vervelender.
Snap ik, ik heb enorm zitten geilen op die benchmarks van de M1 macbook air, en vooral ook die accuduur tests. Maar ik weet dat MacOs nooit mijn beste vriend gaat worden ...
Als hobbyende muziekproducer won de hardware het van de software, na een 1-op-1 vergelijking met de surface book die ik gelijktijdig had aangeschaft (en als windows fanboy na een week met pijn in het hart retour heb gezonden).

Het voordeel van een 100% stille machine die boven het niveau van een ryzen 3600 presteert (met bovendien significant lagere latency) is oprecht niet te onderschatten.

Edit: Die ryzen 3600 doet nu nog altijd dienst in gaming rig, vandaar die vergelijking.

[Reactie gewijzigd door hottestbrain op 23 juli 2024 06:32]

Mooi, in 2024 een concurrent voor Apple M1. Ik denk wel dat tegen die tijd Apple
aan de M3 toe is.

Maar de inhaalrace kan dan echt losbarsten.
Een Windows pc met een ARM chip, laag idle gebruik en hoge performance wanneer nodig en daarmee een lange accuduur zou zeer welkom zijn. Met name die hoge performance moet nog blijken van de rest weten we dat het kan.
Leuk voor Qualcomm dat ze dit doen, echter
- Voordat ze op het niveau zijn van wat Apple nu maakt zijn we jaren verder, en Apple ook
- Een belangrijke reden waarom Apple Silicon zo efficiënt is, is de verregaande integratie van het OS en de SoC en de optimalisatie van SW leveranciers voor Apple Silicon. Om dat te bereiken zou MS met Qualcomm op diepgaand niveau moeten samenwerken, en belangrijke SW leveranciers zo ver krijgen voor het nieuwe platform te ontwikkelen.
- Verder heeft Apple haar eigen platform, met een beperkte HW set, wat verdere optimalisatie eenvoudiger maakt, hoe meer verschillende fabrikanten van computers met hun eigen HW set, hoe minder geoptimaliseerd.

Blog wat ik er over schreef
- Voordat ze op het niveau zijn van wat Apple nu maakt zijn we jaren verder, en Apple ook
Totdat we weten of Qualcomm's overname van Nuvia vruchtvol is kunnen we alleen speculeren. Ik weet wel dat die devkit met reguliere cortex-x1 en a78 cores van microsoft al een flinke sprong vooruit maakt t.o.v. sq2/8cx gen 2.
- Een belangrijke reden waarom Apple Silicon zo efficiënt is, is de verregaande integratie van het OS en de SoC en de optimalisatie van SW leveranciers voor Apple Silicon. Om dat te bereiken zou MS met Qualcomm op diepgaand niveau moeten samenwerken,
Dat doen ze, sterker nog ze hebben een exclusiviteitscontract wat betreft Windows on ARM wat concurrentie en adoptie (vooral vanwege de prijs) erg moeilijk maakt.
en belangrijke SW leveranciers zo ver krijgen voor het nieuwe platform te ontwikkelen.
De nieuwe devkit zou moeten helpen, ook de Windows vm's die men kan draaien op apple silicon machines helpen, maar het aller belangrijkste zou zijn als Microsoft van dat contract af komt. Dan kunnen Apple, Nvidia, Mediatek, Ampere en Samsung het met z'n allen uitvechten.
- Verder heeft Apple haar eigen platform, met een beperkte HW set, wat verdere optimalisatie eenvoudiger maakt, hoe meer verschillende fabrikanten van computers met hun eigen HW set, hoe minder geoptimaliseerd
Dit blijft hetzelfde als hoe het nu in elkaar zat. Geef je enige vrijheid om te customizen op voor marginale performance of niet? Ik weet zelf waar ik voor zou willen kiezen :D
Totdat we weten of Qualcomm's overname van Nuvia vruchtvol is kunnen we alleen speculeren. Ik weet wel dat die devkit met reguliere cortex-x1 en a78 cores van microsoft al een flinke sprong vooruit maakt t.o.v. sq2/8cx gen 2.
Klopt, maar jaren nadat Apple dat in de markt zette
Dat doen ze, sterker nog ze hebben een exclusiviteitscontract wat betreft Windows on ARM wat concurrentie en adoptie (vooral vanwege de prijs) erg moeilijk maakt.
Sinds 2016, en niet veel resultaat tot nu toe, het contract loopt binnenkort af trouwens.
Dit blijft hetzelfde als hoe het nu in elkaar zat. Geef je enige vrijheid om te customizen op voor marginale performance of niet? Ik weet zelf waar ik voor zou willen kiezen :D
Keuzes, maar dat doet niet af aan het feit dat het dan minder geoptimaliseerd is.
Klopt, maar jaren nadat Apple dat in de markt zette
Ook niet helemaal, de soc is inderdaad vrij nieuw, maar de tech er achter (de Cortex X1 en A78) zijn al relatief oud, sterker nog hetzelfde release jaar als de M1.
Ik wil hier vooral niet mee zeggen dat het een goed idee is om zulke oude cores te gebruiken, ik wil vooral de potentie er achter laten blijken. Ik ga er daarnaast even van uit dat wat ze straks uit gaan brengen niet één of twee generaties achterloopt aangezien het geheel custom hoort te zijn. Wederom speculatief gesproken haha
Sinds 2016, en niet veel resultaat tot nu toe, het contract loopt binnenkort af trouwens.
Ik hoop het, ik hoor het nieuws al langer dat het bijna afgelopen is, maar zie nog weinig gebeuren jammer genoeg. Die resultaten geef ik je wel, de enige interessante socs in het lijstje zijn de 8cx Gen 3 en de SQ3, maar die zijn praktisch hetzelfde natuurlijk.

[Reactie gewijzigd door jja2000 op 23 juli 2024 06:32]

ARM: goed voor alle apparaten waar lage idle verbruik prioriteit is (ultrabooks, servers).
X64: zal beste optie blijven voor gaming desktops.

Ik zou graag van X64 af willen in ultrabooks. Ik wil de passieve koeling en enorm lange accuduur van Macbooks. Maar ik wil dezelfde software keus en vrijheid als Windows op X64. Ik wil de keus hebben uit dezelfde upgrades als met X64 laptops. Dus 32GB DRAM, zelf de optie hebben om de SSD te verwisselen, en her en der de keus hebben voor een mobiele Nvidia, AMD of Intel dGPU.

Waarom heb je met het X64 model van de Surface Pro 9 wel de optie voor 32GB DRAM, en met de ARM versie niet?

Anywho... Qualcomm dat ARM uit brengt met dGPU support (ik hoop en neem aan dat ze gewoon PCIe kaarten als dGPUs bedoelen), is briljant. Ik zou er graag een server mee willen bouwen.
Dat de M1/M2 geheugen on-die hebben wil niet zeggen dat dit inherent is aan alle ARM processoren. Even min dat ze zwakker zouden zijn dan X64.

Zie bijvoorbeeld de Ampere Altra ARM CPUs die in servers worden gebruikt (zie oa. nieuws: HPE voorziet ProLiant-servers van Ampere Altra-soc met 128 Arm-cores).

Ook zo'n beetje alle software werkt gewoon op ARM en games zullen ook volgen zodra ARM processoren ook voet aan de grond krijgen bij PC's.
? Waar lees je dat ik het over on-die geheugen had? Ik snap niet waarom je hier over begint.

En de ervaring van Windows 11 op ARM is toch echt anders dan op X64. Je zegt zelf dat alle software werkt op ARM, en vervolgens dat games (software) niet werken op ARM.
Waarom zouden games niet goed lopen op ARM? Dat ze op Apple Silicon niet zo snel lopen als op high end game computers met zware GPU wil vooral zeggen dat er andere keuzes zijn gemaakt, en dat de Game fabrikanten er niet voor optimaliseren en schrijven.
RiscV? Of toch ARM-architectuur? Dat lijkt me superrisky gezien de bijzonder wankele situatie bij ARM.
Wat denken wij over Apple's avontuur - gaat Apple die M-lijn nog mogen verder uitbouwen van ARM?
Er zijn 3 soorten kaarten, Integrated on chip (gebakken in dezelfde substraat).
Dedicated (vroeger On Board), Gebakken/geklikt op dezelfde PCB.->moederbord bv.
en Externe gelinkt via Thunderbolt of ander high speed protocol (als ik het goed heb).

Op dit item kan niet meer gereageerd worden.