Microsoft start verkoop van Qualcomm-ontwikkelaars-pc met Snapdragon-soc

Microsoft is in de Verenigde Staten begonnen met de verkoop van een kleine desktop-pc met een Qualcomm Snapdragon 7c-soc. Het systeem kost 219 dollar en is bedoeld voor ontwikkelaars om apps te testen. De pc wordt gemaakt door ECS.

De ECS LIVA Mini Box QC710 staat in de Amerikaanse Microsoft Store en wordt daar aangeprezen als een testopstelling voor ontwikkelaars voor Windows on Snapdragon-applicaties. Dat zijn apps die op Arm-hardware draaien. Het systeem is niet bedoeld om apps op te ontwikkelen, maar om ze op te testen. Microsoft benadrukt dat de mini-pc bedoeld is voor ontwikkelaars en niet voor consumenten.

In de mini-pc zit de Snapdragon 7c-soc die eind 2019 werd aangekondigd. Dat is een octacore met twee Cortex-A76-cores en zes Cortex-A55-cores. Het systeem heeft 4GB Lpddr4-geheugen 64GB aan eMMC-opslag en een microSD-kaartslot. Er zijn drie USB-poorten, waaronder een Type-C-variant voor de stroomtoevoer. Ook heeft het kastje een HDMI- en ethernetaansluiting.

In mei kondigde Qualcomm de Snapdragon Developer Kit aan en het bedrijf zei toen dat die in de zomer zou uitkomen. De kit is ontstaan als samenwerking tussen Qualcomm en Microsoft en wordt gemaakt door de Taiwanese fabrikant ECS. Vooralsnog is de Arm-pc niet te koop in de Nederlandse Microsoft Store. Het is niet bekend of die daar zal verschijnen.

Door Julian Huijbregts

Nieuwsredacteur

15-11-2021 • 08:15

123 Linkedin

Submitter: TheVivaldi

Reacties (123)

123
123
76
6
0
34
Wijzig sortering
Aangezien ARM SOC's dankzij Android heel erg wijdverspreid zijn kán Micorosoft's derde poging om op een RISC platform aan marktaandeel te komen (De eerste was Windows voor DEC Alpha, de tweede Windows RT) wel eens slagen. Ben heel benieuwd of Snapdragons met ingebouwd LPDDR5 geheugen en Adreno GPU cores Windows 11 laptops net zo vlot en zuinig krijgen als de M1 van Apple
Nee, de enige manier hoe het kan slagen is dat non-native apps (dus voor x86) gewoon fatsoenlijk en snel werken en er vervolgens native apps komen.
Op die manier voorkom je een eventueel kip-ei verhaal, waarbij mensen dit niet gaan kopen omdat de performance voor bestanden apps slecht is en er te weinig native apps zijn en ontwikkelaars geen native apps gaan ontwikkelen omdat de afzetmarkt te klein is.

Apple heeft met de M1 het meteen goed gedaan door te zorgen dat de prestaties van non-native apps gewoon goed was. In sommige gevallen zelfs beter dan dezelfde app op een Intel systeem.
Ik ken er niet genoeg van, maar is het niet mogelijk een aantal echte x86 cores in te bouwen in een ARM SoC, om zo trage inefficiente emulatie overbodig te maken?

Als ik kijk naar Intel hun BIG.little ontwerp kijk, dan denk ik: doe maar 4 van die E cores in een ARM SoC, dat is snel genoeg om enkele apps te draaien terwijl je wel je platform aanstuurt om ARM native te gaan.
en toch klopt de reactie wel degelijk, want hoe wil je dat deftig krijgen zonder dev pc's uit te sturen? Je hebt gelijk, maar de reactie waar je op reageert ook ;-). Heeft Apple trouwens ook gedaan hoor, maar dat liep iets geheimzinniger.
@Heroic_Nonsense je hebt gelijk, omslachtiger was mss een beter woord :-)

[Reactie gewijzigd door Yoshi op 15 november 2021 09:55]

Viel wel mee toch?

Apple leverde in 2020 (vóór de launch van M1) een custom Mac mini uit met daarin een A14 en een aangepaste versie van macOS en XCode er op.

Als dev kon je die aanvragen om je apps alvast geschikt te maken en te testen.

Kostte 500 euro borg die je weer terugkreeg bij het inleveren (houden mocht niet; toestel bleef eigendom van Apple).

Er was nog wat over te doen: Apple wilde eerst maar 200 euro van die borg terugbetalen, waardoor je de machine in feite huurde voor 300 euro. Daar zijn ze, na felle kritiek, op teruggekomen.
Dat wil je deftig krijgen door een goede emulator plus hardware-support in de CPU, zoals Apple heeft gedaan. Aangezien zo een CPU niet te krijgen is zal MS hem óf zelf moeten maken, óf Quallcomm&Friends moeten overtuigen.
Ik vraag me sterk af hoe lang dit nog het geval zal zijn. Hoeveel Windows-only apps zijn er nog waarvoor geen heel goed alternatief is op andere platformen?

Eigenlijk zijn alleen PC games nog een factor in de beslissing om thuis toch weer een PC aan te schaffen. Op het werk is het de Office suite.

Als ik geen gamer was, dan kocht ik een dikke tablet met een docking station voor mijn schermen.
Professionele software draait veelal niet op tablets. Denk aan software ontwikkeling en bijvoorbeeld Adobe CC. Dat laatste komt langzaam verandering in, maar momenteel nog beperkt.

Software ontwikkeling zie ik niet gebeuren. Daar heeft een touchscreen geen voordeel.

[Reactie gewijzigd door Wolfos op 15 november 2021 10:02]

Het ging my vooral om niet-Windows omgevingen. Zo zie ik heel veel web developers op Mac's tegenwoordig. Vroeger (opa spreekt) zaten die op Linux of Windows.

Microsoft werkt daar zelf ook aan mee overigens. Ik heb sinds Covid mijn desktop Outlook niet meer aangeraakt voor mijn werk. De web-client is veel fijner.

Windows is niet van de ene op de andere dag weg, maar de prangende redenen om op Windows te blijven verdwijnen snel.
Professionele software draait veelal niet op tablets.
Wijzig dit even in Arm-tablets. Ik heb een Surface Pro tablet en daar draait jouw benoemde software prima op...
RISC-V is zeker geen verloren zaak, hoor; zelfs Apple is al bezig met RISC-V.

[Reactie gewijzigd door TheVivaldi op 15 november 2021 12:54]

CISC ook niet, waar jij waarschijnlijk mee in de war bent ;)
De ARM-architectuur is namelijk een RISC-architectuur.
x86(-64) is een CISC-architectuur gebaseerd
Nee, Apple heeft onlangs RISC-V-ontwikkelaars aangenomen om te helpen bij de ontwikkeling van RISC-V.
Dus je was in de war met RISC vs. CISC.
Nee, want ik zei toch dat Apple bezig is met RISC-V?
RISC is zeker geen verloren zaak, hoor; zelfs Apple is al bezig met RISC-V.
Je originele bericht, zonder de -V bij de eerste RISC vermelding, is een reactie op:
Nee, de enige manier hoe het kan slagen is dat non-native apps (dus voor x86) gewoon fatsoenlijk en snel werken en er vervolgens native apps komen.
Op die manier voorkom je een eventueel kip-ei verhaal, waarbij mensen dit niet gaan kopen omdat de performance voor bestanden apps slecht is en er te weinig native apps zijn en ontwikkelaars geen native apps gaan ontwikkelen omdat de afzetmarkt te klein is.

Apple heeft met de M1 het meteen goed gedaan door te zorgen dat de prestaties van non-native apps gewoon goed was. In sommige gevallen zelfs beter dan dezelfde app op een Intel systeem.
Hoe kom je dan tot de conclusie om te reageren met: RISC is zeker geen verloren zaak? Het betreed nét de laptop/desktop markt, Apple heeft er tot nu toe behoorlijk succes mee, en dan wil je iemand benadrukken dat het geen verloren zaak is? 8)7

Om het nog makkelijker te maken waarom zou überhaupt één van de twee (RISC en CISC) een verloren zaak zijn?
Ik lees:
Aangezien ... kán Micorosoft's derde poging om op een RISC platform aan marktaandeel te komen ... wel eens slagen.
Nee, ... waarbij mensen dit niet gaan kopen ...
RISC-V is zeker geen verloren zaak,...

[Reactie gewijzigd door djwice op 16 november 2021 08:49]

"...de prestaties van non-native apps gewoon goed was".

De M1 Max draait X86 games anders maar op halve snelheid. Dat is niet "gewoon goed":
Voorbeeld 1: https://images.anandtech.com/graphs/graph17024/126681.png
Voorbeeld 2: https://images.anandtech.com/graphs/graph17024/126685.png

De Mac heeft al een klein spellenaanbod, omdat de doelgroep te klein is. Slechts 2% van de Steam users heeft een Mac. Daar komt in de toekomst de conversie naar ARM bij, wat de hoop op een groter aanbod van ports verkleint.
Nu heb je het specifiek over games. Dat is altijd al minder geweest. Zelfs ports (oor Aspyr) naar de Mac waren vaak minder. Qua gaming is (en blijft) Mac gewoon niet het meest geschikte platform.

Ik doelde echt op apps van Microsoft, Adobe, etc. die gewoon super goed draaide, ondanks dat het gewoon X86 apps waren die middels Rosetta2 op de M1 draaiden.
X86 apps draaien op Rosetta op zo'n 70% van de volledige native snelheid: https://www.anandtech.com...ac-mini-apple-m1-tested/6

Beter dan 50%, maar 70% zou ik nog niet "gewoon goed" noemen. Eerder "redelijk". Want 70% van de native snelheid, betekent dat native 43% sneller is.
Wanneer de apps 70% van de native score halen op Apple Silicon en dan met die 70% nog steeds beter presteren dan hoe de apps presteerde op een Intel systeem dan is dat zeker goed te noemen. Dat geldt niet voor elke applicatie, maar over het algemeen is er prima te werken met apps welke onder Rosetta draaien.
Apple heeft het voordeel dat het zowel hard als software beheerst en dus eenvoudig van x86 naar eigen arm kon overstappen.

MS maakt alleen een OS en als je goed leest zijn er nog voldoende mensen die met windows 7 en zelfs Dos applicaties werken.

Nadeel van emulatie is dat een top arm met emulatie een budget x86 qua snelheid wordt. Dat verbeteren os nodig om een kans te maken.

Neemt niet weg dat als er voldoende apps / software komt voor windows onder arm het best een kans kan maken.
Er van uitgaande dat ARM ook écht beter is dan x86. Ik zie grote sprongen in de snelheid en efficiëntie van ARM, maar de nadelen belicht niemand.

Een M1 Max is meer dan elf keer groter dan een i7 qua aantal transistors. Dat kost ook wat. Intel laat zien dat er best veel te winnen is met een big.LITTLE ontwerp op x86 met hun 12e generatie. Dat ARM het nu bijzonder goed doet, hoeft niet te betekenen dat dat altijd zo is. Ik zie vooral dat x86 te weinig groei heeft laten zien bij gebrek aan fatsoenlijke concurrentie. Nu die er wel is, eens kijken waar we over een paar jaar zijn. Wie weet laat AMD met Zen4 en Intel met hun 13e generatie eens zien wat ze kunnen.
De M1 Max bevat ook wel veel transistoren voor de GPU vermoed ik en een RTX 3080 mobile heeft 17,4 miljoen transistoren. Daarnaast nog de nodige andere functionaliteiten welke bij Intel niet in de chip verwerkt zitten het is dus wellicht niet helemaal vergelijkbaar met elkaar op het vlak van transistor aantallen.

Uiteindelijk zullen AMD en Intel ook wel weer gaan inlopen op Apple Silicon verwacht ik, daarnaast zijn, vermoed ik, de optimalisaties ook voor een groot deel verantwoordelijk voor de grote performance verschillen. Wat wel opvalt is dat Apple Silicon erg goed presteert met een relatief laag energie verbruik.

Er zijn ook zeker wel kritische reviews te vinden over de M1 Macs en die zijn ook wel de moeite waard om te kijken, bijvoorbeeld: https://youtu.be/0sWIrp1XOKM
Wat ik gelezen heb is dat x86 een aantal technische beperkingen heeft die arm of rsic-v niet hebben.

De concurrentie op x86 gebied is natuurlijk amd en intel en op arm gebied zijn er heel veel meer die al dan niet standaard ontwerp gebruiken of het zelf optimaliseren.

De keuze voor arm in het geval van MS kun je ook zien als een stap over een paar jaar om toch weer terug te keren naar mobiele markt. die markt nu android en ios is een duopolie en denk dat een 3de speler wenselijk is. MS probeert het denk ik via de desktop hopende dat over paar jaar dat aanslaat en men ook naar mobiel kan.
Dat is in C# en andere .net talen met veel runtime modules denk ik wel te stroomlijnen. Ze hebben Windows server applicaties destijds behoorlijk stevig op DEC Alpha laten draaien. (Dat was nog voordat Apple Rosetta uitbracht om PowerPC meuk op Intel te laten werken).

Afhankelijk van de toepassingen zal een object-georiënteerde ontwikkelaar zijn applicatie op Snapdragon wel snel krijgen. Immers had Windows dat ook toen men van IA32 naar AMD64 ging. Zal vooral liggen aan hoe Redmond .NET, DirectX en dergelijke 'duaal' weet te maken.
Een vergelijking tussen Apple's A15 efficiency & performance cores uit 2021, en ARM A78 & X1 uit 2020 kan je hier vinden (onderste diagram): https://www.anandtech.com...w-faster-more-efficient/2

De Qualcomm 7c gebruikt nog 1 a 2 generaties oudere cores (A55 & A76) uit 2017 en 2018.

Nee, ze zijn niet net zo vlot en zuinig.

[Reactie gewijzigd door Henk Poley op 15 november 2021 11:35]

Maar op een DEV kit wil je vaak niet de beste SoC, als het namelijk op een DEV kit goed draait, draait t op retail spul vaak perfect. Soms heb je dan nog wat fine tuning nodig, maar je kan beter je app performance goed hebben op een oude generatie, dan van iedereen “verlangen” top-notch te gaan.

Ben benieuwd of MS nog een manier gaat verzinnen om native x86 op arm degelijk te laten draaien.
Volgens mij is Microsoft wel met een manier bezig. Ze zijn zelf ook een ARM soc aan het ontwikkelen.
De 7c is dan ook hun meeste low end SoC en 10 keer kleiner dan de M1, ook kost ie 10 keer minder. Lastige vergelijking dus. Ik ben benieuwd wat er gebeurt als Qualcomm net zo'n forse chip als Apple maakt. Nu is bij Qualcomm niemand die er om vraagt, dus waarom zouden ze 't verkopen. Je ziet high end telefoons met midrange socs (700 series) uitkomen omdat die al snel genoeg zijn.
Ik kan me zo voorstellen dat developers niet erg enthousiast worden van het runnen van hun power applicaties op een lowlevel cpu. Ondanks de uitdaging.

De tour de france rijden op een herenfiets is op een uitdaging, maar het is een stuk leuker op een mooie lichte wielrenfiets.
Heb je het artikel gelezen? Het gaat expliciet om een device om op te testen, niet op te ontwikkelen. Die waarschuwing staat er duidelijk bij.

Ik quote live uit het artikel:
Het systeem is niet bedoeld om apps op te ontwikkelen, maar om ze op te testen. Microsoft benadrukt dat de mini-pc bedoeld is voor ontwikkelaars en niet voor consumenten.
Je test toch je power applicaties?
Zolang Qualcomm (of een andere fabrikant) geen SoC maakt die zich qua performance kan meten met de M1 van Apple, komt ARM voor de desktop (non-Apple) nooit van de grond.
Je zin is tegenstrijdig. Als de M1 succesvol is, is ARM op de desktop al een succes.
Ondanks dat de M1 een succesnummer is voor Apple, is hun marktaandeel nog steeds marginaal. ARM op de desktop heeft dus meer dan alleen Apple nodig om als totaalplaatje succesvol te zijn.
Niet echt, Apple heeft laten zien dat het niet de instructieset is die ervoor zorgt dat ARM chips "langzaam" zijn. Nu is er niet echt meer een excuus om ARM af te doen als een "non-desktop" SOC.
Nu is er niet echt meer een excuus om ARM af te doen als een "non-desktop" SOC.
Als ik je zin letterlijk lees heb je gelijk omdat je specifiek spreekt over een non-desktop SOC. Maar het feit dat ARM eigenlijk alleen maar in SoC formaat te verkrijgen is maakt al dat het ten opzichte van het x86 eco-systeem toch echt geen volledige vervanging is. Er is zover ik heb begrepen geen bios/UEFI tegenhanger voor ARM processoren (iig niet in de universele form zoals deze voor x86 beschikbaar is). SoCs bevatten over het algemeen een stuk beperktere firmware voor het bootstrappen van CPU en andere hardware startup.

Daarnaast zorgt het op de SoC plaatsen van hardware waarvan de firmware gesloten code is voor een grotere uitdaging op het gebied van ondersteuning van andere besturingssystemen dan Windows of in het geval van M1 MacOS.

Dit houd dan ook gelijk in dat het een stuk lastiger is om daadwerkelijk desktop vervangers te creëren waar de hardware net zo modulair is en makkelijk kan worden vervangen.
De Acorn was een prima desktop machine, incluis insteekkaarten. Dat alles op de chip zit betekend natuurlijk niet dat daadwerkelijk alles op de chip moet zitten. Volgens mij heeft NVidia wel servers met ARM chips en losse kaarten.

Geen UEFI is alleen maar een plus volgens mij. :)
Qua context was de Acorn dan ook geen breder ecosysteem maar vergelijkbaar met MacOS waar alleen maar één specifiek platform hoeft te worden ondersteund en de hardware en software door hetzelfde bedrijf worden gemaakt. Daarnaast heb ik het niet alleen over insteekkaarten maar het complete platform.
Beetje hetzelfde als met de RiscV: ondersteuning wordt ook steeds beter.

[Reactie gewijzigd door Sandor_Clegane op 15 november 2021 10:38]

Ze hebben Linux ook al op de M1 draaien
Beetje optimistische interpretatie aangezien er nog een hoop werk te doen is voordat ze alle hardware in de SoC kunnen ondersteunen. Zie ook dit nieuws artikel.
goed dat gaat niet gemakkelijk
Dat is nogal een understatement wat mij betreft :D

Even wat highlights
  • melden dat er nog veel ruwe kantjes aan hun implementatie zitten en dat er nog veel drivers missen
  • Dankzij de geslotenheid van Apples soc is de port niet eenvoudig.
  • De ontwikkelaars willen zich snel op de gpu-kernelinterface richten. Hoe lang dat werk gaat duren is onbekend.
meer aan Apple dan aan ARM an sich.
Apple doet hier weinig anders als andere SoC fabrikanten. Qualcomm heeft ook geen fantastische track record qua het beschikbaar stellen firmware e.d. Sterker nog, de support die Qualcomm levert is relatief kort waardoor in veel gevallen fabrikanten die updates willen uitbrengen dat niet meer kunnen omdat Qualcomm de support heeft stopgezet (zie ook de fairphone review). Dit is iets wat Apple, weliswaar alleen binnen hun eigen eco-systeem, beter doet. Het is ook één van de vermoedelijke redenen waarom Google ondertussen ook zelf SoCs is gaan ontwerpen omdat het anders niet mogelijk is om Pixel telefoons langer support te geven.

Edit:

Nog een voorbeeld zijn Raspberry PIs en het feit dat bijna alle concurrerende boards geen ondersteuning hebben tenzij de community het werk oppakt en tijd en moeite steekt in het reverse engineering van de SoC.

[Reactie gewijzigd door Creesch op 15 november 2021 10:52]

Was misschien niet het beste voorbeeld. RiscV is een beter voorbeeld.
RiscV is een beter voorbeeld.
Niet echt, RiscV is een compleet nieuw open source architectuur die nog actief in ontwikkeling is waardoor het niet meer dan logisch is dat ondersteuning steeds beter wordt. Met ARM hebben we het over een architectuur die al bijna 4 decennia bestaat en de ondersteuningsproblemen weinig te maken hebben met het feit dat het nog een architectuur in ontwikkeling is en alles met hoe gesloten de implementatie is.

[Reactie gewijzigd door Creesch op 15 november 2021 14:05]

De huidige gangbare AArch64 instructieset is van 2011 en RISC-V ook. Het grote verschil is dat ARM in 2014 relatief vroeg 64-bit ARM cores beschikbaar heeft gemaakt en dat dit bij RISC-V pas in 2018 echt het geval is geweest. Nu pas beginnen er RISC-V cores ontwikkeld te worden die qua prestaties enigszins in de buurt komen van ARM cores en x86 cores. Het gaat volgens mij nog twee jaar duren, voordat we SoC's gebaseerd hierop in daadwerkelijke systemen terecht zien komen.
4 decennia bedoel je.
40 decennia is 400 jaar..
(Sorry voor mijn reactie, maar dankzij een beroerte kan ik niet tegen dit soort verschrijvingen)
Ja klopt inderdaad, ik dacht 40 jaar maar wilde decennia schrijven. Ik zal het even corrigeren ;)
Er is zover ik heb begrepen geen bios/UEFI tegenhanger voor ARM processoren (iig niet in de universele form zoals deze voor x86 beschikbaar is).
Er is Tianocore EDK II en U-Boot, als je een UEFI implementatie wilt hebben. Op mijn SBC met Linux gebruik ik dat niet, omdat tot nu toe U-Boot zelf voldoet en ik toch een aangepaste kernel nodig heb.

Maar in virtuele machines kun je dus alle besturingssystemen via een UEFI installeren. Het bestaat dus allemaal wel en wordt ook gebruikt. Qualcomm en ECS zullen ook iets dergelijks meeleveren met deze machine. Ook bij ARM servers wordt er standaard een UEFI implementatie meegeleverd, die al dan niet open is.
Er is Tianocore EDK II en U-Boot, als je een UEFI implementatie wilt hebben
Corrigeer me als ik het verkeerd heb, maar zijn dit niet community implementaties after the fact en compleet afhankelijk van de welwillendheid van de SoC fabrikant? Er bestaat naar ik weet geen uniform boot platform voor ARM zoals voor x86 wel bestaat. In de context van dit artikel, Quelcomm heeft op dit gebied sowieso al een slechte reputatie als het gaat om support. Dat is ook waarom je deze chips ook weinig tegenkomt op ontwikkelboards en je vaker tegen rockchips aanloopt aangezien daarvoor wel open firmware beschikbaar is.

Mijn punt is dat er nogal wat haken en ogen aan lijken te zitten.
en ik toch een aangepaste kernel nodig heb.
En is dat dan niet vanwege gesloten blobs van de SoC fabrikant?
Tianocore EDK II is gebaseerd op de universele EFI code die Intel heeft vrijgegeven en is als zodanig te gebruiken. Natuurlijk zullen er voor iedere ARM SoC aanpassingen gedaan moeten worden, zoals dat bij x86 platformen ook het geval is. Deze ondersteuning wordt vanuit ARM zelf gestuurd. Het ligt dan aan SoC- en systeemfabrikanten om het daadwerkelijk te implementeren.

Het is inderdaad een keuze en geen verplichting, maar zelfs embedded targets worden tegenwoordig met een UEFI-implementatie uitgeleverd. Jon Masters van Red Hat heeft zich sterk gemaakt voor een universele standaard vergelijkbaar met die voor x86 om het net zo gemakkelijk te maken om een willekeurig besturingssysteem te draaien.
En is dat dan niet vanwege gesloten blobs van de SoC fabrikant?
Alles is open wat de SoC en de kernel betreft. Ik heb alleen nog geen U-Boot gecompileerd die als UEFI kan dienen en Debian ondersteunt mijn SoC nog niet met de standaard ARM64 kernel, voor zover ik weet. Dat is de enige reden waarom ik het nog zo doe. Ik zal er in de kerstvakantie nog eens naar kijken.
Helder, bedankt voor het inzicht :) Op basis daarvan ben ik eens gaan zoeken en blijkbaar levert Qualcomm sinds 2018 een UEFI mee. Van wat ik kon vinden waren de eerste implementaties nog een beetje bijzonder maar wellicht is dat ondertussen al beter.

[Reactie gewijzigd door Creesch op 15 november 2021 11:55]

Er is zover ik heb begrepen geen bios/UEFI tegenhanger voor ARM processoren (iig niet in de universele form zoals deze voor x86 beschikbaar is).
Ik weet niet of je daarmee bedoelt dat er voor ARM geen UEFI is, maar dat is er wel voor bijvoorbeeld Raspberry Pi: https://github.com/pftf/RPi4
Apple heeft een soc gemaakt die bijna vier keer groter is dan een Intel Core i7 of een AMD Ryzen (incl GPU). Met ontzettend veel custom paden voor verschillende workloads. Als je alles dat je kunt vinden op die manier 'hardware accelereert' en een chip hebt die zo achterlijk groot is dat 'ie eigenlijk voor de concurrentie onbetaalbaar is geworden, dan is 't misschien niet helemaal meer 'ARM' dat toch heel goed is, maar misschien iets anders. Om het in perspectief te zetten, een totale Xbox Series X soc (CPU+GPU+geheugenbus+audio processing chip, zie plaatje en bedenk dat M1 CPU net zo groot is als het GPU deel in de Xbox en dat de xbox een 8 core Ryzen 3000 series heeft) bij elkaar zijn 15.3 miljard transistors, de Apple M1 zijn er 16 miljard en heeft dan een veel kleinere GPU en de M1 pro en die andere nieuwe zijn nog een forse bak groter. Misschien helpt dat je om die chip in perspectief te plaatsen.

ARM was al heel succesvol, ruim voordat Apple langs kwam. ARM in settop boxes voor TV voor media playback. Daar waren ze veel beter in dan hun x86 tegenhangers. ARM deed het bijzonder goed in NAS chips, waarbij ze Intel performance leverde voor veel minder stroomverbruik. ARM in Android smartphones gaat ook erg goed. Er waren al ARM Windows laptops, ARM was natuurlijk heer en meester in de tablets. Veel datacenters (Amazon, Google) draaien ook veel ARM op de achtergrond.

ARM heeft Apple niet nodig om succesvol te zijn. De M1 is als je naar marktaandeel kijkt eigenlijk maar een druppel op een gloeiende plaat, maar ook als je naar Apple kijkt, dan is de iphone zodanig veel groter qua aantallen dat de M1 qua sales weinig voorstellen. Dat maakt de M1 niet minder goed dan wat 't is, maar als je naar het totaal aantal ARM apparaten kijkt, dan zijn de aantallen M1 te verwaarlozen.

Als je kijkt naar impact op de markt vind ik de M1 ook overschat. We hebben een SoC die duurder én groter is dan in een Xbox Series X, die op zichzelf al forser is dan die in de PS5. Als je dat nodig hebt om een CPU als een Ryzen te verslaan die dus veel kleiner en goedkoper te produceren is, snap ik wel dat anderen daar geen zin in hebben. Die chips zijn achterlijk duur om te maken. kosten veel productiecapaciteit om te produceren, waar al een tekort aan is en zijn eigenlijk voor veel gebruikers compleet overkill. De meeste klanten van een Qualcomm willen daar niet aan en dan gaat zo'n Qualcomm (of anderen) er natuurlijk ook niet in investeren.

Wat ik wel positief vind is dat Apple een keer hun geld inzet om iets te leveren voor consumenten en dat ze wat meer waar voor hun geld leveren. Ze maken ongetwijfeld minder winst op hun M1 laptops en daar krijg jij als gebruiker dus uiteindelijk meer voor terug. Dat is alleenmaar positief. Al is dat weer wat minder gunstig bij de nieuwe M1 series laptops.

[Reactie gewijzigd door fapkonijntje op 15 november 2021 10:04]

Ze hebben alles geïntegreerd, incluis geneuzel als "AI" cores.

Dus misschien is het idee van losse insteekkaarten voor specifieke functionaliteit in deze minder efficiënt. Het scheelt natuurlijk al een hoop als je niet steeds geheugen hoeft te kopiëren van de CPU naar een kaart ergens op de PCIe bus.

Dus ja, ergens is het niet zo raar dat als je bijna alle losse chips in een PC integreert (Wifi, IO etc. ) in een CPU hij groter is dan een reguliere CPU.
Je overschat hoe groot wifi, ai en io zijn en hoeveel van die zaken er ook gewoon in een intel cpu/xbox soc/ryzen cpu zitten. Sowieso zit dat allemaal verweven in een Qualcomm 888 waar óók nog een 5G modem in zit en die zit ook maar aan de 11 miljard transistors.

Een M1 Max heeft namelijk 57 miljard transistors en de IO, wifi, etc. is allemaal 't zelfde. Alleen wat meer ai cores natuurlijk, maar zo groot zijn die nou ook weer niet. De CPU en deels de GPU neemt grotendeels het formaat voor z'n rekening.

Dat is best een forse chip voor de performance. Waar de performance per watt dus heel goed is bij de M1 (max) is de performance per transistor weer erg slecht. Een Intel of Ryzen CPU zijn dus veel flexibeler, die kan met veel minder oppervlakte/transistors veel meer doen. Een M1 Max heeft veel meer hardware nodig voor 't zelfde doel. Dat ding is dus bijna vier keer groter dan de hele soc in een Xbox Series X. Ja, de Xbox verbruikt veel meer stroom, maar levert ook véél meer GPU performance. Behoorlijk duur om te bakken dus. Dat is dus gelijk ook het nadeel van ARM, zeker op de Apple manier.
Dat ding is dus bijna vier keer groter dan de hele soc in een Xbox Series X.
Dus uit jouw bron:
Project Scarlett 360.4 mm2
M1 is dus 119mm2
M1 Pro wss 251.3 mm2
En Max 425.1mm2

Mis ik iets?
Ja, je mist wat.

Het aantal transistors staat niet gelijk aan vierkante millimeters. De Xbox soc is op 7nm geproduceerd, de M1 en M1 Max op 5nm. Er is ook zoiets als aantal lagen op elkaar in een soc. Er zijn nog wel meer zaken die uitmaken, maar dit zijn de twee belangrijkste.

Ik doelde qua grootte vooral op het aantal transistors en niet op het aantal vierkante meters, misschien had ik dat beter aan moeten geven.

Qua idee van hoe formaten kunnen verschillen, een Qualcomm 865+ is inclusief 5G modem 83.54 mm2. De 865 (kon het formaat van de 888 even niet vinden) is op tsmc n7 geproduceerd, net als de Xbox Series X soc. Als een Apple M1 dus, kort door de bocht, kleinere transistors heeft (op 5n) en dan toch nog zo relatief groot is qua aantal mm2, dan zitten er dus ook overduidelijk veel meer transistors in.

[Reactie gewijzigd door fapkonijntje op 15 november 2021 12:20]

Waarmee je meteen aangeeft dat Apple een concurrentie voordeel heeft door op 5n te werken.
Nou zeg, goed dat je het nog even aangeeft hoor! Was ik toch bijna een veer in de reedt van Apple vergeten. Pfoe, hoe durf ik zeg.

Zullen we ook even noemen dat het wel meevalt, want HiSilicon kwam tegelijk uit met een 5n soc als Apple. Ook op TSMC 5n in oktober 2020 en dat de concurrentie soms bewust kiest om het niet te doen, niet omdat ze het niet kunnen, maar omdat het niet nodig is als de yields en targets goed genoeg zijn op 7n. Ik zou het dan ook geen concurrentievoordeel durven noemen. Dat zou zijn als de rest het niet kan, maar dat is feitelijk onjuist.

Tegenwoordig wordt ook de Qualcomm 765G op 5n gemaakt bij Samsung en sinds kort ook bij TSMC. Dus 5n komt veel voor. Alleen AMD gebruikt nog 7n omdat het verkleinen van die wat complexere architectuur wat lastiger ligt. Qualcomm en anderen hebben wel meer 5n, 6n en 7n chips. Waar je je ook niet in moet vergissen is dat Intel met hun 10nm wel erg dicht bij 5n van TSMC ligt, qua transistordichtheid. Veel dichter dan de getalletjes je doen geloven.
ARM is mede opgericht door Apple, was t.b.v. de Newton.
Maar om ARM groot te maken hebben ze er weinig mee gedaan. Langere tijd draaide er niets van Apple op ARM en wel van Microsoft, Palm en andere partijen.
Je kan ook stellen dat je onnodig pedant bent in je reactie. Technisch gezien helemaal correct maar de context impliceert toch duidelijk genoeg dat MazeWing duid op Windows desktops.

Ik denk overigens niet dat dit de reden zal zijn dat ARM in het Windows ecosysteem niet van de grond zal komen. Dat heeft eerder te maken met het feit dat op Windows omgevingen het simpelweg op software gebied nog steeds een halfbakken ervaring.
Performance speelt wel mee maar dan niet op ARM vlak maar op emulatie vlak, de M1 SoC heeft extra hardware die ondersteuning bied bij x86 emulatie waardoor apps die nog niet over zijn alsnog redelijk performen.

Als laatste denk ik dat zolang ARM alleen beschikbaar is in SoC formaat het sowieso maar een beperkt gedeelte van de Windows markt zal blijven bedienen. Bij laptops is het vrij normaal dat de processor op het moederbord zit gesoldeerd dus daar zal je het wellicht in de toekomst vaker tegenkomen. Bij reguliere desktops is dat echter niet geaccepteerd en wordt er (vooralsnog) waarde gehecht aan het kunnen upgraden of vervangen (bij defect) van de CPU. Dat is een constructie die met ARM processoren niet makkelijk mogelijk is aangezien er geen equivalent is van bios/ueefi aangezien alle hardware ondersteuning gebeurt vanuit de SoC.
Als laatste denk ik dat zolang ARM alleen beschikbaar is in SoC formaat het sowieso maar een beperkt gedeelte van de Windows markt zal blijven bedienen. (…) Bij reguliere desktops is dat echter niet geaccepteerd en wordt er (vooralsnog) waarde gehecht aan het kunnen upgraden of vervangen (bij defect) van de CPU.
Ik denk dat je zwaar overschat hoe veel mensen hier waarde aan hechten. Dit zal een handjevol hard-core nerds zijn. De meeste gewone gebruikers interesseert het geen drol. Daarnaast heeft het gebruik van een SoC waar CPU, GPU en andere onderdelen geïntegreerd zijn dusdanig veel voordelen dat ook de ‘tweakers’ onder ons een keer over zullen moeten.

Leuk dat je je GPU kan vervangen, maar is dat je een bak performance waard ?
Ik denk dat je onderschat hoeveel invloed bedrijven hier op hebben die gebaad zijn bij modulaire hardware simpelweg vanuit een onderhoudsperspectief. Afgezien daarvan is, zoals ik al aangaf, het maar één van de zaken die meespelen waardoor ik persoonlijk denk dat ARM op iets anders dan MacOS voorlopig niet in grote getalen van de grond zal komen.
Daarnaast heeft het gebruik van een SoC waar CPU, GPU en andere onderdelen geïntegreerd zijn dusdanig veel voordelen dat ook de ‘tweakers’ onder ons een keer over zullen moeten.
Qua performance een stuk minder dan de hele hype rondom M1 doet geloven. Sowieso bied het voornamelijk voordelen voor fabrikanten, niet voor consumenten. Zeker op het gebied van repareerbaarheid is het meer een stap achteruit dan vooruit.
Ik denk dat je onderschat hoeveel invloed bedrijven hier op hebben die gebaad zijn bij modulaire hardware simpelweg vanuit een onderhoudsperspectief.
Ik denk dat je dat enorm overschat. Een bedrijf bestelt gewoon een paar extra reserve computers en vervangt de hele machine als er iets defect is.
Sowieso bied het voornamelijk voordelen voor fabrikanten, niet voor consumenten.
Veel betere performance is niet voordelig voor consumenten :?

Discrete GPUs zijn een aflopende zaak, ze kunnen qua performance gewoon niet in de buurt komen van een systeem met unified memory. De meeste software houdt er nog geen rekening mee en is nog ontwikkeld voor ouderwetse hardware met een discrete GPU met eigen VRAM, maar dat gaat natuurlijk veranderen. Zie hier een voorbeeld van de prestaties die je kan verwachten met software die ontwikkeld is voor een GPU met unified memory.
Veel betere performance is niet voordelig voor consumenten
De performance van M1 is niet zonder meer beter dan x86. M1 SoCs worden op 5nm gebakken dus de performance per watt zou sowieso beter moeten zijn dan AMD op 7nm en Intel op wat ze hun proces tegenwoordig ook mogen noemen op 10nm. Daarnaast zie je dat voornamelijk op het vlak waar M1 accelerators heeft deze een voorsprong neemt terwijl op andere vlakken het gelijk op gaat of de M1 het slechter doet.
Zie ook de link in de reactie waar je nu op reageert ;) In het kort, M1 heeft een voorsprong qua performance maar niet van een dusdanige aard dat je kan claimen dat een volledig geïntegreerde SoC rondjes rent rondom x86 computers. Het is meer het soort voorsprong wat je mag verwachten van een op een kleiner procedé gebakken product die concurreert met chips die bovendien ook al een jaar eerder op de markt kwamen.

Daar staat tegenover dat er vrij weinig aan de individuele componenten valt te upgraden of te vervangen als er iets kapot gaat. Als er dus iets stuk gaat kijken consumenten nu al een stuk sneller aan tegen een hele dure reparatie of toch maar weer een nieuwe machine. Gezien de gemiddelde levensduur van een computer bij veel consumenten (hint: langer dan bij de meeste tweakers) is dit niet in het voordeel van de consument.
Discrete GPUs zijn een aflopende zaak, ze kunnen qua performance gewoon niet in de buurt komen van een systeem met unified memory.
Vooralsnog is er vrij weinig dat dit laat zien en je stelling dat dit natuurlijk gaat veranderen met de juiste software support durf ik te betwijfelen. Wellicht in bepaalde use cases maar niet zonder meer. De twitter conversatie waar je naar linked is hier een goed voorbeeld van aangezien het om zeer specifieke use case gaat die je niet zonder meer kan doortrekken naar al het GPU gebruik.
Sterker nog, dat geeft de auteur zelf expliciet aan.
If you are an Affinity user who works on documents which push the limits of your current device, these new MacBook Pro units appear to be a very good upgrade choice.
Er wordt met geen woord gerept over andere soorten GPU gebruik want je kan dit niet zonder meer zomaar doortrekken. En nogmaals, zelfs als je gelijk hebt lijkt het er op dat de meeste applicaties er nog niet op deze manier van gebruik maken zelfs als ze al wel geschikt zijn gemaakt voor M1. In een zeer groot gedeelte van de scenarios waar een M1 pro of zelfs max het moet opnemen tegen een dedicated GPU leggen ze het vooralsnog af.

tl;dr het is allemaal niet zo binair :)
Daarnaast zie je dat voornamelijk op het vlak waar M1 accelerators heeft deze een voorsprong neemt
En dat is mogelijk omdat het een volledig geintegreerde SoC is. De M1 is bijvoorbeeld ook veel sneller dan een Mac Pro met een dedicated accellerator kaart.
Daar staat tegenover dat er vrij weinig aan de individuele componenten valt te upgraden
Daar staat tegenover dat geen geen hond dat doet. Nee, t.net is geen doorsnee van de gehele samenleving. En zelfs voor Tweakers is het maar heel beperkt nuttig. Het is vrijwel nooit de moeite waard om 1 onderdeel te upgraden, met uitzondering van een beetje RAM bijprikken. Een CPU upgraden binnen dezelfde serie/generatie doet vrijwel niemand, en als je naar een echt snellere CPU wilt dan moet je ook je moederboard, RAM, etc. vervangen. Ik verwacht dat in de toekomst je gewoon je hele moederbord met SoC daarop vervangt. Sowieso zie je steeds meer integratie. Vroeger had iedereen een losse IDE controller kaart, een losse kaart met seriele poorten, een losse geluidskaart, een losse netwerk kaart, etc. Wie doet dat tegenwoordig nog ?
of te vervangen als er iets kapot gaat.
En is dat iets dat gebeurt ? Wanneer is de laatste keer dat jij een defecte CPU had ? Betrouwbaarheid zal alleen maar beter worden in een geïntegreerd systeem. Juist het vervangbaar maken van onderdelen maakt ze kwetsbaar.
Vooralsnog is er vrij weinig dat dit laat zien en je stelling dat dit natuurlijk gaat veranderen met de juiste software support durf ik te betwijfelen. Wellicht in bepaalde use cases maar niet zonder meer.
Zeker in alle GPGPU toepassingen is het een enorme winst. En niet alleen in bestaande toepassingen, er worden nu een heleboel GPGPU taken mogelijk die voorheen niet mogelijk.
Ook voor games gaat het winst opleveren, en ik verwacht eerder dan je denkt. Consoles gebruiken namelijk al sinds jaar en dag een unified memory architectuur, dit is een v/d redenen waarom consoles veel beter presteren dan je op basis van de specs zou verwachten. Game developer weten dus al manieren om gebruik te maken van UMA voor optimale prestaties: ze doen dit al vele jaren voor console games. Kwestie van de bestaande optimalisaties porten naar Mac/PC.
Wanneer is de laatste keer dat jij een defecte CPU had
Ik denk niet dat een SoC hier de doorslaggevende factor is. De dedicated prores kaart voor desktop macs presteert ook uitstekend.
Wanneer is de laatste keer dat jij een defecte CPU had
Geen defecte CPU. Wel een defecte GPU, moederbord, geheugen, etc die allemaal los te vervangen zijn voor een lagere prijs dan een complete SoC.
Juist het vervangbaar maken van onderdelen maakt ze kwetsbaar.
Die zou ik wel eens onderbouwd willen zien. Zeker afgezet tegen de lagere kosten van het kunnen repareren, milieu impact, etc.

Enfin, we kunnen hier nog wel een paar keer over en weer reageren want ook op je GPU verhaal heb ik het e.a. aan te maken (bar support, direct access, etc). Maar volgens mij komt het allemaal op hetzelfde neer wat mij betreft. Volgens mij hebben we beide onze standpunten genoeg duidelijk gemaakt dus ik laat het hier even bij :)
De dedicated prores kaart voor desktop macs presteert ook uitstekend.
Sure, het presteert prima, maar niet zo goed als de de geïntegreerde oplossing. Zie hier bijvoorbeeld waar Marques Brownlee benchmarks gedaan heeft met het exporteren van een 8k ProRes video. De MacBook Pro met M1 Max is hier significant sneller dan een Mac Pro van $50.000 (da's een 28-core Mac Pro met 768 GB RAM en een afterburner kaart). De afterburner kaart alleen kost $2000.

Als je losse componenten wilt kan dat dus, je krijg prestaties die "ook uitstekend" zijn (maar alsnog stukken minder dan de SoC) voor een heleboel meer geld. In een veel grotere kast.
Ik denk dat jij behoorlijk onderschat hoeveel mensen werkelijk hun CPU upgraden of vervangen bij defect. Ook in de desktopmarkt zijn gesoldeerde SOCs steeds vaker te vinden, vooral in de mini PC segment wat ondertussen een steeds groter segment begint te worden. Meeste mensen die ik ken kopen vooral desktop om hun GPU vaker te kunnen vervangen want de CPU is langzaamaan steeds minder het probleem.
Zeker begint het meer gangbaar te worden maar ze klagen allemaal als door een kapot wifi chipje, ze ineens gedwongen worden de cpu, gpu en als het gesoldeerd is het mobo ook vervangen moet worden. Dan heb je een reparatie van elke honderden euro's tov een WiFi kaartje van een tientje.
Microsoft Windows heeft geen eenduidige ontwikkel omgeving wat het heel lastig maakt om backwards compatible te zijn. Apple heeft altijd een strak regime gevoerd op SDK's en dat maakt het dat ze veel makkelijker kunnen switches van architectuur, zonder met tal van uitzonderingen rekening te hoeven houden. Ik denk gezien het track-record van Microsoft dat ze dit niet kunnen en dat ARM voor Windows enkel van de grond kan komen als ze legacy loslaten.
Juist de reden dat zakelijk Microsoft zo succesvol is, is ook een stukje backwards compatiblity. Dat loslaten kun je eigenlijk alleen doen als je een bedrijf bent dat volledig op de consumentenmarkt richt zoals Apple.
tja, als je ook maar een paar configuraties hoeft te ondersteunen dan is het een stuk makkelijker om een beperkte SDK te forceren.
Enkel binnen Apple. Ik bedoel uiteraard alles dat non-Apple is.
Gezien je avatar denk ik dat je wel een beetje bevooroordeeld bent. ;)
Haha die is nog van rond 2004...

Ik heb op dit moment enkel nog maar een iPad, die voor 99,99% gebruikt wordt door mijn oudste dochter.
Tot begin dit jaar had ik nog een Macbook pro uit 2017, echter was de noodzaak weg om een laptop te hebben en heb ik een goede (zelfbouw) desktop met groot scherm. Qua telefoon ben ik ruim 2 maanden geleden overgestapt van iPhone 11 pro max naar de Galaxy Fold 3.

Ik ben dus absoluut niet bevoordeeld en stap zonder problemen over van het ene platform naar het andere. Maar ik denk dat we het er allemaal over eens zijn dat wat Apple met de M1 voor elkaar heeft gekregen, niets anders dan indrukwekkend is!
Arm buiten Apple is geen succes op de desktop, heeft weinig met vooroordelen te maken.
ARM is een heel groot succes op de desktop, tot nu toe vooral in de VS en Japan dankzij Apple. Maar ook Chromebooks en Raspberry Pi's worden in behoorlijke aantallen verkocht. Het zou me niet verbazen, als Apple de komende jaren met de Apple Silicon computers nog meer marktaandeel van de andere OEM's afpakt. Hopelijk komen er ook meer systemen met SoC's van Qualcomm/Nuvia en Mediatek uit om meer opties te bieden aan consumenten.
In dat geval is Linux op de desktop ook een succes getuige het groot aantal Chromebooks in omloop (Chrome OS is immers gebaseerd op Gentoo).
Zo groot is ChromeOS ook weer niet: 2.54% marktaandeel, en een deel daarvan draait ook nog eens op x86, niet op ARM.

[Reactie gewijzigd door Dreamvoid op 15 november 2021 12:43]

Zo groot is ChromeOS ook weer niet: 2.54% marktaandeel, en een deel daarvan draait ook nog eens op x86, niet op ARM.
Hoe Statcounter aan die cijfers komt weet ik niet, OS-X zit daar op 16%.
* Wat ik zie is dat je in de winkelsreclames overal overspoeld wordt met Chromebooks (verkopers denken blijkbaar dat consumenten zo goedkoop mogelijk spul willen hebben).

* Wat ik ook zie ik dat de lagere scholen massaal aan de chromebooks gegaan zijn, juist om in Corona-tijd les op afstand te kunnen geven, maar ook om onderwijs meer gericht te kunnen geven. Kinderen kunnen aan hun oefeningen doorwerken zonder dat de lerares* steeds aandacht moet geven. Die geeft dus nu aandacht waar dat nodig is of gevraagd wordt. De tijd die er met de chromebooks gewerkt wordt is nog beperkt, maar neemt geleidelijk toe.
(leraren zijn er nauwelijks meer, gemiddeld nog 1 per school, op grote scholen komt daar nog een directeur bij, wat dan meestal weer wel een man is - misschien omdat die als een der weinige niet in deeltijd werk - maar dat laatste is misschien nog een vooroordeel)

Dan de statistieken
* BBC zegt dat MacOS op 7,5% van de verkopen zit en Chromebooks 10,6 voor heel 2020.
https://www.bbc.com/news/technology-56116573
* Geekwire heeft het over 5.3% Chromebook en 5.6% Mac in 2020Q1 maar 7,5% Mac en 10.0% in 2020Q2. Voor 2020Q3 en Q4 gaat Mac naar 8.4% en dan weer terug naar 7.7 (ja dit was volgens mij nog voor M1) maar Chromebooks stegen door naar 11,5% en 14.4%.
https://www.geekwire.com/...ing-windows-market-share/
Nu zijn de cijfers van BBC en Geekwire verkoopcijfers. Macs gaan gemiddeld langer mee, dus dat soort dingen hoeven niet in tegenspraak te zijn. Marktaandeel van wat er gekocht wordt en wat er daadwerkelijk gebruikt wordt is niet hetzelfde, al willen de marketingjongens dat maar wat graag.

En of die Chromebooks nu x86 of Arm zijn maakt in principe niet uit, als het de dominantie van Windows op de markt kleiner maakt. Het maakt dat mensen flexibeler zijn om van het ene naar het andere hardwareplatform over te stappen. Het versterkt ook de kans dat zakelijke applicaties en games naar andere platformen gaan kijken. Uiteraard zitten er ook wat minder prettige kanten aan, zoals de toenemende macht van Google en acceptatie van diens datahonger.

Ik moet dan steeds aan @kozue denken die daar zeer terecht voor waarschuwt, maar wat betreft het onderwijs ook de voordelen voorbij gaat. Nu zijn er behalve Google nog meer partijen actief op de onderwijsmarkt, zoals de traditionele uitgeverijen van schoolboeken, die zich steeds meer op dat segment richten, maar ook daar de controle volledig overnemen. Die uitgeverijen hebben veel meer inzicht in de schoolprestaties en ontwikkeling van de kinderen als dat Google ooit gaat hebben.
Ja je ziet duidelijk uit die browser stats dat heel veel Chomebooks in het onderwijs zitten: het marktaandeel van ChromeOS halveert elk jaar tijdelijk in Juli+Augustus (=schoolvakanties).

Het is inderdaad al jaren een mysterie: elk jaar worden er allerlei artikelen gepushed over de geweldige verkopen van Chromebooks, maar de praktijk duiken ze niet op in de 'real world' statistieken. En dat terwijl je juist zou verwachten dat een browser-only OS als ChromeOS juist over-vertegenwoordigd is in browser stats. Worden die Chromebooks massaal gehacked en zetten mensen er Windows op? Worden ze gekocht maar niet gebruikt?
Ja je ziet duidelijk uit die browser stats dat heel veel Chomebooks in het onderwijs zitten: het marktaandeel van ChromeOS halveert elk jaar tijdelijk in Juli+Augustus (=schoolvakanties).
Dat impliceert dat toch de helft van de chromebooks in handen is van particulieren (of bedrijven, maar daar zullen ook veel mensen op vakantie zijn, een particulier gebruikt het ding waarschijnlijk ook tijdens zijn vakantie)
Het is inderdaad al jaren een mysterie: elk jaar worden er allerlei artikelen gepushed over de geweldige verkopen van Chromebooks, maar de praktijk duiken ze niet op in de 'real world' statistieken. En dat terwijl je juist zou verwachten dat een browser-only OS als ChromeOS juist over-vertegenwoordigd is in browser stats.
Ik denk dat PC- en laptopgebruikers steeds meer ook in de browser bezig zijn, of deze open laten staan. Je kunt tegenwoordig bijna geen PDF meer openen zonder dat je dat in de browser doet (terwijl de meeste PDF's hier scans zijn, en ik juist de tekst moet extraheren).

Ook denk ik dat PC- en laptopgebruikers gemiddeld meer browsertabs open hebben staan dan chromebook-gebruikers. Chrome is toch meer voor het lichtere werk, dus in gebruik bij mensen die zich steeds op één taak kunnen richten terwijl PC- en laptop juist bij uitstek geschikt zijn voor multitasking. Zelf heb ik permanent Outlook open staan (zodra er iets binnen komt moet daarop gereageerd worden) terwijl ik bezig ben in Access, Word of Excel. Ook heb ik permanent meerdere Explorer-vensters open staan (op dit moment een schamele 6) met de mappen van de bestanden waarmee ik bezig ben.
Worden die Chromebooks massaal gehacked en zetten mensen er Windows op? Worden ze gekocht maar niet gebruikt?
Windows er op zetten was vooral in het begin niet interessant (OS te omvangrijk, geen ruimte voor eigen opslag) maar Linux was altijd wel een optie.

Ik denk dat veel Chromebooks na korte tijd in de kast verdwijnen, mensen kopen alsnog een Windows-laptop of gebruiken verder hun telefoon. Een paar jaar geleden heb ik voor iemand de belastingaangifte gedaan, met behulp van diens Chromebook, toen moest de aangifte geprint worden, maar dat kon ChromeOS helemaal niet. Uiteindelijk heb ik de PDF dan maar naar mijn eigen e-mail gestuurd en vanaf de eigen PC geprint.
Dat impliceert dat toch de helft van de chromebooks in handen is van particulieren (of bedrijven, maar daar zullen ook veel mensen op vakantie zijn, een particulier gebruikt het ding waarschijnlijk ook tijdens zijn vakantie)
In het bedrijven segment valt het effect op de marktaandeel stats weg omdat tegelijkertijd ook de Windows gebruikers verdwijnen op vakantie, bovendien is er nogal een verschil tussen de 2-3 weken die werknemers hebben versus de 2 maanden die de scholieren in de meeste landen hebben, dat geeft een groter impact. Maar je kan denk ik wel grofweg afleiden dat de scholen/rest verhouding rond de 50/50 ligt. Chromebooks zijn dan ook ideaal voor scholen: hufterproof en dichtgetimmerd zodat je alleen bij de browser kan.
Maar je kan denk ik wel grofweg afleiden dat de scholen/rest verhouding rond de 50/50 ligt.
Zelf had ik het over lagere scholen. Daar wordt vaak via Google Classroom, en via vaste oefenprogramma's gewerkt.

Op middelbare scholen zullen er vaker bredere taken uitgevoerd moeten worden: Een boekverslag voor Nederland, een presentatie hier en daar, enzovoorts
Chromebooks zijn dan ook ideaal voor scholen: hufterproof en dichtgetimmerd zodat je alleen bij de browser kan.
Op de lagere school hier gebruiken ze het ook voor dictee-achtige oefeningen. Probleem echter is dat de earphones niet meer ingeplugd kunnen worden, want er zit iets in de jacksocket, en dat is hoogstwaarschijnlijk niet eens bewust gedaan. Bluetooth oid zit er op die dingen niet op. Zonder earphones is het geluid zo zacht dat je er naast zittend dat ook in een "stil" klaslokaal nauwelijks kunt horen. En iedere leerling heeft een eigen (Dell) Chromebook, dus ze kunnen niet even voor die ene oefening een andere gebruiken.

Een paar jaar geleden was ik betrokken bij het beheer van laptops van een middelbare school. Daar had iedere leerling een eigen laptop. Die werden iedere zomer opgehaald en opnieuw ingespoeld. Ook die dingen waren behoorlijk dichtgetimmerd. Het meest voorkomende probleem was dat men per ongeluk via de hardware-schakelaar de WiFi uitschakelde. Daarnaast gingen die Acers ook nogal snel kapot.

Die Dell's zien er nog meer afgeleefd af dan die Acers, en ze zijn maar half zo oud.
Denk dat dat wel meevalt? De prijs van een M1 zal veel mensen 2 keer doen denken over de aanschaf. Een goedkoop ARM-based alternatief zal de acceptatie van ARM alleen maar goed doen.
En toch lijkt die prijs niet dé beperkende factor te zijn aangezien Apple's M1 line-up als warme broodjes verkoopt :?
Voor Apples doen wel ja. Qua totaal marktaandeel is de stijging erg klein, want dat waren ze ook altijd al. Zeker zakelijk zijn er heel andere overwegingen dan alleen de soc. Maar ook particulier is er meer dan alleen de soc in een laptop. Er zijn hele markten die Apple niet aanspreekt die toch erg groot zijn. Zo zijn ook voor mijn doeleinden en gebruik de Apple laptops totaal ongeschikt.
Het probleem is natuurlijk dat de goedkope ARM-processoren wel moeten concurreren. Momenteel doenz e dat alleen in het allerlaagste segment, op Chromebooks van een paar honderd euro. Microsoft kan daar Google niet mee van de troon stoten omdat Windows van veel legacy software afhankelijk is voor goede workflows en ze nog geen goed-werkende tegenhanger van Rosetta 2 hebben.

Misschien heeft deze chip net als Apple's M1 de nodige versnelling voor x64-emulatie, maar ik betwijfel het. Tot nu toe was er alleen trage emulatie van x86.

Met Windows 11 komt gelukkig wel weer toegang tot Android-apps, dat kan wel weer helpen, maar ik verwacht niet dat PC-tools snel door Android-apps zullen worden vervangen.
Ik vind een MacBook Air met m1 chip van ongeveer 1000 euro nu niet bepaald duur. Het is gewoon de prijs die een instap MacBook Air al jaren kost.
Ik vind een MacBook Air met m1 chip van ongeveer 1000 euro nu niet bepaald duur. Het is gewoon de prijs die een instap MacBook Air al jaren kost.
Dat is dan omdat je de Apple-prijzen gewend bent. De gemiddelde consumenten-PC kost al decennia gewoon de helft. €500. En ja aanvankelijk was dat een desktop-PC, nu is dat een laptop (een desktop is tegenwoordig al snel duurder), De prijzen beginnen meestal rond de 449, al zijn er incidenteel aanbiedingen van 399. Daaronder laat de consument het liggen, want "zal wel niet goed zijn", en daarboven vind men het al gauw te duur.

De chromebooks echter die duiken massaal daaronder, gaan in de reclamefolders ongeveer van 200 tot 300. Daarboven vindt je wel een verdwaalde i5-chromebook, maar dan gaat de consument al gauw voor een echte Windows-laptop. Datgene wat je met ChromeOS kunt besparen op de hardware, met een kleinere SSD, enzovoorts is ook niet meer zoveel.
Vergeet de software kant niet, zelfs als Qualcom met een SoC op de markt komt die qua rauwe performance met de M1 kan meekomen dan heeft Apple nog het voordeel dat hun OS echt goed geoptimaliseerd is voor de M1 SoC doordat ze alles 'in-house' ontwikkelen.

Alleen dat punt word voor MS en Qualcomm een harde dobber.
Volgens mij vergeten een heleboel mensen hier dat Apple een ander gedeelte van de markt bedient (mensen met meer geld) dan Google/Android en Microsoft met dit soort apparaten. Daarom zal Apple altijd, uit eigen keuze omdat ze die hoge marges willen, een kleiner marktaandeel houden. Kijk maar naar Android.... Prijs en niet de prestaties regeren daar.
Natuurlijk concurreert MS tegelijkertijd óók met Apple in het hogere segment, maar voorlopig niet met deze apparaten.
Zolang de SoC snel genoeg is voor school / kantoor werk kan dat prima, zolang het maar goedkoop genoeg is en de support er is. Dat is echt een grote groep gebruikers die echt niet veel performance nodig hebben.

Ik denk dat de groep die M1 performance nodig heeft juist een stuk kleiner is, waardoor je denk ik meer kans maakt met een prijs / performance kampioen aan de onderkant van de markt.
Dit is een nonsense argument,


de M1 verbruikt simpelweg meer. De chip die in het verleden ook uitstekend presteerde was de Nvidia Tegra maar die kon je niet in een mobieltje stoppen.

https://en.wikipedia.org/wiki/Apple_M1
The 2020 M1-equipped Mac mini draws 7 watts when idle and 39 watts at maximum load
Iedere partij die bereid is om de beperkingen los te laten mbt mobiel, die kan een vergelijkbare chip neerzetten. De vraag is of er een markt voor is. Apple heeft die markt al, met windows is dat (voorlopig) moeilijker, linux wordt niet echt vaak gebruikt.
Met name China is een potentiële markt aangezien die een aparte constructie hebben mbt arm-licenties. Het feit dat ARM vergelijkbaar kan presteren met een x86 tegen minder verbruik is daar naar mijn mening zeer goed ontvangen. Je maakt je eigen desktop waar zowel windows en eigen OS op zou kunnen draaien.
ARM verbruikt niet automatisch minder dan x86, het is slechts de instructieset. Daarvoor moet je een combinatie hebben van een efficient performance core design en een competitief productie procedé tov de concurrentie. Apple heeft dat beide, Qualcomm toch in mindere mate.
Apple en QualComm zijn beiden fabless; ze hebben geen productie en dus ook geen productieproces. Beiden besteden het uit.

Zeker met EUV zijn de productieprocessen dusdanig complex en duur dat er maar een paar spelers zijn, primair TSMC en Samsung. Intel heeft het lastig, GlobalFoundries is afgehaakt.
Uiteraard, maar Apple heeft een nauwe relatie met TSMC en heeft het geld om hoge prijzen te betalen voor exclusieve/voorrrang tot hun beste productieproces, zeker tov Intel (die hun grote voorsprong helemaal verprutst hebben).
Ik denk dat als MS de emulatie-laag voor x86(-64) goed op orde krijgt, dat het wel van de grond zal komen.
Als ze daar behoorlijk wat resources op zetten en goed gebruik maken van high-level emulatie (het afvangen van library calls en deze herschrijven naar native libs), dan moet dat echt wel lukken, ook op een niet-M1 SoC.
Box86 voor Linux is hier een goed voorbeeld van.
Een oneindig lang traject van het implementeren van libraries, maar nu wel zover dat je Half-Life 2 kan draaien op een Pi4.

Zie bijvoorbeeld ook hoe MS het voor elkaar heeft gekregen om Xbox 360 (PowerPC) emulatie mogelijk de maken op de Xbox One (x86).

Ik geloof alleen dat Intel destijds aan het dreigen was dat er rechtzaken zouden komen indien MS deze emulatie zou doorzetten.

[Reactie gewijzigd door Ginosius op 15 november 2021 09:13]

De Xbox emuleert geen PPC; MS distribueert x86 executables om de games te laten draaien. Alleen de assets en wat libraries worden van de disc gelezen.

Daarom werken ook niet alle games en heb je een internetverbinding nodig als je de 360-disc voor het eerst in een Xbox One/Series console stopt.
Emulatie van x86 op ARM is helaas bijna niet te doen. Net als de m1 chip, zal windows gebruik moeten maken van een compatibiliteitslaag op de chip zelf. In software zal je altijd een enorme performance hit houden.
Rosetta 2 is onderdeel van macOS, niet van de M1 processor. Dus dat emuleren gaat best aardig. Bedenk wel dat bv. GPU drivers en andere performance kritische zaken wel gewoon native ARM zijn en dat de Rosetta emulator de vertaalde code cached zodat je de dure vertaalslag eigenlijk alleen na installatie van een nieuwe app hebt.
De performance van Rosetta 2 is goed omdat het niet zo zeer aan x86 emulatie doet, maar aan High Level Emulatie waarin zo veel mogelijk system calls vertaald worden. Hoe meer een OSX x86 applicatie afhankelijk is van OSX system calls (of Apple libraries), hoe beter deze zal draaien.
Voor Microsoft zal een zelfde klus lang niet zo gemakkelijk zijn ivm de enorme backwards compatibility die in Windows zit. Apple heeft altijd zeer weinig backwards compatibility gehad, en daar hebben ze nu veel voordeel mee bij de x86 -> ARM transitie.
Ten tijde van de DEC Alpha kon je al X86 code draaien door een eenmalige vertaalslag te maken en vervolgens dit op vrijwel native snelheid te draaien. Iets dergelijks kan Microsoft nu weer doen of inderdaad X86 extensies implementeren op een ARM soc zoals Apple gedaan heeft.
Dit lijkt erg op de strategie die Apple hanteerde met de uitrol van Apple Silicon, een developers hw kit met een mobile telefoon SoC erin. Deze verspreiden aan SW ontwikkelaars, om dan vervolgens een tijdje later met zwaardere SoC uitgeruste laptops en mini's te komen.
Zou dus kunnen betekenen dat MS serieus bezig is met een eigen ARM strategie en eigen ARM SoC op de markt gaat brengen in eigen hardware.
Bij de Apple Silicon devkit kon je volgens mij nog wel op de hardware ontwikkelen. Microsoft levert totaal geen ondersteuning om op ARM zelf te ontwikkelen en daardoor heb je dus twee machines nodig. Ook de nieuwste Visual Studio 2022 is niet in een native ARM64 versie beschikbaar, wat voor mij aangeeft dat de ondersteuning vanuit Microsoft nog steeds niet op het niveau van Apple of Linux/BSD ligt.
tja, waarbij het nu duidelijk is dat Apple er al jaren en jaren mee bezig was om dit te plannen, te kijken wat een goede strategie is. Als zij in staat zijn het momentum te behouden en de plannen te realiseren liggen ze een paar jaar voor op de rest van de industrie. De Apple Silicon laptops hebben een veel betere performance/watt ratio dan de rest van de markt. De marges zijn geweldig, en de midrange en high end desktops moeten nog komen, net als de volgende generatie M-Serie.
Is 4GB ram niet een beetje weinig? Windows pc's vandaag de dag hebben al minimaal 8GB ram. Nu weet ik helemaal niet hoe Windows op een ARM chip zal werken, en hoeveel het geoptimaliseerd wordt. Maar voor een ontwikkelaars pc vind ik dat nog al aan de lage kant.
Het is puur om te testen, niet om op te ontwikkelen. Maar toont wel dat Microsoft ARM als low-end target ziet. Er is veel professionele software die meer dan 4GB nodig heeft.
Maar toont wel dat Microsoft ARM als low-end target ziet.
Lol wat? Nee, het toont dat Microsoft en Qualcomm deze devkit graag aan zoveel mogelijk ontwikkelaars willen kunnen verkopen, ook mensen die geen 500 euro willen uitgeven aan het kunnen testen van hun gratis app. Wat een belachelijke sprong in logica is het om op basis van een devkit te denkden dat een bedrijf een hele categorie hardware af heeft geschreven als "low-end" terwijl diens consumenten-producten met ARM allemaal high-end toestellen zijn...
Kunnen we niet gewoon telefoons/tablets als devkit gebruiken? Of is dan het probleem dat daar geen video-out op zit anders dan het ingebouwde scherm?
Ja, al die belangrijke softwarebouwers die geen 500 euro voor een devkit op kunnen brengen 8)7

Als jouw applicatie meer dan 4GB RAM nodig heeft, dan kan je deze devkit dus niet gebruiken om te porten. En laat dat net de software zijn die het meeste baat heeft bij een native versie.
Deze computer zou dan ook niet meer dan €100 moeten kosten. Een Android TV box met soortgelijke prestaties kun je ook voor een dergelijke prijs aanschaffen. Het is eigenlijk een zwak testsysteem voor iets wat je op een gemiddelde x86 PC ook zou kunnen bereiken door middel van het gebruik van QEMU.
Dit is een belangrijke stap voor het Windows on ARM-ecosysteem. Sommige open-source projecten gebruiken Microsoft's Surface Pro X voor het testen van arm64 applicaties (zoals Electron), maar die is eigenlijk overpriced voor dit scenario en maakt de drempel een stuk hoger.

De QC710 zal het voor projecten zoals NodeJS een stuk makkelijker maken om officiële binaries voor Windows arm64 te gaan publiceren (zelf bouwen kan al maar moet voor iedere versie opnieuw gebeuren). We'll get there!

[Reactie gewijzigd door dennisameling op 15 november 2021 10:29]

Wow, vind dit wel een behoorlijk beetje eenkennig klinken : "Windows on Snapdragon-applicaties".

Willen ze daadwerkelijk alleen met Qualcomm in zee gaan of heeft dit meer met lopende deals/overeenkomsten te maken dat ze Snapdragon zo prominent benoemen ?
Waarschijnlijk wil alleen Qualcomm zover gaan om de door Microsoft vereiste Pluton-beveiligingschip chip te integreren. De markt voor Windows on Snapdragon computers is dan ook zeer klein in vergelijking met die voor ARM Chromebooks, Macs en SBC's (zoals de Raspberry Pi).
Ach, de meeste bedrijven leven een beetje in hun eigen wereld, dus ze zullen wel denken dat Snapdragon de enige is in de arm-wereld. ;)
Doe mij maar een macbook (air) met M1. Alsof ontwikkelaars uit geld gebrek met minder genoegen nemen.
Dit gaat om ontwikkelaars van Windows-on-ARM applicaties, dat gaat een beetje lastig op een Macbook.
Dit gaat om ontwikkelaars van Windows-on-ARM applicaties, dat gaat een beetje lastig op een Macbook.
Daarom draai ik ook Parallels! Dacht niet dat ook nog moest melden op een tweakers platform...
Lijk een aardige media player als je iets meer wilt dan Apple tv of Android tv. Wellicht met win 11 en Android native apps. Ik zie wat flexibele mogelijkheden

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee