Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Reviews tonen dat Macs met Apple M1-soc veel sneller zijn dan Intel-varianten

De MacBook Air, MacBook Pro 13" en Mac mini met M1-soc zijn verschenen. Reviews tonen aan dat Apples eigen Arm-chip beduidend sneller is dan Intel-processors die het bedrijf eerder gebruikte. Laptop-cpu's van AMD zijn met alle cores aan het werk nog wel sneller.

Volgens AnandTech draaien de vier krachtige Firestorm-cores van de M1-soc in de Mac mini op een snelheid van 3,2GHz. Diezelfde cores zitten ook in de A14-soc in de iPhone 12-serie, maar daarin werken ze op maximaal 3GHz. Bij de M1-soc is 3GHz waarschijnlijk de maximale snelheid als alle threads aan het werk worden gezet, stelt AnandTech.

In de singlethreaded benchmark van Cinebench R23, waarvan een Arm-versie is verschenen, scoort de Apple M1-soc 1522 punten. Dat is vrijwel gelijk aan de score van Intels Core i7-1165G7, een Tiger Lake-processor die op 4,7GHz draait. Alleen AMD's Ryzen 9 5950X-desktopprocessor haalt met 1647 punten een hogere score. Die processor draait op 4,9GHz.

AnandTech vergelijkt de M1-versie van de Mac mini ook met een Mac mini, MacBook Pro 13" en 15" met Intel-processors. De nieuwe variant met de Apple-soc is in alle gevallen beduidend sneller. De Intel-versies komen niet boven de duizend punten uit. Zelfs als de x86-variant van de benchmark wordt gedraaid via Rosetta2-emulatie, is de M1-soc minimaal net zo snel als de Intel-cpu's.

In de multicorebenchmark wint de Apple M1-soc met overtuiging van Intel-laptopprocessors, die maximaal vier cores hebben. Apples M1-chip heeft naast de vier krachtige cores ook vier zuinige cores. Alleen AMD's Ryzen 7 4800U en Ryzen 9 4900HS zijn sneller. Dat zijn laptopprocessors met acht krachtige cores.

Benchmarks afkomstig van AnandTech

De octacore-gpu van de M1-soc presteert veel beter dan de geïntegreerde gpu's van AMD- en Intel-processors. In GFXBench en 3DMark komt de score in de buurt van die van een GeForce GTX 1650-gpu en de Radeon 560X wordt overtroffen.

In Rise of the Tomb Raider haalt de Apple-gpu op 1366x768 pixels met mediuminstellingen een framerate van zo'n 73 fps en bij full-hd en very high-instellingen is dat bijna 40fps. Daarmee is de gpu sneller dan een Radeon RX 560X. Overigens draait die game niet native op Arm, dus wordt voor het cpu-gedeelte nog emulatie gebruikt met Rosetta2. Die emulatie werkt over het algemeen soepel, beschrijft AnandTech. Er is wel prestatieverlies, maar door de goede prestaties van de M1-soc levert dat in de praktijk geen nadeel op.

In zijn review bekijkt AnandTech ook het stroomverbruik. Idle verbruikt de Mac mini met M1 zo'n 4 watt. Bij singlethreaded workloads is dat zo'n 10 tot 15 watt, afhankelijk van het geheugengebruik. Het complete systeem verbruikt 31 watt bij een zware workload die alle cores aan het werk zet.

De Apple M1-soc zit ook in de MacBook Air en MacBook Pro 13", maar de prestaties verschillen per apparaat, afhankelijk van de koeling. De soc wordt in de Mac mini en MacBook Pro actief gekoeld, maar in de MacBook Air zit geen fan. The Verge heeft de drie M1-apparaten vergeleken en daaruit blijkt dat de MacBook Pro 13" en Mac mini vrijwel gelijk presteren. De MacBook Air is met alle cores aan het werk in Cinebench zo'n 14 procent langzamer. Bij een duurtest van 30 minuten loopt het verschil op tot zo'n 44 procent.

Apple M1-benchmarks van The Verge
Benchmark MacBook Air MacBook Pro Mac mini
Cinebench R23 Multi 6803 7729 7729
Cinebench R23 Single 1494 1519 1520
Cinebench R23 Multi looped for 30 minutes 5369 7729 7780
Geekbench 5.3 CPU Multi 7510 7554 7711
Geekbench 5.3 CPU Single 1730 1730 1754
Geekbench 5.3 OpenCL/ Compute 18357 19211 19654

Diverse andere sites hebben reviews geplaatst van Apple-apparaten met de M1-soc. TechRadar bespreekt de nieuwe MacBook Pro 13" en Engadget behandelt de MacBook Air. Tweakers ontvangt deze week testexemplaren van Apple-hardware met de nieuwe M1-soc en publiceert daar later eigen reviews over.

MacBook Air, MacBook Pro 13" en Mac mini met Apple M1-soc

Door Julian Huijbregts

Nieuwsredacteur

17-11-2020 • 17:47

416 Linkedin

Submitter: MacWolf

Reacties (416)

-14160402+1216+250+30Ongemodereerd145
Wijzig sortering
Spannende tijden.
Nieuwe Nvidia GPU's in de 3000 serie.
Nieuwe 5000 series Ryzen van AMD.
Nieuwe GPU's van AMD van de 6000 serie die het moeten kunnen halen bij Nvidia's 3000 RTX's.

En nu ARM socs voor Apple die op een aantal vlakken vergelijkbare of betere prestaties bieden dan hun x64 based tegenhangers.

Ik ga voorspellen dat we over 5 jaar het computer, laptop, tablet en telefoon landschap niet meer terug gaan herkennen als dit zo door blijft groeien.
Intel wordt ingehaald door AMD en dan komt deze M1 uit.

Het moet echt een enorme klap in het gezicht van Intel zijn dat een 1st gen CPU van een nieuwe platform al gelijk zo veel beter scoort dan wat ze zelf uit weten te brengen.

Gekoppeld met de grafische performance, de thermals en het feit dat Intel nog steeds moeite heeft met 10nm terwijl Apple gelijk al begint met 5nm.

Wie weet kijken we over een paar jaar in een compleet andere markt terug en kunnen we zeggen dat we nooit hadden kunnen verwachten dat de M1 zo'n enorme impact zou hebben in het computer landschap.
Tsjah daar kon Intel op wachten. Voor rauwe prestaties zijn ze sneller, maar dan wel met significant hoger stroomverbruik.
Jep, als je prestaties wil is de Intel Core i9-10900K een betere vergelijking,
die is meer dan 2x zo snel als de Intel Core i7-1165G7.
Ook wel duurder, maar in totaal prijs van een niet-MAC zal het wel meevallen... :+
Er zijn weinig mensen die 600EUR willen neertellen voor een losse CPU om een paar extra frames te krijgen. Voor professionelen is de CPU tegenwoordig minder het probleem, maar hoe snel je data kunt opslurpen (netwerk en opslag).
Die i9 past niet in een laptop van een kilo.
1st gen? Apple maakt al jaren zijn eigen cpu's. Ze worden nu enkel verkocht in een nieuwe form factor. Iets zegt me dat dit voor Intel en AMD niet bepaald een verrassing is. Zeker Intel moet de bui toch hebben voelen hangen gezien hun jarenlange nauwe samenwerking met Apple.

De vraag zal nu vooral zijn hoe goed Apple's design opschaalt want op dit moment komen ze in de desktopmarkt nog niet aan de schenen van AMD en Intel.
Oh, heeft Apple al eerder een ARM CPU voor laptop's uitgebracht dan? ;)
Daarom schreef ik ook
1st gen CPU van een nieuwe platform
Het is wachten op de M2 of de "D1" versies die in desktops kunnen.
Als Apple genoeg verschuiving waarneemt de komende maanden, heb je grote kans dat die er komen.
ARM is geen CPU maar een blauwdruk voor een core. Je kunt inderdaad wel stellen dat Apple ruim ervaring heeft met de ARM architectuur en daardoor een vliegende start maakt, maar dit is wel degelijk hun eerste laptopprocessor die ze uitbrengen. Telefoons en zelfs tablets, stellen behoorlijk andere eisen aan de CPU als geheel, en hoe je cores finetunet, configureert en met elkaar verbindt is wel degelijk een vak apart. Kijk maar hoe groot de voorsprong van AMD is ten opzichte van intel op dat punt, en ook al was toen hun cores nog niet sneller waren dan die van intel.

[Reactie gewijzigd door mae-t.net op 23 november 2020 20:34]

ARM is geen CPU maar een blauwdruk voor een core.
Apple maakt geen gebruik van deze blauwdrukken van ARM.

Ik heb niets gelezen van een nieuw ontwerp voor laptops. Het lijkt mij dat Apple jarenlang heeft lopen ontwikkelen aan hun cores, gpus etc. om uiteindelijk een variatie te maken die meer stroom kan pakken omdat er een grotere behuizig omheen zit. Het lijkt mij sterk dat ze nu cores maken voor iphone,ipad en een andere core voor laptops.
Ook ter overweging:

- 1e "stap" in een 2 jarig proces
- dit is een zgn. "Low performance" processor variant met geïntegreerde graphics
- wat vooral indrukwekkend is relatief "hoge" performance bij een zeer laag wattage (10~18W)
- Daardoor een lange accuduur in M1 "Apple laptops" (20 uur max)
Zeker.
Ik had ook even een twijfel momentje of ik met mijn AMD 4800U wel een juiste keuze had gemaakt. Echter zou een vergelijkbare configuratie mij zo’n €800 meer kosten. De twijfel is wel gezakt. Alleen die GPU is zeeeer interessant. Ik vond die van de 4800U al zeer goed presteren maar dit is zeker nog een stapje verder.
Gaming on the go wordt nu steeds serieuzer. ;)
Hoezo is die GPU interessant? Ze testen op 1366*768! Come on, 1080p is toch de minimale resolutie waar tegenwoordig gpu's op getest worden? Dat scheelt nogal een jas. Ongeveer de helft aan pixels uit mijn hoofd.

[Reactie gewijzigd door Miglow op 17 november 2020 20:30]

Het is een GPU die samen met een CPU op maximaal 31W werkt. Dit verbruikt mijn 4800U APU tijdens zwaar gebruik ook, soms nog wel eens meer tijdens bijvoorbeeld Cinebench R20. Daar kan ik echter geen Shadow of the Thomb Raider op spelen met zulke frames.
De octacore-gpu van de M1-soc presteert veel beter dan de geïntegreerde gpu's van AMD- en Intel-processors. In GFXBench en 3DMark komt de score in de buurt van die van een GeForce GTX 1650-gpu en de Radeon 560X wordt overtroffen.

In Rise of the Tomb Raider haalt de Apple-gpu op 1366x768 pixels met mediuminstellingen een framerate van zo'n 73 fps en bij full-hd en very high-instellingen is dat bijna 40fps. Daarmee is de gpu sneller dan een Radeon RX 560X.
Daarbij gebruiken ze alsnog een 1080p resultaat. Bijna 40 FPS is natuurlijk voor een gamelaptop geen probleem. Maar dit is een 'entry-level' setje wat vele malen minder verbruikt en in een lichtere en compacter formaat is geplaatst.
Zeker als je ook nog rekening houd met het feit dat alles eerst nog via Rosetta moet worden 'omgezet' van X86 naar ARM. Hier zit ook nog prestatie verlies in.


1366*768 = 1 049 088
1920*1080 = 2 073 600
Je zat er niet ver vanaf, inderdaad bijna de helft.
We hebben het wel over een 'entry-level' setje van 1100 euro. Daar kun je een hele dikke gaminglaptop van kopen. Die de Mac op alle fronten voorbij raast.
Het is misschien 'entry-level' voor Apple, maar afgezet tegen een Windows laptop van dezelfde prijs kom je er maar bekaaid vanaf.
Je zou het in perspectief moeten zien. Een gaming laptop van €1100 heeft geen batterijduur tot 20 uur. Plaatst zichzelf niet in een 13,3 inch jasje met een bijbehorend gewicht van 1,4 kg. (MacBook Pro).
Iets wat enigszins in de buurt komt hiervan is de Razer Blade Stealth 13 qua formaat met wat meer grafisch vermogen. Echter is de TDP van die GPU alleen al 35-40 Watt, dat is meer dan de hele SOC verbruikt bij Apple.
Daarbij is deze in een vergelijkbare configuratie verkrijgbaar voor een vergelijkbare prijs en die zijn inderdaad allebei niet mals.

Price/performance zijn er betere laptops. Maar je koopt hier ook een aluminium chassis, P3 display met 500 nits scherm bij.
Het is altijd goedkoper en presteert beter dan wat ze met Intel deden aanbieden.
Het is altijd goedkoper en beter presterend dan wat ze met Intel deden aanbieden.
Ik denk dat dat het belangrijkste is: het presteert beter dan met Intel. Voor een dubbeltje zit je bij Apple nog steeds niet op de eerste rang en dat zal ook nooit gaan gebeuren. Ze zijn het A merk, de designers. Ze zijn voor 'the cool people' (and the idiots willing to pay too much just to look cool).
Persoonlijk ga ik dan liever voor iets minder cool en iets meer power, maar het is maar net waar je prioriteiten liggen :)
Jazeker, ik probeer ze nu ook niet op te hemelen en de apparatuur die ze verkopen is zeker niet goedkoop te noemen. Maar dit toont wel aan dat Apple het zelf goedkoper en beter kan leveren dan Intel.

[Reactie gewijzigd door J Kortje op 18 november 2020 09:13]

Je moet het niet proberen te verkopen. Op forums zoals dit zal je altijd pro en contra mensen hebben. Dat is het leuke van tweakers. Zo veel meningen dat er geen enkele deftige opinie wordt gevormd door de groep maar je als individueel wel helpt te versterken in je keuze.

Wat je wel vergeet te vermelden is de restwaarde, ook iets om aandacht aan te scheppen. Je krijgt meer terug voor diezelfde Mac dan gelijk welke windows PC na 3 maand. Als je de leasingsmaatschappijen volgt dan zie je dat een MacBook kopen goedkoper is op 3 jaar dan een goedkopere met vergelijkbare prestaties windows laptop.
Wat je wel vergeet te vermelden is de restwaarde, ook iets om aandacht aan te scheppen
Dat is zeker waar. Ook de manier waarop MacOS nog redelijk soepel lijkt te draaien op een ouder toestel dan op een oudere Windows laptop. Kan zijn dat dit helemaal niet is, heb geen oude MacOS laptop maar wel oude Windows laptops gehad die langzamerhand traag werden.
Precies! Laatst heb ik een late 2013 macbook gekocht en die compiled mijn xCode projecten als een zonnetje!

Alleen de igpu is niet zo snel.
and the idiots willing to pay too much just to look cool
Ook dat ligt er maar net aan waar je prioriteiten liggen, ik vind macOS persoonlijk fijner werken dan Windows.. Ik hoef niet stoer te lopen doen met een mooie laptop want ik gebruik hem toch alleen maar thuis.
Heb van de baas nu een Win10 machine staan, maar voel me zeer onthand.
Al 12 jaar MacMan en ik begon jaren daarvoor met een Apple ][ kloon

En 'cool' heb ik me nog nooit gevoeld en de buitenwereld was niet te beroerd om dat duidelijk te maken (de eeuwige voor/tegen strijd apple v.s. win) :-)

[Reactie gewijzigd door Digitist op 18 november 2020 21:26]

Het onthande zit hem waarschijnlijk vooral in de bediening. Je mag er van je baas zeker niets anders opzetten?
Valt mee hoor.
De Win10 machine is voornamelijk voor het gebruik van OpenSpaceProject, Unreal en Skyskan Digital Sky.
Ik kan het gelukkig verantwoorden en uitleggen waarom, maar bij elke baan die ik heb aangenomen is vooraf besproken dat werken op Mac randvoorwaarde is. Anders is het voor mij letterlijk alsof je een timmerman vraagt z’n spijkers voortaan met een nijptang in het hout te slaan. Onthand is dan inderdaad een heel treffende term.

[Reactie gewijzigd door nms2003 op 27 november 2020 18:35]

Het is ook maar net wat je fijn vind, gebruikt en gewend bent. Een Apple is idd zeker niet de goedkoopste, maar ben jij iemand die video's bewerkt en een voorkeur hebt voor Final Cut Pro, dan zit je automatisch vast aan een Mac, en die presteert ook erg goed omdat de software naadloos aansluit op de hardware.

Zo zijn er wel meer redenen te bedenken, Een Audi heeft ook een bepaald statussymbool maar tegelijkertijd ook doorgaans een hogere bouwkwaliteit en andere pluspunten die voor sommigen belangrijk zijn en voor anderen niet.
We hebben het wel over een 'entry-level' setje van 1100 euro. Daar kun je een hele dikke gaminglaptop van kopen. Die de Mac op alle fronten voorbij raast.
Maar dan vergelijk je een dik bakbeest met een batterijduur van een paar uur met een ultrabook die 20 uur mee gaat, niet echt nuttig want niemand zal de keuze tussen die twee maken he?

Overigens ik ik heel graag een 'hele dikke gaminglaptop' voor die prijs. Het is maar wat je 'heel dik' noemt maar ik denk dan toch echt aan iets wat 400 euro duurder is. Ken geen laptop met een serieuze grafische kaart voor 1100 euro.
Inderdaad, een hele DIKKE gaming laptop, deze laptops zijn ultra-portables.

Je kan voor die prijs inderdaad gaming laptops met een low-end desktop CPU/GPU komen, vb Dell G3 15 (45W i5-10300H, een 80W 1650Ti, 16G RAM en 512GB SSD) en dan nog, volgens de benchmark, zit Apple er nog 30% boven de CPU en slechts 20% onder met de GPU.

Dit zijn hun low-end laptops, er is al sprake dat er in 2021 GPU's bij komen in de iMac en Macbook Pro reeks, als ze een M1.5 + GPU kunnen uitbrengen op 5nm met deze specs, dan is de gemiddelde consumer ook wel blij.

[Reactie gewijzigd door Guru Evi op 18 november 2020 14:21]

Rise of the Tomb Raider is al wat ouder dan Shadow of the Tomb Raider.
woopsie foutje :P

Maar dan nog, in een rijtje van GTX 1650 en 560X is zeker niet verkeerd. Die 560X zat in de macbook pro 15 van een aantal jaar geleden en die ging voor het dubbele over de toonbank. :D
Een 4800u presteert op cpu vlak toch nog een stuk beter dan de M1 dus een 4800u plus dedicated graphics zal al in al beter presteren voor een lagere prijs.
Maar die bestaan helaas niet. En een eGPU is met een USB 5GB/s poortje niet eens de moeite waard. Pas wanneer er USB 4 met 40GB/s op zit is het de moeite waard. Misschien een 20GB/s poort ook goed genoeg is. Maar ook die bestaan niet.
Ik ga voorspellen dat we over 5 jaar het computer, laptop, tablet en telefoon landschap niet meer terug gaan herkennen als dit zo door blijft groeien.
Ik ben wel benieuwd naar waar je dan het meeste naar uitkijkt en wat je precies ziet veranderen. :)

Persoonlijk ben ik wel een beetje bang voor ARM omdat NVIDIA het heeft overgenomen. Dat bedrijf staat helaas niet bekend als goedkoop en hoewel ze ook aan open-source/open-license doen, ben ik een beetje huiverig wat dit gaat doen met bijvoorbeeld licenties, maar ook met Apple.

Opzicht stapt Apple nu wel op het juiste moment in. Er wordt ontzettend veel gedaan op ARM gebied, al zou er ook nog een derde (Chinese) x86 speler bij kunnen komen, maar cross-platform emulatie gaat nu beter gok ik dan jaren geleden. Het is wel moeilijk om te voorspellen hoe het over 5 jaar uitziet (ook voor Intel), alles gaat gigantisch snel, al zal het voor sommige nog niet snel genoeg gaan.
Apple stapt niet alleen op het juiste moment in, ze zijn medeoprichter van ARM en hebben een volledige eeuwig durende architectuur licentie en mogen daarmee alles bouwen wat ze willen.
En als het moet zijn kopen ze toch gewoon nVidia op... hebben ze ook nog eens toegang tot Video en server technologie. :+
Nvidia heeft arm nog niet overgenomen. Alle regio's moeten akkoord zijn met de verkoop. Momenteel is er een grote kans dat de Chinese regulatoren de verkoop zullen blokkeren. Als dat gebeurt dan springt de verkoop automatisch af in alle andere markten.
We hebben nog maar net AMD Zen 3 chips en RDNA 2 videokaarten die een grote sprong vooruit zijn in performance, en AMD is ook alweer bezig met de volgende generatie, Zen 4 en ook RDNA 3 voor de volgende generatie videokaarten, die weer een flink sprong vooruit beloven te worden.

[Reactie gewijzigd door jj71 op 17 november 2020 19:39]

We hebben nog geen Zen 3 APUs/laptop CPUs dus grote kans dat deze een stuk verder zijn dan de huidige Zen 2 varianten. In multithreaded workloads is de M1 een flink stuk langzamer dan de 4900HS.
Als AMD de 15% stijging ook voor laptops kan meenemen is het verschil zeer groot met ongeveer 56%.

Daarmee kun je stellen dat Apple al weer achterloopt
Is geen Apple to Apples vergelijk :P :P , M1 verbruikt niets, vervangt instap modellen, vervang de efficiency cores door High performance en verdubbel de GPU cores en je verbruikt nog minder, kijk maar naar de verschillende YT reviews, ik heb zelden zo een positief verhaal gehoord, iedereen, enige min punt, de 720P webcam ... daar kan ik wel mee leven, gebruik toch mijn iPhone als camera ...
Warmt niet op, batterij gaat ontiegelijk lang mee en de single core performance maakt dat alles instant is, en dat als instapper, hij veegt letterlijk de vloer aan met een i9 in de meeste testen ... aan minder dan de helft van de prijs. Ik snap niet waarom iedereen dit probeert te vergelijken met een top line CPU, die gelegenheid komt wel.
Is geen Apple to Apples vergelijk :P :P , M1 verbruikt niets, vervangt instap modellen, vervang de efficiency cores door High performance en verdubbel de GPU cores en je verbruikt nog minder, kijk maar naar de verschillende YT reviews, ik heb zelden zo een positief verhaal gehoord, iedereen, enige min punt, de 720P webcam ... daar kan ik wel mee leven, gebruik toch mijn iPhone als camera ...
Warmt niet op, batterij gaat ontiegelijk lang mee en de single core performance maakt dat alles instant is, en dat als instapper, hij veegt letterlijk de vloer aan met een i9 in de meeste testen ... aan minder dan de helft van de prijs. Ik snap niet waarom iedereen dit probeert te vergelijken met een top line CPU, die gelegenheid komt wel.
De 4900HS is geen top of de line cpu. Het is een laptop CPU en verbruikt ook niet zoveel net als de M1.
klopt, maar k heb al software gezien die ook de 16 core Neural engine gebruikt, en daar zie je gewoon een 2x to 5x performance boost ... (Affinity x3 speed beschikbaar nu DJAY sommige zaken zoals het scheiden van voice en instrumenten tot x15 sneller)

Denk dus aan:
- Music software
- beeldverwerking software
- beeld analyse, het selecteren / terugvinden van objecten
Heeft de 4900HS iets vergelijkbaar? Ik weet het niet heb me op dat stuk nog niet verdiept ...

(Naast de Neural engine is er ook nog de Matrix multiplicator de zaken die ik gezien heb van ontwikkelaars zijn gewoon mind blowing, eentje had een demo pre en post Neural engine, speed x2 ...
Benchmarks zijn een goede neutrale maatstaaf maar real life performance is toch nog altijd wat mij meer aanbelangt ...

Misschien moet er naast cinebench ook eens aan Tensorflow vergelijkingen gedacht worden.
Wel een met een 35W TDP. Tel daar nog een GPU bij op en je hebt een stuk meer warmte maar ook een hoger verbruik wat afgevoerd wordt, ook wat accusap lust en gewicht in de schaal legt.
True maar dat zijn allemaal high power producten en verbruiken dus een tienvoud meer dan deze M1 chip van Apple. Het knappe eraan is dat een low power product als de M1 highpower producten kan bijhouden. Wat gaat dat betekenen als als Apple highpower producten op basis van deze techniek gaat maken. Die blazen dan waarschijnlijk alle Intels en AMDs volledig van tafel right?
Dat hoop ik ook, maar opschalen gaat niet automatisch beter worden. Je moet wel warmte af kunnen voeren, signalen over kunnen dragen en wat dies meer zij. Meer cores zal het probleem niet zijn, maar 4 of 5 Ghz of een veel grotere chip is niet zomaar gegeven.

Apple heeft zeker iets knaps gedaan als de werkelijke prestaties gaan doen wat de benchmarks beloven. Nu nog een vergelijkbare processor voor Intel/Linux en de powersaving van Apple binnen die os-en. Want daar is Apple onverslaanbaar, in tegenstelling tot Windows. Mijn iPad kan 9 weken standby nog wakker worden, mijn Elite X2 nog geen week.
Ik zie niet iedereen overstappen naar Apple in 5 jaar.
Windows op arm komt zo ook steeds dichterbij.
Windows op Arm is een kwestie van tijd. Maar Apple bakt de snelste Arm cpu’s. Dus de anderen moeten echt hun huiswerk doen. Dus dit is wel een heel interessante positie van Apple.
Apple bakt niet de snelste ARM CPU's. Apple is de enige die de mogelijkheid heeft hardware en software naadloos op elkaar aan te sluiten. De andere fabrikanten zijn of leverancier (Nvidia, AMD, Intel) of consument (Microsoft, Google) van de chipsets. Apple is de enige die hard- en software maakt.

Ik ben benieuwd hoe stijl de opwaartse trend gaat zijn van Apple. Want als ze een Mac Pro gaan maken met deze dingen..... allemachtig. Jammer dat ze compleet falen op het gebied van games, maar een krachtige console zou ook interessant zijn.
Apple bakt op dit moment WEL de beste presterende consumenten ARM processors. Waar haal je van vandaan dat dat niet zo is.
Nee, TSMC "bakt" ze, Apple designed ze alleen :P
Als je zo redeneert maken bijna niemand CPU’s en GPU’s.
En toch wordt dat statement bij bijvoorbeeld AMD en Nvidia niet gemaakt.
Apple bakt niet de snelste ARM CPU's. Apple is de enige die de mogelijkheid heeft hardware en software naadloos op elkaar aan te sluiten
Zeker wel. De testen kijken ook naar synthetische benchmarks zoals SPEC, daar is het OS niet (echt) belangrijk. Ook daar is de M1 single core gewoon bruut snel. Multicore doet deze ook goed mee en het voorspelt veel potentie voor een niet-instap variant.
Okee, dus als ik het goed begrijp maken ze dus en de snelste ARM CPU en kunnen ze de software naadloos aanpassen op de hardware. Ze hebben nu nog backwards-compat verplichtingen (ook naar zichzelf) mbt x86, maar geef het een paar jaar en ze zijn helemaal los. Dat betekent dus dat dit pas het begin is..... met een beetje tijd gaat de Mx serie van Apple dus keihard vooruit, helemaal t.o.v. de Intels/AMD die 'general purpose' CPU's maken.
En tevens andersom: Apple kan ook de hardware aanpassen aan wat zij denken dat belangrijk is.
Dit zie je bijvoorbeeld bij de L1 caches (niet alleen deze M1, maar bij de Ax varianten). Die zijn waanzinnig groot. Dat is voor pure benchmarks niet echt noodzakelijk, maar voor browsers wel degelijk, omdat deze (denk javascript interpretatie/JIT) een grote working set heeft.
Dat zie bijvoorbeeld bij de Speedometer bench op Anandtech: Een score van 234 terwijl een Ryzen 9 5950X hier 140 haalt.
En waarschijnlijk is dit een test waarbij de M1 het ST verbruik van zo’n 6 Watt heeft, terwijl die Ryzen ST op max turbo voor de CPU alleen al op ongeveer 50 Watt zit...
Apple is de enige die de mogelijkheid heeft hardware en software naadloos op elkaar aan te sluiten.
Kan microsoft ook doen met hun Surface lijn als ze dat zouden willen.
Ontwerpen ze hun eigen socs?
Ja toch? De SQ1 en SQ2?
Samen met Qualcomm dan, vooruit.
Dat wist ik niet! Weer wat geleerd.
Niet waar hier op wordt gedoeld, want daar zit dan nog steeds een Intel CPU in (tenzij ze deze Surface natuurlijk ook een eigen chip zouden geven, maar volgens mij heeft Microsoft geen chipafdeling)
Surface heeft ook een Surface X Pro lijn met een Qualcomm SOC die samen met MS is ontwikkelt. Wat Apple hier doet kan Microsoft ook doen als ze net als Apple gewoon eens samen zouden werken met ontwikkelaars ipv altijd naderhand ontwikkelaars te vragen of ze het aub willen supporten. Desnoods geld erin pompen. Dat doet Apple namelijk ook voor veel van hun ecosystemen.

[Reactie gewijzigd door Snowfall op 17 november 2020 21:43]

Als ze kunnen is een andere vraag.

Microsoft zit redelijk vast aan x86 vanwege hun ondersteuning van oude protocollen. Je kunt warempel nog DDE objecten gebruiken in Windows 10, en er zijn nog steeds software die hier gebruik van maken. Ze willen inderdaad iedereen op .NET overbrengen, maar dat is ook al meer dan 20 jaar geleden en nog steeds kun je op bijna elke computer VB en ActiveX dependencies vinden.

Microsoft had inderdaad de Surface met ARM lijn geprobeerd, hun Surface-lijn is niet alleen heel erg duur (2500 EUR voor een degelijk Intel systeem, de ARM was 1500 EUR) maar zelfs Office had problemen met ARM, en dat kunnen ze compleet intern oplossen. En dan nog was hun chip heel erg traag, zelfs gewoon browsen was traag.
Die oude protocollen zitten nauwelijks vast aan x86. De huidig windows branche is van de grond af aan (NT 3.1) opgebouwd om op meerdere architecturen te draaien en er zijn ook al diverse ARM versies geweest. Ook in de jaren dat MS het draaien op meerdere architecturen een beetje liet verslofffen, is er niet zoveel verprutst dat je het niet weer terug kunt prutsen. Je zult wel wat legacy API's moeten ondersteunen en als je oude executables wilt draaien heb je emulatie nodig, maar dat doet Apple nu dus ook en zal geen probleem zijn.
Windows op ARM bestaat al wel even in meer of mindere mate, zo brengen ze zelf hardware uit met ARM CPU's. Ook denk ik niet dat Apple de snelste ARM CPU's bakt op dit moment. Amazon bakt best een performance monster met de Graviton2, en er zijn vast wel meer high-performance ARM implementaties.

De overstap naar ARM is dan ook niet echt innovatie van Apple, ze springen gewoon (wel vroeg en enthusiast) op de bandwagon.
Apple zit natuurlijk al zo'n 10+ jaar op de ARM 'bandwagon', en zelf CPU's maken doen ze ook al sinds de 90's (ook dat waren RISC CPUs).

Ik denk ook wel dat de innovatie niet perse in de architectuur van de ISA zit; dat is bijna een markt trend en niet zo zeer iets wat 1 vendor specifiek uniek maakt. Maar de manier waarop je het integreert en beschikbaar stelt, dat is (zoals je dat met enthousiast omschrijft) bij Apple wel net een stukje meer 'hardcore' dan je bij andere fabrikanten ziet.

Hopelijk beweegt dit de IT markt (in zowel hardware als software) richting een wat meer neutrale situatie waarbij er niet een dominant platform voor 'alles' is. Meer variatie kan het leven lastiger maken, maar het kan de producten die met elkaar moeten werken ook juist robuuster maken. Code en processen die getest zijn op meerdere manieren is over het algemeen een stuk 'steviger' dan een uniek stukje code dat slechts in 1 bekende omgeving getest is.
Apple zit wel al heel vroeg op die bandwagon dan, ze hebben ARM nl mee opgericht :-) En je kan de Graviton (>100W TDP) server CPU natuurlijk niet vergelijken met een 10W TDP mobile CPU. In die klasse ontwerpt Apple wel degelijk de snelste ARM cpu's, lees er de Anandtech artikels maar op na. Het chip design team van Apple is wereldtop. Ze hadden 12 jaar geleden al de visie van PA Semi over te nemen, en zo een design team in huis te halen. Daar plukken ze nu al jaren de resultaten van - iPhone, iPad, Watch en nu dus ook de Macs. Dit is echt geen kwestie van: oh de anderen doen iets leuks, we gaan dat gauw ook eens proberen.
Windows op ARM bestaat allang. De Surface pro X is al een jaar uit ongeveer.
Sterker nog. Microsoft introduceerde Windows RT (voor ARM) al in 2012 op de eerste Surface icm een Nvidia Tegra chip.

Apple doet het als vanouds heel slim. Eerst de kat uit de boom kijken en leren van andermans fouten. Dan de implementatie verbeteren, de boel verfijnen en wanneer de situatie het enigszins toelaat het een eigen uitvinding noemen ;-)
Sterker nog. Microsoft introduceerde Windows RT (voor ARM) al in 2012 op de eerste Surface icm een Nvidia Tegra chip.
En MS heeft niet geleerd van het RT fiasco. Het grote probleem met RT was dat ontwikkelaars het links lieten liggen dus niemand kocht het ding. Juist omdat Tablets met Windows RT nagenoeg nergens in uitblonk.

Toen in 2018 kwam Microsoft weer met een Windows on ARM device. De Surface Pro X en ook hier is het weer hetzelfde liedje. Native is er gewoon zeer weinig echte software te krijgen, dus het ding moet in emulatie 32 bit software draaien en dit is tot de dag van vandaag gewoon een drama.

Wat MS doet is een product lanceren en naderhand bij developers bedelen voor support. Apple doet dit heel anders. Apple gaat met developers om de tafel, verteld onder dikke NDA wat ze gepland hebben en helpt zelfs bedrijven die mee willen doen met deze transitie. Dit zag je op WWDC ook. Native Office, Native Photoshop, LightRoom en Native Publisher van Serif. En dit draaide nog op een iPad Chip.
Apple doet het als vanouds heel slim. Eerst de kat uit de boom kijken en leren van andermans fouten. Dan de implementatie verbeteren, de boel verfijnen en wanneer de situatie het enigszins toelaat het een eigen uitvinding noemen ;-)
Mwa dit gaat vind ik niet helemaal op in deze situatie. Apple bewees met de iPad Pro al dat het heel goed is in het bewegen van de markt naar een bepaalde richting toe. Toen de iPad Pro werd aangekondigd stonden verschillende software pakketten al klaar om bij Launchday hun software op de iPad Pro te hebben. Waaronder Serif van Affinity Designer, Affinity Photo en ook Photoshop.

Apple heeft met Apple Silicon naar mijn mening gedaan dat MS nooit van zn leven op poten had kunnen zetten. Een ARM Native Desktop OS waar developers wel degelijk native voor willen ontwikkelen.
Je weet dat al die ARM64 producten die je opnoemt ook native ARM64 zijn op Windows voor ARM? :)

Verder is x86 emulatie niet echt een drama. Het is trager - afhankelijk of een applicatie vooral zijn eigen code draait of in de voor ge-JITte OS bibliotheken gebruikt (*) - maar denk jij dat op deze Mac's dat niet ook het geval zal zijn? Emuleren zal altijd trager zijn, en is er dan enkel om compabiliteit te hebben.

Merk verder op Windows op ARM standaard diverse security (o.a. Hypervisor met VBS) aan heeft staan, die Windows op Intel/AMD default uit hebben staan. Dat heeft uiteraard een effect op de prestaties. Een deel van het prestatieverlies is om die reden, maar op de doelgroep markt (enterprise) minder relevant omdat Intel/AMD dat daar ook steeds vaker default aan hebben staan.

Begrijp me niet verkeerd, Apple doet bepaalde zaken altijd enorm goed, maar het niet de eerste hoeven zijn helpt natuurlijk ook enorm.

*) merk op dat meest reviewers dit structureel missen. Veel van die x86 benchmarks zijn een worst-case scenario omdat ze alles zelf doen ipv OS bibliotheken gebruiken.
Je weet dat al die ARM64 producten die je opnoemt ook native ARM64 zijn op Windows voor ARM? :)
Serif pakketten zoals Affinity Designer, Affinity Photo, Affinity Publisher draaien niet native op Windows ARM. Office 2019 draait ook niet native op Windows for ARM. LightRoom draait niet native op Windows for ARM. Dus geen enkel pakket dat ik opnoem draait Native op Windows for ARM. Nog niet te beginnen over verschillende IDE's en video edit alternatieven.
Verder is x86 emulatie niet echt een drama. Het is trager - afhankelijk of een applicatie vooral zijn eigen code draait of in de voor ge-JITte OS bibliotheken gebruikt (*) - maar denk jij dat op deze Mac's dat niet ook het geval zal zijn? Emuleren zal altijd trager zijn, en is er dan enkel om compabiliteit te hebben.
x86 emulatie op de Surface Pro X was een drama. Ik heb het apparaat 2 maanden gebruikt en het was gewoon traag en niet vloeiend te gebruiken. Apple laat met Rosetta namelijk zien dat zelfs hele complexe software zoals Maya zelfs in emulatie wel goed werken.
Begrijp me niet verkeerd, Apple doet bepaalde zaken altijd enorm goed, maar het niet de eerste hoeven zijn helpt natuurlijk ook enorm.
Dit doet er wat mij betreft dus niet toe. Apple heeft het anders aangepakt dan MS en er word gewoon Native voor ontwikkeld. Zelfs Davinci Resolve is nu Native te krijgen voor Apple Silicon.

Verschil is gewoon dat MS Windows for ARM al jaren verkeerd aanpakt en niet voorheen met developers in gesprek is gegaan. Apple heeft dit wel gedaan.
Je hebt gelijk met Lightroom en Affinit- die had ik gemist. Firefox en een paar andere pakketten heb je bijvoorbeeld weer voor Windows en niet voor Mac. Mijn punt was meer in zijn algemeen, dat de support in beide gevallen niet echt veel anders is.

Office 365 draait overigens wel native in de zin van pre-JIted naar ARM64 machine code. Wellicht dat je in de war bent dat het een andere ARM64 ISA dan de Windows ARM64 ISA? Maar grotendeels geen emulatie dus. De reden waarom het niet 100% native is, is omdat dan al die duizenden pakketten niet werken omdat die plugins wel x86 zijn. De x86 geemuleerde plugins werken dus naadloos met de pre-JITted machine code. Mac heeft daar geen last van want die plugins bestaan daar gewoon geheel niet voor.

Dat is ook waar ik op doelde met OS bibliotheken. Hele groepen schijnen niet te beseffen dat grote delen van de OS bibliotheken ook pre-JITted zijn en dus native machine code zijn die geen interpretatie of JIT meer vereist. Ofwel ...

x86 emulatie op de Surface Pro X was een drama

'was' ja :+ En is nog steeds een flinke vertraging als je vooral applicaties draait die geemuleerd worden. Gebruiken ze vooral de OS bibliotheken valt het doorgaans reuze mee. Helaas kijkt de meeste reviewer hier niet naar.

Maar jij neemt bij voorbaat aan dat het op Mac beter zal zijn? Dat magisch daar al die emulatie geen overhead zal hebben? Apple zal een licht voordeel hebben omdat het geen WoW64 overhead heeftr, maar dat lijkt Microsoft ook te gaan verhelpen.

Verschil is gewoon dat MS Windows for ARM al jaren verkeerd aanpakt en niet voorheen met developers in gesprek is gegaan. Apple heeft dit wel gedaan.

Ik denk dat het groter verschil is dat Apple op een hele smalle doelgroep mikt en kan mikken en dan met enkele sleutel ontwikkelaars heeft gewerkt in die doelgroep. Maar als je breder kijkt zie je dat op deze Mac op ARM ook 99% van de software niet native lijkt te worden.

Als ik Enterprise apps neem, is support op de Mac gewoon veel minder dan op Windows voor ARM. Richt ik mij enkel op de niche markt van grafische tools, is dat Mac's traditionele hoofddoelgroep samen met coders. Logisch dat het daar goed is, want anders faalt het produkt al bij launch.

Ik denk dus dat je overdrijft.
Ik weet niet of je nog herinnerd dat moment voor de eerste iphone en na de eerste iphone?
Ja maar dat was toen echt wel een nieuw revolutionair apparaat. En samen met de komst van snel mobiel internet was t niet meer te stoppen.

Wat veranderd er nu dan zo veel voor de consument? Ok het is een rap ding met lange accu tijd en de mogelijkheid om ios apps te installeren.

Maar is het echt zo'n revolutie voor de consument. Ding is net zo duur, ziet er precies hetzelfde uit en kan hetzelfde als de vorige.
Ik denk dat de grootste verandering voor de consument de accuduur wordt. Nu we over de 20 uur op één keer laden gaan, komen er wel scenarios in zicht die voorheen vrijwel ondenkbaar waren. Je computer altijd bij je hebben zonder oplader en alleen ‘s nachts aan de lader hangen bijvoorbeeld.
Dat is niet vergelijkbaar. macOS blijft macOS en Windows blijft Windows, voor de gebruiker verandert er niets.

Er zullen maar weinig mensen overstappen vanwege hardware, de meeste mensen interesseert het helemaal niets.
Ik zie veel mensen overstappen omdat een 4 jaar oude MacBook air niet eens fatsoenlijk een YouTube video af kan spelen terwijl je een simpel Java spelletje speelt.
ik heb iig net voor het eerst een mac (air) gekocht..
Met M1 chip? Of met Intel?
Kan je gewoon draaien via de emulatie van Rosetta 2 software en zelfs met die emulatie blijkt het nog zeer snel te werken. Check de reviews maar, daarin draaien ze ook Photoshop.
En tevens is er al een beta versie van Photoshop voor ARM.
En voor een euro heb je een maaltijd bij de lidl
Dan moet je nog wel aardig je best doen. Maar misschien snap je de vergelijking niet. diondokter bedoelt dat je met een mac een erg dure pc in huis haalt die op sommige punten beter is, maar niet voor iedereen een effectieve investering. De PC die hij beschrijft presteert beter juist op de punten die hij wil, en is nog goedkoper ook. Dat lukt je misschien niet met eten van 1 euro bij Lidl als je dat vergelijkt met eten van 10 euro bij Albert Heijn. Daar zal het goedkope eten vrijwel zeker slechter presteren.
Die redenering slaat kant nog wal. Ik denk ook echt dat mensen hun mind moeten omzetten met wat wij geleerd hebben tijdens de intel periode. Die 64GB ram waar je het over hebt zit niet direct in een soc waardoor alles veel en veel sneller werkt. Ergo, 16GB werkt waarschijnlijk even goed als de 64GB.

Wat mij wel altijd opvalt is dat mensen altijd een oordeel over Apple hebben, vooral hoe het werkt en wat je voor het geld krijgt, terwijl ze nog geen Apple product in huis hebben. Ik heb alles van Apple thuis en het werkt zo fijn en gemakkelijk, vooral voor mijn werk. Tussendoor probeer ik wel eens een windows uit maar het voegt gewoon zo niks meer toe in het leven dan behalve games die ik erop kan spelen. Daarvoor heb ik me X-Box.

Ik zou zeggen, probeer het gewoon uit. Als je bij de Apple Store een product koopt en je bent niet tevreden, dan krijg je tenminste je geld terug.
Ik heb alles Windows en Android thuis en heb wel eens een iPhone en Mac geprobeerd, maar kan er niet aan wennen. Het is vooral een kwestie van gewenning en niet per se iets wat 'beter' is in mijn ogen. De discussie die altijd plaatsvindt is wat dat aangaat in mijn optiek ook een 'non discussie'.

Puur kijkend naar Hardware+ Specs is Apple duur, dat is in mijn optiek een feit. Maakt dit het dan 'te duur voor wat je krijgt'? Wellicht, maar als het echt té duur zou zijn zouden niet massa's mensen hun geld eraan uitgeven. Wellicht iets overprized, maar dat maken ze (Apple) dan weer goed met gebruikersbeleving,
Het is praktisch niet te doen daar een prijskaartje aan te hangen, dwz dat mensen die heel erg eraan gewend zijn, of het heel lekker vinden werken, daar best extra geld voor over hebben. In die optiek heeft Apple het gewoon erg goed voor elkaar.

Voordeel van Windows (Intel/ AMD laptops e.d.) vind ik dat je die in elke prijsklasse wel kan vinden, en daarmee ook goed bruikbaar krijgt voor consumenten die wel 'iets willen doen, surfen, youtube kijken e.d., op een computer en verder niet. Ik heb (legio) mensen in de familie die een computer letterlijk voor minimale dingen gebruiken (patience, youtube, e-mail en tekstverwerken) . Een MacBook of iMac is daarmee al veel te duur voor ze (hebben ze er in elk geval niet voor over) en dat begrijp ik heel goed.

Zo zie je maar, voor ieder wat wils, zo zweert de ene bij een auto die 'zweeft' (soepele vering), terwijl een ander een meer sportieve afstelling wil (stuggere vering), waarbij (bijvoorbeeld) de zwevende auto, ondanks dezelfde/ vergelijkbare specs meer kost, maar toch gretig aftrek vindt. Is de ene dan beter dan de ander? In mijn ogen niet (maar ik heb wel mijn voorkeur), en dat voelt een beetje als de discussie rondom Apple en niet Apple producten.

Hoe dan ook, ben wel benieuwd wat dit voor 'storm' op de processormarkt teweeg gaat brengen, temeer omdat dit ook een enorme klap aan Intel is (die een groot afnemer van hun processoren weg zien vallen hierdoor). Ik juich het ook wel toe dat dit gebeurt, in de hoop dat dit betekent dat er na jaren van 'stilstand wegens gebrek aan concurrentie' weer echt geïnnoveerd gaat worden op processorgebied en (daarmee) wellicht ook op GPU gebied.
Ik heb alles Windows en Android thuis en heb wel eens een iPhone en Mac geprobeerd, maar kan er niet aan wennen. Het is vooral een kwestie van gewenning en niet per se iets wat 'beter' is in mijn ogen. De discussie die altijd plaatsvindt is wat dat aangaat in mijn optiek ook een 'non discussie'.
ik zeg altijd: het is enorm persoonlijk. want het is smaak. Ik zit nou al 20+ jaar in het vak, en iets langer (1984) in computers als hobbyist, en ik kan windows en android weer bijzonder slecht verteren. We zijn allemaal anders, gelukkig :)

Daarom zijn die flamewars altijd zo onzinnig, en helaas ontaarden de meeste discussies daar ook bijna altijd in. Accepteer elkaars smaak en ga lekker een biertje drinken in zoom. :)
Dan gebruik jij waarschijnlijk geen applicaties waar een PC handiger is. Ik denk dat ook jij geen oordeel moet hebben over andermans PC-ervaring op basis van jouw PC-ervaring. Aangezien je zelf nog nooit met een M1 zult hebben gewerkt en die vergelijking dus niet eens kunt maken, is het uit jouw relaas erg duidelijk dat jij andere eisen stelt aan het computergebruik dan de mensen op wie je reageert. Overigens gaat het hier niet echt om een vergelijking van operating systems, maar een vergelijking van hardware.

[Reactie gewijzigd door mae-t.net op 23 november 2020 20:24]

Ja maar dit zit je wel op x86 inplaats van de toekomst
Rare opmerking. Alsof x86 geen toekomst heeft en over een jaar of drie niets meer werkt.
Je kunt bij die AMD64 (want dat is hoe je die x86 gebruikt) wel kiezen voor varianten met 8 of meer cores. Een threadripper verbruikt meer maar presteert ook beter, in elk geval als het om multi threaded software gaat.

Simpel gezegd, met een macbook heb je een dure, zuinige, goed presterende, slecht repareerbare laptop. Daar is zonder meer markt voor, maar het is geen panacé (alomvattende oplossing) voor computergebruik.
Dat kan idd, maar heb je de tests al gezien?

Ik snap dat iedereen alle losse onderdelen gaat bekijken en prijs gaat vergelijken. Maar deze architectuur die Apple ontwikkeld heeft , samen met de R&D , software support (Rosetta 2), kan je bijna niet vergelijken met losse onderdelen, is geïntegreerd en werkt heel anders. Met een MacBook Air van 1100 euro, kan je sneller video editing doen dan met een high end pc, of een aantal iMac pro’ s die veel duurder zijn.
Als je die vergelijking doet, dan is het eigenlijk erg goedkoop.

Ik hoop dat er snel ontwikkelingen plaats gaan vinden op high end gaming en verdere gpu ontwikkeling. Ben echt benieuwd naar de performance van de iMacs en de Mac pro’ s en zelfs de MacBook Pro 16 inch, dat moeten toch zeer snelle machines gaan worden.
Het RAM dat er in zit is zeker erg snel! Maar...
Het blijft gewoon 4266 MT/s LPDDR4X ram. Het voordeel van de integratie hier is dat de transmission lines korter zijn. Dit scheelt hooguit een nanoseconde aan access times (door de snelheid van het licht) en dat is zeker mooi meegenomen.

Maar men doet alsof Apple hier hemel en aarde bewogen heeft en off-the-charts performance levert, maar dat is nou eenmaal niet zo.
Het is al heel lang bekend dat ARM processors zuiniger zijn dan x86 voor dezelfde performance. Het probleem is alleen altijd geweest dat men ARM niet op het high-end performance niveau heeft gekregen.

Apple heeft natuurlijk veel slimme mensen in dienst, en die hebben super werk geleverd om deze performance te halen, maar Apple heeft het op zekere hoogte ook gebruteforced door flinke hoeveelheden cache op de chip te zetten en nu al op 5nm te produceren.

Hierdoor betwijfel ik ook of er nog heel veel meer uit te persen is.
Maar we gaan het wel zien. Hoewel ik sceptisch ben, hoop ik wel dat het ze lukt omdat er dan eindelijk weer wat spannende veranderingen gaan zijn in de industrie.
Ik kijk hier waarschijnlijk ander dan jou naar:

Als een totaal passief gekoelde soc het beter of net zo goed doet dan een and Renoir , dan kan je met allerlei argumenten komen over productieproces, grootte van de soc, cache, etc.
En dan dit vergelijken met als amd dit en dat.
Feit is alleen dat amd dit nog niet heeft gedaan. En dat dit nu een product is , die je gewoon kunt kopen. Theoretisch kan je er allerlei zaken bij halen, in vergelijkingen met allerlei theorieën en aannames, kan je alles relativeren.
Het gaat om wat er nu beschikbaar is voor de consument , niet om wat er over een jaar mogelijk is. Want als we dat gaan gebruiken , kan ik ook wel zeggen: stel dat Apple toch 8 highspeed cores erin zet, stel dat Apple volgend jaar op 5nm + productieproces zit en het jaar daarop op 4nm, dan....
Feit is dat amd nog niet op 5nm zit.
Feit is dat Intel heeft aangetoond dat het al jaren loopt te modderen om hun cpu’ s op een kleiner productieproces te produceren en dat nu echt niet lukt waardoor ze achterblijven. In theorie zou een high end Intel op 5nm ook waarschijnlijk veel sneller zijn. Feit is alleen dat ze daar op deze manier nooit gaan komen. En dit toont aan dat het niet zo makkelijk is om zomaar even een chip op een kleiner procedé om te zetten.

[Reactie gewijzigd door Halo_Master op 20 november 2020 11:32]

Helemaal eens, supertof om dit allemaal te volgen.
Het spannendste is nog het kopen zelf van die onderdelen die je opnoemt, aangezien ze altijd uitverkocht zijn allemaal, of het spannende gaat er juist af, aangezien ze toch allemaal uitverkocht zijn.
Spectaculaire resultaten, met name omdat het bij een lager verbruik gebeurd.

Dus tsja, dat die Macbook Air gaat throttlen, dat snap ik wel, niemand koopt er eentje voor de performance (heb ik net een quadcore Intel Air, hahaha), maar je krijgt de performance in principe gratis cadeau bij enorm langere batterijduur.
Zelfs als de x86-variant van de benchmark wordt gedraaid via Rosetta2-emulatie, is de M1-soc minimaal net zo snel als de Intel-cpu's.
Voor de mensen die zich zorgen maakten. Niet alleen is de chip razendsnel, maar zelfs in emulatie-modus is het beter dan een Intel-chip die *native* code draait. Dat grenst aan het absurde.
Zou iemand kunnen/willen duiden wat er technisch gezien voor zorgt dat we deze ontwikkelingen bij AMD en ARM-cpu's zien? Welke veranderingen (in de architectuur?) zorgen voor deze verbeteringen? Of is het vooral te danken aan de kleinere nanometer-schaal waarop de chips worden geproduceerd?
Anandtech heeft daar altijd goeie artikelen over.
Zie hier voor AMD Zen3, hier voor Apple M1.
Lang verhaal maar het is dus niet alleen minder nm.
Wat is er nu zo spectaculair aan deze resultaten? Een actief gekoelde Macbook Pro is in native ARM nog steeds 20% langzamer als een 15 watt AMD chip in multicore tests. Dat is toch imho veel minder spectaculair als men in de vorige topics riep. Single core is wel goed, maar we weten dat die van Zen3 al weer een stuk hoger is.

Hou er ook rekening mee dat dit op 5nm geproduceerd is, waar Zen3 nog op 7nm wordt geproduceerd. Dus als AMD overstapt op 5nm zal het verbruik nog verder omlaag gaan.

Dus prestaties per watt zijn dus lager voor de M1 dan die van de AMD chip. De M1 verbruikt ook 15 watt onder load.

[Reactie gewijzigd door hiostu op 17 november 2020 18:19]

Alleen lopen die AMD CPU's niet op 10W zoals de M1 (en ja de CPU alleen is 10W, laptop als geheel 15W), die loopt eerder op 25W - dit kun je zelf terugvinden in de specsheet van AMD. Of kun je een AMD based laptop aanwijzen die de 18-20 uur aantikt ? Apple kan alles naar hardware optimaliseren. Een macbook air die zonder stotteren 6K kan editen in FCP is fantastisch en zeer impressive.

Het is voor AMD helemaal geen bedreiging of iets dergelijks. Dit is een probleem voor Intel en ook dankzij AMD.
Of kun je een AMD based laptop aanwijzen die de 18-20 uur aantikt ?
Batterijduur was nu net een van de sterke punten van de nieuwe 4000 mobile reeks van AMD, waarbij ze makkelijk twintig tot veertig procent beter scoren dan Intel voor eenzelfde warmtebudget en voor eenzelfde prijs, met betere prestaties en minder throttling!
Maar de M1 verbruikt toch ook 30W wat Anandtech aangeeft?
Heb nog niet veel reviews gelezen, maar heb je er 1 waar ze de ryzen 4000 serie benchen versus de M1? En waar van beide machines het verbruik wordt gemeten?
Dat gaat over het ganse systeem inclusief scherm en zo.
Het gaat over het ganse systeem in elk geval, dus lang niet alleen de SoC. Dus inclusief het idle verbruik van de 150watt voeding, de RAM, de fans, de voeding voor de usb-c, de audio, de WiFi, de Bluetooth...

De laptops halen bij de meest zware continu belasting nog 6-8 uur, en dat met batterijen van 50-60wh...

[Reactie gewijzigd door Myaimistrue op 17 november 2020 23:26]

Het is pittig lastig om goede reviews te vinden over de Renoir chips. Helemaal voor de systemen zonder scherm.

Idle draait zo'n systeem op ~8W, maar dat is met 64GB aan DDR4 SO-DIMM.

Op load kan dat makkelijk 50W+ worden maar dan heb je ook veel meer performance dan de M1 en zit je met 2x32GB SO-DIMM en een losse NVMe etc.

Dus vandaar de vraag of er ook een goede review uit is die beide systemen meten. Uiteraard met vergelijkbare specs(het liefst mac mini dus).
Hou er dan rekening mee dat Intel nog op 14nm zit, duh.

Dit zijn VIER performance cores en vier low power cores..

M2 gaat ook een stuk sneller zijn. M1X ook die Q1 2021 komt.

Ik zie overal op Internet dat de die-hard AMD fanboys de M1 chip maar niks vinden.. Dit is een mooie ontwikkeling net zoals de Zen3 en hopelijk komt Intel ook weer terug.
Ik kies zelf de gulden middenweg. Het is geen slechte chip, maar deze blaast me ook niet omver. Als je kijkt naar prestaties en stroomverbruik dan zit Apple ongeveer waar ik ze zou verwachten. Ze kunnen mee met de competitie.

Ik twijfel er ook niet aan dat de volgende generatie van Apple weer sneller zal zijn, maar dat kan je ook zeggen van AMD en Intel. Apple is met deze chip ook niet aan zijn proefstuk toe. Ze bouwen al jaren de A-SoCs voor de iPhone en iPad.
Ze kunnen mee met de competitie?

Komaan zeg. Zie hier bvb een test waar de M1 een 12-core Mac Pro bijhoudt. https://www.macrumors.com...-code-as-fast-as-mac-pro/

En dat met een miniem verbruik.

Dit is gewoon een enorme game changer, dit wordt de norm waar Intel en AMD (en elke Windows laptop) zal mee vergeleken worden.
Volgens mij staan de AMD's toch hoger in de benchmarks hierboven?
En met hoeveel meer verbruik? Het is een 8-core tov een 4+4(tragere) cores. High end tov entry level. En dit is 1 benchmark...
In sustained all-core MT workloads, als je een 4+4 core chip op 3.2Ghz met een 8 core chip met hyper threading op 4.7 GHz vergelijkt. En zelfs dan is het close.

Onthoud ook dat Apple laptops nou niet echt bekend staan om de geweldige koeling, en Apple de koeling ook nog eens vooral afstelt op het beperken van geluidsdruk boven optimale koeling. Ik maak me sterk dat de geteste AMD chips in die MT benchmarks een behoorlijk stuk harder hebben staan blazen dan de geteste 13” instap MBP
Een hoop mensen riepen dat de M1 alles weg zou vagen van x86/x64 en dat AMD en Intel het nakijken zouden hebben. Dat ARM de performance per watt koning is. Nu zien we dat de snelheid en prestaties per watt gewoon significant lager zijn dan een x86/x64 chip.

En nu moeten we wachten op de M2 of andere chip. Natuurlijk zit er nog wel potentie in, maar het verschil gaat helemaal niet zo extreem zijn als ARM/Apple fans willen je doen geloven.
Dan moet je het artikel van Anandtech toch eens beter gaan lezen.
Nee, Anandtech neemt niet mee dat dit een relatief grote chip is(50% groter dan de AMD APU's) en dat deze ook nog op 5nm is gemaakt. (AMD 7nm en Intel 10nm)

Dat neemt niet weg dat de M1 chip een technisch wonder is en dit een fantastische prestatie is van de chip designers van Apple!

Maar Apple had ook een RDNA2 GPU met een Zen3 CPU door AMD in een APU kunnen laten stoppen en ongeveer hetzelfde resultaat kunnen hebben.
Welk proces ze gebruiken om tot een resultaat te komen lijkt me weinig relevant. Als 50% groter zo'n "simpele wijziging is" waarom maakt AMD hem dan niet gewoon 50% groter? (Naast dat het voor de gebruiker nogal weinig uitmaakt of het resultaat van wattage en performance of 5 of 7nm is gemaakt ofzo).

Dit zijn de low-end chips van Apple, ik heb er geen twijfel over dat ze zich prima zullen kunnen meten met de higher-end chips wanneer ze die ook daadwerkelijk gaan shippen, aangezien deze al goed uit de kast komen.
Ik probeer slechts een nuancering toe te voegen, nu ontstaat toch een beetje een beeld dat de Apple/ARM combinatie superieur is en dat Intel en AMD niet in de buurt komen.

Maar dat valt allemaal nog wel mee, het is een fantastische prestatie, maar AMD en Intel hebben dit (nog) binnen handbereik. (Zeker in multi tread doen de 15watt Zen2 het niet slechter)
Apple loopt slechts één node voor op AMD en zelfs dat is relatief want de opvolging van het 7nm proces dat AMD gebruikt is er nog niet.

Dit is geen low-end chip van Apple, deze chip is van desktop klasse. Het is ook niet Apple's eerste probeersel, dit is al de 7e generatie.

Ik hoop dat ze nog met een 65watt variant komen die boven de 4Ghz klokt, maar ik denk dat ze aan de limiet zitten van het gebruikte 5nm proces.

Wellicht kijken we hier naar de Pentium D / Core2Duo chip van Apple en hopelijk kunnen ze dit doorzetten!
Technisch gezien heeft Apple geen low-end producten inderdaad. Maar dit zijn wel de chips voor hun "traagste" computers lineup in deze Apple Silicon generatie.

Ik ben in ieder geval benieuwd naar wat ze in de iMacs, Mac Pro's en higher-end MacBook Pro's zullen gaan stoppen. Niet dat ik denk dat ik direct over ga stappen, m'n huidige (Apple) computer voldoet nog prima. Just, curiosity.
Waar komt low-end telkens vandaan? Onzin, dit is hun vlaggeschip gebruikt in top model iphone en nu ook laptop. De prijs is er ook naar. Rosetta 2 is overigens geen 100% oplossing voor backwards compatibility. FL Studio werkt bijv. niet. En er is altijd een degradatie in performance afhankelijk van hoe en wat.
Deze MacBook Pro 13" laptop is een directe match op de vorige low end 13" MacBook Pro. De MacBook Air is hun budget laptop.
So what gives? Well, these M1 systems are replacing Intel-based Macs that never had more than 16 GB of RAM. This is one reason why Apple no longer sells Intel-based MacBook Airs — the M1 MacBook Air obviates them all — but is continuing to sell Intel-based 13-inch MacBook Pros and Mac Minis. For now. Apple replaced the 2-port Intel 13-inch MacBook Pros with 2-port M1 MacBook Pros; the 4-port higher-performance 13-inch MacBook Pros (that go to 32 GB of RAM) are still for sale because they’re different models. Their time is coming.
https://daringfireball.net/2020/11/the_m1_macs
Dus de allerbeste soc van Apple past ook in de iPhone 12 mini?

Nou, dat is dan helemaal een reden dat and en Intel echt bang moeten worden. Ik zie een amd Renoir niet in een behuizing met dezelfde grootte als een iPhone 12 mini.
Nee, Anandtech neemt niet mee dat dit een relatief grote chip is(50% groter dan de AMD APU's) en dat deze ook nog op 5nm is gemaakt.
Anandtech kijkt alleen naat de CPU
Ze nemen niet mee dat de M1 veel meer bevat dan een AMD APU!

De M1 bevat net als de AMD APU:
Memory controller
GPU
Cache
HDMI (wordt alleen gebruikt op de Mac-mini)
PCIe gen4
Diverse SPI interfaces voor audio en de webcam

En als extra:
Dedicated h264 en h265 encoders/decoders
Wifi en Bluetooth controllers (excl het RF gedeelte)
audio-DSP
Thunderbold4 controller
Secure enclave
Neural engine (al goed voor >10% van de die)

En waarschijnlijk ook de Ethernet controller, maar dat moet nog blijken uit een teardown
Heeft de M1 niet ook het geheugen ingebakken? Of valt dit buiten de 10 (of 15) watt berekening?
Dat energieverbruik zit er bij gerekend, de Anandtech meting gebruikt idle verbruik van de hele machine vs benchmark verbruik.
Inderdaad er zit ook 8 of 16GB RAM in de package. Stroomverbruik is dus inclusief RAM.

[Reactie gewijzigd door sudo op 18 november 2020 10:08]

Decoders en encoders zitten ook in de AMD APU.
Audio DSP ook.
USB 3.2 + PCI-e ook. (Niet exact tunderbolt, maar dat is meer een licentie verhaal)
Secure enclave ook (PSP)
Neural engine niet, maar de CU's van de GPU zijn multipurpose dus ik weet ook niet of ze dat nodig hebben.
Dus alleen Wifi en Bluetooth controllers niet maar dat zal het verschil niet maken

Dat maakt ook allemaal niet uit, het is gewoon een keuze om voor een relatief grotere chip te gaan (het is nog steeds beschaaft hoor, geen Nvidia praktijken) als Apple dat winstgevend kan maken is het de beste keuze. Ik denk dat Apple zich dit kan veroorloven omdat de OEM prijs voor die 15watt Intel chips ergens tegen de 300 dollar lag.

Maar als je dat niet in je achterhoofd houdt bij alle vergelijkingen, dan lijkt het verschil tussen ARM en x86 ineens heel groot en denk je dat x86 achterhaald is, maar als je dit meerekend dan hebben we het meer over bijgehaalt dan achterhaald.
Wat maakt het uit dat de chip groter is? En alles is geïntegreerd, dus dat maakt hem ook groter. Gaat uiteindelijk om de performance en die is super. Dat gezeur ja maar AMD zit niet op 5NM, so what? Als AMD op 5NM zit, zit Apple alweer op een verbeterde versie daarvan. Same as met Intel, je pakt wat kan pakken.

AMD Zen3 & RNDA2 is supermooi, maar als je zelf iets kan maken wat beter is waarom zou je dat niet doen? Ik hoop ook echt dat AMD nog meer van zulke stappen gaat maken, betere concurrentie dan krijgen wij alleen maar mooiere chips.
Het maakt niet persee uit dat de chip groter is, maar het geeft wel aan dat ze een klein beetje een brute-force aanpak lijken te hebben, AMD's 4800u is ook een volledige SoC, dus die zou niet veel minder onderdelen moeten hebben. (Hoewel de GPU van Apple uitmuntend is, dus wellicht zit daar alle ruimte in.)

AMD zit nog niet op 5nm 'HP' omdat dat er nog niet is, Apple gebruikt TSMC 5nm LP voor mobile chips, die zijn zuiniger, maar kloken minder ver. Daarom zien we geen varianten met een hoger TDP omdat de chip waarschijnlijk gewoon niet verder schaalt op 5nm LP.

Alleen die twee gegevens al (50% meer transitors en 5nm LP) geven aan dat ze iets echt heel goed hebben gedaan, maar niet dat ze buiten berijk liggen van de competitie, dat lijkt her en der wel gesugereerd te worden, maar effectief hebben ze een Zen2 multicore en Zen3 singlecore performance in een TDP parket wat aardig dicht bij elkaar komt. Nogmaals, extreem knap en ik ben heel enthousiast, maar het is nog geen homerun. Ze moeten echt doorpakken nu.

AMD Zen3 en RDNA2 is goedkoper en x86. AMD was gewoon te laat met Zen, want Apple was bereid om 20% prestaties in te leveren om van Intel af te komen. (in de AMD Kaveri periode / 2014)
Maar alles aan dit project is duurder en risicovoller dan het gewoon uitbesteden. De voordelen zijn er natuurlijk ook voor Apple, als alles ARM is kunnen ze straks eindelijk hetzelde OS draaien op hun hele lineup.

Apple en AMD moeten doorpakken die twee trekken nu de ARM en x86 kar. Intel en Nvidia (neemt ARM over) moeten nu even gaan nadenken hoe ze hierin mee kunnen komen.
Het is maar wat je een volledige SoC noemt, de Apple M1 bevat ook een Neural Engine.

[Reactie gewijzigd door sudo op 18 november 2020 10:08]

Ja, precies dit.
Apple heeft de kennis om co processoren te maken en in hun eigen OS’ en te integreren en te customizen. Ze hebben touch-Id co processoren ontwikkeld,chips ontwikkeld voor Bluetooth in hun airpods, socs voor Apple watches. T1, T2 security chips, etc.

Apple zal hierdoor het vermogen hebben om dedicated co processoren in hun Macs te stoppen en gelijk ook te integreren in hun os, en door hun community zullen die features ook vrij snel in apps worden toegepast.

Dit is pas het begin.
Dezelfde performance misschien, maar dan had je niet dezelfde batterijduur en had deze actief gekoeld moeten worden. Als je de reviews leest is deze Macbook Air een enorm goede laptop geworden, die beter presteert dan vergelijkbare laptops en zich zelfs met grotere machines kan meten.
Welke hopen mensen waren dat dan? Ik heb voornamelijk hopen (anti-Apple) mensen horen roepen dat Apple geen echte cijfers en benchmarks liet zien en dat het allemaal tegen zou vallen. Als je de reviews leest / kijkt zijn ze uit wel erg enthousiast over de M1.
Ik denk ook dat je dit meer moet zien als een verbetering tov de vorige chips die Apple gebruikt, en dan klopt het plaatje toch aardig? Wanneer zou je dan wel tevreden zijn? Ik zie toch echt een hele hoop Intel chips verslagen worden?
Sorry dat ik het zeg, maar onder welke steen heb jij geslapen de afgelopen 20 jaar? Het was altijd Intel en AMD. Nu krijgen we een nieuwe speler die makkelijk met deze jongens kan mee draaien en dat is niet spectaculair?
Je hoeft geen Apple fanboy te zijn om te snappen dat dit deuren open trapt. Voor je het weet zullen Qualcomm etc. ook chips leveren (en hopelijk betere windows ondersteuning voor ARM). Meer concurrentie is voor iedereen beter.

[Reactie gewijzigd door ealshorachi op 17 november 2020 22:22]

Uhm, 15 jaar terug maakt Apple nog gewoon zijn eigen chips voor hun computers hoor. En voor telefoons zijn ze dat ook gewoon blijven doen.

Dus het is echt niet een nieuwe speler die uit het niets komt.
Oh ja, ik dacht dat Apple destijds Motorola processoren gebruikte voor zijn Mac line-up en vervolgens overstapte naar Intel processoren.
Ik wist niet dat ze hun eigen chips 15 jaar geleden of daarvoor of daarna al gebruikten in Macs. Maar ik kan het uiteraard verkeerd hebben. Apple begon volgens mij pas met zijn iPhone 4(s?) met het ontwerpen van zijn eigen socs.
Hou er ook rekening mee dat dit op 5nm geproduceerd is, waar Zen3 nog op 7nm wordt geproduceerd. Dus als AMD overstapt op 5nm zal het verbruik nog verder omlaag gaan.
Als, als.. Ze kunnen dat nu nog niet, dus dat is geen argument.

Dan kun je daar ook tegenover zetten dat dit nog maar de ‘mobiele’ chip van Apple is en ze nog met de middelklasse en topmodellen moeten komen. Die zullen ongetwijfeld hier nog een schepje bovenop doen.
Als je de review van The Verge leest dan is het duidelijk dat deze CPU architectuur op meerdere fronten leid tot een veel betere laptop.
  • Prestaties zijn beter dan andere ultrabooks
  • Fantastische batterijduur
  • Passieve koeling die niet te heet word
Die Intel is dan ook wel zwaar aan het onder presteren. Want Ook beide AMD CPU's halen meer dan de dubbele performance van de Intel in multi threaded en zijn nog een stuk sneller dan de M1 native.

Dus ja, zeker indrukwekkend maar de titel van het artikel is een beetje clickbait.
Klopt, maar Apple heeft natuurlijk alleen maar Intel cpu's gebruikt in de macs, dus die vergelijking is (voor apple gebruikers) waardevoller
Maar single-threaded gaat ie nek-aan-nek met een 5950X. Dat is een desktop processor van €900. In een passief-gekoelde computer zo groot als een broodtrommel!

[Reactie gewijzigd door Wolfos op 18 november 2020 09:05]

nek-aan-nek zou ik het nog niet noemen. Dat gaat ie met de Intel.

Wat mij vooral op valt is dat ze vergelijken met een extreem dure AMD terwijl je beter zou kunnen vergelijken met een vergelijkbaarder model desktop CPU. Die presteren namelijk single core vaak beter dan de hoge core count CPU's van AMD. De 5950X is natuurlijk niet geoptimaliseerd voor single core performance. Kies je een 3700x of 3800x dan zal je waarschijnlijk zien dat het single thread verschil groter is en het prijsverschil een stuk kleiner.

Nog steeds leveren ze echt wel een mooie prestatie maar ze kiezen hun benchmarks wel zo dat het lijkt alsof ze veel beter zijn dan de rest. Als je beter kijkt vergelijken ze bijvoorbeeld met een jaren oude 4 core intel CPU. En die halen ze op single thread nog niet in.

Ik vind het overigens al een knappe prestatie dat ze gelijkwaardig zijn aan AMD/Intel wat blijkt uit de benchmarks. Dat is al een mooie stap en geeft hoop voor de toekomst van ARM in laptops.
Die AMD is waarschijnlijk de beste CPU die ze momenteel hebben, en die presteert alleen beter in Cinebench. Bij Geekbench (single-thread) en Speedometer gaat de M1 overal overheen.
Qua multi threading is het niet zo gek dat een 8-thread CPU minder presteert dan processors met het dubbele, of zelfs vier keer zoveel threads.

Het belooft in ieder geval veel goeds voor deze architectuur, want single-thread performance is iets waar bij x86 nauwelijks nog verbetering in zat. Als dit de low-end is, in de Macbook Airs en Mac Mini's, dan ben ik benieuwd hoe deze architectuur het doet met bijvoorbeeld 32 cores in een Mac Pro.

[Reactie gewijzigd door Wolfos op 18 november 2020 09:37]

Interessante observatie van Andrei Frumusanu (schrijver van het Anandtech artikel) op twitter:
https://twitter.com/andreif7/status/1328777333512278020

Quote:
21W in SPEC 511.povray MT
15W in R23 MT

5.4W in SPEC 511.povray ST
3.8W in R23 ST (!!!!!)

4.8W to 5.4W in 502.gcc ST

I had no idea Cinebench had such a low core utilisation. That's pretty absurd. That's a huge red flag there.
Het lijkt er op dat Cinebench dus nog een optimalisatie kan doen voor de M1, ik verwacht dat de cijfers dan nog wel beter worden.
De 5950x is waarschijnlijk de beste CPU die ze hebben als het op multi thread aankomt. Ik vraag me serieus af of het ook de beste single thread performance heeft.

Er zijn overigens verschillende benchmarks op single thread te vinden. In sommigen is de M1 verreweg sde snelste en in anderen blijft hij heel ver achter.

single thread performance loopt overigens ook in de x86 systemen nog elke jaar op hoor. Dat staat zeker niet stil. Denk bijvoorbeeld aan hoe de eerste generatie Ryzen ver achter liep op Intel single thread maar ze intussen voor lopen.

De vraag is ook of dit echt low-end is van Apple. Ik kan mij namelijk niet voorstellen dat ze die als eerste uit zouden brengen en dus minder positieve reacties krijgen als ze ook een 32 core variant zouden hebben die alle concurentie zo weg blaast. Ja, er zullen echt wel snellere versies komen maar de verschillen zullen niet zo extreem groot zijn. Bedenk ook dat die 32 core variant wel degelijk moet gaan concureren met bijvoorbeeld die AMD 5950X.

Wat ik denk is dat ze een gebied hebben gekozen waarin ze goed voor de dag komen (low power laptop CPU's) ten opzichte van de concurentie om als eerste mee te komen.
Als ze dezelfde performance voor elkaar krijgen, maar dan de helft zoveel stroom verbruiken dan zou dat al een enorme prestatie zijn.
Dat zou mooi zijn ja, helaas zie ik dat in de huidige benchmarks nog niet echt.

Maar alsnog wel een knappe prestatie van apple hier.
Euhm een intel quadcore van 3 generaties terug welteverstaan
Hierop inhakend. Dit is het model waartegen ze testen:

Apple MacBook Pro 15 2017 (2.8 GHz, 555)
https://www.notebookcheck...ptop-Review.230096.0.html

Dit is zorgzaam voor alle single-threaded x86 taken die mensen hebben. Als je een software ontwikkelaar bent die gebruik maakt van x86 technieken (Docker, JVM, en dergelijke) dan is er een goede kans dat je met de M1 chip slechtere resultaten haalt dan met de MBP15 uit 2017, omdat niet alles zo lekker multi-core schaalt.

[Reactie gewijzigd door Eonfge op 17 november 2020 22:09]

Benchmarks in emulatie-modus vind ik een beetje tricky. Die vertaler kan natuurlijk allerlei optimalisaties gaan uitvoeren die de benchmark software nou expres niet heeft gedaan.
Het begin van het einde wat betreft het x86 tijdperk?
Ik ben benieuwd hoe dit zich gaat ontwikkelen. Dit kan nog eens heel positief uitpakken voor Apple als ze het goed doen.

Heb al wat video's gezien, en het ziet er naar uit dat er al flink wat werk is verricht qua ondersteuning in het OS. Nu de rest van de applicaties nog.
Ook op server gebied zie ik steeds meer ARM. mogelijk is dit wel de toekomst, en geeft Apple de laatste zet die nodig is op consumenten vlak.
Mwoah, er moet nogal wat gebeuren. Het lijkt allemaal impressive van Apple, en dat is het in zekere zin ook wel. Echter...

De M1 heeft 16 miljard transistoren tegenover slechts 9,8 miljard voor AMD Renoir. Die transistoren moeten ook wel verschil maken. Daarnaast beeft de M1 ook meer cache dan AMD, wat vaak ook behoorlijk helpt. Verder zit Apple al op 5nm.

Deze M1 is hier neergezet tegen de oude Zen2 kern op een ouder 7nm procede. Stel je eens voor, een Zen3 5800u zou met de 20% IPC verbetering gewoon ST net zo snel zijn en MT sneller dan de M1. Nog steeds met significant minder transistoren en nog steeds op 7nm.

Dus nee, x86 is nog lang niet weg. Alleen al om alle legacy. Alle claims van kant ARM ten spijt weet de M1 eigenlijk maar heel matig gebruik te maken van de verbeteringen die met ARM mogelijk zouden moeten zijn. De grotere cache, maar ook geschatte 3x zo grote reorder buffer en 4x zo grote low level instructie en data caches zetten vrij weinig zoden aan de dijk. Must read: https://www.anandtech.com...ilicon-m1-a14-deep-dive/2

Zet daar tegenover de kennis die AMD in huis heeft, dan kan men een prima APU neerzetten binnen hetzelfde transistor budget. Het zal helaas nog wel duren voor AMD met een Zen3+RDNA2 APU komt. Laat staan wat men met 5nm zou kunnen doen, eventueel met extra Infinity Cache. 8 Zen3/4 cores, 12 RDNA2 CU's, 16MB infinity cache als dat met de CPU gedeeld kan worden (groot vraagteken)? Lijkt me niet direct heel onredelijk binnen hetzelfde transistorbudget van ca 16 miljard.

Let wel, AMD loopt met Renoir op CPU gebied vergelijkbaar en op GPU gebied hoogstwaarschijnlijk behoorlijk achter. Maar gezien het feit dat Apple ca 60% meer transistoren gebruikt, zie ik het eigenlijk heel anders: AMD heeft een zeer efficient CPU design, zeker met Zen3!

De Apple M1 is zeker een mooie en goed presterende chip, maar gezien de transistorcount absoluut niet fenomenaal.

Edit: Renoir is ook een SoC met CPU+GPU+I/O. De M1 heeft als extra dus de Neural Cores en Security Enclave. Niet het geheugen, dat is on package, niet on die en tellen niet mee met de transistoren. Net als bij de desktop Ryzen met chiplets. Renoir heeft geen chiplets en is met 15W redelijk vergelijkbaar. Ik verwacht niet, gezien de afbeelding bij Anandtech van de X14(!) dat de Neural Cores en Security Enclave goed zijn voor de 6 miljard extra transistoren. Apple zal meer focus op het grafische deel en cache hebben gelegd, waar Renoir het moet afleggen. Puur kijkende naar de CPU en de 20% IPC boost van Zen3 schat ik zo in dat x86 een betere prestatie/transistor neerzet, en afhankelijk van het procede ook wel per watt. Dat is niet vreemd, want deze Zen cores zitten ook in servers en moeten ook daar presteren!

Begrijp me niet verkeerd, ik vind de M1 een zeer interessante chip, ook gedreven vanuit mijn achtergrond en studie waar ik heel wat van computerarchitecturen heb meegekregen (tot zelfs zelf designen en routing tools gebruiken). Maar ik breng ook graag wat nuance in ten opzichte van de grote claims van Apple. We weten nog heel veel niet, dan zou Apple meer info moeten verschaffen en een die shot. Ook moeten we nog meer benchmarks afwachten. Met wat ik tot nu toe heb gezien is de M1 een prima chip, maar niet fenomenaal en al helemaal niet de eerste spijker in de kist voor x86. Anderzijds wil ik met deze post ook laten zien waar kansen voor AMD liggen, want Renoir is al ca 1 jaar oud.

[Reactie gewijzigd door GENETX op 17 november 2020 19:33]

Je reactie is feitelijk gebasseerd op de 16 miljard transistoren in de M1, maar, realiseer je je wel dat de M1 niet alleen een CPU en GPU is, maar een complete SoC met 8/16GB RAM, de RAM controllers, voltage regulators etc.?
Volgens mij ben je appels met peren aan het vergelijken.
Dat dacht ik dus ook, klinkt als mijn collega die een nieuw product afkraakt met argumenten die nergens op slaan om zijn eigen geintroduceerde product te beschermen. Hoewel het technisch onderlegd is slaan de argumenten die gebruikt worden nergens op.

Wie houd AMD en/of Intel tegen om ook 16 miljard transistoren in hun CPU te gebruiken of meer cache toe te voegen? Niemand, dat Apple daar snelheid vandaan haalt is toch prima? Wie maakt het nou uit op welke manier dit gebeurt is, feit is dat de prestaties beter zijn dan de gebruikte Intel CPU's. Zelfs x86 emulatie met Rosetta 2 is de performance gelijk of beter geworden.

Zelf ben ik gewoon een doorgewinterde Windows gebruiker maar ik neem toch mijn petje af voor wat Apple hier nu neerzet.

Ik zie dit als een wake up call voor Microsoft, Microsoft is hard aan de weg aan het timmeren met het Azure platform maar Windows 10 lijkt erg op een laag pitje te staan kijk maar naar de laatste 3 Windows 10 updates.

[Reactie gewijzigd door Zackito op 17 november 2020 18:57]

Wie houd AMD en/of Intel tegen om ook 16 miljard transistoren in hun CPU te gebruiken of meer cache toe te voegen? Niemand, dat Apple daar snelheid vandaan haalt is toch prima? Wie maakt het nou uit op welke manier dit gebeurt is, feit is dat de prestaties beter zijn dan de gebruikte Intel CPU's. Zelfs x86 emulatie met Rosetta 2 is de performance gelijk of beter geworden.
Het is belangrijk om te realiseren dat hier gereageerd wordt in een thread die begint met "is dit het einde van het x86-tijdperk?".

Apple heeft enorm goed werk geleverd en een procesvoordeel, en haalt veel prestaties uit die 16 miljard transistors. Maar wat ze niet hebben gedaan is een fundamenteel voordeel van ARM tov x86 aangetoond. Het fundamentele voordeel dat je hier ziet is vooral de hoeveelheid geld die Apple kan investeren in het ontwerp en fabricagevoordelen van deze chip.

Zeker goede redenen om deze chip te verkiezen boven de huidige concurrentie, maar te vroeg om de conclusie te trekken dat dit "het einde is van x86". Dat zou je alleen mogen zeggen als Apple dit gedaan zou hebben met een aan Renoir vergelijkbaar aantal transistors.

Met name AMD is vanaf volgend jaar ook vrij om 5nm apu's te gaan maken, en zal dan waarschijnlijk langszij komen. Het is overigens wel zo dat ze eerst nog een serie 7nm apu's gaan maken, dus dat gaat even duren.

[Intel gaat dit sowieso niet lukken, tenzij Intel plotseling hun eigen 7nm proces (~= TSMC 5nm naar verluidt) uit een hoge hoed tovert of chips bij TSMC of Samsung gaat laten maken...]
Dit is absoluut geen wake up call voor Microsoft, maar voor Intel, AMD en ARM processor makers. Microsoft gaat zelf geen chips ontwerpen.
En de ARM code van Windows is al redelijk geoptimaliseerd. Alleen mist Microsoft een processor met de juiste prestaties.
Agree. Microsoft blijft in eerste instantie een software-leverancier. Of ze verdienen aan een pc of mac, dat zal ze weinig interesseren. Of Windows ooit op Apple's SoC zal draaien valt te bezien, daar is akkoord (op technisch vlak) van Apple voor nodig om dit te realiseren....
Als je goed oplet is Microsoft steeds meer een platform leverancier en zijn ze zichzelf steeds onafhankelijker van Windows aan het maken. Windows hoeft er niet op te draaien zolang o.a. office maar werkt :p
Nope. Kijk even door de Apple marketing polish heen. De geheugen chips zijn losse dies en niet meegeteld (16GB = 128Gbit = 128 * 10^9 capacitors). Die foto van de M1 + DDR4 chips is waarschijnlijk niet eens van een apart substraat zoals je een AMD of Intel CPU zou aantreffen, maar direct op de PCB gebakken. Die foto lijkt mij meer op een foto-uitsnede van de PCB.

Dat Apple het in diagrammen anders weergeeft en over "unified memory" praat, wilt enkel maar zeggen dat de SoC gedeeld CPU/GPU werkgeheugen heeft. Lees anders eens het artikel van Anandtech, dan kan je de chip layout vergelijken met Renior. Renior heeft ook een GPU, geheugencontroller on-chip, DC/DC aansturing on-chip, etc.
Het RAM geheugen zit zeer zeker niet aan boord, wel de controllers, maar dat is iets wat al heel wat jaren het geval is bij de concurentie. Geheugen neemt vrij veel plaats in. Kijk even in het Anandtech artikel, daar hebben ze een foto van de die staan. Links zie je de 4 performante kernen samen met 12MB aan cache geheugen. Al die mooie blokjes die je recht onder de tekst ziet vormen samen die 12MB cache. Zie jij nog ergens zoiets in de ordegrootte van 8 of 16GB?
Klopt, het 16GB geheugen zit niet op de die, maar wel in hetzelfde package. Maar heeft de die 16 mijard transistoren of de gehele M1 chip package?
Package kan simpelweg niet. 16GByte geheugen is 128Gbit ~= 137 miljard transistoren (give or take een paar miljoen).
De 16 GB RAM zit bij de M1 toch echt in hetzelfde package als de CPU en GPU zelf; als twee aparte chips naast de CPU-chip.

[Reactie gewijzigd door jj71 op 17 november 2020 19:34]

Prima, maar daar ging het niet om. Het ging om de vraag of de Die, of de Package 16Mj transistoren had. En ik stel dat de package niet kan door de kleine hoeveelheid van 16Mj tov. benodigde voor 16GByte aan DRAM.

[Reactie gewijzigd door Sloerie op 17 november 2020 19:35]

Mee eens, tevens kan de M1 chip passief gekoeld worden. De voltages zijn blijkbaar zo laag, waardoor er geen grote koelsystemen nodig zijn. Als Apple meer voltage door de chips zou vloeien, dan zou de prestaties nog hoger zijn. Echt indrukwekkend dat Apple met relatief weinig voltage/watt dit voor elkaar kan krijgen. Er zijn maar weinig/geen X86 processoren dat passief gekoeld kunnen worden. Als dat wel kan, dan zit er gigantische koelblok op aangesloten. Tevens het stroomverbruik is bij X86 stuk hoger.

[Reactie gewijzigd door Xieoxer op 17 november 2020 19:19]

De Renoir is net als de M1 een 15W TDP chip.De MB Air kan het ook niet eindeloos aan om op max te draaien:
Bij een duurtest van 30 minuten loopt het verschil op tot zo'n 44 procent.
Daarbij, is de MBA Unibody in zijn geheel niet juist een enorm (elegant) koelblok?
Tja, dat is niet Apple's grootste verdienste, de schaalverkleining kwam door het EUV proces van ASML.
Daardoor paste er zoveel transistors op een chip die niet al te heet werd. En met dank aan de chipbakkers in Taiwan. Ere wie ere toekomt.
Waar. Maar Intel / AMD zijn blijkbaar niet op het idee gekomen om een zuinige snelle chip te bakken, Apple wel. De bakkerij bestaat, de technologie bestaat, maar iemand moet op het idee komen.
De AMD/Intel SoCs hebben ook gewoon voltage regulators, usb cores, sata cores etc. Bovendien zit de ram niet in de SoC maar gaat gewoon via een memory bus (weet niet welke). Deze zitten wel op dezelfde Package, maar niet op dezelfde chip.

edit: voor de duidelijkheid: een 8 gbit dram chip heeft minimaal 8 miljard transistoren (1T ontwerp). Dus 16 miljard transistoren zou dan bij lange na niet genoeg zijn.

[Reactie gewijzigd door Sloerie op 17 november 2020 18:57]

Renoir is toch een APU, dus CPU+GPU? En integreert AMD niet ook altijd memory controllers e.d. op de CPU? Of is dat bij Renoir anders?

En de RAM zit volgens mij niet inbegrepen in de M1 transistor count maar dat weet ik niet zeker.

Verder is het uiteraard appels met peren vergelijken.
Waarom zou men dit dan juist moeten aanmoedigen als het een alles in 1 package is?
Het lijkt mij los van de snellere prestaties weer de zoveelste beperking die gebruikers opgelegd wordt...

Ik wil zelf geheugen kunnen uitbreiden naar de hoeveelheid die ik wil, een processor kunnen wisselen.
Een hdd vervangen etc.. We gaan steeds meer richting naar de alles in 1 oplossing die alleen maar veel te veel geld kost en waar je uiteindelijk niks mee kan qua uitbreiding en waarbij reparatie bijna onmogelijk wordt gemaakt.

Ik wil gewoon MacOS kunnen gebruiken met uitwisselbare hardware, waar ik gemakkelijk bij kan komen en vervangen.

@breakers

Het probleem is dat de markt voor mij gaat bepalen wat er in het systeem moet komen en ik daarna niet meer kan veranderen.
Ik wil ook gewoon een macbook, waar ik zelf 2 NVME schijven in kan zetten en het geheugen kan uitbreiden / verwisselen. Als de processor stuk is de processor kan verwisselen en niet gelijk het hele mainboard moet weg mikken.

We gaan steeds meer naar een gooi het maar weg / koop een nieuwe maatschappij.
Bij modulaire opbouw kun je onderdelen die stuk zijn gemakkelijk vervangen en gaan we geen dingen weggooien die nog goed zijn.

Ik erger me al jaren aan fabrikanten die b.v. het geheugen vast solderen puur om 30 cent te besparen die een consument zonder moeite meer wil betalen. Het gaat nergens meer over.

Helemaal met de huidige milieustrijd zouden we dit soort dingen juist moeten aanpakken en duurzamer met onze producten om moeten gaan.

[Reactie gewijzigd door Passkes op 18 november 2020 08:22]

Waarom zou het niet allebei naast elkaar kunnen bestaan?

Mac Pro-achtige kasten voor de fans van verwisselbare onderdelen, laptops waar je weinig aan kunt sleutelen voor de liefhebbers van ‘zo plat en compact mogelijk’ en daartussen apparaten zoals de Mac Mini en iMac.

Want laten we realistisch zijn; het gros van de mensen schroeft zijn computer nooit open voor bijvoorbeeld upgrades ook niet als dat prima kan. Dat hier op t.net veel computerfanaten zitten die dat wél interesseert, is heel leuk en gezellig :) maar van zo’n niche moeten computerfabrikanten het niet hebben.
Duurzaam is leuk. Maar dure metalen blijven nodig om accu's te maken. Li-on accu's enzo. Wil jer state of the art spul dan red je het niet met cheapo materials. Nog even en er komt concurrentie voor de Apple processor/sock. Mijn volgende koop is ook iets wat op 5 nanometer gebakken is, zeker weten!
Zover ik mij nu kan herinneren is het enigste wat de M1 meer heeft een ISP, en een neural core wat enige hoeveelheid transistors inneemt. Laptop processoren zijn hoe dan ook al een lange tijd socs.

Trouwens het ram bevind zich op het package wat nou ook weer niet heel speciaal is.
Laptop CPUs zijn zeker geen socs. Ze hebben nogsteeds een pch controller voor een hoop randapparatuur, geheugen zit nogsteeds los etc.
Nogmaals, die PCH controller zit er niet voor niets, jij refereerd naar Renoir wat ech tletterlijk de enige soc achtige CPU+GPU combi is waarbij net wat meer op de chip zit. Voor al het andere in de hedendaagse laptop wereld is dat niet het geval. Er zit toch ngo echt een chipset op moderne INtel en AMD laptops die taken afhandelen.
Je doet de M1 wel flink te kort IMO.

De stappen in single threaded performance en performance per watt die de M1 laat zien komen maar zeer zelden (als in eens in een decennium of minder) voor. Doorgaans gaat de transistorcount omhoog door het toevoegen van extra cores of grotere caches wat vooral de multi-threaded performance ten goede komt.

AnandTech gaat in dit artikel dieper in op de architectuur van de M1. Apple heeft basicly alles uit de kast getrokken om een zo hoog mogelijke single threaded performance te halen zonder daarbij een lomp hoog energieverbruik nodig te hebben. Dat een entry level 10 watt chip nu gelijk presteert aan een splinternieuwe 105 watt AMD 5950x in single threaded benchmarks en gelijk aan een 45 watt 4900HS in multi-threaded prestaties kun je 'prima' vinden, ik vind dat wel indrukwekkend. Normaals, dit is slechts een entry level SoC met maar vier high performance cores en regulier lpddr4x geheugen. Als Apple losgaat door het aantal cores op te schalen en sneller hbm2-geheugen te gebruiken in een package dat meer energie mag verbruiken en een betere koeling heeft zijn er nog veel betere multi-core cpu en gpu prestaties te verwachten.

De cpu-prestaties zijn nog maar de helft van het verhaal. In software die zowel de cpu, gpu als machine learning engines kan benutten zijn de prestaties fenomenaal. Het feit dat Apple zowel de hardware als software ontwikkelt maakt een veel nauwere integratie mogelijk. Ontwikkelaars die ontwikkelen voor macOS en iOS/iPadOS weten welke hardware ze kunnen verwachten en hebben de beschikking over makkelijke api's om de gpu en de machine learning en video accelerators te benutten. Die mate van integratie is veel moeilijker in een wereld waarin het besturingsysteem, cpu's en gpu's door verschillende fabrikanten wordt ontwikkeld en alles flexibel moet zijn.
De stappen in single threaded performance en performance per watt die de M1 laat zien komen maar zeer zelden (als in eens in een decennium of minder) voor.
Zo werd ook op de 4800U gereageerd. 8 cores in 15W? En presteert gelijk aan een Intel i7 9700K?! Wauws!
Dat een entry level 10 watt chip nu gelijk presteert aan een splinternieuwe 105 watt AMD 5950x in single threaded benchmarks en gelijk aan een 45 watt 4900HS in multi-threaded prestaties kun je 'prima' vinden, ik vind dat wel indrukwekkend
Actief verbruik M1: https://www.anandtech.com.../mac-mini-apple-m1-tested
ST 6.3W, MT 22.3W
Dat is toch al bijna de helft van een 4900HS, en duidelijk meer dan een 4800U. Single thread vind ik ook het meest indrukwekkend inderdaad, maar de stelling "The fastest CPU in the world" hebben ze niet waar gemaakt. De desktop AMD's zijn ST sneller. De AMD 4800U of 4900HS gaan in MT de M1 voorbij.
Normaals, dit is slechts een entry level SoC met maar vier high performance cores en regulier lpddr4x geheugen.
Apple en entry level in 1 zin is apart om te horen. Een SoC voor een 1100 euro kostende laptop die tegenover een Ryzen 7 4800U gepositioneerd is, is alles behalve entry level. LPDDR4X is ook niet 'regulier' geheugen, als zoiets bestaat.
Als Apple losgaat door het aantal cores op te schalen en sneller hbm2-geheugen te gebruiken in een package dat meer energie mag verbruiken en een betere koeling heeft zijn er nog veel betere multi-core cpu en gpu prestaties te verwachten.
HBM2 is toch voor GPU's? Het aantal CPU cores is duidelijk ingericht voor een aantal energie efficientie prestaties (big-little design) mbt accu duur. Maar als je puur wilt stampen in multi-core, dan wil je gewoon zoveel mogelijk grote cores draaien. De M1 heeft de 4 little ook nodig voor zijn MT, aangezien de R23 ST benchmark scores meer dan 4x lager zijn dan MT. Ik concludeer daarmee dat de M1 chip ideaal is voor mobiele devices (zuinig), maar niet absolute grote power house.

Mbt GPU kan ik weinig vertellen. Afgezien van performance, is een deel ook kwestie van driver support. AMD kan daar nog wat inhaalslagen maken. Intel weet ik niet zo goed mbt compute performance.

Gegeven power budget zeker een mooie chip. Hoge ST is meer waard dan iets snellere MT (ST wacht je meer op in-person dan MT, daar heeft Apple slim op ingezet). Ik zou hem daarmee inschalen op gelijke (of iets hoger eigenlijk) hoogte als de 4800U, bijvoorbeeld. Maar het is niet een dubbel en dik overheen gegaan, ondanks 60% meer transistor budget, 5nm en ARM vs x86. Met 3 van zulke voordelen zou je meer verwachten IMO.

[Reactie gewijzigd door Hans1990 op 17 november 2020 22:01]

Dat is toch al bijna de helft van een 4900HS, en duidelijk meer dan een 4800U.

Verkeerde vergelijking, de cijfers van de M1 zijn voor de totale systeembelasting minus idle verbruik. Dus bvb ook extra verliesstroom van voeding, verbruik van de fans en vooral: ook inclusief verbruik van de RAM! Dat laatste is met name verte van verwaarloosbaar. Het verbruik van de SoC zelf zou best wel eens de helft kunnen bedragen van het gemeten systeemverbruik.

[Reactie gewijzigd door Myaimistrue op 17 november 2020 23:32]

Ik heb de gemiddelde benchmark gepakt van Anandtech. De memory-heavy benchmark is 8.8W zuiniger dan de compute-heavy benchmark.

Ik denk dat de helft zeer optimistisch is. Een matige DC/DC regelaar zal vast wel 85% efficient zijn (dat is non-synchronous buck regulator territory). Een kleine ventilator zal 1W verbruiken. Haal die verliezen er van af, en je kijkt nog steeds naar 18W CPU verbruik.

edit:
Door het verschil te meten heb je geen last meer van statisch verbruik van onderdelen. Het enige wat je dan meet is enkele verliezen proportioneel aan de stroom (die ik even voor het gemak pessismistisch inschat op 85%, bijvoorbeeld), en de componenten zelf. Het is inderdaad niet 100% juist, maar het kan wel vrij precies zijn.


edit:
Tweede edit: dan is die schatting van 18W toch nog niet zo gek. Vooral als je die vergelijkt met het opgegeven 10W TDP blijkt maar weer dat TDP eigenlijk weinig zegt over het opgenomen vermogen onder load

[Reactie gewijzigd door Hans1990 op 19 november 2020 18:25]

Er gaat gewoon 220V AC in de Mac Mini...

Het lijkt me zeer onnauwkeurig om het verbruik van een SoC te meten via de 220V AC input.

[Reactie gewijzigd door Myaimistrue op 18 november 2020 00:11]

Je moet er ook nog het verbuik van het RAM geheugen en de SSD aftrekken. 16GB RAM zit al boven de 5W dacht ik.
Edit: intussen is het artikel van Anandtech aangepast met het echte package stroomverbruik. Dit toont dat de M1 in een Apple mini netjes binnen de 15Watt blijft voor CPU+GPU. https://www.anandtech.com...ac-mini-apple-m1-tested/3
Ik ben met name benieuwd of we de CPU kernen nog kunnen isoleren. Het wordt nu wel een ratjetoe:
- Wel/niet SMT?
- big.LITTLE versus normale cores?

Intel gaat ook al richting big.LITTLE denken nu, AMD op dit moment juist niet. Dit is ook uitgesplitst naar doel van de CPU. Ik ben wel benieuwd hoe de verschillende architecturen, los van de instructieset zich ontwikkelen en wat het meest efficiënt is.

Ik ben ook benieuwd welke architectuur overall de beste performance/watt kan geven, of wellicht compact in het aantal transistoren kan blijven.

Wel wil ik de kanttekening maken dat Apple inderdaad mooi op ST heeft gefocussed en daar ook zeker goed in geslaagd is. Ik ben het daar ook wel met jou eens Femme. Ik ben wel benieuwd hoeveel transistoren ze hebben gespendeerd om dat te bereiken. Zo ver zit AMD op ST er ook niet achter. Als je een Zen3 core pakt, en dus ~20% IPC verbetering binnen dezelfde TDP tov de 4800U door laat schalen, dan is de M1 op ST wel wat sneller, maar met ~1440 zit AMD met Zen3 er niet ver vanaf.
Waarom produceren AMD en Intel dan geen 16M cpus op 5nm als het allemaal zo eenvoudig is?

Apple heeft dit ruim geleden aangekondigd en x86 loopt nu in een vergelijkbare categorie achter.

Low end M1 kan zich meten met high end x86 op dit moment.
Huh wat?
https://wccftech.com/inte...ch-r23-benchmark-results/

Ik denk dat er al te veel mensen zich in de luren laten leggen door marketing spraak en 'gesponserde' reviews.

[Reactie gewijzigd door laibalion op 17 november 2020 18:47]

Wel even in de gaten houden dat dat artikel op wccftech de "8-core" M1 vergelijkt met 8-core x86 processors, terwijl het dan bij de M1 om 4big+4little gaat, maar bij x86 om "8 big". M.a.w., is het een eerlijke vergelijking als je kijkt naar "actieve cores"?

(Overigens, core count an sich interesseert natuurlijk niet zo, maar vooral performance/Watt of performance/$).

[Reactie gewijzigd door tympie op 17 november 2020 19:38]

Daarenboven moet je vergelijken met de huidige cpu’s die er in apple macs gebruikt worden, dus vergeet alle AMD varianten ook al maar.

Knappe prestatie voor een eerste prestatie. Ik ben benieuwd warr dat gazt geven indien ze ook een cpu bouwen met 16cores bv
Mwah, ik "moet" niks, natuurlijk. Als 't gaat om de cpu prestaties is er niks mis mee om AMD mee te nemen in de vergelijking. Simpelweg omdat:
  • Apple ook voor AMD had kunnen kiezen in plaats van het ontwikkelen van een eigen CPU,
  • of omdat iemand die "nu" een nieuw device koopt, ook iets op AMD basis zou kunnen kiezen ipv een Apple,
  • of omdat je simpelweg wilt vergelijken waar de "grote drie" nu staan ten opzichte van elkaar.
De vergelijking met wat er voorheen in MacBooks zat is vooral interessant om te bepalen of Apple er goed aan heeft gedaan over te stappen op iets anders.

Neemt verder idd niet weg dat het een nette prestatie is.
99% van de mensen maakt geen Intel vs. AMD keuze, laat staan Apple vs. AMD. Apple gebruikers kopen een Mac of een duurdere Mac. Op Tweakers is een vertekend beeld van de technische kennis (en vooral interesse) van Apple’s ‘pro’ gebruikersgroep. Dit zijn grafische editors, (muziek)producers, web- en appdevelopers, etc... die groep interesseert het geen reet van welke fabrikant de chips komen, als het maar werkt, betrouwbaar, en snel is. Alleen de echte nerds kijken naar benchmarks en zelfs die zeggen tegenwoordig niets meer als ik de comments hier de afgelopen dagen volg.

[Reactie gewijzigd door pBook op 17 november 2020 20:34]

Als Apple voor AMD had gekozen zitten ze in principe in hetzelfde problematische schuitje als met Intel. Daar AMD nu een vrij lichte voorsprong heeft op Intel valt te bezien of ze dit verder met de bestaande x86 structuur kunnen uitbreiden.

De keuze voor de M1 geeft Apple een enrome voorsprong, zeker in de toekomst:
- eigen hardware, software optimaal af te stellen op de hardware
- snellere ontwikkeling van specifieke SoC's voor diverse toepassingen
- 'binding' aan het Apple platform door combinatie met eigen OS (en afschermen toegang voor andere OS versies wat de toegevoegde waarde stuwt
- betere beveiliging op hard en software vanwege diepergaande kennis (dus geen toestanden meer omdat een andere fabrikant security exploits in hun chips heeft

ikzelf heb de afgelopen jaren wel vraagtekens gezet bij de toegevoegde waarde van het Apple platform als het gaat op het gebied van snelheid en innovatie qua hardware. Dat is nu dus veranderd.
Met die redenering kom je natuurlijk nergens. Het BIG.little ontwerp is intrinsiek aan huidige ARM ontwerpen, het zijn desondanks 8 Cores.
Onder x86 worden de cores ook gewoon gebruikt voor background processing, die doen dat gewoon veel sneller waardoor er meer compute beschikbaar blijft voor de rest.
Dus voor mij is dat een prima vergelijking.

Trouwens die perf/W gaat voor veel professioneel gebruik niet op. Dat is enkel interessant voor mobile en server gebruik. Als je als programmeur je compile tijden kan halveren door je core-count te verdubbelen, is de winst snel berekend hoor.

Begrijp me niet verkeerd, voor mobiel gebruik zal ARM heer en meester blijven, maar in de desktop space, waar batterij verbruik geen fluit betekend, gaat de raw performance en core-count van x86 toch nog een tijd aan de top blijven.
Een artikel dat zegt dat AMD en Intel de M1 voorbijsteken om dan in de enige tabellen die in het artikel staan de M1 ofwel net na Intel (in de ST) of net na AMD (in de MT) en respectievelijk voor AMD en voor Intel laten eindigen.

Dat in combinatie met het veel lager verbruik van de M1 lijkt mij toch iets anders dan de agressieve titel doet vermoeden.
Kosten per chip. Meer transistoren per chip = minder chips per wafer = duurdere chips. Daarbij zal Apple een premium prijs voor 5nm betalen. Renoir zal hoogstwaarschijnlijk veel goedkoper zijn.

Dat de M1 in de goedkopere Macs zit wil overigens niet zeggen dat het een low end chip is. Renoir is in die zin vergelijkbaar, AMDs kleinste/goedkoopste recente chip, niet eens nieuwste! De high end 5950X maakt gewoon gehakt van de M1. Maar deze is slecht te vergelijken vanwege het hoge TDP. De 4800U is met 15W vergelijkbaar en imho een directe concurent.

[Reactie gewijzigd door GENETX op 17 november 2020 19:05]

Natuurlijk maakt die 5950X gehakt van de M1, maar die 5950X is dan ook helemaal niet geschikt voor hoe deze M1 wordt ingezet, Qua prijs, Energieverbruik, Warmteontwikkeling is dat ding helemaal niet interessant voor Apple en bedient die hoewel je ze beiden in een laptop kunt stoppen een heel andere markt want gedaan met de geringe warmteontwikkeling en de indrukwekkende batterijduur met dit gewicht als je dat ding in een 13" Macbook stopt. Apple zoekt het compromis tussen warmte, batterijduur, gewicht, prestatie etc.. en wat dat betreft is de M1 een absolute topper.
Niet te vergeten de komende opvolger van de M1. Apple is reeds nieuwere varianten aan het testen voor de nieuwe iMac en de opvolger van de MacPro.
Gelukkig zitten AMD en Intel ook stil (Intel misschien wel :z).
Onder bepaalde omstandigheden is de M1 inderdaad erg goed. Echter, hij verdient zeker geen etiquette 'snelste processor', want dat is hij bij lange niet.
Gelukkig is er dan ook niemand die dat beweert.
Apple heeft tot het einde van 2020 alle productie capaciteit voor 5nm opgekocht bij TSMC.
Omdat Apple de 5nm van TSMC al heeft gekocht.
Wat makkelijker gaat als je een bedrijf bent van $260 mijard jaarlijkse omzet vs een AMD met een jaarlijkse omzet van ~$6 miljard.
Ze zijn te vergelijken met Intel, maar dat komt ook omdat Intel al 5 jaar zowat niks aan IPC verbeteringen heeft.
Fujitsu heeft de A64FX ontwikkeld een ARM chip die op een 7nm proces wordt gemaakt. Die chip heeft 32 cores per CPU. Een benchmark vergelijking tussen de Fujitsu en de Apple chip zou interessant zijn.
https://en.wikipedia.org/wiki/Fujitsu_A64FX

Zie nu op anandtech een single thread benchmark waarin de nieuwe m1 (native) gelijk presteert aan een intel 28W TDP i7-1165g7 notebook processor.

https://images.anandtech.com/graphs/graph16252/119145.png

[Reactie gewijzigd door (id)init op 17 november 2020 21:52]

Ik snap je reactie niet helemaal... de M1 die je nu in bijvoorbeeld een MacBook Air kan kopen zet benchmark scores neer die vergelijkbaar of sneller zijn dan het snelste wat AMD en Intel kunnen bieden, en die MacBook Air presteert in bijvoorbeeld Rust compilatie beter dan een top of the line 16” MBP i9 [1]. AnandTech heeft de Mac Mini getest en die haalt dit soort score met minder dan 20W en GPU prestaties beter dan de snelste IGP van AMD, en 6x (!) zo snel als de Intel IGP in de vorige Mac mini. Dit zijn de entry level chips van Apple, die in hun ‘low end’ systemen gaan. En dan kom jij met een vaag verhaal aan wat moet aantonen dat dat niet zo bijzonder is omdat er zoveel transistors in die chip zitten? :?

Ik denk dat ze zich bij zowel Intel als AMD wel degelijk zorgen maken want zelfs de grootste Apple fan had niet verwacht dat deze chips nú al zó goed zouden presteren.

[1] https://mobile.twitter.co...tatus/1328598935380910082
Eh? Ik vergelijk hem met de 4800U, een chip zie in laptops voor 850 euro te vinden is: pricewatch: Lenovo IdeaPad 5 15ARE05 (81YQ00GYMH)

Dus volgens mij is dit een behoorlijk fair playing field met de M1.
Het ging me er niet om dat je de M1 met een 4800U vergelijkt, dat is inderdaad een logische vergelijking. Wat ik niet volg aan je betoog is dat het lijkt alsof je het afdoet als ‘best wel meh’ dat een 4+4 core design op 3.2Ghz, welke wordt neergezet als de cpu voor Apple’s instap systemen, überhaupt vergelijkbaar is met de MT performance van een 8 core chip met hyper threading en een boost van 4.7 GHz. Laat staan dat diezelfde M1 chip in ST performance rondjes loopt rond de AMD chip. Het hele verhaal over aantallen transistors en de process node etc. komt op mij over als proberen weg te redeneren dat dat gewoon heel erg indrukwekkend is. TDP en sustained all-core MT performance in benchmarks zeggen mij niet zo heel veel trouwens, er zijn maar weinig workloads die precies daarvan profiteren. Weinig waar je een thin & light laptop of een Mac mini voor zou gebruiken tenminste. En in een desktop maakt het eigenlijk weinig uit of je daar nu 15W of 20W of 45W verstookt...

Ik zeg overigens ook nergens dat de MT prestaties van een 4800U niet indrukwekkend zijn hè, die chip vernedert eigenlijk al alles wat Intel daar tegenover kan zetten. De M1 komt daar met 4 cores (we vergeten de efficiency cores even, want die doen ‘maar’ 20% extra) nu al heel dichtbij, dus wat er straks nog voor de zwaardere MBP modellen en de iMac komt gaat er gegarandeerd dik voorbij, daar kan je de klok op gelijkstellen.

[Reactie gewijzigd door johnbetonschaar op 17 november 2020 23:09]

Het ging me er niet om dat je de M1 met een 4800U vergelijkt, dat is inderdaad een logische vergelijking. Wat ik niet volg aan je betoog is dat het lijkt alsof je het afdoet als ‘best wel meh’ dat een 4+4 core design op 3.2Ghz, welke wordt neergezet als de cpu voor Apple’s instap systemen, überhaupt vergelijkbaar is met de MT performance van een 8 core chip met hyper threading en een boost van 4.7 GHz.
Cores zijn niet meer te vergelijken tegenwoordig. Je hebt zoveel trade-offs te maken die invloed hebben op performance, frequentie, transistorcount, etc. Ik kijk liever naar de uiteindelijke rekenprestaties, dan hoe ze zijn opgebouwd. En in die zin, denk ik dat de 2 architecturen behoorlijk gewaagd zijn. Ik verwacht dat de totale transistorcount en performance/watt tussen de 2 architecturen lood om oud ijzer is. Maar dat is speculatie op dit moment.

Op basis van kloksnelheid vergelijken doen we al sinds de Pentium 4 niet meer, met dank aan Steve Jobs:
https://www.youtube.com/watch?v=TJN5GfZuVog

[Reactie gewijzigd door GENETX op 17 november 2020 23:25]

Dat snap ik natuurlijk ook allemaal wel, echter volgt je eigen conclusie (‘de architecturen en performance per watt zullen lood om oud ijzer zijn’) totaal niet uit de benchmarks, en is nu juist de ene benchmark waar de 4800U nipt wint met zijn 8 cores en hyper threading er een die best wel heel erg gevoelig is voor kloksnelheid, dat is een pure compute throughput test.

Als je écht geïnteresseerd bent in de efficiëntie van een core als de M1 voor een brede variatie aan workloads moet je kijken naar de best wel extreme breedte (aantal issue slots) van de cores en de relatief grote caches en goede geheugen interface. De AnandTech deep dive [1] (dus niet de benchmarks die hier staan) gaat hier verder op in. En dan ontstaat toch echt wel een beeld dat core voor core, en klok voor klok, de M1 zeker geen ‘lood om oud ijzer is’ vergeleken met het beste wat AMD en Intel te bieden hebben.

[1] https://www.anandtech.com...-silicon-m1-a14-deep-dive

[Reactie gewijzigd door johnbetonschaar op 17 november 2020 23:54]

Daar heb je een punt. Anderzijds is het de vraag of dit in normale situaties genoeg meerwaarde gaat opleveren. De sterke ST score is zeker interessant. Anderzijds, en afhankelijk van andere real world benchmarks, zou je kunnen stellen dat Apple daarmee al heel wat kruid heeft verschoten mochten AMD en Intel hier ook meer transistoren in steken nu Zen3 ook redelijk in de buurt komt.

Ik zou graag zoveel meer info willen zien van alle architecturen, transistorcount, direct opgenomen energie, om wat te vergelijken.
Ik snap je redenering, maar wat mij betreft vergelijken we wat er nu op de markt is. AMD is al 20 jaar chipontwikkelaar en heeft dus geen enkel excuus om op een groter procedé te blijven hangen als Apple het bij de eerste poging al op 5 nm doet. Sterker nog, ik verwacht hier een flinke disruptie van de processor markt!
Maar als Apple het 20 jaar geleden begon waren ze ook op 10+ mm aan het bakken. Het is dat TMSC dus nu op 5mm bakt waardoor Apple makkelijk mee kan bakken. Want Apple doet niet zelf aan ontwikkelen maar doet met wat het heeft op dit moment. Maar AMD zal ook met de nieuwe cpus op 5mm gaan hebben ze gezegd. Intel daarin tegen kan het wel schudden.
Misschien een rare vraag hoor, maar waarom kan TMSC wel op 5 nm produceren en anderen niet? De machines hiervoor zijn toch ‘gewoon’ door alle partijen te koop?
Investeringen, niet alleen in die ene machine maar ook in personeel en machines en logistiek eromheen. En de hoeveelheid machines die ASML kan leveren is ook beperkt, dus als je er snel bij bent met een reservering en een aanbetaling, kun je eerder beginnen met de chipsproductie.
Het excuus van AMD zal zijn dat er niet voldoende productiecapaciteit is op 5nm. Bovendien zijn grotere procedés voordeliger, dus zo lang die nog voldoende presteren (AMD wil voorblijven op intel, Apple is een andere tak van sport) blijven ze rustig nog even doorontwikkelen om wellicht meteen iets nog beters neer te kunnen zetten.
Ik krijg een verhaal over het aantal transistoren van je maar het enige wat echt telt zijn de prestaties, de prijs om hem te maken en het verbruik. De prijs is lager, de prestaties zijn beter en het verbruik is een stuk lager. Ik snap dat 5nm TSMC beter is dan 12nm Intel maar ik geloof echt niet dat Intel alleen met 5nm het gat kunnen dichten. AMD zit wel in een betere positie.

Het zou mooi zijn dat er een stroomversnelling komt van betere designs zowel aan de ARM als x86 kant doordat Apple iedereen met de broek op de enkels achterlaat, maar volgens mij kun je echt niet zo maar 60% meer transistors in een AMD Renoir design kieperen en dan geweldige prestaties halen.
Alle claims van kant ARM ten spijt weet de M1 eigenlijk maar heel matig gebruik te maken van de verbeteringen die met ARM mogelijk zouden moeten zijn.
Welke verbeteringen zouden dat dan moeten zijn? Voor extreem low power en kleine chips kan ik me wel inbeelden dat de vertaallaag naar microcode een grote kost is, maar voor een chip van 10 miljard transistors lijkt me dat eerder gerommel in de marge.
Welke verbeteringen zouden dat dan moeten zijn? Voor extreem low power en kleine chips kan ik me wel inbeelden dat de vertaallaag naar microcode een grote kost is, maar voor een chip van 10 miljard transistors lijkt me dat eerder gerommel in de marge.
Precies mijn punt ;) . Er werd de afgelopen weken overal geroepen dat dit het einde van x86 is, dat dit het punt is waar ARM x86 voorbij streeft. Ik "quote" de massa van Tweakers.net dus impliciet. Het lijkt met name gerommel in de marge, met de gebruikelijke trade-offs om meer in te zetten op meer ST of juist op MT.
Het zal helaas nog wel duren voor AMD met een Zen3+RDNA2 APU komt.
Afgezien van Zen3, hebben ze op dit moment wel een ijzersterke Zen2+RDNA2 APU in een verbeterde 7nm process, waar as we speak, op dit moment miljoenen van de band lopen voor de Xbox series X en Playstation 5.

Het zal me dan ook niet verbazen, dat ze met de kennis die men heeft opgelopen door samenwerkingen met Microsoft en Sony, in niet al te lange tijd zelf met een Zen3 based APU gaan komen waar een deel van de console technologieën in zijn opgenomen.
Stel dat je gelijk hebt (maar niet helemaal trouwens, zie de posts hieronder :p ) Kan je nagaan wat Apple nog kan winnen ;)
De vraag is of ze nu niet tegen vergelijkbare muren aanlopen. Anderzijds, AMD kon ook 20% IPC met Zen2 -> Zen3 er uit persen, dus x86 staat ook nog niet stil ;)

Ik hoop het van harte, dan krijgen we weer mooie tijden!

[Reactie gewijzigd door GENETX op 17 november 2020 22:08]

Ik beweer ook niet dat dit het einde van x86 is. ARM, of X86 en RISC-V geen enkele is de holy grail. Hoewel sommige dat wel denken van RISC-V omdat het opensource is :D (BS).

AMD is lekker bezig, maar misschien te goed :p Dus fijn dat een andere speler hoewel het geen directe concurrenten zijn elkaar technologisch lekker kunnen pushen.

Jij noemde het niet, maar iemand anders : https://9to5mac.com/2020/11/18/apples-move-to-m1/
Apple zou dan ook flink geld al besparen met het zelf maken van de chips.
Deze M1 is hier neergezet tegen de oude Zen2 kern op een ouder 7nm procede. Stel je eens voor, een Zen3 5800u zou met de 20% IPC verbetering gewoon ST net zo snel zijn en MT sneller dan de M1. Nog steeds met significant minder transistoren en nog steeds op 7nm.
De M1 is ook getest tegen de nieuwe Zen3 5950X en daar is de M1 vergelijkbaar of sneller, maar dan wel met een veel lager verbruik (6W vs 50W). Dat wil dus zeggen dat een Zen3 variant van de laptop CPU niet gelijkwaardige performance zal gaan leveren als de M1. En die Zen3 (en zeker geen Zen4) variant is er nog niet, terwijl tegen die tijd de M2 of M3 er ook zal zijn.
Het begin van het einde wat betreft het x86 tijdperk?
Apple is zeker invloedrijk, maar het wil niet zeggen dat fabrikanten Apple als een mak schaap volgen, zeker niet bij zulke grote veranderingen als dit. Sowieso moet dan eerst de software op peil zijn. 1-op-1 met deze Macs is dé grote concurrent Windows en momenteel is Windows 10 voor ARM nou niet bepaald waar het zou moeten zijn. Dus ik zou niet zeggen dat het begin van het einde al is ingeluid - het gaat nog heel wat jaren duren voordat er een ook maar een begin wordt gemaakt.

Bovendien is het niet zo dat ARM heel veel moderner is dan x86, want het is inmiddels ook alweer 35 jaar oude technologie.

[Reactie gewijzigd door TheVivaldi op 17 november 2020 18:05]

Dit snap ik niet? Als een mak schaap volgen impliceert dat mensen voor Apple kiezen zonder hierover na te denken. Wat heeft dit te maken met de brakke implementatie van Windows op ARM? Omdat het platform te klein is voor developers om zich puur op ARM te richten bedoel je?
Overigens lijkt Rosetta 2 heel aardig te werken, als ik de reviews mag geloven. Niet wat je wilt uiteraard, maar toch.
Dit snap ik niet? Als een mak schaap volgen impliceert dat mensen voor Apple kiezen zonder hierover na te denken.
Ik had het over fabrikanten.
Wat heeft dit te maken met de brakke implementatie van Windows op ARM? Omdat het platform te klein is voor developers om zich puur op ARM te richten bedoel je?
Dat inderdaad, en daarnaast omdat er nog geen goede hardware-ondersteuning is. Ja, wat Qualcomms, maar dat is nu niet bepaald op het prestatieniveau van de M1.
Probleem dat apple niet heeft en windows en arm wel is dat apple hard en software controleert en bepaald.
Windows is alleen de software en hardware komt van anderen.
Daarnaast is er zo veel software voor windows dat het probleem is om die allemaal om ze tten op arm bijna onmogelijk is. Er draaien nog veel oude windows systemen met oude software pakketten en MS kan niet zeggen morgen we stoppen met windows voor x86.
Apple met kleine pc marktaandeel en controle hard en software heeft hier een voordeel.

Neemt niet weg dat misschien nu windows op arm ook een boost kan krijgen. Lees photoshop voor apple /arm en de stap naar windows arm zal dan ook niet groot zijn. Dus wie weet kan windows ook profiteren als er meer software voor apple op arm komt deze ook meteen als windows op arm beschikbaar gemaakt zal worden.
Die andere fabrikanten hebben er nog niet eens zo veel mee te maken, want Microsoft krijgt het zélf al niet voor elkaar om een degelijke ARM-computer uit te brengen, ondanks dat ze hun eigen hardware-afdeling hebben.

[Reactie gewijzigd door TheVivaldi op 17 november 2020 18:33]

Die andere fabrikanten hebben er nog niet eens zo veel mee te maken, want Microsoft krijgt het zélf al niet voor elkaar om een degelijke ARM-computer uit te brengen, ondanks dat ze hun eigen hardware-afdeling hebben.
Dat komt ook omdat Microsoft altijd maar producten lanceert en naderhand pas gaat bedelen voor native software support.
Probleem is natuurlijk waarom zouden software makers iets op arm maken als de markt x86 is en MS beide gaat aanbieden.
Apple is in de luxe positie te zeggen we gaan 100% op arm en laten x86 vallen, dan moet je als softwaremaker daar gewoon in meegaan.
MS heeft die macht gewoon niet en gezien hun marktaandeel zullen en mogen ze dat waarschijnlijk ook niet doen.
MS heeft die macht in juist wel. Wat hebben fabrikanten nog voor keuze als MS domweg zijn Windows alleen nog voor ARM uitbrengt?

Op een minderheid van Macgebruikers en een heel enkele Linux-liefhebber na is iedereen gewend en bekend en opgegroeid met Windows / Office en de meesten blijven dat altijd gebruiken voor PC’s en laptops, ook al zijn er alternatieven. Mensen zijn gewoontedieren.
Theoretisch heeft MS die macht. Praktisch gezien gaat het niet werken met de grote hoeveelheid aan x86 software die er is, waaronder veel oude dit nog steeds gebruikt wordt. MS zou haar eigen glazen ingooien.
Als mensen dan toch gedwongen worden naar arm over te gaan dat is de stap naar bijv linux of apple ook veel eenvoudiger. Nu zijn windows klanten gebonden aan windows en dat is waar MS in gevangen zit.
Bestaande software die op x86 leunt, heeft Apple nu ook. Toch maken ze de overstap. Net zoals ze dat in 2006 al eens deden, van PPC naar x86.

Ja, natuurlijk geeft het gedoe, maar Apple doet het gewoon. Waarom zou MS het niet kunnen? MS kan ook emuleren en programmeurs helpen bij het ombouwen etc.

Ja, klanten kunnen in theorie naar Linux overstappen, maar dat kunnen ze al 25 jaar.

Mensen stappen niet over. Het boeit ze niet wat er in de doos zit, als het maar werkt. Als het maar Windows draait, wat ze kennen.

Mensen hebben al een bijscholingscursus nodig om te leren omgaan met een update van Word waarbij dezelfde functies onder een ander menuutje zitten.. Dáárom stappen ze niet over. Ze veranderen waarschijnlijk nog liever van baan ;)
Apple heeft hard en software in eigen hand. Het marktaandeel op desktop is een fractie van windows.

MS kan dat niet, er is zo veel software en veel tweakers zullen bevestigen dat er heel veel bedrijven zijn die nog met oude software werken. Heb kennis het je geloofd het niet nog met een dos pakket werkt omdat die functionaliteit niet in windows te krijgen is.
Dat begrijp ik, echt, maar dat is aan de Mac-kant precies hetzelfde. Er zijn weegbruggen, seinstations etc die op dos draaien of windows 3.1 of zo, maar dat geldt net zo goed voor snijplotters, geluidsstudio’s en exotische grootformaat-printers etc waar alleen software voor is die op Mac OS 9 of 10.8 of zo draait.

Maakt het iets uit? Aangezien DOS of Windows 95 ook al tig jaar niet meer ontwikkeld wordt. Die fabriek moet dus toch op stokoude hardware vertrouwen om die weegbrug aan de praat te houden. Hef maakt voor hen dus eigenlijk niets uit of MS vanaf nu x86 langzaam gaat uitfaseren.
MS heeft een te dominant marktaandeel om dat zo maar te doen. Daarnaast arm is nog niet zo ontwikkeld dat het echt x86 kan vervangen. Er zouden eerst meer aanbieders van arm cpu's moeten komen. Nu werkt MS met qualcomm samen, dat is te weinig keuze.

Blijft wederom Apple heeft op desktop maar een klein aandeel en dus is het eenvoudiger. Daarnaast apple heeft hard en software in eigen hand MS niet. Het betekend ook de doodsteek voor intel en amd mocht MS dat doen.

Wederom als men dat doet zet het de deur open voor linux op de desktop en dat is dan een veel groter gevaar qua marktaandeel
Einde van x86?

Depends, ik zeg niet dat het gebeurt maar als het gebeurt verwacht ik dat vooral laptops van x86 afstappen, en dat er misschien hooguit workstations en gaming laptops op Intel/AMD blijven.

Qua desktops dan? Dat is een complexere vraag, maar ik verwacht van niet, ik zie nog eerder dat de desktop markt nog meer krimpt vanwege smartphones en ARM based laptops dan dat wij een echte grote (Apple terzijde) shift zien naar ARM in desktops, op een paar meer niche producten na voor consumenten en bedrijven.

Maar wat Apple hier voor elkaar heeft gekregen is best indrukwekkend voor een 1st gen product, ben vooral benieuwd naar de iMac / MacBook Pro 16" varianten en hoeveel beter de opvolgers van de M1 zullen worden.
Einde van x86?
Niet percé. De M1 is een complete chip waar het geheugen (8GB of 16GB) in de chip is geplaatst. Dus geen geen externe controller, geen externe geheugen, geen extra spanningsregelaars, en geen databussen tussen de CPU en geheugen.
Het geheugen bevind zich niet in de chip, maar op het substraat: https://www.apple.com/new...1102020_big.jpg.large.jpg
Het op de chip package plaatsen van het geheugen is nou niet echt speciaal. Bij GPU's is het al jaren zo (HBM). En aan de databussen ontkom je niet, deze zitten nu enkel iets dichter bij de cpu. Dat scheelt iets qua stroom die de drivers van deze datalijnen gebruiken, maar qua performance gaat het je zeker bij apple niks opleveren.
Eigenlijk ook niet op het substraat van de core, maar wel in de package.
Maar ook: geen uitbreiding mogelijk!
Dus wil je meer, dan moet dat ingebouwd zijn. Met huidige desktops en vele laptops kun je een RAM module vervangen en krijg je zo snel en goedkoop meer capaciteit. Mijn laptop heeft 32GB. Voordat de Apple chip dat heeft zal het nog een tijd duren. Mijn desktop heeft meer en servers zitten helemaal bomvol. Dat kan Apple niet bijhouden.

En Apple houdt deze chip voor zichzelf. Misschien dat andere laptopfabrikanten ook gaan experimenteren met een ARM chip. Maar ik denk dat de meeste nog gewoon om x86 zullen blijven.
Dus het einde van x86? Nee, zeker niet.
Ik denk niet dat de ARM chip zoveel uitmaakt. De grootste stap wordt gezet met het plaatsen van memory chips binnen de CPU chip wel. Efficiënter kan het haast niet. Ook al zit het op 1 substraat (zoals gemeld door @somososan ).
Mijn laptop heeft 32GB. Voordat de Apple chip dat heeft zal het nog een tijd duren. Mijn desktop heeft meer en servers zitten helemaal bomvol. Dat kan Apple niet bijhouden.
Ik denk dat dat wel mee zal vallen. Ik verwacht de eerste ARM Mac’s met 32 GB binnen een maand of zes.

Sowieso zijn de Mac Pro’s altijd flinke bakbeesten geweest op dit front. De huidige Mac Pro gaat tot 1,5TB RAM (bij 24 cores of hoger) en ik verwacht niet dat Apple Mac Pro’s gaat uit brengen die daar niet in de buurt van komen.
Waarom zouden laptops van x86 afstappen? Ik zie niet direct dat deze ARM zoveel zuiniger is dan x86. Op vol vermogen meer dan 30W verbruiken op de mini, en dan ben je nog geen scherm van stroom aan het voorzien. De prestaties zijn goed, de prestatie per watt is ook goed, maar het is zeker geen ordegrote beter dan wat we met x86 hebben.
Vergeet niet dat deze soc grote en kleine cores heeft. Als je gewoon een serie wilt kijken of een beetje wilt internetten scheelt het significant dat daar de efficiëntere kleine cores het werk doen.
Op de Macbook (Pro of Air?) kon je ipv 10 uur, nu 20 uur video kijken. Dat is een stijging van 200%. Dat moet natuurlijk nog wel blijken uit alle tests de aankomende weken. Maar dat is toch wel een stukje zuiniger dan z'n x86 broertje.
Wat denk je van datacenters? Als je 30-50% aan stroom kan besparen....
Het is ook niet voor niets dat Amazon z'n Graviton/ARM CPU pushed (sheel bijna de helft aan stroommkosten)
Kan het bericht niet zo snel terigvinden maar volgens mij loopt iets meer dan 10% van de alle AWS instances op ARM en de planning is om dat eind 2021 naar 20% te brengen
Het begin van het einde wat betreft het x86 tijdperk?
Ik denk het niet, zeker niet in de komende jaren. Wie kan op dit moment mer ARM chips zich meten aan Apple? Volgens mij geen enkel ander bedrijf. En Apple gaat deze chips zeker niet verkopen. USP voor de Mac.
Het zal voor concurrenten nog niet makkelijk zijn om dit te evenaren maar ik denk wel dat het veel impact maakt omdat het bewijst dat het mogelijk is om veel meer performance per watt te krijgen in de belangrijke segmenten met ARM.

Dat dat bewijs nu geleverd is maakt het voor andere partijen makkelijker om miljarden vrij te maken om er ook in te duiken.

[Reactie gewijzigd door Maurits van Baerle op 17 november 2020 18:50]

Qualcomm is denk ik de enige concurrent, even desktop-prestaties buiten beschouwing gelaten.
Binnenkort Nvidia als ze arm kopen, die zullen dan ook een voordeel hebben.
Maar dan moet nVidia wél met een goede M1-concurrent komen.
Benieuwd of ze hiervoor toelating gaan krijgen, zeker nu er meer en meer sprake is van bigtech op te splitsen.
Zouden ze dat bij Intel en AMD ook al doorhebben!?
Met ARM zal het ook weer niet zo hard gaan, maar Intel gaat het wel serieus moeilijk krijgen, maar aan de ene kant een groeiende markt voor ARM op server en desktop, en aan de andere kant AMD die ze voorbij streeft.
Ik heb vandaag mijn 6 koppige intel based mac mini door Cinebench R23 gehaald en de multi score was 7874 en single 1158. Multicore is dus nog altijd sneller. Voorlopig sla ik de M1 even over. Eerst alle kinderziektes eruit. Mijn dagelijkse software zoals MS Office en Adobe Suite is sowieso niet beschikbaar in ARM, dus dan heb ik met prestatieverlies van Rosetta 2 te maken, waardoor mijn Intel based mac in feite veel sneller is op dit moment. Maar eerlijk is eerlijk, mijn Mac Mini kost 1850 euro en dan is een stuk meer dan de 799 voor de instap M1 mini. Ik wacht nog wel even tot de M2, want Apple heeft de gewoonte bij de eerste serie nogal wat achter de hand te houden voor de tweede serie.
Vreemd dat Anandtech de 5950X wel in het single thread overzicht, maar niet in de multithread overzicht plaatst van Cinebench R23. Bij deze, inclusief Threadripper:

5.257 - M1 Rosetta2
7.833 - M1 native
28.641 - Ryzen 5950X Zen 3
74.422 - Threadripper 3990X Zen 2

Bron: https://www.cpu-monkey.co...nebench_r23_multi_core-16

[Reactie gewijzigd door lordawesome op 17 november 2020 22:50]

Kan iemand mij uitleggen wat je nu precies het verschil is tussen x86 en ARM instructiesets? Ik had altijd begrepen dat x86 een bredere instructieset heeft waardoor het met bepaalde taken veel sneller kan zijn, maar voor taken die wel goed kunnen op ARM juist weer langzamer. Nu lijkt het erop dat ARM altijd sneller is, wat is er veranderd? Of ligt dit aan deze specifieke software?
x86 instructie set is inderdaad nogal groot waardoor je met weinig (als in instructies achter elkaar) instructies veel verschillende dingen kan doen. ARM heeft een relatief kleine set en voor sommige dingen heb je dus meerdere instructies nodig.

In realiteit zie dit verschil vooral aan de buitenkant. Een x86 zal zijn instructies in meerdere kleinere stukjes hakken en die dan uitvoeren. Verschil met een ARM instructieset is dan alweer veel kleiner.

Dit is waarschijnlijk ook de reden waarom die emulatie laag zo goed werkt. Je kunt prima de x86 instructies omzetten in een stel ARM instructies. Andersom is veel lastiger en meestal ook veel minder efficiënt.

Wie er sneller is in wat heeft tegenwoordig nog maar weinig te maken met de intructieset, maar meer met het algehele design van de CPU.

[Reactie gewijzigd door voodooless op 17 november 2020 19:22]

x86 heeft ook een variabele lengte instructieset, en dat is een achilleshiel, waardoor het decoden langer duurt. Bij x86 moet eerst uitgezocht worden welke instructie het is, en dan hoe lang deze is en de data opgesplitst moet worden.

Bij ARM is dit fixed, en daar heeft Apple gebruik van gemaakt door, maar liefst in de "frontend" gebruik te maken van:
- 2x zo brede decoder
- ~3x zo grote reorder buffer
- 4x-6x zo grote instruction cache

Dit ten opzichte van x86. Deze pagina is echt een must read:
https://www.anandtech.com...ilicon-m1-a14-deep-dive/2

Vanuit deze front-end, waar Apple veel meer instructies kan opslaan en reorderen (zodat de beruchte pipeline van Steve Jobs in zijn Intel vs PowerPC presentatie) optimaal gevuld blijft. De instructies gaan dan naar de backend van de CPU, daar waar het echte werk plaatsvindt. Hier zit ook de grote truc imho: Doordat Apple zoveel ruimte op de M1 heeft om de kleine instructies van de ARM instructieset in de juiste volgorde te zetten, kunnen ze ook meerdere kleine instructies goed herschikken die normaliter verpakt zouden zitten in een enkele grotere x86 instructie.

Wat vervolgens vaak gebeurd, zeker bij x86, is dat de x86 code vertaald wordt in microinstructies, ofwel intern is de instructieset anders. Dat zal bij de M1 niet anders zijn. Het is ook de vraag in hoeverre er nog wel sprake van verschil is in architecturen als intern, daar waar de berekeningen plaatsvinden, toch een andere instructieset wordt gebruikt dan dat wat er in gaat.

Ook op dit vlak heeft Apple flink wat extra zaken toegevoegd aan de backend zo kan de M1 4x zoveel floating point additions of multiplications uitvoeren als de Intel x86 (en 2x zoveel als AMD Zen3).

Als je de gelinkte pagina eens doorleest, zie je hoe ontzettend groot en breed de CPU core van de M1 eigenlijk wel niet is op alle vlakken, ook ten opzichte van x86. Deels heeft de ARM instructieset Apple erg geholpen om de frontend groter te kunnen maken (al zijn er nog wel discussies hoe efficient dit daadwerkelijk gaat zijn), maar heeft tegelijkertijd ook een behoorlijke backend neergezet.

Ik ben erg benieuwd of Apple voordeel kan pakken uit dit design, of dat het conservatievere design van AMD Zen (back to basics) overall efficienter blijkt te zijn in de long run voor consumenten PC's.

[Reactie gewijzigd door GENETX op 17 november 2020 23:00]

Off-topic: oh jee, daar gaan we weer..!

On-Topic: dit blijft toch echt indrukwekkend. Voor de zekerheid erbij; nee, ik heb geen Mac. Maar het ontwerpen van een compleet custom chip (M1), het overstappen naar een compleet ander platform (ARM), het goed kunnen emuleren (op Chrome na) en dan ook nog zulke performance en (bouw)kwaliteit kunnen leveren is toch echt heel knap. Schijnbaar zijn de grote nadelen de webcam, het slecht werken van IOS-apps en de hoge prijs van upgrades de nadelen.

Al met al doet me dit voor het eerst twijfelen om toch eens over te stappen.
Kijk wel goed naar waar je naar overstapt. Het macOS van nu is niet echt een open desktop OS meer.

Simpele dingen als config files aanpassen is al moeilijk omdat een hoop bestanden van het OS gewoon gelockt zijn op een aparte partitie met een gesignde hash erover. 1 aanpassing en booten gaat niet meer. Dit is veel verder gaand dan SecureBoot op Windows (en bovendien heb je daar de volledige controle over, inclusief je eigen keys toevoegen). Apple maakt nu uitzonderingen voor al hun eigen apps in application-firewalls ook. Voor de techneut die wel eens wat anders in wil stellen dan de standaard gebruiker wordt het steeds lastiger gemaakt. Zelfs al kan ik met Big Sur met wat workarounds nog wel uit de voeten, het is met elke release weer de vraag welke dingen die ik gebruik er nu weer stuk gaan worden gemaakt.

Dit in tegenstelling tot Windows waar je steeds meer krachtige functies krijgt. Zoals dat je alles met powershell kan doen, en WSL bijvoorbeeld. macOS begint me steeds meer tegen te staan. Overigens zal ik altijd alle 3 blijven gebruiken (Mac voor werk, windows voor gamen) maar ik denk dat ik zelf maar richting Linux of FreeBSD terug ga.

Op Hardware gebied is Apple zeker goed bezig. Maar op software gebied gaan ze helemaal de verkeerde kant op, vind ik. En ik zeg dit als OSX gebruiker op mijn primaire computer sinds 10.2 Jaguar.

[Reactie gewijzigd door GekkePrutser op 17 november 2020 19:06]

Je kan integrity protection toch gewoon uitzetten met csrutil als je dat wil?
Niet zonder meer, je kan het wel uitzetten, maar als je iets verandert kan je niet meer booten tenzij je een 'blessing' doet (waarbij je de signatures aanpast).

Dit moet je ook bij *elke* update opnieuw doen anders weigert Big Sur gewoon te booten. SIP uitzetten met CSRUTIL schakelt namelijk niet die ondertekeningscheck uit.

Bovendien is dit niet het enige bezwaar.. Het is elke keer wel weer wat.

[Reactie gewijzigd door GekkePrutser op 17 november 2020 22:27]

Thanks, dit zijn goede punten om me nog wel even in te verdiepen voordat ik die knoop doorhak. Ik zat niet zozeer te denken aan een vervanger voor mijn (Windows) desktop, maar toch.
Zelf zou ik het niet indrukwekkend noemen, maar wel in lijn met de verwachtingen. Apple bouwt al heel wat jaren de eigen ARM SoCs nadat ze de firma die het voorheen voor hen deed hadden overgekocht. Het is dus zeker geen onbekend terrein voor hen.

iOS is ooit begonnen als een fork van OS X, dat macOS dus over te zetten was, was al langer bekend en als nu blijkt dat iOS apps soms slecht werken komt dat vooral omdat iOS en macOS door de jaren heen verder en verder uit elkaar zijn gegroeid en men deze nu stilaan weer moet gaan integreren.

Ik zie ook niet direct in waarom je dit zou doen twijfelen. Het is niet alsof ARM ineens voor een heel andere beleving zal zorgen. Het is gewoon een volgende stap. Je maakt uiteindelijk nog altijd in de eerste plaats een keuze op het ecosysteem en de software die je wenst te gebruiken lijkt me, en toch niet op de onderliggende hardware.
Nouja, met indrukwekkend bedoel ik dan ook meer dat dit echt niet een makkelijk transitie is. Dat Apple er ervaring mee heeft, snap ik. Maar dat geldt ook voor anderen (Microsoft bijvoorbeeld) en zo vaak komt dit toch niet voor? Daarnaast werk ik zelf ook bij een groot bedrijf, en daar doen we al 15 jaar over een eenvoudige hardware-switch, die lang niet zo complex is als deze... maar misschien spiegel ik het teveel aan mijn eigen ervaring.

Waarom ik twijfelde was omdat ik de prijs/performance altijd aan de slechte kant vond. Nu de performance omhoog lijkt te schieten, geen ‘fans’ nodig heb (bij de air) vind ik het toch een betere propositie worden.
Ik heb wel een MacBook pro, maar ik denk over te stappen naar een Windows Laptop. Zakelijk heb ik minimaal 32 GB nodig en de kosten beginnen de pan uit te rijzen.
Ja, dat kan ik me voorstellen. De prijzen die Apple vraagt voor extra upgrades (die niet eens zo indrukwekkend zijn) is ook voor mij altijd nog een drempel.
Ik zou dan ook puur voor licht werk en thuisgebruik een Apple kopen. Maarja... dan issie wel weer heel duur ;-).
Of gewoon een HackIntosh bouwen op je Intel hardware, er staan zat voorbeelden op het net. Ik had het op mijn Asus laptopje staan en werkte goed. Heb je de look en feel van het Apple OS en de goedkope mainstream hardware. O ja, bij mij moest er wel een wifi kaartje in met een Broadcomm BCM43*** chip om te werken met OS-X driver. Triple boot kan ook, zet je Linux en Windows er naast. /afdwaal modus=uit
Daar moet je zakelijk niet aan beginnen, dat soort illegale hobby-meuk. Als je je geld ermee moet verdienen moet het gewoon werken.
Ik denk dat Intel "het" gewoon niet meer heeft. Ze hebben zo lopen sukkelen de laatste jaren dat ze van alle kanten worden ingehaald. Ik vind het niet gek dat deze chip het zo goed doet. Komt Intel nog terug?? Het kan maar dan moeten ze een grondige en juiste re-organisatie doen.
Nu is de grote vraag hoe hard het gaat aan de M1 kant, zal Apple ooit de chips aan andere partijen gaan verkopen?
Er was een draadje in HackerNews waarin een artikel besproken werd "Intel's disruption is now complete". In het draadje was de top reactie als volgt:
As someone who worked on Intel's phone chip: we definitely didn't win it. We fucked it up twelve ways to Sunday. Why: giant egos. There were turf wars between Austin, Santa Clara and Israel over who would design it, and the team that won out had long since lost its best principle engineers and had no clue how to spin the architecture to meet the design win. Otellini's hindsight hedge is pure spin: we knew the landing zone, we just didn't know how to get there. And the aforementioned turf war guaranteed we didn't get access to other teams' talent. I'm bitter because it was a really fun team when I moved from Motorola to Intel Austin, and then it just corroded over political battles.
Bron: https://news.ycombinator.com/item?id=25092721

In het draadje spreken nog wat andere ex-Intel medewerkers. Wellicht interessant om te lezen.

[Reactie gewijzigd door MacWolf op 17 november 2020 19:25]

Intel kan zeker terugkomen. AMD heeft het ook gedaan. En Intel heeft heel diepe zakken, niet vergeten dat ze zoveel meer doen dan alleen maar CPUs en opslag.
Wel jammer dat het nog steeds vrijwel alleen synthetische benchmarks zijn die voor mij als gebruiker niets zeggen over de performance die ik zou morgen verwachten zou ik er een kopen.

Als ik kijk naar naar onze relaties die Apple hardware gebruiken dan zou ik graag willen zien hoe bijvoorbeeld Adobe CC suite prestaties zijn, bijvoorbeeld wat doet Photoshop met een boel (3rd party) plugins., maar ook bijvoorbeeld hoe goed presteren ze met virtualisatie (ik ga er even vanuit dat Bootcamp met Windows niet meer mogelijk is, ook niet met Windows voor ARM verwacht ik), bootcamp zie ik nog redelijk regelmatig gebruikt worden, maar dan blijft dus virtualisatie over.

En bijvoorbeeld voor Prive, hoe goed draaien games op deze Mac's. Ik heb bijvoorbeeld best wat spelers in mijn WoW guild die op Mac spelen. Kunnen die straks onbezorgd een nieuwe machine kopen of gaat dat een heel gedoe worden met compatibiliteit en allerhande issues.
Dan kijk je even verder dan je neus lang is, en zoek je dat toch op? Genoeg voorbeelden van real life performance te vinden, mensen zaten ook met smart te wachten op deze computers, ze worden volledig onderzocht online. En Blizzard heeft vanochtend al aangegeven dat ze day 1 ARM compatible zijn, voor Mac en Windows.
Dan heb je ook vast wel wat linkjes, ik vind namelijk (vrijwel) geen enkele review van gekende reviewers die voornamelijk real life workloads testen, het is overal voornamelijk synthetics zoals geekbench. Losse flodders van (bijvoorbeeld) reddit posters heb je niet veel aan omdat dit meestal geen 1 op 1 vergelijkingen zijn in gecontroleerde condities.

Blizzard klopt inderdaad, had ik nog niet gezien toen ik er van de week naar zocht, maar de post is er inderdaad sinds vandaag: https://us.forums.blizzar...update-november-16/722775
Paar interessante links, maar het geen ik (voornamelijk) zoek komt er niet direct in terug voor zover ik kan vinden. Namelijk performance vergelijkingen m.b.t. de Adobe CC suite en virtualisatie performance en support.
Die had ik volgens mij allemaal al gezien en die testen voornamelijk synthetische workloads als geekbench. En maar vrij weinig real world. En vind ik dus minder interessant.
Meertje verwacht al zijn wensen op een presenteerblaadje. Als je bijv kijkt naar de reviews van MKBHD of TheVerge, worden er genoeg hints gegeven dat zowel Rosetta 2 prima werkt voor Photoshop en dat ze heeeel hard hun best moeten doen voor throttling.
Compatibiliteit is geen issue, het schijnt zelfs zo te zijn dat butt ugly x86 code beter presteert op Rosetta2 op Apple Silicon dan dat het _native_ loopt op een Intel processor.

Ik zie qua gaming overigens wel een prachtig partnership opdoemen: Nintendo & Apple! Stel je eens voor dat Nintendo zometeen met een console kan komen op basis van Apple Silicon die krachtiger is dan de molochs X Box Series X en PS5 maar in een klein elegant doosje verpakt zit. Doe daarbij de Zelda/Mario franchise en je hebt een gamechangende winner in handen!
Ik vraag me eigenlijk af of Apple hun chips wel beschikbaar willen stellen aan 3rd parties, maar een interessante suggestie is het zeker.

Rosetta2 lijkt het aardig te doen, maar beter dan native vraag ik me toch echt af. Daar zou ik graag wat real life scenario's voor zien. Anands CB R23 resultaten zetten de M1 gelijk met een recente Intel cpu (native ST) en de performance onder rosetta ST gelijk met een bijna 5 jaar oude Intel cpu.

https://images.anandtech.com/graphs/graph16252/119145.png

In MT doet de M1 het native beter en in emulate redelijk gelijk aan een recente Intel cpu, maar dat is wel t.o.v. een quadcore Intel cpu, waar de Apple cpu 8 cores heeft en CB schaalt normaliter zeer goed op meerdere cores, al is het wel de vraag of CB zowel de big als de little cores volledig belast of niet. Is dat niet het geval, en benut het alleen de 4 big cores dan is het een zeer goed resultaat zowel native als emulatie, worden wel alle 8 cores belast is het nog steeds erg goed, maar wel iets minder indrukwekkend.

Overall zijn het zeer mooie resultaten, maar ook daar is van toepassing dat deze workload de andere niet is. Op basis van een paar tests kan nog niet beoordeeld worden of Rosetta2 in alle workloads goed werkt, ik heb bijvoorbeeld in het verleden gezien bij relaties (bij de overgang van Power naar Intel) dat relatief kleine zaken deze emulatie enorm kunnen verstoren in bepaalde workloads.

[Reactie gewijzigd door Dennism op 17 november 2020 19:07]

In MT doet de M1 het native beter en in emulate redelijk gelijk aan een recente Intel cpu, maar dat is wel t.o.v. een quadcore Intel cpu, waar de Apple cpu 8 cores heeft en CB schaalt normaliter zeer goed op meerdere cores, al is het wel de vraag of CB zowel de big als de little cores volledig belast of niet. Is dat niet het geval, en benut het alleen de 4 big cores dan is het een zeer goed resultaat zowel native als emulatie, worden wel alle 8 cores belast is het nog steeds erg goed, maar wel iets minder indrukwekkend.
De kleine cores doen wel mee, de MT score is (significant) meer dan 4 maal zo hoog als de ST score.
Zal een joint venture Nintendo/Apple gaming moeten worden inderdaad. Nintendo kan natuurlijk ook weer bij Nvidia gaan shoppen. Maar ik zie wel synergie bij Nintendo/Apple: Apple kan het platform leveren (Apple Silicon, Apple services) en Nintendo de gaming content.

Verder denk ik dat Nvidia ook op zn hoede zal zijn voor een discrete Apple GPU die er aan zit te komen.
Dat is niet waar. Compatibiliteit is een issue. Zo werkt FL Studio niet onder Rosetta 2. Wat Apple waarschijnlijk veel helpt is dat heel hun eigen gebouwde Cocoa framework efficient geemuleerd kan worden gezien ze gewoon de calls oppakken en afwerken in ARM. Laat FL Studio nu hier en daar geoptimaliseerde assembler gebruiken...
Waar het mijn inziens op neerkomt is dat het performance-wise dom is om welke Mac(Book) dan ook te kopen die nog niet voorzien is van een M1 chip. Alleen als je afhankelijk bent van een aparte Windows installatie is die keuze nog te verantwoorden.

[Reactie gewijzigd door nms2003 op 17 november 2020 22:17]

...en als 16GB RAM niet genoeg is
Klopt. In dat geval zou ik het komende jaar even afwachten. Vrijwel alle Macs zullen binnen een jaar overgaan op M chips en dan zal er in het Pro segment meer ruimte komen voor RAM.
Swap op een heel snelle SSD is niet zo erg. Tenzij je echt meer dan 16GB in een keer gebruikt zit het wel goed.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True