Apple presenteert eigen M1-soc met 16 miljard transistors voor Macs

Apple heeft zijn eerste eigen Arm-chip voor Macs gepresenteerd. De M1 is een soc die op 5nm wordt gemaakt en 16 miljard transistors bevat. De chip heeft 8 cpu-cores, waarvan 4 krachtige en 4 zuinige. Ook bevat de soc een gpu en dram.

Apple M1-socVolgens Apple zijn de krachtige cores van de M1-chip sneller dan de snelste cpu-cores bij Intel-cpu's van dit moment. Op welke kloksnelheid de M1-chip draait, maakt Apple niet bekend. Naast de vier krachtige cores, heeft de chip vier zuinige cores. Die gebruiken volgens Apple maar een tiende van de energie en zijn bedoeld om eenvoudige taken uit te voeren.

De soc heeft een geintegreerde gpu met 'tot aan' acht cores en 128 execution units. Die bewoording wijst erop dat Apple varianten van de M1-chip gaat uitbrengen met verschillende gpu's. Apple claimt dat de gpu uit de M1 veel sneller is dan de geïntegreerde gpu's van Intel-processors.

Net als bij de A-socs voor iPhones en iPads, zit er een Neural Engine in de M1-soc. Het gaat om een variant met zestien cores, net als in de A14-soc. Ook voegt Apple zijn eigen Secure Enclave toe aan de chip.

Apple claimt dat de M1-chip veel beter presteert dan de Intel-chips die de fabrikant nu gebruikt in zijn MacBooks. De chip zou dezelfde piekprestaties halen bij slechts een kwart van het verbruik. Apple presenteerde de M1-soc tijdens een presentatie dinsdagavond, waar ook een MacBook Air, MacBook Pro en Mac mini met de nieuwe ARM-chip werden aangekondigd.

Apple kondigde in juni aan over te stappen op eigen Arm-chips voor al zijn Mac-systemen. Er komen nog wel nieuwe apparaten met Intel-processors, maar over twee jaar moeten alle pc's en laptops van Apple voorzien zijn van eigen chips. Tweakers schreef een achtergrondartikel over Apples overstap van Intel naar Arm.

Door Julian Huijbregts

Nieuwsredacteur

10-11-2020 • 19:20

274

Lees meer

Reacties (274)

274
249
101
13
0
98
Wijzig sortering
Vergeet de GPU niet: integrated graphics met 8 cores, goed voor 2.6 terraflops. In vergelijking met de Nvidia 3080 desktop GPU vrij weinig (29.77 flops), maar vergeleken met een PS4 (1.84 flops) en een Intel Iris 640 (1.690 flops) een aardige upgrade.
Anoniem: 58485 @iApp10 november 2020 19:33
2.6 teraflops is 1/3de van wat een RX580 gemiddeld doet. Dus echt knallende performance is het (nog) niet.
En hoe groot is de RX580?

https://www.google.com/ur...i3dDO-OwCFQAAAAAdAAAAABAH

Als je kijkt naar de grootte van de RX580 en dat vergelijkt met de M1 dan is die 1/3de performance van een RX580 echt wel "knallend" te noemen naar mijn mening.

Vooral voor een ARM Chip is 2.6 TF echt wel indrukwekkend.

Bijvoorbeeld de Snapdragon 865, dus de snelste consumer ARM chip haalt maar 1228 GFlops. Dat is vergeleken met de M1(beide ARM) dus meer dan de helft langzamer.
https://nanoreview.net/en...s-qualcomm-snapdragon-865

En vergeleken met de Surface X (vrijwel snelste Windows on ARM apparaat) is het ook echt wel indrukwekkend. Surface Pro X doet ongeveer 2 Teraflops.

Nu zegt teraflops niet alles maar het is wel een goede indicatie van compute power.

[Reactie gewijzigd door Snowfall op 25 juli 2024 02:04]

Maar een Teraflop zegt natuurlijk helemaal niets. FP32 FLOP = shading units x kloksnelheid x 2. Dat is alles. Het gaat om de efficiëntie van de architectuur. Zo is bijvoorbeeld de R9 Fury X is een 8,6 TFLOP kaart, de RX 5700 een 7,9 TFLOP kaart, maar de 5700 presteert in vrijwel in alle gevallen minimaal 50% sneller, vaker veel beter.

Een ander voorbeeld is Xbox Series S. Een 4,2 TFLOP machine, maar door de verbeterde architectuur is de machine net zo rap als een 6,0 TFLOP Xbox One X.

In het geval van Nvidia worden bijvoorbeeld ook de int/fp cores meegeteld, terwijl deze cores het grootste gedeelte van de tijd gebruikt worden voor integer calculaties en dan dus geen floating point kunnen verwerken. Daarmee komt Nvidia op een hoog getal dat enkel in theorie zo kan werken. De realiteit is dat ze slechts iets meer dan de helft aan bruikbare TFLOPs hebben.
Zucht. Ik beweer helemaal nergens dat TF iets zegt over de complete performance. Staat ook gewoon in het zinnetje dat ik al op 19:54 heb toegevoegd.
Het gaat mij ook om de reacties erboven. Zo wordt de vergelijking met de PS4 en RTX 3000 series gemaakt, terwijl die vergelijking niet op gaat. Nvidia smokkelt nogal en de PS4 GCN 2.0 architectuur is verouderd. Tevens kennen we de architectuur van Apple niet, dus het is maar de vraag hoe effectief ze per FLOP zijn. Dat kan heel goed uitpakken en misschien wel net zo krachtig als een RX 570, of het tegenovergestelde.

We weten het simpelweg niet, het is daarom te vroeg om te zeggen of die 2,6 TFLOP indrukwekkend is. Want het zegt pas iets als we de performance kennen.
Vergelijk met de PS4?.... But whyyyy?? Een stikoude en eigenlijk vrij goedkope console.... die toen al underpowered was. Ik zie de relevantie van het vergelijk niet helemaal. Of eigenlijk helemaal niet.

[Reactie gewijzigd door VonDudenstein op 25 juli 2024 02:04]

Ik zie hem wel. Het is een console die nu heel gangbaar is, dus als referentie een logische keuze.
TFLOP vergelijk van console tot console kan je al niet 1 op 1 doen, laat staan 2 totaal verschillende producten met een andere architectuur. En waarschijnlijk ook ander gebruik (breed/game focussed).

Dus een splinternieuwe chip die juist in toekomstige producten gaat, vergelijken we met een 7 jaar oud product. Een product dat op dit moment vervangen te wordt, specifiek omdat het niet meer mee kan. Iets wat al langer duidelik is en blijkft uit tests, benchmarks etc. PS4 kan de huidige games gewoon niet meer aan. Zelfs de PS4pro heeft er moeite mee.

Maar dan is de redenatie..?. Er zijn er wel veel van verkocht! (gangbaar). Brilliant.

En dit staat geheel los van hoe tof deze chip is. Want ik verwacht niks minder van Apple dan dat ze met een chip komen die Intel wegblaast. Hoe ga je dit anders aan je gebruikers verkopen.
"he fellas.. we gaan van Intel af. Enne.. ja onze eigen chip is wel beetje halfbakken in performance, maar het scheelt ons wel een hoop geld! Dus onze investeerders zijn iig weer super blij. Can I have a hell yeah!???"
Nu zegt teraflops niet alles maar het is wel een goede indicatie van compute power.
Dat is het dus niet.
Voor je iemand zo statig corrigeert;

https://en.wikipedia.org/wiki/FLOPS

In computing, floating point operations per second (FLOPS, flops or flop/s) is a measure of computer performance, useful in fields of scientific computations that require floating-point calculations
Een 'perfecte' manier om één specifieke soort "getal" (benadering van een getal d.m.v.. een getal met beperkte accuraatheid en een factor om mee te vermenigvuldigen) theoretisch te berekenen.

Leuk voor alle triljarden financiële transacties die daar geen gebruik van maken.

Er is een overduidelijke reden waarom benchmarks gebruikt worden om de daadwerkelijke 'compute' van een CPU/GPU te meten. FLOPS zijn een (zeer) slechte representatie voor daadwerkelijk gebruik.

Geen aandacht voor geheugen bandbreedte, geen aandacht voor (register) latency, geen aandacht voor hoelang een clock speed vast gehouden kan worden, geen aandacht voor texture fillrate, geen aandacht voor en ga zo maar door.

Laten we CPUs ook alleen in Ghz met elkaar vergelijken :P

[Reactie gewijzigd door drdelta op 25 juli 2024 02:04]

Floating point operations zijn trouwens wel gewoon een overgrote deel van alles wat een GPU doet hoor (daarom zijn ze er zo goed in). En veel benckmarks zijn gewoon strak hoeveel single precision lineaire algebra een GPU kan doen, dat is nou eenmaal wat het overgrote deel van graphics is. Die financiële transacties gaan toch allemaal op de CPU met integers. En niemand draait die op zijn MacBook of andere consumer hardware.

En laat dan zeggen dat je een rate haalt van 90%+ of iets dergelijks in je compute kernel. Het enige wat uiteindelijk een probleem kan gaan zijn is de memory bandwidth, maar met 2.6 TFLOPS max is dat hopelijk niet zo'n issue voor compute loads.
Alleen jammer dat het aantal TFlops vrijwel niks zegt over de prestaties. Tenzij je gpu's uit eenzelfde generatie of architectuur met elkaar gaat vergelijken.
Dan heb je ook nog geheugen en de benodigde bandbreedte om de gpu te voeden etc. Renoir zit volgens mij met de GPU op iets van 2 TFlops, maar dat geeft nog steeds weinig indicatie over de echte performance vergeleken met een RX 580.

Staar je dus niet blind op het aantal TFlops maar wacht gewoon de benchmarks af.

Daarnaast de RX580 is op 14nm gemaakt. Deze Apple chip op 5nm wat een gigantisch verschil maakt.
Lees mijn laatste zinnetje eens dat ik om 19:54 heb toegevoegd.
Toen was ik nog aan het typen, gezien ik eerst de info moest opzoeken ipv dat ik random spul post :p..
De Snapdragon 865 is ook 7nm gemaakt, verder is t een mobile chip met kleinere energie footprint. Heeft t een modem wat ook silicon kost. Kortom lastig te vergelijken misschien wanneer Qualcomm hun 5nm laptop/tablet chip introduceert kan er vergeleken worden.

Verder qua graphics 2.6TFLOPS zegt helemaal niets, we hebben geen idee hoe de graphics architectuur werkt. Het is een GPU die moet renderen, geen accelerator voor GPGPU. Dus hele architectuur en software backend (metal ipv vulkan welke ook langzamer is).

Ben benieuwd wanneer we echte benchmarks krijgen wellicht kan t een gamechanger zijn, maar vooralsnog ben ik skeptisch.
En hoe oud? Meer dan 4 jaar. Ook 2 nodes ouder, node-optimalisaties niet meegerekend. En de architectuur stamt uit 2012. De opvolgers hebben enorme stappen vooruit getoond. De nodes ook.

AMD claimt voor de 4800U, een 15W laptop-chip ook 1.8TFlops. En da's met Vega, een evolutie van de RX480. Niet RDNA of RDNA2. Ik weet niet of Apple de boel zó ver vooruit is. Een node verder en als eerste met de introductie. Intel hamert aan Xe, da's ook veelbelovend. Kan best dat Apple bijgebeend is in een half jaar.
@Arrigi dit lijkt me dat er eDram in de soc van Apple zit. Dat gaf ook veel extra power aan intel Iris eGPU's.

En AMD komt snel met hun 5000 apu serie, met zen 2 en rdna2, allebei op 7nm. Dan moet amd nog naar 5nm nog en zen3 naar de apu brengen.
.
Feit is dat Apple ver voor loopt op de rest van het Arm ecosysteem en dat de tradiontionele gpu powerhouses, nvida en amd, hun dominantie aan het verliezen zijn. Net nu de toepassingen van gpu exploderen. Maar het arm software sysyeem is nog lang niet zo ver als de tradionele gpu bakkers aanverwant aan x86. 10 jaar optimalisaties, buiten de api's om, is niet zomaar weggewerkt.

[Reactie gewijzigd door Bulkzooi op 25 juli 2024 02:04]

Feit is dat Apple ver voor loopt op de rest van het Arm ecosysteem en dat de tradiontionele gpu powerhouses, nvida en amd, hun dominantie aan het verliezen zijn.
Apple loopt voor op het ARM ecosysteem, ondanks dat zij letterlijk ARM gebruiken? :?
Ze lopen wellicht voor in het ARM ecosysteem.

Hoe zijn Nvidia en AMD daarnaast hun dominantie aan het verliezen? Vooralsnog is er niemand, ook Apple niet, die in de buurt komt van de performance die in de mobiele en desktop kaarten van beide zitten.
Sterker nog, alle RAM zit gewoon bij in de chip ingebakken. Wil je nu een MBP met M1 kopen met meer dan 16GB RAM? Kán niet. Jammer joh.

Zal vast wel helpen met de snelheid.

Apple en AMD delen de chipbakker: TSMC. Apple zit nu op 5nm, AMD op 7nm. Me dunkt dat een Zen3 APU met RDNA(2) op 5nm best competitief zou zijn.
Die nm zegt niet zo veel. Het is marketingpraat. Het zegt niets over de werkelijke gate length. Intel’s 14nm is eigenlijk iets van ik meen 53nm en AMD’s 7nm iets van 48nm. Dat zal voor Apple’s 5nm niet veel anders zijn. Back in the day (begin 90’s) was het nog ongeveer gelijk.
Toch wel, het is beide TSMC. Apple koopt productie daar gewoon in. AMD ook. Deze zijn dus perfect vergelijkbaar elkaar opvolgende nodes.
Dat lost wel mijn vraag op waarom Apple de 'oude' MacbookPro nog te koop heeft staan op de site. Die kunnen wel tot 32 GB. Ook is er de optie voor een 4TB SSD die ontbreekt bij de M1 MacbookPro's.
Interessante positionering. Technische beperkingen of marketingstrategie.
Het heeft denk ik met de marktsegmentering te maken: de 13” MBP lineup was al verdeeld in een ‘entry’ en een ‘performance’ model. Het ligt in de lijn der verwachting dat de snellere wordt uitgebracht met een M1X Soc (= meer cores op zowel CPU als GPU), 4 USB4 poorten en de mogelijkheid om meer RAM en SSD te configureren.

Daarnaast zou het me niet verbazen als deze uitkomt met een nieuwe generatie behuizing, er gaan geruchten over bijvoorbeeld een 14” variant. De nu geïntroduceerde modellen zijn niet te onderscheiden van de Intel-based voorgangers helaas ...

[Reactie gewijzigd door Metten op 25 juli 2024 02:04]

RAM is geintregreerd in de M1. Ze worden bebakken met 8 of 16GB aan RAM, en met 7 of 8 GPU cores (dus in 4 varianten - of 2 varianten met 1GPU core uitgeschakeld in de Air). Als ze de RAM blijven integreren dan moeten ze straks verschillende M1X Socs moeten uitbrengen bij 8/16/32/64GB RAM. De geintregreerde GPU in de M1 heeft ook geen dedicated RAM, maar wordt de RAM gedeeld met CPU en GPU. De M1 heeft I/O beperkingen voor TB poorten en SSD grootte. Je kunt maximaal 2 schermen aansturen (en niet drie zoals nu bij de Intel CPUs). eGPU via thunderbolt wordt niet ondersteund en volgende week zullen nog wel meer beperkingen naar boven komen hieraan gerelateerd. Voor de meeste kopers hoeft dat geen probleem te zijn, voor de professionals misschien wel.

Vraag me dan ook degelijk af of ze geen compleet nieuw CPU nodig hebben voor hun workhorses, de Mac Pro's. De M1 is een mobiele CPU en geen desktop CPU.
Het mag evident zijn dat de M1 niet geschikt is voor de "power user" die graag gebruik wil maken van (e)GPU's, 32+GB RAM, etc. het is goed mogelijk dat er nog een M1X komt die hetzelfde recept volgt als de M1, maar dan méér: Meer CPU/GPU cores (12 tot 16), 32/64GB RAM, meer SSD, meer PCIe lanes (dedicated GPU support), meer USB/TB3/4 poorten. Het is zeker de vraag of Apple dan intern of extern RAM zal toepassen. Bij de huidige 27" iMac en Intel Mac Mini kan je dat zelf nog upgraden - hopelijk blijft Apple dat ondersteunen, maar ik heb er een hard hoofd in eigenlijk.

Daarna is er natuurlijk ook nog een "M1XXX" te verwachten voor in de (i)Mac Pro, waarbij vrijwel zeker het RAM extern zal zijn, naast andere te verwachten features als extreem veel cores en PCIe lanes.

Dat de eerste Mac ARM processor van Apple qua configuratie heel dicht zit bij wat ze in iPads leveren is natuurlijk ook niet verbazingwekkend en de M1 is feitelijk niet veel meer dan een A14X. Het wordt pas echt interessant om te zien of de architectuur ook goed opschaalt naar meer high-end toepassingen.
Ja ben ook zeer benieuwd hoe ze een ARM MacPro in elkaar gaan zetten. Intel mag dan wel steekjes hebben laten vallen. De Xeon chipset heeft behoorlijke features. En een 28-core MXXX chip met al deze features? We gaan het zien
De ram & de M1 chip zijn gewoon losse dies vastgesoldeerd op 1 printplaat.
De M1 soc bestaat niet uit 1 chip maar uit 3 chips voor de versie met 16GB ram en 2 chips voor de versie met 8GB ram. Als ze meer ram willen kunnen ze gewoon meer chips erop zetten of de 8gb ram chips vervangen voor 16gb versies.

https://imgshare.io/image/32gb.NcLww9 Zo heb je dus 32gb ram

[Reactie gewijzigd door bladerash op 25 juli 2024 02:04]

https://www.apple.com/mac/m1/ - hier lees ik toch echt dat alles in één SOC zit.
you are right, dacht dat ze de RAM ook in de M1 gebakken hadden. ALs je de woorden leest op de webpagina over de M1 is het wel wat misleidend omdat ze daar zeggen alles in één chip te hebben gestopt maar het plaatje toont iets anders.

[Reactie gewijzigd door xavalon op 25 juli 2024 02:04]

(edit: foute reactie - ik dacht dat het om Intel-macbooks ging)

[Reactie gewijzigd door _Pussycat_ op 25 juli 2024 02:04]

Grote verschil hier is niet proces, maar architectuur, ARM vs x86

Een node geeft 10-15% verbetering. Soms wat meer soms wat minder, grotere verschillen komen tegenwoordig door arch.

En we weten dat apples ARM soc’s erg snel zij. Sinds de ipad pro, waar die met een 4w cpu 15w intel en amd cpu’s bijhield en soms zelfs versloeg.

Uiteindelijk moeten we wachten op benchmarks, maar ik denk dat dit best wel eens zwaar indrukwekkende resultaten kunnen zijn gezien wat men met 4-5 w kon doen.
Het ligt maar helemaal net aan de use case is en hoe de code geschreven is het is Cisk VS Risk . x86 CPUs hebben heel veel instructies waar in ze vele malen sneller zijn dan een arm cpu ... Arm cpus zijn met een reduced instructie set opgebouwd dat maakt ze zeer efficiënt... Maar langzaam in taken waar een x86 maar 1 instructie voor nodig heeft en arm misschien wel 6-7 ... Met instructies bedoel ik als
Dingen als AES, AVX, AVX2, FMA3, MMX, SHA, SSE, SSE2, SSE3, SSE4, SSE4.1, SSE4.2, SSE4a, SSSE3, x86-64
Bij elke generatie komt er weer instructies bij om het nog sneller te maken ... ..
Risk gebruikt keep it simple idiot.

Het ligt dus er aan de use case
Het ligt zeer zeker aan de usecase, maar ik krijg toch regelmatig de vraag van collega’s waarom hun MacBook in bepaalde gevallen toch veel trager kan zijn dan hun iPhone of iPad. Dat heeft natuurlijk niet alleen met de CPU architectuur te maken maar dat is zeker een onderdeel van het verhaal. Het is bekend dat de iPad (Pro) óók voor serieuze workloads al heel aardige prestaties neerzet. De M1 lijkt overigens qua core counts en dergelijke zeer veel op wat een A14X zou moeten zijn, het zijn waarschijnlijk de andere elementen in de SoC die de ‘M’ serie onderscheiden van de ‘A’ Serie
ARM krijgt evengoed uitbreidingen op de instructieset hoor. Scroll eens door deze pagina: https://en.wikipedia.org/wiki/AArch64
En zodoende kan je dus ook perfect code compileren voor een M1 die niet draait op een snapdragon.
Betrouwbaar zijn ze vaak wel, maar ze zijn absoluut goed in het ‘cherrypicken’ van de resultaten, waardoor ze voordoen alsof een bepaalde CPU/Mac/etc ‘4x zo snel is dan die andere’ terwijl dat vaak alleen maar op een zéér specifiek onderdeel is.

Uiteindelijk moet de praktijk het uitwijzen, maar de gelekte benchmarks van de DTK duiden toch op heel aardige performance. Zelfs x86 binaries lijken relatief snel te gaan werken.
Dat apple voorloopt? Ze knallen in ieder geval Intel de deur uit en hebben een soc met 16 miljard transistors op 5nm.. conclusies zijn ook gebaseerd op de aanname dat Apple hooguit een beetje terug schaalt in performance, ten gunste van extra accuduur, responsiveness.

Tja, amd heeft nog we een 2 jaar nodig om zoveel transistors zo zuinig en efficient te laten draaien.
En met ARM, wordt Nvidia ook ineens keyplayer.

[Reactie gewijzigd door Bulkzooi op 25 juli 2024 02:04]

De rx580 is nu zo'n 3 jaar oud (rebadged rx480).
Slechte vergelijking, SD 865 is limited vanwege het feit dat hij in telefoons gaat.
Die kan je niet ff een GPU geven die 3x zo snel is ivm met stroomverbruik en dus hitte die je in je smartphone niet kwijt raakt.

Of dacht je dat CPU/GPU van Qualcomm niet sneller kon? In laptops echt wel...
Of dacht je dat CPU/GPU van Qualcomm niet sneller kon? In laptops echt wel...
Niet gelezen?
En vergeleken met de Surface X (vrijwel snelste Windows on ARM apparaat) is het ook echt wel indrukwekkend. Surface Pro X doet ongeveer 2 Teraflops.
Staat gewoon in mijn originele post.
Bijvoorbeeld de Snapdragon 865, dus de snelste consumer ARM chip
Onjuist. Een 8cx (nu verkrijgbaar in bijv Lenovo Slim 5) haalt 1800TF, een SQ1 haalt 2100.

De vergelijking met Snapdragon 865 is vooral waardeloos dat die voor telefoons bedoeld is; ik weet vrij zeker dat een 865 meer TF/Watt haalt.

[Reactie gewijzigd door kidde op 25 juli 2024 02:04]

Zucht. De SQ staan gewoon in m’n postje. Die doet ongeveer 2 TF.
En vergeleken met de Surface X (vrijwel snelste Windows on ARM apparaat) is het ook echt wel indrukwekkend. Surface Pro X doet ongeveer 2 Teraflops.
Zuchten of niet, het is niet handig de belangrijkste concurrent van de Apple M1, namelijk de 8cx Gen 2, onvernoemd te laten en aan een smartphone SoC te refereren bij een artikel over laptops.

Niet dat het uitmaakt, de Windows x86-emulatie verkreupelt de Qualcomm-prestaties toch, maar het tijdperk dat ARM laptops op smartphone SoCs moesten lopen is echt voorbij.

[Reactie gewijzigd door kidde op 25 juli 2024 02:04]

Volgens mij is niet uitgesloten dat bijvoorbeeld een (mobiele) Radeon RX 6800XT apart toegevoegd kan worden - wellicht lezen we dat in het volgende bericht ;)
Dan moet je het wel vergelijken met Intel integrated graphics ;)
2.6 teraflops is 1/3de van wat een RX580 gemiddeld doet. Dus echt knallende performance is het (nog) niet.
Uhhh en wie levert er meer in een dergelijke kleine laptop? Of zelfs maar de helft?
In een macbook air is het een enorme performance. In het voorjaar wordt de nieuwe 16” macbook pro verwacht. Erg benieuwd hoeveel gpu-kracht ze daar in kwijt kunnen
GPU is tot 8 cores, dus dat verschilt per config.
Enkel van de Macbook Air is er een versie met zwakkere GPU: 7 cores. Valt me toch op dat de chip dus in bijna alle toestellen identiek is (op kloksnelheid na?)
Dat verschil zal voor de meeste gebruikers echt nihil zijn, Apple levert die denk ik alleen vanuit het oogpunt van yield management. Zo kunnen ze SOCs met een afgekeurde GPU cord tóch verkopen.

Kloksnelheden worden niet genoemd, dat zal snel genoeg naar buiten komen. Het is opmerkelijk dat de hoeveelheid RAM genoemd wordt en je kan kiezen tussen 8GB en 16GB.
Vega 11 (Ryzen 3400G) heeft 1.746 TFlops wat ongeveer gelijk is aan de intel iris 640. Maar de vega 11 is wel ~70% sneller in games. Blijft dus appels met peren vergelijken. Maar even wachten op de reviews
Tflops zijn een betekenisloze meeteenheid om performance tussen verschillende architecturen te vergelijken.

Mijn auto heeft 14.000pk op 145.000rpm. Maar wat is de koppel in nM...? ;-)
Koppel zegt juist niks als je niet weet over het aantal toeren dat er gedraaid kan worden. Uiteindelijk zegt het aantal PK’s (of beter gezegd: KW’s) iets over hoeveel kracht geleverd kan worden over een bepaalde tijd. De hoeveelheid koppel zegt, bij een gelijkblijvend motorvermogen, vooral wat over het motorkarakter.

Feitelijk kan je koppel met IPC vergelijken en toerental met de kloksnelheid. FLOPS zijn dan wel degelijk het meest analoog aan PK’s.
Als we dan verder gaan vergelijken moet je de architectuur meenemen als combinatie van stroomlijn en gewicht van de auto: 100pk in een kleine stadsauto is vrij veel, maar in een grote SUV is het heel weinig.
Doet me erg denken aan clock speeds van processors.

Volgens deze metriek zou mijn Intel Pentium 4 3.2GHz bijna net zo snel zijn als mijn Intel Core i5 6600.
Het is niet echt clock speeds als wel doe MIPS (millions of instructions per seconds) maat die je zo nu en dan nog terug ziet.
PS4 is 7 jaar oud. Vergelijk het dan met de Xbox Series X. Evenveel transistors (15,3 miljard), maar dan 8 zen2 cores en 12 TFlop Rdna2. Ipv een 4+4 cpu en 2,5 TFlop gpu.
Als er een mac versie is draait dat zowieso door rosetta2 :)
En als de Metal API wordt gebruikt dan hoeft dat niet eens langzaam te zijn: CPU instructies moeten vertaald worden, maar dat geldt niet voor de GPU.
De meeste AAA games zijn geschreven voor DirectX of Vulkan en niet zo zeer op Metal. Daarom zijn er ook weinig AAA games native op MacOS beschikbaar.

Intel, AMD en Nvidia hebben hardware support voor bepaalde DirectX versies in hun GPUs, bvb DirectX 12 en dat is maar de vraag of Metal voor alle DirectX onderdelen ook hardware support biedt.

Zolang een AAA game niet is geoptimaliseerd en gebruik maakt van Metal, kun je niet met zekerheid zeggen dat er geen enorme performance hit is als er én een vertaling moet zijn van Intel naar ARM (Rosetta deel) en deel van de game rendering via de CPU moet gaan versus via het GPU deel.

Laten we wel wezen, op full resoluties, highest quality, hoge FPS spelen van games vraagt om dedicated GPU met dedicated RAM (zeg maar minimum 6GB) met op zijn minst een paar keer de performance die de M1 met integrated GPU levert.

De M1 heeft niet eens dedicated RAM voor de GPU maar deelt het totale RAM geheugen met de CPU (dus 8GB instapmodellen is eigenlijk al een no-go).

De grote vraag is hoeveel moeite de AAA ontwikkelaars willen doen om hun games te porten naar MacOS on ARM en zo om te bouwen dat ze hoge FPS rates halen binnen een beperkt RAM geheugen.
Tja, eigenlijk verandert er dus helemaal niets op dat gebied, die AAA games waren er al niet voor de Mac en het lijkt er niet op dat ze nu wel massaal uit gaan komen.
Ik doelde eigenlijk ook meer op bestaande (dus x86) Mac titels: aan de graphics API’s verandert vrij weinig geloof ik al noemde Apple zelf specifiek Metal in de presentatie. Ik denk dat de meeste x86 titels vergelijkbaar of beter zullen presteren dan op de (nu vervangen) intel hardware met integrated graphics.
Als je dan toch zout op slakken legt doe het dan goed:
terra = aarde
tera = 10^12 = T

Dus teraflops

[Reactie gewijzigd door tweaknico op 25 juli 2024 02:04]

[...]

2600000000000000 flops voor Apple tegen nog geen 30 flops voor Nvidia? Kan het zijn dat een Nvidia 3080 29.77 gigaflops of zelfs terraflops heeft?
edit:
Blijkbaar heeft een RTX 3080 29,77 terraflops
Terraflops, is dat een kleur?
Anandtech ziet het wel zitten: https://t.co/OHh65Q1wff?amp=1
Apple claims the M1 to be the fastest CPU in the world. Given our data on the A14, beating all of Intel’s designs, and just falling short of AMD’s newest 5950X Zen3 – a higher clocked Firestorm above 3GHz, the 50% larger L2 cache, and an unleashed TDP, we can certainly believe Apple and the M1 to be able to achieve that claim.

This moment has been brewing for years now, and the new Apple Silicon is both shocking, but also very much expected. In the coming weeks we’ll be trying to get our hands on the new hardware and verify Apple’s claims.

Intel has stagnated itself out of the market, and has lost a major customer today. AMD has shown lots of progress lately, however it’ll be incredibly hard to catch up to Apple’s power efficiency. If Apple’s performance trajectory continues at this pace, the x86 performance crown might never be regained.

Twee uur geleden is met een prachtig Frans accent iets meer info over M1 en Metal gezet:
https://developer.apple.com/videos/play/tech-talks/10859 Daarin veel meer technische gegevens dan ik elders las

https://www.screencast.com/t/kyMnh2GMBAi0

Dit kan je verwachten:

We'll explore the Metal graphics and compute fundamentals of Apple M1, then take you through four important Metal features to make your Mac apps really shine on Apple silicon: tile shading, memoryless render targets, programmable blending, and sparse texturing.

[Reactie gewijzigd door HenkvanEss op 25 juli 2024 02:04]

De presentatie heeft het zelfs over Ray tracing, dan ben ik benieuwd wat men daar precies mee bedoeld.
Anoniem: 474132 10 november 2020 19:27
16 miljard transistoren in de platste Macbook Air zonder fan ooit, de Xbox Series X heeft ook een chip met 16 miljard transistoren met een fan van 13 cm en een vapour chamber. Ongelooflijk!

edit: Erg benieuwd wat nVidia gaat doen met Arm, alleen hebben hun geen OS technologie. Maar je ziet nu al dat Apple de degens gaat kruisen met Nvidia qua platform silicon dus dat kan een hele leuke race worden, Intel en Amd hebben het nakijken op hun laggard legacy X86-64 platformen, of zullen ze RISC-V gaan omarmen?

edit2: Weet wel dat de PS6 een Nvidia/ARM SoC gaat krijgen want het oversized design van de PS5 is een gotspe, dat past toch niet meer in het TV-meubel? Een letterlijke elephant in the room!

[Reactie gewijzigd door Anoniem: 474132 op 25 juli 2024 02:04]

Samsung maakt nand chips met 2 biljoen transistoren die geen actieve koeling vereisen ;)
Iemand gaat me vast verbeteren, maar: Warmteontwikkeling is niet alleen afhankelijk van het aantal transistoren. Denk aan oppervlakte van de chip, kloksnelheid, welk procéde, etc.
Ik kan je niet verbeteren je zinsopbouw en spelling zijn correct.
Op jouw punctuatie is dan wel weer wat aan te merken ...
En of het gebruikt wordt (, en hoe lang) :9
Als jij een GPU maakt met 8 miljard transistoren, dan zal een even snelle GPU met 16 miljard transistoren significant zuiniger zijn. Dus je kan paradoxaal genoeg een chip zuiniger maken door er meer transistoren in te stoppen.
De Xbox Series X gaat waarschijnlijk niet throttlen als je naar apple.com surft.
Hoezo ongelooflijk? Elke laptop van Apple van de afgelopen paar jaar kon niet op vol vermogen draaien zonder binnen een paar seconden op 99 graden te zitten en de CPU keihard terug te schroeven. Een zware CPU in een slecht ontworpen chassis duwen is geen prestatie :')
https://youtu.be/MlOPPuNv4Ec
Vanaf 4:00

Als de fan niet verbonden is met het koelelement van de cpu wordt ‘ie te heet... mega design flaw van Apple, waarbij gespeculeerd wordt dat Apple dat expres gedaan heeft om voor te sorteren op de ARM soc...
Tip: als je aan je URL '?t=<seconden>' toevoegt, kun je linken naar een timestamp. In jouw geval dus https://youtu.be/MlOPPuNv4Ec?t=240. Maakt het makkelijker om links naar video-onderdelen te delen :)
I know, maar ik was moe en had geen zin om meer moeite te doen :+

Thanks anyways :)
Precies één van de redenden waarom Apple van Intel afwilde inderdaad, minder power consumption per unit of of processing power.

[Reactie gewijzigd door ZpAz op 25 juli 2024 02:04]

Dat neemt natuurlijk niet weg dat ze opzettelijk slecht ontworpen laptops verkocht hebben. Benchmarks zullen het uitwijzen, maar verbaas je vooral niet als je nieuw Air straks ook weer van je schoot af kookt zonder enige vorm van actieve koeling.
Dat zou me wel verbazen eigenlijk. De iPad Pro's etc welke ook al snelle SOC's hebben koken ook niet weg bij gebruik en zijn ook passief gekoeld.
ik denk dat de tijd van een 45W gloeilamp op je schoot een beetje voorbij is.
Ik vraag me af hoe de Mac mini qua prestaties vergelijkt met mijn watergekoelde, overgeklokte 9700k met 160W (?) verbruik.
ik vraag me ook af waarom de optie van 10Gbit's ethernet verbind weg is, nu heb je alleen nog maar 1Gbit's.
Benchmarks zullen het uitwijzen, maar verbaas je vooral niet als je nieuw Air straks ook weer van je schoot af kookt zonder enige vorm van actieve koeling.
iPads en iPad Pro's weerleggen dit statement dus.
Ipad Pro Thermal Throttled dus ook onder sustained load.
Heb je vast wel een bron van.
iPad Pro komt al sinds de A12X in de buurt idd met verschillende workloads. bijvoorbeeld een 4K video exporteren op een iPad Pro 2018 met LumaFusion ging bijv sneller dan diezelfde 4K wil exporteren op een MacBook Pro 2018 15 inch.
Je mag toch zeker verwachten dat een laptop een flink voordeel heeft over een tablet, of leef ik dan echt in het verleden?
Dat hangt van de laptop af, en van de taak. Een ARM chip met hardware acceleratie voor bepaalde taken zal aanzienlijk sneller zijn dan een 'snellere' laptop CPU.
Geloof me ik geloofde t toentertijd ook niet hoor. Ik riep ook steeds dat ARM echt geen vat op de PC markt ging krijgen.

Maar je ziet het met Apple SOCs al sinds de A10X dat ze Intel i5 Chips bijhouden in Benchmarks zoals Geekbench. Zegt heel weinig maar zegt toch dat de rekenkracht er al was. De A12X (en A12Z) gaan gewoon soms nog verder met bijv dus het exporteren van een 4K video clip waar iPads dus Macbook pros met i7s voorbij gaat. En dan hebben we t over SOCs die niet actief worden gekoeld maar gewoon een beschermingskapje hebben.

En ik ben er werkelijk van overtuigd dat Apple dit met M1 ook gaat laten zien. Afgelopen jaren heeft ARM gewoon flinke stappen gezet.
Dat was inderdaad overduidelijk form over function. Maar bij Apple zijn ze ook niet achterlijk. Die snappen ook heus wel dat die situatie verre van ideaal is. Daarom kan ik ook goed begrijpen dat ze nu hun eigen chips designen, zodat ze weer form + function kunnen aanbieden.
De laptop wordt onder bepaalde situaties inderdaad erg warm. Maar als je gewoon een beetje wil photoshoppen of iets maken in illustrator dan functioneren ze als elke andere laptop. Wil je zwaardere programma's draaien dan worden ze inderdaad erg warm, en ja dat is kwalijk voor zo'n duur product. Nou hadden ze kunnen kiezen voor betere koeling zodat die ook zwaardere programma's goed draait, maar bij Apple is de vorm heilig en dus wouden ze daar geen concessies doen. Dat kan je "compleet achterlijk" vinden maar ze volgen de filosofie die apple groot heeft gemaakt. Ze zijn precies zo groot geworden door zich te richten op het design aspect en niet het functionele aspect zoals alle andere fabrikanten.

Maar als je denkt dat Apple blij is met de bovenstaande situatie dan heb je echt een bord voor je hoofd, ze willen natuurlijk liever design en functie en louter goede reviews krijgen.
ze willen natuurlijk liever design en functie en louter goede reviews krijgen.
Dan constateer ik dat Apple incompetent is.

Want ze hadden tijdens de ontwerpfase al kunnen constateren dat hun pc te warm wordt.
Ergens is dat toch onzin. Ik heb een MBP van begin dit jaar (instapper i5) en na een paar minuten youtube op firefox beginnen de fans toch wel behoorlijk te razen. Het vreemde is, mijn Lenovo 120S met een N3350 doet exact hetzelfde zonder ook maar warm te worden (blazen kan niet, ding is fanloos).

Dat vind ik knap. Het kan toch niet zo zijn dat een MBP 'extra rondjes moet rennen' voor een filmpje waar een eenvoudig prullaptopje dat niet doet?
Die N3350 heeft een TDP van 6 Watt, een i5 verbruikt waarschijnlijk al meer stroom terwijl je 'niets aan het doen' bent. Deze Apple M1 chips hebben blijkbaar een TDP van 10 Watt. Een mobiele i5 zit rond de 45 Watt.

Dat is natuurlijk 'peak power consumption'. Maar ook tijdens het 'weinig doen' zullen ze een hoger verbruik hebben dan een CPU die van zichzelf al een erg lage TDP heeft.
Let wel dat de "TDP" per processorfabrikant verschilt. Een AMD-processor met 45W TDP heeft een heel ander stroomgebruik dan een Intel-chip met 45W TDP. We zullen de benchmarks moeten zien om te kijken hoe vergelijkbaar Apple's standaard is met Intel (of AMD).

De recentste i5-processor die in een Macbook pro gezeten heeft, heeft een design max TDP van 28W. Dat is al significant minder dan de 45W die je noemt, maar vanwege het grotere proces zal Intel hier wellicht meer stroom verbruiken.

Een vergelijkbare i7 zit onder de 4.6W op idle, dat zal de i5 die nu in een Macbook pro nog beter kunnen. Apple past het power profiel van de Intel-chips aan om in hun vage koelinstallaties niet te smelten, vaak door laag te klokken en snel, kort keihard te boosten zodra er performance draw is, dus er is een goede kans dat de "normale" i5 in een Macbook pro het flink beter doet.

Het feit dat Apple geen getallen op hun assen heeft gezet in de grafieken spreekt mij boekdelen. Ik ben zeer benieuwd hoe goed dit uitvalt als je daadwerkelijke benchmarks gaat draaien, zowel qua performance als qua battery life.
Inderdaad, eerst de benchmarks maar eens afwachten. Van de website van Apple wordt ik niet veel wijzer, ze vergelijken de cpu-performance (2x sneller) van een MBP met 16GB ram met "latest‑generation high‑performance notebooks commercially available at the time of testing." Zeker met een redelijk belachelijke AMD-generatie die voor weinig geld behoorlijk veel performance biedt, is het de vraag waar ze mee vergeleken hebben.

Video processing (3.9x) wordt bepaald door een Air M1 te vergelijken met een Air i7: Iris Plus graphics in een laptop met zeer matige koeling en een i7-1060NG7 die niet uitblinkt in snelheid (mijn 8th gen i5 is sneller). Tel daarbij dat de i7 zeker terug zal klokken vanwege de hitte en die 3.9x klinkt (voor mij) ineens een stuk minder extreem.
Dat waren Intel cpus. Bij de iPad is dat wel anders met hun eigen cpus
Laat dat nou een van de redenen zijn voor de ontwikkeling van de m1 :)
Of Intel kon gewoon nog niet leveren wat Apple gehoopt had beloofd was. Namelijk een kleine nm. (Wat ook zorgt voor minder warmte). Apple had gewoon de MacBook en thermals ontwikkeld voor de nieuwe kleine Intel chips. Alleen kwamen die er niet. Ik vind inderdaad dat Apple dat niet op de markt het moeten brengen. Maar het is niet helemaal Apple’s schuld. Nu met hun eigen chip kunnen ze dat wel waarmaken.

[Reactie gewijzigd door rovox op 25 juli 2024 02:04]

"kleine nm" whatever dat mag betekenen, zorgt lang niet altijd voor minder warmte, de warmte is namelijk ook vaak lastiger af te voeren.

nm's zijn verder namelijk tegenwoordig niet meer dan een marketing nummertje en zegt eigenlijk niets over de daadwerkelijke kwaliteit van het proces.

Zo'n designfout is trouwens wel toe te schrijven aan Apple, die weet immers ruim van te voren wat het TDP van de te gebruiken cpu's gaat zijn en wat de afmetingen gaan zijn. Apple wist dus exact waar de koeling aan moest voldoen (wat ook geen verrassing mocht zijn, immers werk Intel al jaren met dezelfde TDP's per cpu serie, juist omdat fabrikanten als Apple willen dat Intel die vaste waardes gebruikt als gespecificeerd TDP, waarna de fabrikanten zelf kunnen bepalen of ze dit TDP volgen of dit nog finetunen). Welke proces node gebruikt wordt is daar niet relevant voor.

[Reactie gewijzigd door Dennism op 25 juli 2024 02:04]

Wij maken als bedrijf gebruik van de spot instances van Amazon. Dat is lekker goedkoop maar daar kleeft wel een risico aan vast: Amazon kan zo'n spot instance zomaar van je afnemen. Je krijgt wel 2 minuten voordat ze dat doen een waarschuwing. Dat betekent dat we het risico lopen dat dingen stuk gaan of dat het even wat trager is. Dat is echter een geaccepteerd en ingecalculeerd risico. We kunnen er namelijk wel omheen werken dus vinden we het prima.

Hoe jij nu Apple's actie omschrijft is exact hetzelfde als dit voorbeeld: het is een doelbewuste keuze waarbij de gevolgen zijn ingecalculeerd en geaccepteerd. Dat kun je daarom dan ook al geen fout meer noemen. Een fout is iets dat onverwachts en onbedoeld is. Juist daarvan is hier geen enkele sprake.

Overigens is bij nano tech storingen (ruis, deeltjes zoals kosmische straling e.d.) eerder een probleem dan warmte afvoer.
Namelijk een kleine nm
Je kan ook geen kleine nanometers maken.
Wel als je zorgt dat de zwaartekracht toeneemt en de ruimte buigt.
Boehaha, history repeats itself! Moest gelijk denken aan dit soort uitspraken uit de tijd van de PowerPC.
Wat een onzin kraam jij uit zeg! Hoe kan je zoiets nou beweren?!

Omdat een slide in de presentatie van het marketingtaal van Apple dat beweert? Sorry, maar eerst zien dan geloven. Zelfs als de beweringen van de M1 100% kloppen slaat je opmerking werkelijk waar nergens op.
Hij is dan ook 3x zo duur dan 98% van alle verkochte Windows-laptops. Als je een 300 euro laptop met een Celeron gaat vergelijken met een €1129 kostende laptop, kun je voor die 3x snelheidswinst vier laptops halen. Ben je qua processorkracht nog beter uit als je Windows koopt!

Ik ben zeer benieuwd hoe snel de laptop is, maar ik denk toch niet dat een passief gekoelde chip in enige benchmark mijn 10750H inhaalt.
Een Windows laptop is 10.000% sneller in het draaien van Windows software dan een Macbook Air M1. :9

Ben oprecht wel benieuwd of er bootcamp komt om Windows ARM te draaien op deze nieuwe Air.
Nope. Hebben beide partijen geen belang bij.
Waarom niet? Bootcamp verkoopt meer Apple hardware = meer geld voor Apple? Ze doen het ook voor alle bestaande hardware.
Apple bouwde geen slecht chassis, Intel beloofden (zou 2016 uitkomen) gouden bergen met hun 10nm (die 2020 mondjesmaat uitkomt) de MacBooks waren ontworpen voor 10nm chips die zuiniger en sneller hadden moeten zijn (volgens mij komt de dunne/huidige Mac book ontwerp uit 2016..). Het is niet de voornaamste reden waarom Apple nu arm heeft maar wel een enorme bijdrage waarom ze nu zover zijn. Intel heeft 10nm letterlijk 4* vooruitgeschoven, en zitten wij nu nog op 14++++ proces.

Vergis je niet qua transistor dichtheid is Intels 10nn nog steeds superieur aan tsmc's 7nm maar (waarschijnlijk) wel gelijkwaardig zijn aan hun 5nm process. Ik betwijfel of arm in deze generatie superieur is aan Intel misschien volgende generatie wel. Maar als de Intel shitshow weer op rails is en zij focus hebben (of amd) vraag ik mij af of arm wel echt de weg is voor productiviteits laptops/desktops. X doubt.
Dit heeft toch niets met Intel's chips te maken? Dit gaat over laptops die gewoon dom zijn ontworpen, met een heatsink die voor welke CPU dan ook veel te klein zou zijn, en ook nog eens niet goed contact maakt met de die. Dat is een ontwerp fout van Apple, niet van Intel. Nieuwe betere in-house chips gaan geen zoden aan de dijk zetten als Apple's engineers niet eens weten hoe je een efficient koeling systeem ontwerpt.
Je leest mijn verhaal simpelweg niet, dus antwoord heeft ook geen nut maar ik waag nog een poging. Het ontwerp van een laptop, zeker van Apple doe je niet binnen een maand. Apple heeft uitstekend aangetoond dat ze goede hardware kunnen bouwen (not my cup of tea, maar toch) de laptop inclusief koel oplossing was ontworpen voor een cpu van Intel die eerst in 2016 zou komen (niet gekomen maar de Mac pro was al ontworpen en bijna in productie). Dit heeft Intel 3x weer gedaan. Na het tweede jaar (2018, refresh MacBooks) kan Apple niet ineens een grotere laptop leveren voor een betere koeler daar gaan de klanten niet in mee. Wat hebben ze gedaan, de Mac's sterk laten throttlen. Kan je praktische in elke review lezen. Mac pro was ontworpen voor een nieuwe generatie Intel die nooit gekomen is (voor Apple).

Voor dat je denkt dat je een simpelweg efficiëntere cooling had kunnen maken in een kleiner ontwerp, nee dat kan niet, simpelweg heb je thermodynamische beperkingen in het ontwerp en materialen die je nooit de koeling kan geven in een ontwerp wat Apple voor ogen had (voor een chip met een veel lagere tdp). Of dacht je dat Nvidia zomaar een triple slot cooler maakt voor zijn 3080+.

Je hebt waarschijnlijk geen achtergrond in hardware ontwerp en ook compleet geen besef naar wat er komt kijken bij een product ontwerp-≥ eindproduct, zeker in de aantallen die Apple moet produceren. (Wat ze ook nog door anderen laten doen, dus geen inhouse voordeel)

[Reactie gewijzigd door D0gtag op 25 juli 2024 02:04]

Eerlijk is eerlijk, een presentatie geven kan je aan Apple overlaten. Met al die mooie animaties zit het strak in elkaar. Ik heb geen verstand van processoren. Ik ben een digitaal tekenaar / fotobewerker. Een paar jaar geleden overgestapt op een PC omdat Apple lang onduidelijk was over hun line-up. Uiteindelijk de overstap gemaakt en in het Windows 10 honk terecht gekomen. Zonder een centje pijn overigens.

Toch met interesse naar de presentatie gekeken want wat je ook van Apple mag vinden, wat ze aan het doen zijn is beste een stoere move. Ze gaan gewoon alles zelf maken. Ik kan dat wel waarderen. Tegen de stroming in zwemmen en overstappen op ARM.

Kennelijk zijn ze zo zeker van hun zaak dat ARM meer toekomst is dan een x86 omgeving, dat ze hun hele line-up over gaan zetten. Dat heeft mijn interesse gewekt. Want wat gaat er nu gebeuren in de wereld van computers. Is dit een serieuze 'bedreiging' voor x86? Gaan we straks iMacs zien die sneller zijn dan de huidige versies en niet warmer worden dan 30 graden? :P En gaan we straks ook in de wereld van de PC meer ARM zien? Als dat zo is.. gaat het straks een rommeltje worden? :D

Vraagje aan de kenners. Klopt het dat je geen geheugen reepjes nodig hebt met ARM? En dat dit dus ingebakken zit in de CPU? Zoja, gaan we dan ook 16GB of 32GB zien in de toekomst? of is dit met ARM niet nodig?

Hoe dan ook. Ik wacht graag op de echte tests als Tweakers en anderen deze machines in hun handen krijgen en het eens aan de tand gaan voelen. Want 3x, 5x, 10x, 50x sneller nemen we (neem ik aan) toch wel met een korreltje zout. Ook ben ik best nieuwsgierig wat Adobe voor elkaar gaat krijgen en of dit dan een (groot) verschil gaat zijn vs een rappe PC.

[Reactie gewijzigd door RoyK op 25 juli 2024 02:04]

Het geheugen bij deze modellen zit in de chip ingebakken. Dat ligt niet aan de ARM-architectuur, maar het is wel een mogelijkheid die Apple heeft, omdat ze alles zelf maken. Voor de 16” MacBook Pro, iMac en Mac Pro zullen ze het waarschijnlijk wel anders moeten gaan doen, want zeker grotere hoeveelheden RAM zijn nog lastig op zo’n kleine chip te krijgen. Nu kan er in de huidige Mac Pro 1,5 TB geheugen gestoken worden, die limiet zal wel iets omlaag gaan, maar ook een halve TB krijgt Apple nog niet op zo’n chip.
Dat klopt niet, het geheugen zijn nog steeds losse chips, maar vastgesoldeerd aan het moederbord ipv losse latjes, scheelt ruimte. Maar er zit geen 16gb geheugen op de SOC.
Hier staat dat toch echt anders: https://www.apple.com/mac/m1/ Daar zit de 16GB wel degelijk op de SOC. Wel in een apart compartiment, maar het is wel onderdeel van de SOC.
Dan moet je beter lezen. Er staat daar nergens vermeldt waar de geheugenchips zitten, het enige wat er staat is dat het geheugen door de verschillende componenten gedeeld wordt (hoe werkte dat ook alweer met videogeheugen van de eerste Intel HD IGP's... ;)). Het kan dus net zo goed de geheugencontroller zijn waarbij de daadwerkelijke geheugenchips elders op de pcb zitten. Beide opties zijn mogelijk.

Het plaatje die je op de website en in de presentatie ziet is een functioneel overzicht van wat er in de SoC zit. De volgende links ie een daadwerkelijke foto van een die en daar zie je dat de volgorde waarin de cores en gpus zitten toch anders is dan op dat functionele plaatje: https://images.anandtech.com/doci/16226/M1.png

[Reactie gewijzigd door ppl op 25 juli 2024 02:04]

En als je kijkt naar de die shot zie je niet 16gb aan geheugen, dat zou een enorm stuk van de chip innemen.

Plus 16gb of 5nm maken is niet kosten effectief. Zijn gewoon losse chips :)
Ze hebben het zelfs gehad over hun packaging tech dus die zullen gewoon in de package zitten. Het heeft vrij weinig zin om daar over te liegen. Het het is ook logisch dat ze het gewoon direct op de package zetten, hoe dichterbij hoe beter.
https://www.apple.com/mac/m1/

Allereerste plaatje. 2 geheugen modules aan de rechterkant (er staat een ronde witte stip in) die los staan van de M1 CPU maar wel op één printplaatje bij elkaar zijn gebracht.
Zoals ik het bekijk, zijn er 2 zaken waar een meer open architectuur nooit tegenop kan:

- De diepe afstemming van hardware op software en andersom
- Apple die extra chips er bij plakt (bijv neural engine) die de CPU ontlasten

Ik schat in dat de huidige claims "UP TO 3x faster" wel afgezwakt moeten worden wanneer real world metingen gedaan worden, maar dan nog...het is stap 1. Het ziet er allemaal veelbelovend uit, en ik ben niet eens een Mac user.

Wat mij echt een droom scenario lijkt is dat zelfs een 16" inch Macbook pro geen enkele fan heeft. Gewoon geen koeling, net als de Macbook Air. Ik irriteer me steeds meer aan het geluid wat computers maken, al is het maar zacht gezoem. Zover zijn ze nog niet, maar het lijkt binnen bereik wellicht.

Een ander gevolg van deze ontwikkeling is dat je waarschijnlijk niet meer kunt kiezen uit vele model varianten. De CPU/GPU is zoals die is, voor iedereen hetzelfde. Die eenvoud kan ook voordelen hebben, in ondersteuning, kosten, etc.

Tot slot, de enige nare ontwikkeling is dat Apple neigt naar ook een volledig gesloten software ecosysteem op desktop. En dat is eng.
Zoals ik het bekijk, zijn er 2 zaken waar een meer open architectuur nooit tegenop kan:
- ...
- Apple die extra chips er bij plakt (bijv neural engine) die de CPU ontlasten
Dat soort zaken kunnen ook via een 'open' architectuur. Nvidia's RTX / Microsoft's DirectX Raytracing / etc zijn oplossing waardoor je hardware accelerated raytracing kunt hebben op Windows, om maar een voorbeeld te noemen.
Ik schat in dat de huidige claims "UP TO 3x faster" wel afgezwakt moeten worden wanneer real world metingen gedaan worden, maar dan nog...het is stap 1.
Zonder data / vergelijking met informatie is het fluf.
Als het in 99% van de gevallen 20x langzamer is, kunnen ze nog steeds in één geval van de 15.000 dingen die ze getest hebben "tot wel 3x sneller" zijn (in 4% van de gevallen die gemeten waren).
Een ander gevolg van deze ontwikkeling is dat je waarschijnlijk niet meer kunt kiezen uit vele model varianten. De CPU/GPU is zoals die is, voor iedereen hetzelfde. Die eenvoud kan ook voordelen hebben, in ondersteuning, kosten, etc.
Wellicht, al zie je bij alle Apple producten verschillende varianten/versies.
Zoals bij de iPad (A12), iPad Air (A14), iPad Pro (A12Z), iPad Mini (A12).
En dat is los van de 11" vs 12.9" voor de Pro, en verschillende keuzes in opslaggrootte.

Maar goed, dat zijn inderdaad maar een beperkt aantal keuzes.
Nou he? Superslick was het allemaal. Alle videos dit jaar overigens. Wat dat betreft een vooruitgang op al dat klapvee.

Apple wil niet afhankelijk zijn van Intel. Die ook nog eens achterliep op hun cpu's. Apple kan nu alles zelf bepalen, regelen en schrijven. Dat ze dat kunnen hebben ze laten zien met de iPhone en iPad.
Met de switch van PowerPC naar Intel hebben ze volgens mij ook een goede transitie gemaakt. Dat met Rosetta2 binary's op Apple Silicon sneller lopen dan op Intel is natuurlijk wel echt fijn.

Het valt me overigens wel op dat Apple geheel geen kloksnelheden laat zien. Is een MacBook Air nu even snel als een MacBook Pro? Zelfde cpu? Hoe moet ik dat precies zien?
De chips lijken maximaal 16GB memory te ondersteunen, toch wel spijtig. Als ik nu een MacBook Pro wil kopen voor 3-5 jaar wil ik toch minimaal 32GB.
Ik verwacht dat dat snel gaat komen, daarnaast zijn ze voor de echte Pro's natuurlijk nog bezig met een betere GPU.
Komt er denk ik eerst een opvolger van de M1. Naast geheugen zijn er nog bottlenecks met betrekking tot I/O. Aansturing van maar 1 extern scherm, max 2TB SSD grootte, geen ondersteuning voor eGPU en volgende week als de eerste op geleverd worden bij kopers zullen er nog wel meer beperkingen naar boven komen.

Niet erg, maar de lineup van de M1 nodigt nog geen echte professionals om de Macbooks met M1 al te kopen. Je ruilt je Macbook 16inch met 32GB of 64GB en Radion GPU niet in voor een Macbook 13inch met integrated GPU en met de genoemde beperkingen. Komt nog bij dat er initieel nog weinig professionele software al native ARM is; MS Office 2019 start nu met beta testen (maar nog geen aankondigingen voor de bredere Office365 suite met MS teams etc), Adobe Photoshop komt in de eerste maanden van 2021. Denk ook niet dat de Autodesk's van deze wereld al hun energie aan het inzetten aan het porten zijn (want hun doelgroep koopt de Macbooks met M1 nog niet). Geen bootcamp meer is toch wel een dingetje, want veel software is gewoonweg alleen onder Windows beschikbaar zijn. Geen MS Project, MS Visio of PowerBI, Mathcad, Vegas Pro, Paint Shop Pro, Roxio en vele andere software pakketten .... Dat kon je nu in een Windows VM draaien of onder bootcamp. Apple software staat wel klaar - maar de betaalde versies als Final Cut Pro X zijn wel erg duur voor de consument.

De eerste kopers ziijn degene die developers voor het Apple 'ARM ecosysteem', bestaande eigenaren die hun Macbook's willen upgraden, studenten en een enthousiasteling die het graag nu wil hebben. Ze zijn de proefpersonen of ze dat nu willen of niet.
Ik denk niet Apple al zo snel de M1 gaat opvolgen, je hebt de instap klasse en straks de performance tak. Verschil zal het aantal cores zijn en de GPU (waar ze nog mee bezig zijn). De 12 cores variant heeft vast 16GB of 32GB geheugen en meer IO. En misschien voor de Mac Pro nog een 16 core variant met 32/64GB?
Ik denk dat je even moet wachten, vergeet niet dit is echt de eerste release en de start van een transitie. Wil je meer dan lekker tot volgend jaar wachten, de 16 inch en iMacs zullen vast wel met 32GB komen en dan uiteindelijk de 13 inch ook.
Daar gaat m'n Hackintosh dan! Voor de rest wel leuk, meer concurrentie.
Misschien kan je je nieuwe Hackintosh wel baseren op een Raspberry Pi ;)
Nerd opmerking: dat wordt technisch moeilijk aangezien Apple geen standaard ARM instructieset gebruikt maar uitbreidingen daarop. De software zal specific werken voor Apple producten.
Geen nood. Er is altijd nog een ander unix-geinspireerd systeem dat best groot is, welke je op elke computer kunt installeren zonder lastige licentie beperkingen. Mijn persoonlijk versie is Fedora ;)
Ach, mijn hackintosh is mijn main machine die fantastisch werkt. En deze krijgt nog jaren macOS ondersteuning. Apple verkoopt immers op dit moment nog gewoon Intel machines. Dat stopt pas eind volgend jaar wanneer de iMacs aan de beurt zijn.

En dan gaan ze die machines nog gewoon jaren ondersteunen (op x86).

[Reactie gewijzigd door xoniq op 25 juli 2024 02:04]

Mooie grafiekjes met als schaal ‘higher/lower is better’. Iets meer info zou leuk zijn.

Juist zo’n nieuwe chip wil je kunnen vergelijken met de huidige markt, als hij echt zoveel beter is dan hoef je dat niet te verbergen toch?
Dat komt natuurlijk wel. Dat weet Apple ook wel. Niet voor niets is bijvoorbeeld de 16” MBP zon verbetering t.o.v. het 15” model. Apple lijkt langzaam iets meer open te staan voor kritiek (langzaam zeg ik).

ARM moet ergens echt meerwaarde bieden t.o.v. X86
ARM moet ergens echt meerwaarde bieden t.o.v. X86
Ze kunnen de chip dan helemaal op prestaties per watt ontwerpen en ook in software bepalen welke taak op de snelle en welke op de efficiënte core moet draaien.

Voor een desktop zal het weinig doen, behalve de winstmarge van apple verder verhogen
Juist zo’n nieuwe chip wil je kunnen vergelijken met de huidige markt, als hij echt zoveel beter is dan hoef je dat niet te verbergen toch?
En welk vergelijkingsmateriaal wil je? Er is geen enkele deftige cpu of gpu op basis van ARM, laat staan deftige setup die je kan maken.
En een vergelijking met Intel is helemaal slecht want ARM werkt anders waar het ene programma meer voordeel uit haalt en het ander juist nadeel. Dus een benchmark draaien? Ja maar met een groot uitroepteken.
Ze beginnen zelf met een vergelijking zonder hem te duiden hè...

Een vergelijking als: usecase X duurt zolang op deze ten opzichte van de vorige versie...
(Film bewerken/opslaan ofzo)
Apple vergelijkt zichzelf met voorgaande "vergelijkbare" processors. Als dat ARM-processors (voor telefoons) zijn, is het een oneerlijke vergelijking, maar de power draw per watt komt daar veel dichter bij hun eigen processor in de buurt.

Daarom kan ik alleen maar concluderen dat ze hun eigen Intel-systemen hier vergelijken met hun ARM-designs. Het is ook de enige manier om ze te vergelijken natuurlijk, omdat andere systemen geen macOS draaien en dus niet in staat zijn alle benchmarks te draaien (denk aan Metal performance).

Het is dan ook geen eerlijke vergelijking aangezien Apple hun legendarische batterijduur behaalt door de clocks van de Intel-chips te tweaken (laag clocken, snel boosten, niet lang sustained volhouden maar wel alle interacties snappy aan laten voelen waardoor je als gebruiker niet doorhebt dat je processor stiekem traag is en het dus in veel gevallen niks uitmaakt). Ze hebben ook een aantal apparaten uitgebracht waar de Intel-chip gewoon niet direct gekoeld werd, dus als ze daarmee vergelijken vind ik de power draw geen slechte benchmark maar de performance per watt is natuurlijk heel makkelijk in te halen als je het ding direct laat koken.

Sowieso spelen ze natuurlijk vals door hun GPU te vergelijken met de "latest laptop chip". Ze halen de Quadro T3000 echt niet in, ze vergelijken duidelijk met de Intel Iris (of de AMD Vega).

Als je wel grafieken laat zien maar geen getallen, vind ik dat mensen gelijk hebben als ze daadwerkelijk bewijsmateriaal willen zien. Ze zijn lyrisch van hoe goed hun processor performet maar durven toch geen benchmarkscore te laten zien. Zelfs Intel geeft (vertekende) scores bij hun presentaties.
Apple vergelijkt zichzelf met voorgaande "vergelijkbare" processors.
Dat boeit hier helemaal niet. Het probleem is dat de grafiek an sich compleet nietszeggend is. Er ontbreekt gewoon teveel informatie in de grafiek om er iets mee te kunnen. Er staat geen enkele waarde op zowel de x als de y-as, alleen maar een titel zodat je weet wat de assen moeten voorstellen.

Op de website hebben ze er wat cijfertjes achter geplakt die corresponderen met de kleine lettertjes onderaan de pagina. Daar zie je bijv. dit staan:
Testing conducted by Apple in October 2020 using preproduction 13‑inch MacBook Pro systems with Apple M1 chip and 16GB of RAM. Multithreaded performance measured using select industry‑standard benchmarks. Comparison made against latest‑generation high‑performance notebooks commercially available at the time of testing. Performance tests are conducted using specific computer systems and reflect the approximate performance of MacBook Pro.
Bij de MacBook Air, MacBook Pro en Mac mini geven ze wat meer prijs over de specs van de machine waarmee ze hebben vergeleken. Dat geeft al een wat beter kader maar nog steeds niet veel info over de performance.
Mooie presentatie gezien, maar vind het toch ergens gemis dat er nog altijd geen touchscreen is in de laptops.
Als je een touchscreen wil moet je voor een iPad (of andere tablet) gaan. Ik ben juist blij dat ik dit bericht type vanaf een laptop zonder touchscreen, omdat het voor mij een overbodige feature zou zijn. In de meeste gevallen zijn de besturingssystemen die op laptops draaien ook niet echt gemaakt voor touchscreens. Ik sprak ooit eens iemand die er pas na een jaar achter kwam dat zijn laptop een touchscreen had.
Dat zou natuurlijk nóóit werken, want nu moet jij 2 apparaten kopen, dat is veel logischer ;)
Kan je nu wel de bestaande mac applicaties op deze m1 apparaten draaien, of moet je wachten totdat de dev een m1 compiled versie uitbrengen??
Je kan met "Rosetta 2" bestaande X86-64 apps draaien in een emulatie laag op deze nieuwe arm mac's

Developers kunnen ook de app opnieuw compilen met ondersteuning voor beide, maar dat hoeft niet
We hebben zowel de x86_64 versie van Krita gedraaid op een arm developer kit, als een native arm build. Beiden draaiden eigenlijk even snel, en eigenlijk verrassend goed. Veel beter in ieder geval dan op onze 2015 macbook pro's. De dev kit zelf had nog wel een stapel stabiliteitsproblemen, dus ik wacht nog wel even op de eerste gebruikerservaringen voor ik een macbook pro met arm bestel.
Een hele andere Apple dan de oude Apple. In plaats van focus op gebruikerservaring en esthetische aspecten (met Jobs en Jonathan Ives), gaan ze nu helemaal op de benchmark toer. En zo veel toeters en bellen, zo maximalistisch. Dit appelleert wel aan de nerd, maar ik vraag me af wat de normale gebruiker er mee moet. Qua marketing lijkt het wel op de knullige marketing van Asus of MSI.
Ik denk dat komt omdat ze specifiek over de chip praten. Dan is er weinig te presenteren qua kleur, materiaal, hoe het aanvoelt etc.
Ze zullen wel moeten om de overstap te rechtvaardigen.
Maar dezelfde peik performace maar dan met 1/4 van het verbruik betekend dan een ware revolutie als de performance per watt dus 400% beter is dan intel

Als ik kijk naar amd die intel qua snelheid voorbij gegaan zijn ook qua verbruik dan zie ik daar toch niet zulke cijfers die apple nu claimt. Maar het zal wel weer een test zijn met specifieke software onder specifieke omstandigheden.
Apple claimt dat de gpu uit de M1 veel sneller is dan de geïntegreerde gpu's van Intel-processors.
Intel is nu ook weer niet de benchmark qua geïntegreerde cpu's dat is eerder amd.
Apple’s processor hoeft natuurlijk alleen rekening te houden met MacOS en dat scheelt natuurlijk ook weer het een en ander. Daar zijn best wat optimalisaties te halen die AMD simpelweg niet kan doorvoeren, omdat de processoren met een hele rits aan verschillende hard- en software moet samenwerken.
Gewoon niet waar,
Dit gaat over pure harde operaties per seconde, en os compatibility staat daar los van. Als apple zou willen kan dit ook gewoon linux draaien.

En er is ook een emulatie naar intel stack met rosetta 2 en alsnog is dat efficienter.

Kortom deze processoren zijn gewoon per clock wfficienter, of het nu windows of linux of macOS (freebsd) is die om de calculatie vraagt.
Natuurlijk kun je bepaalde bewerkingen optimaliseren maar heel simpel een cpu heeft een bepaalde verwerkingssnelheid om berekeningen te maken en daar verander je weinig aan.
Precies. Bij de switch naar PowerPC en later naar Intel ging het ook vooral over performance.
Jobs was soms ook wel op de benchmark toer bijvoorbeeld bij de MHz myth https://youtu.be/TJN5GfZuVog en de overgang van powerpc naar Intel.

Ik vond dit vooral nietszeggende oneliners. Zoals "Sneller dan 95% van de verkochte laptops" weet ik veel welke processors daar allemaal in zitten.
Zoals "Sneller dan 95% van de verkochte laptops" weet ik veel welke processors daar allemaal in zitten.
Dat zegt iets over het publiek dat ze aanspreken. Als ze hadden gezegd: even snel als een VIA 97TR54 dan had ik geen idee gehad over welke processor ze het hadden. Met "95% van de verkochte laptops" vind ik het veel makkelijker deze gegevens in perspectief te praten, al weet ik eigenlijk ook niet of de meeste laptops gaming-laptops of teksbewerking-laptops zijn.
In de tijden van PowerPC waren ze ook vrij gek op Benchmarks hoor

In de presentaties werd vaak aangehaald hoe snel de G3 / G4 / G5 was vergeleken met de Pentium chip van die tijd
Toen was de werklast ook veel simpeler (zelfs nog single threaded). Nu heb je veel meer variabelen waardoor het voor een cross-platform en cross-arch benchmark moeilijk is om een redelijk beeld te scheppen. Leuk die cijfers maar ze zeggen dus helemaal niks.
Ik zie nog niets van een ander Apple. Zoals gewoonlijk praten ze nogsteeds over lucht. Er komt geen enkele benchmark aan te pas, ze gooien wat mooie grafiekjes de lucht in zonder enige onderbouwing of enig real-world scenario. Eigenlijk net als dat ze de afgelopen jaren steeds gedaan hebben. Dikke CPU, dikke GPU maar geen real-world performance omdat ze vergeten dat die dingen gekoeld moeten worden.

Nee, een echte nerd zit hier niet op te wachten. Die heeft liever gewoon keiharde cijfers in plaats van nietszeggende grafiekjes met niet onderbouwde claims.
Zelfs die keiharde cijfers zijn niet zo relevant wanneer een eindgebruiker gewoon een globale vergelijking krijgt met de vorige generatie en de concurrent.

Het gaat Apple om de end-user experience, waarbij de Apple Experience al begint bij het openen van de doos. Alles gaat "vanzelf" of in ieder geval moeiteloos. Dat is de intentie.

Wanneer ze bovenstaande ervaring waar kunnen maken door bijvoorbeeld bepaalde slimmigheden te gebruiken, in plaats van (of juist met) sterkere hardware, dan zullen ze daar zeker mee adverteren.

Een snellere gebruikerservaring == sneller voor de eindgebruiker.

Wanneer een sportwagen verkocht wordt in een wereld waar je alleen 30 mag rijden, dan is de hardware wel goed, maar voldoen de omgeving en ervaring van de eindgebruiker niet. Dàt is dus iets waar Apple die ervaring dus beter wilt maken.
een MSI of ASUS gebruikt dezelfde off-the-shelf chips en Windows. Hun laptop komt dus in reviews en tabelletjes te staan met die concurrenten.

Apple concurreert helemaal niet met hen, omdat ze MacOS draaien en hun machines komen dus zelden in die tabelletjes terecht.

Die 5% lagere performance vanwege een minder thermal design is niet relevant. Apple richt op design en massa-productie met hoge marges.
Daar zal die eigen SoC uiteindelijk een verdieping van dat unique selling point zijn: ze kunnen nog wat extremer linksaf qua design, omdat ze zelf aantal chips en thermal package kunnen bepalen.
eh de focus is op performance en integratie met een chip welke veel meer mogelijkheden biedt welke uiteindelijk zal leiden tot een veel betere gebruikerservaring. Dus die ervaring is er nog steeds en zie ik ook constant terug komen.

Op dit item kan niet meer gereageerd worden.