'Apple A11-soc wordt door TSMC gemaakt op 10nm'

De A11-soc die Apple in de iPhone 8, 8 Plus en X stopt, wordt door TSMC gemaakt op het 10nm-procedé. Dat zegt TechInsights op basis van foto's die het bedrijf gemaakt heeft van de chip. De A11 is met 89,23mm² zo'n dertig procent kleiner dan de A10.

Ondanks het kleinere formaat zitten er meer transistors op de chip. Apple maakte zelf bekend dat het er 4,3 miljard zijn. Op de A10-soc uit de vorige generatie iPhones zaten er 3,3 miljard. De A10 werd nog gebakken op het 16nm-procedé van TSMC. De nieuwe A11-soc bevat Apples eerste zelfontworpen gpu en een nieuwe chip voor het versnellen van neurale berekeningen.

De A11 is niet de eerste soc van Apple die op het 10nm-finfet-procedé van TSMC wordt gemaakt; ook de A10X uit de iPad Pro-modellen wordt op deze manier vervaardigd. Die chip is met een oppervlak van 96mm² iets groter dan de nieuwe soc voor de iPhones.

In de teardown onderzoekt TechInsights ook de camerasensoren van de iPhone 8 Plus. Volgens de metingen heeft de groothoekcamera pixels van 1,22µm, terwijl de telecamera 1µm-pixels heeft. Beide cmos-sensoren zouden stacked Exmor RS-varianten zijn van Sony.

Apple A11-soc dieshotApple A11-socApple A11-soc

Door Julian Huijbregts

Nieuwsredacteur

26-09-2017 • 20:00

64

Reacties (64)

64
62
44
9
1
12
Wijzig sortering
Waar ik dan toch wel benieuwd naar ben. Apple maakt nu elke keer zelf de soc. Zullen ze dit dan op een bepaald moment ook gaan doen voor de Macbooks? Ik vraag mij dan alleen wel af of het haalbaar is om dat te doen en of dit geen problemen geeft voor programma's. Die het dan niet meer kunnen gaan doen.
Het is ongetwijfeld bij Apple een discussie die regelmatig terugkomt.
De laatste jaren is Intel zeer grillig in hun processor releases. Eerst heeft Apple Intel zeer vaak gepushed in het energie zuiniger maken van hun processoren. Nu de laatste jaren loopt Apple vast op uitstellen van processoren en het al enige tijd uitblijven van LPDDR4 support met 32GB, waardoor de maximale geheugen configuratie voor een Macbook op dit moment op 16GB blijft steken. Nu is afgelopen week het bericht gekomen dat Intel Cannon Lake weer uitstelt tot midden 2018, deze moet de 32GB LPDDR4 ondersteuning wel leveren.
De Macbook Pro 2016 was vrij laat en uiteindelijk maar uitgerust met Skylake vanwege vertraging van de gewenste Kaby lake mobile processoren. (wat Cannon lake had moeten zijn) Kaby lake heeft helaas ook niet de gewenste geheugen ondersteuning etc.
Nu zal die geheugen limiet voor 90% van de gebruikers niks uitmaken, 16GB is dan al vrij fors, maar er is nog een andere groep die meer wenst.

Kortom, ik denk dat ze in Cupertino niet erg blij zijn.
Het maken van een eigen soc geeft hun de flexibiliteit, kunnen ze afstemmen op hun product releases en kunnen ze deze optimaliseren. En gezien de stappen die ze met hun eigen Soc hebben gemaakt, dan zou je het bijna hopen. Maar ja het heeft ook flink wat nadelen.

[Reactie gewijzigd door OkselFris op 23 juli 2024 06:46]

Apple is ook fed up met de Igpu van intel. Die zijn in het verleden altijd relatief traag geweest terwijl een moderne portable chip relatief gezien (tegenover de cpu-kracht) een veel sterkere gpu heeft. Pas nu begint intel wat gas te geven. Ook de wetenschap dat alles wat intel doet ook voer is voor de concurrenten zullen ze niet graag smaken maar zolang de verkoop blijft gaan is er weinig aan de hand. De concurrentie kan immers niet voorbijsteken want intel bepaald het tempo.

Alles ziet er naar uit dat volgende Ipad pro met de A11x sneller zal zijn dan den snelste macbook pro13" met de standaard intel graphics. De A10X is grafisch gezien krachtiger dan de A11 en even krachtig als de Intel 630.

Langs de andere kant kan Apple geen kant op. Hun Nieuwe Imac worden uitgerust met 18core I9. Die ruwe kracht kan je moeilijk aanbieden met een ARM cpu. Ooit zal de dag komen maar ik vrees dat het pas tenvroegste over 5-tal zal zijn dat ze met hun eigen chip komen aandraven. Veel mensen draaien nu nog een dual boot via Bootcamp dus om voor ARM te kiezen hebben ze een heel goede reden nodig.

Of wie weet komen we nog eerst een fusion tijdperk tegen waar ze AVX-512 en ARM combineren Afhankelijk van de Applicatie of modus dat in je in werkt. (Tablet of Pc modus) You never know ;-)
tja, de A11 kan heel snel een broodje smeren ( ARM instructies,Java) en een X86 kan dit ook snel genoeg maar kan ook een snel een 9 gangen menu maken wat de A11 weer niet kan.

De beperking van ARM instructies is te groot om de x86 te vervangen.

Heb je al is op hardware.info gekeken staat het heel mooi beschreven door een gebruiker die er verstand van heeft.
Legt het in andere comments nog meer uit!

Verder vind in bijvoorbeeld de x86 desktop software die im op mijn pc heb staan veel uitgebreider en het is voor professionals en amateurs toch het best wat je kan krijgen... tegen over java, ARM instructies!

Ik bedoel een adobe photo shop is toch anders koek in x86 op Windows.
een echte professionele omgeving,waar java echt niet tegen op kan met ARM.

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 06:46]

Beweren dat ARM geen complexiteit aankan is, is een misconceptie. ARM is anders dan X86, niet minderwaardig en vice versa. Het is dus niet zo dat complexe software niet op ARM zou draaien. Alles heeft te maken met geschiedenis, licenties, patenten, en noodzaak (energie, kostprijs geheugen..) van het moment.

ARM gebruik RISC (reduced intruction set) en dat is gewoon anders dan intel's X86 (CISC, complex instruction set). Het voordeel van 'reduced' is dat je 1 intructie per clockcycle kan afwerken terwijl je met X86 er meerdere nodig hebt met voor- en nadelen maar met de huidge ontwikkelingen in het ARM-kamp en de opkomst portables op batterijen heeft ARM duidelijk een gigantisch voordeel. Wie wil er nu niet een snellere, lichtere laptop/tablet/smartphone?

Er valt veel over te zeggen maar RISC is licenced en de enige reden waarom AMD ook RISC cpu's maakt is omdat ze licenties delen met intel en ook X86 cpu's mogen maken. De rest is geschiedenis. ARM beleeft nu hoogdagen en de A10x en A11 zijn daar een voorbeeld van.

RISC springt van nature zuiniger om met energie dan CISC. Je kan perfect een ARM cpu maken op 4ghz en 95watt TDP om met de I7/I9 van tafel te vegen maar die chip zou niemand kopen want geen enkele consument zou hem kopen zowel macOS als Windows er niet op draait. Zo simpel is het. Geen aftzetmarkt = geen budget.

Nvidia heeft al geprobeerd om een combo RISC/CISC cpu's te maken maar ze krijgen geen licentie van intel. Vrij logisch want intel wil heer en meester blijven en RISC vrij spel geven zou heel in model ondermijnen. De afgelopen 10 jaar hadden ze niets te vrezen. Pas nu kan amd bijbenen.

Vroeger was de efficiëntie van een cpu geen issue. Zowel wat warmteafgifte betreft als energieverbruik. Met de opkomst van smartphones en tablets is energieconsumtie plots enorm belangrijk geworden en viel intel met zijn CISC instructieset uit de boot. ARM heeft dan weer licentie op de RISC instructieset en zowat elk mobiel apparaat werkt daar nu op.

Apple bouwt nu zijn eigen chips (mits een licentie van ARM) en de grote vraag is hoe de softwaremarkt gaat evolueren.Wie weet wel een andere instructieset? Apple mag geen X86 chip bouwen (anders hadden ze dat al lang gedaan) omdat intel geen licenties uitgeeft (buiten aan AMD omdat te patenten delen en dus iets te bieden hebben want intel echt nodig heeft.)

In ARM hebt je erg veel competitie. Zowel Qualcomm, Samsung en Apple en nog enkele andere strijden voor de beste chip. Wat voor revoluties zorgt met de A11 en 835 op 10nm als resultaat. Allemaal op ARM licenties. Dit in schril contrast met intel dat de afgelopen 10 jaar bijna geen concurrent had. Intel blijft voorlopig nog steken op 14nm maar ze zijn heer en meester dankzij hun licenties. Zelfs Microsoft kon het tij niet keren met Windows RT. Nu is de vraag hoe de markt gaat evolueren en hoe intel gaat reageren nu er vele miljarden euro's in een RISC (ARM) worden gestoken. Gezapig verder doen zoals de afgelopen 10 jaar is geen optie meer voor intel. Zowel ARMgebaseerde cpu's als AMD (x86) zitten hen op de hielen.

Je voelt nu al dat X86 het moeilijk krijgt. Verkleinen kan nog maar veel hoger dan 4ghz lukt niet meer. Extra cores toevoegen dan maar, maar dat is duidelijk ook geen heilig huisje sinds de meeste apps van nature moeilijk schalen op meerdere cores. Hoe complex de instructieset ook is. En niemand zit te wachten op een consumer desktop cpu van standaard 200watt TDP.

[Reactie gewijzigd door Coolstart op 23 juli 2024 06:46]

ik ga het simpel houden!

op het moment toen apple vroeg om een zuinige chip bij intel, was intel heer en meester en konden ze doen wat ze wouden, je zou het dus kunnen omschrijven als dat intel nonchalant en gemakzuchtig deed tegen over apple, want wie was apple in gods naam.... moet intel hebben gedacht...

toen is apple zijn eigen chips gaan produceren tot nu de A11 is uitgekomen.

je moet niet vergeten dat qualcom mede gemaakt is door kennis van microsoft, zij zijn het meesterlijk en geestlijke-vader van deze chip, zij hebben deze samen met qualcom gemaakt en reken maar dat ze daar enorm veel patenten op hebben.
intel wist allang dat het die kant op ging en microsoft ook, want microsoft heeft zoals gezegd zelf een flinke pap in qualcom!

ik geloof gewoon niet apple met een A11 een andere instructie set kunnen bouwen wat kan concurreren tegen over intel anders hadden ze dit wel gedaan, dan hadden er nu wel laptops gestaan met een apple chip.

verder gaat het niet gebeuren dat alle software makers hun software gaat compileren naar een andere instructie set van bij voorbeeld apple... daar heeft microsoft het al moeilijk genoeg mee om hun eigen platform van de grond te krijgen UWP en UWA.

het UWA en UWP platformen van Microsoft zijn geschreven voor qualcom's processors! de UWA apps zijn Native apps die draaien op qualcoms processors.
maar software bouwers zijn toch te gehecht aan de x86 omgeving zowel voor als processor en de visuele omgeving die de instructie voor zich laat lenen.
die zijn dus veel uitgebreider dan die van qualcom...
het lukt microsoft steeds maar niet om software ontwikkelaars te overtuigen om native apps te maken voor de microsoft Store.

maar ik ga niet zeggen, dat het UWA en het UWP platformen gaat mislukken, nee in tegendeel, vele service parken, cloud-azure van microsoft draaien op ARM.
maar buiten dit om doet microsoft erg zijn best om een x86 software gemakkelijke te compileren.
der komen dadelijke laptops met qualcom processors en die kunnen dus native UWA en UWP apps draaien, als daar veel laptops van worden verkocht kan het zo maar zijn dat Qualcom markt gaat afsnoepen van Intel... van wegen die native UWA en UWP apps/platformen krijgen dan steeds meer markt.

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 06:46]

Vergeet niet dat Apple van 94 tot 2006 op IBM's RISC cpu liep. Andere instructieset dus. Het kan dus allemaal wel. De vraag is wat het opbrengt is voor Apple.

Een chip bouwen is gewoon gigantisch duur en complex. Dus zo simpel als ' dan hadden we het al wel gehad' is het niet. ARM is pas de laatste jaren in opmars, het duurt wel even om zo'n chip te optimaliseren. ARM draait pas sinds een paar jaar op 64-bit. Apple was toen eerst met de iPhone 5.

Nu een paar jaar later en een paar miljard dollar R&D verder staat de A11 naast een I5u serie. Nu pas wordt het interessant. Ik zou helemaal niet durven wedden dat Apple de overschakeling nooit zou doen. Voor softwarebouwers is het helemaal niet onoverkomelijk.

Besef dat Apple een eigen programmeertaal voor iOS heeft (Swift) , een eigen cpu, eigen gpu en dan nog Metal2 waarbij je bijna directe acces hebt tot uw gpu...die ook van Apple is en ohja ze hebben ook een eigen bestandssysteem. Om maar duidelijk te maken dat Apple langs zijn kant alles op alles aan het zetten is om een solide mobile platform te maken. Vorig jaar enkel al 10miljard euro aan R&D in zijn geheel. En dat is hoofdzakelijk in de mobile tak.

Office bestaat al lang op Swift en elke groot softwarehuis heeft al ruime ervaring in Swift development voor tablet met ARM compilers dus erg raar is het idee niet dat de iPad pro een laptopvervanger wordt en dat enkel de desktop pro modellen nog op zullen X86 draaien (of nog een extra X86 chip hebben op code op uit te voeren) Maar goed, dat kan jaren duren. Ik gok 5 jaar voor de big shift.
En je hóórt mijn ook niet zeggen dat dr A11 alleen maar simpele dingen uit kan rekenen!Dat kunnen ze misschien wel.
Maar deze mobiele processoren van qualcomm een Apple zijn gemaakt om voor voor korte tijd veel kracht te produceren, daar zijn ze goed in!
Maar mijn iPhone wordt al warm als ik een film of game aan het spelen ben, dat zijn dus niet gemaakt om daar uren lang te gaan gamen etc etc.. en dat heeft voor langere duur ook weer effect op de batterij etc etc...

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 06:46]

Dat die apps pro zijn zal best maar daar maakt x86 VS ARM niet uit. Kwestie van opnieuw compileren. Nou ja het zal wel wat werk kosten maar dat is best te doen, niet de eerste keer: Apple is al eens van POWER naar X86 gegaan.

Het probleem is meer dat de high end Intel cpus niet zomaar na te maken zijn met arm of tenminste niemand heeft dat nog gedaan. Misschien dat het wel kan. Maar dat is niet 123 af.
Klopt idd dat je de twee niet kan vergelijken maar ik sta verbaasd dat de hele discussie nu gaat over ARM vs x86 en de prestaties van Apple een beetje worden weggezet als halfbakken terwijl de discussie eigenlijk zou moeten gaan over hoe de iPhone vs andere smartphones. Dan is de vraag wel terecht dat als Apple dit kan klaarspelen met smartphones ze toch ook wel moeten in staat zijn zoiets klaar te spelen voor hun notebooks. Ze hebben sowieso al veel meer ervaring met het bouwen van notebooks dan met smartphones.
Nouja.. na het hele FinalCut vs Adobe Permiere (nVidia) gekloot, zijn ze over gestapt op AMD gpu's.. Nu AMD met zn Threadripper (enzo) het zo goed doet, zou het me niets verbazen als ze over een tijd ook met processoren van Intel naar AMD overstappen..
Dan moet AMD wel flink aan de slag, want tot nu toe lopen ze toch flink achter op de Intel HQ CPU’s welke in de MacBook Pro’s zitten en daarnaast lossen ze het LPDDR4 issue waar Apple tegenaan loopt niet op.
Gaat Ryzen überhaupt LPDDR4 ondersteunen?
Ik heb t ook over een tijdje.. niet nu.

Zo te zien is AMD toch wel met een inhaalslagje bezig.. En aangezien Apple schijnbaar stiekem van Intel afwil..
tja, de A11 kan heel snel een broodje smeren ( ARM instructies,Java) en een X86 kan dit ook snel genoeg maar kan ook een snel een 9 gangen menu maken wat de A11 weer niet kan.

De beperking van ARM instructies is te groot om de x86 te vervangen.

Had deze quote van hardwareinfo gejat van een gebruiker die het hdd getypt over dit zelfde topic!

Neem maar is een kijkje op hardware.info

[Reactie gewijzigd door solozakdoekje op 23 juli 2024 06:46]

Toch nog niet voor de volgende generatie:
https://browser.geekbench.com/v4/cpu/4177217

Even zoeken op geekbench naar 8250u, daar staan al wat macbook pro's tussen :)
Quad core 15w <3
De A11 komt anders ook aardig in de buurt van de 8250u: https://browser.geekbench.com/v4/cpu/4217932
Alleen wordt geekbench altijd bekritiseerd dat ze ARM een voordeel geven tegenover x86
Daar gaan echt al verrekte lang geruchten over. Met deze A11 zou het denk ik zelfs prima mogelijk zijn...
Het zou ook niet de eerste keer zijn dat Apple van architectuur wisselt.
Hoewel dat een terechte vraag is denk ik nog niet dat ze op hetzelfde niveau zitten als Intel. Dit is natuurlijk een prachtige PoC voor de macbook met de i7, maar voor de mbPros is het nog geen match.

Qua software heeft Apple zoiets al eerder geflikt. De overstap ging toen opzich relatief soepel (PPC naar Intel).
Ik denk dat de MacBook de eerste zal zijn. De A11 is al dusdanig krachtig dat het mogelijk is. Wanneer? Gokje op binnen twee jaar.
alle bitcode compatibele apps die in de mac appstore staan kunnen op de servers van apple opnieuw worden gecompileerd naar een nieuwe architectuur.

Ik denk vanaf het moment dat apple de mac appstore serieus begint te nemen dat dit een teken kan zijn dat ze dicht bij de overstap naar een nieuwe architectuur zitten.

Een andere optie is dat ze gewoon extra chips gaan voorzien in hun computers, nu heeft de macbook pro touch bar al een aparte arm chip, bvb chips aan die optimized zijn voor hun machine learning platform.
Zover ik weet werkt bitcode alleen voor iOS (en tvOS/watchOS) apps - en dus niet voor macOS applicaties...?
Zou me niets verbazen als er nieuw leven in de iBook naam wordt geblazen en het een hybrid wordt van Macbook air achtige hardware met ipad pro scherm + iOS. Met de iPad pro wordt er al voorzichtig desktop software gemaakt voor iOS nu, dan staat er al wat op de plank met een ARM based laptop. Voor het wat zwaardere werk, en om niet gelijk de MacOS software library overboord te gooien, zal het wel een aantal jaar naast de macbook (pro) lijn bestaan dan.

Alle macbooks met een harde switch overzetten naar ARM, daar zijn de chips nog niet sterk genoeg voor. Gaan alle specs opeens achteruit (want de Intel core i's zijn nu toch echt krachtiger nog) en de makers van de bestaande software moeten nog leren optimaliseren voor ARM ook.
Als we dan toch bezig zijn
Ik gok een nieuwe vorm van hybride computing de eerste paar jaar. Volwaardige arm chip van Apple makelij met een i5 er naast. De Apple soc draagt zorg voor os + Graphics e.d. Waarbij de i5 applications draait in native x86_64.
Deels zien we dit ook al terug in de ps4 waar de Arm chip netwerk, os en disk afhandelt in low Power mode.
Anoniem: 659271 26 september 2017 21:50
Hoelang duurt het om een SOC te ontwikkelen? Zijn ze bijvoorbeeld nu al bezig met het ontwikkelen van een chip voor de iphone die over drie jaar uitkomt? Zijn er verschillende teams die aan verschillende SOCS werken? Iemand kennis hiervan?
Grappig dat je in je vraag drie jaar aanhoud. Want dat was blijkbaar het geval.

Apple Started Developing A11 Bionic Chip when A8 was Released Three Years Ago
Dit zegt niet alles over de huidige doorlooptijden, maar de ARMv1 koste 6 manjaar en 2 jaar doorlooptijd, inclusief het ontwerpen en testen van de instructieset tot eerste prototype: https://en.wikichip.org/wiki/acorn/microarchitectures/arm1.
Volgens geekbench is de a11 net zo krachtig als een i7-6600u,
Ik ben onder de indruk
Dat zal wel, maar zegt weinig over hoe zo'n chip echt presteert. Beide zijn geoptimaliseerd voor andere zaken en zijn dus niet 1 op 1 vergelijkbaar. Benchmarks winnen is niet relevant.
Volgens aan artikel in Tom's Guide zijn de processoren qua prestaties wel te vergelijken en daaruit zou blijken dat Apple's A11 inderdaad sneller is dan een 7e generatie Core i5 in een MacBook Pro 13". Wel moet daarbij opgemerkt worden dat het om "peak performance" gaat en vanwege de krappe behuizing kan de iPhone deze snelheid niet langere tijd volhouden:
That notebook notched 9,213. Is Geekbench 4 really comparable from phone to desktop? According to the founder of Geekbench, John Poole, “the short is answer is yes that the scores are comparable across platforms, so if an iPhone 8 scores higher than an i5, then the iPhone 8 is faster than the i5.”

However, Poole provided the important caveat that laptops are better at delivering sustained performance over a longer period of time, as opposed to the shorter max burst performance that benchmarks like Geekbench 4 are designed to measure. In other words, the iPhone 8 simply doesn’t have the thermals and heat dissipation necessary to replace your laptop.
Bron: https://www.tomsguide.com...st-phone,review-4676.html
Het is niet eens de piek-performance alleen die telt (De A11 met een heat sink/ventilator combinatie zou langere tijd in piek kunnen draaien).
Wat wel naar voor komt is de zin/onzin van deze benchmark (met name geekbench). Zowat alle routines in geekbench draaien in de cache, waarvan de A11 er vrij veel van heeft (en een snapdragon veel minder), maar in real-world draait niet alles in de cache. Ook wordt er bij Geekbench op het Apple platform veel gebruikt gemaakt van hardware engines, welke niet gebruikt worden in Intel versies (en ook in mindere mate op Android). Ik heb recent nog een artikel gelezen over iemand die de instructies onder de loep nam en kwam tot de conclusie dat bijvoorbeeld Geekbench optimalisaties gebruikt voor NEON (en alles uit de kast haalt op ARM64), maar op het x86+windows of linux platform niet eens SSE of AVX aanraakt (op Android werd dan weer op x86 wel SSE1 gebruikt).

De A11 is misschien wel een mooi staaltje technologie dewelke best wel een laptop zou kunnen aandrijven, maar tegenover een i5-i7 is het een heel ander verhaal. Wat blijft er nog over van de performantie bij bijvoorbeeld compileren van code? (dit is iets wat je niet kan uitmaken met geekbench).

BTW: linus thorvalds was ook niet bepaald fan van deze benchmark. Eén van zijn argumenten was dat 1/3 van de integer benchmarks enkel de crypto unit testen. Een andere was dat meeste workloads in L1 cache passen (niet verschillend van dhrystones).

[Reactie gewijzigd door awenmaek op 23 juli 2024 06:46]

Grote kans dat Apple's Axx SOC dan ook binnenkort in hun eigen MacBook lijn zal verschijnen. De ruwe power is ongeëvenaard, echter moeten de apps wel compatible gemaakt worden aangezien de architectuur compleet anders is.
Zegt die ene benchmark die de hele tijd wordt aangehaald, maar al vaak bekritiseerd is
Mogelijk dat het bij deze chip nog discutabel is, maar de trend is heel duidelijk. Apple investeerd heel veel in de processors en nu ook gpu’s. Ze doen dit volgens mij heel duidelijk met het doel om deze in alle apparaten inclusief Mac’s te gebruiken. Ik denk net als Antony dat die tijd er binnenkort is (misschien beginnen ze bij de Air, welke ook voor Apple al vrij lang in redesign is).
Het hele OS zal er voor moeten worden herschreven, geloof ik. Apple's processoren zijn ook op ARM gebaseerd geloof ik? Dan zullen ze eerst flink wat moeten herschrijven.
Dan heb je alleen nog wel de discussie RISC vs. CISC en de workloads die baat hebben bij deze verschillende instructiesets.
Ja, heel indrukwekkend! Let wel op, mijn niet-U 6600 was nog wel 35% sneller. Maar nog altijd indrukwekkend.

Er zijn wel 2 puntjes die laptop/PC hardware voor hebben:
- Het is kortstondige peak performance
- De grafische prestaties zijn ook indrukwekkend voor een smartphone, maar vrij simpele gpu's lopen er al rondjes omheen.

Maar het biedt zeker perspectief om je telefoon op korte termijn als office PC te gebruiken. Zoals Microsoft al heeft geprobeerd. Ik blijf het een interessante gedachte vinden...
Telkens blijf je je weer verbazen over de rauwe kracht van de chips die Apple zelf ontwerpt. Ben zelf geen Apple fan maar hier kan de rest wel een puntje aan zuigen.
Je verbazen is niet echt nodig. Apple heeft simpelweg het voordeel iOS van top tot teen te kunnen optimaliseren voor de hardware en vice versa. Het geen Android fabrikanten niet kunnen, omdat ze de diepere lagen van het OS niet naargelang kunnen aanpassen. De meeste aanpassingen die android fabrikanten maken beperken zich vaak tot de schil bovenop Google's Android OS.

[Reactie gewijzigd door choi99 op 23 juli 2024 06:46]

De ruwe kracht, ongeacht het OS, is simpelweg ongeëvenaard. Dit komt wellicht doordat andere fabrikanten niet de resources / mensen hebben om dit uberhaupt te kunnen bewerkstelligen. Men is afhankelijk van Qualacom die ronduit traag en relatief duur is. Qualacom slijt liever "oude" modellen in plaats van dat men echt innoveert. Waarom zouden ze eigenlijk? Er is geen echte concurrentie binnen Android en Apple staat volledig buiten het ecosysteem en is dus geen direct gevaar.

Ik neem aan dat Qualacom verigens nu wel goed wakker geschud wordt, want als je naar de toekomst kijkt lopen ze nu echt jaren achter t.o.v. Apple welke oudere generatie processors heeft die sneller of gelijkwaardig zijn aan het ARM topsegment. Met het oog op AR-brillen en steeds veeleisender wordende micro-hardware moet men echt heel snel mee. Onderzoekers claimden laatst dat Apple met zijn 3D-sense gezichtsscanner "vele jaren" voor loopt op wat Qualacom momenteel in ontwikkeling heeft, dus niet alleen op processorkracht lopen ze ver voor.

Google is momenteel ook bezig met een eigen chipset op basis van ARM, had volgens mij zelfs de oude chip-designer van Apple overgenomen, dus wie weet dat dit de boel nog meer in versnelling brengt.

[Reactie gewijzigd door Dannydekr op 23 juli 2024 06:46]

Als ik u een tip mag geven: Zo' n verhaal wordt natuurlijk geloofwaardiger met cijfers in plaats van alleen maar marketing-vaagtaal. Het is natuurlijk niet zo dat Apple of ARM helemaal alleen de 'ruwe kracht' (vaag, ongedefinieerd begrip) bepaalt, voor een groot deel doet TSMC en de software / compiler dat.

Het bekendste andere voorbeeld van een SoC die ook gemaakt wordt op TSMC 10nm is de Huawei (HiSilicon) Kirin 970. Deze heeft 5,5 miljard transistors, tegen deze A11 4,4 miljard. Dus het aantal transistors is niet "ongeëvenaard".

Benchmark scores weten we nog niet voor de Kirin 970, maar als we de vorige generatie op hetzelfde proces (TSMC 16nm) vergelijken, zien we dat de Kirin op Geekbench 4 multicore tot 6298 punten komt, waar de A10 tot 6079 komt. Dus de multicore Geekbench 4 score bij het vorige proces is ook niet ongeëvenaard.

De single-core score van de A10 is dat wel, 3000 voor de A10 vs. 2000 voor de Kirin 960. De opvolger, Kirin 970 dus, is al jaren in ontwikkeling, en heeft waarschijnlijk de Cortex A73 en Cortex A53. ARM hoeft absoluut niet wakker geschud te worden, want de opvolgers, de A75 en A55 heeft ARM al lang klaar. De variant op big.Little, die Apple nu ook 'eindelijk' heeft, heeft ARM al sinds 2011 gepresenteerd. Apple loopt hier dus 6 jaar mee achter op ARM (maar kennelijk hadden ze de technologie tot nu toe niet nodig). Maw, het heeft maar weinig met ARM te maken wie vooroploopt. Steeds meer fabrikanten kiezen voor ARM GPU's, zoveel zelfs dat Imagination nu geen klanten meer heeft nadat Apple ongeveer als laatste wegliep, dus ook hier loopt ARM zeker niet achter, en hoeven ze zeker niet te worden "wakker geschud" .

Waarmee dan wel? Welnu, toch de software, Geekbench scores worden namelijk ook beinvloed door het compileren (zie p4); voor iOS en Android wordt deze met een andere compiler gemaakt. Voor sommige benchmarks icm. sommige compilers scheelt dit tientallen procenten op dezelfde hardware en zelfde OS, maar alleen met verschillende compiler. Dus behalve een benchmark van het proces van TSMC, is het ook een benchmark van de compiler. Maar vooral ook, wie vooraf het meeste capaciteit bij het kleinste proces kan inkopen bij TSMC. Dat wint Apple, niet omdat ze zoveel beter zijn of betere ontwerpers hebben, maar gewoon omdat ze meer geld kunnen neertellen bij TSMC om de eerste te zijn en in het begin exclusiviteit af te kunnen dwingen. In 2012 bijvoorbeeld bood Apple daar meer dan een miljard voor, en die bedragen zullen alleen maar groter zijn geworden nu meer bedrijven hun eigen SoC's ontwerpen (Mediatek, HiSilicon, Samsung).

[Reactie gewijzigd door kidde op 23 juli 2024 06:46]

Anoniem: 583079 @kidde26 september 2017 23:58
Goed om cijfers aan te halen, maar haal dan geen onjuiste en uit hun verband gerukte cijfers aan. Single core haalt de Kirin 960 1850 op Geekbench4 bvb, dat is niet zoveel meer dan de helft van de A10, als je dat een equivalente prestatie vindt op eenzelfde TSMC process, be my guest.. En dat het aan de compiler ligt daar is geen enkel bewijs voor - misschien is de compiler van Huawei wel beter dan die van Apple.
En als je de multicore score van de Kirin 960 met de A10 vergelijkt, vergeet je dat je 8 cores met 2 cores vergelijkt... Erg overtuigend allemaal je cijfers.

ARM heeft vanalles klaar, maar als niemand het implementeert betekent het weinig. ARM had 64-bit klaar, maar Apple was de eerste om het te implementeren, met de A7. Qualcomm schrok zich een bult en ging dan maar het standaard ARM ontwerp implementeren. Dat leidde tot de halve ramp die de SD801 was... Tot daar je suggestie dat Apple zou achterlopen. Over het algemeen wordt aangenomen dat Apple ongeveer 2 jaar voorloopt op zijn concurrenten.

Als je denkt dat de Kirin 960 zo'n fantastische SoC is, moet je even de review van Anandtech lezen, ik citeer even uit de conclusie: "What’s really disappointing (and puzzling) about Kirin 960, though, is that its CPU efficiency is actually worse than the 950’s. ARM did a lot of work to reduce the A73’s power consumption relative to the A72, but the Kirin 960’s A73 cores see a substantial power increase over the 950’s A72 cores. The poor efficiency numbers are likely a combination of HiSilicon’s specific implementation and the switch to the 16FFC process. This was definitely an unexpected result considering the Mate 9’s excellent battery life. Fortunately, Huawei was able to save power elsewhere, such as the display, to make up for the SoC’s power increase, but it’s difficult not to think about how much better the battery life could have been.

Power consumption for Kirin 960’s GPU is even worse, with peak power numbers that are entirely inappropriate for a smartphone. Part of the problem is poor efficiency, again likely a combination of implementation and process, which is only made worse by an overly aggressive 1037MHz peak operating point that only serves to improve the spec sheet and benchmark results."
https://www.anandtech.com...0-performance-and-power/6

Je maakt het helemaal bont wanneer je over de Kirin 970 begint, waarvan alleen maar marketing-slides bekend ("marketing-vaagtaal") zijn, maar jij weet al dat het een fantastische SoC wordt. Staat netjes in contrast met je stoere inleiding "laat ons even naar de cijfers kijken". Sorry maar je post verdient een 0.
Single core haalt de Kirin 960 1850 op Geekbench4 bvb, dat is niet zoveel meer dan de helft van de A10, als je dat een equivalente prestatie vindt op eenzelfde TSMC process, be my guest..
Ik noem drie zaken waarbij twee bijna equivalent zijn en eentje niet, mooi hoe u dit zo uit z'n verband weet te rukken door een van de drie die ik letterlijk genoemd heb na te papegaaien en de andere twee te vergeten! Niets dan lof daarvoor, applaus valt u ten deel. Ook mooi hoe ik big.Little als een voorbeeld noem, en u dat totaal uit z'n verband rukt door dit door te redeneren alsof ik dit over het algemene beweer. En vervolgens haalt u een nonsens verband aan tussen de 960 en 950, terwijl de vergelijking was tussen de Geebench 4 score van de 960 en de A10 om aan te tonen dat de A10 niets bijzonders is? Dus als de 960 slechter was dan de 950, was de 950 al beter dan de A10 en de A10 dus niet beter dan de 950 waardoor de 950 vooropliep?

Als ik u een tip mag geven, beetje meer zelfreflectie over dingen uit z'n verband rukken, ik ben koning maar u bent absoluut keizer, dus een diepe buiging.
Anoniem: 583079 @kidde27 september 2017 18:54
De Kirin 960 haalt zijn multicore Geekbench score met 8 kernen tegelijk, een A10 haalt een gelijkaardige score met 2 kernen, moet ik daar echt een tekeningetje bij maken?

En het artikel van Anandtech illustreert dat Huawei zijn SoCs nog niet op orde heeft en nog niet op het niveau van een Qualcomm of Samsung kan maken, laat staan dat ze de vergelijking met een A10 kunnen doorstaan.

Ze zijn hoogstens iets beter dan mediatek, het kneusje van de smartphone SoC fabrikanten, die zelfs 10 kernen in hun SoC moesten bouwen om een beetje de specsheet op te smukken.
A10 is de "oude" generatie. Ik heb het nu over de A11 welke in Geekbench rond de 10000+ scoort.
http://gadgets.ndtv.com/m...laxy-s8-oneplus-5-1751598

Verder is de single-core performance in principe nog het meest belangrijk voor dagelijks gebruik op een telefoon/tablet.

[Reactie gewijzigd door Dannydekr op 23 juli 2024 06:46]

Daarom heb ik het toch ook over de nieuwe generatie Kirin, dus de 970 (die een maandje later komt vanwege de genoemde exclusiviteit)? In andere woorden, ik maak toch duidelijk dat het bij " gelijke generaties" op "gelijk TSMC proces" de prestatie op veel terreinen vrij vergelijkbaar is, en niet afhankelijk van ontwerp of ARM?

[Reactie gewijzigd door kidde op 23 juli 2024 06:46]

Anoniem: 583079 @choi9926 september 2017 21:25
De kracht van de chip op zich heeft niets te maken met optimaliseren van iOS voor de hardware, natuurlijk.
Hoe ga je de kracht dan meten? Je kan niks met een chip zonder software... dus de software is wel degelijk van belang.
Vooralsnog gebeurt zo'n 'krachtmeting' met benchmarks die zowat de hele keten testen (cpu, ram, efi, os, apis, benchmark). Meer feitelijke performance gegevens van de chip (kloktikken voor een instructie, wake-from-idle, caches,...) zijn nietszeggend ten aanzien van een irl gebruiksscenario.
Of je nu Geekbench draait op iOS of op Android zal dat niet veel verschil maken, het gaat om de processor. Je meet de snelheid van de CPU, ttz de snelheid waarmee bepaalde instructies van de ARM instructieset worden uitgevoerd. Dat heeft weinig of niets te maken met de snelheid of optimalisatie van efi, OS, APIs en zelfs niet met de snelheid van RAM want het zijn CPU-constrained testen.

[Reactie gewijzigd door Anoniem: 583079 op 23 juli 2024 06:46]

Volgens mij is dat bij risc processoren niet zo gemakkelijk omdat zoals hier boven al is aangegeven de compiler vrij cruciaal.
Ik begrijp wat je bedoelt, maar ik zou niet weten waarom de compiler van Apple beter zou zijn dan die voor een Qualcomm of Samsung RISC processor of gelijk welke andere CPU gebruikt op Android. Maw je meet in de praktijk wel degelijk de processorkracht en niet "de superieure software/hardware integratie van Apple"..
Je kunt gewoon een theoretisch aantal OPS berekenen, dit kan zelfs vrij statisch, en dat gekoppeld aan het (gesimuleerde) opgenomen vermogen, dan kan men vrij veel uit spraken doen over de ruwe kracht van een CPU, net zoals dit ook kan voor de GPU's.
Ik d8 ergens gelezen te hebben, dat apple chips dezelfde oppervlakte hebben als een normaal Intel chip en daarom ruim 2x krachtiger zijn dan andere telefoonbakkers
Zou best eens kunnen zijn dat zij met een mega-strak geoptimaliseerde SoC de eerste zijn met robuuste (kwa framerates) Augmented Reality in brilformaat. De prestaties van de iPad Pro zijn echt waanzinnig te noemen voor een passief gekoeld chippie.
Voor dat Apple de stap naar Intel maakte produceerden ze merendeel zelf. De kans dat ze Intel binnen enkele jaren weer links laten liggen voor hun eigen chipset lijkt mij uiterst reëel.

Apple heeft al meer dan eens haar ongenoegen ge-uit over het niet regelmatig kunnen upgraden van hun Mac computers omdat de ontwikkeling van 3e partijen niet op koers licht. Het gevolg is dat je een minuscule MacBook update krijgt waar het verschil eigenlijk verwaarloos is, of dat je een periode niks uitbrengt en situaties krijgt zo als met de Mac Pro en Mac Mini die nu al een paar jaar niet zijn ge-update.

Je kunt er gif op in nemen dat Apple intern al Mac’s op hun eigen A chips heeft draaien.
Apple heeft er alleen maar bij te winnen, geen dure licenties meer bij Intel, geen vertraging in het productie proces, meer winst in eigen zak.

Offtopic:
Ik zie het op ten duur toch gebeuren al roept Apple van niet, dat de MacBook(pro) en IPad één apparaat worden. Ipad’s worden steeds duurder en komen in de buurt van de MacBook prijzen, kunnen steeds meer op gebied van hardware en software, en de pro lijn wordt notabane door Apple zelf als laptop vervanger aangeprezen. Een iPad pro heeft tegenwoordig zelfs een 120hz en truetome scherm, iets wat in hun veel duurdere mac’s mist.
Apple heeft nooit zelf chips geproduceerd, de A series zijn de eerste die ze zelf ontwerpen.
Apple begon met Motorola CPU's en stapte later over naar de IBM Power CPU's.
Apple gebruikt niet het ARM reference design (Cortex bijvoorbeeld) maar ontwerpt hun eigen chips op basis van licenties op de ARM architectuur. Het is te vergelijken met zoals AMD x86 chips ontwerpt op basis van Intel licenties. Een Ryzen is toch echt door AMD ontworpen, niet door Intel.
Klopt, dit heet 'ARM Architectural license'. De licentiehouders zijn hier te vinden: https://en.m.wikipedia.org/wiki/Arm_Holdings
Apple ontwikkelt en ontwerpt al sinds de A6 zn eigen SOC's op basis van ARM. Dus jawel. Ze doen het wel allemaal zelf.
Mooie soc voor de se 2.
Op de foto's lijkt het dat de chip beschadigd is. Best vreemd omdat er een prachtige techniek is waarmee ze schade vrij kunnen worden geopend. Plasma. Handig om chips te reverse engineeren.
10 nm? Wow, dan moeten ze echt kleine handjes hebben die Chinezen.
En goed kunnen solderen!

Op dit item kan niet meer gereageerd worden.