Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Op 5nm gemaakte Apple A14 Bionic-soc heeft Neural Engine met 16 kernen

Apple heeft zijn nieuwe A14 Bionic-soc aangekondigd. De chip wordt op 5nm gemaakt en is voorzien van zes cpu-cores en vier gpu-cores. Apple stopt de soc in zijn nieuwe iPad Air, maar vermoedelijk komt de A14 ook naar de iPhone 12-serie.

Bij de presentatie van de nieuwe iPad Air gaf Apple de eerste details over de op 5nm gemaakte soc. De A14 Bionic is voorzien van 11,8 miljard transistors en bevat zes cpu-cores en vier gpu-cores. Omdat Apple de soc eerst in de iPad Air gebruikt, vergeleek de fabrikant de prestaties met de A12 Bionic-soc die in de iPad Air 2019 zit. Volgens Apple zijn de cpu-cores 40 procent sneller en is de gpu 30 procent sneller. Dat gaat dus niet om de prestatiewinst ten opzichte van de A13 Bionic-soc uit de iPhone 11-modellen.

De opbouw van de A14 is grotendeels gelijk aan die van de A13 en A12, met twee krachtige cores en vier zuinige cores. De cpu-cores zijn volgens Apple verbeterd en voorzien van grotere caches, maar exacte details daarover zijn niet bekendgemaakt.

De Neural Engine krijgt een upgrade naar zestien cores. Bij de A13 Bionic heeft dat gedeelte van de chip acht cores. Apple claimt dat de chip elf biljoen bewerkingen per seconde kan uitvoeren. Bij de A13 Bionic sprak Apple nog van vijf biljoen bewerkingen per seconde. Ook zegt Apple dat de A14-soc is voorzien van snelle machine learning accelerators.

Vermoedelijk wordt de A14 Bionic-soc gemaakt op het 5nm-procedé van TSMC. Apple liet zijn vorige socs maken op het 7nm-procedé van die chipmaker. Naast TSMC heeft ook Samsung een 5nm-procedé dat gereed is voor massaproductie.

A14 Bionic A13 Bionic A12 Bionic
Procedé 5nm 7nm 7nm
Transistors 11,8 miljard 8,5 miljard 6,9 miljard
Cpu-cores 6 6 6
Gpu-cores 4 4 4
Neural Engine-cores 16 8 8

Door Julian Huijbregts

Nieuwsredacteur

15-09-2020 • 20:54

87 Linkedin

Reacties (87)

Wijzig sortering
Als toevoeging, ter vergelijking, nog de specificaties van de A12Z Bionic, aangezien deze SoC wordt gebruikt in de huidige iPad Pro (4th gen).

Procedé: 7nm
Transistors: 10 miljard.
Cpu-cores: 8
Gpu-cores: 8
Neural Engine-cores: 8

Meer info: https://www.notebookcheck...s-and-Specs.458473.0.html

[Reactie gewijzigd door Lycaon op 15 september 2020 21:15]

Niet echt... er is geen direct verband tussen de genoemde "afmeting" 7nm en de effectieve mogelijke dichtheid op een bepaald oppervlak.

Intel 10nm heeft bijvoorbeeld bijna hetzelfde aantal transistoren op eenzelfde oppervlakte zitten dan TSMC 7nm heeft.

Misschien is het beter wanneer men spreekt over "nm" hier altijd de afkomst bij te vernoemen (Intel/TSMC), zonder dit is het eerder appelen met peren vergelijken.

Of nog beter om vanaf nu alleen nog te spreken over de transistordichtheid. Hier bestaat zelfs al een paper over, geschreven door personen van Stanford, MIT, Berkeley en TSMC zelf:
https://ieeexplore.ieee.org/document/9063714
Ik zal u een geheimpje verklappen: Deze "Apple Bionic Neural Engine" is waarschijnlijk gewoon een dood-ordinaire van-de-plank CEVA-NeuPro.

CEVA ontwerpt dat, laat het ontwerp alleen een keer bij TSMC maken om te testen. En verkoopt dan het ontwerp aan o.a. Apple. Apple stopt dat stukje ontwerp in hun SoC. En Apple plakt er dan wel of niet een sticker op en geeft het beestje een naam. Het is aan Apple om wel of niet te vertellen waar ze het gekocht hebben. Of misschien maakt Apple ze zelf; dat kan ook; maar voor de vorige generatie las ik uit redelijk betrouwbare bron dat het om CEVA IP gaat.

Gevolg: Op de gelinkte CEVA-website met specs leest u, dat er tot max. 12.5 tera-operaties per seconde wordt gehaald.
Tera is Amerikaans voor triljoen.
Tera is Europees voor biljoen.

Dus wat dat betreft klopt het denk ik wat gesteld wordt.

@Carbon "Geheim" omdat Apple het niet vertelt; zoals ze bijv. wel gewoon adverteren dat ze de ARM ISA gebruiken; of vroeger dat ze gewoon vertelden dat in de iPhone 1 een Samsung 32-bit RISC ARM 1176JZ zat.

[Reactie gewijzigd door kidde op 16 september 2020 22:51]

Programma’s die machine learning gebruiken kunnen de neural cores gebruiken zodat de cpu load verlicht word (met gevolg lager energieverbruik) en ingewikkeldere neural nets mogelijk worden. Toepassingen hiervan zijn bijvoorbeeld speech to text, handschrift herkenning, hoe foto’s met dezelfde mensen erop gegroepeerd kunnen worden, verbeteren van foto’s. Je kan er veel mee bedenken.
Apple probeert met Core ML machine learning ook toegankelijker te maken voor developers.
Het is niet onmogelijk, maar dat is niet hoe Apple het inzet. De neural engine wordt juist ingezet om dingen op het device te houden en niet off te loaded naar de cloud ivm privacy zorgen.

Dingen als gezichtsherkenning in foto’s (wat mijn iPhone X ongelofelijk goed doet) bijvoorbeeld. Apple kondigt steeds meer dingen aan die leunen op de onboard neural engines van devices, om zo min mogelijk in de cloud te hebben.

Maar als je Siri om het weer vraagt, of informatie over the Great Barrier Reef, Dan gaat ze echt met internet praten.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True