Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 31, views: 11.709 •

ARM heeft, in samenwerking met chipproducent TSMC, een testchip ontworpen en geproduceerd met een Cortex-A57-processor aan boord. De testchip werd op 16nm geproduceerd, waarbij zogeheten finfets, een speciaal type transistors, werden gebruikt.

Om transistors volgens een 16nm-procedé te fabriceren, moet een manier om lekstromen te beperken gebruikt worden. Finfets, transistors met een speciale, 'driedimensionale' vinstructuur, zorgen voor een groot oppervlak. Dat resulteert in lagere lekstromen en daarom lager energieverbruik en betere prestaties van de transistors. De 16nm finfet-technologie die door Taiwan Semiconductor Manufacturing Company ontwikkeld werd, is voor de 'tape-out' van de testchip ingezet, zo melden beide bedrijven.

De testchip is nog niet in productie genomen, maar dient als demonstratie voor de technologie. Samen met TSMC stelt ARM libraries beschikbaar voor zijn klanten, zodat soc's in korte tijd ontwikkeld kunnen worden. De soc's met ARM Cortex-A57-processors, die gebruikmaken van de 64bit ARMv8-architectuur, moeten in de volgende generatie smartphones en tablets ingezet gaan worden. Daarnaast zal het chipontwerp ook toegepast worden in servers. De huidige soc's worden nog op 28nm geproduceerd.ARM Cortex-A57

Reacties (31)

Het lijkt er op dat ARM-gebaseerde systemen het steeds beter op kunnen gaan nemen tegen de traditionele x86 PC!

De 16nm 3D-infrastructuur lijkt mij een goede stap om de strijd aan te gaan met de x86 (misschien op termijn nekslag?). Ik ben benieuwd naar de prestaties hiervan. En of dit daadwerkelijk de competitie aan kan gaan met x86. Hopelijk worden ook en hoop programma's hiervoor geschikt gemaakt (denk aan een volledig werkende Windows op ARM, en dedicated software als AutoCAD)

Zeker met dit verwachte lage energieverbruik lijkt het me ideaal!

(edit: typo's)

[Reactie gewijzigd door Beesje op 2 april 2013 12:40]

de toenemdende power en en de beschikbaarheid van beter software heeft ARM inderdaad in het bereik van consumer computing gebracht.
Toch is de strijd met x86 nog niet gestreden, zelfs nog maar net begonnen.
Langs de ene kant is x86 nog heer en meester in de performance workloads; ARM wordt enkel ingezet in low power, low performance apparaten.
Daar staat tegenover dat Intel hard aan de weg timmert om x86 cpu's in diezelfde markt te zetten. tot nog toe met weinig echt concreet succes, maar ik denk dat we de daar het laatste nog niet gezien hebben!

Ik denk dat het "performance" segment nog zit te wachten op echt krachtige ARM's en bijhorende software!
Groot voordeel voor ARM is dat de low power, low performance markt enorm groeit, terwijl de vraag naar krachtige PC's wereldwijd minder wordt.

Vooralsnog is de move van Intel naar de tablet/telefoonmarkt ietsje succesvoller dan die van ARM fabrikanten naar de traditionele PC markt (er is nu 1 Chromebook model met een ARM chip, versus een hele lading Clover Trail tablets, en telefoons als de Razr i, FonePad, etc), maar we zijn nog maar aan het begin, dit zegt nog weinig. De grote klapper wordt de strijd dit najaar tussen Temash en Bay Trail aan de x86 kant, en Tegra 4, Exynos 5 en Snapdragon S600/800 aan de ARM kant.

Deze 64-bit ARM chips gaan we ws pas richting 2014/2015 zien, er zit heel veel tijd tussen experimentele baksels en commercieel haalbare produkten. Tegen die tijd krijgen we ook mobile devices met >4 GB geheugen, dus zijn 64-bit chips ook nodig.

[Reactie gewijzigd door Dreamvoid op 2 april 2013 13:36]

Groot voordeel is dat deze "low performance" vergeleken met een paar jaar geleden helemaal niet zo "low" is.

Tel daarbij op dat het gemiddelde computergebruik van consumenten niet gigantisch veranderd is en het is juist logisch dat ze zo'n vlucht nemen.

Om even in S. Jobs termen te blijven. ARM chips zijn de nieuwe zuinige auto's, x86 chips zijn trucks. Beide zijn nodig, maar de markt voor ARM zal over een paar jaar vele malen groter zijn dan x86.
Dit is grappig, want in zekere zin is ARM helemaal niet zo zuinig. Zowel ARM als x86 zijn efficiënte processorarchitecturen op hun eigen manier.

Het heeft niet zo heel veel zin om te kijken naar puur energieverbruik, zoals tot nu toe is gedaan. Oh wow, ARM chips verbruiken piek maar 1W, intel x86 minstens 10. Dan zal ARM wel zuiniger zijn. Nee, het is een stuk nuttiger om te kijken naar de twee belangrijkste metrieken voor efficiëntie: performance per joule en performance per mm2

x86-processoren zijn veel kleiner per performance-eenheid dan ARM-chips. Bijna een factor 2. Je kunt dus veel goedkoper en kleinere x86-chips bouwen dan ARM.

ARM-chips presteren beter op het gebied van integer-berekeningen, maar veel slechter op floating point berekeningen dan x86. Terwijl dat laatste juist zo belangrijk is voor general purpose computing. Over het geheel genomen is een ARM-chip dus veel minder efficiënt - je krijgt meer nuttige berekeningen gedaan op een acculading met x86 dan met ARM.

En dan is er nog het punt van schaling. Een x86-processor, met alle legacy toepassingen die er inmiddels zijn, schaalt ontzettend goed omhoog. De snelste x86-processoren zijn twee orde-groottes sneller dan de snelste ARM-chips, met helemaal niet zoveel extra chipoppervlak. Je hebt lang niet altijd veel performance op één plek nodig, maar wanneer je dat wel nodig hebt is x86 daar heel goed in.

Dit gaat allemaal over active power en siliciumoppervlak, maar de grote achilleshiel van x86 zit hem altijd in idle power. Die is de afgelopen tijd altijd één of meerdere orde-grootten hoger geweest dan ARM. Maar me de binnenkort aankomende Haswell-processoren van Intel wordt een 20x lagere idle plaform power beloofd - dit vult exact de discrepantie tussen de twee architecturen.

Met dat nadeel verwijderd, veel meer prestaties per watt (en joule) en veel meer prestaties per vierkante mm silicium denk ik dat x86 nog vele jaren sterk zal blijven en ARM zal blijven overschaduwen.
"x86-processoren zijn veel kleiner per performance-eenheid dan ARM-chips. Bijna een factor 2."

Gaat dit ook op als je het proces voordeel van Intel buiten beschouwing laat? Intel loopt 1 a 2 proces iteraties voor op de rest, dus waar top op the line ARM in nog steeds in 32 nm gemaakt wordt werkt Intel al een jaar met 22 nm.
ARM-chips presteren beter op het gebied van integer-berekeningen, maar veel slechter op floating point berekeningen dan x86.
Onzinbewering zonder bron / spec.

Welke x86 chip? Welke ARM-chip? Wat voor floating point berekeningen?

In de volgende studie is een figuur waarin u kan zien dat een OMAP 4430 bij bepaalde matrix-groottes meer flops per watt levert in LinPack dan een Xeon op 2.67gHz:

http://rb-han.de.bosch.co...S0743731512002122-gr5.jpg

De OMAP4430 is niet gemaakt op de zuinigste proces-technologie beschikbaar voor ARM (ST-E heeft samples op UTBB-FD-SOI die veel beter presteren dan het CMOS-bulk-proces van UMC dat TI gebruikt), en bovendien is de Cortex A9 inmiddels opgevolgd door de A15, waarvan ik helaas geen FLOP-benchmarks kan vinden.
Je hebt helemaal geen 64 bit nodig voor meer dan 4GB geheugen! Dat is een hardnekkige mythe. 32 bits processoren van intel hebben al heel lang meer dan 32 adreslijnen. Dankzij de memory mapper kan ieder willekeurig stuk geheugen voor een applicatie toegangkelijk worden gemaakt.
Het kan, maar zaken als PXE blijven een hack en geen elegante oplossing.
Hoewel er niet echt een uitleg bij staat van de waarom, toch relevant:

http://blog.linuxolution....ysical-address-extension/

Je kan ook 100 per uur rijden op je brakke bakkersfiets. Maar gezellig is anders...
Als er geen uitleg bij staat waarom, dan is het niet relevant. Sterker nog, Linus maakt zich belachelijk door te verwijzen naar 'himem' wat domweg niet vergelijkbaar is met de memory mapper die je in de huidige processoren vind.

Het feit is dat je pas 64 bit nodig hebt als een enkele applicatie meer dan 4GB aan geheugenruimte nodig heeft. Ik gebruik dergelijke applicaties niet dus is 64 bit voor mij niet nodig.

Een memory mapper voorziet een applicatie van een X hoeveelheid geheugen net als stapelbakken voor het verzamelen van orders. Is de bak vol, dan wordt er een nieuwe lege bak op het karretje erbij gezet. Is de bak niet meer nodig, dan wordt 'ie teruggezet bij de lege bakken om gebruikt te worden voor een andere order. Het verschil tussen 32 bit en 64 bit is het maximale aantal bakken dat voor 1 order (applicatie) gebruikt kan worden.

[Reactie gewijzigd door ncoesel op 2 april 2013 18:59]

Ik snap niet dat je +2 gemodereerd wordt. Weer een hoop niet kundige windows mensen blijkbaar.

Hij legt het (Heel erg simpel en kort door de bocht, dat wel) gewoon uit. Je kan jezelf verder inlezen via PAE wikipedia.

"Reasons for why you need a bigger virtual space:

you need to map that physical memory somehow, and no, tiny windows into the physical memory simply do not cut it! If you cannot have normal pointers to the physical space, it immediately means that you need to jump through serious hoops to get there.
you additionally need to be able to remap things in alternate ways (ie user space) or make space for non-memory issues (virtual page tables, IO, you name it)"

Waar het om gaat is niet het aantal gigabytes wat je in je geheugen slot stopt, dat wordt opgelost door PAE inderdaad. Je PC ziet het en kan het gebruiken.

Nee het probleem zit hem in het feit, dat intern nog steeds alles met 32bits gerekent wordt. Als je nu 33bit geheugen bus hebt (33 bit nodig voor een address, zeg voor 4.1 GiB) dan moet je al allemaal raare mappings uit voeren. Prima, dat is wat PAE op zou moeten lossen. Maar verder heb je ook allerlij mappings waar het erg traag/mis op loopt. Nogmaals, in dit kleine edit veldje is eigenlijk te weinig ruimte om daar op in te gaan en als je het echt wilt weten, moet je beginnen met de PAE wiki pagina en Logical en Virtual addressing eens nalezen.

@johnbetonschaar; nee het heet niets met filosofie te maken, maar gewoon dus zoals hierboven beschreven, dat je aan 32 virtuele addresserings bits te weinig hebt. En vergeet niet, die 'benches' lopen in 1 process space, van juist ja, 4 GB max. Je zult hele specefieke benches moeten hebben om de problemen naar boven te halen. Deze problemen doen zich ook in de 'real world' voor, ondanks dat de bench zegt 'niets aan de hand'.

[Reactie gewijzigd door oliveroms op 3 april 2013 12:43]

Je kan ook 100 per uur rijden op je brakke bakkersfiets. Maar gezellig is anders
Alle respect voor Linus Torvalds hoor, en ik pretendeer niet ook maar 1% van zijn kennis van Linux of OS en hardware systemen af te weten, maar wat hij over PAE schrijft lijkt me echt een 100% rant uit filosofische overtuigingen. PAE is misschien technisch minder elegant dan gewoon 64 bits adresruimte aanbieden, maar het werkt wel. PAE kernels zijn tot uit den treure gebenchmarked tegen 64-bit kernels, en blijken dan telkens minder dan een procent overhead te hebben. Het enige praktische nadeel aan PAE is dat je per proces nog steeds aan 4GB gebonden bent, wat voor bijvoorbeeld VM's een probleem zou kunnen zijn. Voor de gemiddelde PC met zeg 8GB werkt een PAE kernel gewoon prima, geen enkel effect op performance of stabiliteit, en het heeft nog een voordeel ook, omdat alle processen net iets minder geheugen gebruiken.
Heb je een speciale reden om te veronderstellen dat een ARM processor meer voordeel heeft van 16nm finfets dan een x86 processor? Want die zullen ook gewoon met 16nm finfets worden geproduceerd, en zullen daar exact dezelfde voordelen van hebben.


Ook zie ik niet echt waarom we er dolgelukkig van moeten worden als ARM x86 van de troon zou stoten, wat dan? x86 is ook een stuk zuiniger geworden (vooral als je kijkt naar power management bij lage load). Tuurlijk is het leuk als processor efficienter worden, maar ik zie niet waarom het uitmaakt of dat obv ARM architectuur of x86 architectuur gebeurd.

Wanneer ARM de core i7s wil gaan vervangen zullen ze toch echt ook sommige afwegingen meer richting performance dan energie laten vallen.
Ik merkt het nu al, in 2007 had ik een desktop samengesteld met een Energy Efficient cpu met een tdp van 65 watt. Tegenwoordig zit ik met een laptop met een i5 die een tdp van 17 watt heeft. Toch durf ik te zeggen dat deze minstens net zo snel is en het einde is waarschijnlijk nog lang niet in zicht.
Intel was in dec 2011 al in het nieuws met hun 14nm tri-gate testprocede:
http://www.tomshardware.c...ors-ivy-bridge,14178.html

Ongeveer jaartje later wordt hun fabriek in ierland uitgesteld:
nieuws: Intel stelt productie volgens 14nm-procedé in Ierland uit

Maar dat kreeg eind januari 2013 toch groen licht:
nieuws: Intel krijgt groen licht om Ierse fabriek voor 14nm-productie te bouwen

Daarbij schijnt intel al in september 2012 werkende broadwell, opvolger haswell, cpu's op 14nm te hebben:
http://news.softpedia.com...t-Months-Ago-291917.shtml

Dus qua procede lijk me dat intel zeker bij de tijd is :)
Ongelooflijk wat gaat de ontwikkeling hard! Ze slaan zo een flink aantal procedé's over. Ik heb niet het gevoel dat andere chipontwerpers ook maar in de buurt komen van ARM op basis van hoe efficient ze deze architecturen ontwerpen en daadwerkelijk in productie nemen.
Ze noemen het een 16nm-procedé, maar de transistors zijn gewoon 20nm. Intel maakt al ongeveer dan een jaar 22nm transistors (massa productie, dus geen testchips) en zelfs de Common Platform members (IBM, Samsung en GloFo) hebben een 20nm FinFet testchip al in 2011 weten te maken.

Ik ben wel benieuwd naar de 64bit ARM chips, vooral in servers. Het wordt een leuke concurrentiestrijd tussen Intel en ARM de komende jaren in de markten die nog interessant zijn, maar deze marketing bullshit van TSMC hoeft niet :)
Van wat ik me van eerdere discussies hierover kan herinneren wordt de grootte van het procede de kleinste structuur gemarkeerd.

Als echter een bepaalde structuur een stukje kleiner is dan de rest, dan vertekent dit de metriek. Sommige firmas gebruiken dat weer als marketing argument.
Inderdaad, zo heeft Samsung de 20nm-class waar alles tussen de 20 en 30nm in zit...

[Reactie gewijzigd door watercoolertje op 2 april 2013 14:43]

Hoe wordt dit dan aangeduid met 18nm?
Alles staat of valt met de juiste software. X86 heeft het voordeel dat er een hele berg software die compatible is waarmee je gelijk aan de slag kunt.

Linux heeft ook een heel berg software die op meerdere platforms draait,
een leuk voorbeeld is Ubuntu voor tablets
http://www.ubuntu.com/devices/tablet

Android staat me steeds minder aan.


En nu wil het zo zijn dat Android de drijvende kracht is achter de ontwikkelingen van de ARM. Hoop daarom van harte dat ter zijner tijd steeds meer Linux-varianten uitkomen waarmee je een stuk relaxter kunt PC'en met een stuk minder verplichtingen of profiling.
dus je wilt "steeds meer linux varianten" hebben...
Laat dat nu net de reden zijn dat zeker desktop linux maar niet van de grond af komt en eigenlijk al een hele vroege dood is gestorven...

Volgens mij is Linux nu net iets nodig van 1 (1 ding van alles, 1 soort destkop, 1 soort audio systeem, 1 soort ....) niet al die tig variaties van alles
Evolutie behoeft variatie.
En met te veel variatie krijg je incompatibiliteit.
Teveel variatie leidt tot foute beslissingen, want het kost aanzienlijk meer tijd om de juiste te kiezen, het is nogal inefficiënt.

Keuze is leuk, maar te veel keuze is niet gezond.... (ps. ik gebruik zelf wel Linux ;) )

Maar voor de gemiddelde consument is het aanbod van 100den verschillende modellen funest, kijk maar naar Apple, die heeft maar een paar verschillende modellen, om maar niet te spreken welke OS ze gebruiken....
Teveel diverse evolutie en je mist draagvlak... Zie Ubuntu, die nemen gewoon keuzes en dumpen oude compatibiliteit en laten weinig keuzevrijheid over. Ze zijn nu een van de grootste...
Nope: Evolutie behoeft doorontwikkeling
Desktop Linux werkt prima en steeds meer mensen nemen dat!
Als Adobe nou ok eens Linux ondersteund....grrr
Ze zullen wel moeten op een gegeven moment. Intel prijst zichzelf steeds meer uit de markt op de PC markt, wat natuurlijk de weg breed openlegt voor ARM om fiks te verkopen.

Het frappante is dat intel juist recordomzetten boekt - maar dat ligt meer aan het feit dat ARM nog geen goed desktopalternatief biedt en dat bedrijven maar oerconservatief blijven zijn.

Om over de HPC nog te zwijgen.

De quadcore ARMs zijn natuurlijk ook niet goedkoop en alleen weggelegd voor nerds eigenlijk. Goedkoopste ontwikkelbordje daar is een odroid quadcore ARM van 89 dollar per stuk. Niet gemakkelijk in gebruik echter en slechts enkel en alleen ubuntu draait erop of android.

Van alle linux distro's is ubuntu natuurlijk wel de laatste die ik erop wil hebben (te onveilig voor ontwikkelomgevingen).

Met de komst van 64 bits arms die ook nog eens quadcore zijn en hooggeklokt zou dat moeten veranderen.

Overigens de naam 'arm' is de naam die ze dragen. Het oorspronkelijke RISC zijn ze natuurlijk allang vanaf geweken met steeds diepere pipelines en op 16 nm zullen ze nog wel wat stages eraan toe moeten voegen.

Waar ARM zwaar achterloopt is natuurlijk het aantal cores, wat in theorie toch relatief simpel omhoog valt te krikken bij ARMs.

Als je dan toch een pokketrage core hebt, heb er dan dozijnen zou ik zeggen.

Ze blijven in die telefoons ook maar dual cores mikken ipv eens een keertje een quadcore in te slaan. Op die manier blijft intel het natuurlijk wel goed doen.

Op dit item kan niet meer gereageerd worden.