Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Chipproducent GlobalFoundries zegt erin te zijn geslaagd om de eerste 28nm-processors op basis van de ARM Cortex-A9-architectuur te hebben geproduceerd. De cpu of soc moet eind dit jaar in massaproductie worden genomen.

De huidige Cortex-A9-processors worden nog op 45 of 40nm gebakken. Volgens GlobalFoundries zal de op 28nm geproduceerde variant veertig procent sneller presteren zonder meer warmte te dissiperen. Bovendien zou het energieverbruik met dertig procent afnemen, terwijl de standby-tijd zou verdubbelen. De dualcore-chips zullen in de Duitse fabriek van GlobalFoundries in Dresden worden geproduceerd.

De eerste chips die de producent heeft vervaardigd, zijn zogeheten technology qualification vehicles, of tqv's. Die worden gebruikt om het ontwerp te testen en verder te verfijnen. In de loop van het laatste kwartaal van dit jaar moet dat proces zijn afgerond en zou massaproductie van de chip van start kunnen gaan. Volgens GlobalFoundries kunnen de soc's op termijn met kloksnelheden tot 2,5GHz worden geproduceerd.

De testversie van de Cortex-A9-chips wordt volgens het 28nm-High Performance-procedé geproduceerd. De chips zouden moeten worden gebruikt in mobiele apparaten die hoge prestaties vergen, zoals tablets of netbooks. Tevens zou het bedrijf een High Performance Plus-versie, die tien procent sneller presteert, en een Super Low Power-versie, die nog zuiniger is, willen maken. Overigens zouden de Cortex-A9-chips pas in het laatste kwartaal van 2011 kloksnelheden boven de 2GHz krijgen.

In de tweede helft van 2011 wil GlobalFoundries de eerste pogingen van Cortex-A9-processors volgens een 20/22nm-procedé vervaardigen. Een jaar later zou de ontwikkeling gereed moeten zijn, waarna in 2013 massaproductie kan beginnen. De 20nm-chips zouden in HP- en SLP-varianten worden geleverd, terwijl voor de SHP-variant voor 22nm zou worden gekozen.

Moderatie-faq Wijzig weergave

Reacties (41)

Dat hangt er helemaal vanaf wat je precies doet... Het probleem is dat deze cores heel weinig verbruiken, en simpel zijn opgebouwd (RISC). Als jouw applicatie heel erg goed parallelliseerbaar is, zou je best eens voordeel kunnen halen uit 100 ARM-cores in je server. Echter is dat ongeveer net zo moeilijk als 100 honden tegelijk uitlaten, je job-coordinatie moet heel goed zijn, wil je maximale performance krijgen. Desnogwelteplus, er wordt/werd van meerdere kanten aan zo'n idee gewerkt (Larrabee, GPGPU, etc), dus wellicht is het zo gek nog niet ;)

Voor low-power servers die vooral veel uit hun neus staan te eten, maar toch wakker moeten zijn als er iets gebeurt (webservers) is het ideaal. Wie weet komt er nog eens een Windowns /algemene Linux voor ARM...
Euhm ...

Meer dan honderd cores in een server is al redelijk ingeburgerd en Linux voor ARM is er al heel lang.

Update:

Ik had met 100+ cores eigenlijk clusters in gedachten. Dan heb je het inderdaad niet over honderd cores op een single board laat staan op een single die. Overigens hebben de enterprise klasse power7 machines van IBM maximaal 256 cores in een enkele machine. Dan moet je inderdaad niet kijken op een paar centen ;)

Multithreading is eerder een OS aangelegenheid dan processor. Het OS beslist immers welke thread aandacht verdient. Linux is multithreaded en dus draaien programma's op Linux op ARM ook multithreaded.

[Reactie gewijzigd door _Danny_ op 4 september 2010 23:32]

100 cores? Over welke servers heb jij het dan? Ik ken vooral quad- en hexacores, keer 2 tot 8 sockets, levert mij maximaal zo'n 48 cores op. Dat kost je dan een lieve cent, maar 100 cores? Da's meer voor blades en aanverwante rekenservers (en niet erg gewoon in MKB)
ARM voor linux, ok, Linux draait technisch op alles, maar kun je ook Apache of database-programmas multithreaded draaien op je ARM? Ik ben het nog nooit tegengekomen, maar ik ben dan ook niet 100% thuis in die wereld.
Er zijn diverse besturingssystemen voor de ARM-processor. Denk aan NetBSD/arm32, maar ook diverse complete Linux-distributies.

Voor deze distributies zijn ook tig serverapplicaties beschikbaar, die gewoon werken - dank zij het open source karakter van GNU/Linux en de toepassingen (zoals Apache, MySQL en dergelijke). Alleen als de software closed source is en de leverancier niet mee wil werken krijg je een probleem.

Win32 (NT-kernel) software zul je dan ook niet snel (of misschien wel nooit) zien op een ARM-processor...
Zelf compileren wil je als bedrijf zijnde niet, omdat je dan ook verantwoordelijk bent voor de bugs die daaruit komen. Dus veiliger (als in, de verantwoordelijkheid voor bugs ligt bij de makers) om voorgecompileerde tools te installeren. Is nog sneller ook, want compileren kan wel even duren.
Hangt eraf, zelf compileren biedt juist de unieke mogelijkheid om de boel te optimaliseren voor een bepaalde taak. Natuurlijk moet men niet -O3 o.i.d. gebruiken bij GCC, maar dat spreekt allemaal voor zich.

Compileren kan gedistribueerd, dus dat dit lang duurt is een non-issue. Het valt of staat gewoon bij capabel personeel dat met een compiler overweg kan en weet waar men mee bezig is.

Bij veel bedrijven is dat er niet, maar ik weet dat men o.a. bij Hyves haar eigen software compileert, en Facebook wil mogelijk (deels) overstappen op ARM. Dat zijn toch niet de minsten in IT-land.
Win32 (NT-kernel) software zul je dan ook niet snel (of misschien wel nooit) zien op een ARM-processor...
De API van Windows CE (de ARM versie van Windows) lijkt heel veel op die van Win32, dus software is vrij eenvoudig geport (en zeker als het .NET-based is). De situatie is bij MS eigenlijk niets anders dan bij Android/Linux of OS X/iOS.

[Reactie gewijzigd door Dreamvoid op 3 september 2010 19:25]

Kijk voor de gein maar een hier .
Er zijn gewoon volledige distributie's die voor arm zijn gecompileerd.
Dus inclusief een wagon lading aan software.
Da's meer voor blades en aanverwante rekenservers
Alleen blades zijn losse servertjes, en vormen meestal een cluster. 8 blades met ieder 8 cores maakt dus geen 64-core bak.

Maar er zijn wel servers die 16 sockets hebben. Hele dure servers zijn dat. Met speciale dochterborden voor sets van bijv 4 cpu's. Dus, stop daar octocores in en je komt aan de mythische "meer dan 100 cores".

Nuttig? Ik denk het niet. Duur? Behoorlijk.
Dit jaar nog 28nm chips in massaproductie? Net iets te laat voor AMD's HD6000 GPU's, ben ik bang. Maar ik hoop dat het nog lukt!
Daarom is die 6000-generatie er ook :P ATi had gehoopt ergens dit jaar over te kunnen op TSMCs 32nm of 28nm proces, maar 32nm is een ruim jaar geleden geschrapt ten faveure van 28 nm, en dat loopt ook nog niet bepaald lekker. Optimistische schattingen zeggen dat dat in 2011 ergens komt. Pessimisten geloven dat ook, maar nemen aan dat men dan nog een jaartje bezig is de yields op acceptabel niveau te krijgen :P
Ooit was er Northern Islands, de 28nm generatie, maar nu krijgen we eerst Southern Islands, zeg maar een opgelapte Evergreen, met al wat nieuwe onderdeeltjes van Northern, maar nog steeds op 40 nanometertjes... Het grote feest begint ergens eind volgend jaar, als de boel goed draait.
Het was inderdaad al bekend dat de HD6000 niet DE nieuwe architectuur van AMD zou zijn, maar ivm hun onvrede over de yields bij TSMC en de stap naar Global Foundries bleef bij mij toch de hoop bestaan dat de HD6000's direct bij de lancering op 28nm konden worden gebakken. De voordelen daarvan hoef ik natuurlijk niet op te sommen ;)
Ik vraag me af onder welk merk de CPU's verkocht gaan worden.

Want Global Founderies is oneerbiedig gezegd een hi tech productie schuur zoals TSMC ook is. Die producten maakt op opdracht van een andere.
Die uitdrukking is weinig oneerbiedigs. TSMC en Global Foundries zijn op hun beurt weer deels afhankelijk van bedrijven zoals ASML die de lithographiemachines weer maken. TSMC en Global Foundries passen ze aan voor de eisen die hun klanten stellen en produceren hun producten. Alle fabrikanten van elektronica doen dat. HP laat hun moederborden toch ook maken door Compal en Quanta. Apple is toch ook één van de grootste afnemers van Foxconn? ARM en AMD ontwerpen maar produceren niet meer, of in elk geval steeds minder. Ok, Intel en IBM zijn goeie voorbeelden van bedrijven die hun eigen chips produceren. De reden waarom AMD hun chipproductie heeft afgestoten is omdat deze hun te diep de schulden in hielp. Laat het produceren dan liever over aan een bedrijven die zich daar in specialiseren en de financiële risico's van slechte yields op zijn minst delen met de ontwerpers van de chips.
Nu nog een geheugencontroller die 4 GB adres bereik heeft, geintegreerde SATA en Gigabit poorten en een hardware bouwer die er een klein (bijv. mini-ITX) plankje omheen ontwerpt. Prachtspul voor super low-power servers!
Ik denk dat de perf/watt lager ligt dan bij normale x86 low power cpu's. (met hetzelfde procedee)

[Reactie gewijzigd door johnkessels87 op 3 september 2010 14:33]

Volgens deze link ligt de performance per wat bij een Cortex-A9 een stuk hoger.
The new designs, available in two variants optimized for low power consumption or high performance, are intended for use by companies building their own chips. ARM claims that the new processors, which can run at up to 2GHz, are up to eight times more efficient than Intel's low-power chips in terms of performance per watt, with the high-performance part running at five times the throughput of Intel's Atom chip for similar power levels.
Bedenk wel dat ze het een beetje misleidende vergelijking is: in dat grafiekje vergelijkt die site 'm met de alweer ruim 2 jaar oude '1st gen' Atom N270, Intel heeft ook niet stil gezeten in de tussentijd en is alweer 2 generaties Atoms verder.
perf / cycle is bij Atom juist het belabberdste van allemaal; ARM doet het daar veel beter.

Bij ongeveer dezelfde prestaties was een Cortex A8 3 tot 4x zo zuinig als een Atom N450, waarbij opgemerkt dient te worden dat de software nog niet was geoptimaliseerd voor stroomverbruik bij de ARM.

Enige uitzondering was floating point, daarin was Cortex A8 belabberd, maar ARM belooft dat dit met A9 gefixt is.

Dus voor de klanten die niet van Windows afhankelijk zijn en die om stroomverbruik geven, heeft Intel er een flinke concurrent bij!
Uh, als je die tabel leest zie je dat integer performance/cycle voor de N280 juist bijna exact gelijk is aan de Cortex A9!
Anand rapporteert een veel kleiner verschil in verbruik tussen in elk geval Atom en Cortex A8, en klok-voor-klok idd betere integer performance (vorige-generatie Atom op 1.6 GHz 2-3x sneller dan de Apple A4/Cortex A8 op 1 GHz). FPU performance is traditioneel belabberd bij ARMs, maar dat is weer niet heel relevant in het lagere segment, en altijd op te lossen met extra DSP chips, zoals de meeste smartphones dan ook hebben. Maar op het moment zit er echt niet zo'n groot gat tussen de beide architecturen als de marketing van beide kampen wil doen geloven.

Tis ook lastig vergelijken aangezien er nog weinig benches van de Moorestown Atoms gepubliceerd zijn, we kunnen tot nog toe alleen af met Intel's spec sheet. Benches tegenover oudere 1st gen Atoms N2xx zijn er zat, maar die zitten in een ander segment (netbooks ipv smartphones/tablets).

[Reactie gewijzigd door Dreamvoid op 3 september 2010 21:10]

En waarom denk je dat? De ARM architectuur staat bekend om zijn enorm lage stroomverbruik vandaar dat het ook zo veel in mobiele apparaten wordt gebruikt.
ARM-processoren staan idd bekend om het lage stroomverbruik, maar dat komt niet door ARM zelf - dat is gewoon een instructieset, dat zegt niets over verbruik van de achterliggende chips, wat vrijwel volledig wordt bepaald door het aantal transistors (en het procede natuurlijk). ARMs zijn zuiniger doordat de huidige (trage) ARM processoren simpelweg minder transistors hebben dan de huidige (snellere) x86. Performance-per-watt is niet veel anders bij ARM vs x86. Zie bv ook deze vergelijking tussen een dual-Cortex A9 en een (snellere) Atom-Z, van de oude pre-Moorestown generatie nog.

Het leuke van de strijd in 'low-end' mobile/telefoon/tablet/netbook cpu's is niet zozeer dat het ARM vs x86 is (je instructieset maakt uiteindelijk echt zoveel niet uit, dat heeft de x86 vs RISC strijd in de 90s uitgewezen - Intel maakte van de Pentium Pro intern gewoon een RISC processor met naar buiten toe een x86 instructieset), maar dat het een Intel versus "de rest van de chipsindustrie" strijd is - eindelijk krijgt Intel echt zware concurrentie. Behalve het relatief kleine AMD zit er niemand meer in x86, maar in het ARM-segment zitten alle zwaargewichten nog wel: Samsung, TI, Renesas, Marvell, nVidia, Apple, Broadcom, etc.

[Reactie gewijzigd door Dreamvoid op 3 september 2010 20:23]

Als Intel al moeite heeft om het energieverbruik van de x86 in de perken te houden, zouden ze dan ook een hogere performance/watt gaan halen? Ik dacht het niet.

De reden dat ARM-processors zo populair zijn, dan heeft te maken met het lage energieverbruik en toch mooie prestaties en dus juist een betere performance/watt-ratio dan de x86-serie haalt - zelfs met de vele R&D-dollars van Intel is het nog niet gelukt om dit om te draaien.
Er komt een 40bits bus aan. Als ik het goed begrijp is dat genoeg voor een terabyte geheugen.
Prachtspul voor super low-power servers!
Dat bestaat al: een NAS ;)
Hoewel de performanceverbeteringen zeker positief zijn, ben ik, als ik eerlijk ben, blijer met de reductie in energieverbruik (en daaruit voortvloeiende langere stand-bytijd) dan met de performanceverbeteringen. Als ik kijk naar de performance van bijvoorbeeld mijn Desire op FroYo kan ik zeggen dat we apparaten die een langere batterijduur hebben harder willen/nodig hebben dan apparaten die beter presteren dan de huidige generatie smartphones/tablets.

@kiddie: hoewel je zeker een goed punt maakt, betekent dat niet dat energiezuinigheid daar niet belangrijk is: naast financiële overwegingen is energiezuinigheid een hele belangrijke factor in de servermarkt. Lagere energiekosten is een dubbele win: je betaalt minder aan stroom voor de servers maar ook minder aan energiekosten voor koeling. Gekoppeld aan een aantrekkelijke prijs zou dit zomaar eens een extreem sterk alternatief kunnen worden voor Intel's aanbod.

[Reactie gewijzigd door Jeanpaul145 op 4 september 2010 17:54]

Inderdaad zelfs mijn htc legend ben ik dik tevreden over. Ik zou liever een variant zien die extreem zuinig is en dan zelfde prestaties kan blijven leveren dan een dualcore,quadcore weet ik het wat. Helaas lijken telefoon fabrikanten met uitzondering van apple verstrikt in een Ghz wedstrijd. termen als SUPERSNEL en 1GHZ worden rijkelijk rond gestrooid. Aan de batterij duur wordt mijn[s]s inziens te weinig aandacht besteed ook al is dit voor bijna alle consumenten een zeer belangrijk punt, hiervoor hoef je alleen maar naar de 100en topics over batterij gerelateerde vragen van smartphones te kijken.
Zelfs die 1GHz is pure overkill. Mensen kopen een knetterdure smartphone die 10000x zo snel is als een oude PC, en wat doen ze erop? Facebook en Twitter :?
En spelletjes spelen, browsen met 5 verschillende tabs, mail checken, pdf bijlages openen, muziekje luisteren, uitzendinggemist kijken... En het liefst nog drie dingen tegelijk. Helemaal niks mis met een snelle smartphone hoor. En dan heb ik het nu over de dingen die de doorsnee consument er mee doet...
Ja 3 dingen tegelijk.... Daar is je scherm nooit groot genoeg voor :P
Dus terwijl jij uitzending gemist zit te kijken blairt er een of andere muziekant doorheen.

Ontopic:
Altijd mooi nog zuinigere componenten in je telefoon te hebben. En ja een 2GHz snelle telefoon is nooit mis toch. :)
Al kun je het tegenwoordig geen telefoon meer noemen met alles wat je er op kunt doen. Ze kunnen het beter een Micro PC noemen ofzo. 8)7
Allemaal dingen die op 200MHz prima kunnen.
Apple heeft ook een 1Ghz processor hoor.
Dat is nou eenmaal wat mensen aan trekt. Het zelfde geld voor een "2gb videokaart" maakt niet uit hoe snel die is, als er maar veel geheugen op zit zal het wel goed zijn
Ik hoop ook dat er een onderklok functie makkelijk beschikbaar komt, dan kun je zelf de prestatie/accuduur verhouding bepalen, met bijbehorende optimalisaties voor de klokfrequencies of course.
Performance is denk ik belangrijk voor servers (o.a. Facebook wil A9's gaan inzetten). Daar zit een 'stroomdraad' in en ze moeten liefst op vol vermogen draaien, dus moet niet zo'n probleem zijn.

Vanuit de servermarkt die gebruik wil gaan maken van physicalization, levert het opschalen naar 2,5gHz mogelijk een energievriendelijker en goedkoper alternatief voor Intel-processoren. Tot de forse prijzverlaging van die Intel-server processoren, die bijna zeker zal komen.

[Reactie gewijzigd door kidde op 3 september 2010 19:03]

Kan iemand mij vertellen waarom ze er voor de volgende voor kiezen om op 20 EN 22 nm te produceren? Is het niet gewoon makkelijker/goedkoper al je energie te steken in één van de twee in plaats van allebei de maten?
Het zou kunnen dat de 22nm versie op een hogere kloksnelheid te krijgen is?
yeilds zullen eerder op nivo zijn op 22nm, maar 20nm zal later betere en goedkopere resultaten geven voor de meeste (maar niet alle) soorten chips.
Global Foundries ex AMD produceerd dus nu op 28nm waarom geen amd chips op 28 nm ?
Tis makkelijker om simpele ARM cores met 25 miljoen transistors op 22 nm te bakken dan bv een Phenom met zijn 500M transistors.
high-end CPU's(dat zijn alle CPU's van AMD en intel, op de atom na) gebruiken vaak net een ander productie proces als dit soort veel simpelere chips(die gemaakt worden met een zogeheten bulk proces).
daarbij is 28nm een half-node. AMD's volgende CPU is al lang geleden ontworpen voor 32nm(een full node). de kosten en tijd voor het her-ontwerpen naar een half-node toe zijn veel te groot om het dat waard te zijn(bij ingewikkelde ontwerpen als een CPU). daarom zal je nooit CPU's op een halfnode zien.

[Reactie gewijzigd door Countess op 5 september 2010 04:06]

20 nm .... ben benieuwd wat het limiet is dat betrouwbaar geproduceerd kan worden
en als dat limiet er is, dan een nieuwe technologie bedenken ?
ik bedoel.... kleiner maken is nog steeds dezelfde techniek qua uiteindelijke werking, 't blijven uiteindelijk transistor achtige dingen die enen en nullen schakelen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True