Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 26, views: 8.839 •

ARM en IBM gaan samenwerken om ARM-processorontwerpen geschikt te maken voor IBM's volgende productienode op 20 en 14 nanometer. De overeenkomst is een uitbreiding van een eerdere onderzoekssamenwerking uit 2008.

ARM LogoMet de nieuwe overeenkomst kan ARM doorgaan met de systematische ontwikkeling van testchips voor de kleinere nodes. Het bedrijf kan nu snel komen met processorontwerpen op basis van de 20nm- en 14nm-productienodes of bestaande ontwerpen aanpassen. Door in een vroeg stadium de ontwerpteams voor de productienodes, microprocessors en chipontwerpen met elkaar te laten samenwerken, moet het risico om op kleinere procedés over te stappen worden verminderd.

Chipfabrikanten als Samsung, Texas Instruments en Freescale, die onder meer soc's op basis van ARM-cores in hun portfolio hebben, kunnen daardoor ook vroegtijdig nieuwe processors met de kleinere spoorbreedtes uitbrengen.

ARM heeft gedurende de vorige samenwerking, in 32nm- en 28nm-procestechnologie, elf testchips afgeleverd. Ook heeft het bedrijf onder meer zijn Cortex-A9-processorkern geïmplementeerd op een high-k metal gate-procedé van 32nm en heeft het andere optimalisaties aan zijn chipontwerpen doorgevoerd.

Vorige week sloten IBM en Samsung al een samenwerkingsovereenkomst af voor de ontwikkeling van nieuwe materialen, transistorstructuren, interconnects en chippackages voor toekomstige productieprocedés.

Reacties (26)

20 en 14nm, dat is echt niet te filmen.

Ik meende ooit in een documentaire gezien te hebben dat er een grens zit aan die verkleining; er is een minimum aan nanometers nodig om betrouwbare metingen uit te kunnen voeren (om te bepalen of er een 0 of een 1 doorheen komt). Waar lag die grens ook alweer?
Dat artikel is bullshit, sorry. Moore's Law zegt helemaal niets over rekenkracht, hoeveelheid kernen, software of wat dan ook. Het enige dat Moore's Law zegt is dat de hoeveelheid transistoren op een chip elke 2 jaar verdubbelt. Dat klopte in het verleden, het klopt in de nabije toekomst, en hoewel er idd een grens is aan wat mogelijk is met huidige CMOS technologie is er genoeg reden om aan te nemen dat er met andere materialen of andere technieken een hele tijd "doorgeschaald" kan worden.
Die wet is gewoon onzin, je kan ook naar de ontwikkeling van hdd's kijken daar zien je ook een verdubbeling van de capaciteit iedere x maanden. Iedem met geheugenchips of ssd schijven daar zie je ook verdubbelingen.

Je kan ook kijken naar vebruik van auto's dat loopt niet zo snel maar ook daar zie je dat auto's steeds zuiniger worden.

Het enige wat moore beschrijft is de technologische vooruitgang en die is er op veel gebieden. Die hele wet van moore is niets minder dan de technologische vooruitgang op 1 specifiek gebied en een wet kun je dat niet echt noemen, het is misschien een voorspelling geweest dan lang heeft weten stand te houden.
Iedem met geheugenchips of ssd schijven daar zie je ook verdubbelingen.
Ja, nogal wiedes, die zijn namelijk gebaseerd op chips en de capaciteit van een geheugenchip is nagenoeg rechtevenredig met het aantal transistoren.
Het enige wat moore beschrijft is de technologische vooruitgang en die is er op veel gebieden.
Hij beschrijft niet alleen dat er een ontwikkeling is, hij beschrijft ook hoe groot die is.
een wet kun je dat niet echt noemen, het is misschien een voorspelling geweest
Oorspronkelijk begon het ook niet als Moore's Law, maar als "Moore's Historical Observation" (aanvankelijk keek ie alleen maar terug). Het is langzaam uitgegroeid tot Moore's Law. Misschien kun je trouwens beter zeggen "Moore's Self-fulfilling Prophecy"; iedereen gelooft er zo sterk in dat productieprocessen, processorontwerpen en machines allemaal ontwikkeld worden nog voordat ze daadwerkelijk technisch haalbaar zijn. Als je pas begint met ontwikkelen als de nieuwe node bestaat dan ben je te laat.
Kijk bijvoorbeeld naar Intel vs. AMD (of NVidia vs. AMD), als AMD een chip ontwerpt (of dat nou een CPU, GPU of APU is), dan rekenen ze gewoon simpelweg "dan en dan moet ie op de markt komen, dus (volgens Moore's Law) hebben we ongeveer x transistoren tot onze beschikking". Van de ene kant is dat een ontzettend lompe gok (40 nm...), van de andere kant hebben ze geen keuze; Intel en NVidia die doen dat namelijk ook, dus als je niet achterop wilt raken dan moet je die sprong in het diepe wel maken.
Gelukkig weten de fabrikanten van het productieprocedé dit ook, dus die stellen alles in het werk om Moore's Law ook bij te houden (ook in hun geval: als jij het niet op tijd kunt, dan gaat iedereen gewoon naar je concurrent). Bovendien garandeert Moore's Law (in combinatie met het bijna heilige geloof dat iedereen erin heeft) dat jouw nieuwe procedé klanten gaat hebben (je concurrent bijhouden als je vervolgens allebei geen klanten hebt is behoorlijk zinloos).
Klopt, Moore's law is veel te vaak gebruikt en heeft weinig nut, maar dat is ook iets dat zoals robvanwijk zegt ook door Moore zelf erkent wordt. Sterker nog, Wikpedia schrijft het volgende
Moore himself, who never intended his eponymous law to be interpreted so broadly, has quipped:
"Moore's law has been the name given to everything that changes exponentially. I say, if Gore invented the Internet, I invented the exponential."
Vriendelijk bedankt. Volgens het eerste artikel bottleneckt de I/O op dit moment. Ik quote Martin Curley met een mooi stukje wijsheid:

Bovendien heeft het volgens de Europese directeur weinig zin om snellere processoren te bouwen zolang andere computeronderdelen en de verbindingen daarmee, roet in het eten gooien: 'Je kunt wel supersnelle microprocessoren hebben, maar als je in- en output beperkt is, ben je nog nergens.'

Dat klinkt als een uitdaging voor moederbord-fabrikanten. Misschien wordt het binnenkort handig om doorvoersnelheden bij moederbordspecificaties te gaan vermelden?
Die zijn toch volop vermeld? Daar zijn gewoon standaarden voor.
DDR3-1333, SATA-300, enz, dergelijke speficitaties staan allemaal voor de snelheid waarop deze componenten werken.
Ik ben al een tijdje uit de hardware-game, en inderdaad worden er met die specificaties volop gesmeten, maar is het al standaard om FSB-snelheid te vermelden?
Als je je bandbreedte wilt opschalen zijn er mogelijkheden zoals oa. het verbreden van de bus, hogere klokfrequenties, en intelligentie toevoegen zodat de bus efficienter gebruikt wordt. Over de jaren zijn daar net zulke grote winsten geboekt als op lithografiegebied zelf.
Daarnaast is de grootste bottleneck van de laatste 20 jaar, de harde schijf, tegenwoordig ook al flink onder handen genomen. SSD's nemen dat over, en waar de benodigde capaciteit het inzetten van alleen SSD's alleen niet toelaat zijn ze prima als caching device te gebruiken.

Maak je niet druk, we zijn nog steeds goed onderweg :)
Dat cpu's aan data starvation leiden is niet nieuw.. Dat is al sinds de jaren 50. RAM is feitelijk ook een cache laag over de tape heen.

Zolang er data uit langzaam geheugen gehaald moet worden, zal dat ook zo blijven. Dus reden om te investeren in snelle randapperatuur, niet in een snelle CPU.
het artikel gaat enkel over silicium gebaseerde transistoren ... kijk bv naar grafeen, met transistoren van tot zo klein als 5 nm (transistoren bestaande uit 10 atomen). Maar de grote kracht van grafeen zit in het feit dat men er tot 20 keer hogere kloksnelheden kan uitknijpen bij kamer temperatuur.
http://en.wikipedia.org/wiki/Graphene#Graphene_transistors
Ik dacht ooit te hebben gehoord dat de grens werd bereikt door atoomgrootte ofzo.
Ook daar lag de grens bij 10 nm dacht ik.
Maar dat herinner ik me slechts vaag, dus het zo ook complete onzin kunnen zijn :P
Lijkt me dat je chips niet kleiner kan krijgen dan ongeveer 1 of misschien 0,5 nm omdat de grootte van een atoom ergens tussen de 0,025 en de 0,3 nm ligt en er nog steeds een mogelijkheid moet bestaan om electronen te geleiden. Weet niet of er andere fysieke grenzen zijn maar voorlopig ligt dat nog meer aan het lithografische proces dan aan andere zaken.
Wel heb ik ooit gelezen dat onder de 10 nm niet meer van een xx nm procédé kan worden gesproken omdat de grootte van een atoom dan een significante waarde heeft. Boven de 10 nm is dit <1%
Als je het over grootte van een atoom hebt moet je naar de diameter kijken en niet naar de straal. De diameter van atomen ligt tussen de 0,06 en 0,6 nm, en als je H en He niet meeneemt zijn de kleinste atomen 0,15 nm in diameter.

Maar veel belangrijker is dat bij structuren van enkele atomen dik sommige eigenschappen enorm veranderen en geleiding is daar één van.

[Reactie gewijzigd door Rrob op 19 januari 2011 15:06]

Ik dacht ooit te hebben gehoord dat de grens werd bereikt door atoomgrootte ofzo.
Daar ligt (met de huidige kennis van natuurkunde :p ) inderdaad een grens. Maar het is goed mogelijk dat er ook andere (eerdere) grenzen zijn. Bijvoorbeeld, een auto kan niet sneller dan de lichtsnelheid rijden, dat is een grens. Dat betekent niet dat je er vlak in de buurt kunt komen; er zijn andere grenzen die al (veel) eerder roet in het eten gooien.
zat het toevallig net rgens anders te lezen maar daar wordt de naam ARM niet in genoemd?
IBM wil zijn 14-nanometerchips produceren met 193-nanometerimmersielithografie. Het bedrijf heeft daartoe zijn ontwikkelingsovereenkomst met de Japanse maskermaker Toppan Printing verlengd. De twee partners begonnen hun samenwerking op het 45-nanometerknooppunt. EUV komt voor IBM pas daarna in beeld. Toppan ondersteunt Big Blue ook bij deze technologie. Het is overigens niet helemaal duidelijk wat IBM met 14-nanometerchips bedoelt: knooppuntaanduidingen voor logic-chips zijn in de regel marketingaanduidingen die niet zijn de traceren op fysieke dimensies van chipstructuren.
Ander nieuwsbericht?
Kun je de link geven?

Toch niet een van deze:
http://www.mechatronicama...immersie-tot-14-nm-1.html
http://www.bits-chips.nl/...t-immersie-tot-14-nm.html

Dit zijn erg summiere artikels.

Want deze link (die bij de Tweakers post zit) staat vol ARM.

Tittel:
IBM and ARM to Collaborate on Advanced Semiconductor Technology for Mobile Electronics

[Reactie gewijzigd door worldcitizen op 19 januari 2011 12:18]

[bullshitmode]
Door in een vroeg stadium de ontwerpteams voor de productienodes, microprocessors en chipontwerpen met elkaar te laten samenwerken, moet het risico om op kleinere procedés over te stappen worden verminderd.
Het lijkt nu net alsof de schrijver vindt dat het overstappen op een kleiner procedé an sich een risico is. Met andere woorden pas op hoor, want voor je het weet val je in de valkuil dat je alles op een kleiner procedé wilt uitvoeren. Sinds wanneer is het een risico om op kleinere procedés over te stappen. Dat is toch juist een kans? Ik neem toch aan dat ze de risico's willen verkleinen die ontstaan doordat de ontwerpteams voor de productienodes, microprocessors en chipontwerpen niet goed samenwerken bij het overstappen naar een kleiner procedé.

[/bullshitmode]

On topic: Geweldig, 20 en 14 nm!!! Als Windows straks ook geschikt is voor ARM processors dan hebben we binnenkort hele mooie netbooks! Ik zie ARM nog niet meespelen in de high end markt, maar ze zullen zeker een niche ala Atom kunnen bedienen.
Het is een risico op kleinere processen over te stappen omdat daar een gigantische investering tegenover staat. Je hebt een complete nieuwe lijn nodig, en als dat ding er staat wil je meteen gaan produceren. Als je er dan achterkomt dat bijvoorbeeld je libraries voor het nieuwe proces niet op orde zijn ga je nat.
Even over dat bullshit stukje, vraag NVidia maar hoe hen de overstap naar 40nm bevallen is. Het overstappen naar een kleiner proces vergt veel meer dan alleen het kleiner maken van het geheel!
OK jullie snappen mijn punt niet. Natuurlijk zijn er risico's verbonden aan het overstappen op kleinere procedes. Het gaat om de formulering de tekst. Je kan het ook anders lezen namelijk. Wanneer je dat doet (dat anders lezen) dan is het net alsof men koste wat het kost wil voorkomen dat er op kleinere procedes wordt overgestapt. En dat het risico er in zit dat bepaalde onderzoekers toch op het idee komen om op kleinere procedes over te stappen. Maar dat is natuurlijk niet wat er bedoeld wordt in dit stuk. Bedoeld wordt namelijk dat men de risico's die er natuurlijk zijn, goed wil managen.
Bij de huidige silicon cpu's moet het technisch gezien rond de 16 nm (waarbij de transistor gate rond de 5 nm is) of een generatie later (11 nm) liggen.
Als het goed is zal dat zo rond 2018-2020 bereikt worden.

Oeps, dit was een reactie op canterwoodcore

[Reactie gewijzigd door sewer op 19 januari 2011 11:48]

Mooie ontwikkeling! Het gaat wel erg hard met de verkleiningen! Kleiner = goedkoper en zuiniger! Ik zie een nieuwe serie processoren komen wat ik erg toejuich.
In feite zijn er in desktop en notebook-land alleen maar AMD en Intel. Het zou geweldig zijn als daar wat meer concurrentie kwam in de vorm van ARM chips.
Met arm chips als de nVidia soc Tegra kun je behoorlijk uit te voeten als ze deze naast de Intel Atom legt en de aankomende AMD Brazos apu's legt.
De huidige en toekomstige ARM chips kunnen voor low- en mid- end computing prima in dekstops en laptops fungeren. Lijkt mij, en dan zeker ook in tablets.
tuurlijk is er een minimum aan verbonden hangt hnatuurlijk ook af van de geleiding van de halfgeleider stof. ;)
Waarom voor elk procedé een andere fabrikant?

Globalfoundries voor 28nm
TSMC voor 20nm
En nu IBM voor 14nm

Lijkt me totaal niet handig dus het zal wel om economische redenen zijn.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013