Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Submitter: LongBowNL

GlobalFoundries en AMD hebben de eerste sample van een AMD-chip met finfets op een 14nm-proced ontwikkeld. De testchip is op de tweede generatie van het 14nm-proces geproduceerd, maar details ontbreken nog.

GlobalFoundries en AMD spreken over silicon success bij een demonstratie van een AMD 14nm-finfet-chip, waarmee waarschijnlijk op een werkende sample gedoeld wordt. De testchip is in GlobalFoundries Fab 8 in New York van de band gerold. Het gaat om het 14lpp-procedé, de tweede generatie van de techniek. Momenteel produceert GlobalFoundries al op basis van 14lpe-ontwerpen, maar de lpp zou volgens AnandTech voor grofweg 10 procent betere prestaties moeten zorgen.

Onduidelijk is of het om een gpu, cpu of apu gaat. In het vierde kwartaal moet de 14lpp-productie van start gaan, waarna productie op grote schaal in 2016 moet plaatsvinden. GlobalFoundries werkt samen met Samsung aan de ontwikkeling van het 14nm-procedé. Onder andere de komende Zen-chips gaan op 14nm gebakken worden. AMD heeft hoge verwachtingen van deze processors.

Samsung GlobalFoundries 14nmAfbeelding afkomstig van Pc.watch.impress

Moderatie-faq Wijzig weergave

Reacties (43)

Wat is eigenlijk de theoretische grens aan dit verkleinen?
Een echte grens bestaat niet. Er is wel een punt waarop de statistische foutmarge te groot wordt om te kunnen gebruiken in een microchip.

Het gebruik van een processor berust volledig op het wel of niet doorgeven van elektronen door een transistor. Een transistor is te vergelijken met een deurbel, maar dan niet een vinger en een knop, maar een elektrische stroom die het 'aan' signaal genereert. Op het moment dat er een stroom komt te staan op de 'base' (de knop) van de transistor, kan er een stroom gaan lopen van de 'collector' (de 'plus') naar de 'emitter' (de 'min'). Door gebruik van zulke transistoren kun je logische poorten maken. Een processor gebruikt een hele hoop van deze transistoren om allerlei logische poorten te maken. Natuurlijk is een processor een stuk complexer dan een hele hoop AND-poorten aan elkaar geschakeld, maar de essentie is wel degelijk hetzelfde.

Op de schaal van vandaag komen we fenomenen tegen die we soms nog niet geheel kunnen verklaren, namelijk quantum-fenomenen. Quantummechanica is een vreemde vorm van natuurkunde, want dingen die op grote schaal onmogelijk lijken, kunnen opeens wel voorkomen. Het probleem wat je in processoren tegenkomt heet 'quantum tunneling'.

Laten we een transistor zien als een deur. Een deur is over het algemeen dicht, maar op het moment dat je op een knop drukt, opent deze deur automatisch (zoals een deur in het ziekenhuis). Zo lang als jij die knop ingedrukt houd, kunnen er mensen door de deur lopen.

Op de schaal van rond 2000 (0,13m proceds) waren fenomenen als quantum tunneling totaal niet relevant. op deze schaal komt zoiets zo weinig voor, dat het zinloos is om er rekening mee te houden. Echter, de transistoren zijn steeds kleiner geworden, waardoor quantum tunneling roet in het eten is gaan gooien.

Wat doet quantum tunneling namelijk? Quantum tunneling is een fenomeen wat ervoor kan zorgen dat iemand 'door de deur heen' kan lopen. De schakelaar is niet ingedrukt, de deur is dicht, maar toch loopt er iemand (misschien wel meer dan n persoon!) door de deur. Dit is op de schaal van hoe wij de wereld observeren onbegrijpelijk.

Het is dit effect wat problemen veroorzaakt naar het omlaag schalen van de transistorgrootte op de processoren. Een processor is een grote rekenmachine, en je wilt dat een rekenmachine exact en juist is in zijn antwoorden. Je hebt niks aan een rekenmachine die in 20% van de gevallen een verkeerd antwoord geeft bijvoorbeeld!

Wat is dan de grens? Moeilijk te zeggen! Het silicium-atoom wat wordt gebruikt heeft eenvan der Waals-radiaal van 210pm (0,21 nm). Dat wil zeggen dat op een 14nm proced het aantal atomen dat overbrugt moet worden om van de collector naar de emitter te komen, ongeveer 65 is. Als we een manier kunnen vinden om quantum tunneling te stoppen en een enkel silicium-atoom kunnen gebruiken als transistor, zou de grens 210pm zijn. Dit lijkt echter op dit moment nog zeer onwaarschijnlijk, aangezien we op de huidige schaal al regelmatig problemen tegenkomen met quantum tunneling. De persoon om met een oplossing voor quantum tunneling te komen is de sleutel naar het natuurkundig limiet, en kan zichzelf bijna verzekeren van een Nobel-prijs.

[Reactie gewijzigd door naarden 4ever op 6 november 2015 16:28]

Mooie uitleg, maar er zitten geen bi-polaire transistoren in processoren, maar fets.
Dus geen basis, collector en emitter maar gate, source en drain.
En gaat het bij de aansturing dan ook om spanning, niet stroom.
Een FET lijkt op spanning te sturen, alleen is de gate een hele kleine condensator die opgeladen moet zodat het source drain kanaal opengaat. Hoe sneller je wil schakelen hoe meer stroom je nodig hebt om die gates (condensatoren) snel te kunnen laden.
Een fet = spanning gestuurd. Ja je hebt een miniem stroompje nodig om de parasitaire capaciteit op te laden. Ja bij die aantallen fets en die frequenties is dat stroompje niet niet meer te verwaarlozen. Doet er niets aan af dat een Field Effect Transistor spanning gestuurd is.
En waar ik op reageerde, de stroom op de basis van bipolaire transistoren, is een ander sturings "mechanisme" dan de spanning op de gate van een fet.
Ik dacht altijd dat het fotolithografisch vooral een barriere is om steeds kleiner te gaan.
Zoals hier verderop genoemd, ASML kan 7nm details maken.

Maar wat hebben we eraan als dat quantum tunneling effect sowieso roet in het eten gooit?

Als ik je goed begrijp hebben we nu niet 1 maar 2 fundamentele problemen om de wet van Moore voort te kunnen zetten.
Fotolithografie is een lastig proces, en is ook zeker lastig om te blijven verkleinen. Ik heb geen grote kennis van dit proces, maar ik durf best te geloven dat er met lichtpolarisatie (alle lichtgolven 'dezelfde kant op zetten'), en golflengtes filteren een hele hoop gedaan kan worden om een lichtpunt (bijvoorbeeld die van de laser die bij lithografie wordt gebruikt) zo klein en precies mogelijk te houden. Desondanks zullen er in het lithografische proces ook vele problemen zijn waar knappe koppen hun hoofden over breken. Een van de problemen is bijvoorbeeld het feit dat een lichtdeeltje zich ook als een golf gedraagt en dus ellende met zich meebrengt als diffractie. Zie: https://en.m.wikipedia.org/wiki/Double-slit_experiment

Ten eerste wil ik even zeggen... De wet van Moore is geen echte wet. Het is een theorie die is opgesteld aan de hand van waarneming. Men verwachtte lang geleden al dat deze niet door zou zetten, maar nu hebben we ook daadwerkelijk harde data waaruit gaat blijken dat het heel lastig wordt om de huidige vooruitgang voort te zetten, omdat we nu tegen fundamentele limieten aan beginnen te lopen. En die grens nadert snel. Zoals ik in bovenstaande reactie heb geschreven, in de meest ideale wereld kunnen we een schakeling maken d.m.v. het schakelen van een enkel silicium-atoom. Dat zou de limiet op 0,2nm zetten, en dat is een fundamenteel limiet. We kunnen geen 'halve atomen' gaan gebruiken. Kortom, de theorie van Moore was geldig binnen een domein, en het einde van dat domein nadert.

De vooruitgang van deze techniek heeft last van meer dan een enkele of twee fundamentele problemen. Wat wel uniek is, is dat we tegen fundamentele limieten aan beginnen te lopen. En dat met een techniek die nog niet eens zo gek lang bestaat. Wel iets waar de mensheid als geheel best trots op mag zijn naar mijn mening. Vervelende bijwerking is echter wel dat er dus een fundamenteel limiet zit aan hoeveel rekenkracht er uit een bepaalde hoeveelheid gehaald kan worden (aantal transistoren, aantal mm2 die-grootte, etc.)

Maar elke stap vooruit is een stap richting 'atomic engineering' op consumentenschaal. :)

[Reactie gewijzigd door naarden 4ever op 9 november 2015 17:43]

Deze uitleg (op deze manier) hoor ik nu voor het eerst. Kan nu ook wel begrijpen waarom Intel en haar partners/leveranciers al veel eerder een commercieel haalbare proced toepassen.
Bij mijn weten investeert Intel veel meer in theoretische (en niet-commercile) onderzoeken en experimenten en het bovenstaande lijkt me nu net iets waarvoor je eerst jarenlang theoretisch onderzoek moet (laten) verrichten.
Als je dit 10 jaar geleden gevraagd had was het antwoord meer dan 14nm geweest.
De chipbakkers verzinnen steeds weer nieuwe trucs om nog kleiner te kunnen en er is geen 'harde' lijn te vinden waarbij het onmogelijk is.
Dat het eindig is staat vast, maar waar de grens ligt gaan we nog zien
Toch is er een fysiek limiet. Alleen weten we nog niet waar die ligt. Ooit lopen we er tegen aan.
De fysieke grens hangt af van het geleidende materiaal wat men gebruikt. Als men naar Koolstof (grafeen) kan overschakelen wordt de dikte per laag 3,35 10−10 m Voor een transistor zijn meerdere lagen nodig die gescheiden worden door een isolator het aantal lagen en de dikte van de isolator zal uiteindelijk de grens bepalen.
Het fysieke limiet met het huidige silicium gebaseerde technieken is wanneer elektronen zich niet meer gedragen zoals ze moeten. Een zo geval is het tunneleffect, hierbij schiet een elektron voordat het potentiaal is bereikt naar de volgende atoom. Wanneer je elektronen willekeurig worden, begint je datastroom natuurlijk zijn integriteit te verliezen. Ongewenst dus.

Maar dit tunneleffect kan ook worden gebruikt om transistoren te maken, met het zogenaamde grafeen-boornitride opstelling. Ik ga het je hier natuurlijk niet het helemaal uitleggen, maar Nature heeft hier een goed artikel over.
Ja en dan komen ze met een nieuwere theorie die in de praktijk word gebracht en beginnen ze aan iets heel anders.
(andere manier van bouwen van een chip , of gepaard gaat met een andere praktische oplossing van de hardware)
Volgens de wet van Moore gaan we nog wel een tijdje door ;)

https://nl.wikipedia.org/wiki/Wet_van_Moore

Maar het lijkt me stug dat dit nog voor een lange tijd door zal gaan. Alles kent zijn limitaties.
De wet van Moore zegt gewoon dat er een verdubbeling van het aantal transistoren per bepaalde tijdseenheid is.
Niets over de grootte van het productie proced.Je kan natuurlijk altijd meer transistoren blijven toevoegen, zelfs als je je productie proced niet verkleint. :>
Alleen worden die chips dan wel erg groot. :P
Dat klopt niet. De wet van Moore ziet zowel op de toename van transistoren als de halvering van kosten. Door meer materiaal te gebruiken kunnen de kosten niet worden gehalveerd.
Maar door ander matriaal te gebruiken mogelijk weer wel :)

Punt is dat het dus niet perse uit de verkleining hoeft te komen, ookal is dat wel het makkelijkst denkbare natuurlijk!
Sterker nog: het materiaal is niet de grootste kostenpost, integendeel: dat zal eerder de afschrijving van de machines zijn.
Met machines die sneller werken of goedkoper zijn kan dus ook al veel bereikt worden. Maar dan nog: de 'wet' van Moore is geen wet, mer een observatie. En een die allang niet meer geldig is.
:) Het is al best lang geleden dat er dingen wetten worden genoemd. Veiligheidshalve noemt men het tegenwoordig theorieen. Maar dat doet het in de volksmond minder goed, terwijl de meeste natuurkundigen geloven dat de wetten van Newton zijn achterhaald door de theorieen van Einstein en consorten. (PxV)=NxRxT, een mooie gaswet, alleen is hij slechts in een heel beperkt gebied geldig. Dus de "wet" van Moore?
Door het tunneleffect en de warmteproductie van multicore is de wet van Moore helaas niet meer helemaal van toepassing. Misschien gaat dat nog hersteld worden als ze chips van koolstof of andere nieuwe materialen kunnen maken.

[Reactie gewijzigd door crackletinned op 6 november 2015 15:04]

Volgens de wet van Moore gaan we nog wel een tijdje door ;)

https://nl.wikipedia.org/wiki/Wet_van_Moore

Maar het lijkt me stug dat dit nog voor een lange tijd door zal gaan. Alles kent zijn imitaties.
*limitaties :P

Of bedoel je dat er ook komieken zijn die een CPU persifleren

[Reactie gewijzigd door Cornelisjuh op 6 november 2015 14:03]

Volgens dit bericht werkt ASML aan 7nm machines, maar of dat de grens blijft..?

[Reactie gewijzigd door Contagion op 6 november 2015 14:02]

Hangt af van de kleinste bouwstenen die ze kunnen vinden voor de benodigde componenten.
https://en.wikipedia.org/wiki/5_nanometer
Er is geen harde grens te geven, maar bijvoorbeeld het tunneleffect ( https://nl.wikipedia.org/wiki/Tunneleffect ) gaat steeds meer roet in het eten gooien naarmate transistors kleiner worden en dat maakt het lastiger en lastiger om betrouwbare chips te maken.
Je zit op een gegeven moment vast aan de grootte van silicium atomen en/of quantum effecten. Iemand? https://en.wikipedia.org/wiki/5_nanometer
Beetje moster na de maatlijd. Dit filmpje geeft een mooi beeld: https://www.youtube.com/watch?v=rtI5wRyHpTg
Nu pas, hoe zit het dan met de opvolger van de fury x,nu lijkt er sterk op in mijn ogen dat de opvolger vertraging op loopt omdat ik ook nog geen eens een tape out geweest na mijn weten van de opvolger dus hoe kunnen ze dan de opvolger uit laten komen op 14nm volgen jaar?
AMD heeft al in juli aangekondigd een tape out van meerdere finfit producten te hebben gehad. dat is zeker Zen, en waarschijnlijk ook greenland (de nieuwe gpu. die door TSMC op 16nm word gemaakt en niet bij global foundries)

tapeout is overigens het moment waarop een foundry kan beginnen met productie, dan duur het nog een paar maanden voor de eerste chips van de band rollen.

[Reactie gewijzigd door Countess op 6 november 2015 15:30]

De K12 zou pas in 2017 komen, maar heeft ook al tapeout-status als je de berichtn mag geloven, op zich lijkt het me wel plausibel dat de K12 door GF met dit proces zal worden geproduceerd.
De geruchten gaan dat de GPUs op het proces van TSMC op 16 nm worden gemaakt.
Fijn om te lezen dat GloFo nog maar eens op de deur klopt. 1x nm is een worsteling gebleken voor alle foundries die niet Intel zijn, en meer availability op de contract foundry markt is positief voor werkelijk iedereen, met de mogelijke uitzondering van Intel.

Significant om wellicht te vermelden is dat het hier om een FinFET technologie gaat - althans volgens het aangehaalde Anandtech artikel. Niet dat ik denk dat een 1x nm technologie zonder FinFET echt succesvol zou kunnen zijn, maar juist daarom is het de moeite van het vermelden wel waard, zeker ook omdat ik het niet terug vind in de getoonde slide.
met de mogelijke uitzondering van Intel.
En Samsung, die liggen ook gewoon op hun schema met hun schaling!
1x nm is een worsteling gebleken voor alle foundries die niet Intel zijn
Integendeel, 14/16nm is juist de node geworden waar Samsung en TSMC eindelijk weer inlopen op Intel. Intel had hun eerste 14nm chips (Broadwell) in Januari 2015 in de schappen, Samsung had (met de Exynos 7 in de Galaxy S6) een 14nm chip in Juli 2015 bij de consumenten in handen en TSMC (Apple A9 in de iPhone 6) niet veel later. Da's een flinke inhaalslag, bij Intel's 22nm liepen ze nog twee jaar achter.

Voor Global Foundries en IBM is het wel een drama geworden inderdaad.

[Reactie gewijzigd door Dreamvoid op 6 november 2015 18:58]

Staat dan ook gewoon in het artikel.
Wat zijn nou eigenlijk finfets?

Ik hoor er de laatste tijd een hoop over maar ik heb geen idee wat het nou eigenlijk is...
Een multigate transistor.
Dus een MOSFET met meerdere gates, in dit geval een dubbele gate.
"Fin" komt van het laagje silicium wat als een wrap/fin rond het circuit heenzit. Zie het als het zeewier om je sushi roll heen.
Zeer benieuwd wat voor zuinige chips AMD in 2016 van de band laat rollen. Zal het kunnen zijn dat de consoles in 2016 een vernieuwde chip krijgen? Ik ben niet heel bekend met de roadmap (buiten Zen om) van AMD. Al zal Zen nooit op een lpp-procede geproduceerd worden.
Hopelijk nieuwe Radeon kaarten. Als dan eindelijk de markt door heeft dat je voor een DX12 game een AMD moet hebben, dan kunnen ze het nVidia weer moeilijk maken. En dat is goed voor ons allen. :)
1.8 nanometer zijn ze al mee aan het experimenteren:

Bron:

http://www.techtimes.com/...t-1-8-nanometer-chips.htm
Het is niet onbelangrijk om te noemen dat ze dit hebben kunnen doen door een intensieve samenwerking met Samsung, zoals ook te zien valt aan het logo van hun op de sheet. Sinds enige tijd werken Samsung en GF samen. Zie: http://www.samsung.com/semiconductor/insights/news/13364

[Reactie gewijzigd door ChicaneBT op 6 november 2015 14:03]

Staat dan ook gewoon in het artikel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True