Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: EE Times, submitter: bierbuik

Bernie Meyerson, de CTO (chief technology officer) van IBM, zei tijdens het International Electronics Forum in Praag dat het traditionele schalen van bestaande lithografieprocessen is spaakgelopen. Ergens tijdens de overgang van de het 130nm- naar het 90nm-proces bleek dat alleen het verkleinen van het proces niet de gewenste winst opleverde zoals dat eerder het geval was. Dit komt vooral omdat de dikte van de isolatielaag tussen de gate en het kanaal van een FET door het steeds verder verkleinen zo dun is geworden dat deze flink lekt en daarnaast een niet-lineair gedrag vertoont.

Meyerson stelt dan ook dat de huidige nummering van processen, waarbij het nummer een direct verband heeft met het kleinste detail dat er mee gemaakt kan worden, nog maar weinig waarde heeft. Tenzij er flink wat nieuwe uitvindingen worden gedaan, heeft verder verkleinen ging zin meer. Dit was al te merken met de overstap richting 90nm, wat in veel gevallen gecombineerd werd met andere technologieën als silicon on isolator en strained silicium. Het is dus erg belangrijk dat de micro-elektronica-industrie op zoek gaat naar andere manieren en materialen om transistors te maken als men in de toekomst nog kleinere chips wil maken.

Lithografie

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (28)

Mja dat we uiteindelijk tegen zo'n grens aan zouden lopen was jaren terug al voorspeld en op zich ook we logisch, je kunt niet blijven verkleinen.

Op zich zou men wel de componenten kleiner kunnen blijven maken, maar dan zouden de isolatie ruimtes tussen de materialen even groot moeten blijven. Op deze manier kun je toch kleinere chips maken(ook al zijn ze groter dan waneer je de hele core verkleint)

Misschien dat minder core spanning helpt bij de veel kleinere ruimtes tussen de banen maar dat zou dan wel betekeken dat je andere transistoren zou moeten maken. In combinatie met Haeg/dabit-achtige koelinstalaties moeten maken voor de CPU's, bij zulke belachelijk lage temperaturen geleiden de metalen veel beter en is het lekken van stroom dus minder aan de orde...

Nog een anderdetail: Ik weet niet welke type (UV-)ligt ze gebruiken maar word de golflengte op een gegeven moment ook niet te groot voor de componenten? UV begitn bij zo'n 400-300nm en loopt tot ong 1 nm, maar dan begint het al röntgen-achtige eigenschappen te krijgen: diepere penetratie ipv oppervlakte absorbsie/reflectie van licht

Dual, quad en octo core CPU's kunnen de rekenkracht van processoren nog wel enige tijd
blijven voort stuwen lijtk me... Daarna moeten we toch aan de qubits & quantumprocessoren :Y)
De golflengte maakt in principe niks uit. Elke golflengte is zo'n beetje te creëren. Het gaat erom dat de gekozen photoresist maar gevoelig is bij desbetreffende golflengte. Maar zoals bierbuik hierboven al vermeldt, de lithografie is het probleem niet.
Elke golflengte is zo'n beetje te creëren.
De kleinste golflengte die goed genoeg te creeren is, is 157 nm (een fluor-laser). Wil je nog kleiner, dan moet je met frequentie-verdubbelingstechnieken gaan werken, maar dat is weinig efficient, plus dat je bundelkwaliteit sterk achteruit gaat.
Kan iemand dit in normale-mensentaal uitleggen :?
Tja, het staat er al in letters, dus je kunt het zelf lezen :P

Om je toch maar ff te helpen: Bij de overgang van 130 naar 90 nm zijn ze tegen een aantal problemen aan gelopen. dit heeft te maken met de fysieke eigenschappen van de tot nu toe gebruikte materialen. Nu moeten er dus nieuwe technieken worden ontwikkeld om nog kleinere stucturen te kunnen maken, zodat chips nog kleiner worden gemaakt.
Naar mijn mening staat er dat ze nog wel kleiner kunnen, maar dat dit met de gebrukte technieken minder voordelen op gaat leveren dan verwacht.
Deels klopt dat ook. Echter een niet-linear gedrag duidt erop dat er een grens bereikt is, en dat kleinere structuren met de huidige technologie simpelweg niet gaan werken.
Hoe kleiner de transistor, hoe korter de geleiders zijn en hun weerstand zakt ook. Signalen lopen met een bepaalde snelheid door geleiders en als die korter zijn, dan hebben ze minder tijd nodig om van transistor A naar transistor B gaan.

Lagere weerstand betekent minder spanningsval, dus het kan ook op lagere spanningen werken en minder spanningsval betekent ook minder vermogenverlies. (denk aan 0,7V valt over een diode en vermogen gedissipeerd door de diode is 0,7V*stroom=hitte)

Kleinere transistors betekent ook meer transistors per cm², dus men kan ingewikkeldere chips maken.

Maar men vergeet een belangrijke factor, lekstromen. Hoe kleiner de transistors worden, hoe kleiner de isolatielagen. Dus er kan daar stroom lekken, die lekstromen worden te groot bij 90nm, zodat de processors warmer (zie Prescott) worden ipv koeler bij het verkleinen.
In normale mensentaal:
De structuur van een processor wordt gemaakt voor met een laserlamp op een lichtgevoelig materiaal te schijnen, in een bepaald patroon.

een simpele manier om een snellere processor te krijgen is om een dunnere laserstraal te gebruiken, om zo kleine (en koelere) transistoren te maken. hierdoor kun je er meer op 1 processor krijgen.

het probleem is, dat bij de huidige dikte van de laserstraal, de laagjes onbeschenen (dus isolerend) materiaal zo dun is geworden, dat de stroom er gewoon door heen kan. verder verkleinen van de laserstraal kan dus niet meer, en er zal naar andere oplossingen gezocht moeten worden
quote news bericht.[i]
Dit komt vooral omdat de dikte van de isolatielaag tussen de gate en het kanaal van een FET door het steeds verder verkleinen zo dun is geworden dat deze flink lekt en daarnaast een niet-lineair gedrag vertoont.[/i]


het is geen laser probleem
maar 'n materiaal eigenschap die dikte gerelateerd is. Er is dus nu een dikte grens bereikt.
Met de laser kunnen ze het zeker nog kleiner maken maar dan lekt het als een zeef

Het gaat dus om ene zeer dun type materiaal laag onderdeel van een FET

qoute newspost
[i]
Het is dus erg belangrijk dat de micro-elektronica-industrie op zoek gaat naar andere manieren om transistors te etsen als men in de toekomst nog kleinere chips wil maken.
[/i]

Tja maar hier lossen ze het lekken niet mee op, de structuur of materiaal met een betere eigenschap is nodig om dit op te lossen of de grens te verleggen.

Dus ik zou meer zeggen op zoek gaan naar andere technologien om snelle zuinige Transistoren te maken.
Of dit nu geetst of per molucuul wordt geplaatst is ene produktie detail met ook wat invloed op de zaak maar niet de hoofd oorzaak.
Rocketkoen: -1, dom, kan niet lezen en heeft er de ballen verstand van.

SG: +1, kan wel lezen maar heeft niet echt kaas gegeten van wat een laser en/of een golflengte nou precies is.

Kom op jongens! Zou moeilijk is het niet! Ze proberen kleinere dingen te maken. Maar ze zijn er achter gekomen dat bij dat kleiner maken ze ook te maken krijgen met bepaalde fysische eigenschappen (zoals electronen die niet door een laag van 130 nm. kunnen, maar wel door een van 90 nm.). Deze zorgen ervoor dat men niet alleen iets kleiner moet maken, maar ook daadwerkelijk andere technieken to moet passen om dan nog een werkend iets te krijgen! Zo lastig is dat toch niet om te begrijpen?
Volgens mij is dit niet helemaal goed begrepen door de poster. De lithografie, dus alleen het afdrukken van patronen op wafers, doet het prima. Wat spaak gelopen is, is het feit dat schakelingen electronisch niet meer schalen, omdat power consumptie een issue geworden is. En wat meneer Meyerson dus zegt, is dat het uitdrukken van technologie generaties door middel van lithografie nodes niet meer zinvol is.
In het originele artikel heeft men het over "Scaling", maar daarmee bedoelen ze niet de litografie (de techniek waarmee chips gemaakt worden) maar meer miniaturisering zelf. Tussen 130nm- en 90nm beginnen de traditionele technieken 'lekken' te vertonen: da's eigenlijk de boodschap van de schrijver.
ik heb een poos geleden wat gezien hier op tweakers over nanotubes, denk dat we die kant op moeten want dit houdt gewoon op, ze kunnen het waarschijnelijk/mischien nog wel een poosje rekken met wat slimme trucs maar dan is de koek wel op...

http://www.tweakers.net/nieuws/16740/?highlight=nanotubes
Dit artikel beschrijft de huidige stand van zaken (3 jaar later als die ontdekking van IBM dus):

http://www.physicsweb.org/article/news/8/4/15

Die transistor werkt pas op 4 Kelvin op 2.6Ghz, dus het duurt nog wel wat jaartjes voor er een zinnige CPU van gemaakt kan worden.
Dit is heel oud nieuws. Als ze daar bij IBM nu pas achter zijn hebben ze vast en zeker het INTEL TECHNOLOGY JOURNAL van mei 2002 over het hoofd gezien. Daar wordt het lekkage probleem namelijk uitgebreid besproken inclusief de oplossingen die Intel daarvoor gevonden heeft. De gebruikte materialen en ontwerpen veranderen maar de chips worden voorlopig nog steeds met behulp van lithografie gemaakt.

Zowel INTEL, SAMSUNG als AMD zijn trouwens al op weg om 90nm chips op de markt te brengen. Dat zouden ze echt niet doen als er nog potentiele showstoppers zouden zijn.

Verder is IBM zelf ook al lang bezig met 60nm en 45nm. Zie http://www.internetnews.com/infra/article.php/3322501

Hoog broodje aap gehalte dus.

@ Confusion, inderdaad, maar dat is nou juist al een paar jaar bekend. Op zich is er niets mis mee om dat kenbaar te maken. Alleen suggereert het artikel dat er nog "flink wat nieuwe" uitvindingen nodig zouden zijn om verder te verkleinen. Dat is onjuist.
Ik denk dat het punt van het artikel is dat er voor het eerst wordt geconcludeerd dat we al wel tot het etsen van kleinere structuren in staat zijn, maar dat de technologische ontwikkelingen om structuren van die orde van grootte net zo werkzaam te maken zijn achtergebleven. Dat dat nu de beperkende factor is geworden. Tot nog toe werd het enkel als probleem aangekaart, maar verwachtte men in hun optimisme dat de lithografie de beperkende factor zou blijven.
Ook Intel heeft grote problemen gehad bij de overgang naar 90nm maar deze uitspraken geven wel inzicht in de vertraging en de (vermoedde maar nooit bevestigde) slechte yields van de PPC 970 familie.
Ook Intel heeft grote problemen gehad bij de overgang naar 90nm maar deze uitspraken geven wel inzicht in de vertraging en de (vermoedde maar nooit bevestigde) slechte yields van de PPC 970 familie.
De PPC 970 wordt niet door Intel geproduceerd zoals door jou uitleg wordt gesuggereerd. Die wordt door IBM geproduceerd.
Goed dus het einde van de verkleining komt nu toch redelijk in zicht en er is nog geen alternatief. Had ooit eens begrepen dat de meest logische stap de hoogt in te gaan. Door een laag boven de huidige laag aan te brengen in de core maar dit schijnt een zeer groot misluk risico me te brengen waardoor ze 90 van de 100 cpu's kunnen weggooien.
Reactie op Eyeopener:

Waar het ongeveer op neer komt, is dat je in de praktijk transistoren (waar processoren uit bestaan) niet steeds maar kleiner kunt maken. Op een gegeven moment loop je gewoon tegen een fysische grens aan. (Bijv: Een isolator, in dit geval silicium, is dan te dun om nog een goede isolater te zijn)

*Edit*; duidelijk te laat
ja precies, de CMOS procestechnologie begint tegen zn grenzen aan te lopen bij 90nm.

de beperking zit em niet in de lithografie, dat kan nog wel (veel?) kleiner dan 90nm. maar de vraag is of een lithografie kleiner dan 90nm nog zin heeft voor conventionele CMOS procestechnologie.

strained silicon, silicon-on-isolator, copper inteconnects zijn als lapmiddelen al verbruikt om het leven van CMOS op te rekken maar op een gegeven moment zal er een vervanger van het aloude CMOS proces geinnoveerd moeten worden. en dat moment lijkt bij de overgang van 130 naar 90 nm dicht genaderd te zijn.

het is dus niet zo als het tweakers artikel suggereert een lithografie probleem maar eerder een CMOS proces issue. de belichting werkt nog uitstekend alleen het fotogevoelige materiaal is aan vervanging toe. :P
Ik geloof dat de absolute ondergrens rond de 25 nm ligt, omdat je geen handelbaar 'licht' meer kan vinden om kleiner mee te etsen. Nu is men al enorme toeren aan het uithalen om straks tot 25 nm. te kunnen gaan: de lithography apparatuur heeft jarenlang redelijk hetzelfde ontwerp gehad, maar moet nu fors geredesigned worden, omdat men geen lenzen heeft voor het 'licht' dat men binnenkort gaat gebruiken, maar alles met gekromde spiegels moet.

Overigens komt 25 nm overeen met ongeveer 75 atomen breedte en veel minder dan dat is daarom ook niet haalbaar, omdat materialen in kleinere hoeveelheden andere eigenschappen gaan vertonen dan in 'bulk' hoeveelheden.
Kan iemand dit ff forwarden naar Microsoft!??
Dan kunnen ze ophouden met elke windowsversie 10 keer zo veel rekenkracht te laten vereisen.
Ok. Volgende stap: goedkope schaalbare multiCPU PC's. SGI-achtigen enzo.

Meer rekenkracht nodig? CPU erbij steken. (ook leuk voor de voedingfabrikanten)
Goed dus het einde van de verkleining komt nu toch redelijk in zicht en er is nog geen alternatief. Had ooit eens begrepen dat de meest logische stap de hoogt in te gaan. Door een laag boven de huidige laag aan te brengen in de core maar dit schijnt een zeer groot misluk risico me te brengen waardoor ze 90 van de 100 cpu's kunnen weggooien.
dit lijkt me met het huidige process geen goed plan want hoe wou je het onderste gedeelte dan belichten en koelen ??? wil niet zeggen dat het onmogelijk is maar ik acht zoiets niet echt onwaarschijnelijk

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True