Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties

Een nieuw materiaal zou het mogelijk maken chips met een feature-size van 20nm te produceren. De chemicaliŽn leveren een nieuwe fotoresist die met euv- lithografie gebruikt kan worden. In 2013 zou de techniek gebruikt kunnen worden.

De Japanse elektronicagigant Toshiba heeft een derivaat ontwikkeld van een chemische substantie die vaker in de halfgeleiderindustrie gebruikt wordt, truxeen. Deze stof kan als fotoresist worden gebruikt bij de productie van halfgeleiders, waarbij de substantie compatibel is met euv-techniek. Een fotoresist wordt in de halfgeleiderindustrie gebruikt om het patroon van de toekomstige chip te vormen: het lichtgevoelige patroon dat door de fotoresist gevormd wordt, zorgt voor de overdracht van de halfgeleiderstructuren van het masker naar het silicium.

De huidige technieken voor de productie van chips zouden ontoereikend voor een schaalverkleining tot 20nm zijn, zo stelt Toshiba. De argonfluoride-lasers die samen met fotoresists voor de productie van lsi-chips gebruikt worden, zullen rond 2013 vervangen zijn door extreem ultraviolet-lithografie en het truxeen-derivaat als fotoresist. De truxeen-verbindig heeft enkele gewilde eigenschappen voor een toepassing als fotoresist: zo is het materiaal zeer fijn en robuust van structuur, en kan het voor zowel positieve als negatieve resist ingezet worden. Toshiba zal de techniek op 19 november tijdens het 22ste International Microprocesses and Nanotechnology Conference presenteren.

Truxeen-fotoresist van Toshiba
Moderatie-faq Wijzig weergave

Reacties (16)

Das klein ... O.O

maar elke ontwikkeling is goed, lijkt me.

vraag me af tot hoe klein ze gaan komen.
Ik zit net even na te kijken hoe groot 1 Si atoom nu eigenlijk is... 117 234pm = 117 234*10-12m

Als je dan gaat etsen op 22nm = 22*10-9m, dan hebben we het over banen van 188 94 atomen!

Dit lijkt nog een redelijk aantal, maar elk atoom dat je ernaast zit, heeft een effect van een half procent op de totale breedte... En ze zijn ongetwijfeld ver met etsen enzo, maar op de atoom nauwkeurig werken? Ik denk dat een nauwkeurigheid van 10 atomen niet overdreven is, en dan hebben we het al over 5 10%, wat toch een redelijk effect zal hebben op de weerstand...

[EDIT]: Inderdaad Malantur, ik had even de straal aangezien voor diameter... Dan nog de ruimte in het kristalrooster, maar die beschrijf je hieronder.

[Reactie gewijzigd door Peregrine op 19 november 2009 11:50]

117pm is de straal van een silicium atoom ;)
234pm is dus de diameter.
Echter zit er nog lege ruimte tussen atomen in een kristalstructuur.
De 'lattice constant', ofwel de afstand tussen atomen aan de oppervlakte in een kristalrooster, van silicium is 5,430710 Ň, of 0,5430710 nm, of 543 pm. Voor 22nm is het dus zelfs maar 40 atomen!
Zoveel nog? Ik kon hem net niet zo snel vinden, en heb hem voor het gemak maar even verwaarloosd. Ik dacht dit te kunnen doen omdat als je bollen gaat stapelen, deze niet in elkaars verlengde gaan liggen, maar een beetje 'in elkaar schuiven'. De waarheid zal dus ergens in het midden liggen, maar het punt is duidelijk: dat is klein!

Vooral als je gaat kijken naar het molecuul wat ze bij de lithografie willen gaan gebruiken... Gezien de vele benzeen- en andere kleine ringen lijkt deze mij vrij plat. Als je dan indenkt dat een benzeenring rond de 300pm is, zal het molecuul rond de 1,5nm zijn... Dat wordt goed mikken!
Dat wordt goed mikken!
Weet je meteen waarom wafersteppers zo belachelijk duur (vele (tientallen) miljoenen) kosten. Zeker als ze gaan overstappen op EUV wat ook nog eens met spiegels werkt ipv lenzen om het "licht" te focussen (aangezien EUV een golflengte van 13,5nm heeft en niet meer door glas heen komt).
22nm is het kleinste met silicium, daarna gaan ze naar 16nm en 11nm met nanotubes, en daarna zitten ze met een probleem! :+
Maar tegen dan is het al 2015 2016 volgens Intel, en is er misschien al een oplossing gevonden. Intel is trouwens optimistischer dan het ITSR, Intel denkt namelijk nog 8nm, 6nm en 4nm te halen. De laatste zou dan in 2022 beschikbaar moeten zijn. 13 jaar op voorhand denken ze dus al dat het zal kunnen :9

[Reactie gewijzigd door Malantur op 19 november 2009 10:55]

Ja, op een gegeven moment houdt het op. Tijd voor de quantumcomputer, of RISC processoren.
Waarom RISC? Is een simpelere instructie set makkelijk te produceren ofzo?
RISC is een simpelere instructieset, waardoor je minder logica op een chip nodig hebt. (je mist de microcode, instructie decode is eenvoudiger, je hebt minder verschillende instructies) Das ook een verkleining mijnsinziens. Het nadeel van een nieuwe instructieset is dat alle software ervoor aangepast moet worden, dus dat kan alleen als Microsoft een heel nieuw Windows systeem maakt, voor die instructieset (dat zie ik ze nog niet doen eerlijk gezegd, na het Vista debacle) of een grote overstap op een ander systeem.

Nadeel van RISC is dat je zowiezo meer power voor dezelfde snelheid nodig hebt, maar dat wordt geloof ik wel gecompenseerd door de logica die je bespaart.

edit: ik heb mijn claims even nagezocht, en ik lees hier dat de eerste Pentiums met de huidige productietechnieken op een die van 3mm^2 passen, terwijl de huidige ARM Cortex-A5 een die van minder dan 1 vierkante millimeter hebben.

[Reactie gewijzigd door ktf op 19 november 2009 11:17]

Het nadeel van een nieuwe instructieset is dat alle software ervoor aangepast moet worden, dus dat kan alleen als Microsoft een heel nieuw Windows systeem maakt, voor die instructieset (dat zie ik ze nog niet doen eerlijk gezegd, na het Vista debacle) of een grote overstap op een ander systeem.
Het is voor een nieuwe instructieset niet nodig dat alle software aangepast moet worden: er kan gewoon een tussenlaag / emulator / omzetter / stukje code komen die 'ouderwetse' code omzet naar nieuwe). Bij Vista was 't grootste probleen dat in 't begin veel software / hardware niet meer draaide. Verdere verschijnselen waren bijv. een tragere werking en mensen die de interface niet beviel. Geen van deze zaken hoeft een probleem te zijn, als er eenmaal zo'n tussenlaag is. Uiteraard wordt er tegen die tijd dan wel geroepen dat je 64-cores en 64GB intern geheugen moet hebben, om minder last van die vertragende tussenlaag te hebben...
Een nieuw OS intussentijd bouwen is geen probleem voor MS - ze hebben geld en tijd (vanwege hun marktpositie) zat, en ze kunnen 't zelfde truukje wat ze bij Vista7 gedaan hebben weer uitvoeren: gewoon een ouder OS meeleveren.
Tenslotte kan de chipfabrikant ook nog gewoon wat cores inbouwen (in dezelfde CPU) die nog de oude instructieset draaien - of de moederbordfabrikanten doen er gewoon twee CPU's in. Kortom: mogelijkheden zat.
Dit is een significante stap voor de proces ontwikkeling van EUV litho.
Voor elke 'node' moet resist worden ontwikkeld die de gevraagde features sizes
kan reproduceren na belichting. Het probleem is dat er geen 'standaard recept' / methode bestaat om nieuwe resist te maken voor elke nieuwe node. Elke verkleining houdt een aantal nieuwe uniek problemen in die in het proces kunnen optreden en door het resist 'ondervangen' moeten worden.

Daarbij komt de factor dat een resist die prima voldoet voor 45 nm, totaal niet hoeft te werken voor 32nm feature size.....
Inderdaad, onvoorstelbaar klein :).

Echter, deze 'evolutie' strategy gaat wel langzaam en met kleine stapjes. Het is dan ook de vraag in hoeverre de wet van moore nog blijft opgaan zonder dat er echt een 'revolutie' plaatsvindt, d.w.z. een geheel andere manier van productie van chips of geheel andere implementatie van dergelijk chips.
Volgens de laatste uitspraken van bedrijven als Intel, AMD, TSMC en IBM op dit gebied zien zij de wet van Moore met enige moeite de komende paar stappen tot zo'n 14nm nog wel maken. Daarna hebben ook zij zo hun twijfels, wat betreft de haalbaarheid van een zelfde verkleining op een zelfde tempo, natuurlij kunnen de processoren gewoon groter gemaakt worden, met een groter oppervalk kun je immers ook de hoeveelheid transistoren veder verhogen zonder dat je noodzakelijkerwijs de grote van de features verder moet verkleinen.

De revolutie zal misschien nog komen en daar door de verkleining ook voorbij de 14nm in stand weten te houden maar zo iets is heel erg moeilijk te voorspellen. Het grote probleem van altijd maar kleinere features is dat door zo wenig materiaal te gebruiken de hoeveelheid electronen die er door het materiaal kunnen bewegen ook een stuk kleiner wordt tot het punt waar het zo klein wordt dat er niet meer genoeg door heen kan om ook een nuttige schakeling te maken.

Quantum computers lijken een oplossing te kunnen bieden maar het probleem daar mee is dat het voor een groot deel theorie is die nog lang niet altijd in praktijk gebracht kan worden of in ieder geval niet in een bruikbare setup. Al lijkt dit uit eindelijk wel de toekomst te gaan worden omdat er toch echt altijd maar meer en meer vraag komt naar meer en meer rekenkracht en snelheid en juist dat is wat deze technologie lijkt te kunnen bieden.
groter betekent ook trager en er is veel meer hitteontwikkeling. Was het zo makkelijk geweest, dan denk ik niet dat ze zoveel onderzoek zouden steken in verkleinen en dan hadden we allemaal een cpu ter grote van een baksteen ofzo.
Volgens de laatste uitspraken van bedrijven als Intel, AMD, TSMC en IBM op dit gebied zien zij de wet van Moore met enige moeite de komende paar stappen tot zo'n 14nm nog wel maken. Daarna hebben ook zij zo hun twijfels, wat betreft de haalbaarheid van een zelfde verkleining op een zelfde tempo, natuurlij kunnen de processoren gewoon groter gemaakt worden, met een groter oppervalk kun je immers ook de hoeveelheid transistoren veder verhogen zonder dat je noodzakelijkerwijs de grote van de features verder moet verkleinen.
Nu spreek je jezelf tegen, de Wet van Moore gaat specifieek over het aantal transistoren dat op een oppervlak te proppen is. Eventueel zou je met 3D-chips (en dan heb ik het niet over de interconnects, die waren altijd al 3D, maar over meerdere lagen transistoren) kunnen claimen dat je de Wet van Moore vol blijft houden.
Een verdere verkleining is niet het soort probleem dat je met nog nauwkeuriger machines en exotische trucs zoals EUV op kunt lossen, dit is het punt waar de natuurwetten moeilijk beginnen te doen. Je kunt geen dingen maken die een half atoom groot zijn bijvoorbeeld. En op deze schaalgrootte ("schaalkleinte"? ;) ) worden quantum-effecten steeds groter. En nee, dat betekent niet dat je een quantum-computer maakt, dat betekent dat je van plan bent een isolatie laagje te maken, maar da's zo dun dat de electronen er alsnog dwars doorheen gaan ("tunnelen").
RISC en CISC zijn jaren 90 termen voor en bepaalde filosofie in processor ontwerp.

15 jaar geleden moet men veel betere afwegingen maken voor het aantal beschikbare klokcycles vs hoeveel instructies je kwijt kon (in die tijd veel meer beperkter), daaruit is CISC en RISC ontstaan, tegenwoordige processoren zijn eerder CISC, maar eigenlijk is het foute benaming voor huidige processoren. Omdat de betsaansredenen voor verschillen in CISC en RISC niet meer relevant zijn...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True