Door Willem de Moor

Redacteur

Klein, kleiner, kleinst: de weg naar 5nm-chips

04-11-2013 • 09:00

48

Multipage-opmaak

Inleiding: wat is Imec?

Inleiding: wat is Imec?

Het zal bij veel tweakers inmiddels bekend zijn dat Intel jaarlijks zijn Developer Forum, kortweg IDF, organiseert. Daarbij worden niet alleen fabrikanten en ontwikkelaars, maar ook de pers uitgenodigd om de stand van zaken te aanschouwen. Welke technische ontwikkelingen en producten mogen we in de komende jaren uit het blauwe kamp verwachten? Tweakers tijgt daarom jaarlijks een week naar San Francisco om op de hoogte te blijven van de ontwikkelingen.

Het instituut beschikt over een scala aan laboratoria en een eigen 'fab'

Veel dichter bij huis wordt echter ook volop onderzoek gedaan naar toekomstige technieken. In het Belgische Leuven ligt de Imec-campus, een onderzoeksinstituut dat in 1984 door de Vlaamse overheid werd opgericht. Het onderzoekscentrum werkt niet alleen met diverse bedrijven, maar ook met tal van universiteiten samen aan onderzoek naar nieuwe technologie voor elektronica. Het instituut beschikt daartoe onder meer over een scala aan laboratoria en een eigen 'fab', een cleanroom met faciliteiten voor chipproductie.

In zijn bijna dertigjarige bestaan is Imec uitgegroeid tot een gerenommeerd onderzoeksinstituut, waar zo'n tweeduizend werknemers werken. Het instituut heeft rond de zeshonderd samenwerkingsverbanden, onder andere met ongeveer tweehonderd universiteiten.

Jaarlijks organiseert Imec zijn eigen Imec Technology Forum, een naam waarvan de afkorting waarschijnlijk niet toevallig aan Intels event doet denken. Tijdens dit ITF toonde Imec tal van ontwikkelingen, waarvan we een aantal de revue laten passeren. Zo kijken we naar lithografische chipfabricage tot 5nm en welke technieken nodig zijn om transistors kleiner dan 5nm te maken. Ook 3d-technieken voor chips en flexibele elektronica komen aan bod. Ten slotte kijken we naar een zeer direct toepassingsgebied voor nieuwe technologie: de gezondheidszorg.

Imec cleanroom

De grenzen van lithografie

Moore's Law wordt al jaren als onhaalbaar en aan het eind van zijn toepasbaarheid bestempeld. Desondanks lijkt de observatie van Gordon Moore, een van de grondleggers van Intel, dat de hoeveelheid transistors in een chip elke twee jaar verdubbelt, nog steeds op te gaan. Jaar in jaar uit worden transistors kleiner, neemt hun snelheid toe en worden ze per stuk goedkoper. Toch hebben de critici een punt; de wet is helemaal geen wet, maar een verschijnsel dat zich tot dusver in de praktijk voordeed. Naarmate transistors echter kleiner worden, lijken de grenzen van hun afmetingen langzaam in zicht te komen.

Een lastig punt zijn de metalen connectors om de transistors aan te sturen

Aangezien de ontwikkeling van een procedé jaren duurt, mag het geen verrassing zijn dat nu al volop wordt gewerkt aan zogeheten nodes, stadia in de technologie, met afmetingen ver onder de huidige. Waar de meest geavanceerde procedé's nu 22nm hanteren, wordt al gewerkt aan 14nm, 10nm en nog kleinere nodes. Uiteraard is daarvoor een enorme hoeveelheid research & development nodig; de complexiteit van de producten neemt gigantisch toe naarmate ze kleiner worden. Ook de productie en vooral de apparatuur die nodig is om ze te maken worden complexer en duurder, omdat steeds grotere precisie nodig is. Dat verklaart ook waarom achtereenvolgende chipgeneraties nauwelijks goedkoper worden.

Imec roadmap

De 14nm- en 10nm-nodes zijn behoorlijk uitgekristalliseerd en de productiefaciliteiten van fabrikanten worden voorbereid op de massaproductie. Voor processors en andere rekeneenheden worden finfets gemaakt die bestaan uit silicium met een hkmg-techniek voor de gates. Een lastig punt zijn de metalen connectors om de transistors aan te sturen. Het is zeer moeilijk om die precies uit te lijnen met de transistors. Tot 14nm kan dat grotendeels via conventionele lithografie, maar daaronder moet overgestapt worden op automatische uitlijning.

Transistors met verticale nanobuizenVoorbij 10nm is zelfassemblage van de contacten een must en moet ook worden gezocht naar alternatieven voor silicium. De mobiliteit van ladingdragers is niet langer voldoende om in de kleine ruimtes de gewenste eigenschappen te realiseren, waardoor siliciumgermanium nodig is. Vanaf 7nm zouden zogeheten III-V-materialen moeten volgen en richting 5nm worden transistors waarschijnlijk niet meer liggend, maar staand aangebracht, met nanodraden.

Overstap naar euv?

Lithografisch principeAfmetingen en materialen kiezen voor de verschillende technologie-nodes is één ding, maar uiteraard moeten de transistors ook geproduceerd worden. De gangbare techniek om dat voor de huidige generatie te realiseren, is lithografie. Daarbij wordt een groot negatief van het waferoppervlak gemaakt: het masker, dat door een lichtbron en een lenzenstelsel verkleind op een wafer geprojecteerd wordt. Een fotogevoelige laag neemt het patroon over, waarna de belichte delen weggeëtst worden. Voor elke laag van een wafer wordt dit herhaald, wat leidt tot meerlaagse patronen die tussentijds allerlei bewerkingen als etsen, vullen en harden ondergaan.

Euv blijkt lastiger te implementeren dan voorheen gedacht

Momenteel wordt lithografie gerealiseerd met licht met een golflengte van 193nm, waarbij een laagje water tussen lenzen en wafer extra lichtbreking oplevert. Zo komt de techniek aan zijn naam, 193nm immersion lithography. Tot pakweg 45nm werkte dat goed, maar met kleinere nodes wordt het steeds lastiger om de zeer kleine details foutloos van het masker naar de wafer over te brengen. Vaak worden patronen dubbel belicht om dat voor elkaar te krijgen en zelfs zogeheten triple patterning zou noodzakelijk worden.

Licht met een kortere golflengte zou fijnere patronen mogelijk maken. Daarbij komt extreem ultraviolet licht, kortweg euv, kijken. Chipfabrikanten bereiden de overstap naar euv al lang voor, maar de techniek blijkt lastiger te implementeren dan voorheen gedacht. Vooral de lichtopbrengst valt vooralsnog tegen. Een minder felle uv-bron leidt tot langere belichtingstijden en dus tot een lagere productiesnelheid.

In de cleanroom van Imec is een euv-machine van ASML opgesteld, die gebruikt wordt om het euv-proces te optimaliseren. Eind 2013 moet met een lichtopbrengst van 80W een doorloopsnelheid van 58 wafers per uur gehaald worden. Eind 2014 moet dat verhoogd zijn naar 250W, dus zo'n 180 wafers per uur.

Euv-lithografie moet zijn intrede maken bij de overstap naar de 10nm-node. Tot die tijd zou 193nm-immersion volstaan, maar dan zou wel double patterning nodig zijn. Voor 10nm zou triple patterning met 193i nodig zijn, terwijl met euv single patterning mogelijk zou zijn. Tegen de tijd dat die overstap gemaakt moet worden, moet de lichtopbrengst in orde zijn.

Lithografie

Voorbij 10nm

De verwachte levensduur van traditionele lithografie lijkt op te houden na de 10nm-node. Ook euv lijkt dan niet langer in staat om features klein genoeg op de wafers te kunnen overbrengen of om dat kosteneffectief te doen. Daarmee zou euv slechts één node, die van 10nm, meegaan, maar de totale levensduur is natuurlijk veel langer, aangezien niet alles en iedereen direct op de nieuwste nodes kan overstappen.

Verticale nanodraad-transistors

Desalniettemin moet euv-lithografie rond 2015 of 2016 met 10nm zijn intrede doen, maar wat moet daarna gebeuren? Met de 7nm- en 5nm-nodes zou lithografie geen optie meer zijn, dus rond 2017 moet een alternatief beschikbaar zijn. Bij Imec wordt juist daarnaar naarstig onderzoek gedaan en worden technieken uitgeprobeerd.

Vanaf 5nm moeten meer exotische materialen de basis voor chips vormen

Een van de mogelijke alternatieven voor lithografie is een techniek die 'directed self assembly' genoemd wordt. Vanaf de 7nm-node zou dsa effectiever zijn dan lithografie, aangezien zelfs euv dan al double of triple patterning nodig zou hebben. Met dsa worden eerst grove structuren met lithografie gerealiseerd, waaraan vervolgens polymeren kunnen hechten. Zo kunnen kleinere structuren gerealiseerd worden dan met normale lithografische technieken.

Vanaf 5nm, naar verwachting rond 2019, moeten meer exotische materialen de basis voor chips gaan vormen. De ruimte tussen horizontaal aangelegde transistors zou dan te klein worden voor zaken als interconnects, reden om op verticale finfets over te stappen. Die moeten dan van germanium of III-V-halfgeleiders gemaakt worden. Bij Imec wordt daar al onderzoek naar gedaan en de eerste resultaten zijn er inmiddels.

Transistors met flakes, of vlokkenTegelijk worden de eerste experimenten uitgevoerd naar andere alternatieven, zoals quantum-spin-transistors, grafeen en andere 2d-materialen. Zo zijn fundamentele experimenten met zogeheten flakes uitgevoerd, waarbij transistors worden gemaakt van 'tweedimensionale' schilfers van molybdeendisulfide en wolfraamselenide. De schilfers zijn vooralsnog micrometers groot, maar moeten in de toekomst nanometer-grote gates vormen.

De hoogte in: 3d-chips

De eerste stappen om op transistorniveau van horizontale bouw naar verticale bouw over te stappen zijn met finfets al gemaakt. In de toekomst kunnen verticale nanodraden met gates rondom leiden tot nog verdergaande verticale bouw, maar ook op chipniveau kan winst geboekt worden door de derde dimensie te benutten.Gestapelde chips met tsv's

Het stapelen van chips wordt ook nu al gedaan, maar nog niet op de efficiëntste manier. Verschillende plakjes silicium, een 'die' in het jargon, worden opeengestapeld, maar de onderlinge verbindingen lopen buitenlangs. Dat levert relatief lange draden op, die verlies in energie, bandbreedte en kosten met zich meebrengen. Daarom wordt al geruime tijd onderzocht of de dies niet direct op elkaar aangesloten kunnen worden, met connectors in de chips die met elkaar in contact staan.

Het is een kwestie van balans tussen testkosten en hogere 3d-yields

Dergelijke through silicon via's, of tsv's heten zo omdat ze paden of via's vormen door het silicium heen. Dat levert korte communicatielijnen op, met alle voordelen van dien. Imec is er inmiddels in geslaagd tsv's van 5 micrometer doorsnede en 50 micometer lang te maken, die door het bulk-silicium steken. De koperen connectors worden daarbij van een tinnen uiteinde voorzien en met de koperen connector van de onderliggende laag verbonden. De onderlinge afstand tussen de connectors, ook bekend als de pitch, is momenteel zo'n 20 micrometer.

Gezien de vereiste precisie mag de afwijking, dus de mate waarin de twee te verbinden dies onderling verschoven zijn, niet meer dan 3 micrometer bedragen. Dat brengt een gevaar met zich mee voor stapelen; verkeerd uitgelijnde dies kunnen een 'stack' verpesten. Bovendien kan een defecte die een hele stack nutteloos maken, dus is het zaak om die vooraf te testen. Dat testen van dies kost echter tijd en geld, dus is het een kwestie van de juiste balans tussen testkosten en hogere 3d-yields.

Through Silicon Via's

Stapelen heeft nog een risico; de chips kunnen hun warmte minder goed kwijt, wat vooral voor geheugenchips negatief is, aangezien dat de retentietijd vermindert. Een oplossing kan liggen in horizontale stacks, met een interposer die als onderliggend substraat en warmteafvoer dienstdoet. De interconnects zijn zo echter lastiger te realiseren dan met tsv's, maar door zeer smalle interconnects te maken kan de interconnectlengte gelijk aan de afstand tussen de dies gemaakt worden en is de routering eenvoudig.Dies met interposer

Flexibele hardware

Nieuwe toepassingen vereisen steeds flexibelere hardware, letterlijk en figuurlijk. Dat letterlijke deel kennen we al een tijdje; in veel consumentenelektronica worden stukjes printplaat en soms zelfs het hele pcb van flexibel plastic gemaakt. De standaardcomponenten worden daarop geplakt en in het plastic zitten alleen passieve componenten, zoals printbanen. Dergelijke flexibele printplaatjes zijn echter niet bedoeld om veelvuldig bewogen te worden; printspoortjes zouden breken.

Voor echte toepassingen in consumentenelektronica is een display nodig

Een manier om printplaten niet alleen flexibel, maar ook rekbaar te maken, is het gebruik van polymeren. In materialen als siliconen of pdms kunnen printbanen beschermd worden en is de 'printplaat' rekbaar. Om ook de printbanen mee te laten rekken, kunnen ze als tweedimensionale veren worden geproduceerd. Zo kunnen bijvoorbeeld wearables, zoals intelligente patches gemaakt worden, maar voor echte toepassingen in consumentenelektronica is natuurlijk een display nodig.

De beeldschermtechniek die zich leent voor flexibele displays is oled, maar dan moeten wel enkele obstakels geslecht worden. Dergelijke displays moeten een voldoende hoge resolutie hebben, zuinig zijn en tegen de elementen bestand zijn. De flexibiliteit is dankzij het printen op een flexibel substraat mogelijk, maar dan moeten wel de aansturende tft's klein genoeg zijn om de oleds aan te sturen. Imec maakt gebruik van igzo-tft's en stuurt die digitaal aan. Dat levert een zuinige tft-matrix op om de oleds aan te sturen.Flexibele display-opbouw

De oleds en de onderliggende elektronica om ze aan te sturen moeten beschermd worden door laagjes beschermend materiaal om lucht, vocht en vuil tegen te houden. In samenwerking met het Holst Centre, een in Nederland gebaseerde spin-off van Imec, zijn inmiddels methodes ontwikkeld om die bescherming aan te brengen.

De laatste horde voor een brede beschikbaarheid van goedkope, flexibele oledschermen is massaproductie. Omdat de componenten, vooral de tft-transistors, zo klein zijn, is grote precisie nodig om de diverse stappen goed uit te lijnen met roll-to-roll-productie. Met sheet-to-sheet is die precisie makkelijker te realiseren, maar de productie is dan lager en dus duurder. Roll-to-roll-productie van flexibele oleds zou nog vijf jaar op zich laten wachten, zo voorspellen Imec en het Holst Centre.

Gezondheidszorg: meer en persoonlijke data

Vaak wordt bij berichtgeving rond research & development de vraag gesteld: wat heb ik er aan? Bij een van de onderzoeksrichtingen van Imec, en bij tal van andere grote r&d-afdelingen, is die vraag vrij eenvoudig te beantwoorden: het komt je gezondheid ten goede. De diverse initiatieven die bij Imec worden onderzocht moeten bepaalde ziekten namelijk niet alleen beter kunnen bestrijden, maar ze ook helpen voorkomen en in een vroeg stadium identificeren.Cell Sorter (inzet: detail microkanaaltjes)

Een van de methodes om dat laatste mogelijk te maken is de Cell Sorter, die door Imec is ontwikkeld. Dit lab on a chip kan cellen uit een druppel bloed sorteren en interessante cellen voor verdere analyse bewaren. Bloed met cellen wordt daartoe door een 30 micrometer breed kanaal met daarin een laser en eronder een cmos-sensor geleid. Een cel wordt aan de hand van het interferentiepatroon met laserlicht door de cmos-sensor herkend en kan dan specifieke kamers worden ingeleid. De cellen worden gestuurd door met kleine microheaters warmtebubbels te maken, die de cellen een bepaalde richting opstuwen. Zo kunnen kankercellen in een vroeg stadium en met minimale moeite herkend worden.

Met supercomputers kan de werking van moleculen als medicijn voorspeld worden

De sensortechniek is afgeleid van de techniek om defecten op wafers te herkennen en verwerkt twintig miljoen beeldjes per seconde. De microheaters zijn vergelijkbaar met de koppen van een inktjetprinter. Door lithografische productiemethodes kunnen de Cell Sorters duizenden kanalen bevatten en massaal geproduceerd worden.

Behalve aan de Cell Sorter wordt ook gewerkt aan andere hardware voor persoonlijke gezondheidszorg. Zo worden wegwerppleisters ontwikkeld die vitale functies als ademhaling en hartslag in de gaten houden en daarover rapporteren.

Ook onderzoek naar geneesmiddelen profiteert van technologie. Met supercomputers kan de werking van moleculen als medicijn voorspeld worden en kunnen kandidaatmoleculen snel gescand worden. Daarvoor is niet alleen de nodige rekenkracht nodig, maar ook de juiste software. Tijdens het ITF kondigden Imec en Intel een samenwerkingsverband aan met een farmaceutisch bedrijf en universiteiten om niet alleen hardware, maar ook software voor lifesciences te ontwikkelen. Dat moet onder meer leiden tot betere simulaties van weefsels, medicijnen en snellere manieren om genetische informatie in kaart te brengen.Lab-on-a-chip

Dat laatste kan op zijn beurt gebruikt worden om gerichter ziektes te bestrijden. In plaats van een breed werkend medicijn, dat niet specifiek voor een patiënt is, te gebruiken, kan medicatie veel gerichter worden toegediend als de genetische informatie van ziektes en patiënten bekend is. Het human genome project deed daar aanvankelijk jaren over en kostte miljoenen, maar inmiddels kan het binnen enkele dagen voor duizend euro. Als dat verder omlaag gebracht kan worden naar uren en minder dan honderd euro, kunnen patiënten veel gerichter worden geholpen.

Reacties (48)

48
48
36
5
1
4
Wijzig sortering

Sorteer op:

Weergave:

Een belangrijke kanttekening bij het litografie gedeelte is dat de node-namen al lang niet meer (en in de toekomst nog minder) een directe relatie hebben met de fysieke afmeting van enig specifiek transistor element.

Sterker nog, het is inmiddels veel meer een marketing naam en b.v. de komende 14 en 16nm processen van sommige fabrikanten bieden geen hogere transistor dichtheid dan hun 20nm voorganger.

Zie ook: http://spectrum.ieee.org/...oores-law-its-complicated

[Reactie gewijzigd door RickN op 23 juli 2024 06:29]

Zover ik weet geet de nodenaam aan wat de kleinste mogelijke feature is. Meestal hebben we het dan alleen over de gates van de transistoren. Alle andere onderdelen (source/drain/draden) zijn ordes groter dan de nodenaam.
Maar omdat de gate het schakelende element is, heeft het wel direct effect op de warmte en het energieverbruik.
Dat is dus niet meer het geval. Het is puur een marketingterm tegenwoordig.

Daarnaast zijn source/drain en connecties inderdaad wel groter dan de gate lengte, maar absoluut geen ordes groter.
Waarom wordt er in het hele artikel niet het gebruik genoemd van electronen beams ipv euv (MAPPER Lithography). Of gelden hiervoor dezelfde beperking als bij euv en kan dit ook niet kleiner dan 5nm.
Omdat electrobeam fysiek beperkt is in de snelheid.
Ten eerste kan een ebeam niet direct door een masker gestuurd worden zoals bij licht, dit omdat het masker elektrisch positief is (i.e: kan electronen afvoeren naar ground). De electronen die door het masker vallen zullen afgebogen worden door het positieve masker waar ze doorheen vallen. Bovendien stoten ze ook elkaar af, de dichtheid (en dus de hoeveelheid schrijfwerk per seconde) is dus beperkt door de mate waarin electronen afgebogen worden.
De oplossing van Mapper is om á la printer een hele rij beams naast elkaar te plaatsen die ieder 1 "pixel" per keer belichten. In tegenstelling tot licht moet er dus actief ieder bronnetje geschakeld/shuttered worden om het te verkrijgen beeld op het substraat te projecteren. Er moet dus voor iedere belichting opnieuw gerekend worden, en ook dat kost tijd.
De machines van Mapper hebben wel als voordeel dat ze, juist door het niet kunnen werken met maskers, meer als een printer dan als een kopieërmachine werken. Ze worden dan ook gebruikt om de maskerplaten te printen die de kopieërmachines van ASML gebruiken om de chips te belichten. Het voordeel is een hogere nauwkeurigheid, interactief beeldvorming, maar wel veel trager in werking. En die snelheid is juist voor deze maskerplaten veel minder essentieël dan voor de wafers.
Het kanniet bestaat eigenlijk niet, wat er bedoelt wordt het kanniet kleiner dan 5nm is omdat er nog veel nieuws moet ontwikkelt worden voordat er uberhaupt gedacht "kan" worden aan kleiner dan 5nm. In het kort, zeker niet onmogelijk wel extreem moeilijk.
Bij 5nm is er dus schijnbaar een grens en gaan we 3d
Dat lijkt ook erg op het stoppen van het voorhogen van de kloksnelheid van cpu cores en die te vervangen door meerdere cores.

De wet van moore is daarnaast ook geen wet. Je moet breeder kijken naar de algemene technische ontwikkeling. Op vele gebieden hebben je verdubbelingen van iets in x aantal jaren.
De reden waarom al lang wordt geroepen dat de wet van moore op gaat houden is omdat deze wet exponentieel is. Exponentiele groei van iets (mensen, bomen, transistors op een chip) houdt altijd een keer op. Wanneer dat is zijn al veel discussies over geweest, maar nu lijkt het einde toch echt in zicht (al zal de wet zelf nog wel even in stand blijven, want door chips te stapelen kan je alsnog het aantal transistors in 1 package verdubbelen).

Zelf ben ik heel erg benieuwd naar wat we met al die transistors gaan doen. Je ziet nu al dat er steeds meer cores en steeds meer speciale hardware in processors zit (GPU kernen, accelerators), maar dat we dit niet allemaal kunnen gebruiken. Enerzijds door thermische limiten, anderszijds doordat de software niet alles optimaal kan benutten. Dit probleem is beschreven als dark sillicon en ik ben heel benieuwd hoe hard- en software engineers dit gaan oplossen.
Elke groei heeft zijn limieten. En effectief is de wet van moore geen exponentiele groei, maar exponentiele krimp van transistorgroottes. Als dat lineair ging was het einde nog heel veel eerder bereikt.

Overigens kan juist groei met een negatieve exponent oneindig lang doorgaan, het benadert enkel een limiet.

Dat gezegd, zo rond de 5nm zit waarschijnlijk wel het limiet wat we nog als transistor kunnen zien die lijkt op wat we nu hebben. Daarna zullen ze iets anders moeten gaan verzinnen. In ieder geval voor de draagbare apparaten, voor een desktop PC kan is het formaat van je CPU eigenlijk idioot klein ten opzichte van de complete PC. Maar die 'gewoon' 100x zo groot maken levert ook weer energie problemen op.
Van wikipedia:
Moore's law is the observation that, over the history of computing hardware, the number of transistors on integrated circuits doubles approximately every two years.
Gaat dus niet over krimp van transistors, maar over het aantal ervan in één IC. Krimp is één manier om dat te bereiken, groter worden en 3D ook. Verder is het een observatie van de beste man die rest een wet is gaan noemen en tevens ook als leidraad wordt gebruikt binnen de industrie. Oftewel het is een "selffulfilling prophecy" geworden die nu steeds moeilijker wordt om te halen.

Er spelen nog veel meer limieten mee. De kloksnelheid van een CPU liep in de jaren 90 nog exponentieel op om ergens in de eerste jaren van deze eeuw lineair te worden. De eerste 2Ghz P4 is al van begin deze eeuw.

De eerste toepassingen van gestapelde chips hebben we ook al, microSDXC kaartjes van 64GB zouden anders niet kunnen bestaan. Ook de opvolger van DDR geheugen gebruikt een gelaagde architectuur.

http://www.theinquirer.ne...pecification-is-finalised

Zuinigere chips maken ook weer dat we grotere chips kunnen bakken maar afmeting brengt ook nog andere problemen met zich mee. Een elektrisch signaal gaat ook maar met 2/3 snelheid van het licht, op 4Ghz leg je dan maar 50cm af en dan ben je in de volgende kloktik beland. Veel mensen beseffen zich ook niet dat er in 10 meter gigabit kabel er dus ongeveer 5 bits onderweg zijn en dat dit bij 10Gb zoals in Thunderbold kabels al 5 bits per meter zijn.

Verder kan afzetmarkt ook nog een probleem worden. Als de chipmakers chips moeten maken voor een kleinere groep dan worden de regels ook anders.Verhoudingen tussen productie en research kosten verschuiven dan enorm. Misschien is het dan wel veel interessanter om 300 Atom's te stacken tot een clusterchip omdat dit dure research bespaart.

Veel mensen zitten niet te wachten op een nog snellere PC (ik wel). Desktop PC's zijn al aan het teruglopen omdat een laptop ook snel genoeg is en in veel gevallen een tablet of telefoon ook al. Gelukkig is er voorlopig nog wel een groeimarkt in kleinere en zuinigere processoren voor tablets en telefoons.

Ik ben in ieder geval benieuwd wat de toekomst gaat brengen.

[Reactie gewijzigd door PuzzleSolver op 23 juli 2024 06:29]

Van mij mag mijn desktopprocessor ook wel twee keer zo groot worden. Videokaarten zijn soms al belachelijk groot ivm een processor (voor redenen die ik niet kan vatten). Maar ja, stiekem hopen we op een blackbox ter grootte van een smartphone waarmee je alles kunt. Dus ik snap die zoektocht naar het allerkleinste wel.
Ik snap niet goed wat je hier zegt. Videokaarten zijn groot in verband met een processor? Daar heb ik nog nooit van gehoord.

Daarnaast kan een videokaart als geheel een stuk kleiner als de videochips (die al behoorlijk klein zijn) niet zoveel koeling nodig zouden hebben.
waarschijnlijk bedoelde Kaya.md "in vergelijking met".
Inderdaad, ik vind het persoonlijk onzin om voor PC's steeds kleinere processoren te gaan maken...
Elke groei heeft zijn limieten. En effectief is de wet van moore geen exponentiele groei, maar exponentiele krimp van transistorgroottes. Als dat lineair ging was het einde nog heel veel eerder bereikt.

Overigens kan juist groei met een negatieve exponent oneindig lang doorgaan, het benadert enkel een limiet.
De grootte van een atoom ligt ook ergens in de buurt van 1 nm als ik me goed herinner, dus dat is vermoedelijk wel een harde grens; je kunt een transistor niet een half atoom breed maken.
Atomen hebben een straal die varieert van 0.025 nm (waterstof) tot 0.26 nm (Cesium), dus dat vormt voorlopig nog geen absolute limieten:

http://en.wikipedia.org/wiki/Atomic_radius

Wil niet zeggen dat 't dan makkelijk is, structuren van één of een aantal atomen dik is iets waar we nog erg veel onderzoek naar moeten doen, zoals grafeen.
Pracht artikel, tweakers waardig itt de schiet spellen meuk. Ik vraag me alleen af of dit proces, de Moore wet, nog wel zo dringend is. Ik heb al jaren de cpu van de pc thuis niet vervangen omdat het wel genoeg is. Het vermogen van low-end x86 en arm is al is staat de meeste functionaliteit prima te dragen. Natuurlijk is het een beetje een 640kb ram stelling, en komt functionaliteit wel met meer rekenvermogen, maar het is maar de vraag of de vraag, de markt, nog wel zo'n behoefde heeft aan sterke groei.
Ik heb het gevoel dat er de laatste jaren inderdaad vrij rustig vaarwater is ontstaan qua desktop CPU's. We kunnen langer dan ooit met één processor, en bijvoorbeeld een vroege Core 2 Duo kan nog steeds prima voor huis-tuin-en-keukengebruik. Ook qua gaming wordt een CPU niet heel vaak volledig benut.

Ik verwacht dat er op dit gebied wel weer een periode komt van snellere verhoging. Met Google Now en Siri zijn de eerste stappen gezet naar de menselijke computers; de persoonlijke assistent die je gewoon een vraag kunt stellen. De generatie na ons zal geen genoegen meer nemen met het moeten intypen van een vraag of het zelf beheren van bestanden. De "computer" (in ruime zin, welke vorm het ook moge aannemen) zal naar mijn idee steeds meer voor de gebruiker doen, zonder dat het gebruiken ervan tijd en expertise kost voor de gebruiker. Niet meer dat geploeter en dat gedoe waar 80% van de bevolking eigenlijk helemaal geen tijd en kennis voor heeft (buiten de Tweakers-doelgroep bedoel ik dan).

De computer zou gewoon antwoorden moeten geven, problemen moeten oplossen en zaken automatiseren, zonder de keerzijde van complexiteit voor de gebruiker. Dit vereist een AI van hoog niveau, die taken interpreteert en uitvoert. De CPU-benodigdheden hiervoor zouden zomaar een orde van grootte kunnen stijgen. Ik vraag me hierbij wel af of de R&D van processorbouwers te betalen blijft, en of het op een gegeven moment te complex wordt voor ons om te ontwerpen.

Ook steeds hogere encrypties zouden kunnen bijdragen aan meer cpu-gebruik. En qua gaming zullen we meer multi-core code gaan zien de komende jaren, nu de nextgen-consoles ook gebruik maken van een vrij reguliere multicore-setup.

[Reactie gewijzigd door geert1 op 23 juli 2024 06:29]

mee eens, er zullen zeker nog stappen gemaakt moeten worden voordat men in de buurt van "volmaaktheid" is beland.

De afmeting van een CPU voor een pc mag dan wel geen probleem meer zijn. Echter heeft dat terdege wel invloed op de energie verbruik. Meer rekenkracht met minder vermogen en dus kleiner en kleiner is noodzakelijk.

Tevens moet je niet onderschatten dat de consument meer verlangd van een single device.
Vroeger vond men sms al heel wat nu is mobiel internetten de normaalste zaak. In de toekomst zal deze nog veel meer taken op zich moeten kunnen nemen. Denk aan holografie en interactie daarmee. En zoals het artikel al werd genoemd medische toepassingen.
Inderdaad. Ik ga zelf upgraden omdat ik als dev met meerdere vm's moet testen (browsers) en het wel zo handig is om niet te hoeven wachten op de boot van de vm's. Nu moet ik nog ze 1 voor 1 draaien, straks kan mijn machine er 4 tegelijk aan.

Maar dat is echt een uitzondering. Mijn huidige pc van 2008! zou nog jaren voldoen voor bijvoorbeeld mijn ouders. En dat is met een athlon 2 en Linux.
De sterke groei qua snelheid is er denk ik (zeker in de PC markt) wel uit, in telefoons zie je die ontwikkeling nog steeds wel terug. Wat echter steeds belangrijker wordt is het energieverbruik van de chips: hoe vaak moet jij je telefoon opladen en hoe vaak zou je dat willen doen? Hoe zwaar is je laptop en zou je die accu (zwaarste onderdeel) niet willen inruilen voor een kleinere variant met dezelfde gebruikstijd.
In de chipswereld geld dat kleiner is zuiniger en dat wordt steeds meer een verkooppunt.
Desktopprocessoren zijn slechts een fractie van de totale chipproductie. Een wat grotere fractie als je kijkt naar waar de nieuwste technologiën voor worden gebruikt, maar dan nog steeds. als je toch naar desktops kijk, SSDs zijn pas net begonnen aan hun doorbraak, en in het algemeen flash chips mogen nog een stuk kleiner worden (oftewel grotere capaciteit bij gelijke afmetingen).

De wet van Moore wordt algemeen ook gezien als een self-fulfilling prophecy: Geen van de grote chipfabrikanten wil achterlopen op de concurrentie, en dus wordt er een planning gemaakt om de Wet van Moore te volgen.
Heel interresant en zelfs voor een leek goed te volgen. Complimenten Willem.

Verder niets bij te dragen, anders dan dat ik met smart wacht op wat de toekomst ons gaat brengen. :-)

[Reactie gewijzigd door 360Degreez op 23 juli 2024 06:29]

Mooi en duidelijk artikel.

Ik ben echter wel benieuwd naar de nieuwe materialen zoals grafeen en hoever we daar weer in de toekomst mee vooruit kunnen. Wellicht is hier nog niet zoveel over te vertellen omdat dit nog in beginfase staat.
Mij rest de "leek" vraag, waarom moet de CPU op hetzelfde formaat blijven? De CPU in een PC is zowat het kleinste onderdeel. Wat zou het uitmaken als deze 4 keer zo groot werd? of dat er 2 chips op een mobo gemonteerd worden? Of 2 keer zo dik.

Of levert de afstand tussen de transistors er dan voor dat er zoveel verlies optreed dat het niet meer rendabel is?
In een pc is er inderdaad veel ruimte voor een cpu. Maar ik andere toepasingen is dat niet het geval. Zo wil je in een telefoon zo min mogelijk ruimte innemen maar er zijn gevallen waar het nog kleiner moet. Zo word er veel onderzoek gedaan naar micro robotjes voor in de geneeskunde en ook is compactheid essentieel in the universe of things. DIt betekend dat allerdaagse voorwerpen worden verbonden met het internet. Het is nou niet bepaad handig als je portomonee een chip krijgt wat de portomonee 2 keer zo dik maakt. De samenleving heeft behoefte aan zo klein mogelijke chips die zo sterk mogelijk zijn.
Daarnaast is yield-loss een probleem bij grotere dies: als er 1 defect per wafer aanwezig is, en deze wafer bevat 100 cpu's: dan heb je 1% yield loss. Maar als je 1000 kleine cpu's op diezelfde wafer maakt (veel kleiner dus) dan heb je met 1 defect slechts 0.1% yield loss.
Vergeet ook de lichtsnelheid niet. Het hebben van meerdere processoren is al heel snel kosten efficiënter. De meeste moeite zit'm in data rond laten vloeien, meer dan echte rekentaken als de benodigde informatie er eenmaal is.
Lang niet alle data hoeft tegenwoordig helemaal rond te vloeien in een cpu omdat er steeds meer cores en parallele ALUs enzo in gestopt worden. Er zijn ook mobo's met dual of zelfs quad sockets en dat werkt ook ondanks dat er nog veel meer afstand tussen de cpu's zit.
Parallellisme staat inderdaad toe dat er meer werk wordt gedaan. Dat versnelt enkele taken echter alleen zoveel als dat ze in kleinere taken kunnen worden gesplitst. Daarmee is het een strategie om het feit dat het niet sneller kan te managen. Deze strategieën kosten ook energie en schakelingen en leveren geen simpel beschrijfbare versnellingen.

Het hebben van meerdere sockets is dus kosten efficiënter dan het hebben van een 4 maal zo grote CPU. Dat is volledig in lijn met wat ik zei.

Het hebben van meerdere cores levert meer winst op dan het maken van een grotere core. Sterker nog, het hebben van een grotere core zou wel eens helemaal geen snelheidswinst kunnen leveren.

Het is een beetje meta zo. Als we slimmere instructies zouden kunnen maken die beter geheugen kunnen "prefetchen" en slimmer om kunnen gaan met geheugen hoeven we alleen nog de software zo te schrijven dat parallel mogelijker wordt. Dit is de lijn waarlangs alles nu het meeste verbeterd.
Bedankt voor de uitleg. Helaas kan ik reacties op mijn eigen posts niet omhoogmodden. :)
Nou de fysieke ruimte die een onderdeel inneemt is maar één van de motieven, alhoewel de pc natuurlijk wel zo ongeveer het ongelukkigste voorbeeld is, veel andere plekken waar dit soort technologie wordt toegepast zijn namelijk kleiner zoals CvR_XX al schreef.

Een tweede factor is dat met een dunnere chip het energieverbruik en de warmteproductie ook zakken (deze grootheden overlappen grotendeels). Daarmee kun je dan weer op verschillende manieren je voordeel doen, langere accu, langere levensduur van deze en omliggende onderdelen, lagere energiekosten,

[Reactie gewijzigd door abacaxi op 23 juli 2024 06:29]

Helemaal mee eens, interessant en leesbaar verhaal waar ik veel van opgestoken heb, mooi werk!
Niet de makkelijkste kost, maar toch heel netjes en duidelijk beschreven! ^^ Interessant om te lezen ook, complimenten!
Mapper claimt met hun E-Beam lithografie uiteindelijk ook kleiner te kunnen gaan dan EUV-Lithografie.
Dat kunnen ze ook. e-beam kan features schrijven met een grootte van 5nm. Dat is ook de spec waarmee wij [schaamteloze reclame] van Vistec Lithography / Raith onze machines specificeren[/schaamteloze reclame].
Erg interessante tekst die ook voor iemand die niet uit het vakgebied komt goed toegankelijk is.

Tweakers heeft om de zoveel tijd weer eens zo een interessant en geheel uitgeschreven artikel. Ik ben altijd wel een fervent lezer van die artikelen.
Hm, als er eenmaal op 10nm of kleiner overgestapt word, is dan de tijd daar om de South Bridge in de Soc te integreren...? Dan wordt het produceren van moederborden in elk geval weer [iets] goedkoper..... :)
Ik hoop wel dat er uiteindelijk nog alternatieven voor het zeldzame Germanium worden gevonden als vervanger voor silicium. Als we zo'n zeldzame metalen in grote hoeveelheden gaan nodig hebben, ziet het er niet goed uit voor de prijzen van cpu's..

Op dit item kan niet meer gereageerd worden.