Er is, zover ik weet, geen vast begrip van de maat van een chip. Het is niet zo dat de process node die bepaald wordt door fabrikanten, nergens op slaat, maar het is niet één op één te vergelijken.
Tweakers heeft een
mooi artikel geschreven over hoe de node bepaald werd/wordt en daar wordt het één en ander in detail uitgelegd.
Dat is overigens ook één van de redenen dat Intel erg achterloopt in de
nanometer-wedloop:
... Alle chipfabrikanten zijn in de loop der tijd creatief omgegaan met hun procesbenamingen, maar Intel was hier doorgaans toch wat strikter in dan de andere partijen.
De verkleining was bij een nieuwe Intel-node vaak groter dan bij de concurrentie, wat er bijvoorbeeld toe leidde dat Intels 10nm-procedé wat specificaties betreft veel meer lijkt op de 7nm-nodes van TSMC en Samsung dan op hun 10nm-nodes. ...
Wat mij betreft: het is nattevingerwerk, dus als je beweert dat processor a beter is dan processor b omdat de proces-node kleiner is ... dan is dat zeker niet per definitie waar. Daarom had Intel ook een 14nm++++ node: binnen een node is er aardig ruimte voor rek. Hoe leg je dat uit: uiteindelijk is een chip low level een reeks van kanaaltjes met een materiaal met natuurkundige eigenschappen, wat de werking van de elektronica realiseert.
Er zijn veel aspecten van het productieproces die invloed uitoefenen op het eindproduct. Het chipontwerp wordt geprojecteerd met een zogenaamd reticle, alsof je een dia projecteert. Dat ontwerp kan met minieme aanpassingen betere yields realiseren: door dat ene lijntje op het reticle in het midden wat dikker te maken, of de randjes minder scherp, juist scherper dan zal dat invloed hebben op het eindproduct.
Als je tijdens je totale productieproces er achter komt dat een bepaald lijntje of gedeelte van een chip bepaalde problemen heeft en die specifiek in het ontwerp kan tackelen, zal dat betere yields opleveren. Yields zijn hierbij niet alleen meer werkende chips, maar ook betere (snellere/zuinigere) chips. Of het concrete voorbeeld met de lijntjes op het reticle daadwerkelijk werkt, daarvan moet ik je het antwoord schuldig blijven, maar het zal wel iets vergelijkbaars zijn.
Naast dat heb je meer knoppen waar je aan kan draaien tijdens het procuctieproces. Denk aan betere resist (de chemische vloeistof waarin de lijntjes gerealiseerd worden die later de kanaaltjes vormen), belichten met een andere energie, multiple patterning, andere manier van uitlijnen in de machine, de stabiliteit van drukken/flows die de machine aangevoerd krijgt vanuit de fabriek/cleanroom, strengere reinheidsmaatregelen zodat partikels minder invloed hebben op de yields, enzovoort, enzovoort, enzovoort, enzovoort

.
Ja, er zit veel, heel erg enorm veel complexiteit in iets simpels als verschillende twee-dimensionale ontwerpen op elkaar bouwen. Ik ben ook erg benieuwd waar we over tien, twintig (of dertig) jaar staan qua interesse voor nanometers. We komen een keer de grens tegen van een molecuul-/atoomgrootte en de vraag is hoe we dan chips verder gaan ontwikkelen. Meer lagen? Meer verfijning/uitknijpen van je proces-node? Andere materialen? Een combinatie van dit alles? Gaan we ooit een grens zijn wat technisch haalbaar is in een bepaald volume? Lopen we tegen een grens aan hoeveel rekenkracht een processor per kubieke millimeter kan leveren en zullen we dan steeds grotere processoren krijgen, om meer rekenkracht te realiseren?
Wat betreft nanometers: eerlijk gezegd doet het er niet toe. De proces-node is net als MHz en pk's een specificatie, welke eigenlijk nooit een doel zal zijn.
Uiteindelijk gaat het er om wat het product doet in de praktijk. Hoe hoog is de score in een bepaalde benchmark, wat verbruikt het qua energie, wat kost het, hoe snel accelereert de auto naar 100km/uur?