Paar kanttekeningen (naast de al genoemde):
Dat is er natuurlijk va uitgaande dat de processen zullen werken zo als verwacht en dat de snelheid van nieuwe chips en nieuwe process stappen ongeveer gelijk blijft met het verleden.
Bedoel je de "snelheid van verkleining", waarbij elk volgend procedé een sqrt(2) ~= 0,7 keer zo grote feature size heeft als het voorgaande? Dat zal nog wel even zo blijven ja, waarschijnlijk tot het moment dat verder verkleinen helemaal niet meer lukt.
Wanneer dat is blijft nog even de vraag...De huidige chips met hun verbruik van al snel enkele honderden watts onder load kunnen moeilijk nog heel erg veel meer gaan verstoken. Met een kleiner procede kan men meer transistors op een chip kwijt die daar naast ook minder energie nodig hebben en dus zou men een chip kunnen maken die ongeveer de zelfde prestaties levert als de top chips van vandaag terwijl deze een stuk kleiner (en dus goedkoper is) en ook nog eens minder energie nodig heeft. Of natuurlijk een chip die veel betere prestaties levert even groot is en net zo veel energie nodig heeft.
Tot nog toe is het gebruikelijk dat de extra transistoren het lagere verbruik per transistor meer dan compenseren: het verbruik gaat steeds maar omhoog. Ik zie geen reden om aan te nemen dat daar, dankzij een nieuw procedé, verandering in gaat komen. Dan kun je misschien beter je hoop vestigen op Intel's "3D fin" transistoren; het is nog even wachten op de eerste echte producten (en echte resultaten), maar het klinkt veelbelovend.
De CPU zal weinig echte verbetering laten zien de af gelopen paar jaar zijn de chips wel eens waar steeds een heel klein beetje sneller geworden maar de echt groei is er uit. De stappen van 2MHz naar 100MHz en toen naar 500MHz, 1GHz en 3GHz etc kunnen simpel weg niet meer gemaakt worden en dus is de enige echte verbetering die je nog ziet het optimaliseren van steeds meer veel voorkomende opdrachten met behulp van gespecialiseerde circuits en dus meer transistors.
En verdere verbeteringen aan de out-of-order machinerie, betere branch prediction, meer cores, ... . CPUs versnellen door de kloksnelheid op te voeren is al een tijd uit de gratie, maar toch worden ze nog steeds sneller. Zeker zodra de compiler-bouwers erin slagen om code automatisch te parallelliseren (en dus automatisch van meerdere cores gebruik te kunnen maken) zullen de voordelen van vele cores echt duidelijk worden. (Helaas is het extreem niet-triviaal om die compilers te maken...)
De eerst volgende echte sprong voor de processor is als grafeen eindelijk met de huidige apparatuur verwerkt kan worden zonder grote aanpassingen. Op dat moment zullen we al snel een sprong zien van de huidige 3GHz naar 10GHz en dan snel door naar nog veel sneller waar door de CPU eindelijk weer echt vooruit kan.
Probleem 1) Ik hoop dat we nog een paar andere sprongen voorwaarts tegemoet kunnen zien, wat grafeen laat nog wel even op zich wachten vermoedelijk.
Probleem 2) Ok, stel dat CPUs nog veel hoger gaan klokken, dan gaan ze alleen maar lopen idlen terwijl ze wachten op het geheugen. De helft van je CPU bestaat nu al uit caches, als CPUs opeens nog veel sneller worden, zonder dat het geheugen eenzelfde boost krijgt, dan ga je nog veel meer cache nodig hebben. Bovendien, zelfs al wordt geheugen sneller, een belangrijk deel van de latency wordt nu al veroorzaakt door propagation delay op de data paden tussen de CPU socket en de geheugen banken en daar is gewoon geen ruimte meer voor verbetering; die signalen lopen met de snelheid die ze hebben en dat kun je niet opvoeren. Ook de paden korter maken is nauwelijks mogelijk, het RAM zit al vlak tegen de CPU socket aan.