Het Imec Technology Forum
Hoe ziet technologie er in de toekomst uit? De meeste techfabrikanten weten wel hoe de rest van hun jaar, en meestal ook nog wel het komende jaar, eruit ziet. Maar hoe kijk je verder vooruit? Want om daadwerkelijk aan de toekomst te bouwen, moet je verder dan vijf jaar vooruit kijken. En dat is juist waar bijna elke voorspelling de mist in gaat: hoe verder je vooruit kijkt, des te groter de kans om er totaal naast te zitten. Kijk maar eens naar de retro-futuristische beelden van science fiction-films uit de vorige eeuw. Of de vliegende auto's uit Back to the Future. Als we sommige toekomstvisies uit het verleden mochten geloven, dan zou onze huidige samenleving er superfuturistisch, utopisch en vooral compleet anders dan de werkelijkheid uitzien.
Toch is dat vooruit kijken, een visie ontwikkelen, problemen en knelpunten voorzien en met die visie nu al werken om problemen van later op te lossen, cruciaal om aan de toekomst te werken. En dat is wat bij het in Leuven gevestigde onderzoeksinstituut imec gebeurt: samen met hun partners werken de onderzoekers daar aan een toekomstvisie en ontwikkelen ze daar de techniek die nodig is om die te realiseren. Niet voor niets is het instituut een belangrijke kweekvijver voor de technologie van tech-giganten als Intel en Samsung: de toekomst van de halfgeleiderindustrie wordt hier voor een groot deel uitgestippeld.
Technologie beperkt zich echter niet tot kleinere transistors: het is inmiddels volledig verweven met onze samenleving, en de rol die het daarin speelt wordt alleen maar groter. Zo is technologie cruciaal om een steeds verder vergrijzende bevolking gezond te houden. Voedsel en goederen zouden zonder geavanceerde technologie nooit goedkoop en massaal genoeg geproduceerd kunnen worden om de steeds groeiende bevolking in stand te houden.
Elk jaar presenteert imec op zijn Imec Technology Forum, kortweg ITF, de laatste stand van onderzoek op verschillende gebieden van technologie. En net als eerdere jaren waren wij ook dit jaar weer aanwezig om meer te leren over de toekomstvisie van imec en zijn partners. Allereerst duiken we in de technologie van alsmaar kleiner wordende transistoren, maar waar dat steeds moeilijker te realiseren is. Daarna kijken we naar de rol die technologie in onze gezondheid kan spelen: we kunnen wel honderd jaar oud worden, maar hoe blijven we gezond en is voorkomen dan beter dan genezen? Verder kijken we hoe imec denkt al die rekenkracht en datacentra van energie te voorzien: groene stroom en accu's moeten de toekomst van prik voorzien.

Not so happy scaling
We hebben in 2013 voor het eerst imec's ITF bijgewoond en destijds was de verwachting dat voor de 7nm-node zogeheten III-V-halfgeleidermateriaal nodig zou zijn. Ook zou volgens de toen geldende wijsheid bij 10nm-chips euv ingezet moeten worden, en bij 7nm zou euv alweer uitgefaseerd worden. Dankzij voortschrijdend inzicht, en een niet-aflatende zoektocht naar meer kostenefficiënte chipproductie, is dat beeld redelijk achterhaald gebleken. De huidige realiteit, tenminste die van TSMC, leert namelijk dat voor 7nm nog 193i-lithografie gebruikt kan worden. Pas bij een tweede generatie 7nm-chips gaat TSMC naar euv overstappen, terwijl Samsung wel euv voor de 7nm-node zou gaan inzetten en ook Intel zou voor 7nm euv gebruiken. Overigens is Intels geplaagde 10nm-procedé in grote lijnen equivalent aan de 7nm-node van andere foundries, en daarvoor gebruikt ook Intel enkel 193i-lithografie.
Volgens de huidige stand van zaken kunnen we echter nog wel even vooruit met siliciumhalfgeleiders, maar dat blijft niet in de huidige vorm met finfets, tenminste, niet voor alle transistors. De snelle logic-transistors, grofweg de hardware die in processorcores gebruikt wordt, kunnen nog wel enkele jaren met siliciumtransistors gemaakt worden. Daarvoor blijft euv, maar vanaf de 3nm-node wel met high na-optica, inzetbaar. Dan is het wel zaak om de vorm van de transistors aan te passen. Waar finfets nu nog toereikend zijn, zullen eerst minder maar hogere ribben gebruikt worden, die later platgelegd worden, en dan nanosheets genoemd worden. Die kunnen, analoog aan meerdere ribben van finfets, gestapeld worden voor meer oppervlak van de gates.

Dergelijke transistors worden nanosheet-fets genoemd en hebben net als finfets nog p- en n-fets. Voor de 5nm- en 3nm-nodes zou dat een alternatief voor huidige finfets zijn, hoewel finfets nog wel in low-power toepassingen ingezet zouden worden. Een verdere evolutie, rond de 2nm-node, zouden forksheets zijn, waarbij p- en n-nanosheets gekoppeld worden en zo ruimte besparen. Nog een stapje verder worden de p- en n-sheets bovenop elkaar gestapeld, wat nog kleinere transistors mogelijk maakt. Dergelijke transistors worden cfets genoemd.
Voor nog verdere scaling zouden verticale nanowires of alternatieve technieken, zoals meso overwogen worden. Dat laatste is een afkorting voor magneto-electric spin-orbit-transistors: een type transistors dat op 100mV zou werken en zo een tien tot dertig keer betere power-performance-verhouding dan cmos mogelijk zou maken. Ook majority gates, bestaande uit meerdere gates die werken middels het spintronics-principe, zouden een optie zijn, terwijl een wolfraamzwavellegering, WS2, als 2d-materiaal onderzocht wordt.

Voor geheugen wordt gekeken naar sot-mram, ofwel spin-orbit torque mram, als opvolger voor sram. Dat lijkt wat op een variant die eerder als potentiële opvolger was aangewezen, stt-mram, maar is sneller en zuiniger. Ook zouden reken- en geheugenlogica gecombineerd kunnen worden in compleet nieuwe architecturen, zoals neuromorfische processors. Die lijken op neuronen, in die zin dat de reken- en opslagcapaciteiten in één structuur zijn verenigd.
Design-scaling
De scaling van de transistors zelf is echter maar een deel van het verhaal, want om elke node weer efficiënter te produceren, zijn veel meer innovaties nodig. Vroeger was scaling nog relatief eenvoudig en verdubbelde de transistordichtheid ruwweg elke twee jaar met gelijke kosten, een fenomeen dat ook wel bekend staat als de Wet van Moore. In het begin van deze eeuw werd dat steeds lastiger en verdubbelde de transistordichtheid weliswaar nog elke twee jaar, maar dat ging wel gepaard met steeds hogere kosten. Zo moest rond de 20nm-node double patterning worden ingezet, wat duurdere wafers tot gevolg had, en rond de 14nm-node moesten finfets aan de bak om scaling vol te kunnen houden. Inmiddels zitten we op de 10nm- en 7nm-nodes en worden de kosten opgedreven door niet double- maar multi-patterning en lopen de kosten per wafer snel op.

Inmiddels zijn we aanbeland in een periode waar het uniform verkleinen van transistors niet meer de slimste methode is om snellere chips te produceren, maar waar het ontwerp van de chips, of producten, hand in hand gaat met technologische vooruitgang. Dat wordt dtco, of design-technology co-optimization genoemd en betekent dat het ontwerpproces van halfgeleidertechnologie nog complexer wordt. Vanuit de andere kant benaderd, vanuit het totale systeem, kunnen zaken als geheugentypes, interconnects en koeling geoptimaliseerd worden. Dat wordt logischerwijs stco voor system-technology co-optimization genoemd. Om toekomstige technologie optimaal door te ontwikkelen worden deze twee ontwerpfilosofieën gecombineerd en ook op dat snijvlak beweegt imec zich.

Een van de methodes om meer rekenkracht in een kleine footprint te krijgen, is 3d-integratie van chips. Bij sommige implementaties, zoals nand-chips, kan dat door simpelweg plakjes silicium te stapelen en ze extern te verbinden. Inmiddels wordt nand ook met tsv's, oftewel through-silicon via's, met elkaar verbonden en natuurlijk worden strengen geheugencellen op elkaar gestapeld. Dergelijke system-in-package- en stacked ic-constructies hebben een relatief lage interconnect-dichtheid omdat de draden of tsv's relatief groot zijn. Wil je chips, of eigenlijk dies, met een hogere snelheid met elkaar verbinden, dan heb je system-on-chip-ontwerpen nodig.
Die kennen we natuurlijk al lang, onder meer van smartphones, met 2d-ontwerpen, maar inmiddels worden ook 2,5d-socs gemaakt. Bij AMD en Intel zijn bekende voorbeelden de Zen-chips, waarbij chiplets met elkaar via een interposer verbonden zijn, en Intel die zijn emib-technologie ontwikkelde en daarop voortborduurt met zijn Foveros-ontwerp. Hoe fijner de contactpunten tussen de dies of wafers onderling of met een interposer zijn, hoe hoger de bandbreedte. Het nadeel is dat kleine puntjes erg lastig te maken zijn, en nog veel lastiger correct te verbinden zijn: daar is immers een precisie in positionering voor nodig op micrometer-schaal.

Bij imec wordt gewerkt aan het kleiner maken van die tsv's en microbumps om wafers of dies met elkaar te verbinden, wat tot 3d-stacking van chips moet leiden. Zo kan een wafer met geheugen via wafer-to-wafer-bonding op een wafer met rekenlogica worden gestapeld, met eronder een power delivery network om stroom naar alle transistors te krijgen. Dat laatste is namelijk een cruciaal punt en wordt momenteel met meerdere metaallagen bovenop een die gerealiseerd. Met zo'n stroomdistributienetwerk bovenop de logica kun je natuurlijk geen tweede wafer met geheugen bovenop een logic-wafer plakken, maar met een buried of backside pdn kan dat wel.
Nu is het koelen van de huidige chips al lastig, en die zijn over het algemeen 2d. Met 3d-chips zou je op een klein oppervlakte de warmte van meerdere lagen dies moeten afvoeren en dat wordt lastig met een heatspreader en een luchtkoeler. Een oplossing waar men bij imec aan denkt is een zogeheten impingement jet cooler, waarbij water onder hoge druk door kleine kanaaltjes op de hete chip wordt gespoten en zo veel warmte kan afvoeren. Op die manier zou 300W aan warmte van een die van 23 bij 23 millimeter kunnen worden afgevoerd.
Digitale gezondheid
Bij het imec, en tijdens ITF in het bijzonder, speelt gezondheid een grote rol. Daarbij gaat het de onderzoekers niet zozeer om traditionele gezondheidszorg, maar om de rol van technologie daarin. Een van de speerpunten daarbij is niet zozeer het genezen van ziektes en aandoeningen, maar het voorkomen of ze in ieder geval in een veel vroeger stadium diagnosticeren. Ook het bijsturen van leefpatronen zoals eten en beweging, maar ook hoe men met stress omgaat, is deel van die opzet.

Een van de manieren om dat te realiseren, is het construeren van een zogenaamde digital twin, een digitale representatie van jezelf, die gevoed wordt door sensordata. Zo kun je met wearables en zelfs ingestables bijhouden wat je doet en eet. Met een horloge zou bijvoorbeeld continu je hartslag en stressniveau gemonitord kunnen worden, waarbij dat laatste aan je agenda gekoppeld kan worden. Zo kun je inzichtelijk krijgen welke activiteiten je stress opleveren en daar naar handelen. De techniek om dat mogelijk te maken bestaat al, en bij imec, en met name de spinoff One Planet Research, worden daar pilots mee gedraaid.
Iets verder weg is het afstemmen van je dieet op je spijsverteringssysteem. Waar we nu op basis van externe data een dieet kunnen aanpassen, bijvoorbeeld natriumarm bij hoge bloeddruk of nierproblemen, zou dat met sensorpillen veel exacter kunnen. Zo zou je in het spijsverteringskanaal kunnen meten welke voedingsstoffen worden aangeboden, opgenomen en uitgescheiden en zo een gezond voedingspatroon ontwikkelen. Daar zouden ook op maat gemaakte maaltijden bij horen, maar dat is wellicht lastiger te realiseren dan een pilletje met sensoren die je kunt inslikken.
Het idee van de digital twin is dat je geen ziektes hoeft op te sporen en die te genezen, maar zo lang mogelijk gezond blijft en eventuele gezondheidsproblemen in een vroeg stadium gesignaleerd worden. Dat levert in veel gevallen betere behandelbaarheid op: het voorbeeld van vroege kankerdiagnose, waarbij de overlevingskansen sterk toenemen naarmate de ziekte in een vroeger stadium ontdekt wordt, is waarschijnlijk bij iedereen bekend.
Dna: probleem en oplossing
Om daadwerkelijk een digital twin te realiseren en met name genetische afwijkingen in een vroeg stadium te onderkennen, zou op gezette tijden het genoom van iedereen, niet alleen zieken, in kaart gebracht moeten worden. Die mogelijkheid begint dichterbij te komen, want waar ten tijde van het het Human Genome Project, die de oudere generatie onder ons wellicht nog herinnert, kostte het sequencen of in kaart brengen van het menselijk dna nog 10 miljoen dollar en duurde het ruim tien jaar. Inmiddels zijn de kosten gereduceerd tot slechts ongeveer duizend dollar per genoom en kost het sequencen nog maar dagen.
Dat duurt nog te lang en is te duur voor een halfjaarlijkse checkup bij de dokter waarbij je dna geanalyseerd wordt, maar imec werkt aan technieken om de kosten te reduceren tot een tientje per genoom. Dat moet volgens imec via nanopores in transistors kunnen, waarbij die technologie zich uiteraard leent tot gigantisch parallellisme. Een chip met miljoenen van dergelijke nanopores maakt het uitlezen van genetisch materiaal sneller en dus kunnen de kosten samen met de wachttijd omlaag.

Dat is nog maar een kant van het verhaal, want wat moet je moet de berg aan data die het sequencen van een genoom oplevert? Ter indicatie: de resultaten van het eerder genoemde Human Genome Project werden jaren na de eerste publicatie nog aangevuld. Daar komt bij dat de data die het sequencen oplevert ongeveer 300GB bedraagt. Als dat van alle mensen opgeslagen moet worden, niet één keer, maar honderden keren om die eerder genoemde checkups te realiseren, dan geeft dat een dermate grote berg aan data dat er niet genoeg datacentra tegenop te bouwen zijn.
Een van de uitdagingen is dan ook het slim analyseren van al die data, en alleen de interessante data eruit te filteren en die op te slaan. Daar zijn weer technologische oplossingen voor nodig, en bij imec en partners wordt daarom gewerkt aan ai-algoritmes om relevante data te filteren en die toegankelijk te maken. Want aan een serie ATGC-codes heeft een mens natuurlijk vrij weinig, maar doktoren hebben data nodig die verschillen met eerdere metingen en met een database van bekende afwijkingen laat zien. Dat levert overigens niet alleen technische vraagstukken, maar ook ethische problemen op, om over versnippering van data bij instellingen en binnen landsgrenzen nog maar te zwijgen.
Datzelfde dna is overigens ook voor andere doeleinden in te zetten, waarbij het zelfs een oplossing kan bieden voor een van de problemen die het veroorzaakt: de data-explosie. Als een cel met dna namelijk zo veel data bevat, waarom zou je dna dan niet kunnen gebruiken om data in op te slaan? Daaraan wordt binnen andere samenwerkingsverbanden, onder meer tussen imec en Iridia, gewerkt. Het opslaan van data in dna is vooralsnog erg lastig en tijdrovend, maar er wordt flinke vooruitgang geboekt. Waar in 2012 nog net 650kB werd opgeslagen, was dat al enkele tientallen MB's in 2016 en enkele honderden MB's in 2018. Inmiddels is er zelfs al een gigabyte aan data in dna opgeslagen.

Het opslaan en uitlezen van die data is wel lastig, want het is een zogeheten nat proces: er zijn oplosmiddelen en andere vloeistoffen nodig, met pompjes en pipetten. Iridia's systeem, ontwikkeld met imec, maakt gebruik van chips met microscopisch kleine kamers waarin vloeistoffen met bouwstenen opgeslagen worden en een assemblagekamer, waar dna in de gewenste volgorde in elkaar wordt gezet. Net als bij het uitlezen van het menselijk genoom kan door halfgeleidertechnologie in te zetten een hoge mate van parallellisme gehaald worden. In een eerste versie moet Iridia's systeem terabytes tot petabytes per dag kunnen schrijven, en een volgende iteratie zou lezen en schrijven op één chip mogelijk moeten maken. Die technieken zouden nog respectievelijk zes en acht jaar op zich laten wachten, maar op langere termijn zou het bedrijf zelfs data in levende organismen willen coderen die zelf weer sensordata naar dna schrijven. Zo zouden goedkope, levende sensornetwerken gebouwd kunnen worden.
Energiebehoefte
We hebben het over een belangrijk aspect van de toekomst nog niet gehad: hoe zorg je voor voldoende energie om al die rekenkracht, sensornetwerken, ai-hardware en datacentra van stroom te voorzien? En dan hebben we het nog niet over transport, zowel van data als van fysieke goederen, gehad. Om een aspect eruit te lichten: de schattingen over het wereldwijde verbruik van energie voor datacentra lopen uiteen, maar de energieconsumptie bedraagt enkele procenten van de totale energieconsumptie.
Als we op het huidige niveau van dataproductie zouden blijven, zou dat misschien niet zo'n probleem zijn, maar volgens huidige prognoses zitten we aan het begin van een explosie aan data. Waar we nu jaarlijks ongeveer 75 zettabyte aan data produceren, stijgt dat de komende jaren tot meer dan het dubbele in 2025. Vooral medische data en sensordata, waaronder die van slimmere auto's, dragen bij aan die groei, maar natuurlijk zijn we ook zelf verantwoordelijk met steeds meer foto's en video's in steeds betere kwaliteit.
Bij imec wordt daarom hard gezocht naar energiebronnen die groen zijn, waarbij onderzoek naar fotovoltaïsche cellen veel aandacht krijgt. Met name het gebruik van perovskiet in zonnecellen zou het rendement laten toenemen, zonder veel extra kosten. Maar een zonnepaneel met hoog rendement kun je niet overal kwijt, dus zoekt men ook naar andere methodes om pv, of photovolaics, te integreren in de samenleving. Zo worden zeer transparante elektrodes ontwikkeld die in ramen verwerkt kunnen worden en zo zonnepanelen niet alleen op een dak mogelijk maken, maar op elk willekeurig oppervlak van een gebouw.
Overigens zouden betere klimaat- en weermodellen weer een rol kunnen spelen bij voorspellingen over de verwachte opbrengst van dergelijke vormen van alternatieve energie. Zo kan het energienet worden afgestemd op de verwachte instroom van zonne- of windenergie en het verbruik. Ook hier zouden ai-algoritmes weer aan het werk zijn om de vraag te voorspellen, maar zouden quantumcomputers betere weermodellen leveren dan klassieke computers. Ook zou het, volgens voorstanders van quantum computing, mogelijk moeten worden om speciale materialen, zoals kamertemperatuursupergeleiders, of medicijnen op bestelling te simuleren en mogelijk te maken. Daarmee zou de energiebehoefte ietwat gereduceerd kunnen worden.
Nu is energie opwekken natuurlijk hard nodig, maar het moet ook bij datacentra en andere eindgebruikers komen. Voor het bulktransport zouden supergeleiders op termijn ingezet kunnen worden, maar veel dichter bij huis is de accu. De rol van accu's neemt steeds verder toe en daarmee worden hun beperkingen steeds nijpender. Denk maar aan het bereik van een elektrische auto, of hoe lang je telefoon meegaat op een acculading. Nu lijkt de ontwikkeling van lithiumion-accu's misschien tergend langzaam te gaan of zelfs stil te staan, maar toch is de capaciteit in 25 jaar verdrievoudigd. Dat is alleszins geen Moore's Law, maar er zit desondanks vooruitgang in.
Die vooruitgang is niet bijster snel en loopt binnenkort tegen praktische grenzen aan. Natte lithiumion-accu's hebben waarschijnlijk hun maximaal haalbare capaciteit op ongeveer 800Wh per liter en daar komen we inmiddels aardig in de buurt. Een overschakeling naar solid-state-accu's, met een vast elektrolyt in plaats van (semi-)vloeibaar elektrolyt kan de capaciteit opschroeven tot ongeveer 1000Wh per liter. Dan kan worden overgestapt op metallisch lithium voor de anodes. Imec maakt inmiddels prototypen van dit soort accu's door een vast elektrolyt te ontwikkelen dat tijdens productie vloeibaar is: zo is het procedé compatibel met de huidige natte werkwijze, maar stolt het elektrolyt na verwerking om een veilige accu met lithiumanodes te maken.
Tot slot
We hebben inmiddels gezien hoe imec aan vrijwel alle aspecten van onze toekomstige samenleving werkt, en dan hebben we nog tal van voorbeelden weggelaten. Zo wordt ook volop onderzoek naar robots in productieomgevingen gedaan, zodat mensen minder gevaarlijk werk hoeven doen en bovendien veiliger met robots kunnen samenwerken. In smart cities worden sensornetwerken uitgerold om de luchtkwaliteit en knelpunten in het verkeer vast te leggen, met proeven in diverse grote steden als Antwerpen, Dublin en op kleine schaal zelfs Amsterdam.
Maar hoewel technologie heel veel mogelijkheden biedt, is de vraag wanneer en hoe dat gerealiseerd kan worden. Daarbij is het vraagstuk over scaling, hoe complex ook, een van de makkelijkste. Dat is puur technologie en kan worden doorontwikkeld. Als we met nanosheets en de daaruit volgende forksheets niet meer uitkomen, kunnen we naar post-cmos-toepassingen zoals meso zoeken. Het aantal bedrijven dat dit soort onderzoek en straks de productiefaciliteiten kan betalen krimpt echter al tijden. Zo zagen we meest recent GlobalFoundries die niet langer agressief kleinere chips nastreeft omdat de miljardeninvesteringen te hoog zijn.
De financiele maar vooral de maatschappelijke kanten van wat imec voorspiegelt zijn lastiger te realiseren, zo kun je je voorstellen. Onderzoek naar betere methodes voor dataverwerking en opslag, en voor bijvoorbeeld het genetisch onderzoek, wordt ongetwijfeld gefinancieerd, maar wie gaat het voor de gewone patient betalen? De tien dollar per genoom die in het verschiet ligt, is nog maar een klein deel van het kostenplaatje: de opslag, verwerking maar ook de interpretatie en eventueel noodzakelijke therapeutische behandelingen zijn duur, zeker als het om een bevolking van 7 miljard gaat.
Een optimistische kijk op zo'n mede door imec mogelijk gemaakte toekomst zou een utopische samenleving waarin iedereen oud wordt met behoud van gezondheid in het vooruitzicht stellen. Maar aan de andere kant kan zo'n toekomst slechts voor een kleine groep zijn weggelegd: wie geld heeft kan immers gezondheid kopen. En dan hebben we het niet eens over de haalbaarheid van een samenleving waarin iedereen honderdvijftig jaar oud wordt: zelfs met sterk verbeterde productiemethoden in de landbouw en industrie gaat het maken van gepersonaliseerde levensmiddelen een flinke kluif worden en trekt de productie van goederen een zware wissel op grondstoffen, energie en vervoer.