Intel werkt aan meso als opvolger van cmos-transistors

Onderzoekers van Intel en de Universiteit van Berkeley hebben een alternatief voor cmos-transistors in ontwikkeling, gebaseerd op spintronics. De techniek is zuiniger en kan tot kleinere schakelaars leiden.

De onderzoekers wijzen erop dat de cmos-, of complementary metal–oxide–semiconductor-techniek voor transistors al sinds begin jaren tachtig ongewijzigd is, terwijl de transistors zelf op steeds kleinere schaal geproduceerd worden. Bij het zoeken naar een alternatief, of op lange termijn opvolger, richtten ze zich op spintronics, waarbij de spin van elektronen gebruikt wordt als bits.

Het resultaat van het onderzoek is een techniek die werkt door een combinatie van magneto-elektrisch schakelen en spin-orbit transductie, kortweg meso. Volgens de onderzoeksteams vergt het schakelen op termijn tien tot dertig keer minder energie, werkt dit op een spanning die een factor vijf lager ligt dan bij cmos en kan de dichtheid van schakelaars met een factor vijf omhoog. "In aanvulling daarop maakt de non-volatiliteit ultrazuinige standby mogelijk, wat cruciaal is voor moderne computing", stellen ze bij hun publicatie in wetenschappelijk tijdschrift Nature.

Bij de meso-techniek worden de bits gevormd door de magnetische omhoog- en omlaag-spins in multiferroïsch materiaal. Dit is materiaal dat zowel ferromagnetisch als ferro-elektrisch is: het manipuleren van het elektrisch veld leidt tot een verandering van de magnetische staat. De Intel- en Berkeley-teams vonden dat dit ook werkte bij een spanning van slechts 500 millivolt, om de elektronenspin die het magnetisch veld genereert te flippen. De wetenschappers voorspellen dat het mogelijk is de spanning verder te verlagen, tot 100 millivolt.

De techniek is in te zetten voor zowel logic, chips die data verwerken, als geheugen. Het materiaal behoudt zijn staat, ook zonder spanning, wat het tot een kandidaat voor niet-vluchtig geheugen maakt. Volgens de onderzoekers is met name het lage verbruik interessant, omdat verbeteringen hiervoor cruciaal zijn voor de verdere groei van rekenwerk voor kunstmatige intelligentie, internet-of-things en de auto van de toekomst.

De onderzoekers publiceerden hun werk onder de titel Scalable energy-efficient magnetoelectric spin–orbit logic in de december-editie van Nature.

Single crystals of the multiferroic material bismuth-iron-oxide.
Kristallen van het multiferroïsche materiaal bismut-ijzer-oxide.

Door Olaf van Miltenburg

Nieuwscoördinator

04-12-2018 • 15:35

57

Submitter: Rudie_V

Reacties (57)

57
57
29
8
1
24
Wijzig sortering
Het is mooi dat deze transistors zuiniger zijn en dat de dichtheid omhoog kan. Maar leidt dit ook tot snelheidsverhogingen?
Het verkleinen van de transistors heeft namelijk hetzelfde effect.
Pin me er niet op vast want ik kan een en ander nu niet verifieren echter zover mijn geheugen toereikt is voor de schakelsnelheid van een transistor belangrijk:

1. De fysieke grote van de transistor (beweging van lading en dus weerstanden)
2. De benodigde schakel spanning (deze moet je opbouwen)
3. Het werkelijk lopen van de lading van door de gate

Een hogere dichtheid betekend dat ze kleiner moeten zijn dus 1. zou moeten verbeteren en mogelijk 3.
2. is mogelijk ook beter echter ik zou de standaard schakelspanning in CPU's moeten opzoeken.

Edit: Typo

[Reactie gewijzigd door Nacht op 22 juli 2024 20:30]

De factoren die jij noemt zijn bij het vergelijken van CMOS van belang, maar deze technologie is compleet anders. Er bestond vroeger ook bijvoorbeeld ECL logica, die, ondanks transistoren die even groot als die van CMOS waren, veel meer stroom gebruikte en (destijds) veel sneller was. Hier zouden dus ook bijvoorbeeld grotere transistoren toch spaarzamer kunnen zijn. En omdat erover de snelheid niets gezegd word, en IOT als toepassing genoemd word, neem ik aan dat de snelheid niet zo hoog is als CMOS.
Dacht dat het verkleinen al niet meer voor zuinigheid zorgde door lekstroom? En meer warmte genereren op een kleiner oppervlak heeft ook zo zijn grenzen.
Klopt, maar de lekstroom is een percentage van de benodigde stroom voor de transistoren. Verlaag die stroom, en je lekstroom daalt mee.
Volgens mij ligt het probleem iets anders. Als ik het goed heb is het probleem van de lekstroom niet zozeer de absolute grootte ervan, maar meer dat de transistors zo klein worden dat er al stroom gaat lopen zonder dat er spanning op de gate gezet wordt.
"Lekstroom" is natuurlijk een verzamelbegrip. Je hebt overal lekken, in transistoren en tussen transistoren. Dat mot in alle gevallen doordat de scheidingslaag te dun wordt.

Het idee van een (digitale) transistor is dat je de dikte van de scheidingslaag kunt regelen met de gate-spanning, en daarmee dus de stroom door de transistor. Het lijkt er echter op dat deze "meso" schakelingen fundamenteel anders werken. De transistor-lekstromen zijn dan niet meer relevant, maar het is mij niet duidelijk wat ervoor in de plaats komt.
Ik heb begrepen dat door het verkleinen van CMOS FETs de gate ook kleiner wordt, waardoor het effect van de gate op de geleiding tissen gate en source kleiner is. Dit komt ook door 'lek' capaciteiten. Met bv de finfet wordt het gate oppervlak vergroot waardoor de lekstomen weer wat lager worden
Snelheid is niet alleen GHz.

Het is ook de opbouw/ontwerp van chips en optimaliseren van software.
Intel heeft daar al lange tijd moeite mee. Gpgpu bestaat al lang, maar Intel is daar nog niet comfortabel in, ondertussen heeft oa Nvidia een belangrijke positie ingenomen bij supercomputing,en de ontwikkelingen zijn bij lange na niet gestopt. Zo worden ook steeds meer ASIC/FPGA ontwikkelt met een beperkt aantal doelen, met name AI, zoals in het verleden ook gebeurde met gpu. Die vind je nu ook steeds vaker terug in smartphones. Die worden op veel verschillende fronten steeds sneller, maar verbruiken maar heel weinig.

An-sich een goed initiatief van Intel,
maar ik zie het eerder als een project dat erbij hoort en waarbij eventuele andere inzichten kunnen worden meegenomen voor hun eigen productie. Ik geloof niet dat het serieus zal worden toegepast.

Op dit moment wordt wereldwijd steeds meer geïnvesteerd in fotonische chips die ook een heel laag verbruik hebben en gruwelijk snel zijn. Licht word nu al best lange tijd gebruikt voor data-overdracht, maar een CPU maken komt steeds dichterbij.
nieuws: TU Eindhoven krijgt productielijn voor fotonica-testchips
Heb je echter ook een bron die jouw bewering staaft dat fotonische chips gruwelijk snel zouden zijn en een heel laag verbruik zouden hebben voor CPU achtige taken? Ik kan voordelen van fotonische chips zien bij het routen van glasvezels bijvoorbeeld, of om rechtstreeks een optische PCI bus op je CPU te hebben. Maar voor daadwerkelijke CPU (of GPU) taken zie ik nog geen enkel voordeel van fotonische chips.
Staat oa in de link
https://www.tue.nl/en/new...inationals-of-the-future/

Maar er is meer te vinden,
https://www.technologyrev...g-chips-powered-by-light/


De traditionele CPU ala Intel raakt steeds meer ondergeschikt aan potentieel van andere structuren die je oa terug ziet komen in gpu/ASIC/FPGA. Je kunt je nu al afvragen of de cpu in huidige vorm nog zoveel bestaansrecht heeft.
Omdat CPU nog steeds het meest veelzijdige is. Maar of het nu over CPUs, GPUs, ASICs of FPGAs gaat, allemaal gebruiken ze vergelijkbare structuren waarvoor optische transistoren zover mij bekend gewoon niet geschikt zijn.

Je eerste link is gewoon algemeen pers verhaaltje van dat verbond, zegt verder weinig. Bij de tweede gaat meteen al bullshit alarm af:
In theory, transferring information at the speed of light means such a device could let AI algorithms run hundreds of times faster than today’s best AI chips.
Deze komt elke keer weer terug, en hij blijft gewoon onzinnig. Als eerst gaat in een chip/waveguide/glasvezel licht niet met de snelheid van licht in vacuum, maar beetje trager. Nu 3x raden hoe snel elektriciteit gaat door een chip. Precies, niet met snelheid van licht in vacuum, maar beetje trager. Hoe dat onder de streep zich precies verhoudt durf ik niet te zeggen, maar ik zou niet meer dan 20% snelheidsverschil tussen die twee verwachten. Niet dat die snelheid uberhaupt bijzonder relevant is. Voor veruit het merendeel van de schakelingen is de snelheid waarmee elektriciteit gaat door een koper draadje niet relevant, en worden ze door andere zaken gelimiteerd.

En wie weet kan een optische chip voor specifieke taken wel ideaal zijn. Maar dat zal dan wel een aanvulling zijn op de huidige systemen. Dus naar je CPU en GPU ook een optische accelerator. Of een quantum accelerator. Maar niet een vervanging van wat we nu hebben.
Wat bedoel je niet geschikt.

Een optische schakelaar werkt net zo goed binair. Het grote verschil is dat het niet de beperking heeft dat het ontiegelijke warm wordt. En warmte => weerstand. En daar lopen de huidige chips tegenaan.
Ondanks alle schaalverkleiningen lukt het de producenten niet om verbruik onder controle te houden en lopen ze voortdurend tegen plateaus aan. De cpu’s gaan niet harder dan ongeveer 4 GHz en worden ongelooflijke heethoofden. Er wordt steeds meer uitgeweken naar gpu/ASIC/FPGA omdat die minder veelzijdiger, maar weer vele malen beter zijn in de taken die ze uitvoeren.

En daar kan fotonica en optische chips een steeds grotere rol gaan spelen. Niet alleen op moederbord, maar ook op de chip zelf om multicore met elkaar verbinden.
Een hele cpu opbouwen lijkt op dit moment nog toekomstmuziek omdat de grootste uitdaging op dit moment de schaal is. Maar met hetzelfde budget mag dat geen probleem zijn.
Euhm nee, weerstand veroorzaakt warmte, niet andersom. (Oké een heel klein beetje andersom, maar primair is het dat weerstand warmte veroorzaakt). Wat geeft je het idee dat optische schakelaars niet warm worden? Eén van de populairdere methodes van het maken van een optische schakelaar is door dat te doen met verhitting. Oftewel wel het omgekeerde van het koel houden.

En hoewel thermische problemen natuurlijk zeker een rol spelen bij onze huidige chips, is dat lang niet het enige. Je ziet dat bijvoorbeeld goed terug bij overklokken van videokaarten. Aan het begin kan het power limiet hoger zetten nog wel helpen, maar al snel loop je ertegen aan dat het nauwelijks nog voordelen biedt.

Wat betreft je laatste stuk, daar zie ik ook een potentiele rol weggelegd voor optische circuits. Want op één punt is optisch echt wel superieur aan elektrisch, en dat is communicatie. Dus eerste stap voor bijvoorbeeld een PCI of geheugen bus, en later potentieel ook voor verschillende zaken on-chip. Als ze ooit de optische transistoren goed genoeg weten te krijgen. Maar dat is iets heel anders dan daadwerkelijk een CPU volledig optisch maken.

[Reactie gewijzigd door Sissors op 22 juli 2024 20:30]

In grafeen schijnen electronen zich zonder weerstand te kunnen bewegen door een natuurkundig fenomeen.

Dus grafeen zou best wel de oplossing kunnen zijn.
Dat geldt voor alle supergeleiders. En het praktische probleem is dat we geen supergeleiders op kamertemperatuur hebben, ook grafeen niet. Grafeen komt zelfs niet in de buurt van de beste keramische supergeleiders.
Wat ik heb begrepen is dat je grafeen dus niet hoeft te superkoelen.

De electronen schijnen gewoon altijd zonder weerstand te kunnen bewegen

En geen weerstand is toch geen weerstand? Hoe kan je dan nog meer geen weerstand hebben?
Dat heb je dus verkeerd begrepen. Geen weerstand is inderdaad geen weerstand, en dús een supergeleider. Grafeen is een supergeleider, onder twee voorwaarden: de hoek tussen twee lagen moet ongeveer 1 graad zijn, en de temperatuur moet -269 Celsius zijn (4K). Keramische supergeleiders kunnen makkelijk 20-30 keer warmer zijn
Dat is wel vreemd dan want van carbon nanotubes word ook gezegd dat het geschikt is als halfgeleider maar daar praten ze ook nooit over supergekoelde carbon nanotubes.
Geen last van statische electriciteit, en ik vermoed ook geen of minder slijtage.
En natuurlijk geen interferentie.

Qua snelheid zie ik het voordeel ook nog niet.
Intel is ook zeker wel bezig op GPU en FPGA gebied.
Een (aantal?) jaar geleden hebben ze ook Altera overgenomen en brengen nu ARM+FPGA chips uit. En volgens de nieuwsberichten kunnen we ook een keertje een echte Intel GPU verwachten.

We zullen zien hoeveel fotonische IC's gaan brengen :)
Don't hold your breath. Optische electronica is gigantisch groot vergeleken met CMOS. Dat wordt werkelijk nooit iets buiten optische gegevensoverdracht.
De eerste transistoren waren ook enorm groot ;) niemand had toen ooit gedacht dat we er miljarden op een vierkante centimeter zouden kunnen hebben.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:30]

Maar de golflengte van het licht gaat niet kleiner worden. En de trucjes die ze met belichting hebben toegepast gaan hier niet werken.
Je haalt zaken door elkaar.

Dit heeft wel degelijk nut omdat het toegepast zal worden voor geheugen, ze zijn al bezig met MRAM dat al kleinschalig geproduceerd word.

Dus voor cache is dit een hele goede toepassing.

Bovendien is Intel ook bezig met optische interconnects om de PCI-E bus ermee te vervangen maar dat kan nog wel een tijdje duren.
Hogere dichtheid zou beteken, meer transistors zonder dat er meer ruimte nodig is, wat zou zorgen voor meer snelheid. Ook Moore's wet, De wet van Moore stelt dat het aantal transistors in een geïntegreerde schakeling door de technologische vooruitgang elke twee jaar verdubbelt.
Misschien komt daar met meso eindelijk weer eens gang in, omdat Moore's law al een tijdje van de schaal af is en dus eigenlijk niet meer relevant. Verschillende cores tellen volgens mij niet 1 schakeling(dus 4 core naar 8 core is dus geen verdubbeling).

[Reactie gewijzigd door MrFax op 22 juli 2024 20:30]

Waarom niet? Het is het aantal transistors per oppervlakte wat telt. Dus wanneer je op 1 cm2 1,2,3,100 cores hebt maakt niks uit, als het aantal transistors maar verdubbeld.
Het probleem met CMOS ontstaat eigenlijk door twee problemen voor zover ik weet (en ik haal deze informatie uit een roestige herinnering over de stof van mijn opleiding, dus verbeter me vooral als het fout heb);

1) Een CMOS bestaat uit een complementaire P-kanaal MOSFET en een N-kanaal MOSFET. De twee MOSFETS delen hun gate (de "schakel input"). Wanneer deze input hoog is (een positieve spanning) wordt het uitgangssignaal door de N-kanaal FET aan een positieve spanning gekoppeld. Is de input laag, dan hangt het uitgangssignaal via de P-kanaal FET aan de "negatieve"/GND voeding. Tijdens het schakelen ontstaat er echter zeer kortstondig een moment waarop beide genoeg geleiden om stroom direct van de positieve naar de negatieve kant te laten lopen. Er is dan sprake van een laagohmig pad waar kortstondig veel stroom loopt, met als gevolg ontwikkeling van hitte. Hoe hoger de klokfrequentie, des te hoger de gemiddelde stroom em dus hitteontwikkeling.

2) Het opbouwen en afbouwen van de spanning op die gates neemt tijd in beslag door parasitaire capacitanties in de FETs. Dit limiteert de kloksnelheid van de schakeling.

Aangezien het hier gaat om het opbouwen van magnetische velden zal dat mogelijk een nieuwe belemmering kunnen zijn in klokfrequentie, maar als ik een gokje moet wagen zou ik zeggen dat punt 1 en 2 hiermee een minder grote rol spelen.
Exact weet ik het ook niet; maakr CMOS heeft inderdaad last van 'lekstroom'.

Dit is de hele reden dat FD-SOI bedacht is voor IoT en Automotive toepassingen; dat is vandaag de dag
-in volume verkrijgbaar,
-er is ontwerpsoftware voor,
-de fabs staan er (bij Samsung, GloFo en een kleinere bij ST/M),
-het is gekwalificeerd voor gebruik in de automotive,
-heeft een minimale spanning van 400 milli-volt nodig.

Dus als Intel nu 500 milli-volt haalt in het lab; leggen ze het af tegen bestaande technologieën; en is het zwaar kansloos.

Intel doet absoluut niet mee in de low-power IoT markt; omdat FinFET hier helemaal niet voor geschikt is en Intel heeft geen 5G oplossing; vooral niet voor de frequenties >6gHz (want juist daar heb je SOI voor nodig!).

Dit berichtje lijkt toch een beetje een poging, te doen alsof ze toch enigszins meedoen in de 'low power IoT' groeimarkt. Maar natuurlijk weer geen woord over of en hoe en vooral tegen welke prijs dit in massa-productie te brengen is.
500 millivolt voor een eerste generatie is zeker niet slecht. De verwachte te behalen 100mv? Dat is gekkenwerk met huidige technologiën. Echter ik vermoed dat het nog wel een aantal jaartjes duurt voor we op dat punt zijn.
Dit is een hele nieuwe type transistor die op een andere manier werkt, je kan het niet gaan vergelijken met de CMOS technologie. Die 500 millivolt zegt verder nog weinig, als het totale verbruik veel minder is dan is het toch geen probleem. Overigens staat in het artikel dat het naar beneden kan naar 100 millivolt.
Dit berichtje lijkt toch een beetje een poging, te doen alsof ze toch enigszins meedoen in de 'low power IoT' groeimarkt. Maar natuurlijk weer geen woord over of en hoe en vooral tegen welke prijs dit in massa-productie te brengen is.
Het artikel is best wel lastig te begrijpen zonder de nodige kennis en wat het precies inhoudt, dat moet ik ook wel bekennen, maar het heeft helemaal niets met de low power of iot markt te maken. Het is een nieuw type transistor de vele voordelen kent ten opzicht van de huidige transistor, dit wordt ook wel in het artikel genoemd of probeer anders de bron te lezen(https://news.berkeley.edu...nd-the-semiconductor-era/) wat daar in staat, ook al snap je niets van alle termen :) . Als intel dit werkend krijgt en in massaproduktie kan toepassen op al haar produkten dan betekent dit weer een revolutie? in de chipmarkt en kan de huidige cmos transistor vervangen worden. Intel krijg juist dan een flinke voorsprong op alle concurrenten, al is het afwachten en zien waar die allemaal mee bezig zijn in hun labs.

En je stelt ook dat intel geen 5G oplossing heeft?
https://newsroom.intel.co...g-new-radio-modem-family/
En vooral geen 5G voor boven de 6GHz?
Lees dan bovenstaande link nogmaals, of:
nieuws: Intels XMM 8160 5G-modem verschijnt in tweede helft volgend jaar
De XMM 8160 5G kan gelijktijdig verbindingen voor lte en 4g in stand houden en ondersteunt voor 5g New Radio zowel mmWave-frequenties, van boven de 24GHz, als frequenties onder de 6GHz. "De overgang van de industrie naar mmWave en het midband-spectrum komt tegemoet aan de enorme behoefte aan meer bandbreedte voor gebruikers, apparaten en verbonden machines", stelt Intel.
Hint: Trap niet in die Intel 5G kolder ;)

Onder alle Tweakers fake nieuws berichten daarover staat een reactie van mij hoe het aan elkaar hangt van halve leugens, niet bestaande gefotosjopte uitgestelde producten op niet werkende procédés en zoals ik uitleg heeft Qualcomm wel gewoon een werkend product.

Werkende Qualcomm 5G producten zijn toevallig vandaag getoond (Snapdragon 855 op 7nm), terwijl eergisteren bekend werd dat Apple geen 5G smartphone gaat leveren in 2019; omdat Intel zoals ik onder de afgelopen 3 artikelen heb uitgelegd, geen product heeft.

Maw, deze week komt naar buiten dat 5G van Intel een epische faal is, investeerders zijn opgelicht met al die onzin en vapourware waar u naar link, en Apple staat op de foto met de broek op de enkels. Apple loopt door het falen van Intel hopeloos achter op de concurrentie.

https://www.bloomberg.com...ff-sitting-out-tech-shift
Dit is een hele nieuwe type transistor die op een andere manier werkt, je kan het niet gaan vergelijken met de CMOS technologie.
Spijker op de kop en exact de reden van mijn reactie: Alle Intel massaproductie is gericht op Cmos en FinFET. Dus alles wat een heel nieuw type is, is minstens 5 jaar verwijderd van massaproductie. EUV was een heel nieuw type Litho: Heeft Intel na 10 jaar niet werkend. 10nm was een heel nieuw materiaal: na +5 jaar niet werkend. Globalfoundries heeft 50+ IoT en automotive tapeouts op 22FDX. En dan tegelijk met het publiek worden van het falen van 5G (dus Intel in IoT) komt dit nieuws naar buiten? ;)

[Reactie gewijzigd door kidde op 22 juli 2024 20:30]

Tijd zal het leren of intel volgens jouw de boel aan het belazeren is. Het artikel spreekt wel dat de modems pas de tweede helft van 2019 beschikbaar komen en in 2020 pas in produkten zal verschijnen, dat is inderdaad te laat voor apple. Maar of die modems allemaal fake zijn moeten we nog zien dan. :)

Ik zie het ontwikkelen van een nieuwe type transistor toch even als een afzonder aspect van alle andere produkten en technieken. Dat het nog jaren kan duren voordat het toepassbaar is klopt ook, maar niemand die zei dat het morgen toepasbaar is voor al hun produkten, het artikel stelt dat ook nergens.

Dat Intel problemen heeft met 10nm komt volgens mij omdat Intel ambitieuze plannen had met het verkleinen van de transistor gezien vanaf 14nm, de dimensies van de transistor werden meer verkleind dan normaal zeg maar, en dat dat onder andere problemen op leverde. Ook de huidige vorm van lithografie zit al aan de grenzen van z'n kunnen en het gebruik hiervan vereist steeds meer stappen in het hele produktieproces(je heb dat self aligning of multi patterning dat soort zaken zo even uit me hoofd). Volgens mij past Intel EUV ook nog niet toe op 10nm, dat wilde ze pas gebruiken op kleinere procede's, volgens mij pas vanaf 7nm of kleiner zelfs, terwijl het wellicht slimmer was geweest om EUV wel te gaan gebruiken voor 10nm, maar dat is nu te laat eigenlijk. Ook was er al het gerucht dat Intel 10nm wellicht helemaal overslaat, omdat de problemen die ze hebben nu dan wellicht gevonden zijn en aangepakt kunnen worden, ook niet meer van toepassing zijn op 7nm, dus dan is het wellicht verstandiger, gezien 10nm dan ook erg laat zou komen, om gelijk helemaal naar 7nm over te stappen. Ook wil men nu volgens mij dan toch ook EUV voor 7nm gaan gebruiken.
Ja het is zonde voor Intel, maar we zullen zien hoe het ze verloopt in 2019, ik hoop toch wel dat ze de achterstand in gaan halen, de 7nm Zen2 van AMD ziet er wel mooi uit, en de prijzen ook! :)
De huidige cmos transistoren kunnen nauwelijks kleiner (zowel fysiek als ivm lekstroom), dat is precies het probleem.
Ja want zuiniger betekent minder weg te koelen vermogen. Bij een lager vermogen, kan er dus een hogere frequentie worden gebruikt.
Maar het is een nieuwe techniek dus de vraag is wat men nu al kan irt de huidige CMOS. Wat @Nacht schrijft is ook juist, maar wat er in Nature staat is heel abstract. Men heeft monte carlo simulaties gedaan waaruit blijkt dat dit misschien wel mogelijk is. Er is nog geen echt werkend, klein systeem gemaakt. Daarvoor moet er nog werk worden gedaan aan de materiaalkant. Maar dat kan ik tweakers wel vergeven. Het leest natuurlijk als een spannend jongensboek en het is supergaaf wat men voor elkaar weet te krijgen. Voor de wat mindere wiskundegoden, geeft men in figuur 6 aan dat er nog werk moet gebeuren aan:
1. Strain engineering
2. Chemical Composition
3. Interface Engineering
Ze geven wel de ontwikelrichtingen, maar de het beste wat ze gehaald hebben is 1V schakelspanning en een laagdikte van rond de 75nm. Nog steeds knap, maar vooral interessant voor het onderzoek en nog lang niet voor gebruikers.
We kunnen nou eenmaal niet efficient rekenenen op monte carlo gesimuleerde Mesotransistoren.
Maar was het probleem niet dat als een transistor ''te klein word'' daardoor de B van een transistor niet meer goed werkt? Hoe zou je dat dan kunnen oplossen met deze nieuwe methode? Of word het gewoon nu mogelijk om meer transistoren in een CPU te doen zonder dat deze meteen aan de 130 graden zit?
Om te beginnen heeft dit niets met CPUs te maken, CMOS word gebruikt voor je BIOS/UEFI als opslag. De rest van je vraag kan ik niet beantwoorden.
Je hebt gelijk dat die opslag (en batterij) in de praktijk "CMOS" genoemd worden, maar die naam is simpelweg overgenomen van de werkelijke betekenis: Complementary metal oxide semiconductor, en dat is een manier om transistoren te maken waar o.a. alle moderne CPU's uit bestaan.

CMOS heeft dus heel veel te maken met CPUs. Dat had je ook kunnen weten als je de titel van dit bericht had gelezen, of een Wikipedia pagina over CMOS.
Laten we voorzichtig zeggen dat je hier een heleboel termen door elkaar gooit.

Je BIOS/UEFI wordt al jarenlang in Flash opgeslagen. Wat betreft CMOS, dan is een opvolger van PMOS en NMOS (Positive en Negative)'. CMOS wordt gebruikt om de transistoren te maken van CPU's, GPU's, DRAM en SRAM, en verreweg de meeste soorten andere chips. Zelfs een exoot als de RAD750 voor ruimte-toepassingen heeft 10 miljoen CMOS transistoren.
CMOS bestaat uit PMOS en NMOS. Het is een opvolger in de zin van dat ze beide gecombineerd gemaakt kunnen worden, maar het is geen vervanging van NMOS en PMOS.
Voor proces-technologen is het een vervanging. De originele 8086 bijvoorbeeld was een NMOS ontwerp. Dat betekende dat je productie-proces geen PMOS hoefde te produceren. Het nadeel hiervan was snelheid. De 80C86 kloon was een CMOS ontwerp wat duidelijk sneller was dan het origineel, maar daarvoor moest je dus je machines vervangen.
:) I stand corrected, wist niet beter dan dit, al jaren lang. thx for the insights.
Had overigens wel ff heel snel gegoogled, maar niet goed :p
https://www.google.nl/sea...+used+in+computer&oq=cmos

"CMOS (complementary metal-oxide-semiconductor) is the term usually used to describe the small amount of memory on a computer motherboard that stores the BIOS settings.Sep 13, 2018"

[Reactie gewijzigd door jozuf op 22 juli 2024 20:30]

Kijk, zo ontstaat fake news.
Het wordt op termijn misschien mogelijk om met deze techniek meer transistoren in een logische unit, of dat nou opslag, geheugen of processor is, te stoppen, met minder warmte output.
Het probleem bij kleiner en kleiner is dat kwantum effecten zichtbaar worden. 1 van de bottlenecks is quantum-tunneling. Een versimpelde uitleg is stel je hebt een klassieke schakelaar:
In de 'AAN' stand zullen elektronen door de schakelaar van de - naar de + kant bewegen en in de "UIT' stand niet, maar bij quantum-tunneling is er dus een kans dat dit wel gebeurd. Bij een grote schakelaar maakt dit niet heel veel uit omdat de schakelaar op hogere stromen opereert (veel elektronen) alleen bij kleine schakelaar zoals bijvoorbeeld een hele kleine transistor opereert met heel weinig (een paar elektronen). In dit geval heeft 1 elektron die tunnelt in verhouding veel meer invloed op hoe de schakelaar zich gedraagt dan bij een grotere waardoor kleiner op een gegeven moment niet meer werkt voor de huidige vorm van transistors.
Het gaat sowieso minder warmte genereren maar vind het moeilijk om te zeggen hoeveel dit gemiddeld scheelt.

iemand daar meer zicht op?
Anoniem: 951889 4 december 2018 15:56
Het materiaal behoudt zijn staat, ook zonder spanning, wat het tot een kandidaat voor voor niet-vluchtig geheugen maakt.
... zoals NVRAM? Maar dan sneller?

Als de hele processor en al het geheugen zijn staat kan behouden zonder spanning, zou dat een sprong in zuinigheid en formfactor (veel minder warmte afgifte, dus kleiner ontwerp) betekenen van sci-fi proporties.
Waarom? Oh het heeft uiteraard voordelen, maar de hoeveelheid energie die de gemiddelde PC/laptop/smartphone gebruikt om zijn volatile geheugen in stand te houden is verwaarloosbaar op het totaal. Het zal nog wel wat leuke opties erbij geven hoor als dat non-volatiel wordt, maar ik zie niet waarom dat een enorme sprong in zuinigheid en formfactor zou betekenen.
Anoniem: 951889 @Sissors4 december 2018 18:03
Het gaat niet per se om het RAM, maar de state van al je caches en de cpu intern. Het is nu vrij duur (in tijd) om tijdelijk een core uit te schakelen omdat je state moet bewaren en weer terugzetten. Met deze techniek kan je in theorie zonder enige delay cores, busses, of misschien zelfs delen van een core of een bus, afschakelen en zodra je ze nodig hebt weer inschakelen.

En het hele sleep state gebeuren van ACPI is dan ook niet meer nodig, want het ding gaat gewoon verder waar hij gebleven was als je de stroom er weer op zet.

Wederom, in theorie. Misschien zijn er limitaties die dit beperken.
Het achterliggende idee/doel is om een totaal nieuwe techniek op te tuigen zodat de Chinezen met waardeloze chipfabrieken komen te zitten: https://newscenter.lbl.go...leap-in-microelectronics/
Zo gevoelig, als je de behuizing maakt.
Ja, hoe gevoelig... Een EMP vernielt sowieso alle elektronica van tegenwoordig, dus die meer gevoeligheid maakt geen f*ck uit, om het zo te zeggen. Het lijkt me wel dat er goed moet worden opgepast met magneten of speakers.
Snap er geen snars van maar 10 tot 30x zuiniger wekt mijn interesse.
Zuiniger is altijd beter en zelfs als dit uitpakt in 'maar' 5x zuiniger in het begin is dit al een enorme vooruitgang.
Anoniem: 444127 4 december 2018 21:53
Niets nieuws onder de zon maar het is mooi dat Intel hierin investeert, ik veronderstel dat andere fabs dat eveneens doen.
Even een domme vraag, wat gebeurt er met de spin als je het betreffende apparaat ondersteboven draait? Wijzigt een bit dan van 1 naar 0 en andersom?

Op dit item kan niet meer gereageerd worden.