Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties
Bron: Cnet News, submitter: EaS

Op Cnet News komen we de bewering tegen dat we in de komende jaren het einde van Moore's Law tegemoet kunnen zien. Deze wet van een voormalig topman van Intel stelt simpel gezegd dat men in staat is elke twee jaar de hoeveelheid transistors in de core van processors te verdubbelen voor min of meer dezelfde productiekosten. Nu is er wel eens eerder beweerd dat de wet niet lang meer zou bestaan, maar het opmerkelijke is dat het nu wetenschappers van Intel zelf betreft die de uitspraken hebben gedaan. Volgens Paolo Gargini zal de verkleining naar een 16-nanometer productieproces één van de laatste praktisch mogelijke die-shrinks blijken te zijn. Daarvoor moeten we trouwens nog wel geduld hebben tot het jaar 2018 of daaromtrent:

Chip"This looks like a fundamental limit," said Paolo Gargini, director of technology strategy at Intel and an Intel fellow. The paper, titled "Limits to Binary Logic Switch Scaling--A Gedanken Model," was written by four authors and was published in the Proceedings of the IEEE (Institute of Electrical and Electronics Engineers) in November.
[break]Bij kleinere afmetingen dan hierboven beschreven zal de transistor simpelweg zijn werk niet meer kunnen doen. De staat van transistor (aan/uit) wordt bepaald door het feit of er stroom door de gate vloeit. Als de afmetingen van de transistor te klein worden en de afstand door de gate minder dan vijf nanometer bedraagt, zullen losse elektronen uit zichzelf door de transistor gaan bewegen. Daardoor wordt de transistor als deel van een rekenapparaat onbetrouwbaar. Dit 'tunneling'-probleem zal volgens Gargini en consorten altijd op gaan treden, onafhankelijk van het materiaal waar de transistor uit is vervaardigd.

Als het al tot een 16-nanometer productieproces zal komen, zal één van de grootste te overkomen problemen natuurlijk ook nog de warmteontwikkeling zijn. De warmte die afkomt van chips van zulke kleine afmetingen wordt zo groot dat deze niet meer rendabel af te voeren valt met als gevolg dat het silicium ten prooi valt aan de hoge temperaturen. Hoewel de grootte van de transistor dus aan beperkingen onderhevig is, ziet Gargini nog wel mogelijkheden om op zulke kleine afmetingen tot hogere performance te komen:[/break]Gordon MooreOne extremely theoretical potential idea is to reuse electrons. In current architectures, electrons travel from a source to a drain and then are destroyed. With recycling, "you simply transfer the electron to something else," Gargini said. "You can make a lot of calculations without destroying the electrons."

Carbon nanotubes and silicon nanowires are another alternative. Transistors made of these materials are of comparable sizes. Carbon nanotubes have a diameter of 1 to 2 nanometers, but they are stretched lengthwise between a source and drain in experimental transistors. In the end, performance could go up--and energy consumption could decline--but size will stay about the same.
Moderatie-faq Wijzig weergave

Reacties (72)

Hmmmm..

4 jaar geleden:

http://www.tweakers.net/nieuws/5951/

Ach het zal mijn tijd wel duren ;)
LOL vind ik wel goed opgemerkt :D... Zo zie je maar dat niet alle info te vertrouwen is :D
Je kunt het andersom zien; in 1988 was de 286 main stream, 386 gaaf en de 486 top of the bill. Veel 8086's toen in bedrijf. De CPU's werden toen al warm, maar dan passief gekoeld en volgens mij werden ze toen ook al op silicium geproduceerd.

De electrische problemen waren ongeveer even groot, maar dat kwam voornamelijk de gebruikte procestechnologie.

Dus...als je 15 jaar vooruit kijkt, kun je als referentie 15 jaar geleden gebruiken
Dus...als je 15 jaar vooruit kijkt, kun je als referentie 15 jaar geleden gebruiken
Nee, dat zie je verkeerd. We lopen met onze lithgrafische technieken tegen een fundamentele quantummechanische limiet aan. Het is wegens het onzekerheidsprincipe van Heisenberg eenvoudigweg niet mogelijk de ultraviolette straling waarmee de structuren ge-etst worden nauwkeuriger dan pakweg 10 nm. te focussen.

Overigens zijn er nog wat andere quantummechanische effecten die op die schaal een rol gaan spelen, waardoor het, zelfs als zou je de structuren kunnen etsen, zinloos zou zijn die structuren te etsen, want halfgeleiders van dat formaat werken domweg niet meer zoals je dat van een halfgeleider wilt in een computerchip.

De Wet van Moore ging enkel op omdat we met vrijwel dezelfde techniek door konden gaan. Innovaties zijn links en rechts gedaan, in ontwerp en techniek, maar geen enkele innovatie was van de orde van de innovatie die nu nodig is om de Wet van Moore stand te doen houden: daarvoor is een volstrekt andere methode van chipproductie nodig.
Je hebt gelijk als je er vanuit gaat dat een andere procestechnologie nodig is. 15 jaar geleden waren details nog > 1 mu (??). Maar we zijn met de huidige stand van zaken nog lang niet in de buurt van Heisenberg. We praten over 90 nm details en volgende generatie over 60 nm. Dit alles wel met licht van 250 nm (interferentie, etc.) Ik begrijp dat het einde van dit soort technieken nog lang niet in zicht is. Je hebt (nogmaals) gelijk als je beweert dat deze technieken er 15 jaar geleden nog niet waren. Over 15 jaar zullen ze wel overbodig zijn.
Wat betreft je kwantum schaal: de huidige details zijn 60 nm. Dit is nog altijd 850 x een silicium atoom (1.11 Angstrom) Alleen tussen lagen onderling krijg je tunneling en dat soort verschijnselen maar deze worden niet lithografisch, maar dmv chemical / physical vapour deposition aangebracht. Hiermee kun je lagen van min 20 atomen aanbrengen.
Wat betreft de details; In de nieuwe generatie ASML steppers is de fout die mag worden gemaakt PER stepper actie 27 nm. Hiervan is 20 nm gereserveerd voor de servo's (positionering), 4 nm voor de focussering en 3 voor de warmtehuishouding (uitzetting -> licht = energie = warmte).
De golf lengte van het licht kan nog naar beneden, maar niet met gewone lenzen. Met het gebruik van ultra violet licht kon dat al niet, dus in die hoek zal inderdaad nog wel wat uit te voeren zijn.

Als je dus 15 jaar geleden neemt en vergelijkt met de (verbeterde) processen van nu, dan is zal er over 15 jaar genoeg technologie zijn voor deze uitbouw.

Bij de weg: dat verdwijnen van electronen is wel een kwantum mechanisch verschijnsel (speculatie: oorzaak van warmte?) Misschien iemand een idee?
Het is wegens het onzekerheidsprincipe van Heisenberg eenvoudigweg niet mogelijk de ultraviolette straling waarmee de structuren ge-etst worden nauwkeuriger dan pakweg 10 nm. te focussen.
Dat was ooit zo, maar die theorie is al lang achterhaald. Heb je dan nog nooit gehoord van een Heisenberg-compensator? Volgens de TV bestaat die al lang hoor... ongeveer al sinds 1966.

Of... denk ik nu weer een beetje te ver vooruit en is dat nog steeds te duur om te gebruiken in voor consumenten betaalbare producten?

:+
Heisenberg-compensator... Volgens de TV bestaat die al lang hoor... ongeveer al sinds 1966.
In StarTrek ja.... in het ECHT niet ... :+
In 1988 bestond de 386 en de 486 nog helemaal niet. De 286 is volges mij ook pas van 1989-1990. Maar je voorbeeld is duidelijk. En ik geef je ook gelijk. Tegenwoordig zie je in veel bedrijven nu nog oudere pc's staan. Heeeeel veel P3's trouwens maar dat doet er nu niet toe.

@Confusion: Het is je gelukt mij in de war te brengen maar als ik je verhaal voor een 2de keer lees zou je best gelijk kunnen hebben. ZO diep zit ik niet in de halfgeleider productie, zou me pa moeten vragen...
Je hebt toch echt je jaartallen een beetje danig in de war.

1974: 8080
1978: 8086
1979: 8088
1981: 186 / 188 (niet voor PC's)
1982: 286
1985: 386
1989: 486
1993: Pentium

Verder zullen de meesten het wel weten. Er zijn van elke processor natuurlijk meerdere soorten en snelheden uitgebracht; hierboven zijn de releasedata van de 1ste processor van elke generatie gegeven.

Zie dit artikel als onderbouwing.
Kijk gewoon eens terug: wie had 15 jaar geleden de 3GHz voorspeld? Dus wat er over 15 jaar in onze pc-kasten zit is nog wel even koffiedik kijken.
Nou het is eigenlijk geen 3Ghz. Nieuwere CPU architekturen worden juist krachtiger die 3Ghz stamd af van een zwakkere architektuur Netburst die dat compenseerd door hogere klokken te halen voor de marketing in een klok driven markt.

Eigenlijk zitten we nog net voorbij de 2Ghz

denk aan Banias, dothan en hammers.
Die zijn op dezelfde klok krachtiger dan de PIII
P4 1,4 vs PIII 1,4 vs athlon 64 1,4 vs P-M 1,4

De P4 1,4 is zwakker dan zijn voorganger.
Zelfs als je een prescott onderkloked ipv whillamette 1,4.

die 3Ghz ==PR2400-

En waarom is het eigenlijk geen 3Ghz omdat als je zo als intel klok minded de markt benadert, verwacht ja als je, klok link met performance consument van 'n 3Ghz CPU ook 3Ghz performance met vooruit strevende IPC die er niet is en verzwegen wordt in de marketing busness..

Dus de moore wet slaat in mijn ogen op een 3Ghz CPU met de kracht van 'n Dothan of 0,09 hammer want als we intel marketing en die markt volgen.
verwacht ik wel die krachtige IPc dit is dus foetelwerk om de aan zeer hoge klokken te komen waar je als gebruiker niks aan hebt aangezien je daarvoor performance in levert.

Als Dothan of zijn opvolger en de hammer zijn 3Ghz halen dan zijn we er pas en dat houd dus in dat de CPU markt achter loopt op de moore wet en dat zal denk ik door de steeds toenemende vermogen zijn bij elke die schrink, wat de CPU klok shaling met behoud van of hogere ipc terug houd iig Prescott kan hierdoor al beperkt opschalen door het opgenomen vermogen men verwacht toch wel 5 Ghz met zijn netburt maar vermogen houd hem terug.
Goed opgemerkt SG! Ik heb het altijd een downer gevonden dat de P4 per klok minder snel is dan de P3.
Volgens mij zitten we al zo ongeveer aan het einde van Moore's law - niet zoals die bedoeld is, maar zoals de consument 'm interpreteert. Het afgelopen jaar is er naast de P4 3 GHz alleen nog een 3,2 GHz Intel Proc uitgekomen... geen merkbare verhoging!
Ik kan me nog goed herinneren dat Intel een aantal jaar terug beweerde dat de P4 tot wel 10 GHz mee kan... In het afgelopen jaar hebben we de P4 van 3,06 naar 3,2 zien gaan (ja de FSB is verhoogd), dus als ze zo doorgaan, dan gaat ze dat iig niet lukken...

*Update*

Excuses, het was zelfs 20 GHz! Heb een artikel op ZDnet gevonden hierover: http://www.zdnet.nl/News.cfm?id=10431&mxp=41

"Intel zegt de kleinste en snelste transistor ter wereld te hebben ontworpen. Met deze nieuwe transistor kunnen processors in 2007 een kloksnelheid van 20 GHz halen. Daardoor blijft de Wet van Moore de komende jaren gewoon gelden." Jaaajaaa... :7
ik weet wel een pcm die volgens mij een jaar of 10 gelede de wet van moore begon te rekenen en ik geloof ook een ghz of 3 had voorspeld ongeveer nu.
:)
Uitgegaan van moore's law was het 15 jaar geleden heel eenvoudig om te voorspellen dat we nu ongeveer op 3GHz zouden zitten.

Moore's law gaat welliswaar niet direct over kloksnelheden, maar er is wel een verband tussen de afmetingen vd componenten en de kloksnelheid.

Het tempo vd technische ontwikkelingen varieert wat; de kloksnelheid wordt tot nu toe iedere twee jaar 1,5 á 2 maal zo snel. Van 1982 tot 2002 zijn cpu's ongeveer 2000 maal sneller geworden.

Als het zo doorgaat zitten we in 2010 op zo'n 15GHz, en in 2018 tegen de 100GHz. Alhoewel zo tegen het eind de rek er wel grotendeels uit zal zijn en de ontwikkelingen trager zullen gaan, dus we komen waarschijnlijk niet veel verder dan 50GHz of zo.

Een andere ontwikkeling begint intussen vaart te krijgen: multi-processor. Dat kan met bvb 2 cpu's op 1 moederbord, maar ook met meerdere cores in 1 cpu behuizing; zie de "Cell" processor van IBM+Sony (toegepast in de PS3).
Ik denk dat zoiets voor 1018 al veel toegepast zal worden, en op langere termijn zal het waarschijnlijk heel gewoon zijn als een PC tientallen (of meer) cpu cores bevat.

Practische, betaalbare Quantum computers zijn m.i. nog wat verder weg.
1988? Even kijken.... een Philips XT had ik toen met een oranje monochroom beeldscherm, 640kB intern, 5.25 "floppy drive en 10 MB hard disk en jongens wat moet je wel allemaal niet met die ruimte..

Hmmm. wat de snelheid ook al weer 8MHz?????
Die had ik ook :P

Later had ik zelfs een 386 met een schijf van 170MB... Dat ga je niet vol krijgen met DOS :P
In current architectures, electrons travel from a source to a drain and then are destroyed

Wat is dit nu voor onzin? Elektronen worden niet vernietigd, dat zou misschien kunnen in een superdeeltjesversneller ofzo, maar niet in een processor. De elektronen verliezen wel een deel van hun energie en zijn daarom niet meteen weer te gebruiken.
Ik denk dat men in het jargon spreekt van het vernietigen van een electron, omdat een electron dat van gate naar drain is gegaan effectief niet meer bestaat voor het systeem en 'verse' electronen nodig zijn voor de volgende operatie. Ik las recent iets op /. over 'reversable computing', maar ik kan zo snel geen link vinden. Ik denk dat het daarmee te maken heeft.
ff een verduidelijking wat ze bedoelen is dat electronen van de conductie band terug vallen naar de valantie band. in de valantie band kan je er niets mee. Je kan het zien als energie verliezen maar eigenlijk meer als het verliezen van je los gebonden electron. maar wat in de toekomst mogelijk zou kunnen worden is om 3D processoren te maken ( schakelingen in alle richtingen). daar zijn ze druk me bezig.. maar dat brengt ook weer problemen met zich mee. Veder is het zo (momenteel) dat organische (polmeren) half-geleiders lage mobiliteiten hebben en daardoor niet voor dat soort taken geschikt zijn.
Sterker nog, gezien een electron een fundamenteel deeltje is, zou het een doorbraak zijn. Zelfs de modernste versnellers zoals ATLAS kunnen dit nog niet eens...
Dit klopt niet echt wat je zegt hakken314 :)
Electronen kunnen namelijk wél worden vernietigd.
Wanneer een electron botst met een posit(r)on (een anti-deeltje van een electron dus), zullen deze 2 deeltjes worden omgezet in 2 of 3 gamma-fotonen. Een electron en een posit(r)on hebben een massa en (meestal) een bepaalde kinetische energie (snelheid). Wanneer deze 2 deeltjes met elkaar botsen wordt de massa van deze 2 deeltjes omgezet in 2 of 3 pakketjes energie (de gamma-fotonen). Immers, fotonen zijn pakketjes energie en hebben géén massa. Dan is het electron dus "vernietigd".
(immers E=mc^2)

Niks doorbraak dus, dit kan men al tijden.

Dit terzijde overigens, want ik geloof niet dat men in het artikel de letterlijke betekenis van vernietigen bedoelt ;) (dat zou wat zijn zeg, een deeltjesversneller in een processor :D)
Ik denk zowieso niet dat rond 2018 processoren nog zo opgebouwd zullen zijn als nu. Het is heel goed mogelijk dat voor die tijd al wordt overstapt op procs die dmv lichttechniek werken, of dat quantumprocessoren het werk zullen doen.
Of er komen meer laags processoren, dit vereist dan wel dat de energie consumptie en dus de warmte afgifte enorm naar beneden gaat, maar daar zijn ze ook al mee bezig (las hier laatst nog iets over het hergebruiken van de warmte afgifte). Tegen die tijd komt er mischien weer elke 2 jaar een laag transistoren bij en kunnen we weer vooruit met de wet van Moore tot het jaar (ik noem maar wat ;)) 2033.

edit:

De link die ik bedoelde
http://www.tweakers.net/nieuws/29693

En uit het orginele artikel:
[quote]
Reversible computing's efficient use of heat could make it possible to come up with 3-D chip designs, Bennett said. This would push all of the circuitry closer together and ultimately increase performance.
[/quote]

Ook staan er in het orginele artikel van deze link nog wat verwijzingen naar moore's law.
Tegen die tijd komt er mischien weer elke 2 jaar een laag transistoren bij en kunnen we weer vooruit met de wet van Moore tot het jaar (ik noem maar wat ) 2033.
Dit strookt dan waarschijnlijk niet met de wet van Moore, aangezien deze naast het aantal transistors ook rekening houdt met de produktiekosten. Als je dezelfde produktiemethode houdt, en je plaatst gewoon enkele lagen transistors, dan zullen de kosten wel evenredig stijgen.
Dat klopt niet.
Productiekosten nemen zeker af bij toenemend gebruik. Als het product niet verandert hoeft daarnaast het productieproces niet dezelfde te blijven!!

Daarnaast kan als het product voor langere tijd hetzelfde blijft een grotere investering gedaan worden om juist van die schaalvergroting gebruik te kunnen maken. kosten per product kunnen daardoor omlaag.
Tegen die tijd komt er mischien weer elke 2 jaar een laag transistoren bij en kunnen we weer vooruit met de wet van Moore tot het jaar (ik noem maar wat ) 2033.
Het aantal lagen moet toch * 2? + 2 is niet voldoende om de wet van Moore bij te houden.

En met * 2 groeit het aantal lagen wel erg snel.
Ervan uit gaan dat Moore's law gebruik maakt van de techniek van nu, denk ik dat het achterhaald zal zijn vòòr 2018. Wetenschappers zijn nu al aan het experimenteren met bio-electronica. Nano-technologie dat in staat is koolstof buizen te bouwen is nu al een feit. Dit gecombineerd met DNA en het productie process zal tegen het jaar 2018 ver onder de 16 nanometer.
Als ik me niet vergis ben ik de eerste bij het opvalt..
Sinds wanneer hebben transistors een GATE, niet beter te weten hebben ze een collector, basis en een emittor de FET daarintegen heeft wel een GATE, drain en een source.. Het zal wel aan mij liggen :P
Field Effect Transistor kun je dus niet schrijven zonder 'transistor'.
FET staat voor Field Effect TRANSISTOR, en MOSFET staat voor Metal Oxide Semiconductor Field Effect TRANSISTOR (deze worden in alle huidige digital circuits gebruikt). Het zijn dus allemaal transistors (trans - resistors), beide hebben inderdaad gate drain en source.
Het lijkt me sterk dat er niemand op deze hele wereld in 15 jaar met een idee zal komen dat we veel sneller zullen gaan.

Dit is misschien wel het einde vanuit de klassieke mechanica gezien, maar de quantummechanica biedt nog genoeg mogelijkheden.

Op dit moment is het zelfs zo, dat de theorie voorloopt op de experimenten die worden gedaan. Tja, en dan iets zeggen over wat pas over 15 jaar aan de orde is :?

Zie http://www.kurzweilai.net
Dat komt omdat de experimenten die nodig zijn om die theorien te verwerpen of bewijzen zo krankzinnig veel energie moeten leveren dat dat fininciel niet erg interesant is (kosten/baten analyse). Welke quantummechanische theorie bedoel je dan in het bijzonder want ik word een beetje getikt van het name droppen hier. Zelfs het Heisenberg onzekerheidsprincipe word erbij gehaald.
Nieuwe hardware kopen de strot uitkomen? Het is alleen maar mooi dat de techniek zo snel vooruitgaat. Stel je voor dat een compu van 5 jaar geleden nog steeds net zoveel moet kosten als toen, omdat de techniek niet vooruit is gegaan. Je moet toch toegeven dat je gewoon steeds meer waar voor je geld krijgt...
5 jaar geleden betaalde je niet 1100 gulden (omgerekend) voor de nieuwste videokaart. Ik wist nog dat je voor de monster3d 500 piek moest neerleggen..pjoe...was dat ff wat geld voor een videokaart...tegenwoordig 500 euro!!!

Mischien valt het allemaal wel mee als je internet en office applicaties draait. Maar er zijn genoeg mensen -met weinig verstand van pc's- die zo een duur bakkie wordt aangepraat door een verkoper..dat terwijl een P3 met 600mhz nog net zo goed werkt. Alleen wordt dat door de pc industrie niet meer gemaakt en op den duur ook niet meer ondersteunt.

De prijs van vooruitgang is erg hoog.

Ik kan me wel vinden in de statement van eagle.
Techniek zal zich altijd blijven ontwikkelen. Het word juist, helaas, steeds meer een vereiste om pc's sneller en krachtiger te laten worden. De mensheid zal straks voor steeds meer problemen komen te staan met de groei van de wereldbevolking en dan heb je wel dingen nodig om dat op te lossen, klinkt een beetje Sci_fi allemaal maar is wel zo.

Ik hoop alleen dat ze eens snel materie / anti-materie gaan ontwikkelen voor warp engines. Dan alleen heb je wat aan die snelle chips, voor thuis gebruik allang niet meer en gamen verschuift steeds meer naar console's. Desktop kan net zo goed bestaan uit een P1 voor wat typewerk.

We zullen zien, de menselijke robots zijn nu ook aardig in opbloei en zullen de markt gaan bestrijken, dan hebben we de eerste wandelende chipsets ook weer gerealiseerd :z daar waar men vroeger alleen maar over praatte.
Het is een beetje een omweg, maar wel eens op TV gezien en hier te lezen: http://www.wired.com/wired/archive/9.07/juice_pr.html
Met name dit stuk:
None of these appliances and sensors would have to be very intelligent on their own, and few of the transactions would have to go through a central authority, such as the utility, for the performance and resilience of the whole system to improve. But every node in the network would have to be awake, responsive, flexible, and, most important, interconnected with everything else. A distributed network. An Energy Web.
Verderop staat ook nog een leuk stukje over het aanbieden / vragen van energie door processors, daar zou je ook rekencapaciteit kunnen lezen, natuurlijk.

Wellicht dat we dit model ook gaan krijgen voor Distributed Computing. Wat nu quantumeffecten? Maak de wereld een computer, dan gaat het lang duren voordat we een tunnel-effect hebben.
En ik maar denken dat Moore's Law beschreef dat het aantal transistoren op een chip elke 18 maanden verdubbelde... niet elke 2 jaar...
toch well, bij de link in tazz post kan je dit lezen:
Ontwikkelingen chip industrie bereiken fysieke limieten
Door Femme Taken - maandag 11 oktober 1999 - 10:28 - Bron: Yahoo! News
De voortdurende minimalisatie van silicium transistors zal binnen afzienbare tijd zijn fysieke grenzen bereiken, zo bericht Yahoo! News. Het verhaaltje achter de wet van Moore, die stelt dat de capaciteit van chips ieder 18 maanden verdubbelt, zal niet langer gelden:

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True