Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: EE Times

De EE Times bericht dat de technici op het Custom Integrated Circuits Conference er geen vertrouwen in hebben dat de huidige CMOS technologie nog langer dan tien jaar verbeterd kan worden. Het wordt steeds moeilijker om kleinere onderdelen op een bruikbare manier te benutten, maar tot nu toe lukt het nog om ongeveer iedere twee jaar een verbeterd procédé in gebruik te nemen. Men moet zich echter wel steeds vaker in rare bochten zoals SOI, 3D-procédés en nieuwe high-k materialen wringen om het voor elkaar te krijgen.

Daar gaat echter verandering in komen, volgens de wetenschappers is geen enkele haalbare methode denkbaar om gates kleiner dan 10 nanometer (0,01 micron) te bouwen en laten werken. Op dit moment worden 0,07µ gates gebruikt voor het 0,13 micron procédé, en Intel heeft 0,016µ gates geplanned voor ergens in het jaar 2009. De boodschap van de experts is dat er niet alleen ontzettend veel geld en onderzoek gestoken moet worden in het bereiken van de grens van CMOS, maar dat er ook iets geheel nieuws - zoals moleculaire structuren van benzeen of koolstof nano-tubes - klaar moet zijn op het moment dat men tegen de muur der natuurkunde aanloopt:

The pace of CMOS scaling may slow over the rest of this decade as leaky transistors and interconnect problems become more intractable, and the technology may run out of gas by 2012, according to technologists at the Custom Integrated Circuits Conference here. And whatever is to replace CMOS must be invented now, because it will take at least a decade to develop into a commercial technology, speakers said.

AMD kabouters in Dresden Fab30
Moderatie-faq Wijzig weergave

Reacties (52)

Wanneer de techniek tegen haar einde loopt zullen de snelste processoren mogelijk nog geoptimaliseerd worden. Denk bijvoorbeeld aan supergeleiding. Wanneer een processor de temperatuur heeft bereikt van 0º Kalvin (ongeveer - 273º Cesius) zal de processor oneindig snel zijn :) Dit is technisch gezien niet haalbaar maar hoe dichter je bij die 0º Kalvin komt hoe sneller de processor wordt!
Denk bijvoorbeeld aan supergeleiding. Wanneer een processor de temperatuur heeft bereikt van 0º Kalvin (ongeveer - 273º Cesius) zal de processor oneindig snel zijn
Grote onzin natuurlijk. Processen gaan bij 0 Kelvin helemaal niet oneindig snel. De snelheid is namelijk afhankelijk van de snelheid waarmee lading door het systeem getransporteerd kan worden. Deze zal zelfs bij supergeleiding niet oneindig groot worden (ook al is de weerstand gelijk aan 0), want lading zal ten alle tijden door electronen getransporteerd moeten worden. En aangezien deze een zekere massa hebben, zullen ze ook een zekere traagheid hebben. Maar zelfs bij massa 0 (fotonen) heb je nog steeds te maken met een eindige snelheid waarmee je informatie kan versturen, namelijk de lichtsnelheid.
Grote onzin natuurlijk.
In een zekere zin is het onzin. Einstein heeft ooit gezegd dat bij het absolute nulpunt geen tijd meer is, dus dan zou een processor in exact 0 seconde oneindig veel rekenwerk kunnen leveren. Er kan echter geen procesoor gemaakt worden die niet kapot gaat bij een temperatuur die zo laag is, en men is ook niet in staat om het absolute nulpunt te bereiken..
De wetenschappers Cornell and Wieman hebben ooit een groep atomen tot slechts enkele miljardsten graden Kalvin boven het absolute nulpunt kunnen brengen!

edit:

[quote]
Unfortunately we are unable to reach absolute zero itself. It is forbidden by the third law of thermodynamics.
[/quote]
Bij 70 Kelvin heb je al supergeleiding bij de meeste materialen. Er is een tijd terug zelfs een materiaal ontdekt dat onder de 220 (of zo) graden Kelvin al supergeleidend werd. Als ze nou een materiaal vinden dat dit bij -10 graden celcius is, dan zou het met VapoChill al kunnen weken :D
0 graden Kelvin is het absolute nulpunt. Als je een substantie zo ver afkoelt, dan gaat het zeer rare eigenschappen vertonen. Zo krijg je supervloeibaarheid, waardoor een materiaal letterlijk een beker uit kan lopen, hoewel er voldoende ruimte in is, het kruipt tegen de wand op dus. Daarom lijkt het me raar om computercomponenten zover af te koelen, maar wie weet, misschien is dat over 10 jaar wel weer ergens goed voor ;)
Volgens mij gebeurt er helemaal niets bij 0 Kelvin.. naar mijn weet is dat het absolute nulpunt en dan is het punt berijkt waarbij alles stil staat...
En wil je iets koelen tot onder de 0 graden.. mag je wel 'n groot en duur koelsysteem hebben, wat dan ook nog eens gepaard gaat met veel herrie..

even back to topic.. het lijkt me zeer logisch dat silicium over 10 jaar zwaar uitontwikkeld is.. het kan natuurlijk ook eerder naarmate de ontwikkelingen steeds sneller gaan, waarschijnlijk halen ze de 0.01 micron geeneens aangezien het de toch wel de max is van het materiaal. En dan houdt het toch echt op, een materiaal is uitontwikkeld/oververzadigd..
Ach ja, dan vinden ze wel weer iets anders... Ik herinner me ook nog van een paar jaar terug dat men dacht dat kloksnelheid nooit hoger dan 200 Mhz zou kunnen komen... of modems niet sneller dan 28k8 en we nooit meer dan 640KB geheugen nodig zouden hebben :)
Tuurlijk vinden ze wel iets anders, maar het huidige concept van "neem plaatje silicium, voeg laagjes metaal toe, schijn met licht zwakke plekken erop, brand zwakke plekken weg met chemicaliën" gaat het dus niet langer dan 10 jaar meer uithouden. Ze zeggen niet dat processors niet meer sneller kunnen worden, alleen dat de huidige techniek het niet lang meer houdt.
Asynchrone processors lijken mij ook wel een goede optie, dan hoeft de processor niet persé kleiner gemaakt te worden om hem sneller te maken.

ff uitleg: een asunchrone proc werkt niet met een klok maar bestaat uit een lange pijplijn van units die data aan elkaar doorgeven. Zoiets als: unit 1 krijgt een opdracht, bewerkt die, en geeft 'm door aan unit 2 of eventueel gaat ie naar een zijweg in de chip omdat er iets anders gedaan te worden. Al die units werken dan zelfstandig en doen gewoon hun werk zo snel mogelijk zonder dat een klok het tempo bepaald. Probleem is wel dat het niet echt een compatible systeem is met de huidige programmeermethodes... :'(
Asynchroon levert wel problemen op als je het feit meeneemt dat er hazards kunnen optreden. Nu kijk per kloktik wat er gebeurt dan kijk je continu en kunnen schakelverschijnselen een vervelend probleem opleveren. Je kunt geen twee of meer asynchrone "machines" koppelen er moet altijd een synchrone machine bij om de boel goed te laten functioneren althans nu nog.... met het verbeteren of veranderen van programeren zou je ddat misschien kunnen oplossen .......... tijd zal het leren :)
De Amiga had wel degelijk een klok voor al haar custom chips, ze kregen er ook allemaal een stukje van toebedeeld. Het gebeurde daarbij ook dat als je hele veeleisende dingen ging doen (hoge resoluties, veel kleuren etc.) dat de processor langzamer ging draaien omdat het klok cycli ging inleveren aan de custom chips.
quarkuz: je bedoelt zoals dit in de commodore amiga ging?
Voor elke functie (graphics, drive, io enz) een aparte proc?
Ik herinner me ook nog van een paar jaar terug dat men dacht dat kloksnelheid nooit hoger dan 200 Mhz zou kunnen komen... of modems niet sneller dan 28k8
Het enige verschil daarbij is natuurlijk wel dat die grenzen technische barieres zijn geweest, terwijl de hier besproken limieten van de gate afmetingen physische limieten zijn. Dat is wel een groot verschil.
...en we nooit meer dan 640KB geheugen nodig zouden hebben
...dat moet vast een groot visionair geweest zijn. ;)
.. ik meende dat de heer B. Gates deze uitspraak ooit ook deed....
zeker een visionair, niet iedereen is het echter met hem eens :D

het was een zekere bill gates dit dit ooit gezegd heeft, ik geloof dat hij het ook weer terug heeft genomen :)

edit k was iets te laat, waarom heeft diegene boven me -1 flamebait gekregen? hij heeft het wel degenkijk gezegd
Als reactie op venice, de "drie traps transistor" Dat is inderdaad mogelijk, sterker nog er zijn (lang geleden) wel dergelijke systemen ontwikkeld.
het twee bits systeem heeft het voordeel dat er makkelijk mee gerekend kan worden, en het nadeel dat getallen wel erg lang worden, wanneer het grondtal van je getallensysteem groter wordt ((8) octaal (10) decimaal) verschuiven de voor en nadelen. Slimme mensen hebben berekend dat het optimum grondtal ergens tussen de twee en de drie zit (e=2.20371). Maar omdat twee bits systemen veel makkelijker zijn te realiseren is het deze geworden :+
Slimme mensen hebben berekend dat het optimum grondtal ergens tussen de twee en de drie zit (e=2.20371).
wahaha, da's een goeie! :D

(e is natuurlijk 2,718281....)
|:( Auw das wel erg stom,
ik vond het al zo raar dat ik e uit mn hoofd kende...
Maar ja, de euro is van ons allemaal zullen we maar zeggen...
Er zijn momenteel wel systemen in gebruik die werken met decimale getallen. Als het systeem niet zo snel hoeft te zijn, is dit ook geen probleem. Denk aan bijvoorbeeld digitale thermometers. Misschien is dit voorbeeld niet in overeenstemming met de werkelijkheid, maar het zou kunnen. De chips kun je bij een elektronica groothandel wel kopen.
Dit is dus geen oproep aan alle tweakers om nu alles wat decimale informatie weergeeft open te slopen }>
WAAR is m'n rekenmachine :+
De vraag is ook niet of men iets vindt, maar wanneer men het vindt, op tijd of niet. Bedenk maar eens wat een enorme ramp het is voor de industrie als er een jaar of twee geen snellere processors en geen grotere geheugens meer op de markt worden gebracht. Er zou dan ontzettend veel geld misgelopen worden, en bovendien behoorlijk saai zijn voor de tweakers, als iedereen hetzelfde high-end systeem heeft en niemand kan upgraden ;).
Een ramp voor de industrie? Misschien wel en misschien niet... voor de computerfabrikanten zou het niet zo interessant zijn uiteraard :)

Daarentegen lijkt het mij voor de bedrijven die gebruik maken van computertechnologie juist handiger, nu is er een situatie waarbij er om de 2 jaar door een bepaalde firma uit Redmond een nieuw operating systeem op de markt wordt gegooid waarvoor zowat heel het computerarsenaal van de firma moet worden geupgrade of vervangen, al die kosten die daarvoor gemaakt worden kunnen dan gebruikt worden voor andere en wellicht betere investeringen want de doorsnee typiste gaat met haar upgrade naar een nieuwe pc en een nieuw systeem echt niet efficiënter werken, die moet dan alweer een tijdje gewoon worden aan alles.

Voor ons tweakers zou natuurlijk wel een dure hobby wegvallen... niet meer om de 6 maanden het geheugen verdubbelen, mobo vervangen, cpu upgraden, gpu upgraden... ook hier blijft dan wel meer geld over voor andere dingen :)
Het is natuurlijk onzin dat er dan helemaal geen snellere systemen zouden kunnen komen. Ze verzinnen dan heus wel manieren om makkelijk meerdere CPU's in een pc te stoppen...
misschien gaan programmeurs dan wel zuiniger omspringen met system resources :)

nuja, op 10jaar doet men al heel wat hoor, ik vindt dit trouwens maar een gevaarlijke uitspraak die men totaal niet kan staven, op dit soort ontwikkelingsfases kan je absoluut geen termijn kleven
Helaas is de maximale snelheid van een chip inderdaad een beperking. Je kunt namelijk geen dunnere schakeling maken dan een aantal atoomdiktes. Atomen zijn in de grootte orde van nanometers (0.001 micron), dus 0.01 micron als theoretisch minimum is juist.

Je kunt helaas niet verder gaan, omdat je ook steeds meer met quantum effecten te maken krijgt. Dit zorgt ervoor dat je niet meer kunt weten of een schakeling 0 of 1 zegt, wat het fundament voor een computer uitschakelt.

Quantumcomputers, zijn in theorie een mogelijkheid om die beperking te omzeilen, maar het wordt niet makkelijk om de theorie in iets nuttigs om te zetten. Vergelijk het maar met kernfusie, dat theoretisch goed beschreven is, maar in de praktijk niet uitvoerbaar.

Tevens wordt de lithografie apparatuur, die de 50 miljoen transistoren op een plaatje sillicium tekent steeds meer op de proef gesteld, waardoor het steeds moeilijker wordt om nauwkeurig chips te maken. Vergelijk lithografie met het op een cm naukeurig besturen van een 747 op topsnelheid. Ik denk dat het na 0.13 micron steed moeilijker wordt om betere apparatuur te maken.

De limiet wordt dan waarschijnlijk eerder bereikt.
Lithografie zal inderdaad op een bepaald moment tegen een grens aanlopen. Dat 0.01 micron het juiste theoretische minimum voor deze techniek is ben ik niet met je eens, er is momenteel geen enkele garantie te geven dat 0.008 niet mogelijk zou kunnen zijn, of dat 0.01 uberhaubt te bereiken is. Ik ben het wel met je eens dat het voorlopig een realistische schatting is.
Over die kernfusie ben ik het gedeeltelijk met je eens. Een waterstofbom bestaat al, een praktische toepassing van kernfusie. Het controleerbaar maken van het proces zorgt momenteel inderdaad nog voor veel problemen, maar ik wil er toch op wijzen dat men er al in slaagt om een gecontroleerd kernfusieproces een milliseconde op gang te houden. Het is wel uitvoerbaar, maar het is duidelijk dat dit op zijn vroegst 80 jaar na het begin van het onderzoek ernaar werkelijkheid zal worden.
Ik heb een voorgevoel dat dit met Quantumcomputers ook zo zal gaan. Je kunt echter ook gewoon met elektronen werken, zonder quantumtoestanden en dergelijke erbij te betrekken. Deze zijn toch 1000x zo klein als de voorlopig verwachte baanbreedtegrens van lithografie.
0,13 micron zijn ze nu al dik voorbij joh.. je denkt toch niet dat ASML nu nog op de 0,13 micron schaal zit te klooien ? :) kom op :) daar zaten ze ruim een jaar geleden al op en met UV licht (kortere golflengtes) komen ze nog een stuk kleiner uit, en die dingen zijn geloof ik nu al in productie..
Quantumcomputers, zijn in theorie een mogelijkheid om die beperking te omzeilen, maar het wordt niet makkelijk om de theorie in iets nuttigs om te zetten. Vergelijk het maar met kernfusie, dat theoretisch goed beschreven is, maar in de praktijk niet uitvoerbaar.
mwha, waterstofbommen zijn toch vrij effectief ;) en fusiereactoren is men ook al vrij aardig mee opweg (want daar doelde je natuurlijk op).
En terwijl deze rampspoed wordt 'uitgelekt', weten we al, dat bv. IBM bezig is met laserchips en die 'superdrives' van ze, magnetisch geheugen ter vervanging vd harde schijf en noem maar op. Wie had het nu ook alweer over 'wanneer', als de schakelingen van silicium-transistors nu al worden nagebouwd via laser of andere nano-tech? Elk jaar hoor je weer meer over de ontwikkeling van lasergeschakelde chips..

Wat mij veel meer interesseert, is wanneer ze nu eindelijk eens iets vinden op het 2-bits systeem. Wij denken 3D, dus zou een beetje computer dat ook moeten gaan kunnen. Als een soort van 3-traps transistor? Rechtdoor, linksaf, rechtsaf? X,Y,Z?

Maar goed.
eh... dit bestaat toch al voor een deel in Fuzzy Logic
En tja, als je meer stappen wilt (ipv binair -> tertair) ga dan maar meteen naar de chemische logica. De computers zijn niet voor niets gebasseerd op het binair systeem. Dit brengt namelijk zoveel logische en fisieke voordelen met zich mee dat het niet de moeite loont om naar andere vormen te kijken.

Eenvoud wint altijd.
Eh jongens ff een vraagje :) op een gegeven moment hebben we dan een computer van zeg 50 GHz, iedereen heeft geheugen waar niks tegen opkan, spellen worden weergegeven met abnormale realiteit, we hebben harde schijven van 20 Tb, en dat alles in een boxje ter grootte van een licifer doosje :+ ( ja ehhh jullie willen alles zo klein mogelijk). En dan :? Wat willen we dan nog meer op het gebied van thuiscomputer?
Is het niet gewoon een doodlopende weg
precies wat ik hier boven gezegd heb.. wat dus off topic blijkt te zijn... er komt 'n dag dat het punt berijkt is.. waarbij de realiteit niet meer in te halen is... en dat punt wordt naar mijn idee binnen 10 jaar 'n feit.. en zodoende is de huidige generatie computers op z'n einde...
Ach ja, er zal vanzelf wel weer iets nieuw worden verzonnen.

Zo zijn fabrikanten van harde schijven tegenwoordig toch ook naarstig op zoek naar nieuwe methode om schijven met grotere opslagcapaciteiten te kunnen maken omdat het maximale met de huidige methode al bijna gehaald is.
vele mensen hebben het dan toch over de quantum computers...

ik denk dat optische chips toch de weg voorwaards zijn.... mits de sensoren zo snel gemaakt kunnen worden dat ze enkele fotonen kunnen detecteren... dan kan de kloksnelheid eens tuk omhoog geschroefd worden.
Qua techniek kan je dan misschien kleiner, maar wel beter. Ik vraag me af hoe efficiënt tegenwoordig chips werken. Ik doel op het onderzoek dat gedaan wordt naar dynamische chips die zichzelf kunnen "bekabelen", dus dat ze zelf de optimale circuits on the fly kunnen maken. Een beetje zoals de werking van je hersenen.

Er valt dan nog genoeg te optimaliseren, zoals warmte afvoer, geheugen technieken, etc... Niet dat de ontwikkeling dan onmiddelijk stil komt te staan :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True