Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 27 reacties

Onderzoekers van het NIST in de VS hebben een fout aangetoond in een theoretisch model dat zogeheten transistorruis voorspelt. De theorie blijkt voor kleinere chipstructuren niet op te gaan, wat de ontwikkeling van energiezuinige chips hindert.

Fabrikanten van halfgeleiders houden bij hun ontwerpen sinds jaar en dag rekening met de theorie dat transistors door het reduceren van transistorafmetingen meer last hebben van hun eigen magnetische veld. Hierdoor kunnen transistors ongewild spontaan in de aan- of uitstand springen.

Volgens dit theoretisch model, bekend als het 'elastic tunneling model', neemt de zogeheten ruisfrequentie toe als de afmetingen van transistors afnemen. Jason Campbell, hoofd van het NIST-onderzoeksteam, heeft echter ontdekt dat de ruisfrequentie gelijk blijft zelfs nu de grootte van transistors tot nanometer-orde is geslonken. “Dit impliceert dat de verklaringstheorie voor de ruiseffecten niet correct is”, aldus Campbell.

De ontdekking heeft volgens de onderzoekers vooral gevolgen voor de ontwikkeling van energiezuinige halfgeleiders, omdat het ruisprobleem groter wordt naarmate het vermogen van de transistors daalt. "We moeten begrijpen hoe dat kan, anders wordt dit een bottleneck bij de ontwikkeling van steeds energiezuiniger halfgeleiders", aldus Campbell. Voor het onderzoek werkte het NIST samen met de University of Maryland Collega Park en met Rutgers University.

Moderatie-faq Wijzig weergave

Reacties (27)

de theorie was dat ruis toeneemt als de transistors kleiner worden, maar het blijkt nu dus niet waar te zijn als je ze heel erg klein maakt

aangezien ruis een probleem is, is dat toch alleen maar goed dat het niet toeneemt?
De ruis is er wel, alleen blijkt het nu niet te komen doordat de transistoren meer last krijgen van hun eigen magnetisch veld als ze erg klein zijn. Ze moeten nu dus op zoek naar een andere verklaring voor de ruis/het willekeurig aan- en uitspringen van de transistoren.
dat dacht ik ook eerst, maar als je het orginele artikel leest zie je dat het om de ruis *frequentie* gaat. die blijkt dus gelijk te blijven,
"We moeten begrijpen hoe dat kan, anders wordt dit een bottleneck bij de ontwikkeling van steeds energiezuiniger halfgeleiders"

Lijkt me duidelijk. Je hebt een gebruiks signaal (1 en 0) en een ruissignaal. Hoe sterker het gebruikssignaal, hoe minder invloed het ruissignaal heeft op de stand van de transistor. Hoe energiezuiniger hoe zwakker het gebruikssignaal.
Ja, maar een sterker gebruikssignaal is een hoger voltage. Dit gaat natuurlijk gepaard met meer energieverbruik en hogere temperaturen, dat is natuurlijk niet goed :)
Het gaat ze er niet om welk probleem de ruis veroorzaakt, dat wisten ze namelijk al maar wat de werkelijke oorzaak is van de ruis. Zodra je de oorzaak weet kun je namelijk methodes gaan ontwikkelen om de ruis te verminderen.
Het was toch al bekend dat men met de huidige transistors maar tot een bepaald procede kon doorgaan voordat de ruis te erg zou zijn ?
Nope, dat dacht men ;)
Volgens dit theoretisch model, bekend als het 'elastic tunneling model', neemt de zogeheten ruisfrequentie toe als de afmetingen van transistors afnemen. Jason Campbell, hoofd van het NIST-onderzoeksteam, heeft echter ontdekt dat de ruisfrequentie gelijk blijft zelfs nu de grootte van transistors tot nanometer-orde is geslonken. “Dit impliceert dat de verklaringstheorie voor de ruiseffecten niet correct is”, aldus Campbell.
Nu blijkt dus dat er een andere oorzaak is waardoor transistoren niet kleiner kunnen worden gemaakt. Het komt niet door de grootte die deze ruis veroorzaakt, maar zoals je kunt lezen door de afname in energiegebruik. Men wil processoren en andere chips zo zuinig mogelijk maken, maar dat blijkt nu dus zijn keerzijde te hebben.

[Reactie gewijzigd door GENETX op 25 mei 2009 09:00]

Dus een hogere spanning erop zetten zou dat oplossen?
Of gaan er dan "vonkjes overspringen" op zo een klein procede?
Een hoger voltage merk je nu al. Als je overclocked moet je soms een hoger voltage gebruiken voor een correcte werking, terwijl je op lagere snelheden hem soms juist kunt ondervolten (laptops). Wat dat betreft zorgt een hoger voltage wel voor meer stabiliteit om de ruis tegen te gaan, ruis di eje kunt verwachten op hogere snelheden.

Hoe het zit met vonkjes en dergelijke weet ik niet. Het grootste probleem is verder dat men juist het vermogen omlaag wil krijgen om zo meer transistoren op eenzelfde oppervlakte kwijt te kunnen. Het aantal transisoten in een chip blijft groeien en om die processors mogelijk te maken moeten de chips dus kleiner -> kleiner procédé.

Wanneer je het vermogen dus omhoog zou gooien krijg je een hoger energieverbruik waardoor de temperatuur ook stijgt. Kortom: Dat stopt de vooruitgang die je oa duidelijk kan zijn bij de stap van Phenom (65nm) naar Phenom II (45nm).

Maar we hebben nog even om een oplossing te vinden gelukkig. Daarbij hebben we ook nog altijd quantum processors in de maak :)
De hogere spanning die je nodig hebt met overklokken is niet om ruis tegen te gaan maar om snel genoeg van spanningsnivo te kunnen schakelen.
Daarbij hebben we ook nog altijd quantum processors in de maak
Quantum processors zijn geen heilige graal. Quantum computing is alleen maar zinnig voor een heel specifieke probleemset. Voor al het overige (lees: het draaien van je OS, je tekstverwerker en je game) is een gewone conventionele processor nodig.
Voor al het overige (lees: het draaien van je OS, je tekstverwerker en je game) is een gewone conventionele processor nodig.
Nog wel ja.

Maar het lijkt me inderdaad wat voorspoedig om al op quantum thuiscomputers in te zetten.

Maar aan de hand van het onderzoek op nanoschaal beginnen we nu toch te leren over wat er wel en niet mogelijk is op kleinere schaal. Het is mogelijk dat er aan de hand van het ontdekken van de werkelijke barierrie dus nieuwe chiptechnologiëen zullen ontstaan.

[Reactie gewijzigd door fevenhuis op 25 mei 2009 12:26]

Maar het lijkt me inderdaad wat voorspoedig om al op quantum thuiscomputers in te zetten.
Mijn hele punt is dat zo'n "quantum thuiscomputer" nog steeds conventionele processor onderdelen bezit. Het simpelweg gebruiken van een quantum computer is dus geen oplossing voor de problemen die in dit artikel naar voren komen. De opmerking van GENETX was hier dus niet op z'n plaats.
Ik denk niet dat het een vaart zal lopen een een heilige graal is het idd niet.

Wel is het zo dat je ook alternatieve methoden kunt aangrijpen om verder te komen. Voorheen was het de kloksnelheid omhoog helpen, daarna de cores. Straks krijgen we Fusion etc etc. Als iets spaak loopt zul je een alternatief moeten vinden waar je WEL mee verder kunt.

Quantumcomputers zouden een oplossing kunnen zijn, maar die kans acht ik ook wel klein ja.
Quantum computing is alleen nuttig voor specifieke toepassingen, zoals het oplossen van logische problemen. De truuk is dat quantumprocessoren eigenlijk geen berekeningen doen, maar in plaats daarvan de theorie van quantummechanica gebruiken om het alternatieve universum aan te nemen waarin de oplossing van het probleem gevonden is. Dit klinkt een beetje vaag, ik weet het, maar quantummechanica is vaag. :)

Voor gewoon lomp berekeningen uitvoeren is een conventionele processor veel geschikter, dus zo hard zal het niet lopen :)
Een hogere spanning levert ook een hogere stroom, en dus een hoger energieverbruik op.
En dat is nu net niet wat je wil als je energiezuinige processoren ontwerpt.

Helaas is dat dus niet de oplossing waar men naar zoekt. Liever nemen we de bron van de ruis weg, of proberen die te compenseren. Maar daarvoor moet je wel weten wat die bron is.
Dat heeft ook met de afmetingen van een elektron te maken en het gemak waarmee elektronen kunnen 'lekken' naar andere sporen op de chip. Dus die limiet aan de minimale spoorbreedte blijft gewoon bestaan.
volgens mij ging dit stuk over dat elektronen op verkeerde gaten zitten of niet, waardoor de er ruis onstaat. http://en.wikipedia.org/wiki/Signal_noise en even iets uit de boekenkast: "analog integrated circuit design" ik vind het alllemaal maar moeilijk...
ja maar ze hebben nu dus aangetoond dat er een fout zit in die theorie ..
Ik ben natuurlijk niet zo'n slimmerik als de mensen die daar werken maar ik zou zeggen dat het misschien kan komen doordat transistors die op een zeer laag vermogen werken gevoeliger zijn aan de base voor veranderingen. Hierdoor zou een kleiner magnetisch veld genoeg spanning kunnen maken om de correcte werking van de transistor te hinderen.

Maar dat was even wat mij in het hoofd kwam ik neem aan dat die mensen daar vast allang een keer aan gedacht hebben.
Het gaat ze niet echt om de praktische oorzaak maar de theoretische verklaring daarvan... Hoe het IS zegt iets over het WAAROM. Als je het WAAROM begrijpt kun je pas echt iets veranderen.
grappig, dat de industrie een fout aantoont in de theorie. Is dat eerder gebeurd?

Back to the old drawing board dus....
Ehm ik weet niet maar heb je het woord NIST gemist? De industrie wordt juist gecorrigeerd ;)
Wat ik wil weten is : Betekend dit dat de kans op een energie zuinige high end graka toeneemt ?!
Ja, als je de oorzaak niet begrijpt en naar verkeerde oplossingen op zoek bent gaat het niet lukken. Doordat men nu weet dat men in de verkeerde richting zocht neemt de kans toe dat men vanaf nu in de goede richting gaat zoeken en men dus eerder een goede oplossing kan vinden.

Maar op korte termijn? Nee.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True