Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: ZDNet

Onderzoekers van Intel zijn erin geslaagd om interconnects van nanotubes te fabriceren. Deze verbindingselementen tussen de transistoren in chips worden tot dusverre van koper gemaakt, maar de steeds voortschrijdende miniaturisatie maakte koperen interconnects tot een van de grotere problemen die chipmakers in de komende jaren te overkomen hebben: hoe dunner een interconnect is, hoe hoger de weerstand wordt. Dankzij een eigenschap die 'ballistic conductivity' genoemd wordt, zijn nanotubes in staat om uitstekend geleidende verbindingen van slechts enkele nanometers dik te maken: ze geleiden veel beter, omdat elektronen niet door het materiaal van de interconnect worden afgeremd.

Bakje NanotubesDe nieuwe technologie heeft echter wel weer een ander probleem: de massaproductie van uniforme nanotubes is vooralsnog zo goed als onmogelijk. Verschillen in lengte en vooral in chemische samenstelling zorgen ervoor dat buisjes die onder identieke omstandigheden worden gefabriceerd, toch zeer uiteenlopende eigenschappen vertonen. Intel heeft die variatie deels het hoofd kunnen bieden door met behulp van een elektrisch veld bundeltjes nanotubes te maken, waarvan de eigenschappen voorspelbaarder zouden moeten zijn. Toch is er nog jarenlang onderzoek nodig voordat nanotubes in commerciële chips zullen opduiken, waarschuwde onderzoeker Mike Mayberry. De eerste toepassingen van de nieuwe materialen moeten niet voor 2010 of 2012 verwacht worden, maar de chipfabrikanten zullen in de jaren daarna steeds minder keuze hebben. Zo rond 2020 zullen de grenzen van siliciumchips bereikt zijn en moeten onder andere nanotubes voor verdere vooruitgang zorgen.

Moderatie-faq Wijzig weergave

Reacties (39)

Nano tubes zijn al een hele tijd in het nieuws.

Alleen vraag ik me af of computers nog wel sneller moeten worden.
Moeten ze niet krachtiger worden door bijv dual core oplossingen?

Ik denk dat het op dit moment belangrijker is om applicatie's volop gebruik te laten maken van dual/quad/whatever en dual gpu's...

Computers zijn snel zat, nu nog het volle potentieel benutten...
Alleen vraag ik me af of computers nog wel sneller moeten worden.
Moeten ze niet krachtiger worden door bijv dual core oplossingen?
Wat mij betreft, liever niet.
Snellere cores hebben een positief effect op alle code.
Meer cores hebben alleen een positief effect op code die er gebruik van kan maken, en zelfs daar is het effect vaak nogal beperkt.
Prestaties schalen bijna lineair met het verhogen van de kloksnelheid (bij gelijk ontwerp), terwijl prestaties maar zelden lineair schalen met het aantal cores.

Dus wat mij betreft gaan snelle cores boven veel cores.
Ik hoop dat er een goede balans komt tussen het aantal cores en de snelheid van de cores op zich. De Core2 zette deze lijn in, en ik hoop dat ze die vasthouden... meer cores, en snellere cores.
Code die onnodig gebruik maakt van het geheugen en/of andere IO, doet het niet lineair sneller met een hogere kloksnelheid. Code die goed gebruik maakt van veel cores hoeft niet per sé optimaal (lees: zo min mogelijk) gebruik te maken van IO.
Code die onnodig gebruik maakt van het geheugen en/of andere IO, doet het niet lineair sneller met een hogere kloksnelheid.
Vandaar dat ik zeg 'bijna'.
En geheugen wordt met praktisch dezelfde technologie gemaakt als een processor.
Technologie voor snellere processors kan dus ook gebruikt worden voor sneller geheugen (tot op zekere hoogte uiteraard).
Code die goed gebruik maakt van veel cores hoeft niet per sé optimaal (lees: zo min mogelijk) gebruik te maken van IO.
Maar dat is de omgekeerde wereld.
Het optimaliseren van je code betekent natuurlijk niet dat je bezigheidstherapie voor de cores schrijft, maar dat je optimaal gebruik maakt voor het systeem als geheel, inclusief I/O.

Afgezien daarvan zijn deze opmerkingen off-topic. Geheugen en I/O-bottlenecks zul je altijd hebben, of je nou meer cores hebt, of snellere cores. Ik geef alleen aan dat naar mijn mening snellere cores te prefereren zijn boven meer cores, vanwege de meer algemene toepasbaarheid van snellere cores (grotere groep algoritmen die er voordeel van hebben, en minder complex om code voor te ontwikkelen).
Daarnaast is het meerdere core verhaal nogal bullshit, het gaat vooralsnog om de architechtuur van 1 core, daar kunnen ze dan best wel meerdere cores uit opbouwen door wat te copy/pasten :P , Maar het zijn wel gelijken aan elkaar. Het ontwikkelen van snellere cores zal dus altijd doorgaan, de keuze om er meerdere van bij elkaar te zetten is een heel ander verhaal. Ik vind de redenatie gewoon niet opgaan, je moet prestaties altijd bekijken vanaf een single core. Een nieuwe ontwerp van Intel zou bijvoorbeeld een core kunnen zijn die net zo goed presteert als een quadcore van nu, waar vier van die nieuwe cores uiteraard weer veel sneller zijn dan wat er nu verkrijgbaar is. Tegenwoordig is het ontwerp altijd al zo gemaakt dat er meerdere van bij elkaar gestoken kunnen worden, de vraag of het niet beter is om meer tijd te steken in Multicore ondersteuning vind ik daarmee al totaal misplaatst, das een totaal andere league die zich heus wel zal voortzetten. Maar dat heeft volstrekt niets met deze ontwikkeling te maken, die is alleen maar goed en JAH natuurlijk moeten cpu's altijd sneller worden en NEE ze zijn nooit snel genoeg.
Snellere cores hebben een positief effect op alle code. Meer cores hebben alleen een positief effect op code die er gebruik van kan maken, en zelfs daar is het effect vaak nogal beperkt.
Uiteraard. maar sneller cores zijn veel moeilijker te maken, en qua transistors (en dus energie verbruik) uiterst inefficient. Meer cores daarentegen zijn dood eenvoudig, en veel efficienter.

Een multicore CPU tesamen met programma code die daar optimaal gebruik van maakt, zal veel efficienter, en daarom ook veel sneller zijn dan een single core oplossing met hetzelfde aantal transistoren. Maarja... die software is er nauwelijks...

Je hebt hier het klassieke kip-en-het-ei probleempje... Zonder geoptimaliseerde software, is een multi-core CPU niet sneller, en is er dus geen vraag naar. En zonder volop multi-core CPU's zullen programmeurs geen moeite doen om hun software hiervoor te optimaliseren.

Op dit moment is vrijwel alle software puur voor single core gemaakt. Logisch, want de meeste programmeer talen hebben ook helemaal geen inherente multi-core mogelijkheden, hetzij in de taal, of in de compilter. Iedereen schrijft default single threaded/single core code, en moet (te) veel moeite doen om het multi-threaded te maken.

Wat nodig is zijn programmeer omgevingen waar multi-core optimalisatie impliciet verwerkt zijn. Bijvoorbeeld compilers die grote array bewerkingen automatisch kunnen opsplitsen, zonder dat de programmeur zich om de details hoeft te bekommeren.
Het grote verschil zie je bij consoles.
Het platform is bekend en veranderd niet, en daar kan heel veel uit worden gehaald.

De PC is een mengelmoes die niet precies ergens in uitblinkt behalve dan een alleskunner te zijn op korte termijn,
na een jaar of twee zijn de spec verouderd.

Desondanks een mooie uitvinding,
dat intel zich er mee bezig gaat houden wil niet zeggen dat het doel uiteindelijk is om een consumenten-cpu in elkaar te gaan zetten. Geheugen is relatief simpel, dat kan vb de eerste stap zijn,
of nog kleinere chips, etc etc.

Het grootste probleem dat ze moeten overbruggen is om er een werkbare chip van te maken,
enkele schakelingen die het doen maken geen chip, daar heb je vandaag de dag simpelweg miljoenen van nodig.
"De PC is een mengelmoes die niet precies ergens in uitblinkt behalve dan een alleskunner te zijn op korte termijn,
na een jaar of twee zijn de spec verouderd."

En na een jaar of 2 zijn consoles niet verouderd?
|:(

HET testplatform voor elke nieuwe techniek voor het grote publiek is toch nog steeds de (pocket)PC en dat geldt zeker voor nanotube-chips...want een console, hoewel die steeds krachtiger en veelzijdiger wordt, zal nooit de veelzijdigheid verkrijgen die een pc heeft en zal nooit zo snel up-to-date zijn met de nieuwe ontwikkelingen, omdat de consolebouwers daar niet hun voordeel mee kunnen doen. (Zie jij al een console voor je die de volledige games kunnen kopieren? of die je elk half jaar moet upgraden?) :z
Man wat een gel*l. Computers kunnen feitelijk niks en zijn dom. De extra rekenkracht kun je al helemaal kwijt aan het verbeteren van deze tekortkoming.

Het feit dat de huidige computers veel sneller kunnen rekenen dan jij kan hoofdrekenen en ze jouw favoriete spelletje kunnen draaien wil niet zeggen dat er geen mensen zijn die wel (bijvoorbeeld voor hun werk?) een computer met een factor 1,5 per 18 maanden sneller willen zien worden.

Mijn kan een computer niet snel genoeg zijn... Kijk wat er allemaal mogelijk. Wanneer vervagen de grenzen der algorithmiek en wordt de schijn van intelligentie gewekt?
Is het in computerland in het algemeen niet zo dat `sneller = krachtiger`. Ook met dual-core en multi-core is het de bedoeling om een taak in minder tijd af te ronden danwel meerdere taken in dezelfde tijd af te ronden.

Ik ben het wel met je eens en dat ben ik al sinds ik in 1998 of 1999 een ASUS P2B-DS moederbord kocht (dual CPU PII en PIII) dat het aanpassen van software om gebruik te maken van meerdere CPU's of cores op de *desktop* zeer noodzakelijk is.

Ik ben zelf een fervent gamer en wat mij betreft is er nog genoeg ruimte voor verbetering/versnelling van CPU's.

Daarnaast kun je bij deze (nano) technologie ook wel zien aankomen dat productie waarschijnlijk goedkoper gaat worden, er zijn immers minder grondstoffen nodig, en niet geheel onbelangrijk dat het stroomverlies door 'leakage' in processoren aanzienlijk omlaag zal gaan. En daarmee het algehele stroomverbruik van een processor. En aangezien Intel ook chipsets en dergelijke produceert zal ook hiervan het stroomverbruik aanzienlijk omlaag gaan. Ik heb geen cijfers bij de hand (en even geen zin om op te zoeken), maar ik vermoed dat mijn 955X chipset met 4 HD's waarvan 3 in RAID en 6 aangesloten USB apparaten ook wel ergens rond de 20 á 30 watt verstookt.
Computers zijn snel zat
En 640K is meer dan genoeg.... :P

Ik denk dat deze oplossing in de toekomst mogelijkheden biedt tot hele nieuwe technologische innovaties, i.p.v. het huidige voortborduren op een 20-jaar oud concept.
Snap deels niet hoezo je weggemod wordt. Deels zijn computers snel zat, de huismoeder zal niet veel meer nodig hebben. Maar neem in gedachte dat Vista om de hoek staat met belachelijke eisen en om daaraan te voldoen zullen we weer op nieuwe eisen uitkomen.
Verder deels in de zin van de gewone thuisgebruiker heeft er voldoende aan. In de professionele wereld is het een ander verhaal. Ik zou graag meer kracht hebben als ik sneller kan renderen, beter mn wireframes kan mishandelen of sneller mn calculaties kan uitvoeren. Maar dat is het onderscheid professioneel.
Misschien dat er ooit een niche markt hiervoor gaat uitblinken, workstations zijn nu nog een doorsnee markt echter misschien in de toekomst echt sneller veel sneller zijn dat het niet meer interessant is om iets nieuws te kopen zal er voor de prof. misschien wel iets aparts op de markt komen. Bv nano-tube uitgevoerde cpu's
moet ik eens doen, op die mannier de interconnects tussen de switches maken :o

een bord spagettie is er nix bij
Zal dit de kosten lager maken of juist hoger? het lijkt er op dat dit produceren opzich best moeilijk is, dus hogere kosten lijken mij iig wel logisch.
Tis natuurlijk vrij simpel, zodra de productie-kosten eruit gehaalt kunnen worden zal men gaan produceren (duurt no wel ff dus) en zal de kostprijs na verloop van tijd naar beneden gaan door het doorontwikkelen van de productietechniek.

Is toch met alles zo ;-)
Het gaat er eerder om of ze in staat zijn een manier te vinden die massa produktie toelaat. Alles wat in massa produktie gaat word sneller goedkoper.

De techniek hebben ze iig. al gerealiseerd, nu de techniek nog voor massa produktie en voor je het weet is het mainstream.

En voor zover ik kan zien wat nanotubes aangaat kunnen ze 2 kanten op, of een CPU veel kleiner maken, of de hedendaagse grote aanhouden wat een factor tig maal snelheid oplevert dan nu.

Intel kennende zullen ze dus gaan ontwikkelen voor diverse markten, en organisatie's zoals de NASA en het leger zullen er het eerste gebruik van gaan maken, wat vrijwel standaard is, omdat de roep daar vandaan vele malen groter is :)
Misschien zijn ze moeilijker te maken, maar koper geeft grote problemen in een halfgeleider fab. Koper atomen hebben de eigenschap zich overal aan te hechten, zodat de fab een aparte luchtbehandeling voor de koper afdeling nodig heeft. Cleanroom pakken moeten apart gehouden worden etc. Dat hoeft allemaal niet meer met nanotubes.

Ik heb wel eens gehoord dat als je een koperen munt op tafel legt, je binnen een minuut koperatomen aan de onderzijde van die tafel kunt vinden. Aangezien koper geleidt, kun je je dus voorstellen wat voor problemen dit kan geven bij de chipfabricage.
omdat elektronen niet door het materiaal van de interconnect worden afgeremd.

Niet worden afgeremd? of minder worden afgeremd... Uit de text blijkt dat die nano-tubes geen weerstand hebben...

True/False ??
alles heeft weerstand... dus ik denk dat het gewoon vele malen minder weerstand is...
anders was het wel groter nieuws geweest ;)
Oh, ja? Zeker nog nooit van supergeleiders gehoord, die hebben geen weerstand en laten elektronen ongehinderd door. Nu zeg ik natuurlijk nie dat nanotubes supergeleiders zijn, een supergeleider moet meestal namelijk vrij ver onder hetr vriespunt afkoelen voordat ie het doet.
een supergeleider moet meestal namelijk vrij ver onder hetr vriespunt afkoelen voordat ie het doet
Over het algemeen in de buurt van 0 Kelvin, wat neerkomt op -273 graden Celcius (afgerond). Bij benadering van die temperatuur worden sommige materialen inderdaad supergeleiders. Maar echt toepasbaar in een functionele toepassing is dit dus echt niet. Ook de nanotubes zullen dus een bepaalde weerstand hebben.
Even mierenneuken zoals we dat in belgie zeggen.. :supergeleiders hebben wél weerstand, alleen is hij heel laag...

@Niles
Er bestaan ook materialen die op een veel hogere temperatuur supergeleiden worden hoor. Die kunnen gewoon gekoeld worden met vloeibaar stikstof wat relatief goeiekoop is (andere moesten met vloeibare oxygen).
Zal onder andere gebruikt worden bij hovertrains om zo maar een functionele toepassing te noemen. Voor commerciele microcircuits is het natuurlijk nog niet bijster handig.
even mierenneuken. Supergeleiders hebben GEEN weerstand! ook niet een klein beetje!!! HELEMAAL GEEN!

Daarom zijn ze ook zo geil. De goedkoopste supergeleider materialen worden met vloeibaar helium gekoeld (4 K ongeveer). Duurdere zijn te koelen met Vloeibare stikstof (90 K).

In de aankomende nieuwe Fusiereactor in frankrijk worden een gedeelte van de spoelen gebouwd met supergeleiders. Zo kan een magnetisch veld blijven bestaan als het eenmaal is aangelegd. Dat is een grote toepassing die waarschijnlijk steeds meer gebruikt gaat worden.
Dus volgens de wet van ohm heb je dan oneindig hoge stroom? (R = U/I)

edit:
Hmm stom, wet van ohm is niet toepasbaar op isolatoren en supergeleiders. Zegt wikipedia in ieder geval:
http://nl.wikipedia.org/wiki/Wet_van_Ohm
ze worden niet door het MATERIAAL afgeremd. Oftewel, in de baan van electronen zullen veel minder vaak botsingen etc. voorkomen.
In een metaal zoals coper bewegen de electronen tussen atomen en andere electronen door, de kans op botsen is redelijk, vooral als de temperatuur oploopt en de stroom groot is.

Bij nanotubes zullen de electronen veel meer langs, min of meer, paden gaan door de verschillende valantiebanden. de weerstand wordt dan vooral bepaald door andere dingen, zoals de electrische velden en krachten op electronen, en veel minder door fysieke interactie met de materie.


Dit verhaaltje hierboven is pure speculatie, en ik baseer het alleen op het feit dat dit mij logisch lijkt. Ervan uitgaande dat de door jou ge-quote zin, juist is.
Het geeft iig een mogelijke verklaring.
Zit een mooie toekomst in, als ze de samenstelling kunnen controleren. Het heeft tijd nodig, maar het gaat zeker lukken met de technologiën van tegenwoordig. :)
"gaat zeker lukken met de technologiën van tegenwoordig."

Van de toekomst ;)
Mijn computer is snel genoeg (AMD X2 4600), Ik heb veel liever eentje die wat minder warmte produceerd.
Al die fans in de computer maken veel te veel herrie.

Want als de huidige warmteproductiecurve van de computers zo doorgaat heb je binnenkort geen CV meer nodig, want dan kun je computer daarvoor gebruiken.

De meeste progs zouden een stuk sneller zijn als ze gebruik zouden maken van geoptimaliseerde software.
Veel software is gegenereerd, en dat resulteerd meestal in code met een hoop zooi erin.Dus sneller is niet echt nodig
Probleem is dat je op steeds kortere tijd steeds complexere programma's wil maken, die ook nog eens minder fouten bevatten.
Als dit mogelijk is door het opgeven van wat performance zal dat in veel gevallen het wel waard zijn.
Bovendien is het daarna weer mogelijk om de code-generator te optimalizeren, zodat alle code die op een hoger niveau geschreven is hiervan kan profiteren zonder aanpassingen.

Verder ben ik het niet echt met je eens dat de warmteproductie van computers nog steeds aan het stijgen is. Ik vermoed dat we met de P4's daarmee op een hoogtepunt geweest zijn, en dat de desktop-processors die daarna zijn uitgebracht toch allemaal weer minder verbruiken.
Weerstand van nano-tube interconnects is lager dan koper waardoor stroomverbruik en warmteontwikkeling daalt.

win-win dus. Laat maar komen die dingen.

Sneller, zuiniger en koeler. We hebben nog een lange weg te gaan.
@Fastex:

"640K ought to be enough for anybody. - Bill Gates, '81"
Laat maar komen die snellere PC's dat betekend ook uiteindelijk dat er betere graphics op de markt kunnen komen = mooiere games.

(i know, dat ligt aan de game-makers, maar die maken er echt wel gebruik van!)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True