Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: HP

HP en Nanolithosolutions zouden wel eens voor een doorbraak in de chipmarkt kunnen zorgen met een nieuwe lithografietechniek voor de fabricage van computerchips. HP werkt al tien jaar aan deze techniek en is inmiddels aanbeland bij de vierde generatie.

Met deze productietechniek is HP terug bij de roots van de lithografiekunst. In tegenstelling tot de huidige fabricagemethodes wordt bij nano-imprintlithografie geen gebruik gemaakt van licht, maar van een stempel die het gewenste patroon overbrengt op de wafer. De groeven in het kunststof beschermlaagje kunnen tot slechts 50 atomen breed zijn, veel dunner dan wat met conventionele technieken mogelijk is.

Nanolithografie van HP en Nanolithosolutions

De nieuwe vinding is eenvoudig in te bouwen in een optische lithografiemachine. De 'mask aligner' kan binnen tien minuten vervangen worden door de drukvorm met ingebouwde pers, die dan direct in gebruik kan worden genomen. Desondanks denkt Bo Pi, algemeen directeur van Nanolitho, dat chipfabrikanten in eerste instantie de kat uit de boom zullen kijken. 'Chipfabrikanten zijn altijd erg terughoudend met nieuwe lithografietechnieken. Hardeschijffabrikanten zullen waarschijnlijk de early adopters zijn van deze productiemethode'. Deze markt loopt namelijk binnen vijf jaar tegen de grenzen van de huidige technieken aan en zoekt met spoed naar een methode waarmee de opslagcapaciteit ook na 2012 met vijftig procent per jaar kan worden verhoogd. HP is van mening dat zijn techniek uitermate geschikt is voor 'patterned media'-schijven, waar onder andere Hitachi en Fujitsu onderzoek naar doen. Bovendien hoopt HP dat universiteiten de nieuwe lithografietechniek voor onderzoeksdoeleinden zullen kiezen, waarbij met name de lage kosten als een belangrijk verkoopargument worden gezien.

Nanolitho zal niet alleen de techniek verkopen, het bedrijf gaat ook nanomatrijzen aan zijn klanten leveren. De NIL-mastermal is veruit het duurste onderdeel in de drukmachine omdat deze met elektronenbundellithografie wordt vervaardigd. Zodra deze master is gemaakt kan met imprintlithografie een patroon voor een nieuwe matrijs worden geperst. Door de groeven van deze kloon te vullen met vloeibaar metaal ontstaat een nieuwe mal. Inmiddels is de eerste order bevestigd en wordt bij diverse potentiële klanten een bètaprogramma opgezet.

Moderatie-faq Wijzig weergave

Reacties (50)

Waarschijnlijk lopen we na dit tegen het limiet aan, denk ik.

Zelfs al lopen we niet tegen een limiet aan en kunnen we tot 1nm doorgaan, kleiner dan atoomlevel kunnen we niet, he?
Een atoom bestaat ook uit verschillende delen. Misschien is het in de verre toekomst mogelijk om met andere materialen dan atomen te werken :)
Protonen zijn tot nu toe nog niet buiten de elektronenwolk gekregen. Ik denk daarom ook dat de limieten bereikt zullen worden met deze technologie.

Daarom zullen vaste stoffen (materialen) niet meer gebruikt kunnen worden, wel licht bijvoorbeeld, wat geen (noemenswaardige) "breedte" heeft.
Protonen zijn al wel uit de electronenwolk gekregen. Anders was er ook geen kernenergie. Het proces van kernsplitsing wordt immers in stand gehouden door protonen die uit een zwaarder atoom worden vrijgemaakt tijdens de splitsing en dan weer de botsing aangaan met een nieuw atoom.
Protonen zijn tot nu toe nog niet buiten de elektronenwolk gekregen. Ik denk daarom ook dat de limieten bereikt zullen worden met deze technologie.

Proton beam therapy
Licht heeft wel degelijk een breedte hoor... zo'n 20 nm dacht ik. Daar wordt ook gebruik van gemaakt in de Polman-Kalkman laser, door licht uit een fibertje te laten 'lekken' doordat deze dunner is dan een lichtstraal. Ik kan helaas geen referentie geven, Polman zelf gaf daar een college over toen ik nog studeerde B)
ooit al eens aan het H+ atoom gedacht? je weet wel, van HCl?
@Confusion
De link is niet helemaal goed.
Moet zijn : http://www.llu.edu/proton/
Ja, zo kan je natuurlijk wel even doorgaan...een atoom bestaat uit elektronen, protonen en neutronen. En die bestaan weer uit quarks.
Het probleem is dat die kleinere deeltjes (kleiner dan atomen) niet zomaar los kunnen bestaan, en je er dus ook niet zo heel veel mee kunt rekenen ;).

Als ze wel los bestaan zullen ze snel reageren met de omgeving, en weer (stabiele) atomen (proberen te) vormen.
Losse protonen en neutronen bestaan nl. wel als alphastraling (radioactief Helium zonder de elektronen)...maar die reageert bijvoorbeeld met het eerste beste elektron wat ie tegenkomt uit een ander atoom, en dat is in de lucht vrij snel ;).

Daarom kan ik niets anders dan het eens zijn met jkommeren, lager dan de atoomschaal zullen we niet gaan :(.
Dat zeg je nu, maar wie had twintig jaar geleden gedacht dat we zo ver zouden komen. Elke keer als er een verkleining optreed roepen mensen 'dit zal wel de laatste zijn'. Maar toch worden er steeds methoden ontdekt om kleinere schalen 'onder controle' te krijgen. Ik denk dat het nog wel een tijdje door gaat met nanotechnologie en kleiner.
Ik denk dat, tenzij je een dikke loden kast om je pc heen wilt, zelfs het atoom level al tricky wordt. Alleen al door de ioniserende straling die bij processen in atoom en hun kernen vrij kan komen.

Daarbij zijn de energieen die voor deze exercitie nodig zijn enorm hoog, en heb je typisch grote hoeveelheden 'materiaal' nodig voor een enkele reactie. (een schakelstap zou je als een reactie kunnen zien) Op basis van mijn eigen ervaring binnen dit vakgebied (kernfysica) zie ik hier geen bruikbare techniek voor de IT ontstaan.

Ik denk eigenlijk dat we onze toevlucht moeten zoeken tot single electron devices en of superposities van quantum toestanden in nano meter structuren.
Inderdaad.. kleiner dan dat kan je niet gaan.

Maar er zijn altijd wel weer manieren te bedenken om het dan anders wel uit de breedte te halen, als het niet meer uit de lengte kan.
Of misschien letterlijk zelfs uit de hoogte, want dan vinden ze wel weer een manier om heel veel chips op elkaart te stapelen (beginnen met 2, en in de verre toekomst zeer vele). (hee.. moet ik patent op vragen???)
En daarna vinden ze weer snellere schakelmethodes, efficienter gebruik etc... dus al kunnen ze niet kleiner.. sneller wordt het voorlopig nog wel!
Dit kon in het verre verleden al, waarom denk je dat de electronenbuis zo heette? ;)
Een atoom bestaat ook uit verschillende delen. Misschien is het in de verre toekomst mogelijk om met andere materialen dan atomen te werken

Het is meetbaar dat het zichtbare universum uit de ons bekende elementen bestaat. De delen waarin we die elementen uiteen kunnen laten spatten kunnen geen andere stabiele constructies vormen dan die al bekenden elementen. Misschien kunnen we in de verre toekomst ook <insert onmogelijke wens naar keuze>, maar dat ongeveer net zo waarschijnlijk.
Waarom zo skeptisch, hoezo tegen de limiet aanlopen. Be positive, lose an electron! ;)
Inderdaad. 15 nm is nog steeds een goeie 100 atomen dik. Speling zat. Quantummechanische verschijnselen worden wel een ernstiger probleem, ook op 15 nm al vermoed ik.
Die kwantummechanische verschijnselen gaan inderdaad steeds meer meespelen. Vanaf 10nm wordt het pas echt een probleem: elektronen kunnen bij die afstand gaan tunnelen. Dit houdt in dat het elektron dan aan de andere kant van de isolator te vinden is, en dus min of meer een lekstroom is.

In de huidige architecturen is dit dus zeer ongewenst en het zal onmogelijk zijn hier omheen te komen.

Gelukkig zijn er ook al tijden mensen bezig om juist gebruik te maken van dit principe, en een van de resultaten is de SET transistor: deze Single Electron Tunneling transistor schakelt d.m.v. tunnelende elektronen. Het grote voordeel: je schakelt met één of enkele elektronen, wat uiteraard veel zuiniger is dan nu :)

Het grootste nadeel van deze techniek (en vrijwel alles wat gebaseert is op kwantummechanische verschjinselen), is dat nooit met zekerheid gezegd kan worden of het elektron wel echt getunneld heeft. Er is dus altijd een vorm van redundantie nodig, wat uiteraard invloed heeft op de manier waarmee chip-architecturen ontworpen moeten worden...
Er is een goede reden om skeptisch te zijn:

Hear it from The Man himself:

We have another 10 to 20 years before we reach a fundamental limit.
Op zich mee eens dat het einde van deze techniek aan het einde is, je moet echter verder kijken.
Je kan schakelaars verder verkleinen door met atomen te werken. Als je aan atomen een kenmerk kan schakelen dan ben je op atoomniveau bezig. Voorbeeld: Als je een electron kan weghalen of toevoegen aan een atoom, heb je eigenlijk een 'schakelaar'.
Een andere optie is om aan een materiaal meerdere standen mee te geven. Als je iets hebt dat 1000 'standen' kan hebben, zoals bijvoorbeeld de frequentie van licht, dan kan je daarmee in theorie 500 transistors vervangen.
Er zijn al meerdere labratoria mee bezig dit voor elkaar te krijgen.
Stel je voor dat je een plaat hebt zo groot als een 3,5" harddisk waarbij je elke atoom een waarde kan meegeven! Als je dat vervolgens met bijvoorbeeld een laser kan schakelen en uitlezen dan heb je een hele snelle en grote vervanger van onze harddiks.
1000 standen 500 transistors? ik denk dat dit een grove rekenfout is. met 10 transistors kun je namelijk 2^10 = 1024 standen aangeven dus... en niet met 2*500 = 1000....
klopt, foutje.
Ik bedoelde dus dat als je een transistor met laser zou kunnen 'bedienen' je dus dit wellicht met 1000 zou kunnen vermenigvuldigen. Voor verschillende zaken kan je dan een andere frequentie nemen waar de transistor dan weer apart op zou kunnen reageren.
misschien doen ze de laser ook wel met 2^500 standen... ooit... over hele lange tijd dan :7
Zou me niets verbazen.
Ik vind het ongelooflijk hoe hard het gaat op hardware gebied.
Aan de andere kant is het vreemd hoe langzaam het gaat op software gebied. Als je de stap Vista <> XP vergelijkt met de stap van de processors bij het uitkomen van Vista <> Nu. Dit gaat ook op voor de andere OS-en.
Goed punt, op hardware gebied veranderd er zooo enorm veel, we praten al snel over een ver-zes-voudinging van de cpu-snelheiden ( en dan nog los van de nieuwere archituren en introductie van 64bit),

Wat mij vooral blijft verbazen is dat er steeds nieuwere technieken uit de mou worden getoverd waarvan elk gezond mens eigenlijk zou moete weten dat de markt er nog lang niet aan toe is...

Ik vraag me toch af hoelang we nog binaire systemen blijven houden, - nu de grens van enkele atomen per transistor berijkt gaat worden (of al is),
moet je je vooral toch 's af gaan vragen wanneer er op vectors-gebaseerde schakelingen komen. - waarbij 1 transistor 4 of zelfs 8 bits kan bevatten. -
hoewel dit zinloos blijft zolang er geen software komt die gebruik maakt van zulke nieuwe technieken


Vooralsnog vraag ik me ten eerste af wanneer de consumenten zicht wat minder happerig zullen opstellen, tegenover, nieuwere - en wellicht (nu) nog nutteloze harde waren en in plaats daarvan eens gaan zoeken naar beter geoptimaliseerde besturing van hun systeem...

ik heb zelf in ieder geval gemerkt dat betere optimalisatie van sommige van mijn pctjuhs (zoals een oude via c3 800mhz pc - mits met de juiste software, (in dit geval linux), in 't verwerken van een aantal documenten toch echt sneller was dan een 300mhz snellere pentium 4, en ongetweakte windows xp, (met sys-restore en security center uitgeschakeld) - met verder over gelijke specs. (ram hdisk etc),

Niet bedoeld als flame, maar gewoon een vaststelling,
Maar om een of andere reden zien veel mensen liever brutere kracht in plaats van een beter systeem,

stel je toch eens voor, hoe perfect het zou zijn om een quadcore systeem te draaien (voor multitasken), dat door technieken als 45nm procedées, en andere technieken niet hoger geklockt hoefde te worden dan een magere 1 a 2 ghz, en niet meer zou hoeven gebruiken dan 80 a 150 watt (voor het hele systeem in plaats van alleen de cpu). en toch dezelfde performance,
Nieuwe hotnews items in de toekomst:
atoomvervuiling
atoomophoping
atoomsmog

Die nano's schijnen slecht te zijn voor de buitenlucht. Je maakt mij ook niet wijs dat die bewerkte atomen nooit in de open lucht terecht zullen komen en ons daarmee ziek maken of onze leefomgeving afbreekt.

Al zouden de technische resultaten die je noemt wel gaaf zijn.
niet zozeer dat 10 of 1 nm de grens zal zijn,
de grens is eigenlijk 2d, het 2 dimensionale ontwerp wat je nu nog steeds ziet

in de toekomst zie ik chips komen die een 3D ontwerp hebben
stel je voor 64 lagen ipv 1 laag (ik doe maar een gooi)
geen probleem als dit op 'slechts' 10 nm ontworpen wordt
Produceert zo'n chip van 64 lagen ook niet 64 keer zoveel warmte? En moet de warmte van de 64e laag dan niet dwars door 63 lagen heen migreren voor het bij de heatsink komt? Ik denk dat het nog niet eenvoudig is zoiets te doen :)
Je zou eens kunnen beginnen met iets te verzinnen waardoor je ook een heatsink krijgt aan de onderkant, zodat je van twee kanten af kan koelen. Maar inderdaad: misschien is het wel nodig om veel zuiniger (en dus koelere) chips te bouwen wil dit toepasbaar zijn. Aan de andere kant kunnen in een 3D ontwerp de afstanden tussen componenten ook kleiner zijn, waardoor er minder verliezen zijn en het geheel dus al "vanzelf" koeler wordt.
ja, met huidige chiptechnologie wel moeilijk.
lijkt al moeilijk om zeg 8 cpu op te stappelen
en dan alles koel te houden

mischien op <25 nm wel makkelijker te koelen

waar het heen gaat , hoop ik, is dus een totaal andere aanpak van cpu ontwerp EN een totaal ander medium om de chip op te laten werken
ik hoorde al iets van laser, licht etc(in silicium) technologien, dus fotonen ipv een stroompje electronen
ik dacht dat die echt maar op een duizendste warmte productie zitten fzo (ik doe maar een gooi, of nog beter).
in dat geval zie ik wel 64 lagen goed gaan
Hier zijn ze al mee aant testen, weet niet meer waar ik dat toen gelezen heb.

Het zou kunnen werken alleen ze kregen op dit moment de binnenste lagen niet gekoeld.
Er zou dus tussen iedere laag actieve koeling (miniscule kanaaltjes of whatever) aanwezig moeten zijn en dat kunnen ze nog niet op die kleine schaal.
vzviw wordt daar al mee gewerkt ja. primaire toepassing is het plaatsen van bijv. de registers op een andere laag. ook snap jij natuurlijk ook wel dat om het ene lijntje voorbij het andere te krijgen wel 'iets' driedimensionaals gebruikt wordt.

verder: tja, dat soort ontwerpen is nu al moeilijk, kan je nagaan wat het driedimensionaal gaat doen...

bovendien is de beste vergelijking voor wat jij geloof ik bedoelt nog wel: probeer je printer maar eens meerdere blaadjes tegelijk te laten printen. kan niet, dat moet achter elkaar. daarna moet jij ze vervolgens weer stapelen. daar echter, ligt hier het probleem. op zo'n schaal valt dat niet goed te doen, bovendien zal het niet echt bepaald goed contact gaan maken...
maar op een gegeven moment hoeven we toch niet kleiner. tegen die tijd is er al lang weer een nieuwe techiniek? Ik heb niet echt veel verstand van dit soort dingen, maar bijvoorbeeld quantum computers? Of inplaats van atomen licht o.i.d. dergelijks gebruiken. een deeltje licht is veeeeeeeel kleiner dan een atoom als er zellfs wel "deeltjes" van bestaan? dus we hoeven ons volgens mij echt niet zorgen te maken dat we op 1nm niet meer verder kunnen ofzo. Maar nogmaals ik ben geen deskundige ik ben pas 15 xD

EDIT nét 16 :P nog ff wenne 8)7
toch raar dat we eerst tegen de limieten van (zichtbaar) licht aanlopen in de lithografie, dat oplossen met een nieuwe techniek, en dan denken dat de limiet van die nieuwe techniek doorbroken kan worden met (zichtbaar) licht...
Een lichtdeeltje mag dan wel zeer klein zijn maar het probleem met licht is dat het naast dat het een deeltje is ook nog eens een golfkarakter heeft. Deze golfbeweging zorgt ervoor dat er op een gegeven moment niet kleiner gewerkt kan worden. Alleen door nog kleinere golflengten te gebruiken misschien wel weer of door electronen te gebruiken (vergelijk microscoop met electronen microscoop, de laatste kan veel kleinere details zien).
Dat is pas interessant! Dat wordt dus veel sneller dan verwacht schaalverkleining in de hele industrie.
Ben benieuwd hoe lang het gaat duren voor dit wordt overgenomen door anderen.
Zelf vind ik het interessant dat hp zich nog steeds bezighoudt met ontwikkelingen. Daarnaast is de grote van HP in zoverre een pluspunt dat ze gewoon een eigen standaard kunnen ontwikkelen en hierdoor zelf early adaptors kunnen zijn. En aangezien we hier spreken over een redelijk doorbraak met een goed toekomstperspectief zie ik niet waar het mis kan lopen als ze zelf geld gaan investeren om de benodigde hoeveelheden te produceren en/of in licentie te laten maken.
Deze technolgie is sowieso niet geschikt voor een CPU.
Mischien iets voor geheugen? time will tell.

Maar in principe hoeft het niet kleiner, we moeten onze chips op een totaal andere manier gaan ontwerpen.
Denk aan onze hersenen, wij kunnen veel meer dan een computer. Behalve het rekenen, daar heeft de computer onz al lang voorbij gestreefd.

Echter het logisch deken, (ik bedoel je verstand gebruiken) dat kan een computer niet.. In plaats van miniatuuristae, zou hier ook wat meer onderzoek naar mogen..

Trouwens voor huidige doeleinden zijn PC's snel genoeg, tenzij je het pentagon wilt hacken, of een rusiche kernduikboot wilt doen zinken...
Ik denk dat er in een volledige Russische onderzeeër minder computerkracht zit dan in mijn laptop. (en met de volledige onderzeeër bedoel ik ook de mp3-spelers van de bemanning ;) )
Vergeet niet dat er altijd nog andere uitvindingen kunnen komen. Mischien bestaat de CHIP over 30 jaar niet eens meer. maar dan hebben we IETS anders :+. Ontwikkeling van het steeds kleiner maken zal still komen ooit. maar ontwikkeling naar nieuwe manieren om een computer te gebruiken zullen altijd blijven bestaan.
Wat is dat papa?
-Dat was de in 2006 uitgekomen nVidia 8800GTX Ultra. Die was voor die tijd heel goed hoor!
En voor deze tijd papa?
-Voor deze tijd totaal niet meer. De rekenkracht van dat dingetje is 250x zo zwak als mijn huidige budgetkaart, de Hdoo 345x (1,2TB GDDR12, GPU 2100PHz, 20492-bit geheugenbus)
Ik WIL niet steeds kleiner! Ik wil net als vroeguh, een computer die een heel gebouw in beslag neemt!
Ik moet zeggen dat de tijd dat een processor nog geen heatsink had of hoogstens zo'n klein chipset-achtig ding wel z'n charme had. Toen hdd's nog veruit het lawaaiigste waren in je computerkast. Ik hoop dat een doorbraak als dit een grote stap vooruit kan zetten in het minimaliseren van stroomverbruik in processors, want cpu's en gpu's gebruiken tegenwoordig toch echt idioot veel vermogen :X
als jij je HDDs als lawaaierigste delen in je kast wil hebben heb ik hier nog wat 10k rpms en 15k rpms voor je liggen }>

voila, ik heb ondertussen maar geleerd door die herrie heen te slapen :+
als jij je HDDs als lawaaierigste delen in je kast wil hebben heb ik hier nog wat 10k rpms en 15k rpms voor je liggen
ook daar heb je hele stille schijven van. Ik heb 3 scsi320 15K schijven in een server thuis zitten, van 146GB 't stuk. Die dingen hoor ik niet eens.

(zelfs niet als ik de grootste herrieschopper in die ruimte uitzet, een cisco 3620)
Je hebt nu processoren die weinig stroom gebruiken en passief gekoeld kunnen worden, die beter presteren dan de high end modellen uit die "goede oude tijd". Dus ja :)
Een misdruk kan leiden tot een storing in een chip... :P
Was al zo toen de chips nog met cm techniek werden gemaakt.
Op naar de PicoMeters :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True