Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties

Samenwerkende wetenschappers van de TU Eindhoven en de Arizona State University hebben een techniek ontwikkeld waarmee aanzienlijk kleinere lasers kunnen worden gemaakt dan tot op heden mogelijk was.

De algemeen geaccepteerde grens voor de afmetingen van een laser is de halve golflengte van het geproduceerde licht. Bij halfgeleiderlasers moet er nog een correctiefactor worden toegepast die afhankelijk is van de refractie-index van de halfgeleider. In de praktijk heeft deze factor een waarde van drie, wat betekent dat een laser die licht van 1500nm produceert, een minimale afmeting van 750/3 oftewel 250nm heeft.

De onderzoekers van de TU/e en de ASU zijn er echter in geslaagd de minimum afmetingen van halfgeleiderlasers te halveren. Zij voorzagen daartoe een laagje halfgeleidermateriaal van 80nm dik van twee isolerende lagen van 20nm. Die gelaagde structuur werd vervolgens weer ingesloten tussen twee zilveren lagen. De hiermee geconstrueerde laser werkt alleen bij cryogene temperaturen, maar de wetenschappers onderzoeken of het mogelijk is om een bij kamertemperatuur werkend exemplaar te maken.

De ontwikkeling zou moeten bijdragen aan het gebruik van lasers in een veld dat nanophotonics genoemd wordt. De lasers zouden onder meer toegepast kunnen worden als optisch communicatiemiddel binnen processors en voor medische applicaties.

Nanolaser met metalen waveguide
Moderatie-faq Wijzig weergave

Reacties (25)

Ik betwijfel of het mogelijk is om op kamertemperatuur een exemplaar te laten werken, zonder dat het toch weer een groot ding wordt.
Nu is het namelijk al zo dat lasers zeer goed gekoeld moeten worden door middel van de metalen behuizing, althans bij lasers van >100mw ofzo.
Ik denk dat een groot vermogen niet nodig zal zijn dus waarschijnlijk moet dat dan wel lukken?

[Reactie gewijzigd door twicejr op 29 juli 2009 15:31]

Vergeet niet dat dit een "proof of concept" is, en dat ze nu verder zoeken naar de mogelijkheden om het bruikbare bereik te vergroten.

Ze maken ook geen lazers met een hoog vermogen (>110mW) , het eerste beoogde doel is immers comunicatie, daar is niet veel vermogen voor nodig.(hangt natuurlijk wel af van de ontvanger en diens gevoeligheid).

Maar warmte blijft natuurlijk wel een issue. Om deze laser practisch bruikbaar te hebben op een IC zal die toch met temperaturen van ~353K (80įC) om kunnen gaan.

(353K is nog een redelijk lage temeratuur voor onchip (niet op de buitenmantel, maar op de IC zelf). Je ziet deze temeratuur vaker bij pasief gekoelde chips.)
Het probleem is niet zo zeer dat de warmte afvoer vervelend is zoals hier geopperd wordt. Maar of ze instaat zijn de inefficiŽntie in de aandrijving van de laser op kamertemperatuur kunnen overwinnen. De aandrijving is in dit geval een plasmon. In plaats van een photon is een plasmon is een lichtgolf in de vorm van een trilling in de vrije elektronen op het grensvlak met het zilver. Deze golf wordt sterker gedempt naarmate het metaal warmer is. Ze hebben berekent dat hun laser ontwerp ook zou kunnen werken op hogere temperaturen maar ze zijn er nog niet in geslaagd om het experimenteel vast te stellen.
Een veel kleinere laser = veel minder warmte.
Dus of het nu zo een probleem gaat worden.
Hangt ervanaf hoe geconcentreed ie is.
Hogere concentratie == meer warmte == meer koeling == groter.
En aan een te lage density heb je eigenlijk niks.

[Reactie gewijzigd door appelsaus op 29 juli 2009 15:41]

Bij hogere concentratie heb je evenveel warmte, maar over minder oppervlakte. Dus hogere temperatuur, maar niet meer warmte. Meer koeling is dan ook niet per se nodig.
Goed punt. Maar dat is op het raakoppervlak van de laser toch?
De generator van de laser zal ook hitte ontwikkelen, en dat zal toch ook gekoeld moeten worden?
De energie die iets produceert is te bepalen aan de hand van het verbruik, dus als een kleinere laser meer verbruikt dan een grotere, zal die ook meer van de energie om zetten in warmte, mist de efficiŽntie van beide gelijk zijn (dat een even grote hoeveelheid van de energie omgezet word ik licht en warmte)

Maar dit is wel een mooie ontwikkeling, die de komst van de optische computer dichter haalt.
Zo twijfelde men ook aan het nut van een laser op het moment van uitvinden.
@Shroomy:
Techniek staat niet stil;
computer konden 'vroegah' ook niet in een kantoortje staan, nu pas ie in je binnen jaszak. Waarom zou doorontwikkeling van zo'n laser niet kunnen?
Omdat we toen gelimiteerd waren aan ons eigen kunnen. Tegenwoordig lopen we steeds vaker tegen fysieke limieten aan waar we simpelweg niet omheen kunnen. Hiermee wil ik niet zeggen dat deze laser op kamertemperatuur niet zou kunnen, maar wel dat jouw vergelijking niet zomaar opgaat.
Tegenwoordig lopen we steeds vaker tegen fysieke limieten aan waar we simpelweg niet omheen kunnen.
Kan je een paar voorbeelden noemen?
Datadichtheid op de platters van een hardeschijf bijvoorbeeld. Heel veel schot heeft daar de laatste tijd niet in gezeten. Voordat er gebruik werd gemaakt perpeniduclaire opslag kon de dichtheid niet hoger zonder dat het metaal z'n magnetische lading verliest. Er is dan een andere techniek nodig om die limiet te pushen, maar het wordt steeds moeilijker en moeilijker. En kleiner dan de Planck afstand kunnen we per definitie niet meten, dus het is sowieso onwaar dat verkleining oneindig lang door kan gaan. De natuur heeft gewoon limieten, en daar kunnen we niet omheen.

[Reactie gewijzigd door .oisyn op 29 juli 2009 15:51]

Ik ben 't bestwel met himlins_ eens.

Uiteraard wordt het steeds moeilijker en moeilijker, maar er is al heel vaak in de geschiedenis van de mensheid gedacht dat men alles wel zo'n beetje wist en dat de limieten van Moeder Natuur geen verdere specificatie toestonden. De oude Grieken/IndiŽrs bijvoorbeeld postuleerden zoals de meesten hier wel zullen weten het atoom (ben effe kwijt welke Grieken ook alweer precies :)) aangezien atomos "ondeelbaar" betekent, vanuit de overtuiging dat het atoom niet is onder te verdelen. Wat zij postuleerden was uiteindelijk het molekuul, toen ontdekt werd dat hun 'ondeelbaarheid' wel degelijk onder te verdelen viel. De toen ontdekte kleinste eenheid werd alsnog atoom genoemd. Maar zelfs dat is uiteindelijk nog meerdere niveaus verder onderverdeeld. (Offtopic: hmm, er is een Nederlands brommermerk "Tomos"... Wat zegt dat qua Grieks over die brommers? :))

Wie zegt ons dat onder het quantumdomein niet nog miniemere domeinen bestaan? De wetenschappers van nu? Het verschil tussen de heersende wetenschappelijke overtuigingen en de waarheid enerzijds, afgezet tegen een tijdslijn van een paar duizend jaar menselijke beschaving anderzijds, zal vast ruwweg lijken op een exponentiŽle curve die 0 nadert (m.a.w. we komen vast met steeds kleinere stapjes steeds dichter bij de waarheid) maar aangezien niemand de waarheid op dit moment 100% gegarandeerd in pacht heeft gaat ook niemand mij 100% ervan overtuigen dat we daadwerkelijk tegen fysieke limieten oplopen.

Maar het is uiteraard ontegenzeggelijk waar dat het moeilijker en moeilijker wordt.

Wat ik er vooral zo interessant aan vind is dat het meer en meer naar statistische wiskunde gaat (quantumdistributie, string theory) in plaats van deterministische natuurkunde, wat aantoont dat het minder en minder waarschijnlijk is dat er iets in dit universum definitief vastligt, laat staan 100% voorspelbaar is (maar op superatomair niveau wel naderend naar 100 procent, voorbeeld: halfwaardetijd elementen). Dit sterkt mij in het geloof dat een schepper niet bestaat of bestaan heeft, danwel beperkt is tot een deÔstische eenheid (dus dat een "god" of andere transcendente superuniversele eenheid bij wijze van spreken het rotje van de oerknal heeft aangestoken en het verder op zijn beloop heeft gelaten). Maar dat alles is natuurlijk weer een totaal andere discussie! :)

[Reactie gewijzigd door SadBunny op 29 juli 2009 16:31]

ehm... niet veel schot? kweenie maar ik vind 2 TB in ťťn 3.5" disk wel een vooruitgangetje t.o.v. pak hem beet twee jaar terug.
de limieten waar jij het over hebt worden ook gewoon ontweken, maar niet noodzakelikerwijs met het proces dat al gebruikt werd. Dat het proces niet goed verder wil schalen zegt niet dat er niet een ander proces is dat hetzelfde resultaat kan boeken, verder kan schalen, en zo het doel kan bereiken dat een voorgaand proces niet kon. Papeir -> microfiche -> digitale opslag op magneet band- en schijf -> optische schijven -> magnetische schijvne met veel hogere dichtheid -> ?holografische schijven? -> ???

ik zou het nog niet te zwart inzien als ik jou was. Sneller dan het geluid was ook onmogelijk.

[Reactie gewijzigd door KnetterGek op 29 juli 2009 16:07]

kweenie maar ik vind 2 TB in ťťn 3.5" disk wel een vooruitgangetje t.o.v. pak hem beet twee jaar terug.
Heb je m'n post Łberhaupt gelezen? Ik zei namelijk: "Voordat er gebruik werd gemaakt perpeniduclaire opslag kon de dichtheid niet hoger zonder dat het metaal z'n magnetische lading verliest". Ergo, er was een andere techniek nodig. Ik zeg helemaal niet dat het met een andere techniek ook niet beter kan. Ik zeg alleen dat je reŽel moet zijn en dat er limieten bestaan, en dat we niet oneindig lang door kunnen gaan. Op een gegeven moment raken de alternatieven ook op.

himlims_ zei:
Waarom zou doorontwikkeling van zo'n laser niet kunnen
Nou, de doorontwikkeling van een dergelijke laser kan weleens niet om dat de techniek inherent aan limieten vast zit, ik zeg niet dat het met een andere techniek ook niet kan.

Mijn hele punt is dat opmerkingen als "vroeger was een computer groot, nu klein", "vroeger dacht men dat de aarde plat was" en "sneller dan het geluid was ook onmogelijk" feitelijk helemaal niets zeggen over de werkelijkheid, en daarmee is het geen valide argument dat het nog beter kan.

[Reactie gewijzigd door .oisyn op 29 juli 2009 16:19]

Fantasie van een kind neemt ook af naarmate ze ouder worden en de wereld beter begrijpen. Naiviteit is schattig, maar mensen die er verstand van hebben zien veel meer haken en ogen. Je kunt die lijn dus niet recht doortrekken. Na overmoed komt vanzelf ook teleurstellingen.

De mens probeert de natuurwetten te begrijpen en beheersen, omdat dit het systeem vormt waarbinnen zaken mogelijk zijn maar ook waardoor ze worden beperkt.
Er is inderdaad wel een beperking aan het formaat, simpel weg, omdat we op moleculair niveau komen, maar er worden ook nieuwe technieken ontwikkeld die het mogelijk maken meer te kunnen met minder, zoals de halfgeleider die door een piekstroom de andere kant op een halfgeleider kan worden.
Op het gebied van kwantumfysica zullen de aankomende tijd denk ik ook ontwikkelingen komen, waardoor meer eigenschappen bekend worden en aan de hand daarvan nieuwe mogelijkheden ter beschikking komen.
Op dit moment is de nanoschaal al de schaal waar we op kunnen werken.
Daarvoor gebruiken we apparaten van microschaal.

Echter door zulke miniscule lasers (op nanoschaal) wellicht nieuwe technieken ontstaan om te kunnen werken op subatomair niveau !!

Ik noem maar even wat:
Het rangschikken van protonen en neutronen binnen een ijzermolecule zou ook als een vorm van data-opslag gebruikt kunnen worden.

Of wellicht worden bepaalde theorien straks gefundeerd en komen er nieuwe toepassingen:

Theorie: Een electron heeft een bepaalde spin omdat er een massa om z'n eigen miniscuul zwartgat draait.

Praktijk: Als we die 2 componenten kunnen scheiden, heb je dus een losse electronmassa en een inimini-zwartgat, die weer kunnen dienen als bouwstenen voor ????
Je zou dan een structuur kunnen maken van massas en zwartegaten, waarin een spel van aantrekkingskrachten speelt. Door het introduceren van een extern deeltje, wordt de structuur verstoord en onstaat er een nieuwe structuur. (het binaire 1 / 0 principe)
Maar bij platters, om op jouw voorbeeld in te gaan ligt de data op het oppervlak van de platter. Als het nou es holografisch was?
Maar toch hebben ze het hier mogelijk gemaakt of het formaat van de kleinste laserstraal te halveren, dus beperkingen kunnen nu soms toch nog worden overwonnen door nieuwe technologie, dus in de toekomst zullen nog heel wat ontwikkelingen gaan plaats vinden, wat wij nu voor onmogelijk zouden beschouwen.
De minimale laser afmeting is zo'n "harde natuurwet limiet". Inderdaad, die wet is er en die is correct, je kunt geen 1500nm halfgeleiderlaser maken die kleiner is dan 250nm. De onderzoekers hebben nou juist aangetoond dat je wel om die wet heen kunt als je maar buiten het doosje denkt.

Iemand die overtuigd is dat je niet sneller kunt reizen dan licht, zal nooit een methode daartoe vinden, tot hij van die overtuiging wordt verlost.

Nu zijn we in ieder geval verlost van de overtuiging dat we geen kleinere lasers kunnen maken, en dus kunnen we gaan beginnen met het maken van kleinere lasers.
Mooie letterlijke vertaling weer: "refractie-index"
Refractive index is vertaald naar NL gewoon brekingsindex.
Leuk dat je goed kan vertalen, maar wat is je toegevoegde waarde aan dit artikel?

@on-topic: leuk, ben wel eens benieuwd of ze dit ook werkelijk zullen toepassen in processoren, ik heb er zo mijn twijfels bij.
Hij voegt inhoudelijk niks toe, maar wel terecht aan de rapportage ervan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True