Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

IBM heeft een modulator ontwikkeld die elektrische signalen in lichtsignalen omzet en die honderd tot duizend keer kleiner is dan eerdere technologie. De doorbraak kan gebruikt worden voor de informatieoverdracht tussen de cores op een chip.

De wetenschappers van IBM beschrijven in het wetenschappelijke tijdschrift Optics Express dat ze een mijlpaal hebben bereikt in het streven om informatie tussen cores via lichtpulsen door silicium te laten verlopen. Volgens IBM kan de technologie ertoe leiden dat supercomputers op een dag de grootte krijgen van een laptop.

Nu vindt de informatieoverdracht tussen de duizenden cores van de krachtige systemen plaats door elektrische signalen die verzonden worden via koperdraden. Naast het feit dat de barričre voor verdere miniaturisering hierdoor langzamerhand in zicht komt, is een bijkomend nadeel dat supercomputers evenveel energie verbruiken als wel duizend gezinnen. De supercomputers-op-een-chip die dankzij IBM's vinding dichterbij komen, zouden daarentegen net zoveel energie verstoken als een gloeilamp.

De silicium Mach-Zehnder elektro-optische modulator van IBM is honderd tot duizend keer kleiner dan eerder gedemonstreerde modulatoren. De optische modulator functioneert als een 'shutter' die bepaalt of een inkomende laserstraal wordt geblokkeerd of doorgesluisd naar silicium nanofotonische 'waveguide'. Als een digitale elektrische puls vanaf de core van een cpu een modulator bereikt, wordt een korte lichtpuls toegestaan de optische output te verlaten. Op deze manier moduleert het apparaat de intensiteit van de inkomende laserstraal en converteert de modulator de digitale stroom data van elektrische signalen in lichtpulsen, aldus IBM.

Moderatie-faq Wijzig weergave

Reacties (39)

Wat gebeurt er dan met de energie van die laser op het moment dat de shutter dicht is? Is deze verspilt en wordt dus omgezet in warmte?

Op zich wel interessant. Weet iemand of je die waveguides ook kan laten kruisen? Dat zou namelijk veel makkelijker maken om interconnects te ontwerpen omdat je niet meer met verschillende lagen zit. Lichtpulsen leveren bovendien geen electromagnetische storing met zich mee, zodat ze dichter op elkaar kunnen zonder elkaar te beinvloeden. Dat vereenvoudigd het ontwerp nog verder.
Ik denk niet dat je veel warmte hoeft te verwachten... Het vermogen dat voor een laser gebruikt wordt is redelijk laag zover ik weet.
Hmm bij mijn weten kan licht ook beschreven worden als een electromagnetische golf. Ik vraag me dan ook af in hoeverre dit geen storing gaat geven als ze dicht bij elkaar zitten...

Volgens mij interfereert licht ook, en dus zullen kruisende banen problemen kunnen geven. Zeker als dezelfde golflengtes voor de lasers gebruikt worden.

Weet iemand of er in zo'n chip elke core met elke core kan / moet communiceren? In dat geval krijg je met 100 core's wel een hele hoop verbindingen...nm 100! (faculteit)=9,33*10^(157)
Ze maken ook gebruik van de interferentie van licht en de electro-optische effecten van het materiaal om de shutter te maken.
Zie ook de artikelen over Mach Zehnder en electro optische effecten
als hij geen 1tje verstuurd verbruikt hij even veel energie als waneer hij dat wel doet, dat wel. het energie verbruik is in tegenstelling tot koper verbinding dus constant als hij aan staat.
maar als hij niet in gebruik is (omdat het deel van de cpu waar hij aan vast zit niet in gebruikt is) kan hij gewoon worden uitgezet met de normale energie besparende maatregelen die je ook in huidige CPU's vind lijkt me.

als het deel waar hij in zit wel ingebruik is lijkt het me dat hij vrij constant bezig zal zijn met data versturen.

[Reactie gewijzigd door Countess op 7 december 2007 00:06]

Als ik het goed begrijp gaat dit over de communicatie tussen verschillende cores. Hoe is het met deze techniek dan mogelijk om de rekenkracht van een huidige supercomputer te krijgen in een enkele chip? Dan zullen ze toch eerst de core veeeeeeel kleiner moeten kunnen maken (1 nm ?).

Ik zie vast iets over het hoofd.
Uit het persbericht:
Using light instead of wires to send information between the cores can be 100 times faster and use 10 times less power than wires.
Met meer cores heb je ook veel meer communicatiepaden. In chips met heel veel cores, gaat de communicatie domineren in het energieverbruik.
De cell processor heeft nu al 9 cores. Een halvering van de lijnbreedte levert op dezelfde chip oppervlakte een kwadratische toename van het aantal cores op (81 dus). Dat is een paar jaar in de halfgeleidertechnologie.
Ok, dat verduidelijkt het behoorlijk.

Dan kan ik me inderdaad voorstellen als je een grote ruimte vol hebt staan met IBM modules die je supercomputer vormen, je de communicatie daartussen en in de modules zelf flink wat ruimte in gaan nemen.
Ik versta ook niet helemaal hoe er zo'n extreem prestatieverschil is, de cores zelf worden toch niet sneller en ook niet kleiner, alleen de afstand tussen de cores wordt kleiner en de informatieoverdracht veel sneller. Of zie ik het verkeerd?
@maxi-pilot:
Verschil in stroomverbruik (en tengevolge hitte) en snelheid omdat licht zich nou eenmaal veel sneller voortplant dan electronen in halfgeleiders.

En nu wordt er gesproken over intercore-communicatie, maar die schaal maakt het des te makkelijker om dat gebied uit te breiden naar andere delen van een computersysteem.
Mooie ontwikkeling! :)
Het is typisch IBM die altijd weer dit soort ontdekkingen/research doet.
True, maar het is ook IBM die nu veel verdiend aan de supercomputers en dit is imho gewoon normaal voor een bedrijf.

"Just to stay ahead of the curve"
Ben het er mee eens dat normaal is dat een bedrijf research doet in het technologisch gebied waar zij zich in bevinden, om inderdaad zoals je zegt " ahead of the curve" te blijven.

Maar IBM steekt wel exceptioneel veel geld in research, ook in zaken waar ze niet direct weten waar ze het voor zouden kunnen gebruiken ... Een goed voorbeeld is dat IBM op een gegeven moment een bepaalde lasertechnologie ontwikkelde waar ze in eerste instantie geen directe toepassing voor zagen. 10 jaar later bleek deze technologie echter zeer geschikt voor ooglaser-correcties ... Dat is visie en dat kom je niet veel tegen.
ik ben t wel met je eens dat ibm innovatief is en ahead of the curve blijft, maar wat heeft visie te maken met toevallig 10 jaar later een doel voor je uitvinding vinden?
Dat ze schijnbaar toch zagen dat het een hele goede vinding was, ook al was er niet meteen een toepassing voor kun je gerust visie noemen.
Haha inderdaad, een laptop van nu is misschien wel even krachtig als een supercomputer van vroeger, maar een supercomputer uit de toekomst zal echt niet minder groot worden omdat meer chips toch altijd meer prestatie betekent :)
Inderdaad vaag. Het komt uiteindelijk toch neer op hogere prestaties in een kleinere 'verpakking'.
"Volgens IBM kan de technologie ertoe leiden dat supercomputers op een dag de grootte krijgen van een laptop."

Volgens mij kan het ertoe leiden dat mijn laptop straks de kracht heeft van een supercomputer!

Oftwele, de wet van Moore* kan weer door!


*Hoewel we hem dan wel moeten parafraseren, want de echte wet van Moore gaat niet zozeer over rekenkracht, maar over verdubbeling van transistors...
Komt er dan een computer waarop we Crysis kunnen spelen?
De huidige laptops zijn toch ook net zo krachtig als de super computers van vroeger. :S Beetje rare vergelijking.
Beetj afhankelijk met welke supercomputer je het vergelijkt http://www.ecmwf.int/serv...upercomputer_history.html
Fantastisch dat ze een modulator hebben ontwikkeld, maar hebben ze ook een demodulator? Als je de gegenereerde lichtpulsen niet op kan vangen bij de andere core heb je er nl weinig aan.
meestal is dat toch wel een heel stuk minder moeilijk. licht opvangen dat kunnen we al een tijdje met silicium. denk dus niet dat het echt een probleem zal zijn.
Volgens mij, het is erg interessant voor alle toepassingen, zoals videokaart, processors, consoles etc...
Dus nooit meer klagen over trage videokaarten of computers :D, maar ik vrees dat we erg lang moeten wachten.
Volgens IBM kan de technologie ertoe leiden dat supercomputers op een dag de grootte krijgen van een laptop.
Dat klopt niet, want tegen die tijd wordt dat niet meer als supercomputer maar als normale snelheid gezien. Dus men zal gewoon weer een ruimte volstouwen met van die 'laptop's' en dát is dan een supercomputer tegen de maatstaven van die tijd.

Een betere uitspraak zou zijn: 'dezelfde snelheid die nu te bereiken is met een ruimte vol computers, kan later in 't formaat van een laptop'.
Gewoon weer schaalverkleining dus; een zeer welbekende term in de computerwereld.

[Reactie gewijzigd door kimborntobewild op 7 december 2007 09:46]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True