Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties, 38.690 views •

Britse onderzoekers claimen dat zij glasvezels hebben ontwikkeld waarover datasnelheden tot 73,7Tbit/s zijn behaald. Dit zou mogelijk zijn door het 'holle' ontwerp waarbij er door de met lucht gevulde buisjes snelheden worden behaald die dicht bij de lichtsnelheid liggen.

In een vacuüm behaalt licht een snelheid van 299.792.458m/s, maar als fotonen over een vezel van glas worden verstuurd, daalt de snelheid met circa 31 procent. Onderzoekers aan de Universiteit van Southampton hebben echter een 'holle' vezel ontworpen die vrijwel geheel met lucht is gevuld. Hierdoor zijn fors hogere snelheden te behalen: in een laboratoriumopstelling zouden snelheden tot 73,7Tbit/s zijn behaald waarbij de verstuurde lichtbundels 99,7 procent van de lichtsnelheid zouden behalen. Daarbij werden met behulp van wave division multiplexing en een bandbreedte van 160nm 37 bundels van elk 40Gbit/s gebruikt.

Door het nieuwe fiberontwerp van de Britse onderzoekers zijn met ruwweg 10TB/s fors hogere snelheden te behalen ten opzichte van de huidige glasvezeltechnologie. Het signaalverlies van 3,5dB/km maakt deze techniek vooral geschikt voor relatief korte afstanden, bijvoorbeeld binnen datacenters. Hierdoor zouden niet alleen de maximale doorvoersnelheden veel hoger liggen, maar kan ook de latency fors verminderd worden.

Snelle fiberverbindingen

Reacties (70)

Reactiefilter:-170066+152+210+30
"gelukkig'' maar dat dit niet geschikt is voor langere afstanden, is de net aangelegde glasvezel aansluiting alweer ouderwets :). Van 63 tb/s naar naar 73 tb/s is daarnaast toch ook weer niet zó'n grote verbetering?
Lijkt misschien maar een kleine snelheidswinst in relatieve cijfers maar 10Tbit/s in absolute waarden is anders wel een gigantische hoevelheid data...
Dan kun je er net zo goed nog een kabeltje naast leggen, daar heb je geen nieuwe technologie voor nodig (en dan hebben we waarschijnlijk ook nog te maken met minder signaalverlies)
Dan nog, vooruitgang is altijd goed.
het is vooral de 31 % snellere data transmissie die echter vitaal is, zeker voor erg grote supercomputers, het wachten op data is daar echt een groot probleem en een 31% verbetering is dan zeker een enorme verbetering.

zeker als processors op elkaars resultaten moeten wachten kan dit echt tot significante toename in efficientie leiden, dus erg mooi onderzoek.
De bandbreedte ligt zo'n 16% hoger en de latency gaat met 31% omlaag. Er wordt hiermee gesproken over verschillende soorten 'snelheid.' Hoewel een daling van 31% in de latency enorm is, doet het karakter van deze technologie dat deze slechts voor korte afstanden geschikt is hier flink aan af.

Een dergelijke afname van latency over (delen van) 20.000km naar de andere kant van de wereld zou een breakthrough zijn.
Mocht dit echter over lange afstanden mogelijk zijn dan kan dat wel de latency flink verlagen. Lichtsnelheid over een ruwweg 20.000km betekent een maximale latency naar de andere kant van de wereld van ~66ms.
Verder lijkt wel vaker experimenteel onderzoek nutteloos. In de praktijk blijkt er echter altijd wel een of andere toepassing handig gebruik te kunnen maken van dergelijke resultaten.
Volgens mij lees je het verkeerd:
"Door het nieuwe fiberontwerp van de Britse onderzoekers zijn met ruwweg 10TB/s fors hogere snelheden te behalen ten opzichte van de huidige glasvezeltechnologie."

Die 10 TB (Byte) is ongeveer gelijk aan de 73,7Tbit/s, dat is de totale snelheid die nu behaald wordt.

Volgens mij lees jij het als er is een 10Tb/s (bit) snellere verbinding t.o.v. de vorige techniek.

Wat zou het trouwens uitmaken dat het huidige netwerk dan al snel verouderd klinkt?
Lijkt me niet dat de techniek stil moet staan zodat we wat langer het gevoel hebben dat we de snelste kabels hebben liggen.
Niet elke techniek hoeft gelijk geimplementeerd te worden, deze zou kunnen wachten tot het huidige netwerk niet meer toereikend is, of ondertussen verder verbeterd kunnen worden en misschien gekoppeld met andere technieken om over een aantal jaar over de zeebodem uitgerold worden.

De techniek kan niet snel genoeg gaan, het moet alleen wel lonen om het te implementeren.

[Reactie gewijzigd door paazei op 25 maart 2013 19:52]

10 TBit extra is echt een gigantische stap vooruit.
De snelste verbindingen die wij nu toepassen zijn 100 Gbit, en dat is in de huidige wereld al een echt snelle verbinding. 10 TBit sneller is dus 100 x sneller als de snelste verbinding die wij vandaag de dag toepassen!
"Gelukkig dat we nog geen medicijn voor aids gevonden hebben, we hebben er 'net' remmers voor uitgevonden"

Kort door de bocht, maar een verbetering is altijd goed, ook als we daarom 'voor niks' het huidige glasvezelnetwerk hebben aangelegd. Wat trouwens allesbehalve waar is - zoals in het artikel staat: het is m.n. geschikt voor korte afstanden..
je hebt groot gelijk totaal zinloos onderzoek in 2011 is de 100Tbit/s al gebroken over gewoon dichte glas vezel
nieuws: Wetenschappers jagen meer dan 100Tbps door glasvezel
Het is een nuttige link, maar als je het goed leest staat er 15,6Tbit per kern en hier is het met 1 kern.
inderdaad "totaal zinloos": de 100Tbs werd behaald met 7 kernen en door gebruik makend van slimme modulerende technieken.
Als ik het goed begrijp en als het technisch mogelijk is (aan anderen om uit te maken of dat zo is) zou men dus theoretisch de 2 technieken met elkaar kunnen combineren en aan een snelheid raken van 73.7 (dit onderzoek) x 7 kernen = 500Tbs, x de snelheidswinst die kan behaald worden met de modulerende technieken (staat niet vermeld of dat in dit onderzoek al gebeurde en wat de snelheidswinst in het door u aangehaalde onderzoek was).

"Totaal zinloos onderzoek" inderdaad.
Het interessante aan de techniek is niet zozeer die 16% verbetering in bandbreedte, wat overigens niet mis is als je het al over tientallen terrabits/s hebt, maar die verbetering in transfersnelheid.

Licht in een "standaard" optische fiber zoals die nu gebruikt worden in allerlei toepaasingen, en dat is niet zoals hieronder vermeld wordt alleen in data centra, maar ook in de grond en over de oceaan bodems, heeft een gemiddelde snelheid van zo'n 200.000 km/s. In deze nieuwe fibers is dat bijna 300.000 km/s. Dat betekend dat latencies flink omlaag kunnen!

Als we alle andere invloeden even negeren, en alleen kijken naar hoe lang het duurt om vanuit hier naar New York een bitje te sturen via een optische vezel (zo'n 10,000 km zoals de kabels nu liggen), dan duurt dit met de oude techniek 50ms, met de nieuwe vezels kost dit nog maar 33ms. Dat is een flinke verbetering.
@ jorcool: 15% niet zo veel? Denk eens dat je loon in eens met 15% stijgt........
Het is geen verbetering van 63 TBit/s naar 73 TBit/s, maar een verbetering van 31% naar 73TBit/s. De snelheid van de huidige technologie wordt niet vermeld.

Ik vermoed dat de laaste alinea je op het verkeerde spoor heeft gezet. De eerste zin is ook redelijk cryptisch. 73,7 TBit/s is namelijk ongeveer gelijk aan de 10 TB/s waarover wordt gesproken.

31% snelheids winst is zeker wel een flinke verbetering, maar dat neemt niet weg dat het inderdaad voor de aansluiting tot in huis die momenteel wordt uitgerolt niet echt interessant is. Eerst moet deze investering terug verdient gaan worden. Daarbij zitten we met de huidige kabels nog lang niet aan het maximum snelheid die behaald zou kunnen worden.

[Reactie gewijzigd door Fealine op 26 maart 2013 11:31]

Moet je wel oppassen bij het leggen van een intercontinentale kabel dat er geen stofje in het kanaaltje komt, dan mag je een behoorlijk eind dat stofje doorblazen ;-)
Heel leuk die 99,7% van de lichtsnelheid, maar als het in een datacenter wordt gebruikt met veel routers en switched, verlies je dan niet een groot gedeelte van die snelheid?
Is een bandbreedte daar niet belangrijker dan de snelheid, of heb ik dat nu verkeerd?

Is het vergroten van de bandbreedte dan geen hogere prioriteit dan het verhogen van de snelheid, die nu toch al bijna 100% is?
Hierdoor zouden niet alleen de maximale doorvoersnelheden veel hoger liggen, maar kan ook de latency fors verminderd worden.
Ja dat lijkt me ook niet logisch. Als een signaal met 300.000.000 m/s word verzonden over 1km, zou hij daar ((1000/300000000)*1000=) 0.0033 milli seconde over doen. Ik denk niet dat je latency dan nog aan de verbinding ligt.
Rondom stock exchanges bevinden zich heel veel bedrijven die heel snel in aandelen handelen, zij waren er al eerste bij om holle glasvezels neer te leggen om de latency omlaag te krijgen.
According to Information Week Magazine¹: “A one (1) millisecond advantage in trading applications can be worth $100 million a year to a major brokerage firm”.
Bron

[Reactie gewijzigd door brinkdinges op 25 maart 2013 20:52]

er is daarom ook een regeling om de latency op een minimale hoogte te houden bij handel computers zodat het gelijk blijft

[Reactie gewijzigd door firest0rm op 25 maart 2013 21:15]

Het gaat niet alleen om de korte afstand tot slechts een stock exchange. Hiervoor heeft bijvoorbeeld de Nasdaq hun eigen data centrum waarin handelaren hun servers kunnen plaatsen. De Nasdaq zorgt er dan voor dat elke handelaar precies dezelfde latency naar de centrale server heeft.

Wat echter veel lucratiever is, zijn de verbindingen tussen stock exchanges. Bijvoordbeel in Chicago is de Chicago Board Options Exchange waar je kunt handelen in opties voor aandelen die in New York op de NYSE of Nasdaq geregistreerd staan. Aangezien de prijs van de opties direct afhankelijk is van de prijs van de aandelen waar ze op gebaseerd zijn, is elke milliseconde verschil in data uitwisseling tussen New York en Chicago veel geld waard.

Volgens dit WSJ artikel is het verschil tussen een 'normale' glazvezel verbinding en een draadloze verbinding tussen Chicago en New York ongeveer 0.08 cent per transactie waard. Oftewel het is het waard om $250 miljoen per jaar te betalen voor deze draadloze verbinding...
0.0033 ms lijkt misschien niet veel maar in de computerwereld is dit een eeuwigheid: 3.3 microseconden zijn 10.000 kloktikken van gemiddelde processor. Op 10 meter (bijvoorbeeld in een serverruimte) zijn dit alsnog 100 kloktikken.

Uiteindelijk wordt alles gewoon efficienter als je latency omlaag gaat.

[Reactie gewijzigd door knirfie244 op 25 maart 2013 23:46]

Door de hogere bandbreedte gaat de latency veel meer omlaag.

Als je bijvoorbeeld 64kB wilt versturen over 10Gb/s duurt het 64k*10/10G = 64 micro seconden over 73,7Tbit/s duurt het 64k*10/73,7T = 0,0087 micro seconden
Sterker nog, met deze snelheid ben je in 1/7e seconde overal op de wereld - wat zeg ik - 1/14e, want je gaat natuurlijk nooit verder dan de helft, dan is de andere kant sneller. Dat is 0,07 seconde. Mooie ping tijdens het gamen. :)

Uiteraard is dat een utopia want niet alle verbindingen zijn via deze techniek.
Dit is meer interresant voor super computer clusters. Of misschien een snelle verbinding met een RAM storage device. Stel je moet 5 meter afleggen naar een andere computer of gezamenlijke opslag. Dat is dan 10 meter als je heen en terug moet, Dan ben je op 1Ghz dus 33 cycles verder voordat je antwoord hebt. In de oude situatie was dat 43 cycles. Op meer Ghz'en is dat nog hoger.

Ik geef toe dat het voor een gemiddeld data center niet veel uitmaakt. Dan kan je beter eerst de kabels rechtstreeks verbinden i.p.v. via een kabelgoot, dan heb je dezelfde winst wat betreft de latency.
Ik denk (mede door je eigen verhaal) dat dit wel degelijk een kleine revolutie kan veroorzaken in datacenters. Eerst werden de backup devices geconsolideerd, dankzij snellere verbindingen. Daarna de (disk) storage layer (SANs) dankzij de opkomst van fiber. Dit zou voor veel toepassingen net genoeg kunnen zijn om ook de RAM layer te kunnen consolideren. Dat zou, zeker bij virtualisatie oplossingen, een kleine doorbraak kunnen betekenen.
Het kost misschien wel zoveel cycles, maar een beetje CPU vangt dat gewoon netjes op met out-of-order execution, waardoor het effect veel kleiner is dan je zou denken.
Of je kabel 10 meter is of 100 meter is of op 60% van de lichtsnelheid werkt of op 100% van de lichtsnelheid werkt maakt weinig uit voor de latency.
Of je een 1Gb/s, 10Gb/s of 73Tb/s verbinding heb maakt daarintegen heel veel uit voor de latency.
Hoe duurzaam zijn deze holle glazvezel kabels en hoe makkelijk zijn ze te produceren?
Het midden is van lucht, dus lijkt me duurzamer dan ieder ander materiaal :+
Leuk, maar het gaat natuurlijk om het glas dat om dat lucht heen zit ;)
Het midden is van lucht, dus lijkt me duurzamer dan ieder ander materiaal :+
Ja, de lucht kan niet "kapot", maar de glasvezel zelf is waarschijnlijk wel breekbaarder omdat hij hol is en kan daardoor misschien niet in grondkabels geschoten worden.
Of juist flexibeler en dus minder breekbaar, dat zou ook kunnen. Zo dun glas heeft hele andere eigenschappen, dus misschien is hol glas nog praktisch handig ook ;).
condens in je glasvezel...
Ik zat al te denken aan een kever die de kabel door bijt... Geen kink in de kabel, maar een heuse bug... :*)
Ik snap niet goed wat de relatie is tussen de propagatiesnelheid (latency) en de bandbreedte ( throughput). Kan iemand mij dit uitleggen? Waarom zorgt een hogere propagatiesnelheid voor een grotere bandbreedte?

[Reactie gewijzigd door Twieka op 25 maart 2013 19:39]

Ze behalen nu bijna de lichtsnelheid, ipv 2/3 lichtsnelheid. Dat zorgt voor zowel lagere latency als een hogere bandbreedte. Anders dan wanneer je de bandbreedte verbeterd door twee kabels aan te leggen, of verschillende kleuren licht te gebruiken, dat verbeterd de bandbreedte maar niet de latency.
Waarom zorgt een hogere propagatiesnelheid voor een grotere bandbreedte?
Lijkt mij toch duidelijk? Met een sneller signaal gaan er letterlijk meer bits per seconde over de glasvezel. Rechtstreeks te vergelijken met een autosnelweg waarbij alle auto's sneller gaan rijden: meer auto's per seconde (bij een gelijk blijvend aantal banen).

Bandbreedte is uitgedrukt in het aantal bits per tijdseenheid, dus de propagatiesnelheid van het signaal bepaalt samen met de padbreedte (hoeveel signalen parallel kunnen) de bandbreedte.

[Reactie gewijzigd door Aham brahmasmi op 25 maart 2013 22:28]

Euh, nee.

Propagatiesnelheid heeft niets te maken met bandbreedte.
Een twee keer langere kabel is toch niet langzamer?

Ok, als de propagatiesnelheid hoger is zijn er meer bits 'in-flight' en hogere protocollen met windowing mechanismes kunnen wellicht de bandwidth trottelen, maar in de basis heeft propagatiesnelheid niets te maken met bandbreedte.


Zolang je uiteraard niet in de buurt komt van Shannon's limit.

[Reactie gewijzigd door JackBol op 25 maart 2013 23:08]

Buiten dat het licht sneller gaat, 300.000 ipv 200.000 km/s is de sender / reciever ook belangrijk. Als je van 1Gb/s naar 2Gb/s over een optische verbinding gaat, gaat het licht niet 2x zo snel, maar is de lichtpuls maar de helft. De receiver moet dus sneller kunnen interpreteren of het aan of uit is.

Latency van FibreChannel is bv 5 microseconde per KM (1km/200.000). Nu zou dat dus 3.3 microseconde per KM zijn. Vaak is echter de bufferingcapaciteit tussen twee punten de limitatie en niet de latency.

Maar goed: als 1KM 5 Microseconden latency is, dan is 1000KM 5 milliseconden. en 2000KM is dan 10 Milliseconden. 10 Milliseconden round trip is 20 milliseconden samen. Dit is al een aardige latency als je probeert iets synchroon te repliceren...veel applicaties vinden dat al niks..
even visualiseren,

hoe lang doe je er dan over om een blu-ray van 50 gb binnen te halen?
Misschien licht offtopic, maar jammer dat je zo sterk wordt gedownmod.
Maar toch even snel een antwoord op je vraag: met 10TB/s zijn 50GB in 0.005s = 5 milliseconden binnen :)
Misschien licht offtopic, maar jammer dat je zo sterk wordt gedownmod.
Maar toch even snel een antwoord op je vraag: met 10TB/s zijn 50GB in 0.005s = 5 milliseconden binnen :)
Er vanuit gaande dat je een host hebt die het de bluray van 50GB in geheugen gecached heeft ofzo? In de praktijk zul je van bestaande opslagsystem nooit zo'n groot bestand in 5ms kunnen downloaden denk ik. Zelfs als je het al kon downloaden dan moet je het nog met dezelfde snelheid kunnen wegschrijven.
Ik vrees dat je hier andere bottlenecks hebt. Geheugen, bijvoorbeeld, doet maar 20 of 30 GB/s AFAIK.
Een enkele host/server kan nooit die snelheid aan. Dit is handig als je 10 films tegelijk download (van verschillende host/servers/peers), want dan hebben alle 10 de films nog steeds de volle snelheid die de server aanbied (of je pc het aankan is een ander verhaal).
Of als je met 100 mensen op een bedrijfsnetwerk zit, dan wil je niet sloom internet omdat je collega's bestanden binnen halen of aan 't streamen zijn.

Bedenk even: 10 TB/s verdeeld over honderd man is nog steeds 100 GB/s. Dat is per persoon al (tien)duizend keer zo snel als de snelste verbindingen die nu (zowel commercieel als zakelijk) beschikbaar zijn.

Nee, waar dit handig voor is is de langere termijn. Als je die kabels nu de grond in stopt kan je ze waarschijnlijk de komende 30 of 50 jaar niet meer vervangen. Dus met deze snelheden ben je dan redelijk goed op de toekomst voorbereid (of iig zo goed mogelijk).

En uiteraard in interne netwerken is dit handig, of zelfs om componenten (RAM, storage, CPu's ,GPU's enz.) met elkaar over een afstand met elkaar te verbinden zonder latency.
(Zoals een hele server hal met maar één grote RAM module, zodat elke bit RAM 100% benut kan worden).

Talloze toepassingen dus, maar voor je Blu-Ray'tje gaat het voorlopig niet zoveel helpen ;)

[Reactie gewijzigd door Balance op 25 maart 2013 20:21]

Het is 943 Gigabyte per seconden ongeveer. Mag je wel een hele dikke RAID array met SSDs klaarzetten om het ook weg te kunnen schrijven.
Ik zeg chip erom heen bouwen en een moederbord er mee maken!
Heel mooi maar hebben we nu er nog iets aan?

Ik zou denken voor 1 van de grootste knooppunten in de wereld de ams-ix. "AMS-IX is qua aantal aangesloten partijen en hoeveelheid verkeer het grootste internetknooppunt ter wereld" bron wikipedia

ams-ix statestieken

Gemiddeld ligt het nog onder de 2 Tb/s
Zolang het internet op wel moment maar langzamer is dan de mens hebben we wat aan verbeteringen. En zoals jij zegt, er gaat 'maar' 2 Tb/s door AMS-IX. Het grootste knelpunt is niet het AMS-IX maar de kabels (en de providers). Zolang we geen betere kabels hebben kan die snelheid niet omhoog, daarom is het van grootst belang dat dit soort onderzoeken gedaan worden om de snelst mogelijke kabels te maken. Bedenk dat als je ze eenmaal onder de grond legt de kans groot is dat ze de komende 30 jaar niet meer vervangen worden.
Dat snap ik wel, maar deze technologie is alleen geschikt voor dit soort knooppunten. 10Tb/s meer maar het scheelt ook 3,5dB/km dus het is geen oplossing voor providers wel providers en datacenter's met knooppunten omdat de afstanden redelijk kort zijn maar niet van provider naar consument.
Probleem is niet alleen de capaciteit van de kabels, of de doorvoersnelheid per kabel, maar ook geschikte apparatuur, zeer snelle switches.
Ik weet niet hoor, maar als ik 37 vermenigvuldig met 40 Gbit/sec dan is dat 1480 Gbit/sec oftewel 1,48 Tbit/sec.

Waar komt die 73,2 Tbit/sec dan vandaan? De titel van het vierde plaatje in het bronartikel is nota bene "Figure 4: 1.48 Tbit s−1 wavelength division multiplexing transmission experiment."

En oh ja, een aantal mensen hier moet even goed onderscheid leren maken tussen "B" en "b"
Er staat een foutje in het artikel:

de wavelenght moet 1600nm zijn en niet 160nm :)

Optisch gezien zijn wavelenghts van 850nm optimaal voor korte afstand ook wel short wave genoemd, 1310nm ook wel long wave genoemd voor medium afstand, en 1510-1650nm ook wel very long wave genoemd voor de langere afstand. Tevens ga je bij long wave en very long wave veranderen van kabel, namelijk single mode fiber (9 micron) ipv multi mode (single mode zijn bv de gele optische kabels). Wave division Multiplexing is het versturen van verschillende kleuren licht (wave lenghts) over een enkele fibre. Zoals het plaatje laat zien heb je bij sommige kleuren minder verlies (DB/km) en dat is dus bovengenoemde range van 1510-1650nm.
Bandbreedte van 160nm moet het zijn. Is ook goed te zien in het grafiekje, omdat in het gebied van 1450 tot 1600nm er nauwelijks transmissie verliezen zijn en dit dus het werkzame gebied is.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True