Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Submitter: Stoepie1

Onderzoekers van de TU Eindhoven hebben op glasvezel een netto-doorvoersnelheid van 200Tbit/s over een afstand van 1 kilometer gemeten door gebruik te maken van kabels met zeven kernen en van 3d-waveguides en mimo-technologie. Bruto is 255Tbit/s mogelijk.

De onderzoekers wisten aan te tonen dat het mogelijk is om via multiplexing een signaal van 5,1Tbit/s op een enkele golflengte over een enkele glasvezel te halen. Netto wisten ze een doorvoersnelheid van 4Tbit/s te behalen. Door dit toe te passen op 50 golflengtes op een 50GHz-grid, wisten ze de netto doorvoersnelheid van 200Tbit/s te behalen over een glasvezelkabel met een lengte van 1 kilometer. De bruto-snelheid, waarbij overhead is meegeteld, bedroeg 255Tbit/s.

De glasvezelkabels bestonden uit zeven kernen, waar de huidige commerciële kabels er één hebben. "Daarnaast introduceert het team loodrecht hierop twee extra zogenoemde optische trillingsmodes", aldus de TUe. De onderzoekers maakten verder gebruik van een 3d-waveguide, waarbij sets van drie transparante waveguides, of lichtpaden, in driehoeken gerangschikt waren voor de kernen. Verder werd van energie-efficiënte multiple-input multiple-output-equalization gebruikgemaakt.

Volgens de onderzoekers staan we op het punt om een fundamentele grens te bereiken wat betreft de capaciteit van de huidige single-mode glasvezel-doorvoersnelheden, die op maximaal 8Tbit/s liggen. De kabels van het wetenschapsteam zou over een jaar of vijf in de praktijk toegepast kunnen worden. Een van de obstakels zou het vergroten van de lengte van de kabels met behoud van de snelheid zijn. Veel dikker zijn de kabels niet: ze zouden een doorsnede van 200µm hebben.

Het onderzoek werd zondag gepubliceerd in het wetenschappelijke tijdschrift Nature Photonics. Het is gebaseerd op het proefschrift MIMO Digital Signal Processing for Optical Spatial Division Multiplexed Transmission Systems van Roy van Uden van de faculteit Electrical Engineering van de TU Eindhoven, die er cum laude mee promoveerde.

Update, 13.45: Artikel is aangevuld op basis van het persbericht van de TU Eindhoven zelf.

FM-MCF cross-section, which is butt-coupled to the 3D waveguide.

Moderatie-faq Wijzig weergave

Reacties (60)

Wat een prachtige ontwikkelingen zijn er toch op het gebied van glasvezelcommunicatie. Ik zag een aantal dingen in de reacties langskomen waar ik even op wil reageren:

Het aantal kernen: Hierboven werd gesuggereerd dat een record per kern zinvoller zou zijn. Ik ben het hier niet mee eens. Het aantal kernen is iets anders dan het aantal vezels. Er komen enkel een paar extra cores binnen de cladding (zie plaatje bij artikel). De vezel zelf wordt er niet of nauwelijks dikker van. De vezel is 200 micrometer dik, de verschillende beschermlagen die daaromheen zitten zijn veel dikker dan dat. Je kunt aantal kernen omhoog gooien om een hogere throughput te krijgen, dat klopt, maar om zoiets te maken is een tweede. Verder moet er uiteraard een handige symmetrie in zitten om de ruis van de ene kern op de andere eruit te kunnen filteren. Daarom zitten er ook zeven kernen in, een hexagon en een in het midden.

Niet zinvol/te snel/te duur/ik wil dit ook thuis: Dit zijn dure technieken om onvoorstelbaar veel data door een fiber heen te duwen. Dit wordt uiteraard alleen gebruikt voor lange afstanden, zoals telco-telco-verbindingen door de oceaan. Zoals hierboven al is genoemd kan het nu goedkoper zijn om een bundel single-core vezels te leggen. Echter, ooit, vaak sneller dan je verwacht, is dit rendabel. Fibers worden steeds goedkoper en de techniek om geavanceerde vezels als deze te maken wordt steeds beter. Een multicore few-mode fiber maken is niet niks.

Het is een gemakkelijk record/simpele bundeling: In zekere zin is elk van deze records een bundeling van technieken. Extra frequentie'tje erbij en hoppa. Maar wat hier is neergezet is uitzonderlijk. De combinatie van geavanceerde techniek is erg complex om te implementeren. Het aantal 'trucjes' dat wordt gebruikt om de snelheid op te voeren is enorm:

De symbolrate die hij gebruikt is 24.3 GBaud/s. Dit betekent dat 24.3 miljard keer per seconde het signaal wisselt van symbool. Elke 40 picoseconde heeft het signaal een andere waarde. Zou je simpel On-Off-Keying (wel een signaal is 1, geen signaal is 0) gebruiken zou je al uitkomen op 24.3 Gbit/s.

Met wat complexere symbolen gaat de bitrate verder omhoog. Hij gebruikt QAM-32, dus 5 bits per symbool (25=32). Dan verdubbel je de snelheid nog eens door twee orthogonale polarisaties te gebruiken. Door zeven kernen te gebruiken wordt de snelheid verzevenvoudigd. De snelheid wordt nogmaals met een factor drie verhoogd omdat er drie modes worden benut.

Normale (multimode) glasvezels geleiden lichtstralen onder allerlei hoeken. Dit zorgt voor problemen als de snelheid te hoog wordt aangezien sommige lichtstralen eerder aankomen dan andere. Immers, als de hoek groter is, is de totale afstand die de lichtstraal moet afleggen ook langer. Voor snelle verbindingen wordt daarom single-mode fiber gebruikt. Dit soort vezels laat maar één lichtstraal door (één mode), dus kunnen er geen verschillen in aankomsttijden ontstaan (chromatische dispersie e.d. daargelaten). In dit project is een vezel gebruikt die drie verschillende modes doorlaat. Door deze drie modes te multiplexen wordt er een aanzienlijke snelheidswinst behaald. Dit is op te schalen naar vijf, zeven, zeg het maar. Uiteraard wordt het dan wel steeds moeilijker om te implementeren. Je moet ze natuurlijk wel uit elkaar houden.

In plaats van één frequentie licht worden er 50 gebruikt. Deze 50 krijgen allemaal een ander signaal, wat de snelheid met een factor 50 ophoogt.

Dus totaal: 24.3*10^9*5*2*7*3*50=255 Tbit/s. Wat error correction en preambles e.d. eraf en je krijgt de 200 Tbit/s.

Kan het nog sneller?: Altijd, maak iets en iemand anders maakt het sneller. In principe kun je het aantal kernen verhogen, het aantal modes verhogen, het aantal frequenties, het aantal bits per symbool verhogen, enz. Het aantal frequenties kan in dit geval gemakkelijk opgeschroefd worden. 50 golflengten multiplexen is niet veel. 100 op de C-band gaat gemakkelijk (zoals altijd in de techniek, gemakkelijk is relatief). Deze band (1525-1565 nm) wordt gebruikt omdat de optical amplifiers op deze band werken. Je zou ook nog kunnen uitbreiden naar de L-band of er nog meer op de C-band proppen.

Een van de grootste problemen is de testopstelling. 100 frequenties in plaats van 50 is goed te doen, maar je moet dan ook twee keer zoveel data genereren. En aangezien dat al eerder aangetoond is, is dat misschien niet de meest interessante onderzoeksrichting. De andere technieken, multicore en few-mode, zijn nieuwer/interessanter/fancy'er. Dat zou een rol kunnen hebben gespeeld. Een kwart Petabit aan data per seconde genereren en checken of het goed is aangekomen; dat is nogal wat. Al is mij niet duidelijk of dit realtime gedaan is of als 'proof of concept' alle data op een ander tijdstip gegenereerd is en gecheckt wordt. Om alle interferentie eruit te werken heb je ook flink wat rekenkracht nodig. Denk alleen al aan de interferentie tussen symbolen, tussen verschillende golflengtes, tussen verschillende kernen, tussen verschillende modes en ga zo maar door.

TL;DR: Ongelooflijk wat is dit gaaf :)
Ik vraag mij alleen af waarom het record nu 255 Tb/s is terwijl er gebruik wordt gemaakt van 7 kernen. Breiden ze uit naar 10 kernen zit je opeens op 365 Tb/s, dat is wel heel makelijk records vestigen. Ik zou liever een record willen zien per kern, wat veel interessanter is.
Vergeet niet dat er ook mulitplexers achter zitten. Daarom hebben ze het over netto en bruto. Ze hebben uitgerekend dat er 255 doorheen kan, maar hun huidige apparatuur gaat niet harder dan 200. Het record is dus 200, tot men een snellere multiplexer/demultiplexer heeft ontwikkeld.
De apparatuur gaat tot 255 Tbit/seconde. Echter zit er rond de 55 Tbit/seconde aan overhead in, zoals parity, preambles, en andere bits. Dus per 4 bytes is er 1 extra byte aan data.
Dat gevoel ik heb ook vaak. Net als het bundelen van ADSL lijnen en dan een record vestigen, of met MiMo en andere draadloze technieken; 'gewoon' op verschillende frequenties gaan zenden ipv 1 frequentie. Maar hoe dan ook, dat bundelen of het plaatsen van meerdere kernen in 1 kabel is ook een techniek cq. uitvinding, en vast niet al te gemakkelijk ivm interferentie etc. Uiteindelijk is het blijkbaar niemand anders gelukt, anders was het geen record :)
Uiteindelijk is het blijkbaar niemand anders gelukt, anders was het geen record :)
ja of ze zijn de eerste die het proberen :)
Het één sluit het ander niet uit.
als ik het plaatje goed begrijp maken ze hier gebruik van 7 kernen in de zelfde glasvezel kabel!.

normaal heb je 1 kern en daar omheen glas dat net wat minder puur is om zo een brekingsindex te krijgen en het licht binnen de binnenste kern te houden. hier gebruiken ze dus 7 van die kernen in de zelfde glasvezel kabel.

de kabel is nauwelijks dikker maar wel meer als 7 keer zo snel.

er komt dus wel iets meer bij kijken als gewoon meerdere kabel trekken.

[Reactie gewijzigd door Countess op 27 oktober 2014 15:51]

"De technologie van het wetenschapsteam zou over een jaar of vijf in de praktijk toegepast kunnen worden."

Dit klinkt heel mooi maar zou je niet al bij lagere snelheden tegen bottlenecks van andere hardware aanlopen?
DWDM / CWDM technieken bevorderen kan nooit kwaad, stel dat er nu een gebrek aan vezelcapaciteit is op een hoog netvlak bij een provider (voorbeeld: KPN), dan zullen ze extra vezels moeten creëren. (stel dat er geen capaciteit is tussen Amsterdam en Rotterdam bijvoorbeeld), dan moet er een nieuwe glasvezelroute worden gemaakt. Nu hoeven ze slechts de apparatuur te vervangen om een hogere doorvoer op het zelfde aantal vezels te realiseren.

Niet verkeerd!

edit: had geen reactie moeten zijn, foutje!

[Reactie gewijzigd door _Alkaline op 27 oktober 2014 08:23]

Het signaal zal opgesplitst worden onder meerdere klanten. In de toekomst kan je hierdoor meer klanten over een kabel voorzien van eensnelle internet verbinding.
Verder kan met deze techniek de bandbreedte tussen de continenten vergroot worden zonder dat er extra kabels op de zeebodem gelegd hoeven te worden.
Dat artikel dat gisteren verscheen ging juist over een nieuwe kabel, multicore fibre!

Een 7 aderige glasvezel kabel, op het plaatje kan je het duidelijk zien. Heb het artikel gisteren al op andere sites gelezen en die vermelden het wel duidelijk. En rede dat nu niet toepasbaar komt door de productie van de kabel die kunnen ze nog niet in grote lengtes maken.

[Reactie gewijzigd door mad_max234 op 27 oktober 2014 08:43]

Heb je het artikel ubehaupt wel gelezen? Deze techniek werkt met een multi-core fiber constructie. Dat houd juist in dat we de kabels WEL moeten vervangen.

Los daarvan liggen kabels ook niet op de zeebodem.

[Reactie gewijzigd door Clubbtraxx op 27 oktober 2014 16:35]

Het is neem ik aan fijner om zelf hardware te kunnen vervangen dan te moeten wachten tot je ISP eens een update uitvoert...
Leuk bedacht, maar bij de consumenten thuis liggen 2 Single-core-fibers en niet zoals in het artikel gebruikt een Multi-core-fiber.
Dit is techniek voor ISP netwerken, en zeekabels, niet voor thuis gebruik.
Bij 99,9% van de mensen thuis op deze planeet ligt geen fiber en dat zal er ook nooit komen.
Zou dat ook gezegd zijn over de telefoonlijnen toen de telegraaf net was ingevoerd?
Als in die tijd mobiele telefonie technologie meer dan ver genoeg gevorderd was dan wel. Reden dat ik dit zeg over fiber is omdat radio technologieën voor data steeds meer kunnen en veel makkelijker en goedkoper te implementeren zijn. Vergeet ook Azië en Afrika niet, meer dan 60% van de wereld bevolking woont daar en daar zal heel weinig FTTH gelegd worden, draadloos wint het elke keer.
Mooi dat dit streven er is. Maar gok dat de daadwerkelijk uitrol van glasvezel veel langzamer gaat dan de techniek. Ik zeg niet dat de techniek en evolutie niet moet doorgaan. Maar het stukje over 5 jaar in de praktijk is geen realistische kijk op de verwachting van de consument die dit soort stukjes gaat lezen. Dit word namelijk in de media overgenomen en er zijn dan al genoeg mensen die dromen van de nog snellere verbindingen. Mijns inziens zou de praktijk verwachting beter getempert worden dan een ruw statement te maken dat het met 5 jaar in de praktijk toe te passen is. Breng dan persbericht uit met in de nabije toekomst.
Dit soort technologie is dan ook niet consumentengericht maar telco/netwerkbedrijf gericht, en die zullen dit toe gaan passen zodra het kostenefficient is. Dat kan over 5 jaar zijn maar als ik kijk naar de adoptie van bv 100Gb ethernet zal het waarschijnlijk langer gaan duren. Die nieuwe technologie moet namelijk significant goedkoper worden dan een combinatie van meerdere vezels met de oude techniek voordat het rendabel wordt.
Je kan dan wel meerdere bottlenecks naast elkaar op dezelfde pijp zetten zonder dat de pijp zelf de bottleneck wordt, dat moet je ook zeker in 't achterhoofd houden.
Ja, maar het aanleggen van kabels is het meest moeilijke misschien. De kabels lopen vanaf een kastje naar de deur van de bewoners. Het vraagt dus meer werk om een kabel te vervangen dan om de apparatuur te vervangen. Over het algemeen is de beste koste besparing om zo min mogelijk mankracht te gebruiken dus wel kans dat deze kabels binnen 5 jaar er komen maar niet met deze snelheden.
Niet normaal hoe snel dat eigenlijk is. Ik heb 2x een 1TB harddisk, kan je toch niet geloven dat je die - zonder te kijken naar schijfsnelheden - zo kan volknallen binnen de seconde, en dan nog 198 van die harddisks.

Kom ik dan met me 'maar' 120Mbit de seconde :p goed werk!
Je haalt Tb(it) en TB(yte) door de war, het scheelt een factor 8.
Inderdaad, ik werd te wild. Waar ik het bij Mbit niet door elkaar haal, doe ik het wel bij Tbit... Het zou ook Eigenlijk te gek zijn ook he? Alhoewel, je weet maar nooit
Het zullen wel 1TB schijven zijn. De verbinding is 'maar' 200Tbit/sec. Je kunt dus 25 schijven volknallen binnen een seconden. En dat is gewoon niet voor te stellen =p.

Mooie techniek. Ontwikkeling moet blijven ofcourse. Overigens zal dit zeker meer iets zijn voor overzeese verbindingen.

Edit: schoonheidsfoutjes :p.

[Reactie gewijzigd door Clifdon op 27 oktober 2014 09:21]

Waar haal je die 200Mbit vandaan? Je bedoeld denk ik 200MByte/sec, dan is een TB schijf idd in 5 seconden vol. Maar een 200Tbit/s verbinding doet toch echt 25TByte/sec, maakt 25 TB schijven vol per seconde.
Het is 255 Tbit/s, niet TB/s, dus dat zijn "slechts" 25 van die hard disks :)
Waar is de lol van downloaden dan nog, je hebt de film als binnen voordat je op de link heb geklikt! :P
Overigens mooie vooruitgangen, knap hoor!

edit: smily voor duidelijk maken grap ;)

[Reactie gewijzigd door merryb op 27 oktober 2014 08:59]

Toch wel mooi om bij dit soort berichten te zien dat iedereen dit gelijk voor thuis wilt hebben. Totaal niet relevant deze technologie voor thuis gebruik. Dit is bedoeld voor de grotere backbones tussen ISP's en AMS IX bijvoorbeeld.
Ik snap je reactie, maar het was een grap ;) Dit soort snelheden slaan ook nergens op voor consumenten gebruik, 1GB/s is al veelste snel.
nu nog wel maar met het vooruitzicht naar 4K resoluties en meer grotere data bestanden in de toekomst zou ik dat niet zo hard durven roepen.
1Gb/s is veelste snel op dit moment idd, kan altijd meer worden (zie nieuws bericht hier boven _/-\o_ ) Maar 200TB/s is gewoon absurd, en ik kan me niet voorstellen dat consumenten dat de komende 5 jaar nodig hebben. Maar wie weet.
dit is ook niet voor 1 consument maar voor ISP's naar backbones toe het "grote" internet verkeer dus.
Je hebt geen moeite gedaan om de andere reacties voor deze te lezen?
Ik had al een vaag vemoeden, maar vond de reactie toch gepast. Wellicht volgende keer een smilie toevoegen, dan weet iedereen waar hij aan toe is ;)
Denk eerder tussen AMS IX en andere exchanges, 200Tb is voor iedere ISP een veelvoud van de nodige capaciteit, zelfs als je overboekingen zou meerekenen ;)
wacht maar tot je een uhd full size met dolby atmos. dan wil je dat niet doen met je 100 Mbps verbinding.
want dan moet je een paar uurtjes wachten?
ja of nog langer:P vind 50gig nu al lang op mijn 120 mbps lijn
Ja precies, wat maken die paar uurtjes nou uit voor wat je er voor terug krijgt? Lekker wachten hoor.
Wacht eerst maar eens tot iemand zo'n abonnement kan veroorloven ;-)
Wat dacht je van zo'n snelle schijf? Ik weet geen enkele schijven die nu commercieel beschikbaar zijn die deze snelheid kan benaderen ;) . Al met al gefeliciteerd aan Roy hij heeft goed werk verricht.
Waarop op schijf? Die UHD film buffer je toch gewoon even in RAM? }>
ik vermoed dat je dan minimaal ddr4 nodig hebt, maar als je dan toch 128Gb rammodules hebt http://nl.hardware.info/n...modules-mogelijk-op-20-nm kun je er toch een ramdisk van proberen te maken. Vraag me wel af wat dit voor je programatuur betekent en of dit nu al kan. (een ramdisk)
Nadeel is wel dat dit voor de huis-keuken-tuin en menig tweakers niet te betalen is..

Verder wordt wel steeds vaker gebruik gemaakt van ramdisk voor de off-site backups, als je ergens een 10gbs lijn hebt als bedrijf zijnde van locatie A naar B, dan is het wel praktisch om zo'n dergelijke cache-ram-disk te hebben, je pompt heel je backup over binnen no-time en op locatie B gaat hij op z'n gemak naar Disk en Tape tegelijk schrijven.. Daar zal dit ook wel ideaal voor zijn, eenmalig enkele seconden een hoge piek van terabytes/sec en daarna wordt rustig op locatie B alles op tape/disk gezet. Belast het netwerk op locatie A heel veel minder en in calamiteiten is binnen no-time de data veilig gesteld..

Overigens worden zulke 'ram-disken' al veel langer gebruikt, kijk maar even naar een SQL server met een flinke database erachter, je geeft de server 20gb aan ram, die snoept hij op, evenals als je hem theoretisch 500gb ram zou geven. In de praktijk zien we wel vaker Gddr5 'videokaarten1' gebruikt worden als tijdelijke cache, velen malen (~10x) sneller dan ddr4 en de cache van 4gb is dan hierbij voldoende..

1 bron http://www.nvidia.co.uk/object/tesla-server-gpus-uk.html
Niet gek gedacht een inmemory architectuur is al prima mogelijk (nu nog alleen voor bedrijfsdoeleinden)

Heard about SAP HANA but not Clear what it can do…: http://youtu.be/YVsJA1CaXqE
het verschil in snelheden zijn de kosten niet

bij tweak dsl zou ik voor 100 mbps 54.95.
250 mbps 59.95 en 1000 mbps 84.95. dus voor 30 euro meer heb ik 10x zo snel internet.
dus dat zijn de kosten niet.
En hoe duurt het voordat je het in huis kan hebben? Ik woon in Utrecht en heb nog niet eens de mogelijkheid om gewoon glasvezel te nemen...
Ik heb glasvezel in Utrecht :)
same here! (lelystad)
Met een enkele golf lengte kan je dus als een hogere snelheid behalen dan de complete AMS-IX als huidige top-usage heeft.

Ik weet verder niet wat de bottlenecks liggen bij AMS-IX, maar ik vraag me af of de hardware (switches enzo) echt deze snelheid aan zou kunnen...
Gelukkig gaat dit allemaal maar door. Mooi staaltje techniek uit NL!
Leuk nu nog dataservers wijkservers webservers hubs en andere poorten waar mijn internet door moet voordat ik bij de source ben die dat aankunnen.

Ik heb nu 200 Mbit maar de meeste data servers hebben het al moeilijk mar 5 MB per seconde.

Mijn 200 mbit is zo goed als nutteloos omdat de rest het allemaal niet aan kan.
zeker een goede ontwikkeling, nu nog werkelijk maken voor geheel nederland, en we hebben overal super snel internet. (ruim) 2000-10000x zo snel als we nu hebben
Dit techniek heeft ook een publiek nodig, die het wil gaan gebruiken. Op dit moment zullen kleine partijen er geen baat bij hebben, zoals u en ik. De grote partijen, die ten eerste het geld hebben en twee de hardware, zullen grote bedrijven en instellingen zijn.

Deze grote partijen zijn natuurlijk de de Internet Exchanges en tier twee en grotere ISP's.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True