Eerste internationale 400Gbit/s-verbinding is gelegd tussen Amsterdam en CERN

SURF en Nikhef zijn er in geslaagd de eerste 400Gbit/s-verbinding met CERN in Zwitserland te leggen, een afstand van 1650 kilometer. Tot nu toe was 100Gbit/s het hoogst haalbare, maar die snelheid is in de toekomst niet meer toereikend.

Het gaat om de eerste internationale 400Gbit/s-verbinding ter wereld. De verbinding met CERN verloopt over glasvezel en SURF en Nikhef hebben de eerste testen voor de stabiliteit met succes afgerond. De verbinding volgt op een geslaagde pilot op een 400Gbit/s-netwerk in de randstad, vorig jaar.

De verbinding bevindt zich tussen de opslagsystemen van aan het ene uiteinde de Europese organisatie voor nucleair onderzoek CERN in Zwitserland en aan de andere kant Nikhef, het Nederlandse Nationaal instituut voor subatomaire fysica. Via een switch gaat de verbinding het optisch DWDM-systeem van SURF in, dat verantwoordelijk is voor het belichten van de glasvezel. Het opzetten van een verbinding met zo'n hoge bandbreedte is niet triviaal, vertelt Tristan Suerink, IT-architect bij Nikhef aan Tweakers.

"Voor 400Gbit/s moeten je glasvezels heel erg schoon zijn, elk klein vuiltje geeft al problemen." Bij de eerste testen van de verbinding duurde het drie kwartier voor deze succesvol kon worden opgezet. De oorzaak bleek bij een vieze vezel te liggen. "Dan moet je aan de slag met een glasvezelcleaner, die lijkt op een knijpkat en kan met een microvezeldoekje de vezel schoonmaken. Voor 10Gbit/s kun je de vezel bij wijze van spreken schoonmaken door deze aan je broek af te vegen. Maar om 400Gbit/s te realiseren mag je er al niet met je duim aanzitten, dan wordt deze al te vies. Je signaal-ruisverhouding op langeafstandsverbindingen is ook erg belangrijk en je moet daarvoor het verlies met elke koppeling en versterking op de lijn minimaliseren. Daar is SURF in 2019 en 2020 erg druk mee bezig geweest", aldus Suerink.

Gerben van Malenstein valt hem bij. Van Malenstein is technisch productmanager bij SURF en hij houdt zich onder andere bezig met de internationale verbindingen: "We zijn er al drie jaar mee bezig. Toen voerde onze optische expert de eerste simulaties uit om te bepalen wat het verlies zou zijn. We constateerden dat als je dat verlies wilt beperken, je zo min mogelijk fiberconnectors in de lijn wilt hebben. Deze 400Gbit/s-lijn bevat daarom zo min mogelijk van die connectorovergangen: we hebben ze zoveel mogelijk aan elkaar gelast. Ook wisten we toen al dat we flink moeten gaan versterken. Dat doen we nu met Ramanversterkers. Die hebben we voorheen op dit traject niet nodig gehad."

Nikhef converteert meerdere 100Gbit/s-signalen vanaf zijn servers om tot 400Gbit/s te komen. "Er zijn nog geen 400Gbit/s-netwerkkaarten beschikbaar. Dus vandaar op deze manier. We gebruiken voor de conversie de Juniper QFX5220; de gebruikte glasvezelmodules zijn de QSFP-56DD-FR4 en de QSFP-56DD-LR4L."

Om de grote hoeveelheid data voor het testwerk te genereren, bouwde Nikhef vorig jaar al een zogenoemde '1Bpps Machine': een systeem dat een miljard pakketjes van 64 bytes per seconde kan verzenden. In aanvulling daarop zijn dit jaar twee testsystemen gebouwd die met elke mogelijke pakketgrootte 400Gbit/s aan verkeer kunnen genereren. Suerink: "Deze zijn gebaseerd op de IBM IC922- en de Lenovo SR655-servers. Als netwerkkaarten gebruiken we Mellanox Connect-X5 kaarten."

1Bpps machine
Resultaat van 1Bpps Machine van Nikhef

De signalen van Nikhef en CERN komen binnen bij SURF, dat een ECI TR1200E-transponder gebruikt om dit om te zetten in een coherent DWDM-signaal voor de glasvezelverbinding. SURF ondersteunt Flex Grid op zijn netwerk om de grote hoeveelheid data door een enkel kanaal te krijgen. Van Malenstein benadrukt dat 400Gbit/s een service over de lijn is. "De hele lijn is aangepast om deze 400Gbit/s mogelijk te maken, maar het gaat om dezelfde glasvezel als de bestaande 100Gbit/s-services. Er komt grijs licht binnen vanuit CERN en Nikhef en per service wijzen wij een golflengte op het internationale DWDM-systeem tussen CERN en Nikhef toe. Als je een nieuwe 400Gbit/s-service wil aanbieden, moet er een nieuw setje transponders bij. Je kunt het zien als dat er een nieuw kleurtje op de glasvezel bijkomt."

Suerink: "Ter vergelijking: in 2017 testten met een DWDM-verbinding op een 'oude' vezelkabel met een oude connector en toen kwamen we tot maximaal 150Gbit/s per kleurtje." Volgens Van Malenstein is het volgende doel om 1Tbit/s te behalen, door meerdere 400Gbit/s-golflengtes te combineren.

Nikhef is het Nationaal instituut voor subatomaire fysica en is al vanaf de start van de deeltjesversneller verbonden met de LHC, via een verbinding van SURF. De deeltjesversneller levert enorme hoeveelheden data op. Nikhef en SURF vormen een van de dertien tier 1-locaties wereldwijd waar die data terechtkomt voor verdere analyse en opslag. CERN zelf is de tier 0-locatie.

Netwerkhardware van SURF bij Nikhef.
Netwerkhardware van SURF bij Nikhef. Bron: Nikhef

De enorme bandbreedte van een 400Gbit/s-verbinding is nu nog niet nodig, maar dat gaat veranderen. Dit jaar komt een einde aan Long Shutdown 2, een periode van meer dan twee jaar waarin CERN upgrades aan de Large Hadron Collider doorvoerde. Dan kan Run 3 beginnen, een reeks van nieuwe experimenten met de deeltjesversneller, mits er geen vertraging komt door de coronacrisis.

Tijdens Run 2, die van 2014 tot en met 2018 duurde, leverde de LHC gemiddeld zo'n 8Gbit/s aan data, met pieken tot boven de 10Gbit/s. De verwachting is dat dit bij Run 3 gaat verdubbelen. Daarna volgt een nieuwe Long Shutdown, om de LHC om te bouwen tot de High Luminosity LHC, of HL-LHC. CERN zet de vernieuwde versneller in 2027 in gang en bij die Run 4 moet nog eens vijf keer zoveel data gegeneerd worden, oftewel tien keer zoveel als bij de laatste run.

De grote vloedgolf aan data komt dus pas op zijn vroegst over zes a zeven jaar. Waarom dan nu al testen met enorm veel meer bandbreedte? Van Malenstein: "Deze een-op-een-verbinding met CERN is voor ons echt maatwerk. We maken gebruik van de nieuwste technologie voor onderwijs en onderzoek. We zijn de operator van lijnen en een exchange in Amsterdam. Die exchange is NetherLight. Dat is een open knooppunt voor glasvezelverbindingen waar internationale partijen voor onderwijs en onderzoek zich op aan kunnen sluiten. We lopen daarmee al eens tegen de grens van 100Gbit/s aan en het doel is om binnen een jaar naar 400Gbit/s en op termijn tot 1Tbit/s te gaan. De verbinding met CERN is een manier voor ons om te testen, maar verschillen zijn er momenteel ook, want er zit bijvoorbeeld nog geen ethernetswitch tussen. Die zijn er nog niet. Voor NetherLight gaan we die wel gebruiken. De hardware voor 400Gbit/s-switching, een Juniper MX10008, is al gekocht, maar we wachten nog op de 400Gbit/s-kaarten. De verbinding met CERN moet straks ook via het Netherlight-knooppunt verlopen."

Wie bij de omschrijving van NetherLight aan de AMS-IX denkt, denkt in de goede richting. SURF is samen met Nikhef medeoprichter van de Amsterdam Internet Exchange en NetherLight moet net zo succesvol als dat knooppunt worden, maar dan voor lichtpaden. Om dat te realiseren wil SURF voorop blijven lopen met technologie. Eerder maakte de organisatie zo de eerste intercontinentale 100Gbit/s-verbinding via NetherLight mogelijk.

Voor Nikhef is de reden iets anders. Suerink: "Voor ons is het noodzakelijk om voorbereid te blijven. We weten inmiddels, met de vroege nieuwe van technologie blijft het gedoe. Je constateert dan dat hardware van verschillende merken nog niet goed op elkaar aan te sluiten is, je komt dingen tegen als vuile vezels, enzovoorts. En we weten inmiddels ook over de experimenten met CERN: ze willen zo hard mogelijk gaan."

Door Olaf van Miltenburg

Nieuwscoördinator

04-01-2021 • 17:04

76

Reacties (76)

Sorteer op:

Weergave:

400 Gbit/s klinkt ongelofelijk snel, maar dan vraag ik me af hoe snel trans-Atlantische kabels zijn. Een snel Wikipedia onderzoek leert mij dat bijvoorbeeld de TAT-14 kabel (https://en.wikipedia.org/wiki/TAT-14) bijvoorbeeld op dit moment 2,15 Tbit/s aankan, en dus bijna 10x zo snel is. Bovendien is deze ontworpen om tot 9,38 Tbit/s aan te kunnen. Om maar niet van de Dunant- en MAREA-kabel te spreken, die respectievelijk 250 en 160 Tbit/s aan kunnen. Het kan overigens zijn dat ik iets mis, aangezien dit niet echt mijn vakgebied is.
Je maakt een verkeerde vergelijking. Het artikel gaat over een "ethernetverbinding" en niet om het aantal vezels in een duct. De zeekabels waar jij het over hebt, hebben een gezamenlijke capaciteit van bijvoorbeeld 2.15 Tbit/s. Dit kunnen 96 vezels zijn, of 144 of wat dan ook. Daarbij is de capaciteit van 1 glasvezelkabel puur afhankelijk van de hedendaagse apparatuur.

Ter info:
Zonder dure apparatuur kan je met een standaard duplex glasvezelkabel passief 96 x DWDM a 10Gbit/s gebruiken. Dus 960Gbit/s.
Goed om erbij te vermelden, dan kan je dus 96 streams van 10GBit hebben. Je kan de kabels niet 'bij elkaar optellen'.

Dus... Je kan wel 4x 100mbit NICs in je PC drukken en met LACP aan een switch knopen, maar je kan die grote file niet sneller dan 100mbit van je servetje kopiëren, ook al heeft die een GBit Nic. Well kan je vanaf een andere server tegelijk een file kopiëren met 100mbit (mits het Laco algoritme niet naar tegen je doet).

Deze ene 400 Gbit is dus wel deze snelheid in 1 enkele stream ( of meerdere, zie zelf maar even).
Volgens mij is dat toch juist wat je doet met https://en.wikipedia.org/wiki/Link_aggregation
Je grote file wordt immers toch al in stukken gehakt op basis van je MTU
Je grote file wordt immers toch al in stukken gehakt op basis van je MTU
Nee, zo simpel is het niet. De connecties worden geloadbalanced en zowel de host als de receiver moet weten hoeveel en welke links er zijn. Anders zijn ze gelimiteerd tot 1 data stroom wat dus resulteert in de limiet van 10gbit in dit geval.
dat ligt natuurlijk ook eraan hoe je de file verstuurd en hoe je de hashing van je loadbalancing doet, er zijn wel degelijk file transfer tools die in meerdere threads kunnen sturen en dan met een session hash werken (en niet source/destination ip of mac voor loadbalancing)
Het kan inderdaad, maar ik wil alleen aangeven dat het niet simpel is.
90% van de netwerk engineers kiezen voor source/destination hash load balancing en laten we eerlijk zijn, dat is de makkelijkste en veiligste keuze voor switch/switch load balancing. Niet om 1 persoon de beste doorvoer te geven maar om meerdere clients van voldoende snelheid te voorzien.
Nee, het gaat op basis van source & destination. Elke unieke combinatie daarvan maakt gebruik van 1 kabel/verbinding. Heel erg in het kort... ;-)
Is het dan niet eenvoudiger om een stukje software te schrijven waarmee je kabels gebundeld parallel kunt gebruiken, in plaats van 1600km glasvezel op te poetsen?
Volgens mij moet dat sowieso, anders heb je aan beide kanten een nogal bizar apparaat nodig dat een dergelijke bandbreedte over 1 lijn kan genereren alswel verwerken.
Als je in het artikel kijkt dan zie je dat ze QSFP-56DD gebruiken wat 8x50Gbit is, maar het is de switch ASIC (SERDES) die dat allemaal weer bij elkaar fietst op packet niveau dus het lijkt 400Gbit en je kunt ook met 1 stream 400Gbit halen mits je dus een server kan vinden met een enkele 400Gbit aansluiting en genoeg PCIe lanes etc...
Je kan de kabels niet 'bij elkaar optellen'.
Met
96 x DWDM a 10Gbit/s
wordt 96 10Gb/s Ethernet verbindingen over 1 glasvezel paar bedoeld.

Die Ethernet verbindingen kunnen wel gecombineerd worden maar een 1 x 400Gb/s verbinding is stukken goedkoper, flexibeler en sneller dan een 40 x 10Gb/s verbinding.

[Reactie gewijzigd door Jaco69 op 24 juli 2024 02:09]

Een zeekabel heeft tot op heden nooit meer dan 16 vezelparen gehad.

Dit omdat er ook versterkers in de kabel moeten zitten, je kan niet zomaar aan 1 kant licht erin stoppen en verwachten dat het er 5000 kilometer net zo hard weer uitkomt zonder versterkers onderweg.
Daarnaast moet de kabel zo sterker gemaakt worden dat hij niet zomaar breekt.

Zo gauw je op het land komt zijn kabels met 96 vezels wel normaal, maar niet in zeekabels.

[Reactie gewijzigd door cHoc op 24 juli 2024 02:09]

Dat dacht ik al, maar dan begrijp ik het misschien nog steeds niet goed, of klopt het artikel niet (ik schat de kans op het eerste groter). Als ik op de Wikipedia van MAREA (https://en.wikipedia.org/wiki/MAREA) kijk:
The cable was initially expected to have a transmission speed of 160 terabits per second. (Specifically, 8 fiber pairs * 25 DWDM channels * 400 Gbit/s per single carrier (16-QAM modulation) = 160 Tbit/s). But in 2019, a research team reported they had generated signaling speeds of 26.2 Tbit/s (per fiber pair) on MAREA cable, 20 percent higher than believed feasible when the cable was designed.
Dan is die per vezel toch nog steeds sneller? Of in ieder geval even snel als ik de "400 Gbit/s per single carrier" goed begrijp.
Ik vermoed dat ze hier 400 Gbit/s halen op 1 DWDM kanaal i.p.v. 400 Gbit/s over 25 DWDM kanalen.
De TAT-14 kabel kan sinds 15 december helemaal niets meer. Hij is met pensioen. End of life https://www.tat-14.com/tat14/
Dat is het verschil tussen een kabel en een vezelpaar. In een kabel zitten meerdere vezelparen waarover afzonderlijke verbindingen gemaakt worden. De kabels die ik veel tegenkom hebben 96 vezels maar ik verwacht dat de kabels door de oceaan er nog wel wat meer hebben.
Dat is het verschil tussen een kabel en een vezelpaar. In een kabel zitten meerdere vezelparen waarover afzonderlijke verbindingen gemaakt worden. De kabels die ik veel tegenkom hebben 96 vezels maar ik verwacht dat de kabels door de oceaan er nog wel wat meer hebben.
Minder, 16 dacht ik. Zeekabels zijn een stuk lastiger omdat je om de X kilometer een versterker moet hebben (die ook stroom moet krijgen). Dus heel veel ruimte in die zeekabels is voor supporting equipment om te zorgen dat de fotonen die in Nederland er in gaan, in Amerika er ook uit komen. (Ok, het zijn niet de zelfde)
Ik heb er ook geen kaas van gegeten, maar ik denk dat 't verschil zit in de bandbreedte van een kabel versus één enkele vezel, en dat niet om de totale bandbreedte van een kabel gaat, maar om de bandbreedte van één enkele verbinding.

Die transatlantische kabels bestaan uit vele vezels, en dat 't hier gaat om één enkele vezel?

TAT-14: The cable system was built from multiple pairs of fibres.

Maar goed: misschien dat iemand anders licht op de zaak kan schijnen, die er meer van weet.
Dit zijn multiplex capaciteiten d.m.v. bijvoorbeeld dwdm.
Je kan verschillende kleuren op éénzelfde vezel activeren. Een trans-Atlantische kabel heeft meerdere vezels. Het aantal vezels is beperkt op basis van wat de gebruikte amplifiers aankunnen (kosten/baten).
Een (trans-Atlantische) kabel kan bvb 10Gb technologie gebruiken en dit via DWDM opschalen naar 40x10Gbps per vezel, doe dat dan nog maal het aantal vezels, dat maakt de geadverteerde capaciteit van de kabel.
De TAT-14 kabel doet 38Gbit/s per wave length en 16 wavelengths per richting. Dit artikel is wat onduidelijk, maar ze doen hier 400Gbit/s per wavelength als ik het goed begrijp. Met deze techniek zou, mist de fiber er voor geschikt is, de capaciteit van de TAT-14 vertienvoudigen (komt veel meer bij kijken natuurlijk, denk aan eventuele versterkers bv)
Wat je mist is dat dat de totale capaciteit is. Per verbinding is de maximale capaciteit (van tat-14) 'maar' 40GBit/s. Het is soort van vergelijkbaar met een hele brede snelweg met 80 banen waar iedereen 40km/h mag rijden, of een eigen weg waar je 400km/h mag rijden. De capaciteit op die brede weg is dan wel veel hoger, maar op de eigen weg gaat het een stuk sneller.
Als ik het goed begrijp gaat het in het artikel om een enkele vezel en zitten de de genoemde inter-continentale kabels meerdere glasvezels.
Voor 400Gbit/s moeten je glasvezels heel erg schoon zijn, elk klein vuiltje geeft al problemen.
Beetje een open deur, elke vezel moet brandschoon zijn of het nou 10Gbit/s, 25Gbit/s, of 40bit/s. of zelfs 400Gbit/s is...
Voor 10Gbit/s kun je de vezel bij wijze van spreken schoonmaken door deze aan je broek af te vegen.
Wat een flauwekul is dit, viezigheid zit niet gekoppeld aan de snelheid, het is vies of het is het niet, ik snap wel dat het hij DWDM extra problemen introduceert, maar die heb je net zo goed bij mono chromatische fiberverbindingen.

[Reactie gewijzigd door j4ck1nth3b0x op 24 juli 2024 02:09]


[...]
Wat een flauwekul is dit, viezigheid zit niet gekoppeld aan de snelheid, het is vies of het is het niet, ik snap wel dat het hij DWDM extra problemen introduceert, maar die heb je net zo goed bij mono chromatische fiberverbindingen.
Daar ben ik het niet mee eens. Wat voor de ene toepassing al schoon is, kan voor de andere nog steeds vuil zijn, puur afhankelijk van je toepassing.

Als ik gewoon een spiegel in de badkamer schoonmaak met wat glasreiniger en een trekker noem ik hem schoon, als ik op dezelfde manier de spiegel van een grote telescoop 'schoon maak' deze naderhand gewoon smerig is en niet meer te gebruiken. Die moet je schoonmaken CO2 sneeuw
Wat ik probeer te duiden is dat wanneer je een vuiltje op de kern van de fiber hebt het geen bal uitmaakt of dit voor 10Gbit is of voor 400Gbit, het werkt in beide gevallen niet. We checken met een microscoop onze fibers en daar wordt je soms niet blij van wat mensen als 'schoon' terugsteken.
Ik vermoed (geen kenner) dat een vervuiling het licht anders buigt en voor een verstoring zorgt. En om voor een grotere capaciteit moeten er meer en dus waarschijnlijk smallere lichtpulsjes door de kabels. Elk pulsje dat niet aankomt zorgt voor verstoring. En hoe kleiner het pulsje, hoe groter de kans dat het in het geheel niet aankomt.
Het is niet zo zwart-wit als "het werkt wel of niet". Vervuiling heeft wel degelijk invloed op de snelheid. Het kan best zijn dat 10Gb/s prima werkt met vervuiling, maar 400Gb/s problemen oplevert.
Dat is niet helemaal waar. Een optische sensor heeft een drempelwaarde waarboven deze een signaal meet. In traditionele (baseband/broadband) encoding zoals Manchester en NRZ is dat vrij eenvoudig omdat de specificatie een afstandslimiet bevat (100m voor Cat5 Ethernet, 10km voor LR op G652 SMF, etc).

In WDM is de afstand aan de ene kant afhankelijk van het aantal dB dat je aan het eind van de fiber eruit kan persen. Wat je kan boosten met bijv. RAMAN amplifiers. Maar daarnaast ook het beperken van de "skew" (afvlakken van het signaal).

In een 10Gbit signaal is een enkele bit 100 picoseconde, war voldoende voor een PV ontvangen kan zijn om het als signaal te lezen, ook als het een beetje geskewed is door internal reflection en viezigheid op de fiber interconnects. Een 400Gbit signaal is een bit nog maar 2,5ps, waardoor skew veel grotere invloed heeft op het lezen van het signaal. Een fibertrace kan dus perfect geschikt zijn voor een 10Gbit/s signaal zonder enige bit errors, maar tegelijkertijd onbruikbaar zijn voor 400Gbit.
En dan is het artikel Premium, wat leest als een NOS artikel. Gelukkig zijn er in de reacties toch wat ' premium' reacties zoals deze. ;)
Vervuiling geeft demping, en demping zorgt ervoor dat de max bandbreedte en je max afstand omlaag gaat.
Dus wat voor 10Gb/s verbinding schoon is, kan er voorzorgen dat er met een 400Gb/s verbinding een Loss of Signal optreed.
Afstand Amsterdam - Cern is 1650km. Eerder in 2020 (juni) waren er al vergelijkbare internationale testen over commerciële netwerken. 400G over 3400km.

https://opticalconnection...ive-pan-european-network/
Is anders.. dat is een test van een telco met een manufacturer... Dat betekent dat meestal vooral dat ze het licht goed genoeg werkend gekregen hebben met spullenboel die met elastiekjes en duct-tape aan elkaar vast gemaakt zit. Dat betekent niet dat er een productiedoos is, die je zou kunnen kopen. Als SURF en CERN mogen testen dan betekent dat dat de spullenboel in pre-productie/productie is, maar misschien nog niet helemaal perfect klaar. Zij zijn de demo klanten, maar wel demo klanten die een eigen netwerk hebben en ingenieurs etc. die niet moeilijk doen om een paar dagen mee te helpen om de laatste probleempjes te debuggen. De volgende stap is dat zij het activeren in hun netwerk en meerder nodes interconnecteren. Dan heb je een live netwerk, maar met mogelijk nog wat kinderziekten en een hogere leercurve voor de beheerders. Dan komen de fabrikanten met hun commerciële klanten langs om toch eens te gaan kijken hoe dat in het echt werkt. Dan komt e een nieuwe versie van de doos waar de lessons learned in zitten.
En pas daarna wordt die spullenboel echt verkocht.
Het is zo te lezen een trial en geen demo. In mijn ervaring moet het in principe wel de uiteindelijke hardware zijn wil een telco aan zo een trial meewerken.
Dat telco's bij een andere commerciële telco bij een trial worden uitgenodigd heb ik nog niet gezien. Demo's zijn meestal bij de fabrikant of in een vrachtwagen of container die van telco tot telco gaat, dan vaak wel met lab hardware.
Je weet dat SURF en CERN niet commercieel zijn. Met demo klanten bedoel ik, zij zijn de klanten waar een fabrikant mee kan laten zien dat ie echt goed spul heeft. Waar ze bij commerciële klanten mee kunnen pronken; Dit spul staat nu een jaar te draaien bij CERN en SURF.

Het resultaat zijn dan mooie presentaties zoals deze https://ripe63.ripe.net/p...s/44-ripe63-100-gbe_5.pdf Hierin zijn de ervaringen van een exact vergelijkbare trial in verwerkt die 10 jaar geleden draaide en die toen ook Tweakers haalde nieuws: Internetpijp tussen Amsterdam en Genève haalt 100Gbps
Ah zo. Dat demo klanten las ik eerst verkeerd dus wat ik zei over demo is niet relevant.

Ik bedoelde maar dat een trail bij een commerciële telco bijna precies is zoals jij eerder beschreef voor SURF en CERN. (Behalve dan dat er geen concurrenten mogen kijken, de klant geen presentatie zal maken en die van de fabrikant geen details zal bevatten)

Die eerdere 'pan-Europese' trial was trouwens als ik goed heb gezocht niet internationaal, alleen binnen Frankrijk en geen 400G over de hele 3400km.
Met de auto is Amsterdam - Geneve ongeveer 990 km, openstreetmap
Hemelsbreed is het nog geen 700 km.
Hoe komen ze tot 1650 km? Raken ze zoveel kwijt op de knooppunten?
Glasvezel volgt niet altijd de kortste route tussen punt A en B, tussenliggende steden (die niet op de route liggen) worden ook door het netwerk aangedaan.
Is dit een kwestie van de snelste apparatuur kopen die op dit moment voor handen is?
En dan een zo lang mogelijke glasvezel gebruiken, dus de componenten zo goed mogelijk op elkaar afstemmen.
En voordat je zegt 'och het is licht', licht geeft niet-lineaire effecten in glasvezel. Dus waar 2 frequenties zitten komen er meer. En die zijn storing.
Was het maar waar.
Hier zal eerst een heel onderzoekstraject aan vooraf gegaan zijn waarbij eerst de pijlers worden gezet van wat de bedoeling is, daarna onderzoeken hoe dat allemaal zou kunnen werk en met welke apparatuur.
vervolgens ook onderzoek naar deze vezels, en vezel kwaliteit, apparatuur kwaliteit ed. wat hiervoor nodig is.
Vervolgens wat initiele testen, met daarop een evaluatie van de testen.
Vervolgens het geleerde uit de testen aanpassen op het initiele plan.
Waarop je dan een mogelijk zou kunnen beginnen met de bouw van de verbinding.

En ik vergeet waarschijnlijk nog wel wat stappen....
Ik vermoed dat het signaal om de x aantal km moet versterkt/ge-repeat worden?
Om de hoeveel km is dat dan?
Betekent dat je in elk repeater station hardware moet voorzien zodat er ondersteuning is voor 400Gb/s?
Of bestaat er hardware dat het volledige spectrum repeat zonder kennis te moeten hebben van de onderliggende modulatie/technologie?
Er staat in het artikel Ramanversterker met een linkje. Dus die pompt het elke zoveel kilometer op, ik denk dat die geen 400Gb/s hoeven te ondersteunen. Bij zeekabels is dat elke 50-60km maar hier weet ik het niet.
Meestal elke 80km of bij slechte fibres elke 20dB demping. Raman introduceert minder ruis dus daarom passen ze dit toe. Dus ja, ze hebben elke 80 km de versterkers moeten wisselen. Duur grapje dus.
De ECI genoemde module heeft 2 lasers en kan daarmee 2x een 600G DWDM golflengte leveren (op hele korte afstand werkt dat). Echter hoe langer het traject hoe lager de bitrate gemoduleerd wordt. Het is me niet helemaal duidelijk of het hier nu om een superchannel gaat (dus de 2 lasers gemoduleerd op 200G) of echt een enkel signaal, dus 1 van beide lasers actief.

[Reactie gewijzigd door kingcharles op 24 juli 2024 02:09]

"We constateerden dat als je dat verlies wilt beperken, je zo min mogelijk fiberconnectors in de lijn wilt hebben.". Nogal wiedes, dat geldt voor elke verbinding, of het nou glasvezel, utp, of stroom is. Elke connector kun je zien als een extra weerstand.
Is het commentaar nu dat wat er in het artikel gezegd wordt inderdaad klopt?
Zoals ik zijn reactie lees (en zoals ik het artikel zelf las) is het meer dat ze een open deur intrappen.
Tegelijkertijd werk ik in een datacenter en heb ik hier dagelijks mee te maken, en is het voor andere mensen misschien minder evident.
Leuk te zien dat cirquit-switching weer terug komt :-)
Zijn er nog kenners van de digitaal gestuurde analoge pots-telefooncentrale? Dan is het alleen maar glas in plaats van analoge signalen.
Voor Netherlight is circuit-switching op lichtpad niveau nooit weg geweest. Maar circuit-switching waar je dedicated paden tussen twee punten opzet is tegenwoordig alleen nog maar nuttig voor mensen die de techniek zo erg belasten dat er geen coördinatie overhead meer in mag zitten en ze met maar heel weinig mensen hoeven te verbinden. De circuits worden ook niet iedere seconde op en af gebouwd, maar liggen er maanden zo niet jaren. Wil je met veel mensen verbinden en heb je veel wisselende contacten, dan wordt het al snel Ethernet, SDWAN of IP :-)
Leuk te zien dat cirquit-switching weer terug komt :-)
Zijn er nog kenners van de digitaal gestuurde analoge pots-telefooncentrale? Dan is het alleen maar glas in plaats van analoge signalen.
Die analoge pots-telefoon centrale werd met niet digitale pulsjes aangestuurd en DWDM heeft niets met circuit-switching te maken.
.

[Reactie gewijzigd door Jaco69 op 24 juli 2024 02:09]

Interessant artikel. De optics die ze gebruiken zijn QSFP-56DD en gebruiken PAM4 modulatie. Dat is anders dan de NZR modulatie bij QSFP-28 voor 25/100G. Dit is weer een hele nieuwe standaard voor de 400G die je dus ook niet zomaar aan 100G kan knopen. Maar wel goed dat ze daar nu al voor gaan. Er zijn ook al een aantal switches van Mellanox die op deze manier 400G doen.
Overgangsweerstand of bij coax een misaanpassing. Helemaal connector loos is niet mogelijk omdat er op de periferie moet worden aangesloten. Bij een 230V aansluiting zijn er geen problemen als er goed materiaal voorhanden is. Dat is dan ook een hele andere tak van sport dan een 400Gbps verbinding.
Het is een P2P verbinding van 400G.
Dat betekend dat en op beide locaties maar een fiber lengte nodig is van 10Km met een 400Gb signaal inhouse. De regels is dat je 100Gb en alles daarboven moet cleanen met een fiberscope voordat je het op je apparatuur aansluit.

De rest van de verbinding word door backbone (DWDM met behulp van RAMAN laser) gedaan.

Het bedrijf waar ik voor werk betekend dat het 400Gb signaal word verdeeld over 8channels van 50G/stuk. Backbone heeft in totaal 96 channels (4,8T) over 2 vezel paar. Met 144 vezels in 1 kabel kan je aardig vooruit.

Waarom maar 144 vezel in 1 kabel. Simpel. Als deze kabel onderbroken word door een onbekende reden (damwand slaan, grondwerk die niet oplet. Iemand die geen Klic melding heeft gedaan, .....) heeft een lasploeg 6 á 8 uur nog om in orde te maken.

Op dit item kan niet meer gereageerd worden.