SURF legt 400Gbit/s-netwerk aan voor wetenschappelijk onderzoek

SURF en Astron, het Nederlands instituut voor radioastronomie, hebben samen een 400Gbit/s-verbinding aangelegd. De netwerktechnologie is bedoeld voor astronomen die werken met de Low Frequency Array-telescoop, of Lofar.

Surf en Astron gebruikten OpenZR+ om een directe verbinding tussen de onderzoeksfaciliteiten in Groningen en Dwingeloo aan te leggen, schrijft SURF in een aankondiging. De verbinding wordt gebruikt door de Lofar-telescoop: de grootste radiotelescoop ter wereld die werkt op de laagste frequenties die vanaf de aarde waarneembaar zijn.

De telescoop bestaat uit duizenden kleine antennes die in heel Europa staan, die signalen naar een centrale computer sturen. Deze computer verwerkt de binnengekomen data en maakt daarvan beelden van de ruimte. Nu de netwerkverbinding verbeterd is, kunnen er meer signalen tegelijk verstuurd worden. Door de hogere bandbreedte kan dat bovendien sneller en in hogere kwaliteit, wat zorgt voor scherpere Lofar-beelden, stelt SURF.

Astronomen kunnen zich daarnaast via OpenZR+ aanmelden voor multicast streams van data die rechtstreeks vanuit de Lofar-stations komen. "Dit biedt onderzoekers directe, realtime toegang tot de recentste wetenschappelijke gegevens, op het moment dat ze het nodig hebben,” zegt Julian Kootstra, network engineer bij Astron. “Als je je eigen cluster hebt, krijg je direct toegang tot nieuwe data – een revolutionaire manier om de grenzen van onze kennis te verleggen."

Voor de netwerkupgrade werd van 400G-ZR-optics gebruikgemaakt. Dit is een technologie waarmee het signaal in het netwerk versterkt wordt, zonder dat er aparte transponders nodig zijn. Op die manier zijn er minder tussenliggende componenten nodig, waardoor het netwerk minder complex wordt. Netwerkbeheer wordt zo eenvoudiger en volgens SURF is er minder kans op storingen. Ook zou er minder stroomverbruik zijn, is de apparatuur compacter en worden de kosten lager doordat er efficiëntere apparatuur gebruikt wordt.

Update 14.51 uur - Er stond dat de netwerktechnologie OpenZR+ heet, maar dit is de gebruikte technologie. Het artikel is daarop aangepast.

Door Eveline Meijer

Nieuwsredacteur

20-02-2025 • 14:22

26

Submitter: tomhoven

Reacties (26)

Sorteer op:

Weergave:

OpenZR+ is een standaard waar transceivers aan voldoen (voor interop), waarbij ze bepaalde operationele modi implementeren.

https://openzrplus.org/

Dit wordt vaak toegepast in QSFP-DD modules, die je in een netwerk switch kan steken om zo direct vanaf je switch lange afstanden te overbruggen (waar vroeger veelal een trans/muxponder aan te pas kwam).

Dat is niet bedoeld voor Astronomie en wordt al veel gebruikt in de DCI (data center interconnect) industrie. Het maakt het mogelijk om via DWDM meerdere keren 400G over een en dezelfde glasvezel verbinding te sturen.

[Reactie gewijzigd door Ayyylias op 20 februari 2025 15:01]

Vraagje. Ik vind het internetnetwerk een interessant onderwerp, maar ben na de elektrotechniek bachelor de energiekant op gegaan. Modulatietechnieken, IP en elektromagnetisme dus wel gehad, maar niets over de implementatie wat juist het gedeelte is dat mij trekt.

Heb jij (of iemand anders die deze achtergrond heeft) een aanrader om hier meer over te weten te komen? Elke vorm van media is prima, maar het is dus wel grotendeels voor de leuk. Ik mis het overzicht en relevante keywords om via google meer te vinden dan reclames of uitleg voor leken.

Voorbeeldvragen om "implementatie gedeelte" specifieker te maken zijn: Hoe werkt het installeren van bijvoorbeeld de verbinding uit het artikel? Via knooppunten en dan het laatste deel extra trekken? | Welke (soort) recente technologische ontwikkelingen zorgen voor de verbeteringen in het netwerk? | Stel dat het AMX knooppunt waarvan we hier telkens op tweakers lezen dat het nieuwe records heeft gehaald zou worden platgebombardeerd, hoe manage je dat verlies van capaciteit? Is het naast rerouten een manier om gebruikers te knijpen?
Verbindingen zoals dit worden (veelal) over gehuurd glas gelegd. Daarvan liggen grote stukken al, Relined is bijvoorbeeld een partij waar je glas van kan huren: https://relined.eu/en/network-map/

Bij Datacenters ligt dit vaak al wel binnen, maar als je naar een random adres glasvezel wil word het laatste stuk aangelegd. De verbinding word vervolgens in 'handholes' (de knooppunten) door gelast vanaf site A naar site B, waardoor je een volledig ononderbroken fiberpaar (een brengt het licht heen, de ander terug) hebt van locatie A naar B.

Het knooppunt dat je bedoelt is AMS-IX, die maken weer gebruik van dark fiber verbindingen om connectiviteit te leveren tussen datacenters, dat staat hier naast, niet onder of boven. Zij faciliteren de connectiviteit tussen bijvoorbeeld een Surf en een Odido (doordat zij allebei op AMS-IX zitten kunnen zij daar met elkaar verkeer uitwisselen). Dat ligt dus ook weer boven op de fysieke infrastructuur.
AMS-IX is aanwezig in verschillende datacenters in Amsterdam en omgeving, tussen waar zij dus weer fysieke verbindingen onderhouden om verschillende bedrijven in staat brengen verkeer met elkaar uit te wisselen.

Stel dat de AMS-IX zal verdwijnen zal het dus zo kunnen zijn dat 2 bedrijven die voorheen via AMS-IX met elkaar verkeer uit wisselde (peering) zullen zij automatisch (door gebruik van BGP) een alternatieve route kiezen. Dat kan zijn via een concurrerend internet exchange of via een IP transit provider (dat is iemand die je betaald voor de aflevering van het verkeer, in tegenstelling tot peering waarbij je daar dus (met een directe verbinding of internet exchange als faciliteit) zelf voor zorgt.).

Vervolgens kan je hier een mux op aansluiten (werking lijkt op dat van een prisma, splitst kleuren uit elkaar) waardoor je verschillende kleuren licht op verschillende transceivers (hier komt de rol van OpenZR+) uit kan laten komen en zo meerdere (parallelle) verbindingen tot stand kan brengen over 1 glasvezel paar.
Mocht je lichtsterkte te kort komen kan dit worden opgelost met optische versterkers.

Een grote recente onwikkelling voor de sector zijn de 'pluggables', zoals OpenZR+ (in de praktijk bijvoorbeeld 400G-OpenZR+). Om in een verleden tijdperk een lange afstand verbinding te realiseren met hoge capaciteit was vaak een hoop apparatuur nodig. Je sluit die apparatuur aan op je router en vervolgens zet je het daarmee op je glasvezel verbindingen. Met de pluggables kan je de glasvezel verbindingen direct aansluiten op je netwerk apparatuur, waardoor er minder apparatuur nodig is, implementaties sneller gaan en we energie besparen :)
Cool, hartstikke bedankt voor de uitleg. Zitten genoeg dingen tussen waarop ik verder kan zoeken.
De techniek die hier wordt toegepast heet ook wel DWDM (Wavelength Division Multiplexing) genoemd. Deze techniek maakt het mogelijk om door meerdere golflengtes meerdere Ethernet kanalen (of vroeger Fiberchannel) over een glasverzelverbinding te verplaatsen (vezelpaar)..

In dit specifieke topic wordt verwezen naar 400G-ZR-optics - dat zijn optics die aan beide kanten van een passieve (onbelichte) glasvezel wordt geplaatst. ZR geeft aan de maximaal overbrugbare afstand zonder versterking. BIj ZR is dat 120km maximaal.

In Nederland zijn er meerdere grootzakelijke leveranciers van onbelicht glasvezel waaronder ook Eurofiber en de partij die hier boven werd genoemd.

DWDM wordt toegepast om veel efficiënter (meerdere kanalen) en met hogere bandbreedtes data te verplaatsen tussen datacenter locaties (DC Interconnect). Veelal met ultra lage latency.

Zoek vooral eens op DWDM technologie - daar is ontzettend veel over te vinden.
Afhankelijk van wat je wil weten kan je zoeken op termen als WDM, DWDM, OTN.

Glasvezel is de snelweg waar het licht door wordt gestuurd. Afhankelijk van de techniek van belichten, snelheid en kwaliteit van de vezel kun je flinke snelheden over grote afstanden behalen, ook zonder regeneratie.

Dirksen is bijvoorbeeld een opleider met veel mooie trainingen in de glasvezelwereld. Zowel over de infra (glasvezel en bijbehorende aanleg technieken) alsook over de apparatuur en verschillende (transport)technieken om data over te dragen.

Heb er zelf ook meerdere opleidingen gehad.
Ik zou beginnen bij youtube tutorials. Zeker als er goede visualisaties zijn gebruik kunnen complexe zaken heel duidelijk worden. Sommige zaken die ik 35 jaar geleden op de HTS niet snapte snap ik nu opeens wel. Komt wellicht ook omdat veel theorie van toen nu opeens veel wordt toegepast zodat je weet waarom je het moet leren.
Ik zou naast de andere reacties hieronder ook eens inlezen in:
- Transit
- Tier 1
- Tier 2
- Tier 3
- Peering
- Public Peering (NL-IX / AMS-IX)
- Private Peering

Dit maakt alles gebruik van Glasvezel netwerken, ik zou hiervoor gewoon eens op een website als https://www.flexoptix.net/ rondsnoepen wat daar allemaal is, ze hebben ook goede uitleg pagina's over de verschillen.
Pas een documentaire over Lofar gezien op YouTube, deze telescoop zit niet alleen in Nederland maar ook in andere landen en samen zijn ze een telescoop. Alleen bij Dwingeloo is het grootste station.
Haha ja precies deze :)
Dat klopt! Daarom staat de volgende zin ook in het artikel: "De telescoop bestaat uit duizenden kleine antennes die in heel Europa staan."
Klopt maar er staat niet bij dat in Dwingeloo het grootste station is.
Wauw. Het begon eind jaren '80 met 64 kbps verbindingen. En over zo'n verbinding stuurden we met een paar honderd medewerkers e-mail de wijde wereld in.
Jij hebt nooit een 1200 baud modem in je handen gehad zeker! ASCII BBS'en waren helemaal de bomb!
Wel 1200 bps modems. Die waren 300 baud :)

Edit: maar wat ik bedoelde is dat specifiek SURFnet begon met 64 kbps huurlijnen. 1987 of '88 als ik me goed herinner. Daarvoor waren we inderdaad al jaren zoet met allerlei loodzware en naar huidige maatstaven zeer onbetrouwbare modems.

[Reactie gewijzigd door willemb2 op 20 februari 2025 15:47]

Ik was er bij Surfnet niet bij, maar mijn eerste baan was bij KPN Travelnet. Dat was het netwerk waar tour operators op konden inbellen om vliegtickets te boeken.

We hadden iets van 4 PRIs (96 lijnen), ongeveer 200 56k modems, allemaal op Cisco 2500 asyncs en in totaal iets van 8Mbit aan channeled huurlijnen. Alles kwam bij elkaar op 2 Cisco 5500s met een L3 kaart. En oh ja, de datacenter vloer had nog gewoon tapijt 🤣

Mooie tijden waren dat!
Krijg ik ook een aansluiting als ik een machine heb draaien met Boinc?
Draaid dat online dan? Dacht het eerder te kunnen gebruiken voor 1tick mining in Old School Runescape.
Je hebt er niet veel aan voor multiplayer. Praktisch elke breedbandverbinding heeft voldoende bandbreedte voor multiplayer. De vertraging (latency) is wat je nekt, en daar gaat deze technologie niet bij helpen.
Voor de netwerkupgrade werd van 400G-ZR-optics gebruikgemaakt. Dit is een technologie waarmee het signaal in het netwerk versterkt wordt, zonder dat er aparte transponders nodig zijn. Op die manier zijn er minder tussenliggende componenten nodig, waardoor het netwerk minder complex wordt.
Ik kan me anders voorstellen dat reductie van het aantal tussenliggende componenten de latency ten goede komt ;-).
Uiteindelijk gaat licht niet sneller dan het licht en sneller gaat het niet. De grootste latency winst haal je door kortere routes te nemen. Hoe minder meter kabel tot het datacenter hoe beter. Zou me niets verbazen als hele fanatieke gamers hier zelfs hun gamelocatie/woonadres op aanpassen.

Beleggers doen dat al door milliseconden sneller te kunnen kopen en verkopen.
Precies, sneller dan het licht gaat niet dus de enige manier om - bij constante afstand - latency te reduceren is overhead van tussenliggende componenten die wat latency toevoegen weg te nemen.
Het draait bij deze toepassing voornamelijk over de bandbreedte gezien de grote hoeveelheden data, niet om de latency idd

Op dit item kan niet meer gereageerd worden.