Google en Facebook investeren in nieuwe 190Tbit/s-onderzeekabel in Azië

Google en Facebook investeren in de Apricot-onderzeekabel, voor een snelle verbinding tussen Singapore, Japan, Guam, de Filipijnen, Taiwan en Indonesië. De kabel krijgt initieel een bandbreedte van 190Tbit/s en moet in 2024 gereed zijn.

Volgens Google is Apricot een aanvulling op de eerder aangekondigde Echo-onderzeekabel, die de Verenigde Staten met Singapore, Guam en Indonesië verbindt. De twee kabels zorgen voor verschillende nieuwe routes van en naar Azië, wat de werking van Google Cloud en andere Google-diensten voor Aziatische gebruikers zou moeten verbeteren.

Het gaat om een 12.000 kilometer lange kabel, schrijft Facebook. Bij de aanleg is de initiële bandbreedte 190Tbit/s en de glasvezelkabel werkt met 400G-glasvezeltechniek. Volgens Facebook krijgt de kabel een configureerbare optical add-drop multiplexer met een schakelaar voor het selecteren van golflengten, wat flexibele bandbreedteconfiguratie mogelijk maakt.

Volgens Facebook zorgt de kabel voor redundantie en verbeterde capaciteit en betrouwbaarheid in de regio's Azië en de Grote Oceaan. Het sociale netwerk zegt dat de kabel een samenwerking is tussen 'regionale partijen en wereldwijde partners'.

Verschillende nieuwsmedia schrijven dat ook telecombedrijf PLDT uit de Fillipijnen investeert in de Apricot-onderzeekabel. Volgens GMA Network stopt die partij 80 miljoen dollar in het project. Welk bedrag Google en Facebook betalen, is niet bekend. Volgens PLDT wordt Apricot gemaakt door een consortium van in totaal vijf bedrijven.

De Apricot-onderzeekabel moet in 2024 operationeel zijn. Regelgevende instanties moeten het project nog goedkeuren. Google en Facebook hebben wereldwijd in verschillende onderzeekabels geïnvesteerd. Google heeft investeringen in 18 kabels gedaan en bij Facebook staat de teller nu op 14.

Onderzeekabels - Submarine Cable Map
Onderzeekabels tussen Azië en Verenigde Staten. De Apricot-kabel staat nog niet op de kaart - Submarine Cable Map

Door Julian Huijbregts

Nieuwsredacteur

16-08-2021 • 12:05

50

Submitter: zwarteduif

Reacties (50)

Sorteer op:

Weergave:

Ik vraag mij altijd af hoe de 'economics' van dit soort projecten werken. Wat is het verdienmodel erachter? Wordt hier door afnemers per volume voor betaald? Zijn dit dan individuele contracten of is er een soort spotmarkt voor capaciteit?

Investeren bedrijven zoals Google en Facebook dan vooral omdat dit goede investeringen zijn of hebben ze andere belangen? Bij stroomnetten zijn er duidelijke regels die stellen dat producenten geen transmissie mogen organiseren. Bij het internet lijkt dit niet echt hetzelfde te werken.
Die kabels hebben capaciteit en capaciteit wordt op de markt aangeboden en kan ingekocht worden door gebruikers.

Investeren hierin kan om lagere contractprijzen te bewerkstelligen, of om inspraak te hebben in gebruikte technologie of gewoon om je aandeel in de winst te krijgen.

Je zou het kunnen vergelijken met particuliere tolwegen zoals we die in het zuiden van Europa kennen, een bedrijf besluit de weg aan te leggen en iedereen kan meedoen met de investeringsronde, ligt de weg er eenmaal is er een bedrijf wat de weg beheert en onderhoud. En iedereen kan een stukje capaciteit op de weg inkopen. Eventuele winst wordt onder de aandeelhouders verdeeld.
Die kabels hebben capaciteit en capaciteit wordt op de markt aangeboden en kan ingekocht worden door gebruikers.
Helaas is het tegenwoordig niet echt meer duidelijk dat data wordt ingekocht. Maar vroeger... Als je een mb of 2 over je shared hosting pakket heen ging, ging je website uit de lucht OF je ging 3 piek per verstokte mb betalen. KPN/Libertel/Ben adverteerde duidelijk met kosten per mb.

Tegenwoordig is het verbruiken van data zo normaal geworden dat T-Mobile een Unlimited abonnement kan aanbieden zonder FUP en krijg je je data pakket van je shared hosting pakket alleen op als je duizenden 60MP deeplinkt over geheel het internet.
Mensen kopen tegenwoordig ook veel ruimer in voor hun website omdat dataverkeer niet zo duur meer is, maar ze zijn er nog genoeg waarbij de website gewoon plat gaat tot je bijkoopt of de volgende termijn begint als je verkeer verbruikt is.
Het probleem met shared is over het algemeen allang niet meer de opslag/bandbreedte, maar het bronverbruik. :) Vroegâh was het niet eens perse zoveel duurder in de basis, er werd achterlijk veel winst op geheven totdat er veel meer concurrentie kwam.
Voor Google / Facebook kan ik drie redenen bedenken:
- Ze moeten nu bandbreedte kopen bij andere partijen. Dus kosten besparing als je zelf de kabels hebt
- Data tussen data centra gaat via eigen kabels. Dus minder kans op afluisteren door derde partijen
- Latency, latency en latancy. Doordat je directere verbinding hebt.
Het worden geen kabels van Facebook en Google die ze voor zichzelf kunnen gebruiken. Dit is gewoon algemene infrastructuur die internetdiensten tussen beide continenten verbetert en daar plukken o.a. Facebook en Google hun vruchten van, naast nog honderdduizenden andere internetbedrijven.
Er zullen een aantal vezels gereserveerd zijn voor de bewuste bedrijven.
Tevens ook hoe sneller/beter de infrastructuur hoe meer mensen er gebruik van maken en dus ook hun diensten gebruikt worden. Stel je wilt Afrika aan facebook/google krijgen maar ze hebben nu allemaal nog geen internet. Dan kan het lonen om daar in te investeren en verdient dit zich weer terug door de miljoenen extra gebruikers die je in de toekomst krijgt.
Dat vraag ik me ook altijd af. En hoe is het beheer geregeld? Ik neem aan dat het een wirwar aan bedrijven en partijen is, maar kunnen Google/Facebook zomaar hun handen aftrekken? Wat als ze failliet gaan? Is er dan ergens een depot met een smak geld die het onderhoud de komende jaren veiligstelt? Het is vast een goede aanvullingen op hun eigen diensten, maar is zo'n kabel binnen de technische levensduur winstgevend?
Er liggen al 1000en van dit soort zeekabels, de kabels die in Nederland binnenkomen iets van 25 jaar oud (dus het gaat best lang mee).

Het zijn gespecialiseerde bedrijven die eigenaren van de kabels zijn, die dus ook weten wat de onderhouds- en later opruimkosten zijn. De investeringen die Facebook en Google doen is uit direct en indirect eigen belang, meer internet is meer klanten. Maar een goed en betrouwbaar internet zorg ook voor een beter bereikbaarheid van hun diensten (en het geld hebben ze er voor).
Dat ze investeren wil overigens niet zeggen dat ze iets te zeggen hebben, het is niet dat er een Quality of Service gaat plaatsvinden als iemand www.google.com intypt oid.
Maar het is wel fijn dat als je investeerders met veel geld hebt, dat er meer geld in kan op het moment dat het nodig is (denk dus inderdaad ter voorkoming van een faillissement).
Zolang de kabel niet kapot gaat? Want een kabel leggen is ook een gok. Een kansberekening zou ik dan antwoorden op je vraag. Kabels gaan regelmatig kapot en dan is er geen onderhoud meer in de situatie zoals je omschrijft als een eigenaar failliet is o.a.
Alle data die over die kabels gaat lijkt me interessant voor partijen als Google en Facebook, die doen werkelijk alles voor data.Dat is immers veruit hun grootste inkomstenbron.
Ze hebben alleen niet heel veel aan de data die op zo'n manier wordt getransporteerd. De relevante informatie hebben ze al van de eindpunten, uit de grote datastream moeten ze dan alle relevante infromatie gaan filteren. En er zal niets nieuws uitkomen wat ze nog niet weten.
Ik zie het minder als een probleem dat grote cloud partijen nu investeren in kabels. De reden en het resultaat is namelijk positief. In veel regio's zijn de zeekabels in handen van traditionele telecombedrijven. Die verdienen hun geld door capaciteit schaars te houden en te verkopen. Meedoen met deze clubs is moelijk voor niet telcos. In die gevallen waar niet-telecom bedrijven mee deden bleek dat de andere partners weinig interesse hadden in het upgraden van capaciteit. De kabels die nu gerealiseerd worden zijn gebouwd met een overschot aan capaciteit in gedachten. Een deel van die capaciteit komt ook in de markt en zorgt daar voor concurrentie. Google heeft zelfs met hulp van anderen het monopolie van Telecom Egypte in het Midden-Oosten omzeilt met de Raman kabel en de Blue kabel. Dat is nog nooit eerder gebeurd.
Is er iemand die literatuur op dit gebied kent? wat 'kost' het internet, en wie betaalt/betalen dat?
En dan bedoel ik niet alleen de hardware, maar ook de benodigde software die nodig is om het allemaal te laten draaien. Is er iemand/ een instanitie die ooit een overzicht heeft gemaakt van alle kostensoorten die een rol spelen?
Ik denk dat je dan uitkomt bij de consultancy bedrijven die allerlei business intelligence verzamelen en daar rapporten van maken.Er is niet iets als een standaard prijslijst. En al heb je de prijslijsten van hardware en software, dan weet je nog niet of dat uiteindelijk de werkelijke kosten waren. Die zijn toch altijd de uitkomsten van onderhandelingen en schaalgrootte. Als ik bij Cisco 1 router koop betaal ik de hoofdprijs. Als ik een meerjarig contract afsluit voor duizenden systemen dan heb je totaal andere kostenplaatjes. En als een andere bedrijf hetzelfde afneemt kan er alsnog een ander prijskaartje aan hangen.

Je kunt hoogstens een overzicht maken met alle kostensoorten om een idee te krijgen wat er moet gebeuren.
De Miljarden gebruikers betalen dit via de bedrijven wiens diensten zij afnemen.

En wat schaar jij in dit geval onder "het internet*
Dit soort vitale infrastructuur hoort niet aangelegd en beheerd te worden door private partijen en zeker niet door Facebook.
Dat is héél makkelijk te roepen, maar doen publieke partijen het echt beter op dit vlak?
China heeft ook van dit soort kabels, een zo'n verbinding met China beheerd door een private partij zou ik juist meer vertrouwen.

Daarnaast ga je volledig voorbij aan het feit dat deze zelfde partijen juist hun geld verdienen dankzij deze kabels. Er is een directe afhankelijkheid voor Facebook en Google van snel en betrouwbaar internet, in allerlei plekken op de wereld.

Overigens staat hier enkel dat deze private partijen investeren in de kabel en niet dat zij het ook beheren en/of aanleggen. De aanleg wordt gedaan met internationaal werkende schepen, het beheer is ook specialistisch werk. Als dit privaat zou moeten zou de overheid dus de volledige investering moeten dragen, de rederij moeten bezitten en in ieder land de verbinding moeten beheren. Dit overstijgt landsgrenzen, dan wordt het voor overheden altijd moeilijk.

Daarnaast kan het als druk middel gebruikt worden tussen regeringen, als private partijen het opzetten is dat ook lastiger.
Is het eigenlijk niet jammer dat de lichtsnelheid zo 'traag' is ten opzichte van wat je zou kunnen bereiken in communicatie als de lichtsnelheid bijvoorbeeld 10 keer zo hoog zou zijn?

Om over de hele Aarde te kunnen communiceren met lage latency (minder vertraging) is bekabeling glasvezel de beste methode in vergelijking met de op dit moment geostationaire satellieten en wat data hoeveelheid betreft ook stabieler en met lagere latency dan zelfs de satellieten van Elon Musk genaamd Starlink.

Voor wereldwijde communicatie en zelfs binnen een moderne CPU is de lichtsnelheid echt langzaam.

Om dat in een glasvezel het licht weerkaatst tegen de wanden bij het voortplanten gaat eveneens een groot deel van de maximale lichtsnelheid in het vacuüm verloren met evenzo dat de lichtsnelheid sowieso in een medium zoals deze fiber(s) nog langzamer is.

Jammer dat we niet een kabel door het binnenste van de Aarde kunnen 'leggen' want dan zou de ene kant van de Aarde veel dichterbij zijn in afstand.

Wie had dat vroeger ( voor wereldwijde communicatie ) kunnen bedenken dat de lichtsnelheid al is het nog zo snel steeds meer een beperking is.

( 8 keer de Aarde om in 1 seconde ofzo? In theorie... )

En er zullen ongetwijfeld wat beperkingen zitten in het gangbare protocol TCP/IP voor lagere latency. Er is wel veel vooruitgang op het geschikt maken van TCP/IP voor zeer verre communicatie zoals naar een satelliet om Mars.
Het licht is het probleem niet, de 'transport' ervan is het probleem, elke tussenschakelaar (node, switch, etc) is 10000% trager dan de snelheid van licht. Hoe directer een 1 op 1 glasvezel is, hoe sneller zoiets simpelweg is. Denk aan een snelweg met kruispunten, elk kruispunt geeft vertraging, hoe langer en directer de snelweg is, hoe langer (en sneller) je dus kan blijven rijden.

Zelfs een kabel om de aarde versus 1 direct 'door' de aarde is zo marginale winst tov snellere apparatuur, dat het (zeker geldtechnisch) simpel niet waard is.

Maar, en correct me if im wrong, licht gaat niet 'trager', licht heeft een constante snelheid, maar het is de weerkaatsing in bv water/lucht/glas/etc waardoor licht een langere afstand moet afleggen. De absolute snelheid van een photon blijft hetzelfde, het is slechts een langere afstand dat het moet afleggen (al stuiterend door een glasvezel).
De snelheid van het licht speelt wel degelijk een, alsmaar groeiende, rol lijkt me. Op dit moment haal ik een RTT van ongeveer 95ms vanaf een end-user glasvezelverbnding in de VS naar tweakers.net. Zeg dat dit grofweg 5000KM is. Dan zitten daar een hele stapel vertragende factoren in. Alleen al 21 routers, nog wat switching, WiFi aan mijn kant plus software. Dat is in theorie grotendeels te elimineren.
Een enkele reis in een vacuum kost het licht dit zo'n 16ms, enkele reis. Van mijn 'ping' van 95ms blijft dus 32ms, ofwel een derde, het absolute minimum.
Alles heeft uiteindelijk een limiet, of ze kunnen accuut quantum fysica werkelijkheid maken en je hebt entangled paartjes die instant-data kunnen vervoeren, maar tot dat punt blijft licht nog het snelste.

Het zal afhankelijk van de toepassing een rol kunnen spelen, als het puur gaat om dataoverdracht gaat blijft het nog steeds ver binnen 'acceptabele' marges, waar enkel tijd een bepalende factor speelt (staat me een verhaal bij van Tom Scott over een grote rol van glasvezel om een bepaalde beurs te vertragen) zal dit mogelijk een rol gaan spelen, wanneer die 32ms grens langzaam wordt bereikt.

Zaken als chat, video, websites, blijft het puur bijzaak, omdat al het apparatuur er omheen factor 10 trager is (en zal blijven), en zelfs daar waar het een rol speelt, zal de 'ooit mogelijke' eliminatie van die 16ms op het geheel van het proces een marginale rol blijven.
Maar, en correct me if im wrong, licht gaat niet 'trager', licht heeft een constante snelheid, maar het is de weerkaatsing in bv water/lucht/glas/etc waardoor licht een langere afstand moet afleggen.
Klopt, in een vacuüm heeft licht een constante snelheid.
In lucht is dat bijvoorbeeld 0,03% trager.
Ook de golf lengte is bepalend voor de snelheid, behalve in een vacuüm, daar heeft elke golflengte dezelfde snelheid.
Gok dat de meeste latency(en te behalen winst) niet in de glasvezel kabel zit, maar in de apparatuur ervoor en erna, dat wat de datastream om zet naar licht/laser-pulsen en weer terug om zet aan de andere kant.
12.000 km is toch ongeveer 40 ms latency voor alleen het licht.
Dat is in een vacuüm inderdaad, in glasvezel zal dat een stukje hoger zijn.
Daarom heb je ook gewoon "edge". Het is een beetje onlogisch om je verkeer of berekening rond de wereld te laten gaan. Dus in plaats van zoiets triviaal op te lossen, gebruik je andere technieken en gedachten.

Bijvoorbeeld Netflix plaatst eigen racks bij ISPs om zo edge locaties te hebben voor hun content.
CDN's draaien ook op de edge om content zo robuust en snel mogelijk te kunnen aanleveren.
Toekomstgedachte:
  • Gebruik maken van neutrino's. Die gaan vrijwel ongehinderd door de aarde heen met bijna lichtsnelheid.
  • Gebruik maken van verstrengelde deeltjes. Ongeacht de afstand veranderd de spin van het verstrengelde deeltje direct met de veranderde spin van het partner-deeltje.
Verstrengelde deeltjes kunnen niet gebruikt gaan worden voor communicatie ;(
De theorie zegt nu dat het niet kan onder andere omdat als je de staat van een verstrengeld deeltje veranderd dat de verstrengeling dan vervalt. Echter dat is nu de theorie. Wie weet wat de natuurkunde nog in petto heeft bij kwantumverstrengeling. Het is een relatief nieuw hoofdstuk in de natuurkunde en men begrijpt nog lang niet hoe alles werkt en wat er überhaupt nog mogelijk gaat zijn.
Dat hoofdstuk is ondertussen al 100 jaar oud :P

Als ontvanger kan je het deeltje wel uit lezen, maar zonder extra informatie weet je niet wat het resultaat zou moeten wezen. Informatie gaat helaas niet sneller dan het licht, daar gaan we in de toekomst zeer waarschijnlijk geen uitzondering op vinden. Maar ja, zeg nooit nooit :)
Dan nog is iets als het al eerder genoemde edge concept beter. Al was het maar vanwege robuustheid.
Voor veel zaken wel ja, maar voor online gamen is dat lastiger en wil je zo'n laag mogelijk latency hebben...
Is het niet zo dat op dit moment lichtsnelheid is gemeten in 2 richtingen? Effectief weten we de snelheid van het licht nog steeds niet (1 kant op gemeten)?
Verasitum heeft daar wel een interessant filmpje over. We weten inderdaad alleen het licht in 2 richtingen en het is feitelijk onbekend of licht dezelfde snelheid heeft beide kanten op.
die tientallen miljoenen dollars zijn pinda's vergelijkbaar bij hun winsten.
Wat is hier eng aan? Wat is de link met je politieke statement mbt tot dit nieuwsbericht?
De relatie tot het bericht snap ik niet helemaal maar in algemene zin: Het moet slecht gaan voordat het weer goed gaat. Dus eng ja, maar je ziet ook dat bijv. de EU zich steeds sterker profileert (of wil profileren, het lukt nog niet altijd zo best :D) als speler die de burger centraal stelt in een goedwerkende democratische rechtsstaat. Kijk bijvoorbeeld naar hoe Polen nu wordt aangepakt, of hoe we al geregeld megaboetes opleggen aan multinationals, of hoe we wet- en regelgeving inrichten bijvoorbeeld over wat camera's op straat mogen kunnen aan gezichtsherkenning.

We lopen met al die zaken voorop en laten zien een goed toekomstbeeld te hebben waar je je graag bij zult aansluiten, omdat het vrijheid borgt. Nog een duidelijk voorbeeld: de AVG.

De VS hebben historisch al laten zien dat de 'moral high ground' de beste positie is omdat die mensen het meest aanspreekt, zélfs in landen waar het anders werkt en zélfs als je ook weleens buiten de lijntjes kleurt. Maar met de geschiedenis van de VS wordt dat nagenoeg onverdedigbaar en dat ziet iedereen ondertussen wel. Moet je dan maar de kant van het andere extreme op, namelijk repressie en dictatuur? Zou ik niet voor kiezen. En uiteindelijk zijn ook wij Europeanen hypocriet natuurlijk, want de grote kolonisators en wereldhandelaren zijn wij zelf ook al geweest.

[Reactie gewijzigd door Vayra op 24 juli 2024 06:34]

Enge ontwikkeling.
Investeringen in de infrastructuur door grote bedrijven zijn de reden waarom internet zoals we dat nu kennen uberhaupt bestaat. Als het bedrijfsleven geen baat had gezien in het leggen van dergelijke kabels dan had internet nog steeds een netwerk geweest voor universiteiten en onderzoeksinstellingen.
Het google van het 'be no evil' tijdperk ligt al ver achter ons. En over facebook begin ik niet eens. Nee deze bedrijven kunnen we missen als kiespijn.
En wie moet dan de infra bekostigen?
Overheden (want die hebben inmiddels ook bijzonder veel baat bij connectivity) en de vele - veel kleinere - bedrijven die Internet rijk is.

Het lijkt er soms op dat sinds FB bestaat en daarbij het dogma aanhangt: 'we see no evil and we will do whatever it takes to earn more money', dat Google besloten heeft dat 'don't be evil', niet handig is.
Overheden
Ik hoop dat dit sarcastisch bedoeld is, maar ik vrees het ergste.
Hoe dat zo? Dat overheden de kabels betalen is toch niet zo erg?
Nee hoor heel hun bedrijfsvisie is ook veranderd.
Hoe zie je een wereld voor je waar grote bedrijven niet voor de infrastructuur zorgen? Oftewel iedereen moet zijn eigen stukje doen. Dat gaat nooit werken. Uiteindelijk moet je toch weer iets overkoepelends hebben om het te laten werken. En als we dat aan een overheid over laten weten we zeker dat we over een paar decennia iets werkends hebben...

Op dit item kan niet meer gereageerd worden.