Internetknooppunt AMS-IX verwerkt voor het eerst 12Tbit/s aan internetverkeer

De Amsterdam Internet Exchange, oftewel AMS-IX, heeft op zondag 18 februari rond 19.30 uur 12 terabit per seconde aan data verwerkt. Nooit eerder werd er zoveel internet tegelijk gebruikt, aldus het internetknooppunt.

Dat er zondag een recordpiek aan internet gebruikt werd, heeft mogelijk te maken met het regenachtige weer die dag. Het tijdstip van half 8 in de avond is volgens AMS-IX bovendien 'typisch het moment dat mensen tijd binnenshuis doorbrengen en gebruikmaken van internetdiensten, vooral in de winter'.

Het dataverkeer via het Amsterdamse internetknooppunt neemt al jarenlang toe. Het vorige record dateert uit oktober 2022. Toen verwerkte het internetknooppunt voor het eerst 11Tbit/s aan data. Een jaar eerder lag de mijlpaal op 10Tbit/s. In 2010 ging AMS-IX voor het eerst door de grens van 1Tbit/s.

AMS-IX viert dit jaar zijn dertigste verjaardag. Het internetknooppunt werd in 1994 opgericht en is uitgegroeid tot een van de grootste ter wereld. Techgiganten zoals Apple, Google, Microsoft, Meta en Amazon maken gebruik van het knooppunt.

AMS-IX 12Tbit/s

Door Sabine Schults

Redacteur

19-02-2024 • 19:03

58

Submitter: hafkensite

Reacties (58)

Sorteer op:

Weergave:

Hoeveel effect heeft de Multi-Gigabit aansluitingen hierop? vraag me dit oprecht af aangezien de meeste providers nu Multi-Gigabit kunnen leveren voor de normale consument.
Zolang het gedrag niet veranderd, denk ik het niet. Daarnaast zou juist verwachten dat pieken lager worden omdat je download-taak sneller voltooid is, en dat alleen het algehele verbruik omhoog zal gaan.
Het lijkt mij dat de piek hoger wordt, de totale hoeveelheid blijft redelijk gelijk.
Bij lagere bandbreedtes is er meer kans dat een hoge intense piek van het downloaden overlapt met de piek van een ander.

Als je 12 pieken van 8gbit hebt voor 5sec gelijkwaardig verdeeld over 1 minuut zullen de pieken elkaar niet raken en zal de totaal max piek 8gbit zijn.

Als die 12 personen 40 sec nodig hebben over een 1gbit lijn zal de hoogste piek van de totale last in het midden van de minuut 12gbit zijn. (6 aan de begin van de minuut, 6 aan het eind heeft nog steeds een overlap in het midden.

Dit is een heel simpel voorgezet voorbeeld maar in realiteit is er 'meer kans' op een cumulatieve last.
Hier hebben we het dus eigenlijk over kansberekening. De data vraag van de 12 gebruikers is constant(ie 2gb), maar de tijd wanneer ze dit nodig hebben verschilt. In de praktijk zal er geen scheduling van gebruikers plaatsvinden maar gebeurd dat wanneer de gebruiker data nodig heeft.

In beide van jou gevallen blijft de mogelijke piekbelasting 12*1gb en 12*8gb.

De kans dat pieken overlappen moet je meenemen met de hoeveelheid tijd die dat duurt en met welke grootte. Effectief zit je met variabelen te goochelen in dezelfde formule die gebasseerd is op download gedrag waarbij je flink veel data voor langere tijd download.

Bij een Netflix zal dat niet gebeuren, maar stel er komt om 19.00 een nieuwe game uit op Steam, dan kan ik je garanderen dat de piek op dat moment hoger is en er meer pieken overlappen als iedereen een 8gbit lijntje heeft vergeleken met een 1gbit lijntje.
Het gaat hier dus ook over download gedrag waarbij extreem grote files binnengehaald gaan worden op een (gecoördineerd) tijdstip waar andere dat ook massaal doen.
Daar zit ook vaak het probleem wat pieken kan genereren. Anders is het om het om of even.

Conclusie: de pieken zijn extremer, maar wel korter met 8gbit lijnen vergeleken met langer durende pieken die minder zwaar zijn met 1gbit lijnen.
Je kan dus stellen dat het AANTAL overlappende pieken van individuele aansluitingen minder is bij 8gbit, maar ze zijn wel extremer als ze voorkomen

[Reactie gewijzigd door Stemis op 22 juli 2024 18:55]

Je kan het ook over-analyseren...
Hang ervan af hoeveel de bandbreedte effectief ook gebruik wordt.

Op andere deel van je tekst. Misschien suggestie dat we als Tweakers op bepaalde tijden connectie maken naar iets? Dat er dus op die manier een nieuw record moment wordt gecreëerd.

Hierbij doel ik niet perse op DDOS. Lijkt mij dat het ook zonder dat zoiets moet kunnen.
Vergelijkbaar met een stampede van de Dutch power cows :)
De grote ISP's hebben veelal grootverbruikers zoals Netflix servers in het eigen netwerk zitten als cache. Daarnaast zullen veel gebruikers ruwweg dezelfde data downloaden, alleen vlotter. Dat zal niet voor iedereen gelden, maar wel de meerderheid verwacht ik. Je hebt ook niet ineens meer tijd per dag om ineens 10X zoveel data te verwerken als persoon.

Toevoeging: Net even naar mezelf gekeken. 1Gb glasvezel, gemiddeld gebruik de afgelopen 30 dagen 5.3Mb/s. Dat is echt 10 keer niks.

[Reactie gewijzigd door Houtenklaas op 22 juli 2024 18:55]

Alsnog 1,3 TB in totaal. Dat is ook weer niet helemaaaal "niks".
Ik denk weinig. Het aantal mensen dat die tegelijk gebruikt op een sneller hoger dan 1gbit zal laag zijn.
Ik denk dat je een groter effect gaat zien als grote providers de minimale snelheid verhogen. Dan gaan streaming diensten als YouTube, die de resolutie/bitrate instellen op basis van o.a. je internet snelheid, ineens meer gebruiken voor heel veel aansluitingen.

Veel minder mensen zullen een 8gbit aansluiting hebben dan het minimale aanbod, en velen die dan 8gbit hebben zullen maar weinig tijd op die snelheid zitten. Enkele mensen die dat regelmatig voltrekken voor hun werk regelmatig, en gamers die sporadisch een nieuwe game downloaden zullen de grootste verbruikers zijn (bij de thuis aansluitingen).
Grootverbruikers als Youtube, Netflix en dergelijke hebben vaak content servers in het netwerk van ISP's staan. Oftewel, veel data voor gebruikers komt dan uit het eigen ISP netwerk. Dat is één. Tweede, een beetje 4K videostream met H.265 encoding doet minder dan 20Mb/s, dat is ook niet echt heel veel . En derde thuiswerken met af en toe een Zoom of Teams meeting doet ook niet veel met je bandbreedte.

Met 100Mb als download heb je voor de meeste zaken dan ook meer dan zat aan bandbreedte. De upload is bij ADSL/VDSL/Kabel echter (veel) lager dan de download, daar zal je tegenwoordig met thuiswerken vlotter tegen limieten aanlopen, zeker als je wat verder weg van de wijkkast/centrale zit en je maar een paar Mb/s te vergeven hebt.

Momenteel heb ik zowel bonded VDSL en glas liggen thuis, met 66Mb upload op koper kan ik nog steeds alles doen wat ik met glas ook kan, alleen is de NAS wat vlotter klaar met zijn cloud-backup via glas. Maar of dat nu 1 uur of 5 uur duurt als ik lig te slapen..... Boeien ...
Hoe zou die cache werken? Staat daar de recente content op? Alle content lijkt me niet eigenlijk niet mogelijk. En/of als ik een film ga kijken die nog niet in de cache staat, wordt die dan in z'n geheel gedownload naar de cache in de eerste minuten dat ik kijk?
Uiteraard niet de gehele content van een Netflix, maar bijv de meest gekeken videos.
Cache wordt doorgaans gevuld door de eerste gebruikers die wat ophalen van de bron server. Die files worden op de cache tijdelijk opgeslagen (totdat ze invalid zouden zijn). In geval van Netflix zou dat behoorlijk lang kunnen zijn, immers een film of serie zal niet zo vaak veranderen.

Het idee is natuurlijk dat als een film 100.000x bekeken wordt, deze maar 1x vanuit Netflix' bronserver in VS bijv hoeft te worden gedownload, en vervolgens 99.999x vanaf zo'n cache server die dichterbij staat.

Ook grote live streams worden op deze manier vooral geserveerd vanuit servers die 'in de buurt' staan. Dit scheelt extreem veel bandbreedte en dus snelheid en kosten.
Dat hangt er vanaf waar het verkeer naar toe moet wat over die verbindingen gaat. Komt het over de AMS-IX of niet? Niet alles wat in Nederland ligt komt langs dat knooppunt, net als dat op de snelweg niet alles over Oudenrijn, UT (drukste snelwegknooppunt van Nederland) gaat.

Ik denk dus niet dat die glasvezelaansluitingen zoveel invloed hebben. Wat wél invloed heeft zijn de streamingsdiensten die steeds normaler worden en hogere kwaliteit streams bieden naarmate de grootte van de TV's ook toeneemt en mensen bereid zijn meerprijs te betalen.
Ik denk dat maar een heel klein deel van de gebruikers er volop gebruik van maakt. Ik heb nu ook een GB (kabel) verbinding, maar als ik kijk naar de gebruikte bandbreedte op mijn router, kom ik lang niet aan het plafond. Je moet ook wel erg ruig doen, wil je daaraan komen. En ik denk dat het aanbod van bv streamingdiensten afgestemd zijn op de gemiddelde internetaansluiting. Net als dat games speelbaar zijn op de gemiddelde hardware van de gamer en niet persé op de high-end gamer.
Nauwelijks. Zo’n verbinding wordt 99% van de tijd niet belast.

“Maar ik ben een zware streamer”. Juist streamen gebruikt relatief bescheiden bandbreedte, omdat je het over tijd kunt uitsmeren. Gebruik je hooguit 25 Mbps mee.

Het gaat er meer om dat er *meer* mensen aan het streamen zijn (regen!) dan dat de mensen meer bandbreedte tot hun beschikking hebben.
De meeste van die aansluitingen worden niet gebruikt om meer te downloaden, maar om dat wat gedownload moet worden, sneller binnen te halen. De meeste toename komt eerder van het bredere gedrag in de samenleving om meer tijd online door te brengen, waarbij op social media video de plaatjes- en tekstberichten aan het vervangen is. Zolang die contentproviders niet meer CDN nodes bij de internetproviders zelf onderbrengen zal de meeste data dus vanuit andere netwerken aangeleverd moeten worden.
De hogere snelheid dat internet providers aanbieden zal niet veel invloed hebben. Aangezien de meeste huishoudens nauwelijks 200Mbit belasten. Het ligt meer bij de streamingdiensten. Dit is het grootste deel van de internet bandtbreedte dat wordt gebruikt.
Ik ken organisaties met duizenden (thuis)werkenden die op een 5Gbit lijn zitten en nog veel ruimte hebben op de lijn.
Dan heb je thuis niets aan een lijn groter dan 1Gbit. Een playstation of xbox heeft ook gewoon een 1Gbit aansluiting dus een spel downloaden gaat ook niet sneller met een 8Gbit lijn. Tenzij je er 8 hebt staan die allemaal tegelijk een game gaan downloaden. Maar verder is het meer een "ik heb een dikke (lijn)" dan dat het nut heeft.

Zal dus op de AMS-ix ook weinig doen.
Goede vraag.

Het begint natuurlijk met dat bandwith-contracten bij ISP's al standaard "overboekt" zijn.
De ISP sluit contracten voor een bepaalde hoeveelheid data af met bijvoorbeeld AMS-IX. Voor het gemak 100.000 gbit/s.(burst opties weggelaten)

Als voorbeeld:
Als je 1 miljoen abonnees hebt die allemaal 1gbit down kunnen doen, is je mogelijke piek 1.000.000 gbit/s. Ga je naar bijv multi gbit contracten, dan wordt de mogelijke piekbelasting ook hoger. Daarintegen, zijn mensen wel sneller klaar omdat je sneller download.

Het contract tussen bijv AMS-IX en je ISP is een percentage van de mogelijke piekbelasting. En daarnaast wordt ook gewerkt met andere internet knooppunten. Dus als iedereen tegelijk de lijn opentrekt, heeft je ISP een probleem. Maar wat doen ze dan? Dan treden er fairness policies in werking waarbij iedereen gethrottled wordt. Dit gebeurd zelfs al op wijkniveau omdat de wijkcentrale ook maar een bepaalde capaciteit heeft naar het datacenter toe. Als iedereen in de hele wijk 8gbit afneemt, zal de gelegde glasvezel naar het datacenter waarschijnlijk niet toereikend zijn.

Overal in het netwerk, van de wijkcentrale t/m de data contracten, is de mogelijke piekbelasting dus (een stuk) groter dan de capaciteit van de netwerk apparatuur en de data contracten.

Voor de consument is dit voordelig, want zo houdt je wel de prijs laag en hoef je niet zowel je netwerk als contracten aan te passen.

Nadeel is dat er een mogelijk risico is op het moment dat mensen besluiten tegelijk dingen te downloaden. Denk bijvoorbeeld aan een game release op Steam waarbij je de lijn volledig opentrekt.

Dit hele model is dus compleet afhankelijk van ons gedrag. Als wij meer data gaan gebruiken zullen de kosten waarschijnlijk ook omhoog gaan omdat alles is gebasseerd op een schatting van het gebruik en het delen van gelimiteerde internetverbindingen.

Als jij een server in een data center hangt(ie colocation) kan je vaak kiezen wat voor data contract je wilt. Een Dedicated contract voor 100mbps is vaak vele male duurder dan gedeeld lijntje van 100mbps. Een gemiddeld consumenten lijntje is hier niet mee te vergelijken, terwijl je eigenlijk naast de bron zit, en de ziggo's en kpn nog een heel netwerk erachter hebben. Dit kan alleen omdat er dus overboekt wordt.

Dit heeft dus allemaal te maken met wat voor SLA wij met de internet provider hebben. Daar staat vrijwel altijd fair use policies in, en dat je gethrottled kan worden bij hogere belasting van het gehele netwerk.

[Reactie gewijzigd door Stemis op 22 juli 2024 18:55]

weinig tot geen. Beslissingen van grote data-providers om een hogere bitrate aan te bieden en datacentra-uitbaters die geografisch meer verspreid worden hebben hier een grotere invloed op omdat zij degenen zijn die bepalen wat en hoe ze op die IX moeten worden geconnecteerd. Sure ze zijn klant bij Tier1 providers, maar die gaan hun lijnen niet verzwaren als er geen vraag naar is, daarvoor zijn die dingen net iets te duur om zomaar voor de fun in je racks te hangen.
Multi-gig is een markting truuk, die voor de gewone consument vooralsnog tot 1Gbps gaat. 2,5 Gbps met mondjesmaat aangezien de interne hardware (router, nic) daar ook geschikt voor moet zijn.
Praktisch nul, de grote providers zijn namelijk al jaren geleden vertrokken.

Het voordeel van AMS-IX is dat je heel goedkoop met een groot aantal partijen kan peeren: je hebt namelijk maar 1 poort nodig op de routers voor honderden peering-verbindingen. Maar de grote providers hebben inmiddels door dat zulke peering weinig voordelen bied voor hun: met partijen als Google en Netflix heb je sowieso al een private verbinding, en de middelgrote hostingproviders kan je laten betalen voor peering. De kleine spelers zijn te veel administratief gedoe, dus dat verkeer laat je gewoon via een upstream provider lopen.

AMS-IX zal tegenwoordig voornamelijk verkeer van kleine ISPs zijn, en server-naar-server. Dat Odido tegenwoordig 8Gbps aan consumenten verkoopt, zal dus amper invloed hebben op het AMS-IX verkeer.
Toch is de beste tijd voor exchanges wel redelijk voorbij en dat zie je ook wel in de stagnatie mbt traffic op de AMSIX. Er is voor de grote partijen gewoon weinig meer te halen op een exhange en het brengt gewoon veel onzekerheid met zich mee. Onderlinge privatepeerings zijn veel meer in trek en bieden garanties op kwaliteit en halen er "vreemde" partij tussenuit.

Waar het vroeger een kostenefficiënte afweging was om verkeer te droppen, is die nu volledig verdwenen. Wij als middelgrote ISP droppen inmiddels 80% via directe private peers naar Google (youtube), Amazon, Akamai, Microsoft etc. De overige 5% over exchanges die later in 2025 worden uitgefaseerd en de rest via ip-transit naar alles waar we geen privatepeer mee hebben.

Deze afweging zie je bij haast alle grote partijen op het moment..
Maar is het niet zo dat de private peerings fysiek op een exchange worden uitgewisseld simpelweg omdat iedereen daar toch al zit? Dan verschuift het accent van een exchange wellicht, maar als knooppunt zijn ze nog steeds van groot belang.
Megabits op een exchange zijn duur. Maar het is wel een fysiek koppelvlak waar je met veel peers indirect (routeserver), direct (private peer via ixp hardware) verkeer kan uitwisselen.

Transit geeft vaak veel indirectere routes en heeft vaker last van congestie. De IXP was vooral goedkoop en is nu hoogwaardig aan het worden.

Ik snap helemaal dat je "een peer moet kunnen opbellen" - de routesever peers passen minder bij het moderne internet.
Verkeer uitwisselen op een exchange heet: peeren, verkeer uitwisselen onderling tussen ASen met een directe kabel zonder tussenkomst derden heet private peering (of via een private vlan), verkeer buiten de routes van je peers heet IP Transit. Alleen een deel van directe peers ontvangen van een derde partij heet weer partial Transit.
Ik denk dat dit goede verduidelijking is voor de meeste lezers.

Wat ik bedoelde is dat ik hoor private peering via een IXP VLAN een tussenvorm is die nu steeds vaker voorkomt. Poorten op routers worden steeds sneller naar het worden er niet meer.

De andere vorm die je hoort is om een gedeeltelijke route tabel te bewaren en van transit een default route te krijgen. De business case van deze oplossing, waar je geen volledige router (aka miljoenen routes) licentie hoeft te kopen is erg goed.
Een beetje off-topic, op bijv. nl-ix.net en ams-ix.net zie je ook een aantal netwerken zoals deutsche telekom / as3320 staan die bij beide netwerken de opmerking hebben dat ze geen "route server" hebben of zijn. Is dat nog een andere variant van peering, of weet jij hoe ik dat mag zijn?
Je kunt op een exchange iedereen aanschrijven: hoi, wil jij met ons peeren? Dat is arbeidsintensief en je hebt te maken met veel BGP peers die je moet onderhouden. Om dat te omzijlen kan je peeren met een routeserver. Die beheerd als het ware de routes van iedereen die daar een verbinding mee aangaat. Stel er zitten 200 netwerken verbonden met de routeservers, dan ontvang je dus die routes via de routeserver en heb je maar 1 tot 2 bgp peers te onderhouden inplaats van 200. De routeserver is overigens geen next-hop en routeerd geen verkeer, enkel routes.

Niet iedereen wil gebruik maken van routeservers doordat je geen goede controle hebt over de routes die je ontvangt.

Grote partijen zelf peeren vaak minder, die zitten alleen op een exchange om selectief te peeren met bepaalde clubs. Wij peeren alleen met partijen die gebruikt worden door onze belangrijke klanten (backup en *aas) oplossingen. Willen partijen met ons peeren dan moeten ze met een goed verhaal komen of voldoende verkeer wegzetten van/naar ons (1gbit gemiddeld bv).

[Reactie gewijzigd door hulseman op 22 juli 2024 18:55]

bedankt voor je uitgebreide reactie! Helemaal helder, blijft bijzonder interessante materie :D
Nee, privatepeering is letterlijk een kabel trekken in een datacenter. Je wil daar helemaal geen apparatuur van derden tussen willen hebben. Peering zoals op een vlan is deelnemen in een broadcast domein met andere partijen (of route-servers).
Precies, dat doe je dan via een "meet me" room.
Dat kan zijn, maar de regio Amsterdam is nog steeds kloppend hart van een reuzachtige internetindustrie waar de AMS-IX het kloppend hart van is. Dus ondanks dat het verkeer niet over de AMS-IX zelf gaat, leggen partijen nog altijd glasvezelverbindingen richting Amsterdam aan.
Vroeger wel, de laatste jaren zie je een verschuiving. Amsterdam is duur aan het worden (schaarste door stop bouw datacenters, energieprijzen) en loopt gewoon niet meer voor op de rest. Het speelveld is gelijkwaardig geworden.

Waar Amsterdam vroeger alles had en dus interessant was voor partijen over de hele wereld, is dat niet meer interessant door de modernisering van de infrastructuur in andere landen.

Verkeer van Frankfurt naar Londen kon bv over Amsterdam "goedkoop" gerouteerd worden, terwijl er nu ook rechtstreekse verbindingen naar Brussel of Parijs liggen. Het spinnenweb is gewoon enorm uitgebreid de afgelopen 10-15 jaar.
Privatepeerings is enkel voor de wat grotere bedrijven mogelijk. De rest zal toch echt nog wel via een IX moeten werken.
Kleinere partijen krijgen geen BGP sessies op een IX met een grote partij en zijn dus aangewezen op een IX.
Deels met je eens. Een verschuiving naar private peering en transit is er zeker. Op een IX is routes filteren ook best lastig, zeker als je met een RS peered.

Waar IX'en wel goed werken is connecten met cloud omgevingen. Ik kan de grote noemen, maar ook diverse kleine cloud partijen zijn op een IX heel happig om te peeren (al dan niet via een RS).

Zo peeren wij op de NL-IX en AMS-IX met veel cloud omgevingen, hebben we ook direct redundantie. NL-IX is natuurlijk ook verkapte paid peering van KPN, maar goed.

Wij zijn geen ISP, maar een hosting provider die op de achtergrond ook veel communiceert met cloud omgevingen.

Zo maken wij onze backups encrypted naar de cloud. Hiervoor peeren wij met onze backup partij op de AMS-IX en sturen we elke nacht ~20Gb/s richting deze provider. Private peer is niet nodig.

Maar ja, ik deel je mening wel: IX'en worden minder aantrekkelijk en transit is gewoon steeds goedkoper aan het worden.

Met een IX heb je echter wel veel meer controle over het pad en vaak betere latency, dat krijg je met transit gewoon niet zo maar.
Weet iemand wat de maximale capaciteit doorvoer is van die Exchange? ben hier wel benieuwd naar.
In het jaarlijks rapport van 2022 staat een totale capaciteit gegeven van 49 Tbps. Of dit ook de (theoretisch) maximale throughput is weet ik niet.

https://www.ams-ix.net/annual_report/2022/
@Jeweettoch13

Op 31 December 2023 was de aangesloten capaciteit ongeveer 59,8 Tbit dus theoretisch gezien kan het netwerk deze snelheden aan. Deze hoeveelheid wisselt per dag en over 2023 gezien is dit met ongeveer 7% gestegen.

Naast aangesloten capaciteit heb je ook nog de maximale capaciteit die de apparatuur aankan, maar dit is zeer lastig te berekenen. Theoretisch gezien zou dit 1.228,8 Tbit (per seconde) kunnen zijn (op dit moment), maar dit is gebaseerd op 100% efficient benutten van de poorten, wat helaas niet zal gebeuren. Het is namelijk zo dat in theorie iedere poort 400Gbit aankan, maar vele poorten zijn aangesloten met 2x100Gbit of 4x10Gbit, naar gelang de wens van de klanten.

Overigens is het kijken naar de totale piek uiteraard een goede indicator en leuk om te doen, maar het blijft zo dat niet iedere verbinding op hetzelfde moment piekt. Er zijn genoeg verbindingen die op andere momenten van de dag het meest verbruiken. Neem bijvoorbeeld een bedrijf dat iedere nacht om 3:00 zijn backups draait, die zal op iedere nacht een enorme piek hebben, maar derest van de dag zal die verbinding nagenoeg niets doen.

Leuker om te bekijken is dus het totale verkeer per maand wat er over de exchange gaat en dat was voor January 2024 een totaal van 2,75 ExaByte (Wederom 7% hoger dan een jaar eerder)
Bron: https://stats.ams-ix.net/historical.html

Als je meer wil weten, geef maar een gil :)
Goede info, bedankt voor de aanvulling :)
En dit is dan alleen het verkeer wat langs AMS-IX gaat.
Al het verkeer wat vanuit huishoudens, via de providers rechtstreeks naar een aanbieder gestuurd gaat zit hier niet bij.
Ik wou net vragen, dit zijn 12.000 aansluitingen die ieder 1Gbit lijnte vol trekken , verspreid over 18 miljoen mensen is 12Tbits dus karig weinig
Cool, ik heb sinds een week 4Gbit up en down.
Ik kan dus in mijn eentje 1/3000ste gebruiken van de piek van Nederland.

Bizar idee.

[Reactie gewijzigd door djwice op 22 juli 2024 18:55]

Zijn bedrijven als google niet dusdanig groot en wereldwijd aanwezig dat ze van nagenoeg elk internet knooppunt gebruik maken
Dus op het hoogtepunt was iedereen in Nederland (18 miljoen mensen) gemiddeld 0,67Mbit per seconde (op welk apparaat dan ook) - data aan het 'heen-en-weer slingeren'. Dat vind ik best veel.
Dit is het verkeer op de ams-ix. Jij bent niet met je woning aangesloten op de ams-ix maar je internet provider heeft ook enorm veel lijnen (peers) met andere aanbieders zoals Google, netflix, microsoft, amazon etc. Hiermee wisselen ze direct data uit en loopt al niet via een ams-ix.
Gebruik maken van een knooppunt zoals een ams-is is vaak duurder dus gebruik je als laatste mogelijkheid. Dus eerst via een directe peer en anders pas via een knooppunt (of bij een storing op de directe lijn).

En dan heb je nog alle iptv platformen bij providers om tv te kijken wat binnen het netwerk blijft.

[Reactie gewijzigd door jongetje op 22 juli 2024 18:55]

Sorry ik was mijn fotoalbum aan het synchroniseren
in 2000 zowat 700GB per etmaal
Het gemiddelde YouTube-filmpje is ook veel groter geworden...

[Reactie gewijzigd door Blaze85 op 22 juli 2024 18:55]

Op dit item kan niet meer gereageerd worden.