Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Submitter: _-= Erikje =-_

Internetknooppunt AMS-IX zal eind dit jaar met een aantal klanten de eerste tests met 100GE-poorten doen. De invoering van de snellere apparatuur zal naar verwachting nog tot het tweede kwartaal van volgend jaar op zich laten wachten.

De Amsterdam Internet Exchange, een van 's werelds grootste internetknooppunten, werkt naar eigen zeggen al veel langer aan de uitrol van 100GE-apparatuur. Momenteel gebruikt de organisatie nog 10GE-poorten voor alle klanten, maar in de praktijk blijkt dat veel klanten door de toegenomen vraag naar bandbreedte poorten zijn gaan bundelen.

Volgens AMS-IX nemen de grootste klanten, zoals Google, Akamai en Leaseweb, inmiddels al twaalf of meer poorten af. Het bundelen van zoveel kanalen pakt volgens het bedrijf in de praktijk vaak onvoordelig uit: het zou te vergelijken zijn met iemand die allemaal losse blikjes frisdrank van een dollar koopt, om een 2-literfles van 1,40 dollar te vullen. De overstap naar 100GE zou in theorie echter niet alleen voordeliger uit kunnen pakken, het zou het peeren met kleinere spelers ook interessanter maken, denkt AMS-IX.

In november of december zal de AMS-IX daarom met een beperkt aantal klanten de eerste tests  met 100GE-links uitvoeren. Het is nog onduidelijk wanneer het hele knooppunt op 100GE moet zijn overgestapt. Eerder vertelde de AMS-IX aan Tweakers.net dat de snellere 100GE-apparatuur in het tweede kwartaal van volgend jaar in gebruik kan worden genomen. Dat is echter afhankelijk van de beschikbaarheid bij leveranciers.

De overstap naar 100GE-poorten, die overigens gepaard gaat met de investering in nieuwe 10GE-blades met acht in plaats van vier poorten, is volgens AMS-IX nodig vanwege de aanhoudend forse groei van het dataverkeer. Vorige maand werd bijvoorbeeld de grens van 1Tbps doorbroken. Verder kreeg de AMS-IX in 2009 in totaal 1,75 exabyte data te verwerken: dat is bijna 55 procent meer dan de 1,13 exabyte die in 2008 de poorten van het internetknooppunt passeerde.

Moderatie-faq Wijzig weergave

Reacties (62)

Het is heel simpel, het draait om de centen.
Je kan nu kiezen voor 1Gbit poorten of 10 Gbit poorten, een 10 gbit poort kost ongeveer 70% van wat 10 losse 1 Gbit poorten kosten en scheelt jou als ISP nog eens 9 interfaces in je router. Je kan dus rustig aan groeien, je begint met 1 gbit, koppelt daarna nog een gbitje bij en op een gegeven moment is het gewoon goedkoper om 1x 10Gbit af te nemen
Hetzelfde gaat hierbij op, 100Gbit gaat ongeveer 70% kosten van 10 losse 10Gbit poorten. Probleem is voornamelijk nog de beschikbaarheid van interfaces.

Een partij als google heeft nu 12 poorten van 10 Gbit, daarvoor betaal je 12x 1750 euro per maand (das dus 21000 euro per MAAND), stel dat ze nu met 1 100 gbit poort en misschien een trunkje van 2 10 gbit poorten rond kunnen, dan betalen ze : 2*1750 + (0.70*(10*1750))=15750 dat scheelt ze dus al 6000 per maand, plus een stapel interfaces in hun router(s)

Mocht je die 21k per maand veel vinden, als je 120 gbit transit verkeer in wilt kopen ben je al snel een veelvoud daarvan kwijt

[Reactie gewijzigd door _-= Erikje =-_ op 15 oktober 2010 16:09]

Ik schrok eigenlijk van hoe laag het bedrag was!
Dat bedrag is in feite een beetje admnistratie en inderdaad "niks".
Het uitgangspunt is dat de "peering partners" (ISP's) met elkaar uitwisseling van data overeenkomen en elkaar niets betalen.

Je kan je misschien voorstellen dat er op verschillende nivo's netwerk partijen zijn.
Jouw internet ISP bijvoorbeeld (Chello bijvoorbeeld) neemt netwerkverkeer af van verschillende partijen om jouw "toegang" te bieden tot "het internet".
Een partij waar ze dat bijvoorbeeld af zouden kunnen nemen is een Level3 of een Abovenet. Dit zijn grotere carriers en hebben intercontinentale verbindingen. (je komt ze wel eens tegen tijdens een traceroute!)

Stel je zo'n grote carrier voor als (a) en 2 ISP's met consumenten als klanten als (b) en (c)

Stel je voor dat (b) en (c) beiden een verbinding KOPEN van (a).
Verkeer wat van consumenten van ISP (b) naar ISP (c) moet dus steeds langs carrier (a) en kost dus geld.

Het is dus vrij logisch dat ISP (a) en (b) tegen elkaar zeggen van : ruilen?
Indien ze uiteraard ongeveer even groot zijn. Dit is het principe van een Internet Exchange.

Verkeer wat niet naar de "peering partner(s) gaat maar verder "het internet" op gaat in transit naar de carrier daar betaal je dan voor.
Die carrier providers doet hetzelfde met andere partijen en doet vaak zelf ook aan "peering".
duidelijk verhaal, ik begrijp alleen 1 ding niet helemaal, je zegt:

"Stel je voor dat (b) en (c) beiden een verbinding KOPEN van (a).
Verkeer wat van consumenten van ISP (b) naar ISP (c) moet dus steeds langs carrier (a) en kost dus geld.

Het is dus vrij logisch dat ISP (a) en (b) tegen elkaar zeggen van : ruilen?"

wat word er dan geruild?

heeft iemand misschien een paar linkjes met wat meer informatie over dit onderwerp????

[Reactie gewijzigd door rvl1980 op 16 oktober 2010 10:31]

wat word er dan geruild?
Verkeer voor het netwerk van ISP (b) of (c)
Dus als ik het goed begrijp. Eigenlijk zouden (b) en (c) elkaar betalen voor het verkeer onderling. Maar omdat ze even groot zijn zeggen ze: we peeren het onderlinge verkeer, en voor dat peering verkeer is de AMSIX in het leven geroepen omdat allemaal technisch voor elkaar te krijgen....
Ik juist hoe hoog het was, maar ja ik ben een particulier.
Toch knap dat bedrijven zoals google zo enorm groot zijn geworden op voornamelijk advertentie-inkomsten. :)
Ik denk alleen dat dat geld google weinig uit zal maken. een 6000 euro per maand meer betalen zullen ze ongetwijfeld verkiezen boven mogelijke instabiliteit bij deze test. Of is de verwachting dat deze tests vlekkeloos zullen verlopen?
Denk je dat een test verbinding meteen gebruikt gaat worden voor belangrijke dingen?
Waarschijnlijk zal het eerst met onbelangrijke data getest worden en uiteindelijk in stappen overgezet worden waarbij ze de mogelijkheid hebben om bij problemen meteen over te gaan op de 10Gbit lijnen.
Duidelijk verhaal hierboven.
Je zegt
stel dat ze nu met 1 100 gbit poort en misschien een trunkje van 2 10 gbit poorten rond kunnen, dan betalen ze : 2*1750 + (0.70*(10*1750))=15750 dat scheelt ze dus al 6000 per maand, plus een stapel interfaces in hun router(s)
Maar moeten ze niet hun routers vervangen om uberhaubt met die 100Gbit lijn overweg te kunnen? Dat lijkt me een behoorlijke investering, al kan het er waarschijnlijk snel genoeg weer uit als de bedragen die je noemde kloppen.
Hangt er vanaf, sowieso hebben nog niet veel fabrikanten 100Gbit in hun assortiment, in theorie zou je met een interface kaart klaar zijn (al kunnen die ook aardig wat centen kosten :))
Ik gok erop (lees: weet het verdomd zeker) dat Google aan redundantie doet. Dat betekent in feite dat Google 2x6 poorten afneemt. Je wilt namelijk ergens het verkeer kwijt als er een AMS-IX POP offline lazert. Dus in de nieuwe situatie zal een dergelijke partij minstens 2x100Gbit afnemen.

Volgens ams-ix.net heeft google 8 poorten., maar die info kan verouderd zijn ;)

[Reactie gewijzigd door jant op 15 oktober 2010 21:25]

De userexperience van jou als eindgebruiker kan hierdoor positief beinvloed worden. Wanneer jij als UPC klant veel data uitwisselt met een kleinere partij die geen peering agreement heeft, maar waarbij UPC nu misschien heroverweegt dat wel te doen, kan dat positief voor je uitpakken.

Voor zover ik weet heeft eweka bijvoorbeeld de laatste tijd wat problemen met peeren met UPC, maar ze doen niet aan transit omdat dat te duur is. Als UPC nu overstapt op 100GE zijn ze vast/hopelijk bereid meer capaciteit aan eweka te gunnen.
das meer een kwestie van zorgen dat iedereen gebruikt maakt van de AMS-IX route servers.

Google peert ook niet direct met kleine partijen, maar wel met de route server en op die manier kunnen VEEL kleine partijen alsnog hun verkeer kwijt via de exchange

Normaal gesproken peeren isp's onderling met elkaar, dus iedereen met iedereen zeg maar, nou kost dat een router nogal wat CPU kracht om een hondertal BGP sessie bij te gaan houden met partijen waar je eigenlijk weinig verkeer mee uitwisseld. Wat de route-server doet is dat je daar 1 bgp sessie mee bouwt en van de server alle routes van iedereen krijgt die ook met die server peert (en de rest dus jouw routes), daardoor kun je met 1 sessie ineens heel veel partijen tegelijk afhandelen. Jij als grote partij verminderd zo het aantal bgp sessies (denk ook aan administratie enz) en kleine partijen krijgen zo wťl de kans om verkeer rechtstreeks met een grote jongen af te handelen

[Reactie gewijzigd door _-= Erikje =-_ op 15 oktober 2010 16:27]

Kan iemand mij duidelijk maken of dit de algehele internetsnelheid in Nederland ten goede komt? Of gaat dit alleen op voor bedrijven die zo'n nieuwe aansluiting gaan gebruiken?
Internet is zo snel als de zwakste schakel. Dus zolang jij op een lijntje van 20Mbit zit, zal het niet sneller worden ;) Dit moet je ook meer zien als een wereldknooppunt. De backbone eigenlijk.
Als netwerksnelheden alleen van bandbreedtes afhingen dan zou je gelijk hebben.

Het verhaal is echter iets ingewikkelder. De reactie tijden (turnaround tijden) die je krijgt zijn mede afhankelijk van hoe vol de lijn is aan jouw kant en aan de server kant. Zodra je meer dan 1 verbinding over een lijn hebt lopen kun hem niet meer voor 100% vol stampen. Dat heeft met queueing theorie te maken, zoek dat maar eens op. Als de vulgraad boven de 80%-90% komt dan worden de vertragingen sterk merkbaar.

Nu zou je denken dat 10 10GE lijnen die voor 70% gevuld zijn hetzelfde beeld opleveren als 1 100GE lijn die voor 70% gevuld is. Maar het lukt nooit om het verkeer volledig gelijkmatig te verdelen over die 10 lijnen. Als de gemiddelde vulling 70% is zullen op bepaalde momenten sommige lijnen 60% en sommige 80% vol zijn. De relatieve vertraging bij 60% is 1, bij 70% 2 en bij 80% 4 (die getallen komen uit de wiskunde van de queueing theorie). Als je dus een 60-80 verdeling hebt dan is de gemiddelde relatieve vertraging 2,5 terwijl die bij 70% 2 is. Bij een 50-90 verdeling is de gemiddelde relatieve vertraging zelfs ruim 4. en bij hogere belastingen dan gemiddeld 70% over de 10 lijnen wordt het ook erger.

Door een enkele 100GE lijn te gebruiken wordt de gemiddelde vertraging dus kleiner, bovendien wordt de vertraging gelijkmatiger bij dezelfde belasting. En daar heb je ook op je 20Mbps lijntje profijt van, vooral als de andere kant erg druk is. Zelfs op een ouderwets modemlijntje kan het verschil nog meetbaar zijn.

Het is eigenlijk hetzelfde als met CPU's. Een single core 12GHz CPU is efficiŽnter dan een quad core 3GHz. Omdat het makkelijker is om die ene core aan het werk te houden dan die vier. Omdat we die single core 12GHz niet kunnen maken, maken we die quad core.
Je zult wel vaker je 20Mbit lijn kunnen voltrekken. Een 10Gbit poort delen kan 500 lijnen van 20Mbit helemaal voltrekken. Nu worden dat er 5000, dus als er 1000 concurrent downloads zijn hield je vroeger maar 10Mbit over, en straks haal je je volle 20Mbit.
Er van uitgaande dat de servertjes achter het poortje de rommel ook zo snel de deur uit kunnen doen natuurlijk ;)

De kans dat je echt iets merkt van deze overstap is extreem klein zelfs als je zelf een servertje direct aan de AMS-IX zou knopen merk je er eigenlijk helemaal niets van gewoon omdat je machine de lijn toch niet vol krijgt hoe goed de machine ook z'n best doet. Dit soort dingen zijn alleen merkbaar voor groot gebruikers zo als de Google's en de Leasewebs van deze wereld maar denk bijvoorbeeld ook aan de Ziggo's en de UPC's die links zullen zien veranderen van 10GE naar 100GE. De laatste keer dat ik bij het toenmalige @Home op bezoek was hadden ze net de backbone omgeschakeld naar 2x 10GE waar de verbinding naar de AMS-IX natuurlijk niet echt kan achter blijven. Ik neem aan dat het backbone netwerk nu het Ziggo heet en nog veel meer klanten heeft in middels nog wel even groter is. Ik gok er op dat men al naar de 100GE is overgestapt of de plannen klaar heeft liggen om dit binnen kort te gaan doen. Als je backbone 100GE is dan wil je natuurlijk niet met een van de belangrijkste knoop punten met 10x 10GE moeten prutsen. Dus ook voor deze bedrijven zal het fijn zijn als de AMS-IX overstapt op snellere porten.

Als consument betekend het wel dat als de ISP's meer backbone bandbreedte beschikbaar hebben zij ook makkelijker meer bandbreedte kunnen bieden aan hun klanten en dat dus de verbindings snelheden weer eens omhoog kunnen. Voor een ISP is het altijd een kwestie van wat kun je over je backbone versturen en natuurlijk wat kun je uit de opbrengsten van de aansluitingen betalen wat betreft verbinding naar buiten je netwerk. Hoe meer bandbreedte je beschikbaar hebt op je netwerk en naar buiten toe hoe meer je de klanten kan aanbieden, hoe meer je aanbied hoe meer je nodig hebt en op een gegeven moment is de balans daar en kun je niet veder, maar als dan je verbindingen naar buiten toe door zo'n actie een stuk goedkoper worden... en zo blijft de verbindings snelheid maar omhoog gaan.
Ik gok er op dat men al naar de 100GE is overgestapt of de plannen klaar heeft liggen om dit binnen kort te gaan doen. Als je backbone 100GE is dan wil je natuurlijk niet met een van de belangrijkste knoop punten met 10x 10GE moeten prutsen. Dus ook voor deze bedrijven zal het fijn zijn als de AMS-IX overstapt op snellere porten.
Verkeer routeren via de AMS-IX is een stuk duurder dan zelf een lijntje leggen naar 'de andere grootverbruiker' met wie je veel data uitwisselt.
Ik denk dat het dus niet zozeer een actie van de AMS-IX is omdat de grootverbruikers graag 100GE lijntjes willen leggen, maar meer omdat ze bij de AMS-IX anders gewoon niet kunnen concurreren met het zelf leggen van een lijntje naar de anderen.
Zoals ze zelf ook al aangeven is 1x 100GE een stuk voordeliger dan 10x 10GE en als de capaciteit er ligt zal men mogelijk toch meer traffic via de AMS-IX laten lopen dan dat men er een 10GE lijntje bij zal nemen.
Kortom, volgens mij is het oorzaak-gevolg verhaaltje precies andersom dan wat jij nu schetst en zal de AMS_IX wel moeten upgraden om Łberhaupt concurrerend te kunnen zijn.
Op zich kost het routeren van verkeer via de AMS-IX helemaal niets (er van uit gaande dat je er toch heen moet), je betaalt alleen voor je presence en voor de hoeveelheid poorten, niet voor verbruik.

Een van de hoofdgebruiken van de AMS-IX is om je te verbinden met een transitprovider (zeg maar een provider-voor-providers), en *die* zal wel flink rekenen per doorvoer.

Ook peering verkeer (waarbij je dus niet per verbruik betaalt) gaat gewoon over de AMS-IX, behalve als zelf een lijntje trekken goedkoper is -- maar dat is gezien de prijs van poorten echt alleen zo bij de allergrootste verbruikers onderling, dus de grotere ISPs als KPN tegen de grootste datacenters als Akamai of Google (met name voor YouTube).

Uiteindelijk zijn vrijwel alle IXen non-profit organisaties die alleen maar bestaansrecht hebben omdat hun leden ze gebruiken om op een makkelijkere manier met elkaar in contact te treden.
Dat ligt er maar net aan hoeveel verkeer je kwijt kan op de desbetreffende exchange en hoeveel transit je Łberhaupt verstookt, je hebt best kans dat het merendeel binnen je eigen netwerk blijft.
Zolang de servers niet aan 100Gbit hangen gaat dit verhaal natuurlijk niet op he. Wat muppet99 al zegt, je internet is zo snel als de zwakste (in dit geval traagste) schakel.
Wie zegt dat achter die poort slechts 1 server hangt.

Situatie:
USA 1000 servers 10GE poort <--> exchange <--> 10GE poort 1000 nederlanders.

conclusie dan zit je op maar 10mbit per persoon ipv de max van 20mbit

Natuurlijk is dit hypothetisch en komt dat zelden of nooit voor. Je eigen verbinding zal natuurlijk veel vaker de oorzaak zijn.
Dus als ik er een 2400 baud modem aanhang...

:Y)
Nederland heeft een aantal redelijk grote datacenters vanuit behoorlijk wat diensten naar klanten over heel Europa en eigenlijk heel de wereld geserveerd worden. Deze verhoging zal je dus ook niet direct in je verbinding thuis merken, maar de kans is wel weer iets groter dat je je thuisverbinding maximaal kan benutten als je iets download of ee nwebpagina opent.
AMS-IX is het grootste knooppunt ter wereld =)
helaas moet de AMS-IX het duitse knooppunt DE-CIX qua capaciteit en throughput nog voorlaten. Dit duitse knooppunt is vooral gericht op de exchange/peering richting scandinaviŽ, rusland en aziŽ, waarbij de AMS-IX vooral gericht is op UK/US/EU/Afrika
Nee, het is de grootste die de cijfers bekend maakt. Amerikaanse, Chinese exchanges maken niets bekend, dus tellen niet mee. Maar er zullen vast een paar dino's bij zitten
Dus de snelheid van mijn lijntje bij Ziggo blijft afhangen van het netwerk van Ziggo, daarentegen kunnen ze niet zeggen dat het aan de toevoersnelheid ligt van een willekeurige server waar ik van download? (Dus: ik vraag de google webpagina op, als dit langzaam gaat zal het niet aan de netwerkverbinding van Google liggen, maar wel aan die van Ziggo)

Begrijp ik het zo goed?
Weet je wat ik niet begrijp. Hoe kan het zijn dat Ziggo met zoveel klanten en in principe te weinig poorten om alle gebruikers hun snelheden te garanderen, toch in staat zijn de snelheden te leveren. Voor zover ik tot op heden heb vernomen en gezien heb, lukt hun dat aardig. Op de volgende website wordt er namelijk over gediscussieerd:

http://webwereld.nl/article/comments/id/54238

Het artikel is dan wel iets verouderd, maar volgens een berekening daar zou een gemiddelde klant nog geen 20Kbps moeten halen :P Ze hebben het hier ook vaak over overboekingen, waar ik tot op heden echt nog 0 van heb gemerkt.

Sinds ik ziggo alles-in-1 extra heb haal ik gewoon de volle bak en meer zelfs, namelijk 122mbit+ sinds de upgrade naar 120mbit abbo's.
Zie hier:

http://www.speedtest.net/result/992252996.png

[Reactie gewijzigd door TwiLighT_DM op 16 oktober 2010 04:59]

Het zou niet goed zijn als ze van uit gaan dat iedereen tegelijk online is en iedereen de hele tijd verbinding gebruiken. Dat met paar miljoen abonnees.

We hebben op werk 2500 pc's op 100mb en 50 stuks op 1gbit. Dat met een transit uplink van 10gbit. We verbruiken op piek van de dag zo'n 200mbit (gemiddeld over 5 min)
Dat zal denk ik ook wel liggen aan de pc's die daar staan. Ik heb voor HP gewerkt op een callcenter, en daar hebben ze PC's die 100mbit poorten hebben en in de kast hebben ze switches met 10mbit poorten. Dus dat limiteert de boel wel weer :P
In het geval van google is het inderdaad onwaarschijnlijk dat het aan hun servers/verbinding ligt. Bij een 'gewone' particulier is het natuurlijk altijd mogelijk dat hij zijn servertje aan een 10Mbps verbinding heeft gehangen.

Dit soort verbindingen zijn alleen van belang voor de doorvoerpunten van grote service providers - een individuele gebruiker zal nooit worden toegestaan om de gehele verbinding te gebruiken.
Dat is net iets te simpel gedacht. Elk verkeer legt een route af, en de snelheid wordt bepaald door de zwakste schakel.

Waar een AMS-IX en andere knooppunten voor zorgen is dat verkeer efficienter gerouteerd kan worden. Vergelijk het met een verkeersknooppunt. Die zorgen ervoor dat je niet via stad A naar stad B hoeft te rijden, maar dat je directe verbindingen hebt.

Dit soort knooppunten kunnen echter bottlenecks worden. Bij teveel verkeer wordt het file op zo'n plek. Door de capaciteit te verhogen kan er meer verkeer zonder vertraging doorheen.
Op wat voor apparatuur draait 100GbE? Cisco, Juniper, other? De 10GbE apparten zijn van Brocade in elk geval.

[Reactie gewijzigd door PcDealer op 15 oktober 2010 23:06]

De 100GbE is ook van Brocade, de nieuwe MLXe, zie hier
Is de eerste 100GbE op de markt.

Eerder in de thread werd Cisco genoemd, deze kunnen helaas de throughput niet aan voor de grote SP's, deze draaien bijna allemaal op Brocade. Dit zijn de enige die echt non-blocking zijn.
Je vergeet even dat AMS-IX een transparant laag 2 netwerk, eigenlijk zijn het niet meer dan hele snelle switches. Je moet vervolgens zelf je router eraan hangen en met partij x, y en z een peering opzetten waarbij je ams-ix gebruikt als transport.

De Foundrys routeren dus niet, vandaar dat dit eerder op de markt is.

Cisco en Juniper komen beide eind 2011/ begin 2012 met een uitgebreide 100GE portfolio. Juniper kan het nu al leveren, alleen het kost heel veel ruimte in een chassis (1 interface per linecard) en de kosten zijn niet misselijk ($800k listprice voor linecard, interface en optic).
Dat draait op alles dat de standaard ondersteunt. De standaard is pas in juni geratificeerd dus het gaat wel even duren voordat de fabrikanten spullen hebben die door de volledige ronde t ests gegaan zijn en daarna met acceptance testing bij de IXen terecht kan komen.
Ze draaien deze linecards volgens mij gewoon in hun Foundry (oops Brocade) MLX machines. Top spul!
Is dat ethernet over glasvezel?
Daarna komt de teraport?

[Reactie gewijzigd door Soldaatje op 15 oktober 2010 15:51]

Tera of misschien iets er tussen in. Je hebt b.v. ook 40Gbit voor glas. Maaruh, wat dacht je van eerst 100Gbit een beetje invoeren ;-)
Ethernet volgens de tekst!
Ethernet is de standaard, dat kan over koper (UTP, Cat5(e), Cat6) en over glasvezel.

In dit geval gaat het over glasgezel, 100GE over UTP lukt niet.

10GE gaat nog wel over UTP, maar dan over zťťr korte afstanden.

Zie ook: http://nl.wikipedia.org/wiki/Ethernet

[Reactie gewijzigd door Snow_King op 15 oktober 2010 15:57]

Nou, nee. 10GE gaat over Cat6 tot 37-55 meter, en dat noem ik al geen "zeer korte afstanden"[1], maar op Cat6a doet het gewoon netjes 100 meter net als iedere andere ethernet op UTP standaard.

[1] De 40GE/100GE over koper standaards die tot 10 meter kunnen met gespecialiseerde infiniband-like harnesses, dat zijn zeer korte afstanden.
Ik lees hierboven allemaal comment over het feit dat de snelheid hoger zou worden. Dat maak ik echt niet direct op uit het bericht. Zoals ik het lees levert het grote afnemers als Google en Leaseweb voordelen op als het gaat om het beheren van hun infrastructuur en verkeer en niet direct snelheidswinst.
Ik kan me zo voorstellen dat 1x 100GbE minder overhead geeft dan 10x10GbE. Immers het bundelen van de poorten kost ook cpu kracht denk ik.
1 keer 100GE of tien keer 10GE zal het verschil nog niet direct maken, maar tien keer 100GE of honderd keer 10GE ga je wel echt merken kwa betrouwbaarheid, beheer, en performance. Je moet het dan ook vooral zien als toekomstgerichtheid.
hoe snel zijn eigenlijk de verbindingen tussen die knooppunten? Als de exchange nu naar 100GE gaat, zal tussen knooppunten toch wel het 10-voudige liggen toch?
De exchange heeft daar verder niets mee te maken. De exchange zorgt alleen voor het knooppunt, niet voor lijnen die daar vandaan gaan.

Transitproviders die intercontinentale fibers hebben liggen zullen vaak werken met DWDM verbindingen -- bijv 40 of 80 kleuren per fiber, die uiteraard ieder 10G doen.

Hier, neem een kaartje van de fibers rond Afrika:

http://upload.wikimedia.o...mons/d/d4/Cable_map18.svg

En de specs van een van de oudere atlantische kabels met een eindpunt in NL:

http://en.wikipedia.org/wiki/AC-1_(cable_system) (design capacity in '99, 40G, nu in gebruik, 120G)

De opvolger AC-2 komt niet direct in NL (alleen de UK), maar heeft een design capacity van 640G en 320G in gebruik.
Beter vinden ze iets uit waardoor latency naar america ook onder de 40 kan!
Ook daar zitten fysieke grenzen aan. Stel dat vanaf de AMS-IX naar een willekeurige exchange in amerika glasvezel ligt. Hoe snel kun je dan data transporteren? Je zult de afstand van de kabels af moeten liggen, en de maximale snelheid waarmee je dat kan doen is de snelheid van het licht.
Volgens google: the speed of light = 299 792 458 m / s

[Reactie gewijzigd door feelthepower op 15 oktober 2010 17:51]

40ms RTT (round trip?) is onmogelijk. Lichtsnelheid is helaas maar 300.000km per seconde en dat zal nog een tijdje zo blijven :)

america = oostkust ? of westkust ?
ik weet wel heel zeker dat dit oost kust is.
dit zal wel die van MAE-East zijn
Zolang de lichtsnelheid niet hoger wordt, blijft het fysiek onmogelijk omdat voor elkaar te krijgen. Daarom kan je ook beter voor low latency applicaties een EU server hebben als Nederlander.
Vervelend is het inderdaad wel, zeker bij online gaming communities waarbij toch altijd een deel uit een ander werelddeel komt.
rule of thumb is 1 ms per 100 km en daar is eigenlijk weinig aan te doen.
IEEE heeft 100Ge nog niet eens geratificeerd. Dus is het een experiment met een een proprietary protocol.

stomme ik. Is dus in juni geratificeerd.
http://en.wikipedia.org/wiki/IEEE_802.3ba

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True