CERN en CalTech vestigen internetsnelheidsrecord

Het Europese CERN en het Amerikaanse Caltech in er in geslaagd 1,1 Terabyte aan data uit te wisselen met een snelheid van 5,44 Gigabit per seconde (Gbps). De enorme hoeveelheid bits werden binnen een half uur over een afstand van 7.000 kilometer getransporteerd. Dit is meer dan een verdubbeling van het oude record, wat 2,38Gbps bedroeg. Met deze snelheden duurt het downloaden van data ter grootte van een cd ongeveer 1 seconde. Nu de snelheden groter worden is het steeds makkelijker voor wetenschappers uit verschillende landen om grote hoeveelheden data uit te wisselen of gebruik te maken van servers op 10.000 kilometer afstand zonder verlies van snelheid:

GlasvezelNewman, head of the Caltech team and chair of the ICFA Standing Committee on Inter-Regional Connectivity said: "This is a major milestone towards our goal of providing on-demand access to high energy physics data from around the world, using servers affordable to physicists from all regions. We have now reached the point where servers side by side have the same TCP performance as servers separated by 10,000 km. We also localized the current bottleneck to the I/O capability of the end-systems, and we expect that systems matching the full speed of a 10 Gbps link will be commonplace in the relatively near future."

Door Gabi Gaasenbeek

16-10-2003 • 23:10

43

Submitter: Microkid

Bron: Cern

Reacties (43)

43
43
29
10
5
2
Wijzig sortering
de bottleneck ligt al een tijd niet meer bij het gebruikte medium (fiber) maar bij de hardware aan de uiteinden van het glasdraadje: volgens mij kunnen de netwerkkaartjes en de raids niet volgens, want op zich is die bandbreedte niet indrukwekkend te noemen.

@ kevinp: op de bodem van de oceaan liggen er zo'n hele dikke vette kabels hoor :Y)
@ de twee post hierboven ...
Het record is gezet op 5.44 Gbit/s single stream. Dat is 1 machine. Met 2 machines of een cluster komen ze aan 9.2 Gbit/s.
De limiet is de data die tussen processor, memory en PCI-X bus met een Intel Netwerkkaartje met 10GbE maximaal kan lopen. Andere kaartjes kunnen iets meer performance eruit halen, maar PCI-X kan niet meer dan 6,4 Gbit/s leveren.
De opzet van een Itanium met deze bussen is de limiet.

Verder over routers en switches (even iets recht zetten) Vanaf CERN naar LA kom je wel degelijk high end routers tegen (ik dacht voornamelijk Lambda's), maar er zitten meer router in het verhaal dan ik dacht verwacht. tis vooral Cisco GSR 12400 serie, Juniper T-series, Procket network (alle modellen) en Cisco Catalyst 6509 met switch fabric die de klok slaan.

thanx Pieter :)
Ik denk dat het met de hardware wel meevalt, op de Optical Fiber Communication bijeenkomst in maart 2003 werd gesproken over communicatie met een snelheid van
A DWDM demonstration of 3.73Tb/s over 11,000km using 373 RZ-DPSK channels at 10Gb/s
En ook:
160 Gbit/s optical 3R-regenerator in a fiber transmission experiment. A fiber-based, wavelength-shift free 3R-regenerating repeater was operated at 160 Gbit/s in a dispersion-managed fiber link for the first time. Error free 160 Gbit/s OTDM transmission over 186 km was demonstrated.
Dus dit transatlantische record van Cern en Caltech heeft niet direct met de technische beperkingen te maken maar wel met het gebruik maken van relatief betaalbare beschikbare techniek.

Overigens heeft dit zeesponsje natuurlijke glasvezels die beter kunnen buigen dan een kunstmatige glasvezel kabel:
The natural glass fibers also are much more flexible than manufactured fiber optic cable that can crack if bent too far. "You can actually tie a knot in these natural biological fibers and they will not break - it's really quite amazing," said Joanna Aizenberg, who led the research at Bell Laboratories.
Dus ook op het gebied van glasvezel fiber kan er nog wel wat verbeterd worden.
De hardware aan de uiteinden is niet zo'n issue. De switches en routers, die zijn een veel groter probleem.
Gbit switches en routers kosten een vermogen. Gbit netwerkkaarten zijn relatief goedkoop.
sneller dan het licht kan het toch niet gaan. Alleen jammer dat dit soort lijnen niet standaard tussen Amerika en Europa, en natuurlijk de rest van de wereld liggen. Dat zou spellen online spelen wel veel makkelijker maken, en zo spel makers ook stimuleren om spellen(zeker mp) tegelijk in heel de wereld te releasen.
sneller dan het licht kan het toch niet gaan.
Dat klopt, maar dit ging over bandbreedte, niet over latency.
Als ik een vliegtuig vol met tapes naar Amerika vlieg, haal ik ook meer dan 10 gbit/s (gok ik). Maar de latency is natuurlijk om te huilen.
Latency issues zijn ZEER belangrijk. Bedenk wel dat binnen Nederland je RTT (round trip time) ongeveer 2 ms kan zijn, in europa is dat al gauw 20ms en cross the atlantic is dat ongeveer ~200ms. Wat krijg je dan? Het duurt 200ms voordat je TCP stack heeft begrepen dat een set pakketjes is aangekomen. In die tijd is er al weer een hele bubs verstuurd, maar de TCP stack houdt zich wel in. Hier zijn flink aanpassingen op gedaan om het werkend te krijgen. Aggressivere TCP stacks en netwerk hardware tuning zijn belangrijke issues.
Alleen jammer dat dit soort lijnen niet standaard tussen Amerika en Europa, en natuurlijk de rest van de wereld liggen.
Die liggen er al weer een tijdje, of dacht je dat er op de oceaan bodem nog 100Mbit lijntjes liggen? Nee dus, er liggen op de bodem kabels waardoor enorme hoeveelheden data per seconde gaan, zoals mooi te zien is op deze status pagina van de Amsterdam Internet Exchange, onze nationale internet knooppunt. Zoals je ziet gaat er op de drukste momenten 18Gbit per seconde door het datacentre. Redelijk veel dus.
Sorry maar wat een geteut, tegenwoordig kan iedereen, behalve midden in de polder misschien, aan ADSL of kabel internet komen en dat is voor online gamen super. Kijk, 10 mbit naar je huis is erg erg tof, maar niet nodig voor te gamen.

edit:Excuus, telaat.
Niet helemaal waar natuurlijk.
Momenteel worden spellen nog altijd zo gemaakt om in MP modus zo min mogelijk bandbreedte te gebruiken. Probeer in bv UT maar eens het verschil tussen Netspeed 2.000 en Netspeed 10.000.
Dan merk je goed wat voor effect meer bandbreedte heeft.
De huidige MP spellen gebruiken niet meer dan +- 10kB up, en 10kB down. Wanneer de gem. bandbreedte per gebruiker omhoog gaat, kunnen spel fabrikanten er ook eens over gaan denken om wat meer MP features in het spel te zetten. Probeer maar eens in (echt) goede kwaliteit op een server met 30 andere gamers (al gamende dus..) te praten met elkaar.
Servers zouden ook veel groter kunnen worden ipv een max van gem 20-30 spelers zou je opeens met 100 of nog meer speleren tegelijkertijd granaatjes kunnen gooien :)

Zolang de gememiddelde huis tuin en keuken gamer nog over zo weinig bandbreedte beschikt, is het voor spel fabrikanten niet interessant om meer (BB verbruikende) features in te bouwen, simpelweg omdat er veel te weinig potentiele gebruikers zijn (niet iedere gamer is een tweaker, en niet iedere tweaker heeft 8/1 internet)

Veder is meer bb natuurlijk altijd interessant omdat het nooit genoeg kan zijn: waarom een CD in 1 uur binnen halen als het ook in 1:3600e van die tijd kan ?
En natuurlijk zal de data ook steeds groter worden, CD->DVD(al dan niet dual layer)-> Blu Ray (idem) enz.
Genoeg reden om aan de virtuele weg te blijven timmeren dus.
battlefield kan je met 64 man tesamen spelen... en ik gebruik Roger Wilco er doorheen... en dat werkt perfect hoor
Wat een treurige reacties zeg. Een bericht dat wetenschappers erin geslaagd zijn om met grote snelheid grote hoeveelheden data over een grote afstand te transporteren wordt volledige verkracht door deze onzin over wel of niet spelletjes kunnen spelen. Dat heeft absoluut geen enkele toegevoegde waarde op dit bericht. Er zijn zoals je uit het bericht kunt halen ook belangrijkere zaken in het leven dat het met voldoende snelheid online kunnen gamen. Je denkt toch niet dat ze "zulke lijnen" over de hele wereld gaan leggen om te kunnen gamen??? Mocht je dat wel denken, dan moet je vandaag maar eens in een hoekje gaan zitten en goed overpijnzen waar je bezig bent...
Anoniem: 78237 @ernst17 oktober 2003 10:06
En in SubSpace kan je doodleuk met 500 (en meer!) op een server spelen. Hoe dan ook geen enkel probleem.
Anoniem: 94477 @Q16 oktober 2003 23:17
ja idd 10 mbit zou je beter kunnen gebruiken voor (thuis)hosting dan voor te gamen :9
Waarom zou je in godsnaam 5.44 gigabit nodig hebben voor een spelletje :X

Lage pings zijn voor spellen voor zover ik weet toch wel ietsies belangrijker dan doorvoersnelheid...

Voor spellen heb je dit écht niet nodig hoor...
Bandbreedte is anders ook van invloed op de reactie snelheid (ping) van een request. Het hangt allemaal een beetje af van hoe groot een pakketje is. Een blokje van 1Kbyte groot versturen duurt +/-10ms op 1Mbit (dat is dus upload snelheid). Bij de huidige games zijn de pakketjes vaak kleiner dan dat (en er wordt meer ontvangen dan verstuurd (jij moet nl. de info van alle spelers en zij maar van één)). Naarmate de precisie en de mogelijkheden van een game groter worden zal er ook meer data verstuurd moeten/kunnen worden.

Tevens zou je met dit soort snelheden meer kunnen doen met kapot geschoten levels waar muren omvallen etc etc. Dus om nou in gods naam te vragen waarom je dit nodig zou hebben vinden ik een beetje kortzichtig.
Bandbreedte is inderdaad wel enigzins van invloed op de latency, maar niet zo veel. Je zegt het zelf al: 10 ms op 1MBit, op 100 MBit dus nog maar 0.1ms, en hoe sneller het wordt hoe kleiner de fysieke lengte van je pakketje.

Een groter probleem is die langzame lichtsnelheid :) Dat ding blijft gewoon constant en daar kan je gewoon niets aan doen. En of je nou 1 MBit of 1 TBit naar de VS hebt liggen, de tijd die het licht erover doet om van Amsterdam naar de VS te komen blijft gelijk en aangezien de data door glas/koper met een snelheid gerelateert aan de lichtsnelheid (uit m'n hoofd: zo'n factor 3 langzamer) gaat, blijf je hoe dan ook met een latency van enkele tientallen ms zitten, en of het nou 80.01 of 81 is door het 1Mbit/1Gbit verschil boeit niet zo.
GTA Vice City met duizenden auto's en mensen erin, spelen met z'n 100-en over het internet...

:9
de lichtsnelheid heeeft zeer weining te maken met de bandbreedte, en voegt van hier naar newyork nog geen 30 milliseconde toen aan de latence.
Anoniem: 76313 @Kevinp16 oktober 2003 23:17
vergeet niet dat de bandbreedte niet het grootste prob is bij online gaming maar vooral de latency...

edit 2x : aiai sorry dubbelpost ;(
typos :?
Dat kan nòg sneller hoor... :P

Als ze het via Planet verstuurd hadden, was al het aangekomen voordat het überhaupt beschikbaar werd.... :7
Tsjah, omdat iedereen met hun 1gbit lijntjes en duizenden 100mbit's zitten te traden mogen wij met een hogere ping online gamen :+

Ben benieuwd wat voor een ping we zouden hebben als er geen warez waren.

Meer bandbreedte is overigens altijd fijn, ik bedoel, het kan absoluut geen kwaad :)
Tsjah, omdat iedereen met hun 1gbit lijntjes en duizenden 100mbit's zitten te traden mogen wij met een hogere ping online gamen
Het is toch wat he, heb jij internet aangelegd, en dan willen niet eens alle gebruikers luisteren naar jouw wensen...

Misschien moet je eens naar china gaan verhuizen?

Ik vermoed overigens dat het CERN en Caitech geen warez uitwissellen
Ben benieuwd wat voor een ping we zouden hebben als er geen warez waren.
Als er geen warez waren, dan zouden er ook de helft minder gamerz op het Internet zijn. Natuurlijk koop jij wel altijd je games en software legaal, maar jou clan/tegenspelers waarschijnlijk niet allemaal. Kortom, zonder warez zou de game scene ook veel kleiner zijn. Dat zou je ping dan overigens wel weer nog lager maken :*)
nutteloos geworden :P
dat maakt niets uit, er is al een jaar of 6 een grote overkill aan bandbreedte,

De bottleneck ligt aan hoeveel mbit je provider je geeft, en dat ligt aan je portomonnee
Anoniem: 94399 16 oktober 2003 23:22
Ik wil graag het verschil eens zien hoeveel data met de schotel kan versturen??
met een deftige satteliet dacht ik 16 kanalen simultaan. met fiber zit je op lichtsnelheid dus X aantal keer sneller/meer
Het gaat hier om een single stream data transfer. Wat er zou kunnen gebeuren is dat er 16 TCP pakketjes naar de sateliet worden verstuurd en ook weer 16 naar beneden worden gezonden in dezelfde snelheid als electrische golven kunnen reizen (door het gebruikte medium). Maar ja ... wat dan? Dan komt ooit ergens op een switch/router uit. Laten we zeggen een switch. Die zal dan al die stromen naar 1 stroom geleiden, omdat er vlak achteraan die pc staat. Het kan dus gebeuren dat de TCP pakketten in verkeerde volgorde aankomen. Wachten op de juiste is vertraging. Daarnaast zou je het single stream kunnen sturen een sateliet (16 datakanalen in gebruik is een dure zaak). Ik verwacht in de sateliet een router en dat is enorm traag. Mocht er een 10Gbit switch in zitten die via SONET of PHY werkt, dan zijn de kansen weer open. Maar de latency van een sateliet is enorm. En ik gok dat je daar niet al te veel in kan veranderen.
Anoniem: 59872 16 oktober 2003 23:39
Zou deze test zijn uitgevoerd op 1 ader of meerdere aders?
Want als je ervanuitgaat dat er tig aders in zon dikke kabel liggen is de transmisse p/s gigantisch
Aders - streams ... uhmz ... welke bedoel je ?
5.44 Gbit/s is single stream. Dual stream is dacht ik 9.2 Gbit/s geworden. En meer dan 2 streams ongeveer 9.3
Ook iedere ader (=fiber hier) heeft nog eens een zooi frequenties gemulitplexed onder de atlantic ocean.
Met deze snelheden duurt het downloaden van data ter grootte van een cd ongeveer 1 seconde.
Aan wat voor harde schijven moet ik dan denken, die deze data in 1 seconde kan wegschrijven?

edit:

Van 2 (Informatief) naar 1 (Dubbelpost)? Dubbelpost? Waar dan?
Er wordt hier op Tweakers maar raar gemod, iets wat mij al eerder opgevallen is. Toon de mensen die de moeite nemen om een reactie te plaatsen effe wat respect ja. Schaf anders het hele reactie plaatsen maar af! :(
Kijk eens naar het I/O subsysteem van BalusC (http://www.tweakers.net/gallery/sys/163), die haalt zo'n 400 MB/s, dus dat nog eens een factor 1.5 sneller en je bent er.
Zouden ze compressie gebruikt hebben? 1.1 TByte file met alleen nullen -> compressie -> dan haal je de 5.44 Gbit/sec nog wel op een oude modem lijn :+
De internetsnelheid die CERN en CalTech hebben, wil ik ook! :'(
maar wil je er ook evenveel voor betalen :+
sneller dan het licht kan het toch niet gaan

[b][i]Nature bericht dat wetenschappers hebben vastgesteld dat informatie nooit sneller kan gaan dan de lichtsnelheid (c). Hoewel dit misschien logisch lijkt voor iedereen die op de middelbare school natuurkunde heeft gevolgd, werd drie jaar geleden door twee onderzoeksgroepen aangetoond dat bepaalde fotonen door een koud gas van metaalatomen wel sneller reisden dan het licht door een vacuüm.[/u][/b]

Hier staat het wel zwart op wit, lijkt raar maar het is wel zo...

Trouwens, hoe doen ze zulke tests? Mijn HD kan echt niet 700 MB per seconde verwerken? :|
Van PC naar PC (Itanium, Xeon en binnenkort Opteron ivm schaalbaarheid architecture op het mobo)
of van een Cluster naar iets. Bij de UvA/NIKHEF is het DAS2 cluster op een Force10 switch/router aangesloten met 32x 1Gbit/s koper die geswitched kan worden naar 1 van de 2 10Gbit/s fibers.
Het is bijna altijd memory 2 memory kopieren.
Over een tijd willen ze het ook eens direct naar disken schrijven. Maar die test runs worden nog ooit eens opgezet en uitgevoerd.
Maar 1 of ander linux clustertje oid wel :)
Anoniem: 27662 17 oktober 2003 01:35
Dat ze met zo'n snelheid data kunnen verplaatsen vindt ik op zich niet zo verbazend. Wat me wel verbaasd is het feit dat ze 1 cd p/s aan data kunnen opslaan want welk opslagsysteem kan deze snelheid aan??
DDR en RD-RAM chippies is het antwoord.
En anders grote RAID clusters.
De afstand met de enorme latency problemen over de afstanden maakt dit een pittige prestatie. Lees een paar andere post op deze thread ;)
Er is al eens 80 TB/s gehaald over ongeveer 80 meter of iets in die trant. Pure science en niet implementeerbaar met de huidige technieken.
Bedenk wel dat er in 2006-2007-2008 ongeveer 10 PB/jaar moet worden verzonden aan gefilterde data voor analyse.

Op dit item kan niet meer gereageerd worden.