Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: Yahoo News

Onderzoekers hebben bekendgemaakt een nieuw snelheidsrecord te hebben gezet voor het testnetwerk Internet2. Het werd al op 31 december gevestigd, toen data met een snelheid van 9,08Gb/s werd verstuurd. Het vorige record stond op 8,8Gb/s.

raketwagen Internet2 is een onderzoeksnetwerk dat wordt beheerd door een consortium van ruim tweehonderd universiteiten. Het consortium ontstond in 1996 vanuit de wens van academici om via een toegewijd netwerk bandbreedteslurpende toepassingen mogelijk te maken, zoals high-def videoconferencing of het uitvoeren van medische ingrepen op afstand, met minimale tijdsvertraging. Daarvoor werd de toenmalige - en wordt de huidige - netwerkstructuur te beperkend geacht. Het netwerk ging in 1999 'live', met een snelheid van 622Mb/s. De resultaten van de laatste snelheidstest werden naar buiten gebracht door de universiteit van Tokyo, dat het onderzoek leidde. De data werd over een traject van 32.000 kilometer gestuurd, waarbij de steden Amsterdam, Chicago en Seattle werden aangedaan voordat de gegevens terugwaren in Japan. Daarbij werd voor het eerst gebruikgemaakt van het ipv6-protocol. De onderzoekers merken op dat dit vermoedelijk het laatste record met de huidige netwerkstructuur is, want de theoretische maximumsnelheid van 10Gb/s komt dicht in de buurt, en toepassingen die meer vereisen staan reeds in de steigers. Een daarvan is het aan elkaar knopen van radiotelescopen om deze, door ze snel data uit te laten wisselen, als één geheel te laten fungeren.

De eerste tests met een nieuw netwerk, waarbij gegevens met behulp van tien verschillende kleuren licht kunnen worden verzonden, moeten nog dit jaar plaatshebben. Dat moet snelheden tot 100Gb/s mogelijk maken. Kort geleden presenteerde IBM overigens een optische chipset waarmee een nog hogere snelheid mogelijk zouden zijn, namelijk 160GB/s. Momenteel gebruikt het Internet2-consortium glasvezelkabels van Qwest. Voor het nieuwe netwerk worden speciale kabels ontwikkeld die Internet2 in eigen beheer zal hebben.

Moderatie-faq Wijzig weergave

Reacties (78)

Als de theoretische maximumsnelheid te vertienvoudigen is met een nieuw soort kabel, dan kan je de snelheid toch ook verdubbelen door domweg 2 kabels van het huidige type naast elkaar te leggen? In hoeverre is er dan sprake van een theoretisch maximum?
Alle verbindingen 2 keer aanleggen :|
Dat zou best te doen zijn :P

Helaas tegen de tijd dat we daarmee klaar zijn zijn alle grondstoffen op en is er een verbinding die wel 100 keer sneller is :P
De eerste tests met een nieuw netwerk, waarbij gegevens met behulp van tien verschillende kleuren licht kunnen worden verzonden, moeten nog dit jaar plaatshebben.

Hiermee wordt bedoeld dat er gebruik gemaakt gaat worden van DWDM of verschillende wavelengths over glas (kleuren). Een tweede kabel is hiermee niet nodig.

Door het plaatsen van additionele apparatuur kan je meerdere kleuren of "virtuele kanalen" over één glaspaar heen trekken. Het aantal kleuren is geloof ik afhankelijk van het type kabel, de afstand en de snelheid maar tien (waarover wordt gesproken) moet makkelijk haalbaar zijn.

Zie ook wikipedia voor meer info....
Het zit hem hier niet specifiek in de kabels, maar in de apparatuur die met die kabels gebruikt gaat worden, fiber is gewoon fiber.
Dit is bijlange na niet waar,
er zijn heel wat verschillende diktes, verschillende modes die gebruikt worden enz.
Ook de zuiverheid van de fiber speelt een HEEL grote rol.
Zovel te zuiverder, zoveel te sneller er gegaan kan worden en zoveel te meer vermogen erin gepompt kan worden.
Die dingen zijn bij fiber zeker wel belangrijk idd, maar bij de fibers die bij telecommunicatie apparatuur gebruikt worden is dat standaard in orde.
Met de fibers die nu in telecommunicatie appartuur gebruikt word is dusdanig goed, dat niet de fibers het probleem zijn wat betreft max. bandbreedte, maar de apparatuur zelf die daarbij gebruikt word.
@vanThijs: dat was vroeger inderdaad het geval. En tot 10Gbit/s merk je het niet ook niet op een langere afstand. En al helemaal niet binnen je datacenter. Dit soort zaken merk je gegarandeert wel als je verder dan 300 meter wilt gaan. Dan moet je al aan ruisfiltering denken. Ga je nog verder, dan heb je fotonische versterkers nodig.
Hoe zuiverder je glasvezel, hoe minder versterkers. Heb je enig idee hoeveel krachtstroom op de zeebodem licht ivm die versterkers? Die kabels zitten in die dikke mantels verwerkt van de glasvezel zelf om het signaal inleven te houden. Dit was 'het' grote probleem met de eerste glasvezels onder de zee.
Dat schiet toch niet op? Als je toch een kabel neer moet leggen, leg dan meteen een nieuwe technologie neer als je die toch al hebt...
Wat nou, met al die commentaren over harde schijven.....

Het internet is meer dan 'het kabeltje dat uit de muur komt en vanachter in je pc steekt'....
Idd harddiscs is waardeloze troep dat ook nog eens traag is :-)

Maar internet is meer dan dat kabeltje dat uit de muur komt? Owh? wat is dat nog meer dan? tis toch alleen een kabeltje? :P
Wie kent een harde schijf die 10GB per seconde kan wegschrijven :P ?
dat eeuwige gezeur over harde schijven die het niet aankunnen. Dit zijn puur verbindingen tussen knooppunten waar dit soort snelheden makkelijk behaald worden. De AMSIX verstouwt 180 Gbit per seconde. Niet over een touwtje maar tussen de verschillenden locaties zullen dit soort snelheden wel noodzakelijk zijn.
Deze verbindingstest is uitgevoerd via SurfNet en ik denk dat die test dus niet over de AMS-IX is gegaan, maar over een aparte set glasvezeltjes. AFAIK heeft SurfNet zelf iets van 60Gbit aan routeerbaar verkeersmogelijkheden en daarnaast nu ook de mogelijkheid om directe lichtpaden op te zetten (photonic switch of ook wel spiegeltje mikken op andere glasvezel).
als je eerst even het geheugen word vol geschreven en dan word verzonden kan je die snelheid wel halen
10Gb is nog geen 10GB hoor.
Waarom zou je uberhaupt nog iets lokaal opslaan als je het met die snelheden van internet kan halen?
misschien niet 1 schijf kan 1,25GB/sec over 1 lijn sturen, maar wel enkele servers met vele HD's die aan de wensen van 100'en mensen tegelijk moet voldoen (bvb HD streaming site)
ik zie meer toekomst in compressie.

wat je nu ziet is een hardwarematige oplossing die tegen beperkingen aanloopt.
Compressie is imho nog lang niet uitontwikkeld.

en derhalve is het aanleggen van infrastructuur significant duurder dan software ontwikkelen die efficienter met bandbreedte omgaat
Ook computers hebben een bepaald maximum wat ze aankunnen op hardware gebied. Een computer waarbij bijvoorbeeld de hele windows is gecomprimeerd werkt heel traag omdat die computer meer bezig is met comprimeren en decomprimeren. Dit zou dan de hele tijd aan de gang zijn als alles vanaf het internet gecomprimeerd wordt aangeleverd. Een snellere en betere internetverbinding verdient dan toch mijn voorkeur! ;)
De meeste moderene processoren schijnen sneller te kunnen decomprimeren dan dat er data van de schijf kan worden gelezen..
Onzin, al die tijd en energie in compressie algortime voor hoog uit een data volume reductie van 50%, misschien 75%. Wat is dat nou?

Als je met hardware matige versnellingen een factoor 10 tot zelfs 100 sneller kan gaan in minder ontwikkel tijd en en (uiteindelijk) voor het zelfde geld, dan ben je toch veel beter bezig?

Compressie zit echt wel ingebouwd in een zooi routers om onzinnige stromen met nullen en eenen te comprimeren. Maar dit wint je heel veel, maar je zult niet veel meer geld en bandbreedte meer extra kunnen genereren. Je kan het immers niet oneindig klein maken ;)
Ehm... zegt delay je iets?

Naast wat hierboven gezegd is, veroorzaakt compressie ook nog extra vertraging. Je kan pas comprimeren als je een hoeveelheid data hebt (je kunt compressie niet op 1 byte toepassen), dus daar moet je eerst op wachten, dan moet het gecomprimeerd worden, en dan kan het pas de draad op, en dan moet het aan de andere kant nog gedecomprimeerd worden.

Voor sommige applicaties is dat niet wenselijk, zie de voorbeelden in het artikel.
Goed dat dit alleen beschikbaar is voor universiteiten.
Op die manier voorkom je "vervuiling" van het internet door bedrijven en kun je deze functies echt gebruiken voor het uitwisselen van informatie.
Nieuwe cables nieuw internet
Nou nog particulier maken en dan met 100mb/sec game ^^
Daar is het dus niet voor bedoeld :)
Internet "1" was in eerste instantie ook niet voor de consument bedoeld. Dat was eerst ook het leger en universiteiten e.d.

Heee.. overeenkomstje? ;)
Uiteindelijk zitten we natuurlijk allemaal aan het Internet2 hoor, maak je geen zorgen.
De ontwikkeling van internet 1 (Arpanet) begon in 1957. Zou meer dan 30 jaar duren voordat de consument buiten de states er gebruik van kon maken.

Als dat net zo lang duurt met Internet 2, en ze zijn hier pas enkele jaren mee bezig.. dan zal het pas ergens na 2030 beschikbaar voor ons komen, ben ik bang...
Hou er ook rekening mee dat halve wegen jaren 80 pas de computers betaalbaarder en kleiner werden.
Houd er ook rekening mee dat de ontwikkeltijd van de opvolger niet altijd even lang hoeft te duren als van de ontwikkeltijd van de voorganger.

Neem alleen al het feit dat er bij het consortium Internet2 meer dan 200 universiteiten betrokken zijn.

Ook is de wereldwijde vraag naar dit soort netwerken enorm met miljoenen internetgebruikers en bedijven. Er zijn dus ook een hoop investeerders. Een hoop bandbreedte slurpende software.

Kortom de ontwikkeltijd zal veel en veel sneller gaan.
Je moet Arpanet niet met internet vergelijken, je moet Arpanet met een netwerk vergelijken. Een Netwerk waar het internet in is onstaan en ontgroeit en doorontwikkeld in een eigen netwerk.

In hoerverre internet2 het internet gaat vervangen valt nog te bezien. Het kan best zomaar zijn dat internet geleidelijk blijft doorontwikkelen eventueel met technogieën die ontwikkeld zijn op internet2 en dat Internet2 een gesloten wetenschappenlijk netwerk blijft.
De technologie die ontwikkeld word voor inet2 zal uiteindelijk zijn weg vinden naar de gewone thuisgebruiker. Het is niet meer dan een privaat testnetwerk voor specifieke doeleinden.
Dacht dat Qwest failliet was ?

Hoe kunnen ze dan die kabels van hun gebruiken ?

Overgenomen voor een vrienden prijs.....(weet dit bijna zeker, tenzij iemand anders een ander idee heeft.)
De kabels hebben ze nooit weggehaald.

Die kunnen ze gewoon weer nieuw leven in blazen.
KPN/Qwest was failliet.

KPN & Qwest zijn er nog steeds.
High speed datanetwerken zijn natuurlijk erg leuk. Ik zie natuurlijk ook wel het lange termijn nut van Internet 2 in, vooral met betrekking tot universiteiten en andere onderzoeksinstanties. Echter zal het relatief lastig zijn om dergelijke netwerken in te voeren als 'nieuw' globaal internet mocht de technologie een keer worden toegepast voor de 'gewone man'. Overal nieuwe kabels aanleggen, nodes e.d. aanpassen is een hoop werk en kost veel geld. Bovendien zal er kruisbestuiving zijn van Internet 1 als deze op een dergelijk high-speed netwerk word gezet.

Wat betreft de snelheidsmeting ben ik wel enigzins onder de indruk, maar vraag ik mij af of dit niet onder 'testomstandigheden' is gedaan. We kunnen bijvoorbeeld auto's bouwen die sneller dan het geluid gaan, maar toch rijd de gemiddelde auto rond de 200 km/h max. Testresultaten en 'in het weld practisch' zijn toch wel verschillende zaken.

@VisionMaster

Dat ben ik opzich wel met jee eens. Alleen handeld het zich nu over een apart systeem wat zich ontwikkeld langs het bestaande systeem. Als de twee tever uit elkaar groeien zal het steeds lastiger worden ze op elkaar af te stellen.
Het internet upgraden is een evolutionair proces. Vroeger ging de internationale verbinding over een modem op 2400 baud. Een aantal jaar terug zat de AMS-IX per connectie op 1Gb/s nu is daar 10Gbit/s bij gekomen en niet alleen als backbone snelheid, klanten kunnen dat ook gebruiken van de AMS-IX.
Het ontwikkelt zichzelf langzaam, steeds groter en sneller.

@dreadnaught:
Dat beseffen de mensen van Internet2 ook wel. Ze zullen nieuwe manieren van versnelling ook baseren op 'standaard' TCP/IP en wat daar onder gebeurt SONET en dat soort dingen (soms zelfs ethernet) dat is ook nog wel erg interessant om te onderzoeken en verbeteren. En dat raakt de gewonen protocollen niet.

Ook met al die vooruitstrevendheid moet je soms die terug koppeling maken naar de echte wereld, maar dat doe je met een heleboel meer kennis. en dat maakt het zo interessant. Zonder projecten als Internet2 heb je geen speeltuin om eens lekker te rommelen met de mooiste zandkastelen die je maar kan bedenken. Werkt je idee, dan ga je het in de echte wereld probleren. Werkt het niet, dan knal je het neer en bouw je een nieuwe.
<volledig off topic>

De begeleidende afbeelding geeft geen 'raketwagen' weer (zie mouse over), maar een Lockheed Starfighter die van een frame met wieltjes is voorzien. Om een aanval mee uit te voeren op het land speed record.

En die heeft geen raket aan boord als krachtbron, maar een General Electric J-79 straalmotor.

http://youtube.com/watch?v=x8lVpnhqsxU

Hebben we in Nederland ook nog twee decennia gehad om de Russen buiten de deur te houden...
Wel erg off-topic: Dan nog, het was wel een van de snelste fighters van de NAVO. (en ook een van de beruchtste, vooral in Duitsland wilden ze nog wel eens uit de lucht vallen) Er staat er eentje (maar dan in originele staat) bij het Militair Luchtvaart Museum in Zeist.
Nee een gemiddelde HDD houd wel op bij 70/80mb/s :z
Als je heeeel veel mazzel hebt, haal je dat in een data burst, maar sustained (dus meerdere grote bestanden van de ene naar de andere HDD met 60MB+) dat heb ik behalve tijdens een raid experimentje van mij nog nooit gezien.

Ik denk dat het gemiddelde bij grote bestanden eerder tussen de 30 en 40MB/s zal liggen. Als er veel kleine bestanden worden gekopieerd/weggeschreven, dan ligt dat nog een stuk lager.
Een daarvan is het aan elkaar knopen van radiotelescopen om deze, door ze snel data uit te laten wisselen, als één geheel te laten fungeren.
dat is toch al (bijna) praktijk met LOFAR ?
De grote radiotelescopen zijn ook met snelle netwerken met elkaar verbonden. Dus ze vormen een netwerk van telescopen, die wellicht een logische telescoop kunnen vormen of ze kunnen fail-over doen om een bepaalde gebeurtenis samen te blijven bekijken.

LOFAR is 1 grote low-frequency telescoop. Alle kleine veld antennes zijn met elkaar verbonden via een groot netwerk en iedere antenne ontvangt ruis. Maar als je alle ruis signalen bij elkaar harkt en via een lijm-aan-elkaar en correleer-de-ruis, dan zie je in eens het helaal op een nieuwe/andere manier.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True