Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties, 21.926 views •

De Europese Unie en Japan steken samen geld in onderzoek naar optische verbindingen met een snelheid van 100Gbit/s. De EU steekt 1,5 miljoen euro in het onderzoek. Hoeveel Japan uittrekt is onbekend. Het onderzoek loopt tot 2016.

Het Strauss-project, dat de supersnelle optische verbindingen mogelijk moet maken, is donderdag aangekondigd en wordt door zowel de Europese Unie als Japan gesteund. Bovendien wordt het onderzoek verricht in samenwerking met universiteiten en bedrijven uit zowel Japan als Europa, zoals de universiteit van Bristol, het Fraunhofer-instituut, de universiteit van Osaka en Fujitsu.

Doel van het project is om de verbindingen niet alleen via een snelheid van 100Gbit/s te laten werken, ook moeten ze goedkoop en energie-efficiënt zijn. Bovendien moet het ethernet-protocol kunnen worden gebruikt voor de doorgifte van gegevens. Voor de fysieke linklaag moeten optische kabels worden gebruikt, wat in de praktijk betekent dat dat via glasvezel zal gebeuren.

Voor het project moeten onder andere concrete producten worden ontwikkeld, zoals switching-nodes en de benodigde software, maar het project zal zich ook bezighouden met abstractere zaken, zoals de opzet van de architectuur.

Volgens de Europese Commissie zal het onderzoek internetverbindingen mogelijk maken die 5000 keer zo snel zijn als de gemiddelde internetsnelheid in de Europese Unie. Die is op dit moment 19,7Mbit/s. Het onderzoek zal echter tot 2016 duren, waarna het waarschijnlijk nog jaren duurt voordat de nieuwe infrastructuur kan worden gebruikt.

De snelle netwerkinfrastructuur is niet het enige gezamenlijke onderzoeksproject van Japan en de Europese Unie. Een ander onderzoeksproject, geleid door het Fraunhofer-instituut, moet ertoe leiden dat frequenties beter worden benut, zodat mobiele dataverbindingen sneller worden. Nog een ander onderzoek heeft tot doel om slimme meters met elkaar te verbinden. In totaal wordt 18 miljoen euro in de projecten gestoken.

Reacties (48)

Reactiefilter:-148047+120+24+30
Moderatie-faq Wijzig weergave
100 Gigabit Ethernet komt er steeds sneller aan :). Niet alleen is dit heel goed nieuws, maar TW Telecom heeft toevallig afgelopen week ook 100 gigabit internet aangekondigd (voor bedrijven uiteraard) in hun service gebied, wat uit 75 grote Amerikaanse steden bestaat. Maar 100 Gbit/s door een gewone ethernet kabel wordt wel heel gaaf :D. Zeer benieuwd of providers hier nog iets mee kunnen voor hun bestaande en toekomstige glasvezelnetwerk.

Ook de Universiteit van Pennsylvania upgrade deze zomer een groot gedeelte van hun netwerk naar 100 Gbit ethernet!
En als bedrijven en universiteiten eenmaal dit soort netwerken hebben waait het vanzelf over naar de consumenten markt EN zijn de servers waarvan je download sneller (als de bottleneck niet meer daar zit aangezien zij dan 100 Gbit ethernet hebben).

Hier misschien nog een aanvullende afbeelding voor onder het artikel.

[Reactie gewijzigd door Balance op 3 juli 2013 15:10]

Ethernet kabel, bestaat dat wel?

En zolang consumentenelektronica niet sneller werkt dan 1 Gbit heeft het ook geen nut om snellere verbindingen aan te bieden.
Dat en nog lang niet alle servers hebben de capaciteit hoger dan 1Gbit zitten. Dus voordat we overal blij met 100Gbit downloaden moet er nog veel geinvesteerd worden.
Het wordt gepresenteerd alsof je straks een 100Gb lijn tot je deur hebt. Maar dat is natuurlijk onzinnig. Ja enkele bedrijven kunnen dat wel gebruiken ja, maar voor de consument is het ontzettend belachelijk veel. Een gewoon huishouden heeft niks aan de capiciteit voor 30.000 HD streams om maar wat te noemen. Daarnaast is het ontzettend duur om dat allemaal te switchen. Als de hele straat 100Gb heeft dan valt dat niet meer te switchen. De kosten voor een switch die dan 10 huishoudens zou kunnen switchen (1Tb backbone) zijn gigantisch uiteraard :P
Ik snap de vergelijking met de gemiddelde internetsnelheid van de Europeaan niet. Gaat nergens over.

Daarnaast, gezien de genoemde technieken in het linkje, zijn ze hier gewoon aan het expirementeren met erg nieuwe technieken om veel flexibeler/dynamischer gebruik te maken van een netwerk. Ethernet is al "nieuw" te noemen voor de telecom backbone, maar zeker termen zoals OpenFlow e.d. geven wel aan waar ze mee bezig zijn. Om een kosten effectiever netwerk te bouwen, oftewel goedkoper hogere snelheden halen voor de klant. Zie het als een "cloud van internet" waar dan dynamisch gebruik van gemaakt wordt aan de hand van de vraag die er op dat moment is. Zelfde als dat je vroeger verschillende servers had staan met verschillende taken, en dat dat tegenwoordig ook is gevirtualiseerd waardoor je een pool hebt met servers die virtuele servers draaien. Zelfde soort ontwikkeling, zelfde soort voor en nadelen.

Tevens bestaan optische 100Gb interfaces al, mocht dat niet duidelijk zijn.

[Reactie gewijzigd door !null op 3 juli 2013 15:17]

Volgens mij rolt surfnet op dit moment al een 100gbit netwerk uit. Vreemd dat de EU en Japan dit nu gaan onderzoeken terwijl de apparatuur al beschikbaar is.

Link
Dat was mijn eerste gedachte ook toen ik het bericht las. Maar na het nog eens gelezen te hebben: de apparatuur die Surfnet gebruikt zal aardig wat kosten. Het Ubee-modem dat ik thuis heb staan van Ziggo zal hoogstens een paar tientjes kosten. De bedoeling is dus de snelheid van Surfnet voor een bedrag dat acceptabel is voor Ziggo.

Tussen die beide bedragen zal vast nog een aardig verschil zitten. Alleen maar goed dat er direct onderzoek wordt gedaan voor een 'nutteloze' snelheid: tegen de tijd dat het betaalbaar is, zal het een stuk nuttiger zijn.

Moet ook altijd lachen om de mensen die meteen roepen 'dat kunnen de servers niet aan' of 'dat kunnen de computers niet aan'. Toen ik op het internet kwam, downloadde ik met 14k4. Yep, 0,014 Mbit. Toen ik overging naar kabel, had ik al 512kb download. Ook toen kwam telkens de opmerking dat servers/pc's het niet aankonden als ik sneller zou gaan, want die hadden maar maximaal 10Mbit.

Tja, de wereld evolueert. Beter kun je maar gaan onderzoeken wat nog niet gevraagd wordt, de veranderingen gaan zo snel dat je al bijna te laat bent als je klaar bent.
Ik zat ook al te denken, deze apparatuur is al enige tijd beschikbaar. Zowel DWDM transport als ethernet router/switch fabrikanten (Juniper, Cisco, etc) hebben al enige tijd apparatuur die hiervoor geschikt is, zoals op verschillende links te lezen is. Hier zijn al enkele jaren testen mee gaande voordat dit echt geimplementeerd wordt. KPN heeft hier bijvoorbeeld in 2011 al tests mee gedaan.

Ik denk dat het onderzoek van de EU met name gericht is om 100 Gbps ethernet goedkoper en energiezuiniger te maken, want 100 Gpbs apparatuur is wel gigantisch duur op het moment. Het is vaak goedkoper om meerdere 10 Gbps verbindingen te bundelen. Het voordeel is echter wel dat er op deze manier meer capaciteit door dezelfde fibers kan, maar aangezien er zelfs bij de grotere providers maar weinig punten zullen zijn waar er 100 Gbps door een enkele verbinding gaat is dit nog niet echt een heel breed uitgerold fenomeen.

Dit zal sowieso niet iets voor thuisgebruikers worden, dit zijn technieken die voor backbone trunks ingezet worden, en dus niet voor individuele gebruikers. Gezien de gigantische kosten per 100Gbps interface (al gauw tienduizenden euro's, zo niet >100k per end to end -huis naar core router- verbinding) denk ik ook niet dat mensen het zouden kunnen betalen voor thuis, zelfs als het beschikbaar was.
Dit project gaat ook over het "meer kunnen met minder". Alsin, niet alleen 100Gbps goedkoper maken qua interfaces, maar zorgen dat je met de lijnen die je hebt meer kunt. Zodat het totaal plaatje goedkoper wordt. Zie m'n post hieronder.
Ach het gaat ook nog jaren duren voordat ik glasvezel zal krijgen, dus mocht ik het tegen die tijd krijgen, kan ik meteen overstappen van ~34mbit naar 100Gb :D
Dit onderzoek zal voor die tijd alleen invloed hebben op de infrastructuur en niet per se op je consumenten verbinding.
Dat lijkt me niet aangezien 100Gbit/s verbindingen al een poosje bestaan en in gebruik zijn bij providers. Het artikel is erg onduidelijk en geeft totaal niet aan waar deze "nieuwe" 100G verbindingen zouden moeten worden toegepast. Er word gemeld dat er gewerkt word aan 100Gbit/s over glasvezel met gebruik van Ethernet, terwijl dat al jaren bestaat en commercieel word toegepast.

Zeker op optisch niveau bestaan er al prototypes die 400 Gbit/s en 1Tbit/s doen.

[Reactie gewijzigd door Sorcerer op 3 juli 2013 15:13]

Ik lees toch gewoon dat het voor huis aan huis verbinding moeten worden(vermelden ook gemiddelde bandbreedte wat de huishoudens hebben op dit moment), en gaat niet over kabels of zo, die zijn al glasvezel, gaat puur om switches en dergelijke om die snel genoeg te krijgen zodat ze 100Gbit op grote schaal in toekomst 100Gbit te kunnen leveren aan alle consumenten.

@SinergyX
Hoezo krijgen, wie gaat jou dat geven denk je? Als je op de gemeente of zo zit te wachten kan het inderdaad lang duren, maar totaal niet nodig.

Wij hebben het in onze buurt gewoon zelf geregeld, kom van je lui stoel af en neem eigen initiatief. :D Wij hebben het ook zelf aan laten leggen met paar honderd andere huizen in de buurt, als meer dan 60% abbo nam(XMS galsvezel) werd het gratis aangelegd, werd de aansluiting dus gratis in de hele buurt gelegd ongeacht of je abbo nam of niet kon rest van 40% wel gewoon aansluiting gratis laten aanleggen, niet verplicht overigens maar als je het later wel wilt kost het je geld.

[Reactie gewijzigd door mad_max234 op 3 juli 2013 16:14]

Zit me af te vragen wie of wat hier nou veel gebruik van maken. Het enige wat ik me kan voorstellen is dat je met een flink bedrijf alle medewerkers tegelijk een flink bestand laat downloaden. Stel dat die allemaal intern met een gigabit lijn naar het 100Gbps modem lopen en een harde-schijf in hun PC hebben die snel genoeg is, dan kun je die 12500 megabytes per seconde wellicht vol benutten. Maar anders dan dat gaat toch niemand zoiets gebruiken?
Een verbinding identiek aan het verbruik zou ideaal zijn, maar anders heb ik toch liever teveel dan te weinig bandbreedte :)

Dus imho overkill bestaat niet...
CERN/LHC en onderzoekscentra die de data hiervan verwerken zijn de 'klanten' die dit soort verbindingen af nemen
The migration is designed to support up to 2Tbps (terabits per second) capacity across the core network, effectively future-proofing Europe’s critical network up until 2020.
http://geant3.archive.gea...t_GEANT_100Gbps_link.aspx

http://www.engadget.com/2...-link-research-education/

Dit komt door dat de sensoren daar nogal wat data verzamelen

bv ATLAS:
The detector generates unmanageably large amounts of raw data: about 25 megabytes per event (raw; zero suppression reduces this to 1.6 MB), multiplied by 40 million beam crossings per second in the center of the detector.
http://en.wikipedia.org/wiki/ATLAS_experiment
http://www.atlas.ch/fact-sheets-view.html

Ze doen dus veel aan sampling - hoeveel meer data ze kunnen versturen en verwerken hoe minder ze hoeven te samplen.
//edit en voor die verwerking wordt de data dus de wereld over gestuurd om zoveel mogelijk computing power aan te kunnen spreken.

[Reactie gewijzigd door Mr_Light op 3 juli 2013 16:08]

En dan nog 100Gbps netwerkapparatuur en een disk uitvinden die mijn downloads ook met die snelheid kan wegschrijven.
Op 3 TV's Full Ultra HD streamen (iptv), download server die 1GBit/s vol trekt en tablets / PC die aan het internetten zijn.. Wellicht nu nog niet, maar over een paar jaar zeker wel.

Laat maar komen hoor die 100Gbps

[Reactie gewijzigd door Fealine op 3 juli 2013 21:29]

Dit project is er niet alleen voor omdat het ontwikkeling doet in apparatuur en netwerk design voor snelheden van 100Gbit/s, maar voor snelheden van 100Gbit/s en hoger, dus waarschijnlijk ook voor in elk geval de 400 en 1000Gbit/s snelheden. Hierbij word ook tot een verregaande integratie ontwikkeld van de apparatuur met verregaande eigen intelligentie in het aanpassen van zijn eigen infrastructuur tot dienst van het gehele netwerk.

Hierbij zal ook voor de langere verbindingen (buiten de datacenters) gebruik gemaakt worden van DWDM technologie, die daar uitermate geschikt voor is.

http://www.ict-strauss.eu/en/project/objectives.html
100 Gbit is er al zowel lokaal als internationaal (volgens mij waren de eerste testen 3-5 jaar terug) dus ik zocht even naar de 'nieuwigheid'. In de tekst wordt er structureel over "beyond 100Gbps" gesproken. Ook lijkt een groot deel van de 'effort' hem er in te zitten het managen van de lichtpaden en automatiseerd beheren van het netwerk. Volgens mij kan dit best wel eens voorlopig de grootste deployment van openflow worden

@gryz
STRAUSS major focus is GMPLS and OpenFlow
Dat laag 1 en 2 lijkt zo omdat ze dingen virtualiseren
A transport network virtualization layer which, based on the abstracted infrastructure information, virtualizes the heterogeneous data plane resources. The physical infrastructure is partitioned and/or aggregated into virtual resources (i.e. virtual nodes and links), and virtual resources from different domains are selected to compose end-to-end virtual transport infrastructures.
Er word dus een pad gecreŽerd door op allerlei plekken hardware te configureren en vervolgens wordt dit pad als enkele link(/'hop') aan de 'klant' gepresenteerd met de afgesproken bandbreedte etc. Zoiets is al ontwikkeld bij dit project gaan ze (als ik hun objecties goed interpreteer) hier nog optimalisaties op toepassen zo dat het sneller en efficiŽnter wordt.
The nodes will support anything from waveband/wavelength switching to arbitrary spectrum switching (i.e. for high-speed transport), sub-wavelength switching (i.e. for increased efficiency) and wide-spectrum conversion (e.g. for spectrum defragmentation).
Ik programmeer overigens niet aan Openflow, geen tijd helaas, maar vind het wel erg interessant.

[Reactie gewijzigd door Mr_Light op 3 juli 2013 18:19]

Veel succes met je openflow.

BTW, ik zie nergens in dit artikel dat er meer wordt onderzocht dan alleen laag 1 en laag 2. Gewoon bits (nou ja, frames dan) transporteren van een interface naar een ander interface. Geen OpenFlow, routing of switching dan ook.
wat zal de nsa het druk krijgen..
Mensen die de huidige snelheden voldoende vinden moeten hun fantasie eens gebruiken. De kans is groot dat we straks allemaal televisie kijken over het internet. Doe dat eens live op 3 4K televisies tegelijk. Een andere toekomstbeweging is dat bijna al je apparaten connected zijn. Er rollen nu al gloeilampen van de band die dat zijn ("the internet of things"). En wat te denk van de toekomstige games, 3D, 4K multi-channel vergaderen?

Huishoudens zullen straks enorme grootverbruikers zijn aan bandbreedte, een beetje zoals een weg zichzelf ook altijd opvult. Een aantal jaren geleden reed ik voor het eerst op een nagenoeg lege a50. Ieder jaar werd die drukker, en nu zit ie ramvol. Zo is het ook met bandbreedte: als het er is, wordt deze gebruikt.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True