Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 33, views: 12.607 •

Fujitsu is er naar eigen zeggen in geslaagd om over glasvezelverbindingen snelheden van 100Gbit/s te behalen op netwerkcomponenten die voor 10Gbit/s zijn ontworpen. Het bedrijf heeft hiervoor dmt-modulatietechnieken op basis van eigen algoritmen toegepast.

De netwerkonderzoekers van Fujitsu zullen op 17 maart een conferentie in Californië meer inzicht geven in de succesvolle pogingen om 100Gbit/s aan data over een enkel glasvezelkanaal te versturen. Fujitsu zegt in ieder geval dmt-modulatie te gebruiken op reguliere 10Gbit/s-netwerkapparatuur. Om de hoge snelheden tot 100Gbit/s mogelijk te maken, wordt de data over meerdere subcarriers verstuurd en op elk subkanaal wordt multi-level modulation toegepast. Daarvoor zou een eigen algoritme ontwikkeld zijn.

Omdat er volgens Fujitsu met reguliere 10Gbit/s-apparatuur snelheden tot 100Gbit/s per kanaal kunnen worden behaald, kunnen er op 40Gbit/s-ethernettransceivers snelheden tot 400Gbit/s behaald worden. Daarmee zouden de kosten voor bedrijven om met bestaande apparatuur een flinke snelheidswinst te kunnen boeken, flink kunnen dalen. Onduidelijk is nog wanneer Fujitsu zijn vinding op de markt zal gaan brengen.

Fujitsu-netwerktechnologie

Reacties (33)

Voor bedrijven een prachtig iets als je zo de kosten kunt drukken. Voor de particulier natuurlijk niet nodig. Maar de techniek is wel superieur.
Ha, ik zou er geen probleem mee hebben om een game van 10GB binnen 1 seconde te kunnen downloaden...
Dit gaat over een 10GB aansluiting, ik vraag mij af of het zelfde algoritme ook van toepassing kan zijn op de XMbit/1GB aansluitingen voor particulieren?
Ik zou niet weten waarom niet.
Dit gaat om modulatie.

Het is alleen niet zomaar toe te passen want in bijvoorbeeld de standaard voor internet over de kabel (DOCSIS) staat ook modulatie beschreven. (QAM/QPSK)
Als particulier kunnen we hier wel degelijk baat bij hebben hoor!

Je moet het maar zo zien: de bandwidth van de backbone glasvezellijnen van Reggefiber kunnen dus hiermee zonder aditionele kabels/hardware ineens vertienvoudigen! Dat betekent dus wel degelijk dat de ISP's dus ons klanten ook hogere snelheden kunnen gaan aanbieden!..

Vooral met het oog op de toekomst is dit een mooie vooruitgang gezien er nog steeds in het gross van Nederland geen glasvezel tot de meterkast ligt. Het wordt dus goedkoper voor Reggefiber om overal glasvezel te leggen omdat ze minder zware backbone nodig hebben voor dezelfde load ˛f ze leggen die dikke backbones alsnog en omdat er dus meer data overheen kan kunnen ze grotere/duurdere abo's aanbieden waardoor ze meer inkomsten vergaren en dus meer kunnen investeren in uitbreidingen van het netwerk.
Nogal een overkill. Want hoe gaat jouw pc 10GB in 1 sec opslagen? Zelfs als je kunt opslaan aan 250MB/sec (en dat is echt snel naar de normen van vandaag) heb je nog 40 seconden nodig.

Echter als de providers de snelheid goedkoop omhoog kunnen trekken binnen hun netwerk kunnen de snelheidslimieten omhoog voor pakweg kabel of kan men betere garantie geven dat je op alle tijde je max snelheid kan gebruiken.

Dus voor consumenten heeft dit nu nog geen enkel voordeel tenzij indirect. Bedrijven is een andere zaak.
Er wordt steeds meer data verbruikt. Neem netflix dat vraag ook al aardig wat data, zo komen er steeds meer diensten.

als men op deze manier de snelheid van netwerken kan vergroten betekend dat met dezelfde apparatuur een 10x hogere snelheid en dus meer capaciteit op het net.

Thuis heb je er ook iets aan als je bekijkt dat er steeds meer glasvezel komt. Je mag dan wel 100mb/sec hebben op glasvezels maar tegen die snelheid downloaden over de oceaan zal toch moeilijk worden. Met deze techniek kan alles simpelweg gewoon sneller.

Wat ik echter niet lees is of dit hardwarematige wijzigingen betreft of dat het puur softwarematig is.
de wereld staat niet stil
toekomst gericht zullen ook particulieren dit nodig hebben

vroegah waaren filmpjes ook net 1GB groot nu zitten we met full HD bestanden ook ruim in de 20GB dit word alleen maar meer, zeker met Ultra HD wat weer een factor 4 groter is wat betreft bestands grootte
Nou,

Ik maak geregeld backups van mijn systeem (2xRaid0 SSD's) naar mijn backupserver (4xRaid0 HDD's).

Hierbij loop ik toch echt wel tegen de bottleneck van de huidige 1Gbit Ethernet verbindingen.
Een 10Gbit lijntje is nu al echt geen overbodige luxe meer voor mij hoor!!

"Meer als 640KB heeft men nooit nodig" ;)
ik ga hierin mee, het is voor de consument niet erg relevant, echter bedrijven kunnen deze snelheid wel goed gebruiken.


anderzijds

mocht deze persoon OCZ 3200GB Z-Drive RM88 3,2 TB, PCI-E, 2.8 GB's, 2.8 GB's, PCI-E in een raid opstelling hebben staan (je weet maar nooit) dan zou het zo maar mogelijkzijn dat die het wel degelijk in 1 seconde verwerkt. maarja 8)7
@ZippieZap

Let op

8 Bits is 1 Byte

Dus 10 Gbits is een werkelijke download snelheid van 1.25 GB/s

Dus 100 Gbits is een werkelijke download snelheid van 12.5GB/s

en of je die snelheid haalt is nog maar de vraag, want bij je provider schaf je je internet connectie aan en die kun je natuurlijk niet even x10 verhogen. Dit is zeer waarschijnlijk alleen voor de Lan en niet voor de WAN.
Voor transmissie heb je ook nog overhead en kan je beter met 10 bits is 1 byte werken.
En die overhead is ook nog eens enorm variabel.
Binnen storage netwerken gebruikt men vaak een Jumbo frame om de payload zo groot mogelijk te krijgen. het resultaat is minder packets en dus minder overhead.

Torrent verkeer daarentegen heeft enorm veel pakketjes.
Dit is ook inherent aan het ontwerp, maar effecties is het niet m.b.t. overhead.
Dit is zeer waarschijnlijk alleen voor de Lan en niet voor de WAN.
Glasvezel. Dus geschikt over WANs.

Bij koperdraad is er veel signaal verlies. Hoge-snelheids technieken (1 Gbps, 10, Gbps, 40 Gbps) zoals ethernet standarden werken daarom altijd alleen over hele korte afstanden. 100 Meter of zo. Als je over fiber gaat, dan maakt afstand een stuk minder uit.

Als je deze techniek over 10km of 100km of 1000km kunt gebruiken, dan gaat dat zeker gebeuren.

Hoe dacht je anders dat ISPs hun netwerken bouwen ? Met toverij ? Die kopen dezelfde techniek die jou en mij ter beschikking staat. Alleen hun budget is iets groter. Maar ze hebben geen toegang tot "geheime super techniek" of zo. Momenteel is de snelste transmissie techniek die je kunt kopen 10 Gbps en 40 Gbps interfaces. Als dat 100x sneller kan gaan, dan is dat winst voor iedereen.
Hoe dacht je dat op te gaan slaan?

Ik vraag me trouwens af over welke afstand dit gedaan is, als er een max van 50 meter aanzit zal je dit nooit thuis hoeven te verwachten over je WAN.
Hoe dacht je dat op te gaan slaan?

Ik vraag me trouwens af over welke afstand dit gedaan is, als er een max van 50 meter aanzit zal je dit nooit thuis hoeven te verwachten over je WAN.
voordat dit in jou huis licht zijn we ook al weer 10 jaar verder
en dan zullen SSD's of wellicht andere opslag mediums snel zat zijn om de schrijf snelheid te ondersteunen
De vraag is dan alleen nog, ... "waarom zou je het dan nog downloaden?". Als je internet verbinding sneller is als je HD/SSD dan kun je het beter iedere keer opnieuw downloaden.
Bijvoorbeeld omdat je per download voor 'iets' moet betalen, of dat je de desbetreffende data ook offline beschikbaar wilt hebben, (bestaat dat tegen die tijd nog?) of omdat bepaalde content niet onbeperkt beschikbaar wordt gesteld maar slechts voor een bepaalde periode, of omdat content dynamisch wordt aangeboden en jij een bepaalde versie wilt archiveren, of... nou ja, er blijven dus ongetwijfeld redenen zijn. De vraag is vooral: staat jouw persoonlijke opslag nog steeds bij jou thuis?
Voor mijn thuisnetwerk wel degelijk relevant. Sneller is fijner.
Wat ik mij afvraag, waarom gaan die snelheden altijd met een factor 10 omhoog? 2, 4, 8 of iets in die richting zou toch veel logischer zijn?
Dat is met de meeste bussen die me zo binnenschieten dan ook x2, SCSI, SATA, SAS, FibreChannel, allemaal steeds verdubbelingen. Waarom met dir soort technieken niet, goeie vraag.
Er wordt aan meerdere knopjes tegelijk gedraaid. Spectrum, frequentie, en aantal parallelle verbindingen zorgen voor een veelvoud aan verbeteringen.

Overigens is er wel standaard voor een tussenstap van 40Gb/s, 100Gb/s en nu denken ze na over 1000 Gb/s. Ben benieuwd hoe snel dat standaard gaat worden.
Omdat er bij dit soort transmissies dankzij modulatie van het signaal geen sprake meer is van digitale signalen (de data in het signaal is digitaal in de zin van 0 of 1, het signaal zelf kent veel meer niveau's) hoeft er dus geen sprake te zijn van een factor van 2.

Waarom de ons zo bekende standaarden telkens een factor 10 is, is inderdaad best bijzonder. (bij 40 bijvoorbeeld wordt daadwerkelijk 4x10 gebruikt). Het zou zo maar kunnen dat het gewoon een kwestie van afspraken is; zo van: "als we een nieuwe standaard verzinnen dan moet deze ook wel spectaculair beter zijn, en dan dus een factor 10.", maar dit is pure speculatie van mijn kant.
Dat is omdat Ethernet nu zo dominant is geworden. Voor ethernet gebruikten we Token Ring. Dit werkte met snelheden van 4 en 16 Mbps. ISDN werkt met kanalen van 64kbps of veelvouden hiervan. SDH / SONET gebruikt ook niet decimale veelvouden.

Bij Ethernet is het zo dat je maar een frame stuurt en je hoopt dat het aan komt. De eerste implementatie was 2Mbps en later 10Mbps. Er is verder geen token die rond gaat of een ander timing mechanisme wat verzending van data garandeert. Engineers hebben zich bij de ontwikkeling van ethernet laten leiden door het aantal vingers wat ze hebben.

De keuzes voor 40, 100, 400 Gbps en 1 Tbps zijn economisch. Optics voor 40Gbps is veel goedkoper te ontwikkelen en te produceren dan voor 100Gbps. Evenzo met 400Gbps / 1Tbps. 1Tbps optics zijn voor partijen die die echt deze capaciteit nodig hebben en daarvoor willen betalen. (Google, AT&T, etc.) Partijen die meer capaciteit willen hebben, maar niet voldoende geld voor 1Tbps optics kunnen 400Gbps optics gebruiken.

Overigens ging de overstap van 10Mbps naar 100Mbps vrij vlot. De overstap van 100Mbps naar 1Gbps duurde aanmerkelijk langer. 10Gbps en 100Gbps wordt momenteel alleen voor backbones gebruikt van bedrijfsnetwerken en ISP's. Overigens is er weer een kleine opleving van 100Mbps switches, omdat met de introductie van cloud services, bedrijven -per werkplek- niet meer bandbreedte nodig hebben. Zo heeft Cisco een tijdje terug de 2960S ge´ntroduceerd; een L2 gigabit switch. Maar er bleek toch vraag naar een 100Mbps model.
het lijkt mij dat dit komt omdat de techniek fysiek beter wordt, maar de aanpak ervan slimmer bedacht is. je kan er overigens vanuit gaan dat het =- factor 10 is.

wel ben ik zeer benieuwd over wat voor afstanden dit is getest. zul je zien dat het dan helemaal niet meer zo intressant is dan het nu lijkt.
Dat valt wel mee. De verbindingen die je het meeste ziet gaan inderdaad met grote sprongen vooruit, maar er zijn zat technologieen die helemaal niet aan zo'n patroon voldoen.

USB bijvoorbeeld:

USB 1.1 = 12 Mb/s
USB 2.0 = 480Mb/s
Wat ik mij afvraag, waarom gaan die snelheden altijd met een factor 10 omhoog? 2, 4, 8 of iets in die richting zou toch veel logischer zijn?
In tegenstelling to bijvoorbeels geheugenchips, waar het hele ontwerp gewoon verdubbeld en verkleind wordt, is het bij communicatie meer een milestone.
Men spreekt af dat 10->100Gb de volgende stap is en alle fabrikanten werken daar naar toe. Zodra dit gehaald wordt, wordt een onderdeel gecertificeerd. Niet alleen de zender en ontvangers moeten dit aan kunnen maar ook de bekabeling.

Verder is dit allemaal analoog, dus geen bits. Het digitale is pas op een hogere laag.
volgens mij staan internet connectie technieken los van het decimale stelsel waar computer hardware mee te maken hebben
Ben ernstig benieuwd of dit ook echt bruikbaar is op de manier zoals het nu gepresenteerd wordt.

De vooruitgang is goed, maar een 10GB/s verbinding is niet enkel afhankelijk van het signaal wat door een fiber heen getuurd wordt.
Als je een, niet ongebruikelijke, setup neemt van een Cisco 6500 met een sup720 en een 8 ports 10GB/s ( WS-X6708-10G ) kaart krijg je toch echt problemen met de throughput op de backplane en de kaart zelf als je daar een 8 ports 100GB/s van weet te maken.
En dan praten we nog niet over de overhead/redundantie die je op die 8 port 10GB/s kaart heb waarmee er netto 4 bruikbare porten zijn en dus op 40GB/s totaal uitkomt.

Leuke uitvinding, een goed begin van goedkopere snelheidsverhogingen op o.a. backbones, maar niet zomaar bruikbaar zonder hardware changes.

[Reactie gewijzigd door Giftcard op 14 maart 2013 14:45]

Netwerk techniek begint eerst met transmissie snelheden.

Pas als je x Mbps/Gbps/Tbps point-to-point transmissie technieken hebt, pas dan ga je er routers voor bouwen. Het is veel makkelijker om backplanes of crossbar-switches te bouwen die (meerdere keren) 400 Gbps kunnen verwerken, dan om transmissie technieken te bouwen die dat kunnen.

Als die 400 Gbps interfaces er komen, en betaalbaar (*) zijn, dan komt de rest van de router er ook wel.

((*) Betaalbaar in deze context is nog steeds meer dan een jaarsalaris van een gemiddelde tweaker) voor een interface/line-card).
Zou mooi zijn als deze methode binnen de volgende 10 jaar beschikbaar wordt voor particulieren.
Volgens mij moeten de harddisks dan ook een stuk sneller worden...
Ik neem aan dat in die netwerk apparatuur processoren zitten die berekend zijn op een max doorvoer van x poorten maal snelheid per poort. Misschien met een beetje speelruimte, maar ineens 10 x zoveel data moeten verwerken is dan wel knap.

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Websites en communities Lumia Smartphones Laptops Sony Apple Games Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013