Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 104 reacties, 31.464 views •

Twee onderzoeksgroepen uit Japan en de Verenigde Staten claimen beide een doorvoersnelheid van 100Tbps te hebben behaald door één glasvezel. De afstanden waarover deze snelheden mogelijk zijn, blijven echter relatief kort.

Om de doorvoersnelheid op glasvezelverbindingen te kunnen verhogen, worden diverse technieken ontwikkeld en gecombineerd. Zo kunnen laserlichtbundels worden opgesplitst in diverse frequenties en er kan gevarieerd worden met fases en amplitudes. Over de drukste glasvezelkabels in de VS worden 'slechts' enkele terabits per seconde verstuurd. Een onderzoeksgroep van elektronicaconcern NEC en een van het Japanse National Institute of Information and Communications Technology hebben echter aangekondigd meer dan 100Tbps over een glasvezel te hebben verzonden. Daarmee zouden zij records hebben gebroken, zo meldt New Scientist.

NEC gebruikt een techniek waarbij in totaal 370 lasers elk infrarode pulsen door een glasvezel versturen. Daarbij wisten de onderzoekers over een afstand van 165km een doorvoersnelheid van 101,7Tbps te behalen. Ook de Japanse onderzoekers wisten de 100Tbps-grens te doorbreken. Zij gebruikten een glasvezel waarin zeven lichtgeleidende kernen zijn opgenomen, terwijl de huidige vezels slechts één kern hebben. Per kern konden de onderzoekers 15,6Tbps versturen met lichtpulsen via de 'spatial multiplication'-technologie, gecombineerd uitkomend op 109Tbps.

Over welke afstand de Japanse glasvezeltechniek is getest, is niet bekendgemaakt. Naar verwachting zullen dergelijke glasvezelkabels met verschillende kernen per vezel voorlopig alleen binnen datacenters gebruikt worden. De kosten zijn immers hoog vanwege de complexiteit van de kabels. Ook is het technisch nog lastig om dergelijke signalen onderweg te versterken.

Reacties (104)

Reactiefilter:-11040103+148+28+30
Moderatie-faq Wijzig weergave
wat voor een setup hebben ze dan wel niet gehad om dat te halen 12.5TB ps is vele malen meer dan welk dual cpu moederbord met 2x 6core systeem kan wegwerken en meer dan 8300x sneller dan een 1500 MBps ssd !
dat moet een aardige hal vol ssd's en cpu's geweest zijn.
Waarom denken veel mensen dat dit soort verbidningen van PC naar PC gaan. Dit soort bandbreedtes is alleen interessant voor de koppelingen tussen sites. Binnen deze sites wordt dit weer opgesplitst in allerhande subrates als 10/40/100 gbit/s. Op dit moment hebben wij tussen onze DC's ook onze eigen fiber. Hier kunnen we echter maar maximaal 400 gbit/s totaal overheen versturen.
Ik zou in mijn huis best een interne bekabeling willen hebben die potentieel die snelheid aankan, of je het volledig gebruikt boeit niet, want dan kan het gewoon een tijdje mee. Je moet ook niet denken dat dit morgenvroeg in de winkel ligt. Als je je huis volhangt met powerline of wireless kun je elke 2 jaar ook weer alles overnieuw kopen. Ik ga er van uit dat we over 20 jaar geen CAT5E meer gebruiken.
omdat dat is wat mij intereseerd :) ik zou best een gigabit ijntje willen hebben zodat je makkelijker samen films kan kijken snel even een bak data over kan sturen nu is het nog sneller om de data even langs te brengen.
Je hebt natuurlijk geen SSD/HDD nodig om snelheid te testen, je kunt dat gewoon over de RAM laten lopen.
zelfs ram geheugen heb je dan een aardige bak voor nodig en voor cpu's geld hetzelfde
Gegeneerde data denk ik. Met selfgenerating algorythms kun je hele bakken aan data genereren...
Er zijn meer methodes om een bepaald signaal te maken en te bekijken. Ik kan me voorstellen dat er gebruikt gemaakt is van signaalgenerators die oftwel een random bloksignaal of een herhalende reeks heeft uitgestuurd.

Hiervoor heb je dus geen verwerking nodig maar kan je wel het effect zien, bijvoorbeeld door het signaal aan het andere uiteinde te vergelijken met een (vertraagde) versie van het ingangssignaal.

edit:
Koppeling naar elektronica toegevoegd

Vooruitgang in seriele datadoorvoer is niet zo interessant meer, dit zorgt voornamelijk voor extra delay en is lastig te realiseren in elektronica. Deze fibers maken gebruiken van faseverschuivingen om informatie door te geven. Door dit op verschillende frequenties te doen, kan er parallel aan elkaar een heel aantal 'kanalen' over een fiber heen. Hierdoor kan ook de elektronica op bijvoorbeeld 300GHz worden gestuurd.

De elektronica is over het algemeen een stuk minder snel dan de bandbreedte van zo'n kabel; NEC heeft 370 lasers (dus waarschijnlijk >> 370 kanalen) gebruikt om tot deze snelheid te kunnen komen.

[Reactie gewijzigd door joostvanpinxten op 2 mei 2011 14:50]

Jij wil de informatie opslaan?
Zo ja, gestoord.
De providers bufferen misschien data maar zelfs dat gaat niet met zulke volumes.
ik vraag me ook af of dit buiten datacenters e.d. heel erg nuttig is.
Of internet nog groei heeft buiten filmpjes ? Ja hoor en ik denk dat het internet ook leidend kan zijn in het ondersteunen van irl technologie ; totnutoe hebben we bestaande dingen zoals opzoeken, bestellen, filmpjes, muziek, foto's, etc geport naar het online gebeuren en er is al technologie die moeilijk zonder het internet kan (facebook, MMORPG's, @Home's, ...) Met de volgende schaalvergroting (=> 100Mbps -belg-) zitten we aan streaming HD bluray, dus dan hebben we het voorlopig idd gehad met de huidige toepassingen

Vanaf dan kunnen we internet als essentieel component gaan gebruiken ; maw als je alles aansluit, dus alle huidige smartphones aan een deftige snelheid (100Mbps) dan heb je nu toch enkele 10tallen capaciteitsverhoging nodig

stel nu iemand komt op het idee om die dure en energievretende CPU en opslag op je eco rackje thuis te hosten en je een heel goed schermpje met batterijtje en hogesnelheids weetikveelG verbinding verkoopt ; dan kan je wel zeggen dat een schaalvergroting op internet heeft geleid tot een (in mijn ogen) praktische toepassing.

Ik zal een beetje fantaseren over niet al te ver gezochte toepassingen;

3D is heden ten dage stereoscopie (een bepaalde kijkhoek, een bepaalde focus) kortom enkel 2x meer data. Maar als je de positie van elke pixel wilt in een hoge resolutie 3D bitmap bijvoorbeeld en je wil of kan het niet vectorieel aanpakken dan wil je wel graag aan 100x sneller kunnen communiceren met de buiten wereld. Robocams / 3D printen / CNC freezen kan je heden ten dage zelfbouwen voor enkele honderden euro's dus ik zie dat nog wel boomen leunend op het internet binnen onafzienbare tijd.

een andere sector die met 1Gbps-10Gbps aan jouw voordeur wel raad weet is kantoorvirtualisatie ; nu daar is er ook goodwill voor nodig maar als je baas je aan 100x hogere resolutie in de gaten kan houden is hij er misschien wel voor te vinden

Mijn gedacht: 2x capaciteit per jaar is veels te traag om onze creativiteit te beteugelen. Maar echt tergend traag, zeker hier in België.
Zeker! Dit lijkt me zeer interessant om verschillende datacenters met elkaar te verbinden of om Internet exchange points (IXPs) met elkaar te verbinden of met de netwerken van internet service providers (ISPs). Met andere woorden zal de backbone van het Internet pakken sneller worden en zullen ook de ISPs hogere snelheden kunnen aanbieden (mits je natuurlijk fiber to the home krijgt want echt hogere snelheden zullen ze niet meer kunnen halen uit een antieke telefoonkabel).
Dit is atm nog zwaar overkill zelfs voor het aan elkaar knopen van IXPs. De AMS-IX trekt deze verbinding bvb slechts 1% vol.

Uiteraard voor de toekomst wel weer leuk als we in Nederland 2 mln gigabit glasvezelverbindingkjes hebben liggen met een overboekingsfactor van slechts 20 :9

[Reactie gewijzigd door -Niels- op 2 mei 2011 14:39]

"Het Amsterdamse internetknooppunt AMS-IX heeft dinsdag de grens van 1 terabit per seconde aangetikt. Het verkeer op het knooppunt is in de afgelopen twee jaar meer dan verdubbeld. Het ipv6-verkeer groeide minder snel dan het ipv4-verkeer."

Als dit blijft aanhouden zitten we aan 2tbit binnen 2 jaar, 4tb binnen 4 jaar, 8tbit binnen 6 jaar, 16tbit binnen 8 jaar, 32tbit binnen 10 jaar, 64tbit binnen 12 jaar ....

Nu is het misschien overkill, maar wat als we nu niet hernieuwen en binnen 10 jaar we met enorme problemen qua overbelasting zitten? Een kabeltje door de zee leggen doe je niet op één twee drie.
Deze snelheden zijn duidelijk een stuk beter dan mijn adsl... Tijd dat kpn eens wat aan die enorme gapende kloof gaat doen.
Toen ik nog in mijn studentenkamer zat had ik nog een 100 mbit lijn. Dat was teminste lekker
Toen ze 50 jaar geleden die koperen telefoonlijnen overal in de grond pleurden hadden ze nooit in gedachten gehad dat er op DSL snelheiden communicatielinks over zouden moeten en kunnen gaan.

Ziggo kabel bied 120Mbps max aan. In de praktijk nooit gehaald maar trek je als zware gebruiker serieus niet vol al loop je er met 6 mensen op te streamen, downloadeen en gamen.
Misschien een domme vraag maar hoe willen ze het getest hebben dat ze 100Tb/s succesvol over een kabeltje hebben gekregen? Het lijkt mij voor de hand dat je alle data die je verstuurd hebt moet opslaan om deze daarna te controleren. Ik heb geen idee hoe ze een systeem vinden waar je met 100Tb/s naar kunt schrijven.
Met goede checksums op de inkomende data is dat snel opgelost. Je hoeft dan niets op te slaan, maar kan alles via de processor laten lopen die enkel een checksum berekend. Met een beetje checksum kun je de kans dat je foute data als goed aanziet terug brengen tot een astronomisch lage (bestaat dat? ;) ) kans.
Z'n vraag is natuurlijk wel logisch, 100Tb/s is toch nog 12,5TB/s. Je huis/tuin/keuken i7 haalt net 100GB/s in z'n L1 cache, wat gebruiken ze om de data te genereren en verwerken?
Gebruiken ze uberhaupt een computer, of sturen ze gewoon een (idoot hoog frequente) puls van 0en en 1en en kijken ze of hetzelfde patroon aankomt? Dat lijkt me voor de hand liggender, in dat geval kunnen ze adhv de frequentie de theoretische bandbreedte gewoon uitlezen.
Wie zegt dat er maar één PC per kant staat. Een kabel met zulke hoge snelheden lijk me dan ook bedoeld als "breedband" verbinding (in de originele betekenis van het woord)
Met andere woorden, aan beide kanten van de kabel een heel netwerk vol computers, de ene kant laten zenden, de andere kant laten ontvangen. Als je maar genoeg bakken neerzet en maar laat pompen, dan haal je dat wel hoor.
Als je de data genereert met een algoritme, dan kan je aan de andere kant ook eenvoudig checken of de lokaal met hetzelfde algoritme gegenereerde data overeenkomt met de verzonden data. Bijvoorbeeld. Er zijn vast andere manieren, maar heen en weer gaan lopen het HD's lijkt me geen oplossing ;)

[Reactie gewijzigd door ATS op 2 mei 2011 15:20]

Ze laten een mannetje met honderden (waarschijnlijk meer) harddisks heen en weer lopen. :P
165 km ... is meer dan genoeg voor de aansluiting van mijn huis op de backbone in amsterdam. Laat maar komen!
NEC gebruikt een techniek waarbij in totaal 370 lasers elk infrarode pulsen door een glasvezel versturen.
Gaat dat dan parallel of sequentieel?

[Reactie gewijzigd door tes_shavon op 2 mei 2011 14:30]

lol sequentieel natuurlijk
... te hebben behaald over één glasvezel
hoe kun je nou parallel doen op 1 draadje glasvezel? lijkt me knap
hoe kun je nou parallel doen op 1 draadje glasvezel? lijkt me knap
Volgens mij kunnen ze zoiets prima doen door meerdere kleuren licht tegelijkertijd te sturen over 1 adertje.
Denk maar eens aan die lichtstraal door een prisma die zich in verschillende kleuren opsplitst.
Zet een hoop sensors in die kleurengebieden en je kan net zoveel verschillende parallele kanalen ontvangen als jij sensors kwijt kunt (in theorie dus bijna oneindig) aan de ontvangszijde, aan de zendkant gebruik je de omgekeerde tactiek om de data in te koppelen in de glasvezel (lasers met verschillende frequenties/kleuren).
Gebruik van bovenstaande techniek staat nog maar in de kinderschoenen en kun je in principe bij elke reeds bestaande glasvezel gebruiken.
m.a.w. "gratis" een gigantische capaciteitsuitbreiding zonder de kabels te vernieuwen.
Het inkoppel verlies is natuurlijk wel veel hoger als bij conventionele technieken waarbij er maar een laser iets verstuurd en je alle ruimte hebt om deze laser z'n licht perfect te laten inkoppelen.
Het probleem is ook natuurlijk dat je dit signaal, wat dus een complete chaos tussen begin en eindpunt is, niet eventjes kunt versterken om grote afstanden te overbruggen. Met 1 laserbron is dat natuurlijk heel simpel. Elk voordeel heeft weer een nadeel.

[Reactie gewijzigd door een_naam op 2 mei 2011 15:56]

dat is de hele grap.

door licht met verschillende frequenties te versturen kan het wel parallel

De KPN Quests van deze wereld zijn naar de knoppen gegaan toen hun dure kabeltjes plots een veelvoud aan capaciteit konden verstouwen. (na deze uitvinding).

van het ene op het andere moment een overcapaciteit waar je U tegen moet zeggen, en ja dan gaan de prijzen wat omlaag.
golflengte = snelheid/frequentie
waar de snelheid de lichtsnelheid is, deze is constant,
dus als je de frequentie verandert, verandert de golflengte ook.
De snelheid van licht is afhankelijk van de brekingsindex van het medium waarin de lichtstraal zich voortplant, en aangezien glasvezelkabels geen constante brekingsindex hebben, maar in de kern een hogere en tegen de mantel een lagere, zorgt dat ervoor dat de lichtgolven die dreigen afgeketst te worden op de mantel terug naar de kern worden gebogen (zoals een fata morgana), en dat ze in de buurt van de mantel ook sneller reizen, zodat ze niet beginnen achterlopen op de stralen die mooi door de kern reizen en een kleinere afstand afleggen. Dat is toch wat wij gezien hebben in de inleiding van glasvezel-technologie in de context van lichtbreking tijdens de les fysica.
@DevilsProphet: Foei! De lichtsnelheid is constant. In elk medium, stelsel, wat dan ook.

(Je weet de uitdrukking: "Alles is relatief": die komt daarvan daan. Alles is relatief aan de lichtsnelheid. Die is dus constant)

*Edit: whoops spellen is moeilijk soms..

[Reactie gewijzigd door MTFDarkEagle op 13 mei 2011 01:13]

Frequentie kan ook :>
Bijvoorbeeld met meerdere signalen met verschillende frequenties. Die storen elkaar niet, mits goed gekozen, en kunnen zo tegelijkertijd over de kabel worden gestuurd.
Klopt dat noemen ze (dense) wavelength-division multiplexing ((D)WDM):
In fiber-optic communications, wavelength-division multiplexing (WDM) is a technology which multiplexes a number of optical carrier signals onto a single optical fiber by using different wavelengths (colours) of laser light. This technique enables bidirectional communications over one strand of fiber, as well as multiplication of capacity.
Wikipedia: Wavelength-division multiplexing
een laser is monochromatisch: er komt dus licht met een zeer beperkte bandbreedte (ik doel hier op het frequentiespectrum van het licht, niet over de datacapaciteit).

Door verschillende lasers met een verschillende werkfrequentie in parallel te gebruiken kan je veel meer gegevens over dezelfde glasvezel sturen. Op het einde van de kabel moet je dan het gecombineerde signaal weer ontbinden om er wijs uit te geraken.

In mensentaal: je buur heeft een gele en een blauwe seinlamp. Jij kan 3 signalen ontvangen: geel, blauw en groen. Dus met één puls kan hij 2 bits overmaken.
't Is een poosje geleden voor mij, maar kom je niet ergens in de knoop met dispersie relaties, en met het aan-uit schakeleffect (voor enen en nullen) waardoor monochromatisch licht in één keer een volledig spectrum gaat opbouwen? Monochromatisch licht blijft enkel monochromatisch als het continue aan blijft.

Maar zoals eerder gezegd, het is een poosje geleden.
Nee, dispersie ontstaat doordat een lichtstraal verschillende wegen bewandeld door de glasvezel, 1tje rechtdoor andere ondere een grote hoek, hierdoor blijft er aan het andere eind van je vezel, een veel minder mooi signaal over dan dat je erin had gestuurd. (lagere amplitude, veel minder strakke puls dan die mooie blokpuls die je erin had gestuurd), ook de frequentie van je laser is nooit helemaal perfect dit zorgt ook voor het dispersie effect en de glasvezel zal ook nooit 100% homogeen zijn waardoor er delen zijn waardoor het licht iets sneller of langzamer zal gaan.

[Reactie gewijzigd door een_naam op 2 mei 2011 17:55]

dat is 1 van de mogelijke manieren, bij Step index multimode vezels had je dat nog wel, bij Graded index multimode wordt dat opgevangen door het parabolisch verloop van het indexprofiel, waardoor de lichtsnelheid aan de randen van de kern toeneemt en de langere lichtweg wordt gecompenseerd.
Maar je hebt ook nog chromatische dispersie en polarisatie mode dispersie (SM) en nog wat meer.
Bepalend is het zgn eye pattern, dat bepaald of de pulsen aan de ontvangende kant nog apart kunnen worden onderscheiden.

Overigens zijn er ook technieken om bij sommige dispersieverschijnselen dit tegen te gaan (zelfs met andere vezels)
Lichtpolarisatie is ook nog een mogelijkheid.
Is dat zo? Hoe werkt dat dan?
Je weet natuurlijk na 167 km nooit of je vezeltje een kwart slag getordeerd is.
Polarisatie is natuurlijk niet gewoon het draaien van licht in fysieke zin.
Dus hoe de kabel draait maakt helemaal niet uit ;)
(bovendien zit het licht niet 'vast' aan de kabel, dus als de kabel draait hoeft het licht niet 'mee te draaien'
En ik ben het het Wicked eens, polarisatie lijkt mij ook een goed plan.
Op dat soort snelheden krijg je eerder beperking vanwege de lees/schrijfsnelheid van harde schijven.
Op een pak tragere verbindingen dan deze krijg je ook al beperkingen vanwege de snelheden van harde schijven.
"Glasvezel met meerdere kernen" tjaa het is maar hoe je het benoemt. Voor mij is een is een vezel met meerdere kernen niet 1 glaszevel --> Per kern konden de onderzoekers 15,6Tbps versturen

"Kijk jongens we hebben de snelste auto te wereld. Met 5 auto's reden we 1005 kilometer per uur! Bijna geluidssnelheid!"
Het gaat hier om de totale data-stream die over een enkele vezel kan lopen niet de doorvoersnelheid van een enkele stream en dus parallellisatie over een enkele vezel.

Een multicore CPU is nog steeds 1 CPU.
Hangt af van je definitie van vezel, maar volgens mij hebben ze 7 kernen (=7 glasdraadjes) in een vezel (betekent hier kabel dus beetje kromme term) gestopt... Ik ben het volgens mij eens met johan2009 en is het iets minder bijzonder dan het lijkt...

[Reactie gewijzigd door AugmentoR op 3 mei 2011 00:11]

ja als je een vezel zo defineert, zou ik het eerder kabel noemen,
en ja, dan heb ik, net als bij een koperkabel, meerdere draadjes in mijn kabel zitten...
Ik dacht ook al die hebben gecheat want nu moet je overal nieuwe vezels gaan leggen, dat lijkt me iets makkelijker dan op bestaande netwerk snelheden verhogen.
Helaas te kort voor een transcontinentale verbinding. Maar voor de rest wel een mooie ontwikkeling.
Als dit beschikbaar komt voor iedereen is het niet te betalen zo duur...
Neem vier van de grootste harde schijven die je kunt kopen (3TB) en vul deze tot de rand toe met data. Het equivalent van al deze data weet men in een seconde over een glasvezel te transporteren. Het blijft boeiend om je op deze manier een voorstelling te maken van deze topprestatie.

Je kunt er ook van maken: 2500 DVD's
Of 10 miljoen telefoongesprekken (één seconde daarvan ;) )
Of van alle mensen op de wereld hun pasfoto


Een reële datastroom met zo'n enorme bandbreedte moet dan ook in zeer veel kleinere stromen opgesplitst worden, wil men het kunnen opslaan.

[Reactie gewijzigd door Timfonie op 2 mei 2011 16:28]

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True