Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

Wetenschappers van de Bangor University in Wales willen een nieuwe netwerktechnologie voor 20Gbps-snelheden binnen drie jaar geschikt maken om commercieel te worden verspreid. De snelheden zouden met de techniek op te rekken zijn naar 40Gbps.

De onderzoekers werken aan het verbeteren van optical orthogonal frequency division multiplexing of oofdm. Orthogonal frequency division multiplexing wordt al gebruikt en de optische variant is al langer een kandidaat om de snelheid van glasvezelnetwerken flink te verhogen. Het vormt een oplossing van het dispersieprobleem; lichtstralen die de zender tegelijk verstuurt, komen niet tegelijk bij de ontvanger aan. Gevolg van dit probleem is onder andere dat er meer fouten in het signaal kunnen ontstaan naarmate de lengte van de kabels toeneemt.

De oplossing is om verschillende signalen over paden met verschillende frequenties te versturen, maar het goedkoop en efficiënt omzetten van de data in elektrische golven en vervolgens in een optisch signaal bleek tot nu toe lastig. "Er zijn waarschijnlijk meer dan tien onderzoeksgroepen op de wereld die naar dit probleem kijken, maar wij zijn de enigen die een end-to-end-systeem hebben", zegt Roger Giddings van het Bangor University-onderzoeksteam, dat als onderdeel van het Ocean-project aan de techniek werkt.

Het team heeft een werkende kit, bestaande uit een zender en een ontvanger, die het signaal in realtime kunnen coderen en decoderen. Het team weet al een snelheid van 20Gbps te realiseren en denkt dat 40Gbps binnen handbereik ligt. Binnen drie jaar verwacht het team dat de kit is verwerkt in een module die het startpunt kan vormen voor commercieel gebruik, schrijft de BBC.

Moderatie-faq Wijzig weergave

Reacties (47)

Beetje achtergrond: OFDM is een techniek waarin een bepaald stuk bandbreedte (van freq. A tot freq B met A <= B) wordt opgedeeld in kleinere channels die invidueel kanaal gocodeerd worden met bijvoorbeeld BPSK (of bekender, bijvoorbeeld FM/AM, een vorm van modulatie). De techniek wordt al gebruikt in de wifi G standaard boven de 11Mbit. Hierbij worden 54 kanalen opgezet met 2 control channels en 21 lijnen waarover BSPK of QPSK loopt.

In de N standaard zit dit uiteraard ook naast MIMO ter verhoging van de snelheid en er worden complexere vormen van channel coding gebruikt voor hogere datarates (MCS0-7 voor 150Mbit op 2.4GHz). DVB-? gebruikt het ook (intensiever).

Het voordeel van OFDM is dat storing minder invloed heeft omdat dit veelal optreed op bepaalde subkanalen van OFDM en symbol encoding (solomon-reed/viterbi op CD) dit opvangt. De toekomst zit overigens in turbo codes omdat deze op -1.6dB de Shannon-Nyquist information entropy limit benaderd echter zijn deze bijzonder belastend. Zover ik weet worden deze gebruikt in 3G tech.

150Mbit op 2.4GHz is overigens een backport vanuit de N standaard qua channel encoding netzoals IPSec dat is voor IPv4, dat oorspronkelijk uit IPv6 komt.

Als dit stukje tekst je boeit, lees dan 'Modern Electronic Communication' Jeffrey S. Beasley/Gary M Miller door Prentice Hall (ISBN-13: 978-0-13-22113-6)

[Reactie gewijzigd door analog_ op 6 november 2012 12:16]

mooi hoor, snel kunne downlaoden en uploaden. maar WAAROM zo veel. ik hoef thuis echt niet zo snel internet te hebben. als ik aan het gamen ben heb ik maar een vertraging van 4-9 ms. ik hoef echt niet nog lager te komen met mijn paketjes over en weer te sturen.

het enige waar dit handig voor zou zijn thuis, is als je thuis een dikke server hebt staan of erg veel met torrents bezig bent.

leuk dat dit kan, maar sorry hoor beetje een overkill

*EDIT*
sorry ik zag het woord commercieel over het hoofd

maar dan als nog voor thuis zal dit echt nooit nodig zijn :)

[Reactie gewijzigd door Steelbound op 6 november 2012 11:18]

Dit gaat natuurlijk niet om jouw verbinding thuis, iets groter denken ;)

Grote internet-knooppunten of wijkcentrales zullen blij zijn met dergelijke technieken.

Verder heeft latency helemaal niet direct met bandbreedte te maken:
Latency = hoeveel vertraging bij een IP-packet van A naar B?
Bandbreedte = hoeveel IP-packets kunnen gelijktijdig van A naar B?
(Denk maar aan een snelweg, des te meer rijbanen des te meer auto's zich gelijktijdig op de weg kunnen bevinden (bandbreedte), maar de tijd om van A naar B te komen veranderd niet. (de latency))

[edit1]
sorry ik zag het woord commercieel over het hoofd

maar dan als nog voor thuis zal dit echt nooit nodig zijn :)
Ook dat ben ik niet met je eens. Ik denk dat je er nog raar van staat te kijken over een aantal jaar. Ik vermoed dat dit over een aantal jaar gangbaar, of in ieder geval niet meer overkill is voor thuis. Als je beseft dat we +/- 15 jaar geleden nog met een 56k lijntje zaten en er nu al GBit internet mogelijk is tot aan huis.
[/edit1]

[Reactie gewijzigd door mister X630 op 6 november 2012 15:44]

Latency heeft afaik wel degelijk te maken met bandbreedte. Hoe snel je 1500 bytes op de draad zetten, is afhankelijk van de snelheid van de interface (bandbreedte). Bij een store and forward mechanisme (wat volgens mij nog steeds alle routers gebruiken, cut-through bestaat imho alleen in switch land) moet je eerst het hele pakket binnenhalen voordat je het kan forwarden.

Je latency bestaat dus uit per hop:
- Binnenhalen pakket
- Processen
- Uitsturen pakket
- Afstand kabel naar next-hop*snelheid licht

[edit]
Zie bijvoorbeeld onderstaand document en quote hieruit:

"A 10-Gbps egress port will transmit
1 bit of the data in one-tenth the time of the 1-Gbps ingress interface."

http://www.cisco.com/en/U...hite_paper_c11-465436.pdf

[Reactie gewijzigd door Dennizz op 6 november 2012 12:16]

Dat klopt helemaal, alleen kan die 1Gbps verbinding nog altijd minder latency hebben dan die 10Gbit verbinding.
Latency heeft te maken met debandbreedte, maar ook met het protocol. Infiniband bijvoorbeeld heeft een veel lagere latency, met foefjes die je nu ook ziet in produkten als Intel Neteffect adapters. Iwarp en rdma zijn denk ik veel betere dingen op de korte termijn.
Dit gaat helemaal niet over je internetverbinding maar over netwerktechnologie welke primair voor het LAN bedoeld is. Ideaal voor serverparken en clusters. Ook leuk voor je LAN op kantoor en later ook thuis maar zeker nog niet voor je uplink met het Internet.
jawel hoor LAN en WAN versmelten steeds meer met elkaar. 10 gigabit tussen datacenters is al heel normaal tegenwoordig.
Hoezo overkill? Bandbreedte kun je imho nooit genoeg van hebben.
Ben ik het enigszins mee eens, maar als je z snel internet hebt dat al je harde schijven/SSD's in huis het niet meer weg kunnen schrijven, is het toch wel overkill vind ik...
FLYhard slaat hier de spijker wel op zijn kop, maar het is inderdaad zo, waarom blijven we toch hangen in de Harddisks? Die hoef je dan niet meer! Ole!
alles in de cloud lijkt handig.. tot je internet er een keer uit ligt.
gisteren, bijvoorbeeld, 8 uur lang!
Internetstoring KPN voorbij 05/11/12, 11:58 − bron: ANP

om maar niet te beginnen over cloudservers die gehackt kunnen worden.

[Reactie gewijzigd door Webjunkie op 6 november 2012 14:15]

Imho is cloud iets wat je als particulier kunt hebben naast lokale opslag.

Cloud voor bedrijven zie ik eerder als een bedreiging voor continuiteit dan een verbetering. Eventueel is het wel geschikt voor backups. Mits zwaar versleuteld.

Back-on-topic:

Commercieel kan natuurlijk ook zijn voor aanbod aan prive adressen.
Daar verdiend een ISP ook gewoon een gedeelte van zijn omzet mee.
FLYhard slaat hier de spijker wel op zijn kop, maar het is inderdaad zo, waarom blijven we toch hangen in de Harddisks? Die hoef je dan niet meer! Ole!
Omdat je een ander jouw data niet moet laten beheren. Als er iets gebeurt ben je het kwijt, is het niet toegankelijk wanneer je wilt, of anders wordt erin rondgeneusd.

Daarom lokale opslag. Het is aan jou om te kiezen welke data je waar gooit.
maar met zo een snelheid kun je ook out of de box gaan denken.
Je kan het internet als een harde schijf gebruiken je hoeft dingen niet meer lokaal op te slaan omdat ze immers net zo snel van internet gehaald kunnen worden.
Mja, dat kan nu ook al hoor. Hoeveel toepassingen kun jij verzinnen waar 1 Gbps of zelfs 100 Mbps niet voldoende is, maar die geen problemen hebben met de hogere latency? Die ga je namelijk altijd houden.
Het is natuurlijk wat anders als je een bedrijf bent en je laat 100 users dit tegelijk doen.
Nou ja, bij ons staan meerdere computers te ratelen en downloaden, dus je kan het zeker wel gebruiken, maar een beetje overkill is het wel idd.
Waar in het artikel zie jij dat ze het over thuis hebben? Dit is voor bedrijven met flinke datacenters, of providers en internetknooppunten.
ow sorry mijn fout, er staat commercieel, zag dat over het hoofd
De down- en upload snelheid hebben op zich niet zoveel invloed op je latency in games. Eerder hoe ver jij van jouw provider af zit. Natuurlijk is het niet compleet los te koppelen van elkaar, maar het is niet alsof je met 40 Gbps gegarandeerd 1 ms haalt.
maar WAAROM zo veel.
Waarom zou je stoppen met ontwikkelen? Stenen wielen waren ook relatief rond en bruikbaar, maar ik denk dat je toch echt liever de banden van tegenwoordig gebruikt ;)

[Reactie gewijzigd door Arachnan op 6 november 2012 11:18]

ou tegenwoordig heeft je internet snelheid wel degelijk te maken met je latency in games. want games vragen tegenwoordig zoveel data op dat peer-to-peer wenselijker is. denk maar een aan het wisselen van host in COD. als pakketjes sneller worden verstuurt zal reactiesnelheid in games ook veel beter worden. want lagg komt door internetverbinding en FPS drop door je specs. deze worden ook trouwens vaak dooor elkaar gehaald. als ik in de trein met mijn razer blade wil gamen, kan dat gewoon op ultra, maar ik heb lagg als de pest
steelbound>> zo ja en nee jij denkt er heel klein tegenaan dat yeeeey leuk nog sneller downloaden maar de extra functies zie je er niet van in...

als er overal een 20gb netwerk is zowel kabel als draadloos waarvoor dit ook ontwikkeld word kan er met de projecten die er nu bezig zijn over verschillende plekken op de aarde om overal Wifi dekking te geven inplaatst 3g,4g (LTE).

is het ook mogelijk alles via een cloud servers te doen en kan alles verzonden worden zonder het op je telefoon voorbeeld op teslaan of kan je gewoon een lullig soort van tablet zonder enig iets er op geinstalleerd behalve waarhij heen moet verbinden... waardoor informatie sneller en overal beschikbaar is. ook zullen er over de jaren bestanden groter worden waardoor er sneller internet nodig zal zijn

.. ps voor enige spelfouten
Commercieel of niet, het gaat hier over netwerktechnologie en niet specifiek over het Internet.
Het internet gebruikt netwerktechnologie, want het is een netwerk, maar is bijlange niet de enige toepassing ervan.

Tegen dat dit toegepast wordt in non-bedrijf situaties zullen we al redelijk wat verder staan, ze spreken nu al over 3 jaar voor men het kan introduceren voor bedrijven. Tegen dat het betaal- en inzetbaar is voor tweakers zullen we allemaal al bezig zijn met 4K/8K UHD streaming (en wie weet wat voor netwerkbandbreedte-vretende toepassingen) en zal dit al beginnen wat meer nut hebben voor ons.

*edit* Na herlezen, het gaat hier over een techniek over lange afstanden, dus zowiezo niet bedoeld voor kleine LAN's maar wel voor WAN's en grote LAN's.

[Reactie gewijzigd door TwEeD op 6 november 2012 14:08]

mooi hoor, snel kunne downlaoden en uploaden. maar WAAROM zo veel. ik hoef thuis echt niet zo snel internet te hebben. als ik aan het gamen ben heb ik maar een vertraging van 4-9 ms. ik hoef echt niet nog lager te komen met mijn paketjes over en weer te sturen.

het enige waar dit handig voor zou zijn thuis, is als je thuis een dikke server hebt staan of erg veel met torrents bezig bent.

leuk dat dit kan, maar sorry hoor beetje een overkill
Ehh. Er staat "voor commercieel gebruik". Dat is niet hetzelfde als "voor thuisgebruik". Dit zou kunnen werken voor backbones, in (ultra) high speed rekencentra, en dat soort dingen.
Er staat "voor commercieel gebruik" als in "voor verkoop door commerciele partijen".

Hoe je het vervolgens inzet is je eigen zaak. Als jij thuis 20gbps OFDM glasvezel wilt hebben: moeje zelf weten.
Net zoals Gbit enkele jaren geleden als overkill werd bestempeld voor thuisgebruik terwijl nu bijna elk netwerk device Gbit ondersteund...
Als elk systeem Gbit ondersteunt, wil dat niet zeggen dat het ook nodig is. Bij de meeste mensen thuis zal 100MB meer dan genoeg zijn.

Zolang de internet verbinding de bottleneck is, zijn hogere snelheden voor de gewone mens niet nodig.
Daar zeg je het. De meeste mensen. Maar voor de meeste mensen was 64kB RAM vroeger ook genoeg. Je kunt maar niet lang genoeg doorgaan met ontwikkelen. Weet jij veel wat voor geweldige toepassingen dit straks gaat hebben. Er zijn al initiatieven van bijvoorbeeld games-streamen. Straks kun je misschien op een een 52" retina-scherm je games streamen etc.
We gaan steeds meer in de "cloud" werken. Maar hoe meer dit gebeurt des te meer heb je graag een stabielere snellere verbinding. Als SSD's straks de standaard zijn en je bijna geen snelheidsverlies hebt door je supersnelle verbinding kun je bijvoorbeeld ook gewoon al je films binnen seconden op je centrale SSD-NAS van 256TB zetten etc.
Je ziet sowieso dat er altijd wel behoefte is aan beter. Niet zo lang geleden vond met VGA-resolutie-films al fantastisch. Nu neemt men vaak niet eens genoegen met 760p. Je fotobibliotheek wordt ook steeds groter omdat camera's in steeds betere resolutie gaan opnemen. Je bibliotheek van 80GB in een minuutje uploaden behoort met dit soort technieken straks tot de werkelijkheid.
Waarom stoppen met ontwikkelen als er nog zoveel ruimte voor ontwikkelingen ligt? Wat dit betreft is meer en sneller altijd beter!
Nooit. Right.
Consumenten zouden ook NOOIT een PC nodig hebben volgens de experts een paar decennia geleden.

En zo lang gaat het niet duren dat we aan dit soort snelheden wel behoefte hebben.
Overigens is het verhaal niet helemaal compleet. Technieken die dit probleem aanpakken bestaan al langer.

Het gaat bij deze techniek om het werkend te krijgen op goedkope "traditionele" glasvezel. Voor een aantal grotere backbones is al speciaal glasvezel gelegd en worden speciale modules gebruikt die dit soort effecten tegengaan (dispersie /diffusie etc.). Dit is echter erg duur en kan niet zomaar gebruikt worden zonder de verbindingen overhoop te halen.

Als dit goed werkt is het een zeer interessante applicatie om dit soort verbindingen goedkoper op de markt te brengen.
Als dit werkt zodat ik op oude om1 lijnen 20gbit kan zetten dan is het best de moeite waard als het tenminste niet duurder is als nieuwe leggen...
Ik haal er nog steeds niet uit of het artikel betrekking heeft op een internet verbinding of je locale netwerk. Hoewel in de inleiding wordt gesproken over "nieuwe netwerkwerk technologie" vermoed ik vooral het laatste, maar de methode (OFDM) die wordt uitgelegd kunnen voor meer toepassingen worden ingezet.

Leuk dat bij elke nieuwe ontwikkeling altijd weer wordt geroepen:,.. "is dit nodig?", "overkill", etc.

Voor bijvoorbeeld Cloud storage in combinatie met de steeds groter wordende bestanden is een snelle internet (lees upload) verbinding geen overbodige luxe meer. Ik lees commercieel verspreid (niet commercieel toegepast), dus dit zou voor meerdere doelgroepen kunnen zijn.

Voor locale data opslag (videoproductie) is het voor mij persoonlijk altijd weer een dilemma om gebruik te maken van een DAS (snel, maar beperkte functionaliteit) of een NAS (flexibel, gemakkelijk, maar erg langzaam). Als 10/ 20Gbit netwerk ook bereikbaar wordt thuis situaties, dan zal dit dilemma in n klap worden weggenomen.

Vergeet niet dat er in het artikel gesproken wordt over 3 jaar! Tegen die tijd heeft de HAMR technologie alweer zijn intrede gedaan met schijven tussen de 10-30TB, en ook 4K video (UHD) zal steeds populairder zijn. Zouden we stil blijven staan met de huidige netwerk snelheden, dan wordt je denk ik niet blij als je tussendoor 5TB wilt verplaatsen van locatie A naar B.
Ik haal er nog steeds niet uit of het artikel betrekking heeft op een internet verbinding of je locale netwerk.
Beide, hoewel de OFDM-techniek specifiek bedoeld is voor lange afstanden.

Internet werkt niet opeens met wild andere technieken dan in je lokale netwerk gebruikt (zou kunnen) worden. Alleen de afstanden zijn groter en omdat je nou eenmaal niet naar elk huis glas hebt liggen moet je soms inderdaad een andere fysieke layer gebruiken. Maar er is niks dat ethernet ongeschikt maakt om tussen twee continenten te werken. Sterker: dat is precies wat het doet.
Moah, voor 10G Ethernet heb je nog WANPHY, maar als je naar 100G wilt zul je toch G.709 met FEC moeten gaan gebruiken om de oceaan over te steken.
@Steelbound

Hogere capaciteiten zijn altijd gewenst.
De data behoefte hangt echt niet af van jouw game gedrag, maar denk ook eens aan HD doorgifte van tv kanalen en straks misschien 4k content.

Net als bij opslagmedia, waar je nu nog van zegt 'wat moet je er mee??', is straks alweer te weinig.

Mooie ontwikkeling dus! :)
Dit lijkt mij ook meer bedoeld voor grote bedrijven, ziekenhuizen en universiteiten en niet voor particulieren.
Ik denk dat de meeste particuliere in de randstad tevreden zijn met het huidige aanbod.
Wel leuk maar als ik het goed begrijp is dit bedoeld voor het elektrisch domein en niet voor het optische...
Ik zie niet helemaal wie daar dan aan zouden willen. Als ik moet kiezen en een optische verbinding is maar een klein beetje duurder dan een elektrische dan zou ik toch gek zijn als ik een elektrische verbinding gebruik met als na deel dat ik mocht mijn verkeer groeien niet makkelijk of goedkoop sneller kan werken. Ik zou dan toch echt een optische verbinding gebruiken ook als ik maar 15Gbps nodig heb en dus ook heus wel met elektrisch zou kunnen leven.
Als dit voor het optisch domein is dan vraag ik me af of de fout reductie zo groot is dat het de moeite waard is om deze kit te kopen. Het zal hoe dan ook geen goedkope oplossing zijn de huidige 20 of 40Gbps verbinding voldoet op het moment dus wat is het enorme voordeel van deze kit dat het zijn geld waard maakt.

Ik vraag me af of dit echt de revolutie wordt die het artikel of in ieder geval de onderzoeksgroep er van verwacht. Ik denk eerder dat als het al iets wordt dat het al heel snel een onderdeel wordt van de bestaande productlijnen van de huidige fabrikanten die dit simpel als optie bieden bij hun producten. De grote vraag blijft of de fout reductie de meer kosten waard zijn.
Wow 2.5 gigabyte per seconde.
Als gewone gebruiker is het overkill , maar er zijn genoeg grote bedrijven die hier voor staan te springen. Al is het maar voor offsite back ups en cloud computing.


De meeste thuisgebruikers hebben de komende jaren meer dan genoeg met een 100Mb verbinding
Zulke ontwikkelingen zijn altijd goed, uiteindelijk ook voor de consument. Er is nu namelijk een restrictie -namelijk bandbreedte- weg, wat ervoor zorgt dat men met die wetenschap wellicht dingen gaat ontwikkelen die men anders onmogelijk zou beschouwen omdat internetsnelheden niet hoog genoeg zijn.
Ik heb genoeg Down snelheid op het moment maar mijn Up snelheid vind ik toch wat aan de lage kant.

Dit soort ontwikkelingen zijn zeer wenselijk "Faster then the speed of light, here we come"
De techniek is er allang om meer upload te krijgen op xDSL en kabel (docsis) er is echter geen commercieel belang bij om dit te doen en daarom kan je het niet kopen. Dit ligt absoluut niet aan de standaard maar de concrete implementatie van providers en configuratie.

bv. ik heb een vdsl2 lijn die nu op 30/6Mbit loopt echter weet ik dat hij op 80/20Mbit kan lopen mits het juiste lijnprofiel van mijn provider.

[Reactie gewijzigd door analog_ op 6 november 2012 12:19]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True