Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 109, views: 27.764 •

Een werkgroep van de IEEE wil binnen een jaar een besluit nemen over een nieuwe ethernetstandaard. Er wordt getwijfeld tussen een 400Gbps- of 1Tbps-standaard. De vraag is of 1Tbps haalbaar is met de bestaande netwerktechnologie.

Het besluit over een nieuwe ethernetstandaard zal worden genomen door de IEEE 802.3 Industry Connections Higher Speed Ethernet Consensus-werkgroep. In een eerder uitgebracht rapport met de titel Ethernet Bandwidth Assessment concludeerde de IEEE al dat de vraag naar bandbreedte elke twee jaar zal verdubbelen. Hierdoor zou in 2015 al een terabit per seconde behaald moeten worden over ethernetverbindingen via glazvezel, terwijl in 2020 al 10Tbps nodig zou zijn.

Volgens John D’Ambrosia, voorzitter van de IEEE 802.3-werkgroep, is het de vraag of een 1Tbps-standaard wel economisch haalbaar is; momenteel wordt er binnen de Optical Internetworking Forum gesleuteld aan 25Gbps- en 50Gbps-standaarden, maar een flinke snelheidswinst is nodig om aan de stijgende vraag te kunnen voldoen. Momenteel kunnen er echter door technische beperkingen een beperkt aantal lanes gebruikt worden voor de dataverwerking op chips, terwijl er voor Tbps-snelheden 20 tot 40 lanes nodig zijn. Volgens sommige deskundigen is er een geheel nieuwe modulatietechnologie nodig om hogere snelheden per lane op een economisch haalbare wijze mogelijk te maken.

Om de verwachte toenemende vraag naar data de komende jaren toch te kunnen verwerken, wil de IEEE 802.3-werkgroep binnen een jaar met een definitieve standaard komen. Een optie is om zowel een 400Gbps-specificatie als een 1Tbps-standaard op te stellen zodat deze naast elkaar ontwikkeld kunnen worden. Op een IEEE-vergadering, die op 23 september is gepland, komt er mogelijk meer duidelijkheid over de voorstellen.

Reacties (109)

Reactiefilter:-11090103+153+27+30
"Nobody Will Ever Need More Than 640k RAM!" -- Bill Gates
Dat is nooit door Gates gezegt.
Over 200 jaar zullen dergelijke snelheden onderhand het minimum zijn.
dat denk ik niet zo snel. Tenzij we allemaal continue videobellen op 16K resolutie.

Op backbones, internet exchanges en intercontinentale verbindingen zal 't een ander verhaal zijn, op de AMSiX is 10GbE ook al vrij normaal dacht ik inmiddels.
Ik hoop toch over 20 jaar toch graag holografisch te 'bellen',

Over 200 jaar lopen we in de broekzak rond met alle informatie nu in de wereld, dat gaan we echt niet redden met 1terabit, en draadloos zal het zeker ook wel zijn.

Ik zou graag het jaar 2100 mogen meemaken!
Draadloos betwijfel ik. Over 20 jaar heeft WiFi dezelfde status als asbest nu.
dat, of aluhoedjes hebben die status, je weet het niet je weet het niet...

er is namelijk nog geen ENKEL bewijs dat 2.4ghz echt schadelijk is... en die lange termijn effecten waar iedereen het over heeft, wifi bestaat al weer een tijdje, ik kan me nog wel mijn eerste wifi b kaartje herinneren... die 2 wifi frequenties worden al een poos gebruikt, en hoewel ik redelijk dicht bij een wifi zender heb gwerkt voor een jaartje of wat... nooit iets gevoelt...
Je magnetron hangt ook rond de 2,4GHZ te brullen. Zeker weten dan WIFI schadelijk is, alleen de zendertjes in je router etc zijn niet sterk genoeg.

Ik heb daarom ook nog nooit een 25watt wifi versterker gevonden voor consumenten.
@ AGroenewold

Dat heeft niet met de schadelijkheid alleen te maken dat je die niet hebt gevonden. Hoeveel kilometer wil je met 25watt gaan zenden dan? Over grote afstanden wordt de latency te hoog en dus krijg je een behoorlijk verlies van de pakketjes. Ik heb wifi-netwerken gezien met een latency van seconden i.p.v. milliseconden. Daar is echt niet veel mee te beginnen. Emailen en pagina's laden wil nog net, streamen kun je wel vergeten.

p.s. voor consumenten zijn wifi-versterkers helemaal niet interessant. Met goede antennes aan beide kanten bereik je veel meer. voor berekening EIRP kijk hier: http://www.csgnetwork.com/antennaecalc.html

[Reactie gewijzigd door Conzales op 20 augustus 2012 23:53]

Latency door afstand in een WiFi netwerk? Stel je wilt 10Km overbruggen, radio golven gaan met de snelheid van het licht, je latency is dan: 10K/3E8 = 33E-6 sec. Kortom de latency zit in de router: tranciever, serdes (serializer/de-serializer) en netwerk processor.

Er speelt nog wel een andere factor een rol: Hergebruik van het radio spectrum. Met een 25 Watt router, zou je de draadloze netwerken in een complete wijk platleggen. Tenzij je je internet met iedereen wil delen, niet erg sociaal.
Als je zo bang bent voor WiFi, moet je zeker geen mobiel gebruiken, dat is namelijk vele malen meer vermogen. Bovendien is je hoofd nog eens het meest gevoelig.

Er zijn twee verschillende effecten die radiogolven kunnen hebben op je gezondheid:

1) Celschade, de gevaarlijkste, omdat het tot kanker kan lijden, maar ook de bekenste. Er is heel goed bekend bij welk vermogen celschade kan optreden, regulering zorgt dat we daar ruim onder blijven. Vandaar dus geen 28 Watt Wifi router.

2) Beinvloeding van je zenuwstelsel, inclusief je hersenen. Hier wordt veel onderzoek naar gedaan, en dit is het moeilijkste te doorgronden. Uiteindelijk verwerken je hersenen ook elektrische signalen, en het is bekend dat ze reageren op radio golven. Maar heeft het blijvend invloed op je psychische en/of lichamelijk gezondheid (dus dat je via je zenuwstelsel je organen beinvloed)? Het is denkbaar, maar moeilijk aan te tonen, omdat zoveel meer factoren een rol spelen.

Anyway, als je het zekere voor het onzekere wil nemen, koop een bedraad headsetje voor je mobiel. Dan hou je in ieder geval de zender van je telefoon weg bij je hoofd.
Doen we nu toch ook al? Het heet internet
Hoeveel publieke informatie is dan niet al beschikbaar op het Internet? De hoeveelheid informatie die beschikbaar is heeft bovendien niet zoveel te maken met de overdrachtssnelheid; ten slotte wil je niet lle informatie in n keer opvragen.

[Reactie gewijzigd door ThePendulum op 20 augustus 2012 16:48]

>Ik hoop toch over 20 jaar toch graag holografisch te 'bellen',
Ik neem aan dat jij momenteel ook al video-belt elke keer? Nee? Dan zal je waarschijnlijk ook niet gaan holo-bellen in de toekomst :)
Ik kan me ook niet voorstellen dat je ooit meer nodig hebt, maar mn vader heeft nog een 10MB pcmia kaart liggen voor een hp200lx en dat was toen echt immens veel. Ik weet ook nog dat ik 50eur betaalde voor een 128MB usb-stick...
Ik mis mijn 2 kilo acht (?) centimeter hoge 10 MB MFM schijf... En dan heb ik het over slechts 20 jaar geleden.
En ja, hij was al 10 jaar eerder uitgekomen, de Seagate St-412, maar toen nog zeer normaal. Ik heb er nu 4 nodig voor het opslaan van 1 foto.

Ik denk dat we die Tb verbindingen al veel sneller nodig hebben. Het is voor mij totaal normaal om op mijn werk te gooien met bestanden van 500 GB over het netwerk, en ik ben slechts 1 van de duizenden gebruikers. En dat is slechts intern!
10Gib linken zijn normaal inderdaad.
Offtopic: dit is iets wat Gates nooit gezegd heeft. ;)
Over 200 jaar zullen dergelijke snelheden onderhand het minimum zijn.
Het hangt er van af waar je kijkt. In een Internet Exchange knooppunt zullen ze veel sneller dan dat aan deze grens zitten (= hogere eisen hebben). Iedereen krijgt steeds meer apparaten met internet connecties, dus de infrastructuren zullen mee groeien.

Verder: Als je 5 jaar geleden had gezegd dat het gemiddelde huishouden in 2012 prima een 100/100 mbit verbinding had kunnen betalen (lees kan, niet doet), dan was je door velen uitgelachen. Hell, KPN heeft nu al 500mbit abo's voor prijzen die een gemiddeld huishouden zou kunnen uitgeven er aan. Over een jaar zitten we aan 2 Gbit abo's, over 10 zitten we denk ik al wel aan 200 Gbit.

[Reactie gewijzigd door the_shadow op 20 augustus 2012 14:37]

Offtopic
About 3 million computers get sold every year in China, but people don't pay for the software. Someday they will, though. As long as they are going to steal it, we want them to steal ours. They'll get sort of addicted, and then we'll somehow figure out how to collect sometime in the next decade.


Geweldig! :+
Wat je noemt, kon nog wel eens "on-topic" zijn. Het is niet alleen het on-demand video streamen dat de honger naar band-breette voed. Maar zeker ook die snelle groei van het aantal gebruikers. Tel daarbij op de groei van mobiel internet, dat steeds meer staat op "cloud computing"...
En het grappig is dan dat iedereen steeds sneller internet wilt,
en dan hebben ze sneller internet, en dan hangen ze daar Wifi aan,
of een of andere homeplug adapter.
En dan klagen dat internet helemaal niet sneller wordt... :+
Je bent bekend met de wifi n standaard?
Op sommige plaatsen werkt dat ook voor geen meter.De afstand is relatief kort, het zou moeten werken, maar het werkt daar voor geen meter.
... en zeker niet met zoveel hoofdletters.
Grappig zeker ook omdat dit volgens Bill nooit door Bill gezegd is. En ik heb de beelden een paar jaar geleden gezien waar inderdaad een persoon op een tradefair tijdens de introductie van een nieuw systeem riep dat niemand ooit meer nodig zou hebben dan 640k en dat was echt niet Mr. Gates maar een persvoorlieger van IBM...

Hoe dan ook natuurlijk heb je gelijk dat in de toekomst dit soort snelheden de standaard zullen worden en ik dnek dat 200 jaar wel erg ver gezocht is. Kijkend naar de introductie data van de eerste echt veel gebruikte 10Mbps Ethernet verbindingen in 1979 zijn we nu zo'n 40 jaar verder en is er geen moederbord meer voor de consumenten markt dat niet minimaal een en vaak zelfs twee 1Gbps ethernet verbindingen standaard aan bord heeft.
Zeker voor servers zie je steeds vaker dat de 1Gbps een beperking is en dus is er in die wereld 10Gbps eerder gewoon dan een uitzondering. Maar zelfs dat begint steeds vaker te wringen zeker op de backbone binnen het data center. En dus is ook de 100Gbps een tijdje in gebruik...

De volgende stap die nu overwogen wordt is om de 400Gbps (wordt al een tijdje aangeboden door een aantal bedrijven en zal dan dus simpel weg gestandaardiseerd worden) te gaan gebruiken omdat dit in principe al een bestaande technologie is en men dit dus simpel weg met eventueel een paar kleine wijzigingen kan inzetten als de nieuwe standaard.
De 1Tbps verbinding die eigenlijk de volgende logische stap zou zijn kijkend naar de 10M, 1G, 10G en 100G stappen tot noch toe lijkt simpel weg niet met de huidige manier van werken toe te passen. Een van de grote problemen is dat deze standaard om die reden misschien erg lang op zich zou kunnen laten wachten. En dat is niet goed voor een standaard omdat andere oplossingen dan zich op dit gebied kunnen gaan begeven.

Ik vermoed dan ook dat men beide standaarden zal kiezen de 400Gbps die als tussen stop zal dienen om op die manier de 1Tbps standaard gereed te krijgen. Nu alleen de 400Gbps aan nemen en de 1Tbps laten liggen zou alleen maar voor meer vertraging zorgen bij de aanname van de 1Tbps standaard in de toekomst.
Door nu beide aan te nemen kunnen bedrijven door (er zijn nog al wat bedrijven en zeker overheden die weigeren de 400Gbps connecties te accepteren omdat het geen standaard is en de hardware als de standaard er wel komt dus nutteloos zou kunnen zijn... dit is dan ook de enige reden dat het misschien geen standaard wordt omdat de andere bedrijven die niet hebben mee gewerkt aan dit project en dus ook "nog" geen 400Gbps apparatuur hebben wel mogen stemmen en eventueel tegen dit voorstel stemmen omdat hun concurrent al een flinke voorsprong heeft mocht dit wel een standaard worden.

Al met al is het meer een politiek gebeuren dan iets anders en wil de IEEE simpel weg niet dat er naast de 400Gbps nog meer andere apparatuur op de markt komt die steeds iets verder van de officiele standaard afwijkt.
Ik ben het grotendeels met je eens maar waar zie jij 400Gb al aangeboden worden? Ik ken het alleen van prototypes en labtests, zeker niet van productieomgevingen.

Sterker nog, 100Gb wordt ook nog weinig toegepast. Het is veelal nog duurder dan 10 x 10Gb en de compatibiliteit tussen optics en interfaces van verschillende vendors laat nogal te wensen over. En al blijf je binnen n vendor dan nog zal je zien dat 100Gb meestal alleen in de echte megasystemen is geimplementeerd (bv Cisco, wel op CRS, Nexus kwam een stuk later). De weg is er wel maar de financiele wil nog niet helemaal ;)

Dit gaat over ethernetinterfaces he, niet over WDM optics oid.
Laat simpel weg eens wat vaker simpel weg ;), kon me niet meer concentreren op je verhaal, maar maar op het tellen van 'simpel weg'.
Terwijl het punt van het artikel volgens mij is dat 400Gb en 1Tb zeker niet simpel zijn :)
Over 200 jaar zullen dergelijke snelheden onderhand het minimum zijn.
200 Jaar? Eerder 20 jaar. Als je uitgaat van 1Gbit nu en het verdubbelt elke twee jaar, dan zit je in 2032 op een Tbit. Elke 20 jaar verduizendvoudigt de snelheid als die "wet" blijft gelden.

Hetzelfde gaat ook op voor je internetverbinding, 20 jaar geleden zat men op 56Kbit, nu ongeveer op 50Mbit.

[Reactie gewijzigd door Bonez0r op 21 augustus 2012 17:05]

ja natuurlijk, voor bijvoorbeeld de kabels in de zee of de internetaansluiting van stad naar stad. Als iedereen een 500mbit glasvezelverbinding heeft in rotterdam en ze willen gaan downloaden is daar een hoop bandbreedte voor nodig, en als je een kabel hebt die dan 1 tbps kan doorgeven is dat toch wel handig.
Dit gaat om een ethernet standaard, dus netwerken binnen bedrijven etc.
ISP's, Datacenters, Exchanges, backbone providers, het zijn allemaal bedrijven en allemaal gebruiken ze ook Ethernet naast diverse andere technologien. Deze technologie is zeker ook voor Internet van belang.
KPN gebruikt glasvezel ethernet in z'n telefonie netwerk. (PSTN is al een tijdje VoIP vanaf het kastje in de straat.) Ethernet is dus niet alleen maar voor binnenshuis en andere gebouwen.
500mbit, en dan kabels van 1tb - dat heb je op z'n minst wel nodig ja... als ik het me goed weet te herinneren is de fiber wijkcentrale waar ik op aangesloten zit namelijk al voorzien van 2k endpoints.

als je veel minder dan dat gebruikt voor je uplink kom je echt al snel in de knoei als je die allemaal 500mbit wilt kunnen bieden, (vergeet niet dat je zo'n investering plant voor wat je de komende 10 jaar verwacht nodig te hebben, en niet op wat je nu nodig hebt)...

nu praat ik natuurlijk wel over wijkcentrales, en daarmee kun je voorlopig dus nog prima 1 op 20 oversellen waardoor je met een stuk of 5 100gbit kabels ook prima af kunt...

maar de stap naar 400 of 1000gbit is dan toch al snel gemaakt, zeker omdat we hier pas beginnen met denken over deze standaard, en men dus nog lang niet toe is aan het daadwerkelijk verkopen van de eerste tbit nic...

moet je je voor de grap ook eens proberen te realiseren dat je dus ook 48poots tbit switches gaat nodig hebben op den duur daar heb je toch wel een bakbeest van een npu voor nodig...
waarom, daar hebben we glasvezels voor?
Ethernet kan ook over glasvezel hoor. Ik neem aan dat de 1Tbps standaard waar men het hier over heeft zeer zeker niet over koper gaat.
Het moet, dus het zal gehaald worden. Kijk maar eens 10 jaar terug. toen was je blij met je ISDN aansluiting omdat je 2 keer zo snel was als de 56K modem van de buurman :D
10 Jaar geleden was ISDN al lang niet meer acceptabel. Niet voor gamers, niet voor techneuten, early-adapters etc.

In 1999 kregen we de eerste kabel-internet aansluitingen in Nederland. 1 Mbps en sneller. Ik had Chello/UPC internet in de stad in Februari 2000.

Ik weet niet wanneer ADSL werd geimplementeerd, maar in voorjaar 2002 had ik al ADSL hier in het buitengebied. ADSL in steden moet dus al in 2000 or 2001 beschikbaar zijn geweest.

Ik weet nog dat Ethernet (10 Mbps) bloedjesnel was. In de jaren tachting.
Ik weet nog dat FDDI kwam (lan over fiber, 100 Mbps). Duur. 1991 of zo.
Ik weet nog dat er FastEthernet kwam. Midden jaren negentig. 100 Mbps over een telefoon-koperdraadje. Ongelofelijk.

Ik heb nog een t-shirt liggen van het team dat de lancering deed van de eerste 622Mbps linecard in een BFR (cisco 12000). 622 Mbps over one wave ! Zomer 1997 of zo. Niet lang daarna kwamen de GigEthernet interfaces.

In 2000 waren we bezig (bij een startup) om linecards te maken waar je 4x 10Gig Ethernet of SDM/Sonet in kon steken. De chips werden ontworpen om 40 Gbps verbindingen over een fiberpair te ondersteunen. Die hardware was operationeel ergens in 2003 of zo.

En daar is het lang blijven steken. 40 Gbps. Je hebt DWDM die meerdere 40 Gbps kanalen over een fiberpair kunnen sturen. Erg duur. Er is 100 Gbps ethernet, maar dat is volgens mij nog steeds zeldzaam. De standaard voor 100 Gbps ethernet is van 2007-2010. En dat is allemaal voor telcos en WANs. 10 Gbps is de veelvoorkomende standaard. En die hebben we al 10 jaar. Het is hoog tijd voor iets snellers.

[Reactie gewijzigd door gryz op 21 augustus 2012 01:34]

In 1999 kregen we de eerste kabel-internet aansluitingen in Nederland. 1 Mbps en sneller. Ik had Chello/UPC internet in de stad in Februari 2000.
In 1996 had ik kabel internet in Veenendaal via NKM Netwerken (nu Ziggo). In Ede hadden ze ook al Kabel internet toen.

Overigens was toen inderdaad ISDN en ISDN-2 behoorlijk snel, want internet via de kabel was niet echt lekker. Vandaar dat ADSL toen de bom was :-)
In 1996 had ik kabel internet in Veenendaal via NKM Netwerken (nu Ziggo). In Ede hadden ze ook al Kabel internet toen.
1996 ? Weet je het zeker ?
Misschien een kleinschalig experiment van NKM ? Met experimentele hardware ?

http://en.wikipedia.org/wiki/DOCSIS#History
The first specification, version 1.0, was issued in March 1997.
http://nl.wikipedia.org/wiki/Kabelinternet_%28Nederland%29
CAIW was de eerste aanbieder van kabelinternet in Nederland. Sinds 1995 is hun kabeltelevisienetwerk niet alleen in gebruik voor radio en televisie, maar wordt het ook gebruikt voor internet via de kabel. Dat was overigens geen "breedband" maar maximaal 64kbps. In 1997 volgden A2000 (Amsterdam) en Telekabel (Leeuwarden)
1996 in Veenendaal klinkt wel heel vroeg. Weet je zeker dat je je niet 1 of 2 jaartjes vergist ? :)

[Reactie gewijzigd door gryz op 20 augustus 2012 17:06]

Ik had in 1996 ook al kabel internet in Haarlem via Multiweb. Zat bij de eerste proef van 100 gebruikers, daarna nam het snel toe. Erg betrouwbaar was het echter niet, veel onderbrekingen.
Er zijn wel meer technieken geweest voor kabelinternet. Zoals COM21. @Home Benelux heeft op grote schaal de technologie gebruikt voor de switch naar DOCSIS.
In 1999 kregen we de eerste kabel-internet aansluitingen in Nederland. 1 Mbps en sneller. Ik had Chello/UPC internet in de stad in Februari 2000.
Ja, maar ik weet nog wel dat mijn 56K v90 dialup beter werkte dan de kabel-internet van veel mensen. Die liepen te laggen bij het leven, en ik schoot iedereen overhoop. En die counterstrike server stond echt niet bij m'n ISP.
Een beetje SSD RAID array trekt makkelijk een gigabit lijn dicht. Dus die praktische toepassingen zijn er al... ;)
Een enkele SSD ook al... |:(
Een enkele traditionele HDD ook al.... 8)7
@ Smith en zachie:
geldt dat ook voor de 4k writes? ;)
Een knappe ssd trekt er wel 3 of 4 tegelijk dicht :)
de Amsterdam Internet Exchange zit al aan de 1.8Tb/s aan dataverkeer totaal.
dat hoeft allemaal niet over 1 kabel natuurlijk, maar het geeft wel aan dat er een enorme vraag naar bandbreedte is.

en wat te denken van data centers. met snelheden van 1Tb/s is het mogelijk om met het geheugen van andere systemen te werker en in theorie dus 1 groot geheugenblok te maken van je hele datacenter.
daar zal vast nog wel wat meer bij komen kijken, maar dat is een mogelijkheid.
Als je dat in perspectief plaatst... Als een complete beurs al genoeg heeft aan 2 Tb aan verkeer heb je dus met enkele xxxGb lijnen al voldoende liggen.
Ik zou eerder zeggen dat als het verkeer meerdere (d.w.z. >5) Tb/s zou zijn, dat het dn echt nuttig zou kunnen zijn om over een enkele link al 1Tb te kunnen versturen.

Natuurlijk is het goed om hier onderzoek naar te doen, maar ik zou dan eerder op een nieuwe modulatietechniek als voordeel schieten, ipv het te hebben over een Tb verbinding. Een nieuwe modulatietechniek kan in allerlei netwerktoepassingen gebruikt worden; dat is veel universaler.

Overigens, maar dat kan een klok/klepel zijn, is het denk ik interessanter om de overhead van Ethernet eens goed aan te pakken. De snelheden zijn vaak vele malen lager dan wat theoretisch mogelijk zou moeten zijn - ook onder ideale omstandigheden.

[Reactie gewijzigd door Buggle op 20 augustus 2012 16:49]

Toen ik voor het eerst ergens ging werken waar ze een Internet-aansluiting hadden, was heel Nederland verbonden via een enkel 128-Kbps lijntje. Van het CWI in Amsterdam naar UUnet in Virginia (US Oost-kust). Heel Nederland. Alle universteiten hingen toen met 2 Mbps verbindingen aan elkaar.

Toen beseften we natuurlijk heel goed dat meer bandbreedte heel nuttig zou zijn. Maar hoeveel ? Hoeveel hadden we nodig ? Hoeveel was handig ? Wat zou overkill zijn ? Als je 128 Kbps hebt, dan klinkt 10 Mbps (ethernet snelheid) over de oceaan als fantastisch ! En toch konden we toen ook al bedenken dat je nog meer bandbreedte misschien ook wel kon gebruiken.

Het was toen al duidelijk. Als je meer bandbreedte hebt, dan worden daar toepassingen voor gevonden. Dat was toen zo. En dat zal nog wel een tijdje blijven. The sky is the limit. Hoewel ik toch nog steeds even met mijn ogen knipper als ik torrents zie van complete BRays van 10 GByte.

BTW, ethernet is fantastisch. Ik weet niet waar je die overhead ziet, maar die is er amper, volgens mij. Link om het probleem aan een simpele ziel als mij uit te leggen ?

[Reactie gewijzigd door gryz op 20 augustus 2012 17:23]

Misschien is buggle in de war met adsl en ATM , PPOAE en small packets.
met snelheden van 1Tb/s is het mogelijk om met het geheugen van andere systemen te werker en in theorie dus 1 groot geheugenblok te maken van je hele datacenter.
daar zal vast nog wel wat meer bij komen kijken, maar dat is een mogelijkheid.
Latency.
Als je het over RAM hebt, dan gaat het niet alleen over bandbreedte, maar ook over latency. Latency over je interne bus is vele vele malen lager dan wanneer je je machine uit moet naar een andere machine, over een kabeltje. Met allerlei hardware/chips er tussen. Bovendien is RAM zo ongelofelijk goedkoop, dat je je echt niet alle extra hoofdbrekers op je nek wilt halen.

[Reactie gewijzigd door gryz op 20 augustus 2012 17:22]

Met de tijd zal dit wel een standaard gaan worden. Ik verwacht niet binnen de komende 10 15 jaar.

Kijk maar eens naar netwerkkabels online. Er zijn verschillende zaken die zogeheten CAT7 kabels verkopen die gecertificeerd zijn tot 10 GBit. Wat ze er echter niet bij vermelden is dat de kabel eigenlijk een gewone CAT6 kabel is.

Reden hiervoor is dat de gebruikelijke RJ45 connector geen CAT7 certificering krijgt omdat door de korte afstand van de contactpennen te veel storing ontstaat (dit is natuurlijk relatief, maar bij certificatie kijken ze nou eenmaal erg nauw-).

Momenteel wordt er aan een nieuw soort connector gewerkt die wl CAT7 zal zijn. Dit zal echter nog een hele tijd duren omdat RJ45 nu eenmaal de meest gebruikte connector is voor netwerken (in de particuliere markt-). Je zult om te beginnen met een onboard connector moeten komen waar zowel RJ45 alsmede de CAT7 gecertificeerde stekker in moet passen om deze overgangsfase te doorstaan. Een twee-in-n zo gezegd. Dat is nog een hele uitdaging ...

Dit zal nog wel de nodige jaren op zich laten wachten. Bovendien is een doorsnee gigabit netwerk voor 99% van de consumenten ruimschoots voldoende. Trage prestaties hebben in de meeste gevallen andere oorzaken.

Tekst en uitleg alhier : http://www.tomshardware.c...net-bandwidth,2321-4.html

Wel een tikje gedateerd (2009) maar erg interessant om eens door te nemen.
Jezus heeft hier niets mee te maken. :?
Ja waarom niet?

Ik word soms echt gallisch van die trage verbinding als ik vanaf thuis op m'n werk wil inloggen en dan wil werken. Zeker als er nog eens 400 mensen aan het werken zijn.

Hoe sneller hoe beter.
Opzich wel goed voor de massa-storage, kan je tientallen schijven in raid zetten en nog niet aan je maximale limiet zitten :)
Daarvoor zit je met de 40Gbps- en 100Gbps-standaarden waarschijnlijk voorlopig ook nog wel goed ;)
Zeg maar gerust een paar honderd schijven. We hebben het over 100GB/s.
Sinds wanneer zitten er 10 bits in een byte?
https://www.google.nl/sea...=&q=1000+Gbps+to+GBps als het te lastig wordt.
Sinds de werkelijke snelheid in bytes de theoretische snelheid in bits is gedeeld door tien.

Via 100Mbps LAN haal je (pak em beet) 10MB/s, en via 1Gbps LAN haal je (pak em beet) 100MB/s in de praktijk.

We hebben het hier immers over 1Tbps (theoretisch) en bestanden heen en weer schuiven (praktijk). Dus je moet wel goed vergelijken, en dat is een factor tien in de praktijk tot dusver altijd een accurate vuistregel gebleken.

Probeer het anders gewoon.

[Reactie gewijzigd door _Thanatos_ op 20 augustus 2012 19:12]

Bijna goed. Delen door 8 ipv 10. :)

100Mb-Lan = 100 / 8 = 12.5MB/s max theoretische snelheid
GB lan = 1000 / 8 = 125MB/s max theoretische snelheid.

Ben het wel met je eens dat in de praktijk 100MB/s realistischer is, dus delen door 10 is een aardige richtlijn.

Mijn eigen netwerkje doet ~100MB/s sustained met pieken rond de 115MB/s
Misschien gooit een nieuwe energiecrisis wel wat roet in dat snelheidseten - wie weet? Een 10Gbit kaart in een server verbruikt al behoorlijk wat energie - dus dat wordt echt wel een probleem.
Networking is de grootste energie bespaarder die de mensheid ooit heeft uitgevonden.

Geen boeken, tijdschriften of kranten die iedere dag met vrachtwagens moeten worden rondgereden. Of in ieder geval minder. Minder brieven die met de post worden rondgereden. Minder naar de bioscoop, minder naar de videotheek. Minder business-vergaderingen en business-trips. Hele bedrijfstakken die van verkoop in een winkel naar verkoop online verschuiven, product rechtstreeks van de groothandel naar je huis. (Online electronica, computer(onderdelen), maar ook reisburos, etc).

Hoe meer networking, hoe meer we gaan doen via onze netwerken. En hoe minder in de "echte wereld". En dat zijn allemaal energiebesparingen.

Een energiecrisis zou het Internet alleen maar moeten laten groeien.
Alhoewel ik dit een zeer verfrissend inzicht vind (en ik je daarom ook met een +2 beloond heb :)), moet je niet vergeten dat tegelijkertijd een eenmaal geprint boek bijvoorbeeld niet nog een keer geprint hoeft te worden. Zodra de energie erin gestopt is, is het klaar. Grof gezegd heb je dus hogere vaste energiekosten en zeer lage variabele kosten.
Verder heb je natuurlijk de schaalvoordelen; een bioscoop zou per hoofd wel eens minder energie kunnen verbruiken dan diezelfde hoeveelheid mensen met 50" LCD TV's afzonderlijk thuis.

@mutley69; wat nog meer verbruikt dan die 10Gbit kaart in een server, is 10 1Gbit kaarten in dezelfde server, of (nog extremer) 10 servers met ieder een 1Gbit kaart. Schaalvoordeel! Maar daarbij geldt natuurlijk wel dat je die 10Gbit ook vol moet kunnen trekken.

Analoog is het gebruik van virtuele servers bijvoorbeeld juist zo gunstig, omdat je dan in n full-load server (op hoge efficientie) kunt stoppen wat je normaal gesproken in meerdere servers moet stoppen die op een lage efficientie lopen omdat ze vrij weinig te doen hebben. D.m.v. load balancing kun je dat nog eens optimeren als je meerdere virtuele servers gemirrord hebt over meerdere fysieke servers.
Gaap.. Dat werd ook gezegd over 10Gbps... Dat kon niet over koper want "De kabels gaan dan zowat lichtgeven" was dacht ik het citaat toentertijd. Nu is dat er allang al en de kabels geven geen licht :)

Natuurlijk kan het niet met de huidige techniek, nogal wiedes. Maar tegen de tijd dat het nodig begint te worden is de techniek er ook wel.

Ik denk trouwens dat het een goed idee is dat ze eerst voor 400Gbps gaan, want een standaard uitbrengen die nog net op het randje zit van wat haalbaar is wordt toch veel te duur in het gebruik en dan komt het nooit van de grond. En 400Gbps is 40GB/s en dat trek je nog niet eens in de allerbeste SSD's dus daar kunnen ze ook nog wel even mee vooruit.
Zitten er tegenwoordig 10 bits in een byte?
Nee maar wel overhead in ethernetframes. Effectief schat ik dat je dichter bij de 40 dan bij de 50GB/s gaat komen.
Met steeds meer glasvezel verbindingen in huishoudens 100mbit+ is dit wel nodig als je complete steden wil voorzien van high speed internet. Dus het heeft zeker nut :)

Ik vraag me wel af waar of er ooit een limiet aan bandbreedte komt. Waar zou het punt liggen dat het echt niet sneller kan.
Met steeds meer glasvezel verbindingen in huishoudens 100mbit+ is dit wel nodig als je complete steden wil voorzien van high speed internet. Dus het heeft zeker nut :)
Het is een thuisnetwerken standaard (of voor bedrijven) maar niet voor de knooppunten... Oftewel als mensen nu 100Mbit of meer hebben (max verkrijgbare is 500Mbit) heb je toch echt al genoeg aan een 1Gbps of 10Gbps netwerk.
Waarom niet voor thuisnetwerken? Die fiber die bij mij de meterkast binnenkort gaat via een conversiekastje naar ethernet. Dit kan dan toch net zo goed Tbps-ethernet zijn?
Modem... En ja dat is een "conversiekastje" in lekentaal. (MOdulator-DEModulator)
Niet een modem.
Ook een foute term. (Hoewel veel gebruikt).
Router is de correcte term.

Noem jij je auto ook "een stuur" ? Omdat er een stuur in zit ? "Ik ga even met mijn stuur boodschappen doen".

Wat er bij de mensen thuis in de meterkast hangt, is een router.
Bij kabel is het een router met een kabel/docsis interface/modem, en 1 of meerdere ethernet interfaces. Bij ADSL is het een router met een ADSL interface/modem en 1 of meerdere ethernet interfaces. Misschien zit er ook nog een Wifi-interface in. Maar het blijft een router.

En nu maar lekker downmodden, vanwege het toontje van mijn post.
Stel je voor, dat we de correcte technische termen moeten gaan gebruiken op een site als Tweakers. Elitist Jerks !

[Reactie gewijzigd door gryz op 20 augustus 2012 16:23]

het is maar net hoe je het noemt natuurlijk.

Het is gewoon een netwerkapparaat met meerdere functies:
- modem
- router
- welke functionaliteit ze nog meer in de firmware weten te proppen: NAS, etc

Je kunt het met evenveel recht een modem noemen als een router.
Het lijkt mij dat de term ISR het meest recht doet aan de benoemde kastjes, daar deze meestal ook DHCP, DNS relay, QoS en firewalling doen.
Residential gateway. Leuk verhaal hoor, maar het is geen router. Router is ook gewoon n van de functionaliteiten van het apparaat, net als modem. Zie het als het gaspedaal van je auto. Je gaat ook geen boodschappen doen met je gaspedaal, zegmaar.
Sorry hoor, maar deze standaarden zullen eerst gebruikt worden op de knooppunten en later wanneer het betaalbaar wordt bij de consument belanden.

Heb je een idee hoeveel zo'n switch kost?
Wat heeft dit voor knooppunten voor voordeel boven glasvezel.... lijkt me alleen maar vervelender qua te overbruggen afstand e.d.
Dit zijn nog eens leuke snelheden :-)

De technieken die achter dit soort dingen zitten is best wel interessant, als je na gaat over hoeveel data het dan wel niet gaat wat per seconde wordt verstouwd dan is dat een hele prestatie.
Ga dan nog eens na dat de meeste netwerk switches meer dan 2 poorten hebben die dit soort snelheden voor al hun poorten op wire speed moeten doen .. dat zijn knappe stukjes hardware :-)
Kijk b.v. maar eens in de huidige enterprise switches hoeveel IC's op de mainboards zitten.

In 1e instantie zullen dit soort snelheden meer voor internet backbones zijn en instanties die behoefte hebben aan veel bandbreedte zoals ziekenhuizen (denk b.v. digitale rntgen fotos)

Voordat dit in onze thuis switches zit zal het nog wel even duren denk ik :-)
100Gbps interfaces zijn gigantisch duur en 40Gbps zijn dan een mooie goedkopere tussen oplossing. Dit gaat de IEEE nu ook gebruiken voor 1Tbps / 400Gbps interfaces.

100Gbps wordt momenteel alleen gebruikt door echt grote ISP's / internet bedrijven zoals Google en wetenschappelijke instituten die ook daadwerkelijk zoveel data hebben.
Dit zijn standaarden dat dan ook niet in je huis tuin en keukenpc gebruikt gaan worden. Maar op backbones en internet exchanges. BNIX, AmsNix, ...

Het is inderdaad wel zo als ze een standaard gaan kiezen die maar nt technisch haalbaar is dat deze vrij duur gaat uitvallen. Maar wie weet waar staan we binnen een jaar :-)
Misschien is het helemaal niet nodig tegen die tijd. Dat alles via wifi/bluetooth/wimax gaat
Dan moet de apparatuur het nog steeds aankunnen. Of het uiteindelijk nou via een koperkabel, glaskabel of door de lucht gaat, doorvoersnelheid is doorvoersnelheid.

(Even los van het feit dat het me een grotere uitdaging lijkt om 1Tbps door de lucht te sturen, dan door een kabel, maar soit.)

[Reactie gewijzigd door 19339 op 20 augustus 2012 15:12]

Opzich is het best mogelijk om 1Tbps door de lucht heen te pompen. Denk alleen niet dat je buren er heel blij van worden :)
En dat kost geen bandbreedte?
Toch blijf je kabels houden: Waarom zou je iets over Wifi doen als het over een draad sneller gaat?

De Wifi techniek wordt sneller, maar kabel zal altijd sneller blijven.
Als je de "Grote Plas" over wil, gaat wireless niet werken...
Met behulp van DWDM's (Dense Wave Division Multiplexers), waarbij gebruik wordt gemaakt van zogenaamde prisma's met tot wel 64 verschilende kleuren laser is het wel degelijk mogelijk de in het artikel genoemde snelheden te halen.
Volgens John D’Ambrosia, voorzitter van de IEEE 802.3-werkgroep, is het de vraag of een 1Tbps-standaard wel economisch haalbaar is
Ik weet niet hoe duur dit is, maar 64 lasers klinkt niet helemaal als "economisch haalbaar"?

@ hieronder: dat zal allemaal best, maar het gaat hier over een nieuwe Ethernet-standaard, 'gewoon' van switch naar server of werkstation. Daarvoor lijkt DWDM me dan nog niet helemaal "economisch haalbaar". Ik zeg niet dat het technisch niet kan, maar ik zie voorlopig nog geen Cisco 3750 met 48 1Tbps-poorten.

[Reactie gewijzigd door 19339 op 21 augustus 2012 09:27]

als ze die lasers in silicium kunnen maken, en alle 64 in de zelfde chip dan kan dat zeker economische haalbaar zijn. ben je door de licht sterkte wel wat beperkt in afstand, maar nog steeds kan je verder als me ethernet.
Met een ruwe schatting kom ik op 100.000 Euro voor 100Gbps en 40.000 Euro voor 40Gbps. Dan reken ik een enkele link. Max 10km lang. 2x CFP optics en 2 lijnkaarten voor de switch. De switch zelf, zit daar niet bij.

100Gbps over DWDM is al tijden mogelijk. Het gaat natuurlijk om 100Gbps te transporteren met een enkele kleur licht. (Of meerdere 100Gbps met verschillende kleuren licht in een enkele vezel.)
Ik weet niet hoe duur dit is, maar 64 lasers klinkt niet helemaal als "economisch haalbaar"?
Als DWDM (met 64 lasers) economisch niet haalbaar was geweest, hadden we nu geen snelle trans-Atlantische zeekabels gehad.
DWDM systemen bestaan al zo'n 15+ jaar.
http://en.wikipedia.org/wiki/DWDM#DWDM_systems

Wat dacht jij, als je glasvezel onder de Atlantische Oceaan hebt liggen, dat je dan niet wat graag wat "dure" equipment zou willen kopen om je bandbreedte te 10- of 100-voudigen ? Ik denk dat de prijs van de DWDM-systemen dan niet veel uitmaakt.

En ook voor andere verbindingen kun je kijken of DWDM economisch haalbaar is. Een paar apparaatjes kopen is vaak een boel goedkoper dan nieuwe kabels leggen. Zelfs als die apparaten tonnen of miljoenen kosten.

Edit: even wat gelezen over 40 en 100 Gbps Ethernet.
Ze gebruiken een soort van wave-multiplexing !
4 of 10 wavelengths van 10 Gbps ieder maakt 40 of 100 Gbps.
Of 4x een wavelength van 25 Gbps.

Dat maakt het een stuk waziger wat het verschil is tussen DWDM en deze nieuwe technieken. Dat lijkt toch wel veel op elkaar. En volgens mij kun je 100GigE dus ook niet even makkelijk door een DWDM halen.

[Reactie gewijzigd door gryz op 20 augustus 2012 16:26]

Het gaat er niet om wat er over de datalijn / glasvezel kan maar meer het apparatuur dat de data moet verwerken. Het netwerk apparatuur kan nu niet de genoemde snelheden verwerken
jawel, de huidige apparatuur kan dit best, heb op de zaak een HP 5412 van enkele jaren oud en die kan al 576Gbps over z'n backplane handelen... Zelfs routen...

En dit is nog maar een midrange apparaat, de 8000 series en de nieuwe vervangers hiervan kunnen zeker meer...
Volgens mij gaat deze nieuwe ontwikkeling over wat je kunt doen over 1 enkele wave-length.

Het hele idee van DWDM is al weer 1 a 2 decades oud. De eerste DWDM multiplexers verschenen al weer zo'n 15 jaar geleden.

Edit: ik zat fout.
Deze nieuwe technieken (40, 100 Gbps en sneller) gebruiken meerdere "lanes" om data over te versturen. Dat lijkt wel erg veel op DWDM.

[Reactie gewijzigd door gryz op 20 augustus 2012 16:27]

Technisch haalbaar <> Economisch haalbaar
Economisch haalbaar = met redelijke kosten per poort.
Waar je bij dit soort zaken wel eens op verkijkt is dat de tijdwinst van 100 Gbps naar 400 Gbps veel groter is dan die van 400 Gbps naar 1 Tbps.

Stel je voor: Je hebt een dataset van precies 125 Gigabyte. (Dus 1000 Gigabits, oftewel precies 1 Terabit)

Theoretisch (even overhead niet meerekenen):

Via de 100 Gigabit/s verbinding duurt het 10 seconden om deze dataset te kopieren.
Via de 400 Gigabit/s verbinding duurt het 2,5 seconde om deze dataset te kopieren (dus 7,5 seconde winst, ten opzichte van 100Gbps)
Via de 1 Terabit/s verbinding duurt het 1 seconde om deze dataset te kopieren. Dat is maar 1,5 seconde sneller dan via 400 Gbps.

Je behaalt dus al de eerste 75% tijdwinst met 400 Gbps, en slechts een extra 15% met de stap naar 1000 Gbps.

Het is dus al snel veel economischer om het kleinere stapje te leveren, aangezien dit kleinere stapje het meeste rendement oplevert.

[edit]
Ter verduidelijking op de juiste plaatsen het woord tijdwinst gezet.

[Reactie gewijzigd door Keypunchie op 20 augustus 2012 16:25]

100Gb/s naar 400Gb/s is 300% winst.
100Gb/s naar 1000Gb/s is 1000% winst.
400Gb/s naar 1000Gb/s is 150% winst.
100Gb/s naar 400Gb/s is 300% winst.
100Gb/s naar 1000Gb/s is 1000% winst.
Of de eerste is 400%, of de tweede 900%. Maar ik focus op het aantal seconden, omdat dat nou eenmaal het doel is van een snelheidsverbetering. Ik zal even corrigeren waar ik "snelheidsverbetering" had gezet met "tijdwinst".
Het doel is 'seconden' volgens jou? Dat hangt maar helemaal van plaats en toepassing af. Hier op kantoor betekent het gewoon meer gebruikers simultaan over hetzelfde netwerk-touwtje Ik denk dat een percentage veel meer zegt.
Netwerk verbindingen worden verkocht per bandbreedte. Niet in hoeveelheid tijd die nodig is om data te verzenden. Je hebt gelijk dat in je voorbeeld het lijkt of je minder rendement krijgt. Maar dat ligt meer aan het feit dat we het over factor 4x en factor 2.5x hebben.

10x sneller is 10x sneller. Hoe je dat beleeft, of hoe dat in de praktijk uitwerkt is voor iedereen verschillend.
Precies als je het hebt over de snelste snelheid die er momenteel haalbaar is over glasvezel kan het veel zijn, als we het echter hebben over koper dan zou dit wel eens vies kunnen tegenvallen.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013