Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: Techworld

Onenigheid binnen de Higher Speed Study Group van het IEEE dreigt de totstandkoming van een standaard voor 100Gbps-ethernet aanzienlijk te vertragen.

IEEE logoEen aantal leden van de groep wil ook een standaard voor 40Gbps-ethernet vaststellen omdat dit volgens hen een noodzakelijke en wat goedkopere tussenstap is, waar een aanzienlijke markt voor zal zijn. De tegenstanders vinden het simpelweg tijdverspilling. Volgens hen is de markt voor 100Gbps groot genoeg en moet de studiegroep zich uitsluitend daarop gaan richten. Bij de oprichting van de HSSG in november vorig jaar was vrijwel iedereen er nog voor om zich uitsluitend op 100Gbps te gaan richten, maar sinds januari hebben de voorstanders van 40Gbps aanzienlijk meer steun gekregen. Als er over het geschil geen overeenstemming wordt bereikt zal de IEEE de groep waarschijnlijk opheffen. De totstandkoming van een standaard voor 100Gbps-ethernet zal dan onvermijdelijk flink worden vertraagd. Op een vergadering van de HSSG, die volgende maand gehouden wordt, zal worden beslist of men verder gaat met de standaard voor 40Gbps of niet. Het kan ook zijn dat er geen overeenstemming kan worden bereikt.

Moderatie-faq Wijzig weergave

Reacties (58)

Er spelen bij dit soort beslissingen natuurlijk veel meer factoren mee dan alleen maar de vraag of het technisch mogelijk is.

Mogelijkheid tot het hergebruik van bestaande infrastructuren, is er een van. Maar vergeet vooral niet dat als ze nu voor een 100G standaard gaan een complete markt voor 40G gaan missen. Er zal best wel een lobby zijn om een tussen standaard te introduceren simpelweg omdat er gewoon bedrijven zijn die hier financieel beter van worden.

Toch vind ik dit "geruzie" een kwalijke zaak, aangezien er een ding vast staat of het nou 100 G of 40 G verbindingen worden we hebben de extra bandbreedte nodig want vooral ISP's krijgen steeds meer data te verwerken. Vertraging van dit soort technieken kan voor problemen gaan zorgen hier en daar.

[Reactie gewijzigd door reb65 op 17 juni 2007 14:55]

Laat ze die 100 GigE maar op de markt brengen, je zal zien dat de prijzen voor 10 GigE direct omlaag schieten. De keuze om dan te kiezen voor 4 x 10 GigE is dan vrij interessant. Vooral carriers en grote internet exchanges zoals de AMS-IX hebben grote behoefte aan de 100 GigE standaard, laat het maar komen en we zullen zien wat het met de prijzen van 10 GigE zal doen.
Er zijn optische netwerken welke 40Gbps zonder problemen transporteren. Dit is redelijk ontwikkeld.

In tegenstelling tot 100Gbps waar een alternatieve codeer methode(s) gevonden moet worden.

Door de 'verouderde' technologie van 40Gbps optische netwerken zal het waarschijnlijk zeer moeilijk zijn om 100Gbps te implementeren in deze netwerken. Daarnaast speelt het glas in de grond een rol.

Vervangen van beide kost meer dan ontwikkelkosten voor beide standaarden.
Mja, met 40Gbps hebben ze natuurlijk weer even werk, de fabrikanten kunnen 40Gbps gaan verkopen en tegen de tijd dat iedereen over is kunnen ze 100Gbps gaan introduceren.

En die werkgroep heeft ook weer wat werk door tussendoor eerst die 40Gbps te ontwikkelen. Zo houden we het werk in de wereld he |:(
en wat nou als 40 Gbit wel over de bestaande leidingen zou kunnen lopen en 100 Gbit heel waarschijnlijk niet?
Dan is er een enorme markt voor 40 Gbit en eigenlijk alleen maar een kleine markt (nieuwbouw-lokaties) voor 100 Gbit.
De Fibers is het probleem niet, daar kan je zo 160Gbit met DWDM overheen douwen.

De interfaces en blades zijn het probleem, op wat voor capiteit gaat een router/switch bouwer z'n blade slots maken, 160G, of 400G, uitgaande van 4 poorten per blade.

Overigens voor wie 'r nog twijfelt, ja de markt is 'r voor 100G, wij moeten deze zomer naar trunks van 80Gbit toe, dat zijn 8 kabels, waar dit in geval van 100G met 1 kabeltje opgelost zuo kunnen zijn.
Steek liever alle tijd in 100Gbps zou ik zeggen, iedereen weet dat het eraan komt en zal eerder wachten dan even 40Gbps voor de tussentijd gebruiken. Anders zie ik voor 40Gbps dezelfde dood als edge.
Als er technische redenen zijn waardoor we nu niet zo snel meer omhoog kunnen schalen, kan het relevant zijn om nu eens niet een factor 10 winst te willen halen in 1 stap.

Van 10 naar 100 Mbps was technisch waarschijnlijk niet zo moeilijk, maar het kan best zijn dat dat hier wel het geval is.
maar om het serieus te hebben: ik denk dat ze best het gewoon bij 100Gbit houden, kwestie van gewoon de traditie van *10 snelheid te behouden. Valt ook simpeler in te zien hoe je bandbreedte te verdelen, 1Gbit kan je makkelijk verdelen onder 10*100Mbit enzo.
Er is in het verleden ook een 44 Mbit standaard (In 1996 ging het internetverkeer van de RuG over een dergelijke verbinding) geweest en er zijn ook 155 Mbit standaarden. Nu zijn die geen onderdeel van de ethernet standaard, maar ik zie niet in waarom het percee een factor 10 meer zou moeten zijn.
40 Gbit is ook makkelijk te verdelen onder 4x 10 Gbit, dus dat is ook niet echt een issue en daarnaast verwacht ik niet dat men het echt zo zal verdelen. In die wereld hangt het toch allemaal al aan elkaar van overboeking en 95% regels vwb bandbreedte, of het zal gebruikt worden voor een peering-link tussen grote netwerkjongens zoals Level3 en Cogent.

[Reactie gewijzigd door TD-er op 17 juni 2007 14:38]

45 Mbit is het in plaats van 44 en dit is gewoon ATM. 155 mbit is ook ATM en er is zelfs een 622 ATM standaard. ATM is cell based, ethernet is frame based.
Niet ATM, maar SDH, zoals Jaco al meldde, ATM kun je volledig schalen naar je verbindingen, ATM werkt pas vanaf hoog in laag 2 (OSI), SDH is transmissie, laag 1 (OSI)
SDH geeft dus de restrictie aan ATM wat hij kan versturen.
op een 155Mbit SDH lijn (STM1) kun je dus ATM plaatsen met een bandbreedte van 0 tot 155Mbit.
155Mbit is geen Ethernet maar SDH, de 44 Mbit is ook geen Ethernet.

Er zijn meer protocollen waar je IP overheen kunt sturen. (Ethernet is eigenlijk een gedrocht)
Jij praat alsof het over je internet toegang gaat. Daar gaat het nu niet om. Het gaat over de backbone van je (bedrijfs)netwerk (kan ook een ISP zijn natuurlijk). Waarom zou je gaan verdelen? QoS ok, maar jij ziet het raar. :P
40*100mbit is toch ook niet zo moeilijk?
Mooi onderwerp voor een pol:
-10mbit was al prima voor mij
-1Gbps is voldoende
-40Gbps is voldoende
-100Gbps heb ik nodig
-Need more!!!
wat ik me soms afvraag: naderen we nooit een punt waar het "voor eeuwig" goed is? Bijvoorbeeld verplaatsbare opslagmedia, meer bepaald de standaarden.
- iedereen zal het erover eens zijn dat een 5,25 inch diskette tekort schoot. Groot, kwetsbaar, weinig capaciteit
- voor een 3,5 inch geldt eigenlijk hetzelfde
- Ondertussen zijn we bij usb-flashsticks aangekomen. Klein, stevig, foto's passen er vlot op en ook een softwareprogramma is geen probleem.

Hetzelfde kan men zeggen van poorten; parallel en serieel waren lomp. Nu is er USB.

Kunnen we hieruit besluiten dat flash-sticks en USB voor de eeuwigheid zullen meegaan? Ik denk het wel. Gaat hetzelfde niet op voor bijvoorbeeld hd-video en netwerkstandaarden?
Je beargumentatie klopt niet.

In de tijd van de 5.25inch floppy had men het idee dat het super klein was en er een grote hoeveelheid op kon.

Zelfde geld voor eigenlijk alle andere dingen die je noemt.

Nu je er op terug kijkt is het natuurlijk heel anders. Maar... kan jij in de toekomst kijken? Misschien vind er wel iets revolutionairs plaats waardoor de opslag capaciteit dusdanig veel hoger komt te liggen dat wat wij nu ontzettend snel vinden (100gbit) in 1 klap te weinig is.

Wie zal het zeggen. In het verleden is al vaak genoeg gebleken dat 'wat genoeg geacht' werd toch niet genoeg bleek. En zo zal het voorlopig denk ik nog wel even door gaan.
Het gaat waarschijnlijk ook meer over de verwachtte groei, natuurlijk komen er betere dingen, maar de vraag is wel wanneer dat dan precies word.

Als je bijvoorbeeld kijkt naar audio, dan moet je al een beetje je best doen om een hedendaagse schijf vol met MP3's te krijgen. (500GB < 100 euro = 10 jaar muziek)
Als je dan de vergelijking met video (DVD kwaliteit) neemt, dan is zo'n schijf al voldoende voor 100 films, dat is 2 weken non-stop film kijken.

Doordat alle verbindingen, opslagmedia en pc-power doorgroeien zijn er steeds minder zaken die tegen een bottleneck aanlopen. Een 286 had nog moeite met mp3, de eerste pentiums met Divx, de huidige pc's hebben moeite met HD. Maar dat betekent dat de gemiddelde gebruiker steeds meer dingen zonder problemen kan doen.

640KB is niet altijd genoeg, maar voor soms is het ruim voldoende (bv. een sms)
Genoeg?!
Ik zit hier te werken met lastige poortjes op de voorkant van mijn computer die met de tergend trage snelheid van 480 mbps werken! Hoe kan ik nou ooit een instant image maken van mijn computer met zoiets?
Bovendien zijn die flash devices zo groot dat ik er niet eens meer dan één in een horloge kan stoppen, waar ik nog niet eens maar dan één film op kan opslaan in dualHDTV formaat met 10.3 surround.
En dan heb ik het nog niet gehad over dat gare systeem waarbij ik op mijn werk ineens een andere werkomgeving voor m'n neus krijg dan thuis, of ik moet gaan slepen met een mobiele harddisk, want die flashgeheugens zijn veel te traag om de PC in minder dan 0.2 seconde op te starten.....
oke, even een scenario van wat allemaal nog kan, en ik heb er niet eens tele-holografie video conferencing bij gehaald of dergelijke futuristische zaken.
Lijkt me niet. denk alleen al aan ontwikkelingen richting 3d. Er zijn nog een hoop schaalvergrotingen door te voeren en met iedere schaalvergroting moeten ook je gegevensverwerkings snelheden, je doorvoersnelheden en je opslagsnelheden schalen. Dat gaat nog wel een tijdje door.

Heb een beetje dat ik naar oom Bill luister die denkt dat een 880kb tot in den eeuwigheid voldoende intern geheugen zal leveren.
Ome Bill was er van overtuigd dat 640 KiB meer was dan iemand ooit nodig zou hebben, niet 880...
En ook dit schijnt nooit door hem gezegd te zijn....

Zie: http://en.wikiquote.org/wiki/Bill_Gates

[Reactie gewijzigd door grizzlybeer op 17 juni 2007 23:14]

de grappigste quote van Bill Gates is dan ongetwijfeld "It's not manufacturers trying to rip anybody off or anything like that. There's nobody getting rich writing software that I know of." of deze uit '04 "Spam will be a thing of the past in two years' time." 8)7 8)7 8)7
De qoute van (Grizzlybeer, aantal kb.) zou van die man van Apple gekomen zijn, ik weet zo niet wie en krijg het zo snel niet gevonden..

[Reactie gewijzigd door King4589 op 18 juni 2007 15:02]

Moeilijk in te schatten. voor wat we nu gebruiken lijkt het me wel dat je ene punt hebt.
Het probleem is dat je niet weet wat er nog allemaal komt. toen tcp/ip werd uitgevonden dacht men niet dat er ooit wel eens video over gestuurd zou kunnen worden.

Ik denk bijvoorbeeld aan Matrix-virtual reality-toestanden. Enig idee hoeveel bandbreedte zo'n simulatie vereist?

Of andere toepassingen waar we nu nog niet aandenken omdat het nog niet voorstelbaar is dat we dat allemaal via een draadje gaan doosrturen.

Voor de meeste dinegn waarvoor ik mijn usbstick gebruikt is een 1.44MB diskette ook nog ruim voldoende. Meestal staan er enkel wat programmacode en wat wordbestandjes op.

Maar stel bijvoorbeeld dat we in de toekomst allemaal met een camera rondlopen die continu alles opneemt zodat we een jaar later ook nog kunnen opzoeken waar je nu ook alweer die sleutels hebt gelegd kan je je wel voorstellen dat de huidige hardeschuiven echt niet voldoen.
Zo, jij vindt USB genoeg?
Ik daag je uit een DV camera aan te sluiten en de video in DV kwaliteit te capturen via USB,
terwijl je nog een USB muis en andere USB apparaatjes hebt hangen...
Ik wens je veel succes.
(Firewire doet dit overigens wel goed)

En dat is dan trouwens nog maar DV video,
nog niet eens in HD formaat.

Dus neen, volgens mij komt er niets dat groot genoeg is.
Alleen al om het feit dat het beschikbaar is, zal men het gebruiken.
Kijk naar de huidige progsels, die zijn zooo lomp geschreven,
puur omdat de systemen toch snel genoeg zijn.
Maar door die lompe programma's wil men dus weer sneller,
waardoor de programma'sweer lomper worden, etc etc
En dat is dan trouwens nog maar DV video,
nog niet eens in HD formaat.
HDV, oftewel HD-film op een DV-tape, neemt nog steeds dezelfde hoeveelheid ruimte in op de harde schijf per tijdseenheid, oftewel netto zo'n 3,5 MB/s (~25 Mbit/s voor beeld)

En hier in huis is al jaren Gbit aanwezig, maar hoe vaak kom je netto boven de 160 Mbit/s uit over het netwerk? Vrijwel nooit helaas :( (Windows-probleem want linux => linux haalt makkelijk 40 MB/s in de praktijk)
Daar zijn wel een aantal oorzaken voor...NAS protocollen zijn niet zo vreselijk snel in de standaard OS implementaties (cifs/nfs)...probeer eens iscsi en gebruik dan jumbo frames en flow control op je switch. Uiteraard moet de iscsi server wel voldoende snel zijn om alles op te hoesten, maar dan zie je dat je toch rond de 110MB/s kunt halen over Gbit netwerk.
Inderdaad. Er moet minimaal nu snel een "USB3" komen.

FireWire gaat het helaas niet worden in het mainstream segment (zal we iets duurder zijn dan USB).

Het moet toch mogelijk zijn om zo'n snelle USB te maken dat deze niet meer de bottleneck is maar de HDD, dan wel extern (van HDD naar compu) dan wel intern (van USB device naar HDD).
Het voordeel en het probleem met USB (in het algemeen) is dat het weinig hardware behoeft en veel gebruik maakt van je processor voor het aansturen van de poorten. Firewire heeft een eigen processortje die de datcom afhandelt.
Hierdoor is USB goedkoop maar foutgevoelig (vooral bij de eerdere implementaties van USB2) en/of traag bij hoge CPU belasting en werkt Firewire eigenlijk altijd maar is wat duurder. Mag je raden waarom de industrie zweert bij USB en zo'n beetje alles behalve wat DV camera's en externe harde schijven zo'n aansluiting bezitten?
'USB3' helpt het probleem de wereld niet uit (de gevraagde systeemresources bij een beetje datacommunicatie zullen dan helemaal de pan uitrijzen) tenzij ze 'USB3' van hun eigen intelligente hardware gaan voorzien wat het weer duur maakt.

Een dergelijk probleem zal zich ook wel kunnen voordoen bij het steeds verder opschalen van de communicatiesnelheden bij ethernet... Of je hardware wordt te duur of je legt onevenredig veel werk neer bij de algemene systeembronnen....

[Reactie gewijzigd door jiriw op 18 juni 2007 12:17]

FireWire is inderdaat eigelijk sneller, maar het probleem komt door Windows, zij kregen de FireWire 800 software niet goed voor de PC.
daarom draait de 800 op de 400 snelheid, 50% snelheids verlies, de usb is sneller dan de 400Mb/s, en daarom kwam de 800Mb/s.
er is wel software voor te vinden maar dan moet je daar weer voor betalen en dat is dan ook weer een probleempje, en nu bijna alles al word gedaan met USB, (Universal) gaat men echt de stap niet maken om dan daar ook ineens een FireWire deel in te zetten, zie je het al voor je? een muis met 2 kabels? een voor FireWire en een voor USB?
mooie poll :P
ik heb al genoeg aan de 1gbps,
nu sneller is alleen bedrijfsmatig meschien interresant
Uhm, wat dacht je van kabels tussen verschillende backbones enzo?
Tussen backbones kunnen ook gewoon dit soort beestjes:

[link]http://www.lucent.com/wps...ail_000044.xml#tabAnchor3[/link]
2.56Tbps (a)
Ik neem toch aan dat het hier (ook) gaat om het medium waarover deze 100 Gbps gaat lopen?

Of gaat het hier puur om een protocol en mag iedereen dan zelf bepalen wat voor interface gekozen gaat worden?
afspraken over een protocol kan allebei zijn. Interface zal echter in dit geval wel gewoon glas zijn. Echter hier heb je ook weer allerlij koppelvlakken in. ST MT-RJ LC Dan heb je ook nog singlemode en multimode kabel.
Wanneer er eerst op 40 wordt overgegaan en later pas op 100 kunnen de producenten nu goedkopere technologie toepassen voor de producten en deze standaard tegelijk langzaam uitfaseren zodat iedereen over moet gaan op 100. Dit is voor de producenten dus dubbel voordelig omdat de marges hoger liggen wanneer niet state of the art electronica nodig is en omdat ze dus meer zullen gaan verkopen.

Ik weet verder niet hoe deze commisie in in elkaar zit maar ik zou niet verbaast zijn wanneer dit een beetje een strijd is tussen netwerkgebruikers (isp's etc) en producenten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True