10-Gigabit ethernet wint aan populariteit

CNet News.com bericht dat 10-Gigabit ethernet, ook bekend onder de naam 10-GigE, snel populariteit aan het winnen is. De snel toenemende populariteit is te danken aan flinke prijsdalingen van 10-Gigabit ethernet-apparatuur. In het eerste kwartaal van 2003 was de prijs per poort, inclusief de benodigde glasvezelcomponenten, gemiddeld 39.000 dollar. Aan het eind van het vierde kwartaal was de prijs al gezakt naar circa 11.000 dollar per poort en verwacht wordt dat de prijs aan het einde van dit jaar verder gezakt zal zijn na 5.000 à 6.000 dollar per poort.

Glasvezels (klein)Onder andere dankzij de lagere prijzen zijn de verkoopcijfers flink gestegen. In 2003 werden 7.300 poorten verkocht en in 2004 zal dit getal waarschijnlijk stijgen naar 25.000 poorten om op 80.000 terecht te komen in 2006. Momenteel is het nodig om van glasvezel gebruik te maken om de beschikking te krijgen over 10-Gigabit ethernet, maar aan het eind van het jaar worden ook de eerste producten verwacht die gebruik maken van koper. Het valt echter te bezien of deze een echt succes zullen worden.

De maximale lengte van de kabels is slechts vijftien meter. Daarnaast maakt de zogenaamde 10GBase-CX4 standaard geen gebruik van standaard twisted-pair kabels, maar van dezelfde bekabeling die ook gebruikt wordt voor Infiniband en Fiber Channel. Er wordt gewerkt aan een standaard die wel van standaard bekabeling gebruik kan maken, maar voordat de 10GBase-T standaard het daglicht ziet zullen we minimaal nog wel een aantal jaar verder zijn.

Door Hielko van der Hoorn

17-03-2004 • 15:32

60

Submitter: T.T.

Bron: CNET News.com

Reacties (60)

60
60
34
22
10
17
Wijzig sortering
Anoniem: 36355 17 maart 2004 15:36
Wat een gigantisch bedrag is dat zeg. 39.000 per poort. En dan toch zijn er 7300 stuks verkocht. Kan je nagaan wat een enorme bedragen mensen overhebben voor hun netwerken. Dit soort systemen zijn toch alleen nuttig om bv. twee core-switches met elkaar te verbinden. Wat voor bedrijven zijn het die dit soort apparatuur gebruiken?

:9~ $39.000,00 per poort x 7.300 = $284.700.000,00...
:9~ 10Gb -> 1250 Mb per sec...
Valt wel mee, dat bedrag. Bedenk dat zeker dark fiber verbindingen zonder moeite (tien)duizenden euro's per maand kunnen kosten. Dan is dat een kleinde investering voor een vertienvoudiging van de snelheid (fiber blijft hetzelfde).

Voor een backbone die dusdanig fors moet zijn dat dit soort technieken relevant zijn, is het ook geen echt spannend bedrag. High-end switches hebben backplanes die voorbij de Tbit gaan. Er is vaak een zeker behoefte dit soort apparaten te koppelen :)

Daarbij is de ontwerplogica dat je een backbone verbinding dikker maakt dan de aftakkingen, zeker zolang de kosten niet extreem zijn.

Wie de gebruikers zijn? Grote bedrijven, bedrijven die grote hoeveelheden data rondpompen (videobewerking), wetenschaps centra, enz.
FYI

Darkfibers zijn spotgoedkoop, in ieder geval relatief, het gaat om duizenden euros per maand, niet over tienduizenden.

En dit soort technologie is niet alleen voor videobedrijven en wetenschapscentra. De meeste grote ISP's in Nederland zullen dit zeker ook gebruiken.
FYI dat hangt nogal af van de afstand. Tussen twee panden over eigen grond kost het inderdaad "niets". Binnen een stad valt het inderdaad erg mee (afhankelijk van beschikbaarheid en relatie met de leverancier). Neem je een fiber van 70 km, wordt het een ander verhaal.

De ISP's die dergelijke verbindingen doen, vallen onder grote bedrijven en onder bedrijven die veel data rondpompen. Gezien de infra van de AMS-IX (wat technisch onder wetenschap valt, gezien de lokatie), denk ik overigens niet dat dit er erg veel zullen zijn; en dat hier technieken als SDH en dergelijke te vinden zullen zijn.
(Grotere) ISP's gebruiken dat. ADSL levert veel verkeer op :-)

En dat poortbedrag wat ze noemen is peanuts. Die prijs slaat vast op een switchpoort. De listprice voor een XGe Juniper pic was €288.000,- (routerpoort).
Als je een supercomputer gaat maken door middel van een cluster kan je bij veel toepassingen wel een flinke hoeveelheid bandbreedte gebruiken. Andere toepassingen zijn renderfarms of gewoon hele grote netwerken waar een flinke backbone nodig is.
Nieuwe ibm kantoor (bij knp nieuwe meer) heeft 10 Gb ethernet liggen.
10Gb -> 1250 Mb per sec...
Eigenlijk is 10 Gib (Gibibit) = 10240 Mib (Mibibit) = 1280MiB (MibiByte)
ofwel 10Gb (Gigabit) = 10000Mb (megabit) = 1250MB (megabyte)

:7
Anoniem: 78579 17 maart 2004 15:36
15 meter??dat is kort. Zeker door de hoge snelheid? Maar ik neem aan dat het eerder handig is als een soort backbone om 2 servers te kunnen verbinden of de hd clusters van een SAN.

@donzigeendje: Is ook erg handig voor database backup. De bedrijven die het vaak gebruiken zijn webhosts en ik denk iets voor die super computers in japan of die ene die in nederland moet komen.

:o1.25 Gb/s kan een hd dat wel verwerken?
:o1.25 Gb/s kan een hd dat wel verwerken?
nee

maar een flinke ramdrive wel, of een stevige uw320scsi raid opstelling :)
oh ja?
vertel
even rekenen hoor 10 Gigabit / 8 is 1,25 Gigabyte per seconde

1280MB/s en een uw320scsi raid array kan max 320mb/s aan

hoe kom jij dan aan de 1280?

het zal eerder zoals Neorej al zei voor een uplink van een gigabit switch zijn
Meerdere controllers in RAID zetten moet denk ik ook kunnen.

Je kan een RAID config op een RAID config draaien, denk bijvoorbeeld aan RAID 10 of 01.
Anoniem: 61096 @Wolfboy18 maart 2004 02:49
Cache cache cache.

Het toverwoord bij apparatuur die anders te traag is, zoals CPUs en Harddisks.

Daarnaast om 1,25GByte per sec te kunnen leveren voor je backup heb je ook een harddisk systeem nodig dat daadwerkelijk die 1,25GByte kan leveren. En als je er 1 kan kopen moet twee geen probleem zijn :)
Of een switch met 48 1G/s poorten.
Die 15 meter geldt alleen voor de kopervariant.

10Ge (of XGe, zoals het ook wel genoemd wordt om de verwarring tussen 10 Ge poorten en 10Ge poorten uit te sluiten) over fiber gaat gemiddeld 10 tot 40 kilometer zonder versterking.
Dit is niet om in PCkes te steken eh, ook niet in Servers. Dat dient om backbones van internet te maken enzo.
15 meter is volgens mij alleen voor koper, op glas zou je deze beperking niet hebben. Dus geef mij een reden waarom je geen glas zou gebruiken (als je je standaard UTP/STP kabeltjes toch niet kan gebruiken .......).

/offtopic: Kan de PCI-E bus de snelheid van mijn 10Gbit kaartje wel aan, of moeten we dan weer een generatie verder?

/edit: Na het originele artikel gelezen te hebben: Ja, 15 meter is voor koper, glas gaat tot 10 km.
en: de koperen aansluitingen zouden tot 3 keer goedkoper kunnen zijn dan de glazen aansluitingen.
Ok dus dan ga ik voor koper in een supercomputer :)

PCI-E vergeet het maar. De latencies van de pci bus in het algemeen zijn enigszins afhankelijk van de hoeveelheid Mhz waarop de bus loopt. Maar uitgaande van normale mainboards moet je denken aan latencies van zo'n 5 us op de pci bus.

Dus deze 10 gbit kaarten hoe mooi ze ook zijn, alleen als je je eigen routers of mainboards met speciale hubs of shubs (SGI) ontwikkelt, zijn interessant voor dit soort oplossingen.
Denk dat het wel meevalt omdat je er ook een agp kaart in kan stoppen en die ging tot iets van 8gbit. Er zal ook wel een pci-e komen van 32x waardoor dit soort kaarten gewoon kunnen worden gebruikt.
Wat moet je daarmee? Gedistribueerde computers maken? Meerdere systemen over de hele wereld met in japan je cpu, in nederland je grafische kaart en in peru de rest?

Met XGe worden momenteel alleen nog maar netwerken aan elkaar geknoopt of switches dik op een router aangesloten. Voor eindsystemen heeft dit nog weinig zin.
zolang de printer bij jou staat moet het niet vervelend zijn :D
Op zich maakt 15 meter met koper niet zo veel uit. Het is in het begin toch bedoeld van server naar switch. Zou kan je bijvoorbeeld meerdere servers in een rack aan elkaar koppelen zonder dat je voor zo'n korte afstand glas nodig hebt.
Anoniem: 78579 @mbuts17 maart 2004 15:42
De maximale lengte van de kabels is slechts vijftien meter. Daarnaast maakt de zogenaamde 10GBase-CX4 standaard geen gebruik van standaard twisted-pair kabels, maar van dezelfde bekabeling die ook gebruikt wordt voor Infiniband en Fibre Channel.

Fiber optic cable boedoel je? Het is geen standard twisted pair.
/edit
ff gegoogled en ben erachter dat 10GBase-CX4 wel koperen draden heeft. (8>
@Troll the Flamebaiter: De aansluiting lijkt op SCSI maar de hele techniek erachter is totaal anders.
http://www.ieee802.org/3/10GBCX4/public/nov02/index.html
nee Fiber Channel, een SCSI implementatie
15 meter is bizar weinig. En dat is het maximum. Dat betekent in de meeste gevallen dat de server en de switch in dezelfde kast moeten staan. Dat is niet handig.

Dit soort koppelingen zijn ook meer bedoeld om van router naar switch te gaan, waarbij de switch dan veel servers met een 1G link bedient. Volgens mij bestaan er nog helemaal geen XGe kaarten voor servers.

Maar nogmaals (zie eerdere reacties) die 15 meter geldt alleen voor de kopervariant, niet voor fibers. Koper krijgt bij langere lengtes last van demping/interferentie enzo.
Met een maximum afstand van 15 meter en die prijzen denk ik dat trunken toch interessanter is. Maar goed, over een jaar of 2/3 ligt heel 100mbit eruit en dan is gigabit de standaard, dus dan zal 10gbit wel weer wat verder zijn. Het gaat gewoon met stapjes van 10x
Ik heb gister toevallig een presentatie van AMS-IX bijgewoond en daar vertelden ze dat ze de structuur hebben omgezet (van ring naar hub/spoke) en dat ze zeer binnenkort ook 10GE aansluitingen gaan aanbieden voor klanten.
Daar doen ze het alleen met glasvezel met hoge golflengtes.
Toevallig een tour gehad bij het NIKHEF?
Een tijdje terug zijn daar al de eerste voorbereidingen getroffen voor het aanbieden van die 10GbE aan klanten.
Momenteel is het alleen nog het sternetwerk tussen de AMS-IX onderdelen.
Was inderdaad bij NIKHEF.

Het idee is trouwens dat er zo'n dikke router (Type Mucho Grande ;)) komt bij het NIKHEF en een backup daarvan bij Telecity.
De glasverbindingen daarnaartoe van de 4 lokaties worden redundant uitgevoerd. Maar de 10GE klanten krijgen dan middels een spiegeltjes switch verbinding met de actieve Mucho Grande.
ik zie hier nog niks over op de sweex site staan?
maximaal 15m voor de volle 10gigabit
is het dan ook zo als je een kabel van 30m hebt, dat je dan nog 1~5 gigabit kan versturen/ontvangen? Of kun je dan gewoon helemaal niks meer ontvangen/versturen?
Die 15 meter is dus alleen voor koper kabels. Over glasvezel kan je 100 kilometer halen geloof ik.
Over glas heet het overigens geen ethernet. Een totaal andere techniek met eigen kenmerken tov ethernet.

edit:

Neorej, je hebt volkomen gelijk. Ik ben zo gewend om van ethernet alleen de koperen varianten toe te passen dat ik de andere mogelijkheden uit het oog heb verloren. Werd weer eens tijd voor een opfris lesje. Ter informatie is dit wel intressant voor ieder die net als ik iets teveel met alleen koper gewerkt heeft:
http://en.wikipedia.org/wiki/Ethernet

Valt ook meteen op dat het overgrote deel van ethernet op koper gebaseerd is. Als consument die naar de winkel gaat en om een ethernetkaart vraagt krijgt zelden een optical variant aangeboden en de coaxkoper variant is ook al bijna uitgestorven.
Dat is onzin. Wat heeft de fysieke drager (laag 1) te maken met de bittenstroom (laag 2) die eroverheen gaat?

Ethernet is ethernet, of het nou via glas, koper of postduiven wordt getransporteerd.
Ja, die bedoelde ik :-)
<font color=#786562>* iw@n vraagt zich af hoe zo'n grote datastroom een PC binnen gehaald wordt. Je hoort bij 1-Gigabit ethernet al dat de bussen dit niet door kunnen voeren.</font>
Misschien via PCI-X of iets dergelijks?
Met PCI-X haal je max ongeveer 8 gigabit/s.
Intel heeft een 10GigE NIC, in een benchmark hebben ze daarmee bijna 6 gigabit/s dataverkeer mee kunnen genereren. Hoger ging niet, gedeeltelijk lag dat aan de driver en gedeeltelijk aan de 100% CPU belasting op n dual P4 XEON 3GHz (oid).
Ook bij PCI-X is de grens enkelt maar 6.4Gb/s ... sneller komt het niet bij je memory en kan je mem het ook niet aanvoeren.
Er zijn al wat testen gedaan tussen een stel Itaniums van Amsterdam naar Geneve (CERN) en van CERN naar de west-kust van de USA.
5.xxx Gb/s werd er gehaald door dit soort problemen single stream, single machine.
De bandbreedte van dual-channel RAM is 6,4 gbyte/s, dat is meer dan 50 gbit/s.
Dus aan het RAM zal het niet liggen.
Wat voor switch heb je wel niet nodig om een paar 10gbit aansluitingen te koppelen? Ik bedoel 10gbit is volgens mij voor een gemiddelde switch de capaciteit van de backbone.
Dat hangt ervanaf wat je als gemiddelde switch ziet :-) Zoals iemand anders al zei: er zijn ook switches met een backplane tegen de terabit.

Op dit item kan niet meer gereageerd worden.