Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 33, views: 17.173 •

De IEEE P802.3bj-projectgroep is begonnen met het ontwikkelen van een nieuwe standaard die het mogelijk moet maken om snelheden van 100Gbps te halen over koperen kabels en backplanes. De standaard moet in maart 2014 klaar zijn.

Momenteel worden in meer en meer datacenters servers en switches verbonden via 40Gbps- en 100Gbps-ethernetverbindingen, terwijl veel servers onderling nog communiceren met verschillende 10Gbps-ethernetverbindingen. Om in de komende jaren de bandbreedte in serverapparatuur voldoende te kunnen uitbreiden, moet er volgens John D'Ambrosia, chief ethernet evangelist bij Dell, snel een nieuwe standaard komen voor 100G-backplanes, zo meldt EETimes. Deze behalen doorvoersnelheden tot 100Gbps.

De IEEE P802.3bj-projectgroep is inmiddels begonnen met het vaststellen van een nieuwe standaard. Daarbij richt de projectgroep zich op het ontwikkelen van de physical layer van backplane-interfaces met een lengte tot 1 meter en het toepassen van vier 25Gbps-koperverbindingen. In mei 2012 moeten de eerste voorstellen op tafel liggen. Volgens de huidige planning moet de 802.3bj-standaard in maart 2014 een feit zijn.

Reacties (33)

Je zou toch zeggen dat glas dan beter en goedkoper is, die kan via 1 fiber die snelheden al halen.
Backplane. Dat zit binnen in een machine. Glasvezel gebruiken binnen in een machine heeft geen enkel nut. De kosten van de optical componenten maakt het overbodig duur. En ik denk dan electrical signal -> optical signal -> electrical signal meer problemen en meer delay veroorzaakt dan nodig is.
De kosten zullen idd zitten in het omzetten van glassignaal naar stroom, met koper is het uiteindelijk allemaal goedkoper en daar draait het toch weer om.

Het gaat hier ook om 1 meter lengte als ik het goed lees. Voor de langere verbindingen zal er wel glas gebruikt worden.
"Geen enkel nut" lijkt me wel erg sterk gesteld: Twee signaalomzettingen kunnen elimineren in een switch zal toch wel wat latency schelen. Het is natuurlijk verre van triviaal om een optische switch te maken maar er zijn ten minste academische onderzoeksgroepen mee bezig, bij Elektro aan de TU/e een paar jaar geleden, dacht ik?

(Geldt uiteraard allemaal enkel indien binnenkomende signalen al op glas zitten.)

[Reactie gewijzigd door Bacchus op 26 september 2011 15:43]

Er is inderdaad al een schijfje ontwikkeld en in verdere ontwikkeling waarbij licht kan worden opgeslagen en bewerkt. Ik weet helaas niet meer hoe het heet, anders had ik je een bron gegeven.

Voor huidige technologie is het aanpassen van de electronische circuits wel nodig, tot er in vermoedelijk 2018 commerciŽle lichttransistoren bestaan. Dan gaat de computerwereld op z'n kop.
OK, dan veranderen we mijn woorden in: "geen enkel praktisch nut".

Jij begint over latency. Besef je dat een electrisch signaal door koperdraad sneller is dan een optisch signaal door glasvezel ?

Alles wat ik de laatste jaren (decennia) over optische switches gelezen heb, had niks te maken met de netwerk technologie die jij en ik, en onze ISP gebruiken. Optische switches kunnen alleen "connecties" switchen. En TCP/IP werkt met packet-switching. No way dat die optisch switches in packet- of frame- headertjes gaan kijken naar destination adressen. Voorlopig blijft alles binnenin routers en ethernet-switches gewoon elektrisch.
Klopt 1 enkele fiber kan al meer als 100G aan. Deze techniek heet DWDM (Golflengtemultiplexing) http://nl.wikipedia.org/wiki/Golflengtemultiplexing

Enige nadeel is dat je heel dure apparatuur aan beide kanten moet neerzetten om dit te kunnen doen.
oet er volgens John D'Ambrosia, chief ethernet evangelist bij Dell, snel een nieuwe standaard komen
en ik gok erop dat Dell uiteraard meer dan bereid is om mee te "helpen" met het halen van deze standaard...
Uiteraard, en wat is daar mis mee?
Iemand moet die kar trekken, de fabrikanten zijn er altijd bij geholpen als er een nieuwe standaard bij komt, maar de gebruikers ook.
Vraag me af wat je hiermee nou probeert te zeggen..

Ben het overigens eens met devil-strike, moeten we nu echt het laatste uit koper proberen te knijpen in plaats van over gaan op een modernere toekomstgerichte techniek: glas?
Wat is er precies niet modern aan koper? Het feit dat het al veel langer bestaat?
VZIW kun je met de juiste apparatuur meer data door koper heen sturen dan door glasvezel. Op een bepaald moment kun je licht niet meer demuxen. Bij koper schijnt dat minder te gebeuren, aldus mijn installateur. Heb zelf geen lab.

Also, chips draaien nog altijd op electronen, die lopen wel door koper en andere metalen, niet door optische vezels....dus waarom een extra omzetting toevoegen?
De maximumsnelheid die je met licht kan halen is velen malen hoger dan met koper. Maar koper is veel goedkoper en je hebt geen behoefte om van voor 1m afstand extra elektriciteit -> licht -> elektriciteit omzettingen te maken.
met neutrino’s gaat het nog sneller ;-). deze zijn alleen moeilijker te geleiden als licht en stroom
Dat is nog niet bevestigd en het verschil valt ruim binnen de foutmarges. Het resultaat mocht dan wel significant verschil maken en dus niet aan toeval te wijten zijn, het is nog maar de vraag of het experiment mechanisch gezien goed had verlopen.

Deze zijn verder inderdaad moeilijker te geleiden. Licht is interactief aangezien het elektromagnetische straling is en dus door beide componenten beÔnvloed kan worden, terwijl neutrino's, aan de neutrale kant van de leptonfamilie tegenover de elektronachtige broertjes, ongeladen zijn en niet zoals elektronen interacties kunnen aangaan op atomair niveau. Het is tevens nog maar de vraag wat de fundamentele eigenschappen van een neutrino zijn, in de zin van wat het natuurkundig nut van dit deeltje is. We hebben het aangetoond, we weten een paar intrinsieke eigenschappen, maar veel meer ook niet.
Hoe kom jij er op dat het verschil ruim binnen de foutmarges valt? 60ns te snel met een foutmarge van 10ns seconden valt ruim buiten de foutmarges.
Aannemende dat je met snelheid bandbreedte bedoelt: Volgens mij is dit inmiddels weer discutabel, aangezien er voor glas een theoretische grens qua spectrum/multiplexing in zicht lijkt te komen, waar die voor koper wat verder weg ligt.

Uiteraard behoudt glas nog altijd enkele belangrijke voordelen t.o.v. koper voor lange-afstands-verbindingen: compact en grotere overbruggingen zonder repeater.
Wat dit apparaat doet kan nog niet in glas.
Signalen versturen over glas kunnen we wel al, maar om het signaal te lezen en/of er iets nuttigs mee doen niet. Dan moet je het eerst weer naar koper omzetten.
Hoe denk jij dan dat standaarden geboren worden ? Standaarden komen voort uit samenwerkingen van vendors (zoals Dell), researchers (van universiteiten, etc), en gebruikers (ISPs en grote IT-bedrijven). En de waarheid is dat de vendors de meeste input hebben. Want die weten vaker beter waar ze het over hebben dan researchers en gebruikers.
Standaarden zoals Ethernet komen niet uit de (universitaire) research. Standaardisatie op dat nivo is geen hogere wetenschap, maar veel meer een economische afweging. Wat voor chips kun je in 2014 bakken voor een redelijke prijs?
Vreemd artikel.

Ik heb het begrip "backplane" enkel en alleen horen gebruiken wanneer men sprak over componenten binnen in een machine. De enige uitzondering die ik ooit gehoord heb is misschien de verbindingen tussen verschillende chassis van dezelfde vendor ? Zoals dat je meerdere chassis van een cisco HFR met elkaar kunt verbinden.

Maar high-end machines gebruiken geen backplanes. Die gebruiken switch fabrics (http://en.wikipedia.org/wiki/Crossbar_switch). Daar kun je veel hogere totale interne bandbreedtes mee behalen dan met een backplane.

Is dit soms gewoon een nieuw netwerk-layer2-technologie, maar dan eentje die alleen tussen switches werkt ? En niet tussen hosts en network devices ?
Volgens mij hebben ze in dit artikel het ook over switches.
Voordat je een 100gbs kabel op een switch kan aansluiten moet die switch intern (minstens) 100gbs kunnen versturen, anders heb je er niks aan. Intern werkt die switch nog met koper. Dat koper _in_ de switch kan maximaal 1 meter lang zijn (of, in praktijk, je kan twee switches direct laten samenwerken als ze minder dan een meter van elkaar af staan).
Ik vermoed dat ze de backplane van blades bedoelen.
http://www.shockwavesolut...ed-dell-blade-servers.htm
Meehelpen om een standaard te bepalen geen probleem, maar de kennis in huis hebben om de boel te configureren...

Om dan maar te zwijgen over de x firmwares je nodig hebt alvorens iets stabiel draait.

En ja ik spreek uit ervaring...8 * 1 Gbps uplink met 8 * 1 Gbps standby via spanning tree.
2 blade chasis verbonden via backplane kabels, goed voor 48Gbps.
Heeft me toch 4 firmware versie en 6 maanden heen en weer gedoe gekost om dat stabiel up and running te krijgen (en mijn settings stonden goed van dag 1).

Nu hoe dan ook, goeie stap vooruit, want persoonlijk begin ik 100Mbps voor workstation en 1Gbps voor servers echt te traag worden.
Met de komst van 100Gbps, zal de 10Gbps waarschijnlijk toegankelijker en meer standaard worden.
Het is duidelijk. De pdf-jes op http://www.ieee802.org/3/100GCU/index.html leggen het uit. Deze backplane technologie is gewoon Ethernet over 100Gbps, maar dan met goedkoper en dunnere kabeltjes dan andere 100Gbps voorstellen. En om dat te kunnen doen, is de maximale kabel-lengte slechts 1 meter.

Zoals ik dus dacht: een nieuwe layer2-technologie, enkel en alleen om netwerk apparaten te verbinden die boven op elkaar staan.

[Reactie gewijzigd door gryz op 26 september 2011 15:31]

Ben het niet helemaal met je eens.
Verwacht dat deze technologie vooral gebruikt wordt in high capacity (carrier-class) switches/netwerk apparatuur.
Dit soort systemen werkt met kaarten die in een chassis geschoven worden. De kaarten worden dan aan de achterkant onderlink verbonden via het backplane. Dit backplane moet dus een hoge capaciteit hebben om de kaarten onderlink te verbinden.
Deze insteek kaarten kunnen aan de voorkant electrische en optische interfaces hebben op verschillende snelheden als 1G, 10G, 40G en 100G.
Daar zijn verschillende methoden voor maar de industie wil hier graag een standaard voor.
We zeggen ongeveer het zelfde.

Ik denk alleen niet dat de insteek-kaarten aan de voorkant netwerk interfaces hebben. Ik denk dat er insteek-kaarten komen die aan de ene kant gewoon aan de cross-bar switch van de switch/router zijn verbonden, en aan de andere kant een of meerdere van deze nieuwe P802.3bj interfaces hebben. Dan kun je een switch/router bouwen met gewone hardware, maar als al je insteek-slots vol zitten, duw je er een P802.3bj interface is, en breidt je het systeem uit met een tweede chassis.
Je denkt dus meer aan stackable switches.

In het objectives document staat:
Define a 4-lane 100 Gb/s backplane PHY for operation over links consistent with copper traces on “improved FR-4” (as defined by IEEE P802.3ap or better materials to be defined by the Task Force) with lengths up to at least 1m.

Dit gaat dus fysiek over een backplane. FR4 is materiaal waarvan fysieke backplanes (PCB) gemaakt worden.

Maar er staat ook:
Define a 4-lane 100 Gb/s PHY for operation over links consistent with copper twin-axial cables with lengths up to at least 5m.

Dit komt meer overeen met jouw idee van een snelle kabel om switches te verbinden (soort uplink).

In jouw opinie gaat het niet om een backplane maar meer over een soort backbone cq uplink. Ik denk niet dat dat bedoelt wordt.
eeeh.. 4 SSD's (in raid) en je hebt genoeg bandbreedte om het op te slaan hoor. Maar het hele punt bij die snelheden is dat je de harde schijf niet meer gebruikt, maar de data meteen streamed.
Zelfs als de data gestreamed wordt en direct in het geheugen geladen wordt, ben je nog afhankelijk van de beperkende snelheid van de tussenweg naar je computer. Ik ben geen expert met kaarten, maar weet wel dat zoals bij een ketting, de zwakste schakel de uiteindelijke kracht bepaald - en hetzelfde geldt bij snelheden over elektronische circuits.
Ik weet ook verder niet welke snelheden huidige computer componenten aankunnen, maar als ik zo hoor dat RAM modules snelheden gemeten in MHz hebben, kan ik me toch enigzins voorstellen dat 100 Gbps aardig veel is om met die paar MHz te verwerken.
Je beseft toch dat 100 Gb/s zo'n 12.5 GB/s is of met overhead 10 GB/s?. Dat moet je per SSD al 2.5 GB/s halen... Waar haal je die?
bit/byte rekenfout. als je een ramdisk maakt en deze benched zal je ook niet veel verder dan 5GB/sec komen, is dus nog steeds niet genoeg.

[Reactie gewijzigd door analog_ op 26 september 2011 22:29]

Geld, dat is waar alles om draait. Maar fiber glass kan ook niet zo goed tegen een (scherpe) bocht? Dus als ik het goed begrijp zit het in een machine? Misschien heb ik wel en compleet verkeerde beeld hierbij.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneMobiele besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013