Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties
Bron: EBM, submitter: T.T.

EBN bericht dat Fujitsu claimt de eerste 10Gbit/sec ethernet switch te hebben ontworpen welke slechts één chip nodig heeft voor het versturen en ontvangen van de data. De chip meet 256 vierkante millimeter en bevat onder andere buffergeheugen en twaalf aansluitingen voor ethernet-poorten. Doordat de geheugencontroller geïntegreerd is in de chip bedraagt de latency slechts 450ns wat viermaal zo snel is als de huidige 10Gbit switches. Een ander voordeel van de chip is dat deze het mogelijk maakt om goedkopere en kleinere 10Gbit switches te ontwerpen geschikt voor bijvoorbeeld blades:

Fujitsu logoThe Japanese chipmaker said the chip can replace current large 10Gbits/s Ethernet switches that are too bulky and expensive for cluster blade servers, or servers and storage units. The new chip is expected to enter production sometime this year.

Details of the 10Gbits/s Ethernet switch will be presented at the Hot Chips Symposium in Palo Alto, Calif., in August.
Moderatie-faq Wijzig weergave

Reacties (35)

Dit is zeker heel netjes, alleen jammer dat de 'gewone' mensen er niet veel van te merken zullen krijgen, aangezien er nog veel te veel bottlenecks in een computer zit om ook maar een 1Gbit volledig te kunnen benutten, laat staan 10Gbit (zoals de harde schijf met een max van +/- 80MB/s -> 80x8=640mbit/s)
10Gbit is ook niet bedoeld om een server aan te hangen, dat is idd overkill, zelfs met een brute RAID array haal je geen 10Gbit/s.

Deze chip zal zijn weg vinden naar switches die als backbone dienen (dus om de rest van de switches binnen een bedrijf aan elkaar te knopen) en naar routers die veel verkeer moeten routeren, zoals bij internet knooppunten.

Thuis heb je hier niets aan, ook niet over een tijdje wanneer ze betaalbaar zijn, ik betwijfel of er ooit een situatie zal zijn waar we thuis 1 of 10Gbit switches/routers nodig hebben.
met dit soort uitspraken moet je altijd best wel voorzichtig zijn... :Y)
ik herinner me nog een qoute van Mr Bill Gates himself... 640k ought too be enough (ofzoiets)
<offtopic>een weet ook nog een grap:

wees aardig tegen een nerd ooit moet er mischien voor werken!

Dit heeft Bill Gates ook een keer gezegd.</offtopic>

Ben benieuwd wanneer dit leverbaar wordt zal nog een prototype zijn
nee maar 100 pc's samen wel, en daar gaat het h'm nu juist om, later over een paar jaar zullen de pc's die 10gbit's ook wel halen, want de 1gbit's halen ze nu al (aardige raid setup)
Thuis heb je hier niets aan, ook niet over een tijdje wanneer ze betaalbaar zijn, ik betwijfel of er ooit een situatie zal zijn waar we thuis 1 of 10Gbit switches/routers nodig hebben.
Ik zit hier thuis met een Gbit verbinding tussen fileserver en werkbak. Ik kan haast niet wachten tot de switches betaalbaar zijn.
Ik moet namelijk geregeld files van 10+ GByte overpompen, dat wil je eigenlijk niet op 100 Mbit doen.
Dit is dus ook niet om op desktops aan te sluiten, dit is om zware backbones mee aan te sturen. En voor dat gebruik is dit een zeer interessant nieuwtje. 10x 1 GBit lijn ( = dus 10 kabels) was de enige andere oplossing...
10Gbit netwerkspul bestaat al langer als nu hoor, zoals de topic zegt is het de eerste switch in 1 chip, niet de eerste 10Gbit switch of technologie.
Dit is inderdaad alleen voor de wat grotere bedrijven makkelijk. De volledige 10Gbit zul je waarschijnlijk niet snel gebruiken, maar vergeeet niet dat deze switch al nuttig is als je 1,01Gbit gebruikt.
Grotere bedrijven?

Ik mag het misschien niet zeggen, maar op m'n werk (lampenboer in het zuiden des lands) sleuren we de mail en de files nog door een 10Mbit lijntje.... |:(
Ik mag het misschien niet zeggen, maar op m'n werk (lampenboer in het zuiden des lands) sleuren we de mail en de files nog door een 10Mbit lijntje....
Je mag inderdaad niet veel zeggen: voor 90-95% van de gebruikers is een 10 Mbit (vooruit dan, full-duplex) meer dan voldoende. Alleen echte "power-users" zoals CAD tekenaars hebben recht van spreken als ze beweren meer nodig te hebben.
Wat belangrijker is is een optimalisatie van het netwerk. Zo is het wel fijn, als het broadcast-verkeer van gebouw A niet over het netwerk van gebouw B heen loopt te stuiteren (en omgekeerd), servers echt centraal staan en gekoppeld zijn aan een goede backbone, data-opslag goed geregeld is, enzovoort. Daar valt voor bedrijven vaak meer mee te verdienen als met alleen maar upgraden van switches en bekabeling.
denk dat het dan goedkoper is om tegaan trunken want als aders in de gelegt worden zijn het meestal meer dan 1 paar. Kost namelijk in verhouding geen drol om 40 adres te leggen ipv 2.
Voor nu is het overkill. Zo dachten we enkele jaren geleden ook over 3 Ghz processoren 512 MB+ geheugen en schijven met een grootte van meer dan 80 GB. Zoals hier de praktijk ons inmiddels heeft ingehaald denk ik dat dat in de toekomst ook met switches zal zijn. Het enige probleem zal de bekabeling zijn. Glasvezel is niet goedkoop, draadloos is nog lang zo ver niet en veel te kwetsbaar en koper is volgens mij ook veel te gevoelig bij dergelijke snelheden.
Je hebt helemaal gelijk!
De hele computerbusines schaalt gewoon op, en netwerk hoort daar ook bij.
Kan je nu nog best meekomen met 100megabit, 1000 zou toch wel een stuk vlotter werken, zelfs thuis want even 80 gig kopieeeren is er niet meer bij (zoals eerst 8 gigabit op 10megabit).

(Dus dat 10gigabit overdreven is moet niemand te hard zeggen, voor je het in de gaten hebt zijn we weer zo ver.)
Kwou net zeggen. Op werk wil het hoofd ook al sneller gaan. Op de bacbone heeft wellicht nut omdat er al een aantal Gbit servers draaien per switch met belachelijk veel geheugen. Fijn dat er dan een 10Gb single-chip is. Maar het enige wat er echt bijzonder aan is, het geheugen. Net zoeits als chache in een CPU kun je dat zien. Zorgt er voor dat het veel sneller gaat. Maar nogmaals, alleen van nut tussen andere netwerkcomponenten in core of distribution. Tenzij jouw pc uitgerust is met een Ultra SCSI 4miljoen Ultra 3miljard schijf. Dat gaat nog wel even duren jammer genoeg.

Ben overigensw wel benieuwd wanneer die nieuwe generatie Cisco en Nortel switches gaan komen. Of zal Cisco as usual weer iemand opkopen en doen alsof zij het hebben uitgevonden :r
Met 1 hardeschijf heb je zeker genoeg aan je 10Gbit switch.
Maar als je nu ook nog eens tergelijk via jou cd-rommetje bestanden aan het versturen bent, zit je al weer een heel stuk hoger.
Niet dat je hierdoor meteen naar de winkel rent om een nieuwe switch te kopen, maar in de toekomst zie ik toch best veel particulieren gebruik maken van een 10Gbit verbinding
Aangezien de huidige x86 processoren met een klok van 3GHz zitten en deze chip seriele data op 10Gbit moet verwerken lijkt het mij dat deze chip eigenlijk technologisch een hele stap verder is dan x86 processoren.
dat kan wel zijn... maar dit type chips werken in een compleet andere omgeving en zullen daarom nooit te vergelijken zijn met een cpu
dat kan dan wel zijn, maar om 12x 10 Gbit te verwerken moet je toch 120 Giga keer per seconde een bitje verwerken.

[edit] lezen is een vak
Lijkt me niet. Sowieso werken CPUs in words van 32b of 64b, dus die 120GHz kun je al door minstens 32 delen, waardoor je tot 3.75GHz zakt. Bovendien is het waarschijnlijker dat alle 12 ports tegelijk bediend worden op parallelle basis, dan dat hij serieel 12 cycles doorloopt. 3.75GHz delen door 12 geeft 312MHz. Hoogstwaarschijnlijk zal hij sneller dan dit draaien, maar het zal niet eens in de buurt van 120GHz komen :z
oh ja?
op een 12 poorts switch hebbie in optimale toestand 6 in en 6 uit. Oftewel 60 Gbit/s

trek daar dan ook nog maar iets van overhead vanaf. (er is bijvoorbeeld een GAP noodzakelijk tussen de paketten!).

Minus het verlies door broadcasts die er altijd tussne zitten. Nou 50Gb is is heul errug veul.

Dit soort snelheden zit eigenlijk nooit in een blade switch, tenminste de eerste paar jaar nog niet. ALs je weet wat die troep kost, kun je er van uitgaan dat dit alleen maar in de grote concentrator switches in gorte knooppunten of in zware datacenters staat. Dan praat je al gou over de Cisco 6500 /7800 omgeving (is dezelfde switch alleen in het laatste geval noem je hem router)
op een 12 poorts switch hebbie in optimale toestand 6 in en 6 uit. Oftewel 60 Gbit/s
Een switch is toch gewoon full-duplex :?
Maar goed, aangezien er 12 aansluitingen op de chip zitten , zou het kunnen zijn dat je alsnog min of meer gelijk hebt, maar dan om een andere reden ;)
Puur qua snelheid heb je gelijk, maar qua complexiteit kan deze chip niet tippen aan een X86 proc denk ik hoor.
een 10Gbit switch kan dus per seconde 10Gbit per poort versturen, dat komt dus neer op maximaal 120Gbit (15GB/sec)
Als je bedenkt dat een P4 ontworpen is voor rekenwerk, en deze over zijn FSB al 6.4GB/sec kanlaten lopen, dan is dat verschil niet eens zo heel groot meer. Natuurlijk is deze vergelijking heel kort door de bocht, en klopt er dus eigenlijk geen hout van dit verhaal want het zijn totaal andere chips, met andere ontwerp schema's en andere doelen. Maar wat pure snelheid betreft is het dus niet eens zo heel verschillend.
Ik hoop wel dat er niet zo'n belachelijke koeling in hoeft. Onze 10/100 switches (3Com 24 poorts dingen) hebben al vrij luidruchtige koeling... nu zeg ik niet dat geluid direct een probleem is, maar het geeft wel een bepaalde grens aan van wat haalbaar is en hoever ze met die dingen kunnen doorschalen.

Daarbij kunnen koelers kapot gaan, maar een grote heatsink doet het altijd ;)
Heb je ooit wel eens gehoord van een stille patchruimte als het al niet hetzelfde hok is al de serverruimte?? Door alle aircotroep hoor ik bij ons de servers niet eens meer, laat staan de switches.
En dan heb je ook nog een HP Procurve 4108 GL switch met 96 x 100 Mbit, 6 x 1 Gbit en 2 glasmodules. Dat ding maakt afzonderlijk al zoveel herrie dat als je hem thuis op de zonder plaatst je ouders beneden gaan klagen!!

btw.... heatsinks zijn niet genoeg meer om van die grote switches te koelen. De active koeling is nodig. Net als bij ieder apparaat wat warmer wordt komt er wel een weer een betere koeling voor.
ga ik in mee. wat denk je van de AMSIX??

alsof die BIG IRONs al niet genoeg herrie produceren om een F16 tot schande maken, dan heb je nog eens alle aangesloten partijen met hun apperatuur.

bij ons in de colo: ach, vind het wel lekker die herrie. (maar niet langer dan 10 minuten als het ff kan)
Zo'n herrie is het niet daar hoor (ams-ix)

In ieder geval zeker niet zo'n herrie als een F16, bij laaaaaaaaange na zelfs niet
Ik doel niet specifiek op de geluidsproductie (ik zei al dat dat niet direct een probleem is!).

Ik bedoel dat als een simpele 24x 10/100 switch al actieve koeling nodig heeft, hoe zal dat dan worden met 10Gb switches? Als een 6 poorts ding al straaljager-niveau koeling nodig heeft, zal dat de schaalbaarheid (naar meer/snellere poorten) niet ten goede komen.

Ook als een apparaat veel warmte produceert, verbruikt ie dus veel energie, wat dus hogere kosten voor elektriciteit en evt airco oplevert.
hallo het zijn Japanners !
dit betekend dat iedereen dit heeft in 5 jaar.
en dan zeggen wij nu wel dat een 100Ghz Pc, onmogelijke is maar de toekomst is dichterbij dan je denk.
en een 1 terabite hardisk is zover weg nog helemaal niet.
ik durf er zelfs op te wedden dat wij er allemaal een hebben binnen de 5 jaar.
uitgaande op een betere economie !

chips worden ook veel sneller door de 0.9nm tech.
De grote vraag is eigenlijk of dat je op alle poorten tegelijk de volledige capaciteit kan benutten. Meestal is dit niet het geval!!! Neem bijvoorbeeld een cisco switch. Er bestaan bv. 48 poorts gigabit kaarten maar dit wil absoluut niet zeggen dat je 48 Gb/s throughput kan halen. Dit is allemaal afhankelijk van de backplane en de rest van de kaarten die in het systeem geinstalleerd zijn. Ik kan met inbeelden dat deze nieuwe switch geen 120Gb/s haalt maar ik kan natuurlijk verkeerd zijn. (8>
Bekabeling...ach ja!

Zelf heb ik nu bekabeling ( CAT6 ) en dat is maar een 1Gb.....de prijs....op zijn minst 4 x zo duur als simpele cat5 bekabeling.

Dat moet wat worden voor die bekabeling voor een 10Gb netwerk.

Nee, ik heb nog geen 1Gb switch en netwerk kaart, het deze bekabeling gekocht omdat het een stuk minder storings gevoelig is....wel zo handig als je er een behoorlijk aantal meters van nodig hebt!
Zelf heb ik nu bekabeling ( CAT6 ) en dat is maar een 1Gb.....de prijs....op zijn minst 4 x zo duur als simpele cat5 bekabeling.
Heel fijn. CAT6 is nauwelijks gecertificeerd. CAT5+ kan ook (gegarandeerd) 1 Gb aan, en is stukken goedkoper.
Kortom: denk dat je enigszins genaaid bent: voor dat geld wat je nu extra neer hebt gelegd voor die CAT6 t.o.v. CAT5+ had je bijvoorbeeld al een Gb Ethernetkaart kunnen kopen.
Wat betreft storingsgevoeligheid: als je begint met goed te kijken hoe en waar je je kabels neerlegt, voorkom je meestal al heel erg veel storingen (ben een keer op bezoek geweest bij een bedrijf, omdat ze klachten hadden over netwerkstoringen. Bleek dat ze vanaf de server 1 UTP kabel hadden lopen - lekker redundant - over een TLbak naar een hubje!).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True