Tweede generatie 10Gbit-ethernetmodule maakt koper interessanter

Twee bedrijven afkomstig uit Silicon Valley hebben de handen ineengeslagen om 10Gbit-ethernet over koper beschikbaar te maken voor servermoederborden. De module moet betaalbaarder zijn dan een losse kaart, en minder energie verbruiken.

Mellanox Technologies en Teranetics hebben een multichipmodule ontwikkeld die geschikt is voor integratie op servermoederborden, schrijft EE Times. De module bevat chips van beide bedrijven en moet 10Gbit-ethernet over koper aanzienlijk goedkoper maken. De module biedt twee ethernetpoorten, moet minder dan 200 dollar gaan kosten en maximaal 20 watt verbruiken. Hiermee is de oplossing aantrekkelijker dan losse 10GBase-T-kaarten, die rond de 800 dollar per stuk kosten.

EthernetkabelVolgens T.A. Ramanujam, marketing manager bij Mellanox, biedt de nieuwe module lagere kosten per gigabit dan 1Gbit-ethernetproducten. Desondanks verwachten beide bedrijven niet dat het direct storm zal lopen met bestellingen. De 10Gbit-over-koper-standaard heeft nog een lage marktpenetratie, onder andere vanwege de hoge kosten en het hoge energieverbruik. De bedrijven voorspellen dat halverwege 2009 de situatie zich zal verbeteren, omdat het de verwachting is dat rond die tijd 10GBase-T-switches beter verkrijgbaar zullen zijn.

De multichipmodule, die door het leven gaat als de Connectx Ent, maakt gebruik van pci express 2.0. De maximale afstand die ondersteund wordt is 100 meter bij Cat6a-kabels en 55 meter bij Cat6- en Cat5e-kabels. Verder kan de module overweg met standaarden, zoals ‘Fibre Channel over Ethernet’, Sr-iov en Vmware’s Netqueue.

Door Hielko van der Hoorn

03-11-2008 • 20:39

73

Reacties (73)

73
68
16
13
0
0
Wijzig sortering
De titel zegt "...maakt koper interessanter". Ten opzichte van wat? glasvezel?
Want als het glasvezel; is betwijfel ik dat ten zeerste: misschien liggen de aanschaf- en uitrolkosten bij glasvezel wat hoger; Daar staat tegenover dat de limiterende factor niet de infrastructuur zelf is, maar de licht-naar-elektriciteit omzetters. Maw je kan het complete netwerk upgraden zonder de (relatief hoge) aanschaf- en uitrolkosten opnieuw te moeten betalen.
Zoals in het artikel aangegeven is de maximaal te overbruggen afstand 100 meter. De situaties waar 10Gbit over die afstanden interessant is de fysieke infrastructuur vaak helemaal niet zo'n issue. We zullen het hier meestal over het stukje tussen server en (rack)switch hebben. De kosten voor 10Gbit over fiber (losse fiber ethernet adapter, xenpack en fiber) is hoger dan een oplossing als dit op het moederbord, een 10GBase-T capable switch en wat ethernet kabels.
Het stukje "winst" wat je zou kunnen halen uit de herbruikbaarheid van de fibers is eigenlijk niet interessant.
Is dat niet een beetje het verhaal van de kip en het ei.

Ik kan me helemaal voor stellen dat je als bedrijf die het geld beschikbaar heeft liever gelijk naar glas overgaat gewoon omdat het dan betekend dat je in princiepe oneindig kan door groeien in bandbreete waar we allemaal weten dat koper toch echt tegen het maximaal haalbare aan zit en mischien ooit nog 100Gbit zal kunnen verwerken maar dat het dan toch echt op houd.
Als je eigenlijk nog maar net tegen je bandbreete plafont aan zit met 1Gbit en de groei in bandbreete behoefte maar heel gestaag gaat dan zou je best nog wel eens lekker naar 10Gbit over koper kunnen switchen en het nog jaren uit houden met die kabeltjes.

Het hangt denk ik heel erg af van de bandbreete behoefte nu en in de toekomst. Ik zou persoonlijk denk ik voor het stukje, server <-> switch gewoon koper blijven gebruiken en de rest via glas laten lopen, er zijn immers maar weinig systemen die echt 10Gbit nodig hebben en de geen die dat wel nodig hebben kunnen dat over koper doen. Het voordeel van de rest van het netwerk in glas uitvoeren is dat je makkelijk over kunt van 10Gbit naar heel veel meer in de toekomst.

Uiteindelijk lijkt mij de belangrijkste overweging hoe snel je verwacht dat 10Gbit te weinig zal zijn en je over zal moeten naar meer.
Moet je wel cat6a kabel liggen hebben, en wie heeft dit nu al ? Dus reken maar op max. 55 meter !
Ik mag aannemen dat je rack en server niet verder als 55 meter uit elkaar staan...
De kosten inderdaad.. Glasvezel aanleggen is niet bepaald goedkoop, dus zeker voor kleinere bedrijven maakt dit koper weer interessanter omdat het zoveel goedkoper is geworden.
Wat moet je als klein bedrijf met glasvezel?
Dat het een klein bedrijf is betekent niet dat er weinig bandbreedte nodig is.
Als je een klein bedrijf hebt, kun je toch een groot pand hebben.
Met koper langer dan 100m is vragen om problemen.
Juist om lange afstanden >100m. te overbruggen is glasvezel ideaal.
Dat er ook nog hogere bandbreedten over glasvezel te halen zijn is dan ook mooi meegenomen.
Grote pand maakt echt niet uit hoor. Koper gaat van de centrale (wijk) naar aansluiting. Die afstand is, ongeacht je pand, altijd gelijk. Kan een provider zijn snelheid niet garanderen omdat de afstand te lang is, dan hoor je dat vanzelf.
Dat klopt dus al een hele tijd niet per definitie meer. Ooit gehoord van FTTH (Fiber to the home)? Daar wordt eigenlijk alle koper (OOK van de local loop) vervangen door glasvezel. Daarmee kan een provider weldegelijk de beloofde snelheden garanderen.
Wat is klein? sommigen beschouwen 100 pc gebruikers al als klein. In dat geval kan je zoals anderen al beargumenteerd hebben al snel gebruikers hebben die op redelijke afstand > 200 meter van elkaar zitten.

En wat te denken van bedrijven die veel dataverkeer hebben. een 4 tal CAD gebruikers pompen al snel veel meer data heen en weer dan een 100 gebruikers die eventjes met een 5250 emulator zitten te werken.
Cat5 is bedoeld als gbit, is niet gehaald is er een 'uitbreiding' opgekomen = Cat5e

cat5e is voor gigabit,

cat6 was bedoeld voor 10gbit niet gehaald, dus hebben ze Cat6a ontwikkeld

de snelheid werd niet gehaald door overspraak en dergelijke, over de wat langere afstanden, een cat5 kabel kan makkelijk 10gbit halen over 1 meter. hoe langer die is hoe meer overspraak dus haalt de kabel de snelheid niet meer.


maar zoiezo cat6a is de nieuwe standaart na cat5e, als je nu nog een pand laat bekabelen met cat5e snap je het gewoon niet.
Inderdaad, zo klopt ie.
Daarbij, door de enorme overspraak is 10Gbit over koper (nog) niet interessant. Zodra er meerdere kabels (Cat6/Cat6a) naast elkaar in een goot liggen en er loop over elk touwtje 10Gb, dan gaat dat niet werken door de enorme overspraak.

http://nl.wikipedia.org/wiki/Overspraak.
Als je tegenwoordig cat5e besteld, moet je langer wachten voordat het geleverd wordt dan als je CAT6a besteld.
CAT6a is dus gewoon de norm geworden.
Twee kanttekeningen bij dit nieuwsbericht:

( A ) Mellanox is niet afkomstig uit Silicon Valley, maar uit Israël, hun hoofdkantoor staat in Yokneam. Ze zijn ook genoteerd aan de beurs van Tel Aviv.

( B ) Mellanox heeft dubbele belangen, want ze koning op het gebied van Infiniband. De ConnectX-chip is een hybride-chip die zowel ethernet als Infiniband praat. ConnectX-implementaties zijn inderdaad stukken goedkoper dan 10-gigabps-ethernetoplossingen.

Er komen binnenkort meer hybride-producten. De bedoeling is ethernet en infiniband beter interoperabel te maken. Bijvoorbeeld ethernetapparaten aansluiten op infinibandswitches. Men zaagt op deze manier aan de stoelpoten van ethernet.

[Reactie gewijzigd door dmantione op 24 juli 2024 05:58]

Ik wil toch nog even reageren op de opmerkingen waarom 10Gbit over koper niet boeiend zou zijn.

Ik draai zelf nogal veel storage servers die synchroon hun data repliceren.

Ik heb al diverse setups waar ik trunks heb gemaakt van meerdere Gbit cross-links om maar genoeg bandbreedte tussen beide te krijgen.

Die servers hangen in racks die naast elkaar staan, zit nog geen 5 meter kabel tussen.

Daar zou 10Gbit echt een oplossing zijn. Ook voor verbindingen tussen storage nodes en mijn Xen dozen, daar zit nu 2Gbit tussen wat soms al krap is. Met 10Gbit kan je relatief goedkoop dan een overcapaciteit creeëren.
20 Watt!! Dat lijkt me nogal veel voor een netwerkkaart? is dat ding zoveel rekenkracht nodig?
10Gbit is toch weer bijna een volledige gigabyte per seconde van ethernetpakketjes die telkens moeten gecheckt worden op fouten en gestript van hun lagere-niveau-verpakking (cf. het OSI-7-lagen-model). Als je bedenkt dat netwerkcontrollers zelf snelle microcontrollers zijn en dat we geluk hebben dat al het netwerkverkeer zo van de cpu wordt ontlast, want het zou anders onwerkbaar worden, dan kijk je er weer anders tegen aan.
10Gbit is toch weer bijna een volledige gigabyte per seconde
Volgens mij is het zelfs 1,25 gbyte.
Op het laagste niveau, ja. Maar er is ook protocoloverhead, dus je houdt ongeveer 1GB/S over.
De netwerkkaart moet de protocoloverheid ook verwerken. Dus de kaart krijgt de volledige 10Gbps oftewel 1,25 GB/s voor zijn kiezen (ervanuitgaande dat de andere kant de kaart ook daadwerkelijk vol weet te krijgen),
Klinkt een beetje als natte vingerwerk, waar haal je de 250MB/s aan overhead vandaan?

Das 20% en dat is veel meer als normaal. TCP over ethernet zit op max 8% overhead en dan gebruik je geen Jumbo frames, Super Jumbo frames, Jumbograms e.d. En die laatste gebruiken is wel logisch bij 10GBit/s, dus de overhead zal lager zijn als 8%.

Dus waar komt die 20% vandaan???
De meeste 100Mbit kaarten hebben ook iets van 20% overhead.
Dat heeft niks met protocol overhead te maken. Dat een kaart het niet haalt kan aan de hardware/drivers/bekabeling liggen. Protocol overhead is iets heel anders.

Maar, ik werd op 0 gemod. Kan iemand ff een rekenvoorbeeldje van tcp over ethernet geven (fatsoenlijk geconfigged) waarbij je op 20% overhead komt?
20 is wel veel maar met een beetje storing kun je ver komen ander ding is dat je kabels wel eens veel gevoeliger kunnen
Met DevilsProphet.

Trek een 100Mbit lijn maar eens vol met een Realtek 8139 om maar wat te noemen. Zo rond de 10MB/s hoef je dan echt niet veel meer te verwachten van je PC omdat je CPU behoorlijk moet werken.
Dat verhaal is al achterhaald en hier al helemaal niet relevant.
We hebben het hier over Server chips, niet pruts dingen van realtek.

Op mijn server met Gigabyte moederbord met Gigabit trek ik met een sweex<-- gigabit router met 2 threads SMB mijn hele pijp dicht... (gemeten met dumeter en taskmanager ong 100~110MB/s.

Ik kan dit alleen maar toejuichen, want als het echt zo goedkoop word, wil ik ze wel hebben om een server direct op een 10Gbit switch te kunnen prikken zonder te teamen...
Ik begrijp jouw reactie niet echt. Theft_eXP vraagt of er zoveel rekenkracht nodig is en ik reageer daar met een simpel voorbeeld op.

Ja, de chip die ik aan haal is niet meer van deze tijd maar wat maakt dat uit voor het voorbeeld? Ik geef alleen aan dat er wel degelijk rekenkracht nodig is voor het verwerken van een grote hoeveelheid netwerkverkeer. En dat je dat dus zult merken aan je CPU als je geen NIC hebt die dit af kan vangen.

We mogen het hier over server NIC's hebben, we hebben het hier ook over 10Gbit/s...dus dan is behoorlijke rekenkracht van je NIC wel een vereiste.

Overigens geloof ik van jouw verhaal over je Sweex router weinig. Ten eerste heeft Sweex volgens mij helemaal geen routers met ingebouwde Gbit-switch, maar enkel losse. En als goedkope switches van D-Link en Netgear bijvoorbeeld maar max 700Mbit/s halen met Jumbo-frames ga ik het reuze knap vinden als jij de volle Gigabit op Sweex-troep weet te halen.
Je mag komen kijken hoor...
Die 'troep' die jij aanhaalt is misschien wel niet zo intelligent als een managed LevelOne, Cisco, of 3Com switch. Maar heeft wel power.

En dat is wat deze jongens hier ook proberen te bereiken.
Gewoon een chip die 10Gbit aankan, niet meer en niet minder.
En een Server netwerkkaart behoort niet de CPU te storen.
Die cycles zijn hard nodig om de database op gang te houden.
En wat voor storage heb je dan niet nodig ?? 2 threads en je haalt 110MB sterk.
Ik ben nu al een tijdje bezig met een eigen fileserver, maar met consumenten onderdelen en 8 Sata schijven in raid5 kom ik echt niet boven de 60 MB/s
Zelfs gigabit is al stevig voor je storage, laat staan 10Gbit, moet je al 1 Gigabyte per seconde kunnen leveren en verwerken.

Puur uit nieuwsgierigheid, wat heb je als controller en wat is je disksetup ?

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 05:58]

Wat voor hardware? Een Sun Thumper (X4500) met 48 SAS drives in RAID-Z zou dat zonder al te veel problemen moeten kunnen volduwen. Raw: 50MB/s*48 = 2400 MB/s.
@ Msalters

dit staat er toch echt op de website :
Achieved up to 1 GBps from disks to network and up to 2 GBps from disk to memory1

http://www.sun.com/servers/x64/x4500/index.xml

Ik vind dat er toch errug veel gegoocheld wordt met getallen als het om storage gaat.
ik heb al aardig wat storage in mijn leven gezien en zelfs in grote omgevingen zie ik haast nooit een SAN die verschillende gigabtes per seconde kan leveren aan 10-20-30 host. en dan hebben we het toch echt over installaties met 100-150 schijven vaak allemaal 15K.

Zelfs bij 100 van bovenstaande schijven kom maar aan 15000 io's per sec.

dus met 8K -- 120000 kan je precies 1Gigabyte benutten.
laten we 64K nemen -- kom je aan de luttele 4Gigabyte per sec.


dit alles is dan nog puur theorie en houdt zelfs geen rekening met Raid 6 wat je meestal wel gebruikt in dit soort situaties en de onderliggende kleinere diskgroepen, om het nog niet te hebben over de hoeveelheid cache die er op de controller zit.

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 05:58]

De X4550 klokt al 2.0 GBps / 3.0 GBps (disk/RAM). Maar let op dat grote B bytes zijn, terwijl Ethernet nu naar 10 Gbps - bits dus - gaat. Sun heeft dus al niet meer genoeg aan 2 x 10Gbps adapters, als ze content uit memory serveren!
Wel es van hardware raid gehoord? Ik haal hier met een Areca ARC1220 en 7x1TB schijf in raid 5 een snelheid van 350MB/s (zit op PCIe x4). Daar krijg ik een gbitlijn makkelijk mee vol. Als ik die controller op PCIe x8 zet en ik gooi de schijven in raid 0 trek ik die 10Gbit lijn ook nog vol met de juiste NIC's en bekabeling. Dus zo'n probleem is dat niet :)
@ Andros

wel ik heb een HP P800 hardware raidcontroller met 512bbwc en die haalt echt geen 350MB/s zelfs niet met 8 schijven van 750GB samsung. Zoals ik al zei 60/70MB/s en dan gebruik ik al jumbo frames.

Trouwens die 10Gbit krijg jij nooit vol . Zoveel io's per sec kunnen die schijven niet leveren.
Zelfs een Sas 15K rpm schijf haalt maar iets van 150 io's per sec random read/write.

Wat voor OS gebruik je ? ik gebruik nl. Freenas.

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 05:58]

Je gaat natuurlijk niet een 10 gigabit verbinding volserveren vanaf een enkele harde schijf. De limiet van ca. 125MB/s voor gigabit ethernet is met raid-configuraties eenvoudig te halen, ware het niet dat enige vorm van performance in Windows filesharing onmogelijk is. Ik haal hooguit 60MB/s (maar meestal een treurige 30-40MB/s) met Windows filesharing over gigabit ethernet met jumbo frames terwijl aan beide zijden van het lijntje dikke raid-setups (Areca controllers met 7 tot 11 schijven) klaar staan om de disk I/O te verwerken.
@ Femme ,

precies wat ik bedoel alleen wordt hierboven door thijs_cramer aangehaald dat er 100-110MB wordt gehaald met "SMB" 2-threads. Jouw waardes zijn precies datgene wat ik ook ervaar.
Er zijn zat D-Link en Netgear modellen die gewoon full-wirespeed halen. Welliswaar alleen op de 8- en 16-poorts varianten, maar daar wordt verder niets over genoemd.

Dan nog even over Jumboframes: de kans dat je die in een thuis-netwerkje kan gebruiken (én dat je er iets aan hebt) is zeer klein. Voornaamste reden omdat het een mixed-network is. Met 10/100 devices in je netwerk kan je geen gebruik maken van jumboframes.

Daarnaast wil je fragmentation gebruiken voor je jumboframes om er optimaal gebruik van te kunnen maken, dit vereist een layer-3 switch. Ik weet niet wat jij precies thuis hebt staan, maar bij mij valt dat onder de categorie: "overkill" :)

Verder kan je óók met een RLT8139 chip prima het lijntje dichttrekken, misschien met wat hulp van je CPU. Echter, met een moderne CPU zal je hier weinig tot niets van merken (tenzij je een beetje grafiekjes freak bent).
Beetje tweaker heeft natuurlijk een apart netwerk voor zijn storage, niks overkill gewoon optimaal gebruik. :)

2dehands layer 3 switchen zijn bij bosjes te koop op ebay. Daarenboven kost een nieuw model van HP op maar iets van 500-600euro voor een 24poorts gigabit switch ,dat valt dus reuze mee.
Cisco betaal je nieuw natuurlijk een pak meer maar cisco is wel een beetje "overpriced"

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 05:58]

Inderdaad Apsync. De kosten die een 1. losse netwerk kaart drukken (biedt wel meer zekerheid als het kapot gaat, anders mag je je moederbord wegplure) en 2. minder energieverbruik. Dus de huidige methode is duurder ten opzichte van deze methode.

De markt moet nu haast wel groter worden met deze techniek, want de kosten drukken nu toch wel erg hard. 200 tegen 800 scheelt nogal in mijn ogen. 1 op 4. 1:4.

Ik weet niet wat 20watt stroom per jaar kost voor een bedrijf die deze techniek gaat gebruiken en hoeveel constante kosten dit met zich mee zal brengen, maar ik ga ervan uit dat in 2009 de kosten zeker omlaag zullen gaan, en dus ook meer het gebruik ervan.

Hopelijk wordt de ontwikkeling hiervan weer uitgebreid.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 05:58]

"Ik weet niet wat 20watt stroom per jaar kost ..."

Je moet het in perspectief zien. Een server (ga even van een standaard 2U server uit) zal continue tussen de 700-1000W inzitten qua opgenomen vermogen? Dus die 20W (voor nog eens 2 NIC's ook) valt wel een beetje weg. Temeer omdat de "oude" netwerkkaartoplossing komt te vervallen (5-10W??). Dat stukje valt dus wel mee.

Verder wel erg mooi...10Gb to the masses. Ben erg benieuwd hoe snel 10Gb een beetje "standaard" gaat worden voor serverruimtes. Nu nog erg duur.
Je begint je zo toch af te vragen wat nou het maximum is wat ze over zo'n kabeltje kunnen drukken :)
Cat5 = 100Mbps, Cat5e =200Mbps, Cat6=1000Mbps (gigabit).
bron

[Reactie gewijzigd door Cyw00d op 24 juli 2024 05:58]

Het aantal aders van CAT 5 en 6 is toch gelijk? of heeft CAT6 meer aders.
De CAT-certificering heeft niet alleen te maken met de kabels, maar ook met de afmontering (de outlets en rj45's).

Ik had begrepen van een kabelaar, maar correct me if i'm wrong, dat CAT6-outlets geen 'haakse' verbinding tussen de koperdraad en de outlet toestaat, maar dat dit in elkaars verlengde moet liggen.
Een deel van de problemen die je krijgt met signalen van hoge frequentie is gerelateerd aan impedantie, capaciteit (in Farad, niet hoeveel data) en de mate waarin storing invloed heeft op het signaal.
Ik kan me heel goed voorstellen dat je bij hoogfrequent signalen inderdaad geen knikken in de signaal-weg mag hebben.

Elke kabel die bestaat uit 2 (of meer) metalen leidingen die parallel aan elkaar lopen, heeft een bepaalde capaciteit. Die capaciteit is afhankelijk van de afstand tussen die metalen delen en het oppervlak (en nog een aantal factoren, waaronder het materiaal wat ertussen zit). Het oppervlak is bij kabels evenredig aan de lengte.
Deze capaciteit kan dus beinvloed worden door de kabels strakker om elkaar te draaien (kleinere afstand) en meer windingen (meer lengte van de aders).

De capaciteit icm de impedantie van de kabels kan werken als een filter, waardoor signalen boven een bepaalde frequentie gedempt worden.

De impedantie van een kabel heeft ook nog een ander effect op het signaal.
Wanneer je 2 kabels (en/of stekkers) op elkaar aansluit met een verschillende impedantie, kun je reflecties krijgen. Vergelijk het met 2 buizen van verschillende diameter die je op elkaar aansluit en waar je gas of water doorheen laat stromen. Op het punt waar die ene buis overgaat in de andere, krijg je veel wervelingen. Zo ook met elektrische signalen.
Die reflecterende signalen kunnen dan de signalen die erna komen gaan storen.

De impedantie van een kabel hangt af van een aantal factoren:
- verhouding van de diameter tussen beide aders, met name bij coax is dat belangrijk.
- verhouding van de afstand tussen beide aders en hun diameter.
- gebruikte materiaal.
De impedantie is trouwens heel makkelijk voor te stellen. Stel je misbruikt een kabel als condensator en probeert deze "op te laden" tot een bepaalde spanning(U). Als je dan beide uiteinden kortsluit, zul je een ontlaad-stroom(I) zien die je zou verwachten als je een bepaalde weerstand (R) zou aansluiten op eenzelfde voedingspanning (U).
De impedantie van de kabel is dan R=U/I.

De aders per paar zijn om elkaar getwist om stoorsignalen zoveel mogelijk op te heffen (inductie geeft bij de volgende helft van de twist dezelfde inductiespanning, maar dan tegengesteld).

De kwaliteit (CAT3,5,6,7) van de kabels zegt iets over hoe groot de afwijking is van een bepaalde capaciteit en impedantie en hoe constant de wikkelingen zijn (aantal wikkelingen per meter)
Het zijn nog steeds de zelfde hoeveelheid aders, 8
Maar het gaat om de twisting en daarnaast is de isolatie ook iets dikker.
Cat6 is veel stugger door een plastic kruisje in het midden die de paren gescheiden houdt. Bij de cat 6 connectors blijven de paren ook gescheiden.

[Reactie gewijzigd door junglelord op 24 juli 2024 05:58]

Dat ligt aan de fabrikant, CAT6 kabels die bij ons worden gebruikt hebben dat niet, maar hebben een a.s. om de paren en een a.s. om alles heen waardoor het ook strak in elkaar zit.
Wat wordt er voor 10 gbit/s gebruikt dan?
Zal vast wel een CAT7 oid komen, maar de draaggolf-frequenties hoeven niet omhoog als de modulatie-techniek en foutcorrectie op die snelheid verbeterd. Dus dan zou je mogelijk zelfs met de al aanwezige kabels die snelheid kunnen halen.
CAT7 is er al, en wordt inderdaad gebruikt voor 10Gbit/s verbindingen (en hoger?).
Zoals ATS hieronder al aangeeft; zijn CAT6 en CAT6A ook geschikt voor 10Gbit, maar daar zit een limiet aan m.b.t. shielding en lengte.
Cat6a gaat tot 100 meter op 10Gigabit. Overzicht:

Cat5: 100Mbps tot 100 meter
Cat5e: 1Gbps met beperkte afstand (~50 meter)
Cat6: officiele 1Gbps standaard, 10Gbps met beperkte afstand
Cat6a: officiële 10Gbps standaard, tot 100 meter
Cat7: 1Gbps standaard voor langere afstanden (~300 meter) en ook geschikt voor 10Gbps

De beste koper bekabeling is nu dus Cat6a, aangezien Cat7 vaak alleen voor specifieke situaties wordt gebruikt (EMI). Edit: cat7 is inderdaad STP (elke draad afzonderlijk + mantel) maar ook tot 600MHz terwijl Cat6 tot 250MHz gaat en Cat6a tot 500MHz.

Mijn advies is om cat6a te nemen, dat is nu goedkoop (zelfde als Cat5e ongeveer) en kun je het langst mee vooruit, Cat7 is niet echt een vervanger van cat6 of cat6a. Cat6a is ook een nieuwere standaard dan Cat7.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 05:58]

Gebruiken ze daar dan ook al standaard sftp of is cat7 ook nog utp ?
Staat in het artikel: Cat5e, Cat6 of, de beste optie, Cat6a.
hmmm gigabit gaat ook over cat5e
bron
Gelukkig hebben alle andere reageerders op jouw berichtje niet gezien dat jouw bron zo'n dikke 4 jaar oud is...

"Site last updated: Wednesday, July 28, 2004 12:42 PM"
Module..
Ik hoop iig niet dat ze deze vastsolderen, anders ben je mooi klaar als je netwerkkaart het begeeft. Mag je het hele moederbord vervangen en dus ook meer downtime..
daar zullen vast wel oplossingen voor komen. Die 20 wat kan vast wel via pc-e of anders desnoods er een molex bij. Kijk maar even in de specs of het kan.

module zal wel staan voor een chip. Eventueel met een beetje hardware er bij.
Dat kun ej dan van alle componenten op een mobo zeggen. Zoals, uhm, ik noem maar wat, de southbridge?
Mooi is mijn cat6 netwerkje thuis (10 aansluitingen, alles in de muren weggewerkt) goed genoeg voor de toekomst wanneer 1Gb een beetje een bottleneck begint te vormen. :)

[Reactie gewijzigd door Verwijderd op 24 juli 2024 05:58]

Standaard kantoor applicaties kunnen met gemak op een 100mb kabel,dus cat5
Als je ontwikkel applicaties (techniek) draait heb je meer aan 10gig bekabeling
Kijk dus waarvoor heb je het nodig bent.
Standaard apps ok... maar over diverse kantoren verspreid gebruikt of binnen 1 pand? 100mb voor apps en domain handelingen over diverse kantoren is niet te doen in de spitsuren.
verkeerde posting

[Reactie gewijzigd door klakkie.57th op 24 juli 2024 05:58]

Op dit item kan niet meer gereageerd worden.