Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: 3Com

PcDealer schrijft dat 3Com twee nieuwe Gigabit Ethernet NIC's heeft aangekondigd die gebruikmaken van normale CAT5 kabels in plaats van de gebruikelijke optische kabels. Het voordeel hiervan is dat men makkelijk en relatief goedkoop een 1000Mb netwerk kan aanleggen of een 10/100Mb netwerk kan upgraden. De twee netwerk- kaarten komen met een lijst interessante features en zijn geschikt voor 64bit 64MHz PCI sloten. De prijs voor de workstation kaart is 399 dollar, en voor de server smaak moet zelfs 799 dollar neergelegd worden. Voorlopig blijft Gigabit Ethernet dus voor de normale tweaker nog buiten bereik, maar met deze kaarten is het wel een stap dichterbij gekomen :

Santa Clara, Calif., September 28, 2000 3Com Corporation (Nasdaq: COMS) today announced its entry into the Gigabit Ethernet over copper market with new server network connections designed for the high-performance, reliability and manageability required in mission critical server applications. These new high bandwidth connectivity products provide customers with a feature-rich yet radically simple way to broaden their bandwidth and increase network performance - by as much as 100 times - using inexpensive CAT 5 copper wiring.

[...] At Gigabit-per-second speed, these new network connections provide the fastest possible Ethernet LAN link for servers. These 64-bit 66MHz bus mastering PCI network interface cards support interrupt coalescing and onboard hardware acceleration for TCP/IP/UDP segmentation and checksum to free the server host processor for mission critical application tasks. In addition, six DMA channels eliminate the PCI bus as a bottleneck and efficiently utilize available sever I/O bandwidth.

[...] 3Com's EtherLink Server 10/100/1000 PCI (3C995-T) network interface cards will be available for a suggested retail price of $399 each. For customers who prefer a fiber connection to their servers, the 3Com EtherLink Server 1000 PCI Fiber (3C995-SX) network interface cards will also be available for a suggested retail price of $795 each. These connections support all popular operating systems including Windows NT 4.0, Windows 2000, Novell Netware, and Linux. These network interface cards are sampling at a wide range of server manufacturer and customer sites and will be available for shipment in the coming weeks.
Moderatie-faq Wijzig weergave

Reacties (75)

De vraag is hoelang deze kabels mogen zijn, omdat je veel meer last hebt van dispersie, bij 100Mbit was die in de orde van 100 meter, en het produkt van de dispersie en de lengte moet constant zijn, dus dit zou resulteren in een max lengte van 10 meter en dat is natuurlijk nix :(. Ben benieuwd of ze hier een oplossing voor hebben gevonden.
Als ze spreken over "upgraden van een bestaand netwerk", dan neem ik toch aan dat de maximale lengte 100m kan zijn. Ik vraag me echter af of je met de nieuwe cat 5e je lengte langer kan maken.
Het werkt over normale CAT5 kabels van max. 100 meter lengte; niet langer dus. In ieder geval niet officieel. Wat misschien wel een punt van aandacht is is dat deze standaard dus alle 8 de aders in je kabel gebruikt! Dit in tegenstelling tot 10 en 100 mbit ethernet. Voor meer informatie over kabeltjes:

www.gigabit-ethernet.org/technology/whitepapers/gige_0399/copper99_toc.html
Ah zie je wel... :P

Leuk voor die bedrijven die kosten bespaard hebben door two-pair te trekken.

Aan de andere kant is dit dus net zo'n standaard als 100BaseT4. En als je nu zegt "wablief": Inderdaad ja. Die is niet echt lang in gebruik geweest. Dat is 100 Mbit over 8 aders Cat3 (10BaseT gebruikt 4 aders Cat3). Een overgangs-standaard dus, voor we met z'n allen keihard Cat5e en Cat6 gaan gebruiken voor two-pair giga-ethernet :*)
Tja, maar met natuurkundige wetten valt natuurlijk moeilijk te spotten, zelfs voor 3com :)
Gaaf.. nu nog een paar dikke lijnen van gigapoort naar de server en we kunnen zo via ons cat5 100mbit utp netwerk, onze vette 622mbit atm inet uplink trekken... hehe ;)

Das tog flink besparen.. nomaal betaal je je blauw aan de kabel... Nu betaal je slechts minstens 5000 gulden voor een paar netwerkkaarten en de kabel kun je gewoon laten liggen... Wow... isn't it amazing Mike...? Yeah Jack ut is geweeeldig!

Ps. En vergeet de 30 dagen niet goed geld terug garantie niet!! ;)
vraag me af of je straks nog wel ATM nodig hebt, kun je dat ook door gigabit ethernet met ipv6 vervangen ;)
Wat heeft IPv6 hier in tweakersnaam weer nou weer mee te maken.
Nou, waarom wordt er ATM gebruikt ?
Omdat men onder andere een bepaalde garantie kan geven van de service die geleverd wordt over een lijn(QoS). iest wat ipv4 niet heeft, en wat ze wel van plan zijn met ipv6 :)
D'r stond in een van de laatste automatiserigsgidsen een artikeltje over zoiets, dat het erg interessant zou zijn voor regionale bedrijven die verschillende vestigingen wilden verbinden, maar dat de kabelboeren wat tegenwerkten.
Je doet er lacherig over, maar het laten liggen van de kabel kan erg interessant zijn voor veel bedrijven! Het gaat niet alleen om de materiaalkosten van de bekabeling; wat dacht je van het neerleggen. Dat kost behoorlijk wat tijd = geld. Bovendien worden er mensen van hun werk afgehaald als een monteur met de bekabeling in je kamer bezig gaat, moet het netwerk misschien langer offline, etc, etc, en daarom kunnen de besparingen hoog oplopen.
Klopt wat je zegt. Twisted pair is van oorspong telefoonkabel, ook gebaseerd op het idee dat je bestaande bekabeling kon gebruiken i.p.v. het leggen van nieuwe kabels. De kosten zitten vooral in leggen, materiaalkosten zijn maar een fractie.
Leuk voorbeeldje om het te illustreren: een glasvezelkabel leggen buiten een stad of in een rustig deel kost zo'n 100 gulden per meter. Zit je in hartje Amsterdam ben je wel 1000 gulden de meter kwijt, leg je de kabel in de oceaan dan ben je minder dan een tientje de meter kwijt.
Dat is onzin... kabel leggen door de oceaan is juist behoorlijk duur per meter, o.a., vanwege de diepte, en het feit dat de kabel aan boord geproduceerd moet worden. De dikke glasvezel die dit jaar wordt aangelegd tussen ierland en newfoundland (korste stuk) wordt aan boord van het schip geproduceerd en direct gecoat. Er is dus geen sprake van "losse stukken" maar de coating die tegen erosie beschermd van het zoute water loopt dus gewoon van ierland naar newfoundland :)))

De prijs hiervan is trouwens niet goedkoop, je moet een crew onderhouden op zo'n schip, en de "online productie" is veel prijziger dan het fabriceren in een fabriek. Je garandeerd hier wel mee dat die kabel het over 100 jaar ook nog doet, maar de prijs is vele malen hoger dan een tientje per meter, dat kan ik je verzekeren :) Ik heb bedragen gehoord van enkele tonnen per kilometer, en er moet zo'n 3500 km kabel gelegd worden. In totaal is het dus een miljardenklus om zo'n kabel over de bodem van de oceaan te leggen.
Dat die zee kabels duur zijn is helemaal waar, maar in die kabel zitten zoveel glasvezels dat het dataverkeer per Mb uiteindelijk goedkoper is dan een 'gewoon' kabeltje in Amsterdam :)
Er wordt momenteel ook gewerkt aan het 'Oxygen' project.
Dat is een groot netwerk van onderzee kabels.
Men had uitgerekend dat als een bedrijf een gigabyte aan data over die kabels zou sturen, de kosten om de rekening te sturen hoger zouden zijn dan die van de gebruikte bandbreedte op de kabel :)
Er is overgens ook een nadeel aan kabelen op de zeebodem.
Op de zeebodem komen ook aardbevingen en ander natuurgeweld voor waardoor het nogal eens gebeurd dat de kabel breekt.
Als een kabel op die diepte breekt zal er een stuk van al snel 1Km vervangen moeten worden omdat er voor de versterkers die in de kabel zitten een 2000V gelijkstroom krijgen via een meegevlochten hoogspannings leiding , Als dat nat wordt geeft dat een behoorlijke vonk ;)
Ook zal op die diepte het zeewater behoorlijk ver de kabel binnen dringen.
Wat is het verschil dan tussen de server kaart en de workstation kaart? Normaal is er toch ook geen verschil in netwerk kaart. En het is zeker niet interessant voor de thuisgebruiker/trweaker, aangezien er maar weinig mensen zijn met een moederbord met 64 Bits Pci sloten. Maar voor bedrijven en zo is het wel mooi en goedkoop.

Eppie
Er zijn normaal wel degelijk verschillen tussen workstation en server kaarten. Server kaarten hebben over het algemeen wat meer eigen intelligentie, zodat ze minder CPU tijd gebruiken.

Overigens heeft het weinig zin om een PCI/33 gigabit ethernet kaart te hebben, de PCI bandbreedte is namelijk maar 133 MB/sec, is 1066 mbit/sec -- dus je krijgt met de volledige pci bandbreedte nog niet eens je netwerk volgepompt, en dan moet er hoogstwaarschijnlijk bovendien nog met dezelfde snelheid uit storage gelezen worden...
Ehm Jasper... 1gigabit... is 1000mbit... als ik mij niet vergis... dus met de volledig PCI bandbreedte... 1066mbit zoals je zelf zegt, trek je je netwerk dus WEL vol... of ben ik gek?

Natuurlijk wordt hier het afleesmedium de vertragende factor, maar het fijne van gigabit ethernet is dat we d'r weer een tijdje mee vooruit kunnen... ik bedoel, wij zijn op ons netwerkje net overgestapt op switched 100mbit omdat 10mbit gewoon zo platgetrokken is... maar nu beginnen mensen schijven te krijgen die > 10Mbyte/sec aankunnen... en zit je dus weer.. Met gigabit ethernet moeten de schijfjes weer 10x zo snel worden willen ze dat voltrekken, en da's wel fijn :)
De workstation kaart is een 10/100/1000 MBit kaart via Koper, en de Serverkaart heeft de beschikking over beide, zovel koper als Optisch.
lijkt me logisch dat je voor een kaartje dat je data kilometers kan verzenden ietsje meer betaald dan voor een kaartje die maar 100m haalt :)
Even voor de duidelijkheid: je hebt bandbreedte en latencies. Een snelheid van 1Gb/s hoeft bijv. niet interessant te zijn voor providers (de kleinere hosting providers in Nederland hebben niet eens een uplink van 100Mb/s), maar de lage latencies kunnen voor een intern netwerk wel erg interessant. Ik noem als voorbeeld een SQL server: met een lagere latency worden je queries (vaak erg weinig data, dus bandbreedte is absoluut niet belangrijk) wel veel sneller geretourneerd, vooral als het simpele queries zijn waar de SQL server erg snel antwoord op heeft.

Om dezelfde reden wil je graag snelle SCSI drives in zo'n server. Het zijn hier niet de hoge transfer rates die belangrijk zijn, maar de lage toegangstijden.
Ik denk dat dit ook zeer intressant is voor hosting providers, die hebben meestal een 100 mbit switched netwerk en die kunnen ze vrij goedkoop naar een 1000 mbit netwerk omzetten zonder er vele meters nieuwe kabel voor tekopen!
Ik denk juist dat dit voor hosting-providers niet interessant is; als je klanten hebt die een 100 Mbit lijn voltrekken met 1 enkele server heb je namelijk een erg groot probleem.

Misschien voor verbindingen tussen switches onderling of zoiets wel, maar daarvan heb je er alweer een stuk minder nodig. En dan zou ik toch voor glasvezel gaan, op de een of andere manier lijkt me dat betrouwbaarder.
Dus als ik het goed begrijp vragen ze $400 meer voor de mogelijkheid om een duurdere kabel aan te sluiten. Economie is iets moois :)

En toch vertrouw ik het niet helemaal... Ze beweren namelijk dat het over normale UTP-kabels allemaal net zo goed werkt, en toch zijn zowel de kaarten als de kabels duurder. Is dat dan toch alleen omdat die glasvezelkabels er gaver uitzien?
Waarom zou CAT5 nu weer niet betrouwbaar zijn omdat er geen glas in zit.
Je hebt voor audio ook Optisch en Koper.
En ik heb daar nog nooit iemand over horen klagen
Hmmmm... bij audio hoeft er misschien 1.5Mbit door zo'n kabeltje, dan praat je toch wel over een heel andere orde van grootte dan bij Gigabit ethernet...
Oh jawel... ga jij maar 's naar een 'audio speciaalzaak', de echte 'kenners' zweren bij koper, zij vinden optisch 'slecht' klinken (ja ik moest ook erg hard lachen toen ik het hoorde) :D
Dat is waar, want de kenners vinden digitaal plat en dood klinken er zit geen dynamiek in..
De kaarten en kabels zijn voor optisch duurder.. Dat is inherent aan de techniek.

Dat heeft in dit geval niks met economie te maken: giga-koper is gloedje nieuw, giga-glas is al heel oud.

VBroeger kon 100 Mb ook alleen over glas -- en toen later kon het over 4 paren koper: 100BaseT4 (meer dus dan de standaard 2 paren die normaal gebruikt worden voor 10BaseT en 100BaseTX). Nu is het heel normaal om 2 paar cat5 100 Mbit te trekken.

Ik vraag me af of ze 2 of 4 paar cat5 gebruiken, en of het wel echt cat5 is wat ze nodig hebben -- en niet Cat5e of Cat6 dat ook al gebruikt wordt.
cat5 is een standaard waar 8 aders in vastgelegd worden
niet hoeveel je er moet gebruiken
Is niet waar.

Cat 5 Slaat alleen op de _kwaliteit_ van de kabels, niet heveel paar erin zitten. Er bestaat ook Cat5 met 2 paar, naast het standaard 4 paar spul.

En verder: Man lees eens. Denk je dat je iets nieuws vertelt ofzo?
Goed, we hebben nu 1 GBit netwerkkaarten, maar zijn er ook al hub's en switches die die snelheid aankunnen?? Overigens nog niet echt een vereiste denk ik in de meeste bedrijven, ik zie meer een toepassing in de orde van centrale backups enzo. Daarbij trek je vaak een 100 MB netwerk vol }>
Tuurlijk zijn die er!..
De Gigabit netwerkkaarten bestaan al een hele tijd.. Alleen 3Com heeft nu kaarten voor UTP kabel ipv. optische kabel, dat is het nieuws.
ff lezen wat ik schrijf carloz, ik vraag om hubs en switches, of die er al zijn. GB netwerkkaarten zijn er natuurlijk al, daar gaat het artikel toch over!
dh,, Antwoord ik toch ook op :(
Hubs nog niet, en ik denk ook niet dat die er snel komen. Switches zijn al een tijdje leverbaar.

Coolste voorbeeld dat ik zo uit m'n hoofd ken: de BigIron 15000 met tot 120 1000Base-T poorten (da's dus Gigabit over UTP-bekabeling), of hetzelfde met 1000Base-LH (tot 150 Km kabellengte), of 360 100 Mbit poorten :9
Toch is een hub voor power-home users interesanter: het kost (veel) minder geld en op zo'n snelheid boeit het weinig dat je je bandbreedte moet delen.

(voor diegene die het niet weten: een HUB en een SWITCH kan je beide gebruiken om clients aan elkaar te knopen, maar het nadeel van een HUB is dat je de bandbreedte moet delen met alle clients (10 users te gelijk op 1gbit is dus 0,1gbit per user) terwijl bij een SWITCH de volledige snelheid wordt behouden (1gbit per user)).
En dan komt de vraag; waarom zou een thuisgebruiker een 1 Gigabit netwerk willen?
(Ja, voor bedrijven en zo is het misschien wel handig)

De gemiddelde HD ruimte van een gemiddelde computeraard zal ong 15GB zijn en dan heeft het volgens mij nog weinig zin, ik bedoel dan heb je zo je hele HD over getankt.

Alhoewel zoeits natuurlijk geweldig zou zijn voor Internet zou zijn. Als je internet een snelheid van 1GB zou halen zou het online TV kijken en het Online Spelletjes spelen pas echt interessant worden. (TV full screen, spelletjes heb je geen CD's meer voor nodig maar worden meteen gedownload, ik geloof dat ik een beetje aan het doordraven ben :))
waarom denk je eigenlijk dat dit voor de thuisgebruiker bedoelt is? Met een min. prijsje van 400$ denk ik nou niet meteen dat vele mensen het gaan aanschaffen voor thuis hoor. Zulke technieken worden dan ook meestal betaald door bedrijven die er wel nut van hebben.. wat later zal het dan wel beschikbaar worden voor Jan Modaal.
als thuisgebruiker heb je dit ook niet nodig. over een paar jaar misschien als we allemaal aan een veel grotere datatransfer hebben over het internet kunnen we misschien gaan denken aan gigabit internet (maar ik denk dat dan 100 Mbit nog lang genoeg zal zijn).

bovendien. deze kaarten lopen op een 64 bits pci slot en er zijn niet zo gek veel borden die zoiets hebben (op het moment eigenlijk alleen speciale server borden)
Gigabit (Gb)en GigaByte (GB) niet doorelkaar halen he ;)

1 Gb is dus 125 MB

Is natuurlijk nog enorm snel. Maar ook enorm verschil :)
Nou heel simpel :
Prosesor sharing...
je shared procesoren over het netwerkt :)
Dit is een Linux feature die met 1 gigabit echt te gek werkt :)
je kunt dan probleemloos aan geheugen en prcesor sharing doen :)
kortom je maat van een 6 compus een grote super computer :))))
die dan onafhankelijk van elkaar met elkaar kunne praten...
en dus een soort multiprsesing kunnen doen....
Even over het 'wat heeft de thuisgebruiker hier aan'-gezeur: de thuisgebruiker is veeleisender dan menigeen denkt. Pa is niet de enige die achter de machine zit, ook de kids zitten er achter en die willen leuke spelletjes doen etc. Opmerkingen als 'de thuisgebruiker heeft dit niet nodig' zijn mijns inziens even inzichtvol als de opmerking van Bill Gates dat 640 KB geheugen genoeg moet zijn voor iedereen...
Bovendien gaat het hier niet in eerste instantie om thuisgebruikers...
En over het niet volledig kunnen benutten van de Gigabit capaciteit: dat is mijns inziens niet nodig, zodra er behoefte is aan hogere snelheden dan 100 Mbit ethernet heb je al profijt van Gigabit ethernet. Vergelijk bijvoorbeeld de noodzaak van UDMA100 of UDMA66 t.o.v. UDMA33. Geen enkele IDE HDD kan momenteel 66 MB/s aan, maar als je HDD 34 MB/s kan leveren, heeft UDMA66 al nut (zelfs bij iets lagere snelheiden, gezien de overhead).
Om die reden is het ook niet per se onzinnig om 'normale' Gigabit PCI kaarten te maken. Met 25 MB/s kan je ook al heel blij zijn en dat haalt je 100 Mbit kaartje niet...

Maar goed, 't is wel leuk dat Gigabit ethernet ook over CAT-5 kabels mogelijk is. Niet alleen omdat 't goedkoper is om zo bestaande netwerken om te switchen, maar ook omdat het voor de thuisgebruiker ;) makkelijker te verkrijgen is. Zelfs de Primafoon verkoopt CAT-5 kabels (voor ISDN)...
Ik weet wel leuke toepassingen voor de thuistweaker, zodra Gigabit ethernet wat goedkoper is. Je kunt bijvoorbeeld een relatief goedkoop IDE RAID-5 servertje in elkaar knutselen die ook nog als firewall en mailserver fungeert (lang leve linux :)), dan heb je een lekker snelle fileserver, mogelijk sneller dan je lokale harddisk.
Raid 5 is helemaal niet snel, raid 5 was de betrouwbare en raid 0 (striping) was de snelle weet je nog, even raid opfrissen:

RAID-5: Rotated parity
The primary weakness of RAID-3 is that writes overutilize the parity disk. RAID-5 overcomes this problem by distributing the parity blocks across all of the member disks; thus all member disks contain some data and some parity. With RAID-3, for any given stripe unit, the location of data and parity is fixed. RAID-5 spreads the parity by putting the parity block for each stripe unit in successive -- different -- locations.
Raid 5 is helemaal niet snel, raid 5 was de betrouwbare en raid 0 (striping) was de snelle weet je nog, even raid opfrissen:
Uh, RAID 5 is best snel, alleen niet zo snel als RAID 0. Okee, de schrijfsnelheid van RAID-5 is relatief langzaam en het kan je systeem ook langzamer maken (bij software RAID), maar het is waarschijnlijk wel sneller dan 100 Mbit/sec, afhankelijk van je configuratie...
Ik ook info plaatsen:
www.pcguide.com/ref/hdd/perf/raid/levels/singleLevel5-c.html
ok laten we het dan iets anders zeggen. De thuisgebruiker heeft dit voorlopig nog niet nodig. Waarom heel veel geld uitgeven aan iets waar je de komende jaren nog niets aan hebt. Dat is net zoiets aan 10 terrabyte hdd plaatsen, 12 Gb RAM en 32 1,2 GHz processoren.

ff niet zeggen dat dir technisch niet mogelijk is
Hmmm dit vind ik erg fijn, en een hoop bedrijven waarschijnlijk ook....

Kunnen al die mensen thuis/bedrijven die nu 10/100mBps over een jaar of 2,5 upgraden zonder de kabels te vervangen... (boven een stuk of 5 aansluitingen.... toen moest opeens de kamer waar alle telefoonkables en alle netwerkabels naartoe liepen verplaats worden naar de andere kant van ons grote huis...., en er moest ook nog eens een boel extra tv kabel bij... dat was wel weer dik 2 dagen werk....)
10/100mBps
milliByte? Is dit niet heel erg langzaam :? ;)
zeikerd .. }>
maaruh dit zat er toch allang aan te komen en een ander cvoordeel is de max. lengte van CAT5 wordt voor 1Gbit ... 120meter ipv 100

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True