Gigabit netwerkkaarten getest op 32-bit PCI-interface

Digit Life heeft de prestaties van een aantal gigabit ethernet kaarten getest op de 32-bit PCI bus van een Pentium 4 computer. Het testveld bestond uit de SMC 9462TX, SMC 9452TX, Trendnet TEG-PCITX2, Trendnet TEG-PCITX, Hardlink HA-64G, LG LNIC-1000T(64) en de Intel Pro/1000MT. De SMC 9452TX, Trendnet TEG-PCITX en Intel Pro/1000MT waren voorzien van een 32-bit PCI interface en de overige kaarten beschikten over een 64-bit interface. Deze feature bleef uiteraard ongebruikt omdat er werd getest op moederborden met een 32-bit PCI controller. De benchmarks werden uitgevoerd onder Windows 2000 en Linux. Daarbij werd ook gekeken naar de invloed van verschillende instellingen van de frame grootte (MTU). De geteste netwerkkaarten beschikten allen over ondersteuning voor jumbo frames.
Intel Pro/1000MT Desktop Adapter (klein)
Uit de tests bleek dat de meeste netwerkkaarten hun hoogste prestaties bereiken bij een MTU van 9000 bytes. Het optimaliseren van de frame grootte kan een behoorlijke prestatiewinst opleveren. Een verbetering van 60 procent ten opzichte van de standaard MTU van 1500 bytes was niet ongewoon. Over de gehele linie werden de beste prestaties geleverd door de Intel Pro/1000MT. Vooral onder Windows 2000 was de Pro/1000MT met een maximale transferrate van 716 Mbit/s aanmerkelijk sneller dan de concurrentie. Onder Linux was de Pro/1000MT nog iets sneller (740Mbit/s), maar de verschillen met de overige kaarten waren kleiner. Verder was het opvallend dat de verschillen tussen de standaard MTU en de optimale MTU bij de Pro/1000MT veel kleiner waren dan bij de andere geteste gigabit NICs.

Door Femme Taken

UX Designer

12-01-2003 • 23:42

46

Submitter: T.T.

Bron: Digit Life

Reacties (46)

46
44
34
7
1
4
Wijzig sortering
Is het niet dat een gigabyte-netwerk meer snelheid heeft dan je gewone IDE Harde Schijf? Ik bedoel dat de snelheid ongeveer 600/700 megabit : 8 = ongeveer 80 mB/s is!! Terwijl je harde schijf maar maximaal 30 mB/s wegschrijft.
AuteurFemme UX Designer @Gin04013 januari 2003 00:11
De transferrate van een gigabit verbinding zal in de praktijk inderdaad beperkt worden door de gebrekkige I/O performance aan de andere kant van het lijntje. Ik maak dagelijks 20GB aan backups over een gigabit lijn en haal bij redelijk grote files (enkele megabytes) zo'n 14MB/s vanaf een Cheetah X15-36LP naar een Seagate U6 (5400rpm).
Als dat onder windows XP is, kan ik dat beamen. Maar die schijven die je opnoemt moeten veel meer kunnen trekken (Die 5400 rpm moet toch zeker 25 - 30 MB/s kunnen trekken). Onder linux echter (beide kanten linux) haal ik hogere snelheden en dan is inderdaad de hardware weer de bottleneck.
Reactie op [DarQ_Reaper]. Daarvoor heb je RAID systemen :). En als je echt poen hebt een FibreChannel systeempje.
Ik vind het wel jammer dat de meeste kaarten die ze testen dezelfde National Semiconductor chipset hebben, het heeft weinig zin om die te vergelijken.
Verder had ik graag kaarten met Broadcom (oa 3Com) en Sysconnect chipset in deze test gezien.
Wanneer je grote hoeveelheden data moet verplaatsen is het natuurlijk altijd fijn als je de bottleneck van je netwerk naar je storage kunt verplaatsen.
Of je verplaatst data met max. 10MB/s. of je doet dat met de 30MB/s. bij single channel IDE of misschien zelf 50MB/s. als je een IDE RAID setup hebt.
Je praat dan toch over een snelheid winst van 300% tot 500% tov. een 100Mb/s lijntje. Oftewel een tijdswinst welke dus zeer goed merkbaar is. Het is of 1 uur wachten voor dat 15 tot 20GB data is gekopiëerd of een half uur tot een kwartier. Gigabit ethernet heeft dus ook voor de thuisgebruiker voordelen.
Nu nog een beetje betaalbare hubs die deze snelheden aankunnen (als ik zo de pricewatch eens bekijk zie ik toch minimaal 300€).
Voor een home-netwerk waarbij verschillende gebruikers grote hoeveelheden (digitaal) videomateriaal willen uitwisselen is dit wel erg handig. Dat loopt al gauw in de Gb's :)
Een Gbit hub? Dat wordt erg lastig om aan te komen aangezien je aan een hub niets hebt met Gbit ethernet, aangezien een hub nou niet echt snel werkt bij 2 of meer pc's.

Je kan dan beter een switch pakken, maar die zijn erg duur. Je hebt wel 100Mbit switches met 1 of 2 Gbit poorten, maar die zijn voor de normale consument onbetaalbaar.

En voor thuis heb je het ook niet echt nodig, ook niet als je veel films wil overpompen. Dan kan je beter een crosscable pakken tussen de twee pc's, meer hebben de meeste mensen toch niet thuis staan. Misschien hebben sommige 3 of meer pc's, maar de hardware daarin (bijvoorbeeld de HDD's), kunnen toch meestal de snelheden niet leveren om Gbit NIC's te rechtvaardigen.

Voorlopig blijven Gbit NIC's en switches meestal alleen aantrekkelijk voor bedrijven om hun switches aan elkaar te knopen of om hun fileserver goed bereikbaar te houden, niet voor thuisgebruikers.
Anoniem: 24471 @Beaves13 januari 2003 00:26
inderdaad maar het grootste problem wat je heb met gigabit netwerken is nog altijd je schijven. 740mbit zoals hierboven in het artikel staat komt op zo'n 92 mb/sec en er is geen enkel ide hdd die dat aan kan, Dus moet je een raid opstelling gebruiken wil je er wat aan hebben. Dus twee of meer computers die allemaal raid en en gigabit netwerkkaarten en nog een gigabit switch. Als je dat kan betallen kan je net zo goed gelijk een bedrijf opzetten.
Ik denk dat een gedeelte van de data ook gewoon uit het geheugen van de ceomputer kan worden gehaald. Data die vaak wordt opgevraagd zal daar gewoon continu in staan en dat is zel snel genoeg
Stel dat je 1 GB geheugen hebt... dan is in 8 seconden je hele geheugen al verzonden. En dan ga ik er nog vanuit dat de data die je wil verzenden "toevallig" ook je complete Windows en geladen applicaties bevat... in de praktijk zal van die 1 GB een nog kleiner deel beschikbaar zijn als netwerk cache....
Dan praat je over profesionele servers die een hoge netwerkload hebben (bijv gecachde webpagina's etc). Voor particuleren is dat niet van toepassing (immers wie heeft een server thuis staan die duizenden keren dezelfde data moet afhandelen?).

De particuleren zullen gigabit willen hebben voor filetransfers oid. En dan is je geheugen heel "snel" leeg dus zul je toch echt gebruik moeten maken van je HDD's. En vergeet natuurlijk niet dat alles wat in je geheugen staat ook een keer ingelezen moet zijn (ramdisk?).

Dus je zult echt in beidesystemen bloedsnele hd's moeten hebben. tjsa en als de afstand er niet echt toe doet kun je net zo goed een verwisselbare HD bracket kopen.
Daar komt nog bij dat zelfs als je een IDE RAID configuratie hebt gebouwd die dergelijke doorvoersnelheden haalt, je nog steeds niet de kracht van Gigabit ethernet kan volledig kan benutten. In de meeste gevallen heb je bij desktopcomputers een losse PCI RAID kaart of een onboard RAID-controller die gekopeld is aan de (32-bits 33 MHz) PCI bus. Deze biedt een maximale doorvoersnelheid van 133 MByte/sec, voldoende voor Gigabit ethernet (128 Mbyte/sec theoretisch maximum), maar dan heb je geen bandbreedte meer voor je RAID-controller.
Klopt wel maar 66 MB/s red je ook nog niet met een 100 Mbit kaart, dus evengoed een flinke performance winst.
Euh 66MB/s haal je nooit met 100 Mbit, aangezien 100 Mbit een max heeft van 12,5MB/s ;)
Veel harddisks tegelijk laten werken...dan kom je echt wel dik over de 10 mb/sec heen hoor.
Nou heb ik een hele oude HD, maar die komt ver boven de 740 millibit/seconde uit.... :9

edit:

Ik wil even toelichten dat ik dit niet alleen als grapje bedoel. Het is laks dit niet eventjes goed te doen, en bovendien kun je een hoop verwarring voorkomen. Dus

b = bit
B = byte = 8bit
M = mega = miljoen
m = milli = 1/1000
k = kilo = 1000
K = Kelvin = nvt

anyway, you get the drift ;)
3com superstack 2 : 120
uitbreidingspoort: 175


is nog best te behappen hoor
hhhmmm gaat ook niet of je de volledige snelheid haalt maar is als of je van een dafje in een ferrari stapt ze mogen allebei 120 alleen met de een ben je er wel een stuk eerder ook al heb je een heleboel snelheid over
en is altijd fijn als de max. snelheid omhoog gaat heb je nog een hele hoop snelheid over

[edit}
het blijft me toch weer iedere keer weer verwonderen hoe sommige mensen toch vervelend/mierenneukerig kunnen zijn
maar denk dat dit toch best wel een goed voorbeeld was op wat sommige mensen hier zijden in deze draad wat betreft snelheid overschot 1000 mbit kaarten

plz geef hier eens een reactie op wil wel weeten wat anderen hier van vinden
[edit]
Nou switches zul je bedoelen gigabit hubs zullen niet snel komen. En die zullen in het begin niet te betalen zijn.
Anoniem: 31444 12 januari 2003 23:47
Dus het is nu ook mogelijk om het goed te gebruiken onder PCI-32. Ik maar denken dat het toekomstmuziek is. Volgens mij kunnen ze met de huidige PCI-architectuur de speed nog net iets opkrikken als ze hem gewoon onboard zouden maken. Bij de Apple's zitten ze tenslotte ook onboard en die heeft ook een PCI-32 interface (PowerMac G4). De latency verlaagt dan drastisch en er is een grotere bandwijdte mogelijk. Alleen zonde dat de switches nu nog ontzettend duur zijn ;(

Reactie op hieronder: Ik weet niet of er PCI-64 in zit. Op de apple site zie je namelijk vage zwarte sloten. Ze zijn wel langer als PCI-32, dus ik denk wel PCI-64.
Dus het is nu ook mogelijk om het goed te gebruiken onder PCI-32. Ik maar denken dat het toekomstmuziek is.
Waarom dacht je dan dat het niet te gebruiken is op een plank met 32-bit PCI? De meeste 64-bit PCI serverNICS zijn backwards compatible met 32-bit PCI.
Volgens mij kunnen ze met de huidige PCI-architectuur de speed nog net iets opkrikken als ze hem gewoon onboard zouden maken.
Meestal hangt het dan gewoon aan de normale PCI bus. Zelfs als dat niet het geval is, zal het verschil in latency minimaal zijn (enkele nanoseconden).
Bij de Apple's zitten ze tenslotte ook onboard en die heeft ook een PCI-32 interface (PowerMac G4). De latency verlaagt dan drastisch en er is een grotere bandwijdte mogelijk.
Hebben Macs geen 64-bit PCI meer? De laatste keer dat ik een G3 van binnen heb gezien zaten daar 64-bit PCI slots in.
Jammer dat er niet op PCI-64 getest werd. Dat gaat de markt voor high-end servers worden :). En resultaten onder PCI-64 zouden wel eens heel anders kunnen uitpakken...
Maar het ging hier denk ik om de "thuisgebruiker"?
Ja, daarom vind ik deze test best raar eigenlijk.
Die enkele thuisgebruiker die PCI-32 Gbit NICs gaat kopen...
Ik neem toch aan dat diegene die Gbit hebben dan ook wel een dual bak hebben, om de CPU nog enigszins te ontlasten. En aangezien duallies PCI-64 hebben, nemen ze dan direct een PCI-64 kaart.
Zo is het iig hoe ik het ga doen (ben nog aan het sparen) en een vriend van me het al heeft...
Klopt, en ik ben dan ook best benieuwd om daar de resultaten eens van te zien.

Maar daar is hiet natuurlijk specifiek niet op getest, hier hebben ze expres gekeken naar wat de gemiddelde gebruiker zonder PCI-64 sloten er aan heeft. En aangezien dat toch nog een flinke groep zal zijn, vooral hiet op tweakers.net is het deste interessanter.
Jammer dat er niet op PCI-64 getest werd. Dat gaat de markt voor high-end servers worden
PCI-64 wordt anders al best veel gebruikt, dus worden is het al niet meer. Zo gebruikt de G4 Powermac van Apple al tijden PCI-64 voor de PCI sloten.

Ik denk dat PCI-X (4,2Gb/s met de huidige PCI-X 533-standaard) meer iets is voor de servers, zo heeft de E7500 van Intel bijvoorbeeld PCI-X aan boord.
En resultaten onder PCI-64 zouden wel eens heel anders kunnen uitpakken...
Alleen als je behalve de Gbit NIC nog andere kaarten gebruikt die veel bandbreedte wegsnoepen, zoals SCSI controllers bijvoorbeeld. Dan heb je idd wat aan PCI-64 of liever nog PCI-X. Anders is PCI-32 goed genoeg, zeker bij de consumenten moederborden die nu een 1Gbit NIC standaard aan boord hebben, zoals bepaalde Asus moederborden.
Reactie op Beaves

Een Gbit hub? Dat wordt erg lastig om aan te komen aangezien je aan een hub niets hebt met Gbit ethernet, aangezien een hub nou niet echt snel werkt bij 2 of meer pc's

Een hub is sneller als een switch. Een switch introduceerd nl latency's (het signaal wordt geregenereerd). Alleen bij een belast netwerk is een switch sneller. En dan ook nog alleen als je meerdere server tegelijk benaderd.
enig probleem is dat je met een hub collissions kunt krijgen.
Gbit is een collission-free-netwerk oftewel alles wordt netjes door de switch afgehandeld
Bijkomend voordeel is dat het dan een full-duplex lijn betreft.
Gbit hubs kunnen dus vanwege de standaard al niet eens. (buiten het feit dat je het niet eens zou willen)
Switches zonder store/forward bestaan ook. En de store/forward delay is slechts 8 * 1500 / 10^9 = 12 * 10^-6 s.
hmm ik gebruik zelf voor lan partys dus ook een gigabit maar dan SX.. omdat ik het niet zo op koper heb.. de reden hiervoor is dat als je met meerdere nicjes gaat klooien en dan een array ervan bouwt dat je computer meer bezig is met irq adressen toe te kennen en de zooi te versturen dan daadwerkelijk data te pompen over het netwerk zelf. met 1 gbit nicje heb je dat dus niet.. ok het kost wel een hoop meer (reken maar op 350 euro per poort) voordeel is dan wel dat je minder geklooi hebt.

natuurlijk krijg je je nicje niet volledig benut maar je krijgt nog steeds meer over het netwerk verstuurd dan met je 100mbit nicjes

wel netjes dat ze geklooid hebben met frames (kan ik zelf nog eens proberen :D)
Ik heb in het verleden een aantal artikels gelezen over test met Gigabit NIC-jes in een 100 mbit netwerk. De resultaten bij het gebruik van 1 Gigabit kaarten in een 100 mbit netwerk was beter dan wanneer enkel 100mbit NICjes gebruikt worden. Dat had te maken met het feit dat de reactiesnelheid van een Gigabit Nic kleiner is als die van een 100 Mbit NIC.

Ik weet niet meer hoeveel performance verbetering dat opleverde, maar ik meen mij te herinneren dat dit zeker de moeite waard was. Dus als je een 100 mbit netwerk hebt en je vervangt je moederbord, kan het de moeite lonen om er een te nemen met een Gigabit Lan NIC.
Of je een gigabit NIC of tien fast ethernet NICs gebruikt maakt voor het aantal gegenereerde interrupts niet uit hoor. Als je jumbo frames gebruikt gaat het aantal interrupts wel naar beneden, maar dat kan ook met fast ethernet.
Heel mooi, deze tests. Alleen jammer dat ze alleen W2k hebben getest en niet ook WinXP. Ikzelf zit namelijk nogal te klooien om onder XP de snelheid een beetje boven de 15% netwerkbelasting te krijgen. (Intel-Gbit met cross-cable verbinding tussen P4 werkbak en Linux Fileserver.) Ik heb ook al met de MTU's zitten klooien, maar onder XP haal je vrij moeilijk hogere snelheden :(.

Alleen met NetIO krijg ik een hogere doorvoer (tot max 50 MB/s) en kun je mooi het verschil zien tussen de verschillende packet-sizes. Wanneer ik op de P4 linux draai kom ik mooi op 44 MB/s ongeacht de packet-size (volgens NetIO dus)

Meer hierover op GoT: [netwerkspeed] onder linux veel sneller dan onder XP.
Is het mogelijk dat de snelheid van je harddisk of andere onderdelen van jouw PC('s) de beperkende factor zijn? En gebruik je ook de juiste categorie bekabeling?

50 Megabyte/sec lijkt me overigens niet slecht als je bedenkt dat de maximum doorvoer snelheid van een Gigabit kaart pak em beet 125 Megabyte/sec is.

Ik ben van mening dat als je met 10 vrienden ( mogen er ook 11 zijn ) thuis een Gigabit netwerkje hebt om op te gamen en dat ondertussen iedereen nog wat DIVX-jes uitwisselt je de bandbreedte van je netwerk zwaarder begint te beslasten als wanneer je slechts 2 PC's met elkaar laat communiceren.

Tja, nu nog wat sparen voor een Gigabit switch.
Met exact dezelfde PC, maar dan onder Linux haal ik van/naar m'n fileserver wel zo rond de 40 MB/s oftewel aan de hardware ligt 't niet.
Net IO is een benchmark progsel wat rechtstreeks met de netwerkkaart babbelt en zich dus niets aantrekt van de packetsize van windows en/of enige QoS instellingen.
NetIO geeft aan dat ik met de grootste packet-size (32 kB) onder windows max 50 MB/s kan halen, oftewel de driver van de Intel kaart onder XP is OK
Toen ik nog 100 Mbit had kwam de netwerk snelheid vaak niet boven de 66% uit, of 33% als er iets meer op het netwerk gebeurde, oftewel Windows XP doet iets met het schedulen van pakketjes.
Win2000 komt vaak wel tot de max. netwerk capaciteit/ hdd-snelheid.
De hardeschijven in mijn fileserver halen makkelijk 50 MB/s en in mijn P4 haalt >40 MB/s
Oftewel het is echt iets met XP.
Die 14 - 18% op de Gbit snelheid is dus met een cross-cable, omdat ik de enige ben die die machine gebruikt.
Waarom haal ik dan onder XP (Duron 1 Ghz) 9.5 MB/sec ( + / - 80 mbit :)) met een realtek onboard dingetje van een Windows XP (AMD K6-500) file server? Is toch wel 80% dus effe beter zoeken.....
Leuk, maar 80Mbit is slechts 80% van een 100MBit kaart...

TD-er, waar jij op reageert, praat over een GBit kaart... dan is jouw 80MBit ineens nog maar 8%
Een cross-cable werkt niet met een Gb NIC je moet gewoon een straight kabel hebben met alle 4 paren. 1000BASE-T werkt nl met 4 paren full-duplex. Als je een cross-cable gebruikt ga je terug naar 100Mb (als autosensing goed werkt)
Ook zo fijn dat ze ff meldden hoe hoog de CPU belansting was bij alle NIC's, want ik weet zeker dat dat niet laag was :P
Ennuh, die test hebben ze dan gedaan zonder andere PCI kaarten eraan, want de max. doorvoer van de PCI-bus is 133 mb/s, verdeeld over alle PCI slots. Als alleen zo'n kaart al bijna 100 mb/s trekt, blijft er nog maar een heel klein beetje over voor de andere kaarten, aangezien je nooit de volle 133 mb/s kan halen...
Je gaat een beetje de mist in met je Mb's en MB's denk ik. Voor zover ik weet is de PCI-bus maximaal 133 MB/sec (Megabyte dus). Een dergelijke netwerkkaart zou maximaal 125 MB/sec halen (=1000Mb/sec)

Maar dat je niet de volle snelheid kon halen was allang duidelijk geloof ik, daarom hebben ze ook 64-bit PCI-sloten.
Toch vind ik 7xx Mbit/sec errug netjes hoor voor een 32bits PCI bus!!!

Alleen als je er een RAID kaart bij in hebt zitten waar nog flink vanaf geladen moet worden zal je het merken.
Kan je mij dan ff vertellen waar ik megabytes en megabits door elkaar heb gemixt?
Als ik zeg bijna 100 mb/s voor die gbit NIC, bedoel ik dat ie niet de volle snelheid haalde.
Tuurlijk weet ik dat 1 gbit 125 mb/s is :P

Op dit item kan niet meer gereageerd worden.