Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Submitter: player-x

Intel heeft een 10GBase-T-netwerkcontroller aangekondigd met een relatief lage adviesprijs van 124 dollar. De Ethernet Controller X540 zou zijn werk zuinig doen en op moederborden of netwerkkaarten geÔntegreerd kunnen worden.

Intel logoDe nieuwe 10GBase-T-netwerkcontroller heeft omgerekend een adviesprijs van ongeveer 95 euro, waarmee hij goedkoper is dan het gros van dergelijke controllers. Volgens Intel is de controller zuinig en klein genoeg om op mainstreammoederborden voor servers te worden gebouwd. Verschillende fabrikanten zouden de controller gaan gebruiken voor hun komende servers met de nieuwe Intel Xeon E5-2600-processors.

Intel kondigde tegelijk een nieuwe pci-e-kaart aan die gebruikmaakt van de controller: de Ethernet Converged Network Adapter X540-T2. Deze kaart heeft nog geen adviesprijs meegekregen. Intel belooft dat de kaart backwards compatible is en kan worden uitgerold in datacenters, die daarna op een later moment eventueel kunnen overstappen op 10GbE-switches.

De controller maakt gebruik van Intels DDIO-technologie, die de componenten toelaat om direct met de processorcache te werken. De technologie werkt alleen in combinatie met de Intel Xeon E5-lijn serverchips. Intel zegt hiermee betere prestaties op het gebied van bandbreedte en zuinigheid te kunnen leveren, omdat niet meer heen-en-weer hoeft te worden gecommuniceerd met het systeemgeheugen.

Intel x540-t2 10Gigabit Intel X540 10Gigabit controller
Moderatie-faq Wijzig weergave

Reacties (71)

Volgens de omreken methode is 10Gbit/s 1280MByte/s. Zijn er dan al harde schijven (al dan niet in een RAID opstelling) die deze snelheid kunnen benaderen, of is dit gewoon een product dat je echt voor de toekomst in een server bouwt?
Als je je dat afvraag moet je natuurlijk niet uitgaan van het maximum van deze nieuwe adapter, maar van het maximum van de langzamere standaard die hij vervangt, 1 gigabit dus. De 120 MB die je daarmee haalt kun je natuurlijk makkelijk tegenaan lopen.

[hr]

Ik hoop dat ze snel volgen met een switch die deze snelheid voor een goede prijs haalt; dan kan ik mijn thuisnetwerk updaten :)

[Reactie gewijzigd door Spider.007 op 8 maart 2012 13:06]

De vraag is of het ook echt nodig is in een thuis netwerk.

Natuurlijk kun je de theoretische snelheden van de 1Gb/s makkelijk halen en vervolgens je netwerk updaten om extra snelheid er uit te halen. Maar wat ik me af vraag is hoe je dit zo "nodig" kunt hebben dat je er zo veel geld aan uit wilt geven om de snelheid in huis te halen.
Laten we zeggen dat je iedere dag 1 TB aan data van A naar B sleurt op je thuis netwerk (nog al wat data maar goed) dat komt dus neer op ~10 seconde als je "maar" 1 Gb/s kunt verplaatsen. Laten we er van uitgaand at je de volledige 10 seconde niets anders kan doen en moet wachten tot de data is gekopieerd dan ben je dus ongeveer 360 dagen bezig voor je een uur verloren bent aan tijd. Nu weet ik niet wat jij verdient natuurlijk maar voor mij is 1 uur per jaar de minimaal 250 euro voor de twee kaartjes echt niet waard.

Ik denk dan ook dat de meeste mensen simpel weg op dit moment nog niets hebben aan zulke kaarten simpel weg omdat we nog geen van alle voldoende data produceren om de uitgave aan de netwerk apparatuur nodig voor deze snelheden te kunnen verantwoorden.
Het heen en weer pompen van 1 TB aan data duurt helaas nog wel wat langer dan 10 seconden op een 1 Gb/s netwerk. Ongeveer 2,5 uur.

In dit geval zou een 10 Gb/s netwerk de klus klaren in 15 min (onder ideale omstandigheden).
Ook nu in een server is hij al heel nuttig. Voordeel is er ook bij kleine data. Als je een megabyte van je db-server naar je webserver moet krijgen, duurt dat straks 1/1000ste ipv 1/100ste seconde.
Er zijn weinig switches die 1gbit kunnen verwerken. Iedereen die hier het nut bespreekt dat 10gbit al heeft, vergeet hoe lang het heeft geduurd voordat we van 100mbit naar 1gbit zijn overgeschakeld. Dat was een overgang waar 5-7 jaar overheen is gegaan.

Dit is een doorbraak, omdat 10gbit echt absurd duur was altijd en prijzen van meer dan §500 voor slechts een netwerk-kaart vrij standaard waren. De routers, switches e.d. dienen ook 10gbit te ondersteunen en die zijn ook vrijwel allemaal gbit.

Ook al heb je dus een SSD op je computer-thuis, je zult echt niet snel met 300MB per seconde bestanden kunnen kopiŽren, je zult sowieso een andere computer rechtstreeks moeten aansluiten met een UTP-kabel.

Het harde schijf standpunt is verder ook niet correct. Veel servers hebben een enorme hoeveelheid geheugen en servers veel vanuit hun geheugen. Het is ook niet zo dat de IO van een server vergelijkbaar is met het dataverbruik.

10gbit is natuurlijk erg gaaf, zeker met back-ups van enorme hoeveelheden servers zou het welkom zijn. Het back-uppen van 200GB aan data per nacht wordt eindelijk goed haalbaar met 10gbit, met 1gbit is dat echt dramatisch. Het ziet er wel naar uit dat pas in 2014 echt 10gbit-snelheden standaard zou worden in datacenter-omgevingen. Vrijwel alles overal is 1gbit, omdat de alternatieven zo duur zijn. Meer bandbreedte is altijd beter. :)
Waarom zou een router 10Gb moeten ondersteunen? 10Gb heeft heel veel nut in datacenters en gevritualiseerde omgevingen. Full backups gaan supersnel.
een SWITCH moet het daarin tegen wel weer ondersteunen :)\

router/switch wordt hier nogal vaak door elkaar gehaald.
Waarom is het backuppen van 200 GB data in een nacht precies dramatisch? Dat zou in theorie toch in een half uurtje gedaan moeten zijn met een gbit verbinding? Of mis ik dan iets? Of bedoel je dan van 20 servers elk 200 GB backuppen of zo?
200GB Backuppen dramatisch? Wat een onzin. Mijn dagelijkse (incremental/differential) backup was afgelopen nacht 345GB. Starttijd 23:00, eindtijd 00:19 dus krap anderhalf uur. En dat gaat dus over een 1gbit verbinding.

De vrijdagbackup was afgelopen weekend 9TB, daar heeft 'ie 32 uur op staan pruttelen. Goed, 2.5TB daarvan werd over 8gbit FC getrokken, dus 6.5TB is over die 1gbit verbinding gehaald: 'n goeie 200GB per uur, kan ik nou niet bepaald dramatisch noemen...
Je redeneert de verkeerde kant op. De vraag is niet of 10Gbps nuttig is maar of er toepassingen zijn die meer bandbreedte nodig hebben dan wat gigabit-ethernet kan leveren. Die toepassingen zijn er zeker. Gigabit-ethernet is een grote beperking van de prestaties voor bijvoorbeeld storage area networks en network attached storage. Ik ben nu toevallig bezig met een artikel over high performance netwerkinterfaces. 4Gbps fibrechannel (enkelpoorts adapters gebruikt van eBay te halen vanaf ca. 150 dollar) is al een heel stuk sneller dan gigabit-ethernet. 10Gbps zul je nog niet zo snel nodig hebben (maar is wel eenvoudig haalbaar met ssd's), meer dan een gigabit zeker wel.

[Reactie gewijzigd door Femme op 8 maart 2012 13:08]

Tsja, een iScsi san op 1Gbit is het inderdaad net niet. 4 Gbit of zelfs 8 Gbit met fibrechannel is een stuk sneller maar als Intel inderdaad met goedkope 10Gbit kaarten komt kan het opeens wel interessant worden. Al denk ik dat de meeste mensen dan alsnog bij de bewezen Fibre Channel techniek blijven. Ook omdat 10 GBit nu niet zoveel sneller is dan 8 en je bij ethernet toch wat extra overhead hebt (en mogelijk geen TCP/iScsi offloading in deze kaarten kan vinden)
TCP chimney offload zal er toch wel op zitten, dat is zo ongeveer standaard bij alle NICs tegenwoordig.
Fibrechannel over ethernet.
Toch fibrechannel, wel de 10Gbit.

Net wat Femme zegt, de adapters kun je zo van eBay plukken. Dat heb ik gedaan en het is verdomd leuk speelgoed. Als daar nu nog "goedkope" kabels en kaarten bij komen kijken is het helemaal feest.
In raid? Met gemak! Check de benchdb van tweakers maar eens ;)

-edit- Sommige ssd's willen ook een eind komen: http://tweakers.net/benchdb/testcombo/1742

[Reactie gewijzigd door Keiichi op 8 maart 2012 13:04]

Je kunt je beter afvragen of je optimaal met 1Gbit/s = 100Mbyte/s+ je ssd's over het netwerk gebruiken... dus dan heeft het al nut.
en dat is theoretisch....praktijk is vaak anders....
Als je niet naar schijven kijkt maar naar andere toepassingen waarbij gegevens uit het RAM doorgesluist moeten worden dan trek je natuurlijk wel je 10Gbps vol. Als je computers in een cluster hangt bijvoorbeeld, al denk ik dat ze voor supercomputers met dit soort taken wel betere manieren hebben om de machines onderling te linken dan met ethernet.
De controller maakt gebruik van Intels DDIO-technologie, die de componenten toelaat om direct met de processorcache te werken.
De kaart kan dus data direct uit de cpu halen.
Mijn backup doorvoer is beperkt door de netwerkkaart, dus 10gbit zou zeker een verbetering zijn (storage zit al wel op 10gbit, backupserver nog niet). Ook voor vmotion zou ik best graag 10gbit willen inzetten, dat is RAM naar RAM dus dat krijgt die bandbreedte wel vol. Ook voor iSCSI zijn dit soort controllers best leuk, daarmee komt het misschien een klein beetje in de buurt van FC :)

Grootste nadeel van 10gbit is op dit moment nog dat de switches erg duur zijn. Bij onze storage aanschaf eind vorig jaar zou een 10gbit iSCSI SAN meer dan het dubbele kosten van de 8gbit FC oplossing die we uiteindelijk hebben gekozen (en waarschijnlijk presteert FC nog beter dan iSCSI ook)
Op zich wel vet om thuis te hebben, en voor deze prijs is dat goed te doen. Maar je zult wel andere kabels nodig hebben, denk ik zo?

En zijn de 10Gb snelheden eigenlijk wel te halen, uitgaande van SSD's? Want de CPU moet natuurlijk ook eea ervoor doen.
Je kunt gewoon CAT7 kabels aanschaffen. Die zijn niet eens veel duurder dan de CAT6 variant : http://www.netwerkkabel.eu/cat7-kabels

De netwerkkaarten en de kabels zullen ook niet de kosten zijn. Ik denk dat je je eerder zorgen moet maken om een router die al dat geweld aan kan. Daar zul je dan flink in moeten investeren.

Er zullen beslist voordelige 10Gbit routers komen, maar je loopt hier het risico dat de snelheden niet behaald worden en je in de praktijk tussen de 100 en 1000 Mbit blijft hangen.

Beetje zonde van het geld. In mijn ogen is 10Gbit overkill voor een thuisnetwerk. Ik denk dat je veel beter kunt kiezen voor een fatsoenlijke 1Gbit-router. Zo houdt je een hoop geld over.
Beetje zonde van het geld. In mijn ogen is 10Gbit overkill voor een thuisnetwerk.
Ah, ik herinner mij dezelfde discussie over Ethernet (10 Mbps) versus Fast Ethernet (100 Mbps) in de jaren 90. Fast Ethernet zou echt overkill zijn voor thuisnetwerken...

In IT land is alles relatief door de factor tijd. Om volledig van de snelste internetverbinding gebruik te maken is Fast Ethernet tegenwoordig ook al niet voldoende meer. Voor Gigabit Ethernet waren de controllers ook relatief snel betaalbaar, maar bleven de switches nog een tijd erg prijzig. Dat zal met 10 Gbps niet anders zijn. Op een dag zal het ook onderdeel worden van huishoudens en niet alleen van serververzamelingen.
Daar heb je inderdaad wel gelijk in, echter is 100 Mbit eigenlijk nog steeds eerder regel dan uitzondering. De meeste Tweakers zullen wel een Gigabit netwerkje hebben (ik ook-) maar zelfs die snelheden haal ik er niet uit omdat mijn router de bottleneck is van het geheel, ondanks dat deze gigabit poorten heeft en ik CAT6 kabels gebruik.

Gemiddeld genomen schommelt mijn LAN-snelheid rond de 15 MB/sec; zeg maar zo'n 120 Mbit. Alle apparaten gebruiken de Gigabit LAN-poort en de juiste bekabeling. Dit is grofweg zo'n 12% van de totale theoretische Gigabit-bandbreedte. Zelfs met een hele dure gigabit-router en CAT7 kabels zal ik geen snelheden van 125 MB/sec gaan halen.

Uiteraard zal de algemene netwerksnelheid wel toenemen indien je een 10 Gbit netwerk op gaat zetten, maar ook hier zul je dergelijke snelheden amper mee gaan halen. Je moet je dus goed nadenken in hoeverre het rendabel is om een dergelijk netwerk te gaan gebruiken.

Voor zo'n § 75 per LAN-adapter, zo'n § 50 aan CAT7 bekabeling en nog ettelijke honderden euro's voor een fatsoenlijke 10Gbit router kun je je natuurlijk afvragen of je huidige netwerk niet eigenlijk al voldoende is.

In mijn ogen kun je dan beter investeren in een goede gigabit-router om de huidige bottleneck weg te nemen. Zo bespaar je een hoop geld (en werk-) en zullen de uiteindelijke snelheden niet veel onder doen voor de daadwerkelijke snelheid die je met een 10Gbit netwerk zult behalen.

Als je nou 100% zeker kon zijn dat je ook ten aller tijden 10Gbit over het hele netwerk zou behalen, was het al een heel ander verhaal geworden.
Ik denk dat bij die netwerksnelheden- en standaarden de grote hardwarejongens altijd een dikke vinger in de pap gehad hebben. Een netwerkchip die een bepaalde snelheid levert kan in theorie vrij goedkoop meervoudig op een enkele netwerkkaart of in een switch worden toegepast. Maar te snelle netwerken op de markt betekent dat verouderde hardware relatief beter bruikbaar blijft. Als in men de tijd van eerste Pentiums bijv. Gigabit snelheid zou hebben (wat technisch makkelijk haalbaar was) zou dat betekenen dat je een aantal "waardeloze" 486 computers in zou kunnen zetten als een semi-decentraal systeem met een mooie snelle infrastructuur en dezelfde prestaties als die dure Pentiums. Er zijn dan dus minder nieuwe computers nodig wat nadelig is voor de hele hardwaremarkt. Dus hebben ze er met zijn allen een kunstmatige rem op gezet.

[Reactie gewijzigd door blorf op 8 maart 2012 16:09]

Heb je daar enig bewijs van? Het lijkt in deze markt onwaarschijnlijk dat er gewilde technologie op de plank blijft liggen.
Als het (eenvoudig) te maken was, dan had iemand anders dan Intel dat wel gedaan. En die was er schatrijk mee geworden.
Ja, is een beetje het "I think there is a world market for maybe five computers" verhaal (Thomas J. Wats, Chairman & CEO van IBM)

Persoonlijk ben ik mij aan het orienteren op een nieuwe inrichting voor een (zeer klein) thuisnetwerk, en ben ik best blij met deze ontwikkeling, want 1-op-1 fibrechannel (de goedkoopste optie op het moment) is ongeveer net zo duur met § ~100,-/120,- per kaart, en ik vind het toch een beetje zonde om een nieuwe nas neer te zetten die 3-500MB/s kan leveren als je dan rond de 100 MB/s effectief limiet van je GB kaartje zit.

Dus onboard gb-adapter -> router -> i-net, en pci-e 10gb -> workstation lijkt mij prima oplossing totdat 10GB routers betaalbaar worden. (Ja, gewoon omdat het kan, je zal idd op een netwerk met 4 vaste stations en nog wat mobile devices normaal gesproken niet vaak je Gbit netwerk voltrekken)

Wel jammer dat dit waarschijnlijk nooit op een Z77 bordje geimplementeerd zal worden vawege de kosten...
Ik denk dat het meer wordt bedoeld dat het onnodig is om voor 95 euro zo'n kaart te kopen en de achterliggende hardware te upgraden.

Het is technologisch niet overkill maar prijstechnisch ;)
Dan laat je de switches voor nu even buiten beschouwing, en leg je rechtstreekse verbindingen. Dat ga ik iig doen zodra ze verkrijgbaar zijn.
Ik denk niet dat deze kaartjes voor huis-tuin en keuken computertjes bedoeld zijn, wellicht meer als kaartjes voor in firewalls oid, met veel kruislings verkeer, data pompen van schijf naar schijf over het netwerk kan ook prima met een 1Gbit kaartje...

100mb/s = 12.8MB/s
1Gb/s = 128MB/s
10Gb/s = 1280MB/s?

Overkill, 1.28GB/s sturen :)

[Reactie gewijzigd door Blue_Entharion op 8 maart 2012 13:06]

Kan prima met een 1gbit kaartje tot +- 100MB/s
Als jij meer wilt, wat met moderne hd's, raids en ssd's goedkoop haalbaar is, dan zul je toch op zoiets over moeten stappen.

Of je het waard vind is een 2e, maar het is wel degelijk een snelheidsverbetering ;)
Of gewoon 2x gigabit poort in link aggregatie (802.3ad). Dan heb je theoretisch 2Gb/s. Dat komt al veel dichter bij de maximale schijfsnelheid van SSD's.

[Reactie gewijzigd door Memori op 8 maart 2012 13:42]

Nee dat gaat niet werken, een data flow van A naar B loopt altijd over ťťn verbinding. 802.3ad is alleen interessant op trunks waar veel flows over lopen. Het kan wel, maar voor hele specifieke data flows die niet gevoelig zijn voor out-of-order packets en dergelijke.

When balancing traffic, network administrators often wish to avoid reordering Ethernet frames. For example, TCP suffers additional overhead when dealing with out-of-order packets. This goal is approximated by sending all frames associated with a particular session across the same link[7]. The most common implementations use L3 hashes (i.e. based on the IP address), ensuring that the same flow is always sent via the same physical link.
http://en.wikipedia.org/wiki/Link_aggregation

[Reactie gewijzigd door enveekaa op 8 maart 2012 14:35]

grappig dat je dat zegt, ik heb hier 2 machines met 2 gbit porten, waarbij ik bonding gebruik om de interfaces samen te nemen. Als ik 1 transfer opstart, kan ik toch echt dik boven de 1Gbit/s halen. Oftewel, werkt dus wel prima, zoals ook in het door jou aangehaald wikipedia artikel staat.
Pics or it didn't happen :+

[Reactie gewijzigd door enveekaa op 8 maart 2012 16:57]

Dat was ook mijn eerste gedachte.
Ik heb die "fout" zelf ook ooit al eens gemaakt. Dacht ff een LAGG van 4 * 1Gb/s te maken en zo 1 trunk te krijgen van 4Gb/s.
Je raad het al... resultaat was dus geen 1 * 4Gb/s maar 4 * 1 Gb/s
Werkt wel extreem goed, maar niet zoals ik aanvankelijk had gedacht.
En hoeveel mensen ook vergeten dat je over een 1gb verbinding tegelijk 1gb kan versturen zowel ontvangen, er kan dus max 2gb/s door een cat6 kabel. (ervan uitgaande dat je netwerkkaart server enz. Dit ook aankunnen)
Weer worden de zelfde soort argumenten naar voren gehaald als toen de 1Gbit gemeen goed werd op de eerste high-end moederborden zo als de ASUS P4C800 Deluxe met 875P en 865P/G/PE. chipset.
En nu is Gbit zelfs op de aller goedkoopste moederborden, gemeen goed.

Hebben we niet nodig, wat moet een gemiddelde consument nu met 10Gbit/s, etc, etc.
En aggregatie is nou zeker ook niet een oplossing, daar teaming zeker ook zijn beperking heeft.

En laten we het simpel houden, als je 1Gbit verbinding 100% kan belast, dan heb je nut van een snellere verbinding, en 10Gbit is dan die volgende verbinding.

Laat ik nou geen gemiddelde eindgebruiker zijn, maar met deze prijzen komt 10Gbit binnen mijn bereik voor wat ik wil betalen.

Dit is de eerste stap naar onboard 10Gbit netwerk, en ik kan iig bijna niet wachten tot het gemeen goed is op high-end borden voor thuis gebruik.

Want "ik" heb bijvoorbeeld, in mijn server een raid kaart, en haal makkelijk een doorvoer van 4~500MB/s, en in mijn werk/gamePC heb ik een de OCZ RevoDrive 3 X2, en die kan zelfs de 10Gbit bandbreedte verzadigen van deze kaarten.

Om eerlijk te zijn ben ik niet de gemiddelde eindgebruiker, maar naar mijn ervaring is, dat wat ik graag wil/nu nodig hebt, en binnen mijn bereik is, is meestal binnen 5 jaar gemeen goed voor gemiddelde enthusiast eindgebruiker.
En de komst van SSDs heeft deze trend in een aardige stroomversnelling gebracht.

Al met al zou ik iig best gebruik kunnen maken van een 10Gbit verbinding, het is alleen voornamelijk wachten op goedkopere switches.

Deze 24x 1Gbit + 4x 10Gbit Netgear is een van de goedkoopste, met een prijs van ruim 1350 euro.

Het is dus het is nu alleen nog wachten op goedkopere switches, ik heb ze nog niet gevonden. :'(
Weet iemand of er een goedkopere oplossing is, misschien met modules of zo?

Tot dan, zal dit de enigste type oplossing zijn, als je met een beperkt budget toch een 10Gbit verbinding wild hebben tussen twee PC's.

[Reactie gewijzigd door player-x op 8 maart 2012 18:39]

en die switch die jij daar aanhaalt maakt dan weer gebruik van sfp's kortom glasvezel verbindingen.
Waar het hier in dit bericht om gaat is juist de koperkabel netwerkkaarten. En dan kom je uit bij een switch als deze:
http://www.aristanetworks.com/en/products/7050series/7050t
iets ander bedrag!
Zakelijk gezien, word er bijna alleen maar sfp’s gebruikt zo als bv. in de Cisco Switches, long, short, Optic, elek. , niet alleen optic voor glas.
Het is dus het is nu alleen nog wachten op goedkopere switches, ik heb ze nog niet gevonden. :'(
Weet iemand of er een goedkopere oplossing is, misschien met modules of zo?
Op dezelfde manier dat je een router regelt wanneer je geen dedicated hardware kunt veroorloven. Je bouwt hem zelf en regelt wat software. Even wachten dus tot er een goede linux driver voor deze kaart is, en dan meerdere van deze NICs op een geschikt moederbordje prikken. Iets i.c.m. een Xeon E5 :P
is geen overkill meer hoor, met de grote DB''s van tegenwoordig en failover (liefst synchroon) haal ik inmiddels al meer uit 8 ssds in raid op een dell server (1.56gb per sec sequentieel) dus 1.28 is no overkill :D
Een SSD kan best 500MBps halen, een 1Gb netwerkkaart gaat echt niet verder dan zo'n 100MBps, gezien de overhead van diverse protocollen die altijd zo mooi gelaagd over de lijn gaan.
Dat lukt inprencipe wel, maar denk ook even aan je router :P
De meeste ondersteunen maar 1GBPS ;)
Volgens mij hebben de meeste WAN routers al moeite met 100Mbit/s

Dat is ook niet zo vreemd, het is relatief CPU-intensief voor de prijs die mensen bereid zijn te betalen voor huis-tuin-en-keuken routers en maar weinig mensen hebben op dit moment Kabel/DSL/Fiber verbindingen thuis die zulke snelheden uberhaupt leveren.
dat kan ie niet, want aan de LAN kant zit gewoon een ethernet switch, en daar wordt dus per definitie niets gerouteerd.
Switchen (aan de LAN kant dus) is niet erg ingewikkeld en werkt allemaal op layer 2 van het OSI model, tabelletje bijhouden welk MAC-adres op welk poort zit, ethernet pakketje bekijken om te zien naar wel MAC-adres het moet en uitsturen naar de juiste ethernet poort. Daar heb je niet veel intelligentie voor nodig en kan tegenwoordig inderdaad spotgoedkoop.

Routeren is een stuk ingewikkelder en werkt op het complexere layer 3 van het OSI model. Ieder pakketje komt binnen op een WAN verbinding, moet gechecked worden of de checksum wel klopt anders moet het opnieuw aangevraagd worden. Het moet daarna vaak open voor de firewall om te zien of het wel door mag, moet daarna vrijwel altijd bestudeerd worden voor NAT om in te schatten/gokken naar welk IP-adres het intern gestuurd moet worden en dan moet er een nieuw intern IP in het pakketje geschreven worden en de checksum herberekend.

Dit is allemaal een beetje versimpeld maar je begrijpt wel wat ik bedoel denk ik.

Kortom, een huis-tuin-en-keuken router kan wel een ingebouwde Gbit ethernet switch aan de LAN kant hebben, of de router aan de WAN kant ook maar in de buurt kan komen van 100Mbit is met de meeste routers vaak maar de vraag.
Wel over LAN, maar mijn linksys e2000 heeft toch wel moeite bij een 100mbit verbinding op de WAN poort. Dan schiet de CPU load omhoog en wordt al het verkeer afgeknepen.
@finraziel
Dat is geen 5 jaar oude kennis. Het is denk ik eerder dat jou de kennis ontbreekt.

Kijk eens op http://www.smallnetbuilder.com/lanwan/router-charts/view op WAN-LAN snelheden. Er zijn maar een kleine 15 routers die uberhaupt boven de 500mbit snelheden uitkomen. De meeste presteren een stuk lager.

De Ziggo modem/routers komen boven de 120mbit omdat ze dat natuurlijk aanbieden. Alleen het is een illusie te denken dat die de 1gbit snelheid haalt met WAN-LAN.

En voor Intern over het LAN kijk eens naar de 'Total Simultaneous Throughput' charts, 4 routers die echt 1000mbit halen. Veel van de routers die als 'goed' worden gezien blijven al op 500-600 steken.

Daarom is de reactie van Maurits van Baerle volkome terecht. De goedkope 1gbit routers blijven zelfs vaak zonder zich te schamen op de 100-200mbit steken.

[Reactie gewijzigd door Obso op 8 maart 2012 15:19]

Volgens mij hebben de meeste WAN routers al moeite met 100Mbit/s
Dat is ook precies de reden dat ik 'm zelf bouw (gevirtualiseerd).
Ik trek daar op dit moment zonder problemen 1,5Gbit/s doorheen met pieken naar 1,8 Gbit/s.
Andere kabels dan wat? 10GBase-T is in ieder geval gespecificeerd voor CAT6a met 8P8C connectoren, niet heel erg exotisch dus.
De prijzen van 10Gbase-T switches zijn nog niet van het leuk voor thuis niveau. Je kan natuurlijk wel twee van die adapters kopen en een hele snelle verbinding maken tussen je fileserver en desktop, of je virtualisatiehost en losse storage host.
komt wel goed, maar ja heb je wel eens de bandbreedte proberen te meten die jeh aalde tussen je 1 gigabit intel nics?

Zal niet erg hoog geegen hebben .alleen wat 'testmachines' krijgen ze veel voor elkaar.
Vraag je eerst maar eens af wat een 10gb switch kost, denk dat je dan anders praat.

Enige andere optie is om 2 computers met elkaar te verbinden maar dat zal maar een hele beperkte markt zijn.
Das natuurlijk wel een erg kip en ei verhaal he, zolang de 10Gbit kaarten heel duur zijn is er weinig markt, dus zijn de 10Gbit switches duur, als 10Gbit mainstream (of iig upper-end mainstream) wordt en de verkopen/vraag naar 10Gbit switches stijgt zullen deze vanzelf ook goedkoper worden. En de meeste mensen hebben toch maar ťťn primary pc + nas en voor je mediaspelertje op je slaapkamer heb je echt geen 10Gb nodig, in een studentenhuis (offcampus) is het wat anders, maar dan kan je de kosten voor een switch ook weer splitten.
Wat nu bij me opkomt: kan jedit soort kaartjes ook in een soort raid zetten?
Met software of een speciale driver dan, zodat 2 kaarten van 1Gbps zich gedragen als 1 van 2Gbps. Die software of driver moet dan uiteraard wel aan bijde uiteindes draaien.
Dat bestaat natuurlijk al jaren: Link Aggregation, ook wel teaming genoemd, of (specifiek in het geval van Cisco) EtherChannel.
De controller maakt gebruik van Intels DDIO-technologie, die de componenten toelaat om direct met de processorcache te werken.
Zou dit geen beveiliginsrisico zijn? Net zoals een Firewire controller een risico kan zijn bij fysieke toegang omdat er via een Firewire poort rechtstreekse toegang tot het systeemgeheugen mogelijk is zonder tussenkomst van het OS.
Leuk hoor dat ze rechtstreeks naar de processor cache gaan.
Maar dan gaat er 1000 - 1280 MB / seconde van of naar de cache?
Dan is die processor cache (6-20MB) na 0.02 seconden toch wel vol...
Waarom kan het niet met DMA vanuit (main) memory?
Het idee van de (kleine) cache is dat het ook niet zo lang gevuld blijft met dezelfde data :P
En cachegeheugen is veel sneller dan je RAM.
Standaard doen ze dat nu met DMA. In Intelś DDIO promo filmpje leggen ze uit wat het verschil is.
Als je computer een ethernet frame ontvangt zal je processor daar iets mee moeten doen. Bijvoorbeeld de data die er staat naar disk sturen of doorsturen naar een andere netwerk node. Dat kan je processor een stuk sneller als het frame al in de cache staat dan dat ie het eerst nog van main memory naar cache over moet halen. Een jumbo ethernet frame is standaard 9000 bytes. Je zou dus iets van 600 frames in de cache kunnen hebben. Maar dan is er toch iets mis met je systeem aangezien de processor dan blijkbaar niet de inkomende datastroom bij kan houden.
Volgens mij is dit DDIO onder andere een gevolg van het integreren van de geheugencontroller op de CPU. Alle IO gaat toch al naar de processor dus waarom zou je die informatie eerst doorsturen naar RAM als je het daarna toch weer terug naar cache gaat halen. Bij systemen met een apparte northbridge kon je met DMA de hele processor overslaan (alleen moest ie wachten als er een memory fetch gedaan moest worden)
Denk niet alleen aan snelheid, maar ook aan latency (wat erg belangrijk is in een SAN en virtualizatie). Bij 1gbit/s stuur je minder data tegelijk over de kabel, waardoor de tijd dat die data er over doet ook langer is. Voor grotere omgevingen voegt dit zeker performance toe!
mijn gedachte van goedkoop ligt toch echt 80 a 100 euro lager.
voor zoveel geld koop ik toch eerder een ssd of een nieuw moederbord ipv dat ik mijn netwerk update naar dit.
Voor deze snelheid is dit een schijntje. Daarnaast: een A-merk als Intel maakt deze snelheden nu beschikbaar voor de massa.

Gevolg is dat:
A ) Andere merken zullen volgen met gegarandeerd goedkopere oplossingen (GBit was "vroeger" ook onbetaalbaar)
B ) De vraag naar 10 Gbit switches (later ook routers) ontstaat, waardoor de bekende producenten deze gaan ontwikkelen/aanbieden.

Vlgs. mij is dit gewoon een grote trap tegen het 10Gbit protocol waardoor de uitrol nu gaat beginnen, nu nog voor de freaks (tweakers), en al snel voor de massa.

[Reactie gewijzigd door Nelissuh op 8 maart 2012 19:33]

Wat ik me afvraag, de kaart op het plaatje is een DUAL kaart, als die goedkope 10gbit kaarten ook dualpoorts zijn voor 100E; is dat wel erg goedkoop!
Grappig om te zien dat mensen makkelijk een rekenfout begaan met ethernetverbindingen.
Mensen zien dat 1 gigabit verbinding als 1024 megabit, dit is dus fout. Het is namelijk precies 1000megabit verbinding. Data zelf wordt op de 1024 factor gerekend.

Dus wat onze vorige gebruikers bedoelden:

100mb/s = 12.5MB/s
1Gb/s = 125MB/s
10Gb/s = 1250MB/s

Het neemt niet weg, dat 't overkill blijft voor je gewone harddisk. Daarom wordt het dan ook voor servers bedoeld, die enorm veel data verwerken. Deze servers bezitten dan ook meer cpu's om die data te kunnen verwerken.

Het verbaasd mij ook niet dat Intel dit maakt.
Die bandbreedtes haal je niet. als ik hier meet bij 1 gigabit connecties en built in nic's dan kom je niet in de buurt.

De Mellanox infiniband haalt wel zijn specs natuurlijk, maar dat is dan ook geen intel ethernet built in nics.

De vraag is dan ook of deze 10 gigabit nics DMA zijn en direct in het geheugen kunnen schrijven. De 1 gigabit nics kunnen dat niet en geven de cpu dus een enorme knal voor elk pakketje dat over die nics heengaat.

Dan gaat vervolgens de kernel nog lekker een centrale lock zetten, dus een bandbreedte van 1250 MB/s kun je op je buik schrijven.
even wat achtergrond over die X540-T2 CNA. Dit is een kaart waar er over een touwtje zowel Fiberchannel als Ethernet gaat. Fiberchannel is een techniek die het mogelijk maakt om al je storage op een storage array te plaatsen. Zelfs inclusief je disk waar je OS op staat.
Vroeger had je hiervoor een aparate kaart voor in de servers zitten (HBA) en per kaart dus bekabeling naar speciale storage switches (SAN). Met een CNA heb je dus de helft van je bekabeling en minder netwerk devices in je datacenter om te beheren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True