Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties, 27.243 views •

Netgear heeft drie 10GbE-switches aangekondigd die volgens het bedrijf aanmerkelijk goedkoper zijn dan soortgelijke switches van concurrenten. De nieuwe netwerkapparatuur in de ProSafe-serie is leverbaar met 8-, 12 of 24-poorten.

De ProSafe 8, die typenummer XS708E draagt, telt acht 10Gbps-poorten voor 10 gigabit-ethernet over koper. De achtpoorts-switch is verder voorzien van een gedeelde 10G fiber SFP+-poort. Volgens Netgear is de ProSafe 8 met name geschikt voor kleine bedrijven. Het prijskaartje bedraagt 999 euro exclusief btw.

Bedrijven die meer capaciteit op een switch nodig hebben, kunnen kiezen voor de ProSafe 12 XS712T. Naast twaalf 10GbE-aansluitingen zijn er twee gedeelde 10GbE fiber SFP+ poorten aanwezig. Netgear rekent voor dit model 1849 euro exclusief btw. Voor grotere ondernemingen is ook de ProSafe 24-poorts switch te koop. De XSM7224 managed switch zou geschikt zijn voor netwerken tot vijfhonderd gebruikers en heeft een adviesprijs van 5949 euro exclusief btw.

Netgear stelt dat de nieuwe ProSafe-switches een prijs hebben van gemiddeld 95 tot 189 euro per 10GbE-aansluiting. Soortgelijke apparatuur van concurrenten zou gemiddeld uitkomen op meer dan 315 euro per poort, zo claimt het bedrijf. Netgear stelt dat 10Gbps-snelheden met zijn switches hierdoor nu ook bereikbaar zijn geworden voor kleinere ondernemingen en instellingen.

Netgear 10GbE-switch

Reacties (61)

Wat ik me echter afvraag; ik heb een tijd geleden gelezen dat RJ45 niet geschikt zou zijn voor snelheden boven 1 GBit, waarvoor CAT7 bekabeling nodig zou zijn. De reden hiervoor was dat de contactpennen in de stekker van een RJ45 connector te dicht op elkaar zouden zitten.

Als RJ45 maar nt voldoende is voor 1Gbit, hoe wil je er dan 10 GBit overheen sturen ? En welke snelheid zou je in de praktijk halen ?
Cat 6a: Voorlopige specificatie voor 10 Gbit/s netwerken.
Cat 7: Formeel bekend als ISO/IEC 11801 Class F kabel. Bij deze standaard worden de 4 paren individueel afgeschermd binnen de buitenste afscherming. Dit laat frequenties toe tot 600 MHz.


CAT 6 kan al 10Gbit aan en 6a is de opvolger ervan met als goed is wat extra mogelijkheden richting die snelheden.

http://en.wikipedia.org/wiki/Category_6_cable
@sjanssen15 : Ik heb het in dit geval niet over de kabel maar over de connector. Het klopt inderdaad dat CAT6(a) in theorie geschikt is voor snelheden tot 10 Gbit.

In de berichten die ik destijds heb gelezen was er sprake dat de RJ45 connector niet geschikt was om een CAT7 certificering te krijgen. Er wordt al gewerkt aan een nieuwe stekker. De uitdaging is echter hoe je een stekker kunt maken die weliswaar backwards compatible is met RJ45, terwijl deze niet over de tekortkomingen beschikt en daardoor een hogere certificering kunt krijgen.

In hoeverre je met een CAT6(a) kabel richting de 10Gbit komt blijft ook de vraag. Je kunt de beste kabel pakken die er bestaat, maar zolang de connectoren de beperkende factor blijven kun je dus fluiten naar hoge snelheden.

CAT5E is bijvoorbeeld geschikt voor snelheden tot 1 Gbit. Echter merkte ik een duidelijke toename in netwerkprestaties nadat ik mijn CAT5E kabels had vervangen door CAT6 SSTP, terwijl het maar een simpel gigabit netwerkje is. Waar ik eerst snelheden van zo'n 12 MB/sec behaalde, hebben die zich met de nieuwe kabels verbeterd naar zo'n 30 40 MB/sec. De beperkende factor was uiteindelijk de NAS met bijbehorende harde schijven. Ik durf er om te wedden dat ik met een RAID0 configuratie veel hogere snelheden kan halen.

Ik heb echt geen super-de-luxe netwerkapparatuur in huis. Gewoon goede kabels, een simpele 8-poorts Sitecom Gigabit Switch en "Bob's your uncle, Fanny's your aunt" :-)

[Reactie gewijzigd door Titan_Fox op 28 januari 2013 21:01]

Op mijn werk doen we al 2 jaar 10Gbit over cat6a kabel met RJ45 connectoren... Linerate. Dus ik weet niet waar dat verhaal vandaan komt, maar het lijkt in de praktijk in elk geval niet te kloppen.

Als jij met (pre-made) Cat5e geen gbit haalt dan heb je of geen echte cat5e kabels, (zie verhaal heir tijdje terug over chinese namaak die zich niet aan de standaard hield), of er is iets anders mis met je netwerk. Het is niet voor niets gecertificeert voor Gbit...
Voor Cat7 werkt een RJ45 inderdaad niet. Ik heb Cat7 gelegd doorheen mijn ganse huis toen ik het bouwde. Maar ik kon inderdaad geen RJ45 nijpen op een Cat7 kabel. Het past er gewoonweg niet in, de diameter van de koperdraadjes in de kabel is te groot.

Dat heb ik simpelweg opgelost door een patch panel te monteren. Wel eentje voor Cat6, want voor Cat7 had ik die niet eens gevonden en mochten ze er wel geweest zijn (3 jaar geleden) waren ze ontgetwijfeld stervensduur. En ja, ik weet dat dit mijn netwerkkabels 'degradeert' tot Cat6, maar dat kan me niet schelen, het werkt perfect. Ik gebruik trouwens ook Cat6 patchkabels en geen Cat7, is zeker snel genoeg met de Gigabit switch die ik momenteel gebruik, en ik verwacht ook geen moeilijkheden mocht ik binnen X-aantal tijd toch overgaan naar 10 Gigabit. (maar dat zijn niet zijn vooraleer de 10 GBit netwerkpoorten ook op de moederborden van PC's aanwezig zijn).
Grappig, ik haal toch echt sustained transfer speeds van 110MB~/s over mijn cat5e kabeltjes. En dat is gewoon met de standaart upc router (cisco epc3925)

Kan niet wachten tot dit soort apparatuur ook "betaalbaar" wordt voor de mensen thuis. Als ik over 2 jaar een goeie NAS heb met 4 disks in raid 5 is het toch wel fijn als die ook snelheden haalt van boven de 128MB/s op een enkele netwerkaansluiting.
12 MB/s is dus gewoon 100mbit. Je kabels waren gewoon brak.
Over cat 5e kan al gigabit Titan_Fox, zonder problemen.
Weet verder niet de praktische mogelijkheden van cat 5e met 10gbit, of cat 6/7 in dat geval. Maar vaak afzetterij dat je vooral het grootste getalletje moet nemen, hier Gbit met een cat 5e kabel ;).
De aders in een connector van een CAT7 patchkabel verspringen en zitten niet alemaal naast elkaar, 2 aders liggen een niveau/draadhoogte lager als de andere aders.
RJ45 en CAT7 werkt prima voor de 600 MHz, niet voor CAT7 1000 MHz. Je moet idd wel speciale RJ45-stekkers hebben voor CAT7 maar dat was bij CAT6 ook zo: de adertjes waren ook iets dikker zodat ze niet in de meeste gewone RJ45's pasten.
Ik draai al jaren 1GBe ProSafe switches thuis (1x 16 poorts en 2x 8 poorts) en heb nog nooit problemen gehad, in tegenstelling tot andere "prosumer" switches als Linksys en Belkin.
Ik haal de volledige 1Gbit throughput en er is nog nooit een switch uitgevallen, terwijl ze 24/7 draaien. Ze zijn hevig gebruikt (draai een 5 bay NAS, 5 PC's, 3 AP's, 2 printers, meerdere mediaspelers en een paar console er op).

Mocht er ooit een vervangen/toegevoegd moeten worden dan wordt dat wederom een Netgear.
Nee.

Linksys was een merk van Cisco en maakt dus per definitie gebruik van Cisco hardware. Echter een Linksys switch is niet vergelijkbaar met een switch waar het Cisco merk op staat.

Netgear ontwerpt haar eigen hardware en maakt dus ook geen gebruik van Cisco hardware. Het grote voordeel van het gebruik van apparatuur van merken als Netgear is dan ook de prijs. Het is een flink stuk goedkoper. Probleem is de betrouwbaarheid, die lijkt toch nog wat minder te zijn dan Cisco en in een datacentrum kom je merken als Netgear dus nooit tegen.

Zelf zou ik eigenlijk eerder Huawei overwegen. Dat merk is ook flink goedkoper dan Cisco maar de hardware wordt wereldwijd wel veel gebruikt in grote omgevingen. Maar de prijs van Netgear is waarschijnlijk nog net wat lager.
netgear :') Zonde van je geld.
Wat is dat nu weer voor een pure onzin?

Netgear pro spul is prima netwerk apparatuur, met een goede prijs verhouding.

En ook het thuis spul van Netgear is over het algemeen prima.

Omdat jij problemen hebt gehad met ''een'' product van ze, wil nog niet zeggen dat alles slecht van ze is. |:(

/Ontopic
Ben blij dat de prijzen eindelijk beginnen te dalen, nu komt 10Gbit binnen kort in de betaalbare buurt voor priv gebruik.

En voordat we de zelfde onzin krijgen als toen er werd gezegt met 1Gbit netwerk, als haal je maar 15% van de bandbreedte, dan heb je nog steeds 50% meer dan je nu hebt.

Daarnaast komt het ook de toegangstijd van netwerkdrives ten goede, zodat net als in het begin met Gbit, je nouwelijks verschil merkt tussen lokaal en een netwerk HD.
netgear ;(

Zonde van je geld.
Dat hangt er geheel van af welke Product-Lijn je gebruikt!
Net als HP, Dell, Intel en vele andere merken, is er vaak
een SoHo-Lijn (Thuis en MKB), en een Professional-Lijn.

Ik heb de Prof-Lijn meerdere malen ingezet bij Corporate
companies die toch ook wel op de centen letten, en ook
iets simpels en doeltreffends wouden hebben.
Dan volstaat netgear wel. WiFi AP's van Netgear zijn bv
best wel 'snel' i.v.t. anderen.

Ik vind je niet onderbouwde reactie veel te kort door de bocht,
en ik geloof dat ik niet de enige ben die deze mening over jou heeft...

[Reactie gewijzigd door HoeZoWie op 29 januari 2013 10:18]

Dit is meer voor bedrijven, die dit dan weer verder verdelen naar andere switches, een beetje zoals de Cisco switches
Deze zijn ook niet bedoeld voor thuisgebruik. deze hang je in een rack en sluit je je switches op aan en VMserver misschien voor het personeel.
Een 24poorts gigabit managed HP procurve is ook niet bedoeld voor thuisgebruik maar doet het hier thuis best leuk in mijn rack... ;)
Tot je de energierekening ziet.

Was voor mij de reden om mijn Cisco-switches weg te doen. Was >160 watt kwijt aan switching, terwijl (voor thuis) een Linksys het even goed deed.
Je moet ergens mee beginnen. De eerste gb switch kwam toen iedereen nog 100mb had. Maar kijk eens bij Cisco, genoeg 10gb spul.
En je kan dit als coreswitch gebruiken om switches te koppelen die 10gb uplink hebben, je hoeft kan ook iets anders dan een pc aan een switch hangen zoals netwerkstorage.

[Reactie gewijzigd door urtyp op 28 januari 2013 19:16]

Het loont mogelijk bij bedrijven die met ''thin clients'' of werkstations werken waarbij op de server een virtual image staat waarin ze werken (''de cloud''). Ter vergelijking:
100mbit = 10 MB/s
1gbit = 100 MB/s
10gbit = 1 GB/s

Mits je server dan natuurlijk zo snel kan lezen, scheelt het bij een Windows-image weer wat seconden laadtijd.
En uiteraard: in de thin clients of de werkstations dan maar losse PCI of PCI-e 10gbit LAN kaartjes prikken.

EDIT: of wat te denken van het gebruiken van deze switch vr de andere switches die er mogelijk nog achter gelust worden bij grote bedrijven: mits de input van de andere switches 10gbit input aan kunnen, zou dat een netwerk-snelheidsboost kunnen opleveren.

[Reactie gewijzigd door Jorn1986 op 28 januari 2013 19:16]

Ik zou niet weten wat je met 10 gigabit switches moet aan de clientkant als je thin clients gebruikt.
wel aan de uplink kant van bijvoorbeeld je fileserver!
PCI 10 Gbit? Een Gbit kaart trekt al een hele PCI bus vol. Houd het maar gewoon op PCIe.
Oops, je hebt gelijk. Maar je hebt zowiezo van/naar de switch zo'n netwerkkaart in je server nodig: maar die is niet bepaald goedkoop, en ''simpele'' PCI-E 10gbit netwerkkaartjes zie ik nog niet, dus voorlopig toekomstmuziek?
Het is nog altijd een factor 8 kleiner niet 10 dus
100mbit = 12MB/s
1gbit= 120MB/s
10gbit= 1,2 GB/s

Een PC die 1,2 GB/s moet kunnen verwerken vereist nogal behoorlijke hardware dus valt je Thin client idee gelijk in de prullenbak.
Een cloud server die software streamt heeft nog altijd een locale HDD nodig op je Thin client om zijn data kwijt te kunnen zodat jij het kan gebruiken. Het wordt niet direct in het geheugen geladen ofzo, of je moet thin clients met 16+ GB intern geheugen maken wat dus weer totaal het concept thin client voorbij gaat.
Je kan dan net zo goed gewoon een server terminal en of KVM switch gebruiken want dat is veel goedkoper en levert veel minder problemen op.

Waar het wel handig voor zou zijn is als je een beest van een workstation heb die daadwerkelijk het netwerk snelheid aan kan en dan grafische renderingen gedeeltelijk of helemaal op een server uitvoert om het in realtime op het workstation te bewerken.

(Dit allemaal naast het feit dat ze ontwikkeld en gemaakt worden om switches met elkaar te verbinden en dus je netwerk backbone vormen als alternatief van glasvezel en dus is dat geen "of wat te denken van" verhaal maar gewoon het realiteit)
Factor 8 + bijna 20% protocol overhead, dus bijna factor 10 ;) Laten we er 10 van maken, is lekker makkelijk rekenen.
Een oplossing als deze is meer bedoeld als core switch.
Vanuit het patchpaneel patch je naar een langzamere goedkopere massa switch, deze hebben dikwijls ook gewoon 100mbit verbindingen. (en een snellere uplink, dat is wel nodig)

Stel je hebt meerdere van deze switches waar alle patches naartoelopen... Hoe knoop je die dan aan elkaar? Juist ja, dan moet je schalen.

[Reactie gewijzigd door lenny_z op 28 januari 2013 19:25]

Zodra je met virtualisatie aan de slag gaat is 10Gbit erg fijn, bijvoorbeeld ook als je een cluster hebt waarbij je met iSCSI connecties naar een SAN gaat. Bij het MKB zie je wel eens software als Starwind, wat een HA SAN kan maken op basis van gewone server hardware.

Dat is alle speed welkom. Zeker als er grote bestanden als images of VHD files gerepliceerd moeten worden.
Dit bijvoorbeeld: pricewatch: Cisco Cisco SG500X-24

Die heeft naast 1Gbit poorten ook 10Gbit poorten voor 'uplink' zodat al je 24 workstations niet dezelfde 1Gbit lijn naar het serverhok hoeven te delen.
Sommige bedrijven (lees: bedrijven met een paar servers in de bezemkast) hebben over een tijdje gewoon behoefte aan een 10Gbit/s. 1Gbit/s is inderdaad een heel stuk goedkoper maar dat is niet altijd genoeg.

Met de opkomende consumenten glasvezelverbindingen van 500/500mbit vind ik het niet gek dat de servers (en netwerkapparatuur) ook sneller moeten worden.
Gigabit voor virtualisatie begint onderhand echt te traag te worden.
Stel dat je een paar Virtuele machines hebt met, 64GB geheugen, en je wilt vmotion gebruiken dan zal het theoretisch 8 x 64Seconden gaan duren voor je geheugen gekopieerd voor de eerste keer naar de andere server gekopieerd is, vervolgens nog eens de delta's... en dat is gewoon onaanvaardbaar in een HA omgeving.

Daarom plaats je dit soort switches (al betwijfel ik erg of ook maar iemand aan dit merk denkt als het om 10Gb gaat) als core / backend.

10 Gbit is onderhand al een commodity in een datacenter al gaat het dan meestal wel over Fiber ipv Koper.

[Reactie gewijzigd door klakkie.57th op 28 januari 2013 23:48]

Ja dat maakt wat uit voor een switch die in een rack hangt |:(

Goeie prijs voor dat segment. Mooi ook dat 'ie twee voedingen heeft, dat mis ik in een hoop enterprise-level switches toch nog wel. Veel bang for the buck! (voor 10GB begrippen)
Eens, twee voedingen zie je niet zo heel vaak. Hopen dat het volwaardig voedingen zijn, en niet n RPS icm n 'echte' voeding.

Wel vraag ik me af wat ie echt kan, los van de throughput (throughput op een switch hoort niet zo heel spannend te zijn)
- Kan ie mgmt via SSH (ipv telnet/HTTP)
- Kan ie vlans (l3 vlans/SVI's)
- Kan ik poorten bundelen (etherchannel/portchannel (LACP))
- Kan ie overweg met CDP of LLDP
- Kan ie SPAN/oid. (portmirroring tbv throubleshooting/logging)
- etc.

Ik weet niet precies wat het MKB voor requirements heeft, maar wel wat Enterprises voor requirements hebben. Een 10Gbps switch vind ik niet zo spannend, des te meer wat voor features hij heeft en wat de performance degratie (lees: afname throughput) is bij gebruik van meerdere 'features' gelijktijdig.
http://www.netgear.com/bu...10-gigabit/M7100.aspx#two

Even een blik op de website beantwoord vrijwel al je vragen. En voor zover ik zie is alles met een Ja te beantwoorden. Behalve de performance degratie. Geen enkele fabrikant zal het groot op zijn website zetten de de hardware inkakt als je veel gelijktijdig vraagt (zoals een alles in een modem dat erg veel snel kan maar niet gelijktijdig...)
Voor VMWare is dit zeer interessant. Je hoeft dan maar n vmkernel aan een 10Gb poort te hangen wat nog steeds beter schaalt dan meerdere 1Gb poorten onder ESXi. De NFS (en loadbalancing) implementatie van VMWare laat namelijk slechts 1 sessie toe als je van een zelfde IP komt (wat typisch gebeurt tussen storage en ESXi server).

Verbinding tussen je storage en je ESX servers wordt dan wel zeer snel :). De thuisgebruiker zie ik er niet meteen veel mee aanvangen.
Storage wordt over het algemeen via Fibre Channel gekoppeld.Maar goed, 8Gbit FC is ook niet goedkoop en een dedicated 10Gbit iScsi SAN kan vrijwel dezelfde prestaties leveren.
FC bij MKB lijkt me toch wel heel beperkt. FCoE is wel aan opmars bezig.
Yes, hier zat ik op te wachten. 10Gbe UTP switches zijn zeldzaam en kostbaar. Dell heeft er een voor 24 poorten maar die kost tegen de 9.000,00. Heb 3 servers via 10 Gbe point to point met elkaar verbonden. Alleen Hyper-V en backup verkeer gaat over deze lijntjes.

10Gbe UTP kaartjes waren al redelijk betaalbaar. Met deze switchen komt 10 Gbe echt binnen bereik van een grotere groep gebruikers. Het zal overigens nog wel ff duren voordat de gemiddelde tweakert een dergelijk kastje thuis heeft staan :)
480Gbps switching fabric, das dus op de 24 port's switch 24x 10Gbit full-duplex en dan ook nog "L3 routing is wire-speed" doen. Niet slecht voor die prijs.

Vraag me alleen af hoeveel impact dit: "IPv4/IPv6 comprehensive traffic filtering (ACLs), and prioritization (QoS - DiffServ)" gaat hebben op de performance.
Enige nadeel is dat ze geen stacking ondersteunen, dus voor een redundante setup zit je aan spanning tree oplossingen vast.

Overigens bedoel ik met stacking dat de switches met een high speed verbinding gekoppeld zijn en zich als 1 logische switch gaan gedragen, je kunt dan bijvoorbeeld ook poorten uit meerdere switches in 1 lacp bond stoppen.

[Reactie gewijzigd door mxcreep op 29 januari 2013 06:38]

Komt net op tijd. Wij zijn aan het inventariseren op SAN producten en maakt iSCSI 10Gbe een stuk interessanter. 2x 1900,- is aardig te behappen. En een spanning tree oplossing is toch zo erg niet? Toch goedkoop redundantie (voor dit stukje).

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True