Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 61, views: 26.487 •

Netgear heeft drie 10GbE-switches aangekondigd die volgens het bedrijf aanmerkelijk goedkoper zijn dan soortgelijke switches van concurrenten. De nieuwe netwerkapparatuur in de ProSafe-serie is leverbaar met 8-, 12 of 24-poorten.

De ProSafe 8, die typenummer XS708E draagt, telt acht 10Gbps-poorten voor 10 gigabit-ethernet over koper. De achtpoorts-switch is verder voorzien van een gedeelde 10G fiber SFP+-poort. Volgens Netgear is de ProSafe 8 met name geschikt voor kleine bedrijven. Het prijskaartje bedraagt 999 euro exclusief btw.

Bedrijven die meer capaciteit op een switch nodig hebben, kunnen kiezen voor de ProSafe 12 XS712T. Naast twaalf 10GbE-aansluitingen zijn er twee gedeelde 10GbE fiber SFP+ poorten aanwezig. Netgear rekent voor dit model 1849 euro exclusief btw. Voor grotere ondernemingen is ook de ProSafe 24-poorts switch te koop. De XSM7224 managed switch zou geschikt zijn voor netwerken tot vijfhonderd gebruikers en heeft een adviesprijs van 5949 euro exclusief btw.

Netgear stelt dat de nieuwe ProSafe-switches een prijs hebben van gemiddeld 95 tot 189 euro per 10GbE-aansluiting. Soortgelijke apparatuur van concurrenten zou gemiddeld uitkomen op meer dan 315 euro per poort, zo claimt het bedrijf. Netgear stelt dat 10Gbps-snelheden met zijn switches hierdoor nu ook bereikbaar zijn geworden voor kleinere ondernemingen en instellingen.

Netgear 10GbE-switch

Reacties (61)

Netgear is als CPE prima, in mkb ook nog wel.
Kan je zo niet stellen imo.
Wat ik me echter afvraag; ik heb een tijd geleden gelezen dat RJ45 niet geschikt zou zijn voor snelheden boven 1 GBit, waarvoor CAT7 bekabeling nodig zou zijn. De reden hiervoor was dat de contactpennen in de stekker van een RJ45 connector te dicht op elkaar zouden zitten.

Als RJ45 maar nt voldoende is voor 1Gbit, hoe wil je er dan 10 GBit overheen sturen ? En welke snelheid zou je in de praktijk halen ?
Cat 6a: Voorlopige specificatie voor 10 Gbit/s netwerken.
Cat 7: Formeel bekend als ISO/IEC 11801 Class F kabel. Bij deze standaard worden de 4 paren individueel afgeschermd binnen de buitenste afscherming. Dit laat frequenties toe tot 600 MHz.


CAT 6 kan al 10Gbit aan en 6a is de opvolger ervan met als goed is wat extra mogelijkheden richting die snelheden.

http://en.wikipedia.org/wiki/Category_6_cable
@sjanssen15 : Ik heb het in dit geval niet over de kabel maar over de connector. Het klopt inderdaad dat CAT6(a) in theorie geschikt is voor snelheden tot 10 Gbit.

In de berichten die ik destijds heb gelezen was er sprake dat de RJ45 connector niet geschikt was om een CAT7 certificering te krijgen. Er wordt al gewerkt aan een nieuwe stekker. De uitdaging is echter hoe je een stekker kunt maken die weliswaar backwards compatible is met RJ45, terwijl deze niet over de tekortkomingen beschikt en daardoor een hogere certificering kunt krijgen.

In hoeverre je met een CAT6(a) kabel richting de 10Gbit komt blijft ook de vraag. Je kunt de beste kabel pakken die er bestaat, maar zolang de connectoren de beperkende factor blijven kun je dus fluiten naar hoge snelheden.

CAT5E is bijvoorbeeld geschikt voor snelheden tot 1 Gbit. Echter merkte ik een duidelijke toename in netwerkprestaties nadat ik mijn CAT5E kabels had vervangen door CAT6 SSTP, terwijl het maar een simpel gigabit netwerkje is. Waar ik eerst snelheden van zo'n 12 MB/sec behaalde, hebben die zich met de nieuwe kabels verbeterd naar zo'n 30 40 MB/sec. De beperkende factor was uiteindelijk de NAS met bijbehorende harde schijven. Ik durf er om te wedden dat ik met een RAID0 configuratie veel hogere snelheden kan halen.

Ik heb echt geen super-de-luxe netwerkapparatuur in huis. Gewoon goede kabels, een simpele 8-poorts Sitecom Gigabit Switch en "Bob's your uncle, Fanny's your aunt" :-)

[Reactie gewijzigd door Titan_Fox op 28 januari 2013 21:01]

Op mijn werk doen we al 2 jaar 10Gbit over cat6a kabel met RJ45 connectoren... Linerate. Dus ik weet niet waar dat verhaal vandaan komt, maar het lijkt in de praktijk in elk geval niet te kloppen.

Als jij met (pre-made) Cat5e geen gbit haalt dan heb je of geen echte cat5e kabels, (zie verhaal heir tijdje terug over chinese namaak die zich niet aan de standaard hield), of er is iets anders mis met je netwerk. Het is niet voor niets gecertificeert voor Gbit...
Voor Cat7 werkt een RJ45 inderdaad niet. Ik heb Cat7 gelegd doorheen mijn ganse huis toen ik het bouwde. Maar ik kon inderdaad geen RJ45 nijpen op een Cat7 kabel. Het past er gewoonweg niet in, de diameter van de koperdraadjes in de kabel is te groot.

Dat heb ik simpelweg opgelost door een patch panel te monteren. Wel eentje voor Cat6, want voor Cat7 had ik die niet eens gevonden en mochten ze er wel geweest zijn (3 jaar geleden) waren ze ontgetwijfeld stervensduur. En ja, ik weet dat dit mijn netwerkkabels 'degradeert' tot Cat6, maar dat kan me niet schelen, het werkt perfect. Ik gebruik trouwens ook Cat6 patchkabels en geen Cat7, is zeker snel genoeg met de Gigabit switch die ik momenteel gebruik, en ik verwacht ook geen moeilijkheden mocht ik binnen X-aantal tijd toch overgaan naar 10 Gigabit. (maar dat zijn niet zijn vooraleer de 10 GBit netwerkpoorten ook op de moederborden van PC's aanwezig zijn).
Grappig, ik haal toch echt sustained transfer speeds van 110MB~/s over mijn cat5e kabeltjes. En dat is gewoon met de standaart upc router (cisco epc3925)

Kan niet wachten tot dit soort apparatuur ook "betaalbaar" wordt voor de mensen thuis. Als ik over 2 jaar een goeie NAS heb met 4 disks in raid 5 is het toch wel fijn als die ook snelheden haalt van boven de 128MB/s op een enkele netwerkaansluiting.
Ik zou je adviseren om meteen naar ZFS RAID (RAIDZ) te gaan. Dan heb je geen dure RAID5 hardwarecontrollers nodig en het is toekomstzeker. Bovendien kun je een storagepool migreren en zit je dus niet vast aan diezelfde RAID-controller. ZFS heeft veel voordelen ten opzichte van andere bestandssystemen. Ingewikkeld hoef het ook niet te zijn met de NAS-distributie FreeNAS. Goede server bouwen met voldoende opslag, USB-image downloaden, installeren en een paar uurtjes later heb je een fatsoenlijke NAS.

p.s. draai zelf RAID5. Lezen gaat aardig, schrijven is wat langzamer.

[Reactie gewijzigd door Conzales op 29 januari 2013 00:17]

Conzales heeft een goed punt.

ZFS is op het moment (een van) de beste filesystem(s) die je kan kiezen.
Niet alleen vanwege gebruiks/uitbreidingsgemak maar ook vanwege corruptiebeveiliging.

Let wel ZFS heeft vrij veel overhead en hoe meer cpu en vooral ram (ram is HEEL belangrijk bij ZFS!) je er tegen aan gooit hoe beter het werkt.

Als je echt RAID5 wilt gebruiken neem dan wel een dedicated raid-controller kaart, eentje van Areca of zo. (intel) ICH10R is zo onbetrouwbaar als een drol. Ik heb een tijdje een 4x1TB RAID5 op ICH10R gehad en had om de haverklap disks die uit de array vielen.

Heb nu al 1,5 jaar of zo 6x2TB RAID6 via een Areca ARC controller kaart en dat werkt echt geniaal. (op dezelfde kaart (8 poorts) zit ook nog een 2x500GB RAID1).
Die kaart was niet goedkoop (iets van 450 euro ofzo?) maar als ik bedenk hoeveel uren en frustratie die ICH10R opstelling mij wel niet opgeleverd heeft en het enorme gemak en de stabiliteit van deze kaart kan ik met een gerust hart zeggen dat het het geld meer dan waard was.

(ZFS werkt overigens gewoon softwarematig dus is ideaal voor een NAS welke geen andere taken hoeft te vervullen + t is gratizzz)
Als je echt RAID5 wilt gebruiken neem dan wel een dedicated raid-controller kaart, eentje van Areca of zo. (intel) ICH10R is zo onbetrouwbaar als een drol. Ik heb een tijdje een 4x1TB RAID5 op ICH10R gehad en had om de haverklap disks die uit de array vielen.

Heb nu al 1,5 jaar of zo 6x2TB RAID6 via een Areca ARC controller kaart en dat werkt echt geniaal. (op dezelfde kaart (8 poorts) zit ook nog een 2x500GB RAID1).
Ik sta altijd weer te kijken van de generalisaties die mensen maken. "Mijn Opel had een lekke band dus alle Opels zijn bagger".

Je geeft al aan dat je naast je ICH10R ook de schijven vervangen hebt. Dan gaat je hele vergelijking al niet meer op. Ik heb hier een QNAP met 4x 3TB Seagate staan. In eerste instantie viel daar ook regelmatig een schijf uit. Dus QNAP zal wel bagger zijn?!?

Nu, na een firmware upgrade van de schijven, is alles al maanden rete-stabiel.
scsirob de schijven zijn allemaal samsung spinpoints en het enige verschil is dat de eerste 4 1TB uitvoeringen zijn en de laatste 6 nieuwere 2TB uitvoeringen. Ik heb de 1TB schijven ook buiten raid gebruikt (na de RAID5 ontmanteld te hebben) en toen had ik er nooit problemen mee.

Gezien de schijven zelf nooit daadwerkelijk data zijn verloren gedurende de vele keren dat ze uit de RAID5 geflikkerd waren heb ik in der daad de conclusie getrokken dat het aan de ICH10R lag en niet aan de schijven zelf.. wat volgens mij best een reele aanname is.

Jou reactie vind ik dus vrij offensief en onnodig.
Dat mijn mening gebaseert is op mijn persoonlijke ervaring moge vanzelf spreken.. ik praat ten minste nog uit enige eigen ervaring (wat je niet van iedereen kunt zeggen met een 'mening' over een bepaald onderwerp) dus chill.
Dat IK dit ervaren heb betekent ook niet dat ik zeg dat IEDEREEN dit zo zou ervaren, maar ik neem aan dat de beste mensen hier op tweakers wel in staat zijn om dat te begrijpen en vandaar dan ook het gebrek aan een DISCLAIMER in de vorm van "persoonlijke ervaringen kunnen afwijken" of iets dergelijks.

Sorry om te horen dat jou schijven een firmware update nodig hadden om stabiel te draaien. Ik zelf heb me nooit echt verdiept in firmware updates simpelweg omdat ik ervan uit ga (noem het naieve hoop als je wilt) dat een product out of the box met stabiele firmware op de markt komt. Enige uitzondering hierop is mijn BIOS, die update ik wel.

Een BIOS is mijns inziens toch wel iets complexer dan HDD firmware (ik vergelijk het met GFX drivers) waar updates wel degelijk prestatie/stabiliteitswinst op kunnen leveren maar van een HDD zou ik dat zo niet denken.

Weer wat geleerd, dankjewel! :+
12 MB/s is dus gewoon 100mbit. Je kabels waren gewoon brak.
Over cat 5e kan al gigabit Titan_Fox, zonder problemen.
Weet verder niet de praktische mogelijkheden van cat 5e met 10gbit, of cat 6/7 in dat geval. Maar vaak afzetterij dat je vooral het grootste getalletje moet nemen, hier Gbit met een cat 5e kabel ;).
De aders in een connector van een CAT7 patchkabel verspringen en zitten niet alemaal naast elkaar, 2 aders liggen een niveau/draadhoogte lager als de andere aders.
RJ45 en CAT7 werkt prima voor de 600 MHz, niet voor CAT7 1000 MHz. Je moet idd wel speciale RJ45-stekkers hebben voor CAT7 maar dat was bij CAT6 ook zo: de adertjes waren ook iets dikker zodat ze niet in de meeste gewone RJ45's pasten.
Ik draai al jaren 1GBe ProSafe switches thuis (1x 16 poorts en 2x 8 poorts) en heb nog nooit problemen gehad, in tegenstelling tot andere "prosumer" switches als Linksys en Belkin.
Ik haal de volledige 1Gbit throughput en er is nog nooit een switch uitgevallen, terwijl ze 24/7 draaien. Ze zijn hevig gebruikt (draai een 5 bay NAS, 5 PC's, 3 AP's, 2 printers, meerdere mediaspelers en een paar console er op).

Mocht er ooit een vervangen/toegevoegd moeten worden dan wordt dat wederom een Netgear.
Ik draai al jaren 1GBe ProSafe switches thuis (1x 16 poorts en 2x 8 poorts) en heb nog nooit problemen gehad, in tegenstelling tot andere "prosumer" switches als Linksys en Belkin.

Mocht er ooit een vervangen/toegevoegd moeten worden dan wordt dat wederom een Netgear.
Netgear maakt toch, net als Linksys, gebruik van Cisco hardware?

* Stoney3K heeft nog een Netgear VOIP-enabled switch in handen gehad die met proprietary Cisco PoE telefoons werkte....
Nee.

Linksys was een merk van Cisco en maakt dus per definitie gebruik van Cisco hardware. Echter een Linksys switch is niet vergelijkbaar met een switch waar het Cisco merk op staat.

Netgear ontwerpt haar eigen hardware en maakt dus ook geen gebruik van Cisco hardware. Het grote voordeel van het gebruik van apparatuur van merken als Netgear is dan ook de prijs. Het is een flink stuk goedkoper. Probleem is de betrouwbaarheid, die lijkt toch nog wat minder te zijn dan Cisco en in een datacentrum kom je merken als Netgear dus nooit tegen.

Zelf zou ik eigenlijk eerder Huawei overwegen. Dat merk is ook flink goedkoper dan Cisco maar de hardware wordt wereldwijd wel veel gebruikt in grote omgevingen. Maar de prijs van Netgear is waarschijnlijk nog net wat lager.
netgear :') Zonde van je geld.
Wat is dat nu weer voor een pure onzin?

Netgear pro spul is prima netwerk apparatuur, met een goede prijs verhouding.

En ook het thuis spul van Netgear is over het algemeen prima.

Omdat jij problemen hebt gehad met ''een'' product van ze, wil nog niet zeggen dat alles slecht van ze is. |:(

/Ontopic
Ben blij dat de prijzen eindelijk beginnen te dalen, nu komt 10Gbit binnen kort in de betaalbare buurt voor priv gebruik.

En voordat we de zelfde onzin krijgen als toen er werd gezegt met 1Gbit netwerk, als haal je maar 15% van de bandbreedte, dan heb je nog steeds 50% meer dan je nu hebt.

Daarnaast komt het ook de toegangstijd van netwerkdrives ten goede, zodat net als in het begin met Gbit, je nouwelijks verschil merkt tussen lokaal en een netwerk HD.
netgear ;(

Zonde van je geld.
Dat hangt er geheel van af welke Product-Lijn je gebruikt!
Net als HP, Dell, Intel en vele andere merken, is er vaak
een SoHo-Lijn (Thuis en MKB), en een Professional-Lijn.

Ik heb de Prof-Lijn meerdere malen ingezet bij Corporate
companies die toch ook wel op de centen letten, en ook
iets simpels en doeltreffends wouden hebben.
Dan volstaat netgear wel. WiFi AP's van Netgear zijn bv
best wel 'snel' i.v.t. anderen.

Ik vind je niet onderbouwde reactie veel te kort door de bocht,
en ik geloof dat ik niet de enige ben die deze mening over jou heeft...

[Reactie gewijzigd door HoeZoWie op 29 januari 2013 10:18]

Heb je het huidige product portfolio van Netgear al eens bekeken?

Er staan nu echt high-end netwerk producten tussen met een zeer scherpe prijs.

Je kunt dus je netwerk opbouwen met bijv. HP en Cisco en concessies doen voor beschikbaarheid, functionaliteit en performance om maar een A merk te kunnen toepassen f je koopt voor hetzelfde geld hoge(re) beschikbaarheid, meer functionaliteit en hoge(re) performance een Netgear omgeving.
wat kan je nou aansluiten op zo'n apparaat? meeste pcs en routers hebben een 1gbit poort.
Dit is meer voor bedrijven, die dit dan weer verder verdelen naar andere switches, een beetje zoals de Cisco switches
Deze zijn ook niet bedoeld voor thuisgebruik. deze hang je in een rack en sluit je je switches op aan en VMserver misschien voor het personeel.
Een 24poorts gigabit managed HP procurve is ook niet bedoeld voor thuisgebruik maar doet het hier thuis best leuk in mijn rack... ;)
Tot je de energierekening ziet.

Was voor mij de reden om mijn Cisco-switches weg te doen. Was >160 watt kwijt aan switching, terwijl (voor thuis) een Linksys het even goed deed.
Je moet ergens mee beginnen. De eerste gb switch kwam toen iedereen nog 100mb had. Maar kijk eens bij Cisco, genoeg 10gb spul.
En je kan dit als coreswitch gebruiken om switches te koppelen die 10gb uplink hebben, je hoeft kan ook iets anders dan een pc aan een switch hangen zoals netwerkstorage.

[Reactie gewijzigd door urtyp op 28 januari 2013 19:16]

Het loont mogelijk bij bedrijven die met ''thin clients'' of werkstations werken waarbij op de server een virtual image staat waarin ze werken (''de cloud''). Ter vergelijking:
100mbit = 10 MB/s
1gbit = 100 MB/s
10gbit = 1 GB/s

Mits je server dan natuurlijk zo snel kan lezen, scheelt het bij een Windows-image weer wat seconden laadtijd.
En uiteraard: in de thin clients of de werkstations dan maar losse PCI of PCI-e 10gbit LAN kaartjes prikken.

EDIT: of wat te denken van het gebruiken van deze switch vr de andere switches die er mogelijk nog achter gelust worden bij grote bedrijven: mits de input van de andere switches 10gbit input aan kunnen, zou dat een netwerk-snelheidsboost kunnen opleveren.

[Reactie gewijzigd door Jorn1986 op 28 januari 2013 19:16]

Ik zou niet weten wat je met 10 gigabit switches moet aan de clientkant als je thin clients gebruikt.
wel aan de uplink kant van bijvoorbeeld je fileserver!
idd, thin clients gaan meestal niet harder dan 100mbit.
PCI 10 Gbit? Een Gbit kaart trekt al een hele PCI bus vol. Houd het maar gewoon op PCIe.
Oops, je hebt gelijk. Maar je hebt zowiezo van/naar de switch zo'n netwerkkaart in je server nodig: maar die is niet bepaald goedkoop, en ''simpele'' PCI-E 10gbit netwerkkaartjes zie ik nog niet, dus voorlopig toekomstmuziek?
Het is nog altijd een factor 8 kleiner niet 10 dus
100mbit = 12MB/s
1gbit= 120MB/s
10gbit= 1,2 GB/s

Een PC die 1,2 GB/s moet kunnen verwerken vereist nogal behoorlijke hardware dus valt je Thin client idee gelijk in de prullenbak.
Een cloud server die software streamt heeft nog altijd een locale HDD nodig op je Thin client om zijn data kwijt te kunnen zodat jij het kan gebruiken. Het wordt niet direct in het geheugen geladen ofzo, of je moet thin clients met 16+ GB intern geheugen maken wat dus weer totaal het concept thin client voorbij gaat.
Je kan dan net zo goed gewoon een server terminal en of KVM switch gebruiken want dat is veel goedkoper en levert veel minder problemen op.

Waar het wel handig voor zou zijn is als je een beest van een workstation heb die daadwerkelijk het netwerk snelheid aan kan en dan grafische renderingen gedeeltelijk of helemaal op een server uitvoert om het in realtime op het workstation te bewerken.

(Dit allemaal naast het feit dat ze ontwikkeld en gemaakt worden om switches met elkaar te verbinden en dus je netwerk backbone vormen als alternatief van glasvezel en dus is dat geen "of wat te denken van" verhaal maar gewoon het realiteit)
Factor 8 + bijna 20% protocol overhead, dus bijna factor 10 ;) Laten we er 10 van maken, is lekker makkelijk rekenen.
op elk poort nog een gigabit switch.
Een oplossing als deze is meer bedoeld als core switch.
Vanuit het patchpaneel patch je naar een langzamere goedkopere massa switch, deze hebben dikwijls ook gewoon 100mbit verbindingen. (en een snellere uplink, dat is wel nodig)

Stel je hebt meerdere van deze switches waar alle patches naartoelopen... Hoe knoop je die dan aan elkaar? Juist ja, dan moet je schalen.

[Reactie gewijzigd door lenny_z op 28 januari 2013 19:25]

Zodra je met virtualisatie aan de slag gaat is 10Gbit erg fijn, bijvoorbeeld ook als je een cluster hebt waarbij je met iSCSI connecties naar een SAN gaat. Bij het MKB zie je wel eens software als Starwind, wat een HA SAN kan maken op basis van gewone server hardware.

Dat is alle speed welkom. Zeker als er grote bestanden als images of VHD files gerepliceerd moeten worden.
Dit bijvoorbeeld: pricewatch: Cisco Cisco SG500X-24

Die heeft naast 1Gbit poorten ook 10Gbit poorten voor 'uplink' zodat al je 24 workstations niet dezelfde 1Gbit lijn naar het serverhok hoeven te delen.
"Goedkoop" is maar relatief... Een switch die 10x zo snel is, maar ruim 50x zo veel kost als een 1Gbit switch vind ik niet goedkoop.

Desalniettemin is het wel goedkoper dan producten van concurenten.
Op die manier moet je niet kijken. Op marktplaats kan je een 10mbit hub voor niets ophalen. Dus beter dan een 10gb?
Dat zeg ik toch niet? Ik heb het over "Goedkoop" en de betekenis daarvan. Voor een consument en zelfs voor een bedrijf is een 10Gb switch van 1000 nog best een hap.
Tegenwoordig koop je een redelijk simpele Proliant ML310 G7 voor een paar honderd euro. Als je er daar een paar van hebt om een goedkope virtualisatiefarm te maken is 10Gb best een leuke extra, maar met deze switches nog steeds een flink gedeelte van je budget.

Blijft het nog steeds waar dat het goedkoper is dan de concurrentie.
Sommige bedrijven (lees: bedrijven met een paar servers in de bezemkast) hebben over een tijdje gewoon behoefte aan een 10Gbit/s. 1Gbit/s is inderdaad een heel stuk goedkoper maar dat is niet altijd genoeg.

Met de opkomende consumenten glasvezelverbindingen van 500/500mbit vind ik het niet gek dat de servers (en netwerkapparatuur) ook sneller moeten worden.
Gigabit voor virtualisatie begint onderhand echt te traag te worden.
Stel dat je een paar Virtuele machines hebt met, 64GB geheugen, en je wilt vmotion gebruiken dan zal het theoretisch 8 x 64Seconden gaan duren voor je geheugen gekopieerd voor de eerste keer naar de andere server gekopieerd is, vervolgens nog eens de delta's... en dat is gewoon onaanvaardbaar in een HA omgeving.

Daarom plaats je dit soort switches (al betwijfel ik erg of ook maar iemand aan dit merk denkt als het om 10Gb gaat) als core / backend.

10 Gbit is onderhand al een commodity in een datacenter al gaat het dan meestal wel over Fiber ipv Koper.

[Reactie gewijzigd door klakkie.57th op 28 januari 2013 23:48]

"Goedkoop" is maar relatief... Een switch die 10x zo snel is, maar ruim 50x zo veel kost als een 1Gbit switch vind ik niet goedkoop.
De term 'goedkoop' zegt ook weinig als je verder niets over de switch weet. Alleen aantal poorten en snelheid per poort zegt weinig, zonder een lijst van features en specificaties zoals stroomverbruik en bandbreedte van de data plane. 10GB/poort wil niet zeggen dat alle poorten tegelijkertijd 10GB kunnen verstouwen.
Door Dimitri Reijerman, maandag 28 januari 2013 19:01, views: 3.536
Moet jij niet achter de TV zitten om 19:01? :+

Ontopic:

Bijna 6000?
Ruim een tiente per gebruiker is wel prijzig :P

[Reactie gewijzigd door ik.ben.iemand. op 28 januari 2013 19:44]

Ik vind het wel een ouderwets (lees: lelijk) ontwerp zeg...
Ja dat maakt wat uit voor een switch die in een rack hangt |:(

Goeie prijs voor dat segment. Mooi ook dat 'ie twee voedingen heeft, dat mis ik in een hoop enterprise-level switches toch nog wel. Veel bang for the buck! (voor 10GB begrippen)
Eens, twee voedingen zie je niet zo heel vaak. Hopen dat het volwaardig voedingen zijn, en niet n RPS icm n 'echte' voeding.

Wel vraag ik me af wat ie echt kan, los van de throughput (throughput op een switch hoort niet zo heel spannend te zijn)
- Kan ie mgmt via SSH (ipv telnet/HTTP)
- Kan ie vlans (l3 vlans/SVI's)
- Kan ik poorten bundelen (etherchannel/portchannel (LACP))
- Kan ie overweg met CDP of LLDP
- Kan ie SPAN/oid. (portmirroring tbv throubleshooting/logging)
- etc.

Ik weet niet precies wat het MKB voor requirements heeft, maar wel wat Enterprises voor requirements hebben. Een 10Gbps switch vind ik niet zo spannend, des te meer wat voor features hij heeft en wat de performance degratie (lees: afname throughput) is bij gebruik van meerdere 'features' gelijktijdig.
http://www.netgear.com/bu...10-gigabit/M7100.aspx#two

Even een blik op de website beantwoord vrijwel al je vragen. En voor zover ik zie is alles met een Ja te beantwoorden. Behalve de performance degratie. Geen enkele fabrikant zal het groot op zijn website zetten de de hardware inkakt als je veel gelijktijdig vraagt (zoals een alles in een modem dat erg veel snel kan maar niet gelijktijdig...)
Voor VMWare is dit zeer interessant. Je hoeft dan maar n vmkernel aan een 10Gb poort te hangen wat nog steeds beter schaalt dan meerdere 1Gb poorten onder ESXi. De NFS (en loadbalancing) implementatie van VMWare laat namelijk slechts 1 sessie toe als je van een zelfde IP komt (wat typisch gebeurt tussen storage en ESXi server).

Verbinding tussen je storage en je ESX servers wordt dan wel zeer snel :). De thuisgebruiker zie ik er niet meteen veel mee aanvangen.
Storage wordt over het algemeen via Fibre Channel gekoppeld.Maar goed, 8Gbit FC is ook niet goedkoop en een dedicated 10Gbit iScsi SAN kan vrijwel dezelfde prestaties leveren.
FC bij MKB lijkt me toch wel heel beperkt. FCoE is wel aan opmars bezig.
Yes, hier zat ik op te wachten. 10Gbe UTP switches zijn zeldzaam en kostbaar. Dell heeft er een voor 24 poorten maar die kost tegen de 9.000,00. Heb 3 servers via 10 Gbe point to point met elkaar verbonden. Alleen Hyper-V en backup verkeer gaat over deze lijntjes.

10Gbe UTP kaartjes waren al redelijk betaalbaar. Met deze switchen komt 10 Gbe echt binnen bereik van een grotere groep gebruikers. Het zal overigens nog wel ff duren voordat de gemiddelde tweakert een dergelijk kastje thuis heeft staan :)
480Gbps switching fabric, das dus op de 24 port's switch 24x 10Gbit full-duplex en dan ook nog "L3 routing is wire-speed" doen. Niet slecht voor die prijs.

Vraag me alleen af hoeveel impact dit: "IPv4/IPv6 comprehensive traffic filtering (ACLs), and prioritization (QoS - DiffServ)" gaat hebben op de performance.
Enige nadeel is dat ze geen stacking ondersteunen, dus voor een redundante setup zit je aan spanning tree oplossingen vast.

Overigens bedoel ik met stacking dat de switches met een high speed verbinding gekoppeld zijn en zich als 1 logische switch gaan gedragen, je kunt dan bijvoorbeeld ook poorten uit meerdere switches in 1 lacp bond stoppen.

[Reactie gewijzigd door mxcreep op 29 januari 2013 06:38]

Komt net op tijd. Wij zijn aan het inventariseren op SAN producten en maakt iSCSI 10Gbe een stuk interessanter. 2x 1900,- is aardig te behappen. En een spanning tree oplossing is toch zo erg niet? Toch goedkoop redundantie (voor dit stukje).
Het is alleen jammer dat bijv. HP nog geen NIC's op 10Gbe maakt met RJ45.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013