Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Stel een vraag

Discussieer mee of stel een vraag

Filters - Verfijn resultaten

Topictype

CategorieŽn

AND

Onderwerpen

AND

Subforum

Datumbereik

Topicstarter

Topicstatus

17 topics - Pagina 1 van 1

Veiligste manier om bulkdata te verhuizen QNAP naar ZFS

07-10-2012 discussie 15
Ik heb al een tijdje een QNAP TS 439 Pro II in bezit, maar ga deze wegens verkoop "leeg maken" en al mijn data verhuizen naar mijn nieuw gebouwde ZFS machine (N40L met 5 x 3TB in RAIDZ).

Nu vroeg ik me af: hoe kopieer ik het best mijn data van de QNAP naar de ZFS-machine?

Ik heb onder de QNAP meerdere shares, met uiteraard wat permissies op. Onder ZFS wat permissies instellen is niet zo eenvoudig had ik begrepen, dus die mogen ook wegvallen. Het belangrijkste is dat mijn data correct wordt overgezet en liefst volledig, daar maak ik me echt zorgen over en ben ik redelijk "angstig" om...

rsync leek me dan het makkelijkst, maar dan moet ik vanaf de QNAP continu een sessie in SSH laten openstaan om volgend commando te runnen:

rsync -avz /pad/naar/mijn/shares/op/qnap ssh@zfsguru:/pad/naar/mijn/zfs/share

Thematopic: Virtualisatie: Impact op je omgeving

20-05-2012 discussie 92

Thema topic: Virtualisatie: Impact op je omgeving

Introductie
Welkom in het alweer achtste thema topic! Iets minder dan anderhalf geleden zijn we gestart met een nieuw item in de Softe Goederen fora om ook de andere aspecten van een ICT omgeving te belichten. De vorige thema topics vind je hieronder onder het kopje 'Vorige thematopics' :)

Deze maand hebben we gekozen voor meerdere thema topics allemaal rond het thema 'Virtualisatie', in een aantal verschillende topics willen we de mogelijkheid geven om de volgende aspecten belichten:
  • Vitrtualisatie: Planning en aanpak
  • Virtualisatie: Impact op je omgeving
  • Virtualisatie: De toekomst
Thema: Virtualisatie: Impact op je omgeving
In dit thema topic willen we graag zien wat virtualisatie voor veranderingen heeft geleid in het dagelijks beheer (en uitbouwen) van je omgeving. Heb je bijvoorbeeld je backup methodiek of licentie systematiek moeten aanpassen? Hoe monitor je deze omgeving - gebruik je nog steeds 'Taskmanager' of 'vmstat' om te zien of je virtuele server overbelast is, of ga je juist op de host kijken? Hoe gaat het storage-beheer tegenwoordig?

Vorige thema topics
Het volgende thema topic...
Mocht je suggesties hebben voor een volgend thema-topic, laat het ons dan weten op softegoederen @ tweakers.net of post het in dit topic.

Hardware voor serverconsolidatie

06-04-2012 discussie 20
Hallo,

Ik heb al een heel deel van dit forum doorgelezen en heb er al veel bij opgestoken maar ik zou graag toch beroep doen op jullie kennis en ervaring. Ik probeer zoveel mogelijk informatie te geven maar ik ga sowieso dingen vergeten of overzien dus vraag het gerust maar.

Ikzelf ben een student ICT die in Schotland een internationale stage doet. Mijn opdracht wordt kort samengevat als ‘server consolidation’. Over servervirtualisatie is er op mijn hogeschool weinig echt gesproken geweest maar ik heb er al vaak over opgezocht en gelezen omdat ik het persoonlijk erg interessant vindt.

In het bedrijf waar ik mijn stage doe staan er voorlopig 6 servers en een heel deel gewone computers te draaien die wat servertaken uitvoeren. Een deel van deze servers draaien al virtueel op de gratis versie van ESXi en andere mission-critical taken staan nog op een standalone.
Dit zien diensten als ldap, mail en CRM, de demo-servers en een hele boel linux servers waar developers hun producten op bouwen of uittesten zijn al virtueel (+- 50, niet tesamen actief).
Er is een centrale storage’bak’ met hardware-raid die via NFS beschikbaar is; voor een andere boel servers wordt er gebruik gemaakt van lokale opslag met software-raid.

Het doel is om dit allemaal te gaan virtualiseren en dat er gebruik kan gemaakt worden van live migration en high availability.

Na twee weken papers lezen en het te bespreken met mijn supervisor is er al gekozen voor VMware vSphere. Er wordt gekeken naar een Standard Acceleration Kit dat bestaat uit licenties voor 8 CPU’s, 32GB vRAM/CPU en vCenter Standard.

Het volgende is de keuze voor hardware en hier loop ik mee in de knoop. Ik heb al veel gelezen zoals de benodigde ‘componenten’ en de verschillen tussen blade servers en rack mounted servers maar zodra ik specifiek hardware ga uitzoeken kom ik met maar met meer vragen uit.

Als startidee zoeken we naar 3 hosts met 2 Quad-core CPU’s met minimaal 16GB RAM, liefst al 32GB.

Om het even voor te stellen had ik gekeken naar HP aangezien er hier ook vooral HP hardware staat. Het is echter geen verplichting om naar HP uit te kijken.

Als ik naar een blade-setup kijk dacht ik dat een combinatie met een HP C3000 Enclosure met daarin Proliant BL460c G7’s erin wel een goede keuze zou zijn. Daaraan dan een SAN, ik ben een paar keer weer bij een HP P2000 G3 uitgekomen.

Hier stopt het voorlopig bij mij. De keuze tussen (blade) servers zal iets zijn naargelang wat men qua performance nodig heeft maar bij SAN’en is er zoveel keuze dat ik door de bomen het bos niet meer zie.

Ik heb al gekeken bij NetApp, HP en IBM maar kom meestal uit bij torenhoge oplossingen die sowieso overkill zijn (alsook voor het financiŽle aspect).

Ik weet dat ik jullie niet moet vragen om mijn probleem op te lossen maar en duwtje in de goede richting zou nu echt welkom zijn of wat extern advies.

Met vriendelijke groet,
Arthur

SAN fysiek koppelen aan ESX machine

22-03-2012 discussie 10
Hallo allemaal,

Wij hebben op kantoor een discussie hoe we een san het beste kunnen koppelen aan een esx machine.
Het gaat hierbij om een Fujitsu TX 150 S6 icm met een qnap 859 nas.
De nas zal voorzien worden van 3 isci targets, 2 voor 2 esx datastores waarin 2 virtuele machines komen en 1 voor de data. Het isci target voor de data willen we dan direct in een 2008 server koppelen zonder tussenkomst van vmware.Nu is het onze bedoeling om de server te voorzien van een extra gigabit netwerk kaart zodat we de server met een netwerk kabel 1 op 1 op de nas aan kunnen sluiten. Mijn baas vind dit echter geen goed idee en vind dat we alles via een switch aan moeten sluiten. Ter verduidelijking 2 overzichten van beide mogelijkheden.

http://img594.imageshack.us/img594/3024/drawing1n.jpg

http://img193.imageshack.us/img193/9016/drawing2a.jpg

Wat vinden jullie?

Performance iscsi Equallogic P6100

07-02-2012 discussie 9
Om een korte situatie te schetsen behorend bij de onderstaande vraag:
het bedrijf waar ik werk heb ik momenteel een HA setup (corosync/pacemaker) ingericht en opgeleverd.

Echter zijn er mogelijk wat problemen met de disk performance richting het SAN. Dit is een Equallogic PS6100, waarbij de twee servers uit de HA setup als enige hierheen mogen connecten.

Deze twee servers zijn door middel van een bonded link via een dedicated switch geconnecteerd aan het SAN. Echter, bij benchmarken valt het op dat de performance achter blijft op de normale performance die we gewend zijn te halen op het SAN (120MB/s ipv 200MB/s).

Zijn er onder jullie mensen die ervaring hebben met een dergelijke setup, en advies kunnen geven over eventuele performance tweaks, of plaatsen waar ik kan beginnen met zoeken naar performance verhogende instellingen?

(voor de volledigheid: scheduler staat op cfq, performance is zowel voor grote als kleine chuncks 120MB/s, netwerkkaarten zijn Intel e1000 quadports, met 2 connecties richting het SAN, filesystem is halvm emt ext4 volumes)

Redundancy met 2 Synology RS2211RP+

14-12-2011 discussie 9
Op mijn werk ben ik bezig met het opzetten van een cluster.
Dat is me nu gelukt, echter maken we ons zorgen over de storage.
Deze wordt nu voorzien door een Synology RS2211RP+ NAS waarop iSCSI targets en LUN's zijn gedefiniŽerd.
Echter, bij uitvallen van de NAS zal de cluster uitvallen, aangezien de storage achter het cluster verdwenen is.
We hebben hiervoor een tweede NAS aangeschaft, maar ik ben nu op zoek naar een manier om deze tweede NAS als mirror van de eerste kan laten functioneren.
Win 2008 clustering staat mij niet toe om geclusterde resources aan te merken als dynamic om zo een mirror op te zetten.
Met ťťn NAS aan het cluster gekoppeld is dit nogal een SPoF.

Iemand enig idee hoe ik dit het best zou kunnen aanpakken?

[SAN] read performance onder de maat

26-07-2011 discussie 16
Ik zit een beetje met een vraag waar ik het antwoord wel op denk te weten, maar wat me niet logisch overkomt gezien de context. Wellicht hebben jullie nog wat input voor me?

Situatie:
Nieuw opgeleverde VMware omgeving met 1x DL380 G7 (er komt nog een 2e voor HA) en een HP P2000 iSCSI SAN, voorzien van 4x 10k SAS disks (R5, 1 LUN, 1 VMFS datastore). De host is met 2x Broadcom NIC's (ingesteld als iSCSI HBA) aangesloten op 2x HP 2910al switches en ingesteld voor multipathing. De beide controllers van de P2000 zitten elk op hun eigen switch, zo is het pad van host naar storage volledig redundant. Alles is ingesteld volgens best practices van HP en VMware.

Nu merk ik al direct bij de eerste installatie van de eerste server dat, bij bijvoorbeeld het openen van iets simpels als de DNS console (Windows), de read delay omhoog schiet naar zo'n 500ms. Ook bij iets als een shutdown schiet de read delay omhoog richting de 500ms. Gek genoeg krijg ik de write delay met allerhande kopieeracties niet boven de 10ms, dat zal het effect zijn van de 2GB aan cache die elke controller heeft.

Mijn eerste redenatie: de 4 disks leveren niet genoeg read IOPS.

Maar nu komt mijn twijfel om de hoek:
Bij een andere klant staat een vergelijkbare 4 disk opstelling als local storage in een vergelijkbare server en levert niet zulke vertragingen. Deze lokale controller heeft notabene ook nog eens minder cache.
Bij weer een andere klant staat ook zo'n P2000, maar dan een 6Gb shared SAS versie (ipv iSCSI). Hierin zitten 6x 15k schijven in R5, maar daarop draaien wel 6-8 servers en die schommelt ook rond maxima van 10ms delay.

Dus nu twijfel ik toch of ik het niet moet zoeken in het iSCSI stuk, dus ofwel finetunen van ESXi ofwel iets in de switches (flow control staat al aan). Heb al zitten kijken naar het finetunen van instellingen mbt Round Robin, maar met maar 1 LUN op 1 actieve controller vraag ik me af wat dat moet verbeteren.

MSA P2000 G3 ISCSI Cold spare config

24-06-2011 discussie 2
Ik heb 2 MSA P2000 G3 ISCSI DUAL Controller SAN's aangeschaft
1 met disks en 1 zonder

Het enige verschil in de MSA's zit hem dus in de disks.

Ik heb deze cold spare op voorraad staan in het geval mijn eerste kapot gaat.
Ik heb reeds getest met de voeding en de controllers.
Deze zijn allemaal erg makkelijk uitwisselbaar en de configuratie wordt netjes naar de nieuwe controller gekopieerd.

Mocht mijn enclosure nu kapot gaan wil ik deze eigenlijk makkelijk met weinig downtime en herconfiguratie kunnen vervangen. Ik heb de schijven en de controllers omgeprikt in mijn cold spare, echter heeft deze dan niet dezelfde configuratie als mijn productie enclosure.

Is er een manier deze config te exporteren en te importeren? Zodat ik snel het apparaat kan vervangen in geval van nood?
Ik heb de handleiding van HP erop nagelezen maar hier wordt alleen maar gesproken van schijven, controller en voeding vervangen, niet over het vervangen van een enclosure.

UPDATE: De vdisks worden netjes gezien door de MSA, echter de IP instellingen van de management interface en de ISCSI poorten staan default.

[HP MSA P2000 G3] Welke manier aansluiten

22-06-2011 discussie 3
Ik ben bezig mijn eerste SAN in te richten.
Het gaat om een HP MSA P2000 G3 met 12x 600GB SAS 15k en een dubbele ISCSI controller.

Nu heb ik twee iscsi switches erbij voor redundant verbinding naar mijn servers (2 stuks)

Ik heb op de P2000, 2 vdisks gemaakt, 1 op preferred controller A en 1 op preferred controller B, om zo de load wat te verdelen.

De ISCSI kaarten hebben elk 4 Ethernet poorten.
Echter in deze opzet zijn er maar 2 in gebruik (per controller) (1 actief, 1 passief).

Is het mogelijk voor betere performance deze poorten te trunken/teamen/combineren?

Hoe kan ik het maximale uit mijn san halen? Maar toch redundant blijven (MPIO)?

cloud-design voor mkb-dienstverlening

15-03-2011 discussie 13
Ik ben voor mijn wergever research aan het doen naar het betaalbaar bouwen van een schaalbare cloud-dienst die wij aan onze eigen klanten willen gaan aanbieden (IaaS). Nu zijn er diverse grote cloud-aanbieders zoals Rackspace die ook reseller-schappen bieden, maar liever bouwen we iets op in eigen beheer. Dat geeft ons veel meer flexibiliteit en controle in het aanbod naar de klant. Naast het aanbieden van IaaS zal hierbovenop (door ons zelf) een volledige basis gebouwd worden mbv diverse Microsoft applicaties voor een complete fixed-price oplossing naar onze klanten.

Nu zijn hierin talloze wegen te bewandelen, van rack-mount tot blade servers, dedicated en virtuele storage, diverse storage-protocollen, 1 of meerdere storage-tiers, talloze hardware leveranciers, etc etc.

Wij zijn van huis uit een HP shop, dus daar heb ik als eerste (en voornamelijk gekeken). Enkele opties die inmiddels de revue zijn gepasseerd *:
- HP DL380 met HP P2000 SAS storage (maximaal 4 hosts, maar te upgraden naar FC of iSCSI)
- HP DL380 met HP P4000 VSA (performance penalty ivm storage virtualisatie direct op de hosts)
- HP DL380 met HP P4000 'Lefthand' iSCSI storage (een 'simpel' P4000 cluster gaat al snel richting de 30k)
- HP blades met HP P4800 Bladesystem SAN (storage alleen al kost bijna 2 ton om te starten, waarbij vele TB's in het begin ongebruikt zullen blijven; daarnaast door HP gepositioneerd als VDI- oplossing)
- HP blades met EVA (voor het geval we erg succesvol worden)
- HP DL380 met Falconstor NSS (complex prijsmodel? beetje vergelijkbaar idee als P4000 VSA)
- wat variaties op bovenstaande zoals blades met MSA2000 G2 shared SAS etc.

Bij de P4000 varianten wordt storage-tiering bijvoorbeeld weer lastig omdat het meeste kant en klaar is.

Op mijn zoektocht ben ik bijvoorbeeld ook oplossingen voor storage "opwaardering" tegengekomen zoals bijvoorbeeld Violin memory caching (nog geen prijzen gezien, maar custom-made multi-TB SSD oplossingen zullen verre van goedkoop zijn)

In alle gevallen heb ik de volgende zaken in acht genomen: start-investering, schaalbaarheid (cpu, mem, diskspace, infra), fysieke ruimte, beheersbaarheid. De te ontwerpen startomgeving moet (uiteraard) uit minimaal 2 reken-nodes bestaan en een SAN met 2 controllers (of 2 nodes in geval van P4000-achtige oplossingen).

Mijn conclusie tot nu toe: of je start goedkoop en loopt vrij snel tegen groei-beperkingen aan waarna je opnieuw kan beginnen (desinvestering) of je ben een smak geld kwijt nog voor je weet of de diensten willen aanslaan.

Ben vooral geinteresserd in de valkuilen van zo'n traject. Zijn er mensen die ervaring hebben met het bouwen van een kleinschalige (interne) cloud die hun ervaringen willen delen of mensen die weten welke partijen zich hebben gespecialiseerd in cloud-design? Van de laatste ken ik er wel een paar, maar die richten zich vooral op enterprise formaat bedrijven of dienstverleners die een aanzienlijk dikkere portemonnee hebben ;) HP zelf levert bijvoorbeeld Cloud services en BladeMatrix, totaal oplossingen om een cloud te bouwen waar je als kleine partij volledig op leeg loopt en bijvoorbeeld een Telindus-ISIT zit hier ongeveer om de hoek.

__________
* Met de revue gepasseerd bedoel ik dat ik gedegen research heb gedaan naar de mogelijkheden en onmogelijkheden van dat specifieke platform en dat ik het vertrouwen heb dat we zo'n omgeving zelf grotendeels kunnen op- en uitbouwen en beheren. Dat betekend: whitepapers en documentatie gelezen, trials gedownload en labjes gebouwd, visio schema's uitgetekend, calculaties gemaakt, etc.

SAN advies gevraagd

08-03-2011 discussie 99
Heren,

Ik, als storage leek, zoek advies bij het aanschaffen van een eigen SAN. Voordat ik me volgende week laat voorlichten door deskundigen (verkopers) ben ik benieuwd wat het advies van de tweakers is.

Wij hebben momenteel een cluster van 3 ESX 4.0 servers (Dell R710). Hierop draaien ongeveer 50 virtuele windows servers.We huren 2TB storage van ons datacenter. Deze 2TB spreken we aan via NFS over 1Gbps.
Dit is natuurlijk veel te traag voor onze 50 servers, dus zijn we op zoek naar een eigen oplossing.

Waar moet ik op letten? Welke technieken moet ik gaan gebruiken?
Mocht het niet genoeg informatie zijn dan hoor ik het graag.

Gr, Erik

iSCSI of Fibre Channel voor 150+ TB storage omgeving?

12-08-2010 discussie 13
Voor een redelijke grote storage-omgeving (150+ TB) heb ik een paar vraagstukken waar ik nog niet echt uit ben. Gaan we gebruik maken van iSCSI of Fibre Channel? CIFS, NFS of GFS?
iSCSI zit tegenwoordig op iedere redelijke server onboard (TOE), en kan over bestaande infrastructuur. Snelheden van 1Gbit of 10Gbit.
Fibre Channel: separate infrastructuur, redundantie, betrouwbaar, snel (4-8 Gbit), beperkte afstand die je kan overbruggen en is wel prijzig.
En dan hebben we nog de keuze van filesysteem: CIFS, NFS of GFS.
De servers bestaan uit zowel Windows als Linux systemen en moeten beide platformen op dezelfde filesystemen tegelijk kunnen werken. Het zal ook een redelijk I/O intensieve omgeving zijn! (waarvan ca. 95-98% read's van extreem veel en kleine (overgrote deel: < 1 MB) bestanden)
NTFS is eigenlijk geen optie ivm locking problematieken.
Ik heb ooit begrepen dat de problematiek bij gebruik van CIFS is dat de doorvoersnelheid een beperking gaat worden. NFS zou dit probleem daarentegen niet hebben, maar zou wel weer meer last hebben van latency problematieken. En dan hebben we nog GFS als optie. GFS heeft wel weer als groot voordeel dat het extreem schaalbaar is. (wat ook de bedoeling van de gehele omgeving is)
De LUN's zullen 10+ TB worden.

Zijn er misschien mensen die ervaringen hebben met soortgelijke omgevingen hebben hebben hints en tips hiervoor?

@ WhizzCat
quote:
Wil je ook gaan mirroren/failover/[...]
Dat zijn nog zaken die nog niet zijn vastgesteld maar de optie wordt wel open gehouden.
Verder zoals het er nu naar uitziet zal het een centrale opstelling worden voor de storage en de servers, maar een deel zal wel decentraal zijn om de data te "pushen" naar de centrale opslag.

De achterliggende hardware-keuze is eigenlijk niet zo'n hot issue. Of het nu HP, EMC, NetApp, Compellent of wie dan ook is.

SAN Raid level (Raid5 of Raid10)

08-06-2010 discussie 21
Beste Tweakers,

Een vraagje waar ik zo snel geen antwword op gevonden kreeg.

Als je een SAN hebt met 16 disken (Equallogic unit met 16x450GB SAS 15K) er in op Raid50 en deze spiegelt tegen een HP DL380G5 server met 4 schijven van 72GB SCSI in Raid10 is het dan zo dat de Raid10 alsnog sneller is als de Raid50 in een SAN ?

Dus hoe word een en ander gemeten ?
Ik begreep dat een Equallogic PS6000XV SAN met 16 schijven alle schijven volledig benut voor performance.

Waarom de vraag ?
Ik zit te dubben of ik een Equallogic PS6000XV SAN volledig op Raid10 of op Raid50 moet zetten. Want netto scheelt het natuurlijk nog al wat aan capaciteit.
Een van de servers is een SQL server welke er op komt te staan met zijn schijven. Daar zit een database van ong 60 GB op (o.a Sharepoint en Navision).
In de meeste gevallen zet je SQL op Raid10 maar omdat je nu de snelheid van alle hardisken pakt vraag ik me dus af of Raid10 noodzakelijk is.
Er komen ook 2 Fileservers (600GB) op en de Exchangestore (100GB) met 120 domainusers.

Hardware SAN:Equallogic PS6000XV (3400 iops)
16x450GB 15K

Datastorage over meerdere datacenters

24-05-2010 discussie 32
Ik ben opzoek naar een datastorage systeem dat de data in twee datacenters gelijk houd.

Het is niet de bedoeling dat de data via syncen gelijk gehouden word, maar dat het echt als een enkel filesystem gezien word. Ik wil eigenlijk dat als bv in datacenter A een file lock word gedaan, dat deze dan ook gelijk in datacenter B gelockd is. Dat datacenter B dan niet meer kan schrijven in dit bestand.

Heeft iemand ervaringen met zulke systemen of weten jullie in welke richting in moet zoeken. Ik ben al aan het zoeken geweest in de richting van NetApp maar kon niet echt iets vinden.

High Availability SAN overwegingen

04-06-2009 discussie 121
Wij staan momenteel op een punt om een groot deel van het serverpark te moeten vervangen. Aan de een kant omdat het oude meuk is waarvan we niet weten hoelang het nog blijft werken, en aan de andere kant omdat er wat nieuwe ontwikkelingen gaande zijn die een andere aanpak vergen. Aangezien wij een bedrijf zijn waar letterlijk rond om de klok gewerkt wordt en deze systemen van levensbelang kunnen zijn, is high availability voor (op zijn minst) een deel van de systemen van zeer groot belang.

Het idee is dus gevat om eerst een deel, en later steeds meer systemen te viritualiseren. Helaas zijn wij voor sommige toepassingen nog gebonden aan specifieke hardware die we niet viritueel kunnen draaien, zoals bijvoorbeeld een PCI ISDN adapter, of USB devices (dat kun je beperkt wel viritualiseren natuurlijk). Maar dat is maar een klein deel van de machines, en daar zijn ook vast wel oplossingen voor.

De rest zijn gewoon servers met diverse OS'en en toepassingen, die eigenlijk prima virtueel zouden kunnen draaien.

Omdat enkele servers ook tamelijk nieuw zijn kunnen die al prima gebruikt worden als VM machine. Eventueel een NIC erbij en wat memory, en ze zijn klaar :). Virtualisatie zou gebeuren met XenServer. Gezien de kosten t.o.v VMWare en de wat openere structuur van het systeem lijkt ons dat voorlopig de betere keuze.

Anyway, dat is een beetje achtergrond. Waar we nu naar aan het kijken zijn is een SAN oplossing. En hierin vinden we een hele berg soorten en maten. Onze vaste hardware leverancier heeft twee producten in zijn mars:

- Infortrend EonStor storage systemen, dual controller, MPIO, uitbreidbaar met extra bay's, FC of iSCSI met genoeg bandbreedte, nette tools, relatief goedkoop
- Compellent storage platform, waar alleen al een 1TB SATA disk 750 euro moet kosten (i.p.v 151,- via pricewatch), erg mooie software, interessant mogelijkheden door middel van tiered storage voor een mix van SSD, SAS/FC en SATA, voor optimale performance. Maar erg duur over het algemeen (rip-off budget), en ook nog eens extra kosten voor alle leuke software features.

Belangrijk verschil tussen de twee - in ieder geval, voor zover ik heb kunnen begrijpen, want zo happig zijn ze allemaal niet met duidelijke informatie - is dat de Compellent op block level LUN's van uitdelen, waar bij de EonStor vast zit op LUN's die bestaan uit een combo van logical drives. Dat is natuurlijk een groot voordeel van de Compellent, waar je storage gewoon ergens op de disks staan, maar je weet niet waar. Maar misschien heb ik dat wel verkeerd gezien..

Aan de andere kant heb je voor onder de 20K een EonStor systeem staan, volledig redundant, met 16x 450GB 15k SAS, en 16x 1TB SAS, 8xFC.. om maar eens even wat te noemen (zonder FC switch) . Bij Compllent heb je dan enkel twee controllers, geen disks, en geen licenties. Lijkt me dus een duidelijk verhaal ;)

We zijn echter nog verder aan het kijken. Dell heeft oplossingen van Equallogic en EMC die beiden ook prima zouden moeten werken, helaas wacht ik hier nog op prijzen. Ik heb ook nog geinformeerd bij NetApp, maar daarvan heb ik nog niets vernomen.

De tweede vraag is iSCSI of FC? Uit kostenoogpunt zou ik eigenlijk iSCSI nemen. Gezien de load die ik verwacht is dat voor de meeste machines meer dan zat, er zijn echter wat database toepassingen waar het krap zou kunnen worden, vooral kwa iops omdat de overhead hier toch voor wat vertraging gaat zorgen. Het bundelen van NIC's kan hier echter eenvoudig een oplossing bieden indien nodig.

Storage plek is een ander verhaal. We hebben een toepassing waarvan we verwachten dat deze 10TB nodig zal hebben, en dat is natuurlijk best fors. Gelukkig hoeft dat geen high performance storage te zijn.

Wat over de te verwachten load: In eerste instantie zullen er twee Windows 2003 machines met Citrix, een linux fileserver, en linux router geviritualiseerd worden. Load op het filesysteem zal niet erg hoog zijn op deze systemen. Daarna zal er een database op gaan draaien van enkele GB's, met veel inserts, waardoor redelijk wat io zal ontstaan. De 10 TB zal verbruikt worden door video-opslag en wordt iedere maand ververst. En dan hebben we uiteindelijk nog wat lichte applicatieservers, waarvan de meesten linux draaien.

Als allerlaatste hebben we dan nog een database server, die tegen die tijd wellicht een database van tussen de 300GB tot 500GB zal hebben. Deze draait nu nog op een losse machine met een flink disk array. De vraag is of dat ooit wel goed genoeg op een SAN zal draaien. Aan de andere kant zijn SAN's natuurlijk uitermate geschikt voor veel IO's.

Kortom: Er zijn een heleboel overwegingen te maken, en ik hoop dat jullie nog wat tips hebben? Misschien heb ik dingen over het hoofd gezien, of hebben jullie een heel andere insteek? Alle info is welkom :)

[Vmware ESX 3.5] iSCSI SAN

02-05-2008 discussie 4
Situatie hoofdvestiging:
- 7 stuks diskless HP Proliant DL380G5 Windows 2003 servers met iSCSI HBA's (QLA4050)
- iSCSI StoreTrend SAN (15x 300GB)
- 2x 300GB RAID-1 wordt gebruikt voor alle server OS-en (servers booten dus van het SAN)
- 9x 300GB wordt gebruikt voor diverse data targets (RAID-1 en RAID-5 combi)
- 1x 300GB hot-spare
- 3x 300GB vrij

Nevenlocatie:
- 2 stuks diskless HP Proliant DL380G5 spare-servers met iSCSI HBA's (QLA4050)
- iSCSI StoreTrend SAN (15x 300GB)
- 2x 300GB RAID-1 gebruiken voor alle server OS-en
- 9x 300GB wordt reeds gerepliceerd vanaf de hoofdlocatie naar deze nevenlocatie via fiber
- 1x 300GB hot-spare
- 3x 300GB vrij

Gewenste situatie:
De data wordt perfect gesynchroniseert naar de nevenlocatie, maar we willen ook graag de besturingsystemen daar beschikbaar krijgen zodat in geval van een calamiteit de 7 servers kunnen worden gestart.

Oplossing:
Wij denken eraan om op de nevenlocatie de 2 HP Proliant DL380G5 servers te voorzien van 2x 72GB SAS disken (RAID-1) waarop we Vmware ESX 3.5 installeren. De iSCSI QLA4050 HBA wordt ondersteund door ESX 3.5 zodat we de targets beschikbaar kunnen maken.

Vervolgens maken we op de hoofdlocatie van het besturingssysteem per server een Symantec System Recovery of Acronis True Image. Deze image kunnen we in geval van een calamiteit restoren naar het SAN (2x 300GB RAID-1) op de nevenlocatie.

Gezien de data nu al continue gerepliceerd wordt vanaf de hoofdlocatie bestaan de iSCSI targets hiervoor al op de nevenlocatie, zodat binnen de VM's deze targets toegankelijk worden/zijn.

Wij denken dat dit de beste oplossing is op basis van bovengenoemde omgeving. Graag jullie input of wij iets over het hoofd zien of wellicht het e.e.a. beter kan?

Ervaringen met Netapp storagesystemen ?

07-01-2008 discussie 32
We zijn bezig (nog steeds) met het implementeren van een centrale storageoplossing (SAN). Nu hebben we het plan liggen voor een HP oplossing (MSA1500 / MSA20 / MSA30).
Gedeeltelijk gevuld met fiberchannel schijven en SATA schijven. Al bij al een hele investering.

Nu kwam een leverancier met de oplossing van Netapp met de melding dat dit bedrijf het afgelopen jaar de leiding in dit soort producten over heeft genomen in de markt. Bron is (volgens Netapp)Gartner "market scope for the iSCSI San Market, 2006 as of 1 June 2006)

Het gaat om een ISCSI oplossing net 2TB (bruto) Fiber, Type aanduiding FAS250. Het product draait op een eigen OS. Het is volledig redundant uitgevoerd. Werkt met snapshot technologie
Link http://www.netapp.com/products/filer/fas200_tech_specs.html

Nu is mijn vraag eigenlijk, is dit een beetje vergelijkbaar met de MSA1500 enz van HP ?
Is Netapp proven technology ?
Kortom koop ik hiermee een product wat niet onder doet voor vergelijkbare HP oplossingen ?
Resultaten per pagina: 25 | 50 | 100


Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True