Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

Dell heeft maandag zijn nieuwe telg van de PowerVault san-familie onthuld: de MD3000i. Het opslagapparaat is gericht op het mkb en ondersteunt het iscsi-protocol.

De MD3000i kan zowel sas- als sata-schijven herbergen. De minimale opslagcapaciteit bedraagt 72GB; maximaal kan het storageproduct uitgerust worden met 18TB. Verder beschikt de standaardversie van het apparaat over twee 1Gb-ethernetpoorten, terwijl de high availability-versie over vier ethernetpoorten beschikt. Ondersteuning voor iscsi maakt integratie in bestaande ethernet-netwerken mogelijk. Prijzen voor de nieuwe opslagproducten starten vanaf 8084 euro.

Het iscsi-apparaat moet een goedkoop en eenvoudig alternatief bieden voor fibre-channel-san's, die bedrijven volgens Dell te duur en te complex vinden. 'Minder dan 20 procent van de kleine bedrijven en minder dan een derde van de middelgrote bedrijven gebruiken geavanceerde technologieën zoals san. Toch beschouwt 41 procent van de kleine bedrijven uitbreiding van opslagcapaciteit als topprioriteit voor het komende jaar', aldus Dell.

Dell MD3000i
Moderatie-faq Wijzig weergave

Reacties (46)

Het iscsi-apparaat moet een goedkoop en eenvoudig alternatief bieden voor fibre-channel-san's, die bedrijven volgens Dell te duur en te complex vinden

Ik heb in de begintijd van iSCSI er even mee gespeeld op Novell NetWare, omdat dit het enige platform was waar zowel een target als initiator werd meegeleverd.
Dat was best leuk omdat met weinig middelen bijvoorbeeld een HA clustertje kon worden gecreeerd. De Novell implementatie was daarbij ook nog eens redelijk simpel.

Laatst heb ik een MSA1510i van HP geimplementeerd met een MS initiator.
Dit moest ook nog eens Multi-Path worden uitgevoerd.
Het heeft me heel wat tijd gekost om dit werkend te krijgen.
Nadat ik eindelijk de juiste documenatie had gevonden (die van MS is waardeloos) en een kilometer lang forum-thread bij HP kreeg ik werkend.
Achteraf gezien kan ik logica nog steeds niet bevatten.

Nu implementeer ik al een hele poos Fibre-Channel SAN's.
Zo'n zelfde setup als hierboven beschreven, maar dan met een MSA1000 of EVA van HP heb ik 5 minuten aan het werk: letterlijk plug&play.

Dus ik begrijp niet waarom mensen denken dat iSCSI makkelijk is en FC moeilijk.
Het zal wel de gedachte zijn dat iets wat duur is automatisch moeilijk is en iets wat in hun ogen goedkoop is makkelijk is.

by the way:
FC is reeds op 4Gb, 8Gb komt er snel aan, en een FC HBA kost net zo veel als een iSCSI TOE (Traffic Offload Engine)
Ethernet is nog steeds 1Gb, en ja, er is 10Gb ethernet, maar als je daar een goeie switch van koopt of een TOE ben je heel wat meer kwijt dan een FC oplossing.
Met de eenvoud van iSCSI doelt men vermoedeijk vooral op de infrastructuur (ethernet) die in alle bedrijven aanwezig is en lagere kosten heeft dan fibre channel omdat er minder specifieke kennis voor nodig is en de apparatuur goedkoper is. Als de implementatie van iSCSI san's werkelijk zo gecompliceerd is zou dit voordeel inderdaad weer teniet gedaan worden.
Klopt, een ethernetswitch kan praktisch iedereen configureren.
Een ethernetswitch en een FC switch zijn in de basis exact hetzelfde, echter de terminologieën van sommige onderdelen zijn anders.
Beide apparaten zijn uit de doos "plug&play" en doen in de basis wat ze moeten doen: pakketjes switchen.

Maar dan komt het wat diepere configureren, multi-path opstellingen met meerdere switches, VLAN-etjes om de verschillen iSCSI hosts en paden te isoleren (dat heet zoneren op een FC switch), wat specifiekere Gigabit instellingen t.b.v. performance etc, etc.
Dat zijn geen zaken die niet even op de bonnefooi ingesteld worden, daar is wel degelijk specifiekere kennis voor nodig, en datzelfde geld voor de FC switch.

Buiten dat, heb je wel eens de Microsoft iSCSI initiator opengetrokken, ik durf te wedden geen leek hier wat van snapt, zelfs niet na het lezen van de MS documentatie.

Dan moet men ook nog in de wat grote iSCSI omgevingen de gebruikte IP adressen goed documenteren, anders hangen binnen no time de verkeerde servers aan de verkeerde disken.

Wist je dat het grootste deel van alle iSCSI oplossingen werken in één en hetzelfde subnet ofwel ethernet broadcast segment ? MAC adressering had een stuk eenvoudiger geweest met heel wat minder protocol overhead.
FC werkt op World Wide Names wat de equivalent is van MAC adressen ...

Nee, het enige wat simpel is aan iSCSI is het principe, de technische invulling moet op dezelfde manier benaderd worden als elke andere SAN oplossing.
En daar verkijkt men zich nogal op.

[Reactie gewijzigd door Triple-S op 11 september 2007 15:34]

Ik heb al meerdere keren gezien dat een klant een iSCSI SAN als NAS ziet en een enkele virtuele schijf aan meerdere (non-clustered) servers/systemen geeft.

iSCSI is trager, heeft meer overhead in het protocol en wordt veel te makkelijk non-optimaal geimplementeerd door mensen.

Dan is de iSCSI initiator van Microsoft inderdaad niet heel erg overzichtelijk (vergeleken met RHEL4 of zo). VMware ESX heeft de iSCSI initiator wel heel overzichtelijk geimplementeerd moet ik zeggen.
Het gaat hier om een EMC machine met alleen maar een Dell sticker. Zij leveren het apparaat, maar alle support en ondersteuning verloopt via EMC techneuten bij Getronics en Unisys....
Deze doos komt uit de PowerVault lijn, en is dus gewoon een Dell doos. Alleen de geavanceerde (lees: fiber channel) apparaten worden door EMC geleverd.
Dat is toch meestal het geval met OEMs? Dat ze producten herlabelen of deels samenstellen uit reeds bestaande servers. Met name in de low/mid end daar zijn de onderdelen binnen in allemaal vrij standaard. Je betaald dan ook voor de techneuten en de zekerheid dat binnen een uur of twee eentje voor je deur staat.. om 2 uur ´s nachts.
De fibre channel SAN van HP is toch een eigen HP ontwikkeling, enkel voor de HBA en de switches gebruken ze natuurlijk niet-eigen apparatuur. Brocate switches en LSIlogic hba's bvb.
De grotere SAN units (XP serie) koopt HP in van Hitachi Data Systems (HDS). De EVA en MSA lijn is voor zover ik weet wel eigen materiaal
Ik had over de MSA voor MKB aka SMB aka KMO en EVA voor enterprise. De XP serie ken ik zelfs niet.
Ongeveer vijf artikelen later staat een nieuwe HP XP-series aankondiging:
http://pro.tweakers.net/n...-Storage-Platform-VM.html
EVA is een Digital equipment Corporation developed machine en de MSA is een Compaq machine afgeleid van de Smart Arrays
Hoe denk je dat het zit met alle zooi die in je laptop of desktop zit? Dell stelt alleen maar hun producten samen onder hun label gebaseerd op de producten die op de markt beschikbaar zijn.

Is dat werkelijk zo vreemd?
kleine bedrijven aanspreken voor 8000 euro voor een 74 gig oplossing :S
en kleine KMO valt stijl achterover, en zal wel een tweede doorsnee server kopen van 3000 euro, met RAID en 1 Tb aan harddisks.
Dit is alles behalve voor kleine bedrijven, dit is voor de middelmoot firma met al minstens 100 werknemers.
Kleine bedrijven kunnen geen 8000 euro besteden aan network storage spul, tenzij het een IT firma is die veel capaciteit nodig heeft en veel netwerktraffiek genereert.
Hoogstwaarschijnlijk kan je hem helemaal niet met één schijf kopen. De minimum prijs zal voor 5 of 6 schijven zijn. Voor een extern RAID systeem is dit helemaal geen gekke prijs, al kan het inderdaad goedkoper.
Daar zeg je precies waar Dell zich op richt. De kleinere bedrijven met een grote behoefte van opslag capaciteit.

Een simpel productiebedrijfje heeft hier niets aan, maar de grafische wereld heeft die capaciteit nodig.

De doelstelling van dit product is om een groot opslag capaciteit te herbergen en niet een schijf van 74GB, want dan had je ook een hele simpele NAS kunnen kopen.
Waarom denkt iedereen dat centrale opslag per definitie goedkoop is als er SATA schijven in zitten ?

Wat denk je dat het stuk ijzer met backplane kost ? De geintegreerde hardwarematige RAID controller ? de interfacing naar de hosts (in dit geval iSCSI) ? Een paar goeie gestabiliseerde voedingen ?

Denk even iets groter dan buiten je PC, dan valt het kwartje vast wel.

8000 euro is i.d.d. niet weinig, maar over een afschrijfperiode van 3 tot 5 jaar ... een lachertje.

@Milo
"De MD3000i kan zowel sas- als sata-schijven herbergen."

[Reactie gewijzigd door Triple-S op 11 september 2007 13:52]

Slecht dat hij maar zo weinig raid opties heeft voor zo'n nieuw apparaat...
(RAID Levels: Support for RAID levels 0, 1, 10 and 5)
Welke RAID opties zou je erg graag bij hebben gezien? RAID 6 lijk me een beetje overdreven voor dit apparaat. En het bestaansrecht van 50 e.d. heb ik nooit begrepen.
Dan moet jij voor de gein maar eens de kans berekenen op een crash van een tweede schijf terwijl een RAID-5 set met 750GB of 1TB disks nog aan het rebuilden is. De rebuild tijden zijn inmiddels zo lang dat RAID-6 een must is voor alles wat maar een beetje professioneel ingezet wordt.
Die kans is verschrikkelijk klein. Maar waarschijnlijk heb jij niet daardwerkelijk eens berekent.... Nou, zullen we dat eens doen dan?

Pakken we even Seagate, dan is de kans dat een schijf per jaar kapot gaat 0.62% (http://www.seagate.com/do.../disc/ds_cheetah10k.7.pdf)
Maal 14 schijven ( 1 hot spare), zitten we dan op 8,6% dat er 1 schijf per jaar kapot gaat. Dat is aanzienlijk.
Maar de kans dat er op dezelfde dag ook nog een andere kapot gaat is dan slechts 8,6% * 1/365 * 13 * 0,62% = 0,002% Jawel, twee op de honderd duizend.

Met een dergelijk minimale kans, loont het niet meer om extra maatregelen te nemen, tenzij je extreme hooge eisen stelt. Je moet immers ook nog altijd ook een gewone backup in huis hebben.
Dat is strict theoretisch.

Veel defecten ontstaan bij bijvoorbeeld powerdown acties die in grote bedrijven voorkomen.

De praktijk bij ons (2500+ servers) is dat er na een powerdown 6% van de schijven vervangen moeten worden.

Als jij zo'n set met >16 schijven hebt is de kans dus al vrij groot dat je een probleem hebt.
RAID6 is wat dat betreft al een stuk zekerder.

Maar normaal gesproken heb je je externe opslag natuurlijk redundant....
Pakken we even Seagate, dan is de kans dat een schijf per jaar kapot gaat 0.62%. Maal 14 schijven ( 1 hot spare), zitten we dan op 8,6% dat er 1 schijf per jaar kapot gaat.
Volgens die redenatie zou je met meer dan 161 schijven op een kans -groter- dan 1 uitkomen dat er een schijf kapot gaat, en dat kan natuurlijk niet. :Y)

Bedenk maar eens wat de kans moet zijn dat ze allemaal heel blijven, en dat dat het omgekeerde moet zijn van de kans dat er minstens één stuk gaat.

Je berekening voor twee servers op dezelfde dag klopt ook niet.
Puur op cijfers heb je gelijk, al liggen deze cijfers voor SATA schijven anders, en ga je er vanuit dat de rebuild in 1 dag voltooid is.. Alleen blijkt dat in de praktijk er vaak iets fout gaat op het moment dat mensen aan het systeem gaan 'rommelen'. Een ongeluk komt nooit alleen. Zie voor een aardige beschrijving:
http://www.cheetahraid.com/raid%206.html

Of iets de moeite loont is helemaal afhankelijk van waar het systeem voor gebruikt wordt. Als die kans van 1 op 200.000 betekent dat een bedrijf 20 miljoen kan verliezen als het toch gebeurt, dan loont het wel degelijk de moeite om een extra schijfje en een iets slimmere RAID controller te kopen.

Nog een voorbeeld: Zopas nog een backup omgeving ontworpen voor een bank waarvan de database spaartegoeden ter waarde van 6 miljard Euro vertegenwoordigt. Reken maar dat die jongens wat investeren om die database beschikbaar te houden.. Alles heeft zijn prijs.
Maar juist die professionele bedrijven hebben performance nodig, en met een write penalty van 6:1 (dubbele parity) is dat geen pretje. daarnaast ligt het ook nog aan de distributie van je disken. Meestal is RAID 1+0 betrouwbaarder dan RAID6, en het performed ook vele malen beter.
6 lijkt me toch een nuttige raid level , zeker met zoveel disken !!
RAID 6 is misschien wel nuttig maar kost ook meer dan RAID 5. En voor het MKB is RAID 5 echt prima. Zelfs bij de hele grote jongens is RAID 6 nog geen gemeengoed.
technisch gezien voldoende voor de meest gangbare installaties en dat is steeds wat Dell wil leveren. Budget en volume is waar Dell op doelt. als je echte ISCSI boxen wil zijn er heel wat betere merken zoals equallogic.

zoveel kom je geen raid 6 of raid 50 tegen of wat had je dan nog in gedachte?
Zo te zien passen er alleen SAS schijfjes in deze koddige pizzadoos:

Hard Drives
Controller Module:
Up to fifteen (15) 3.5-inch SAS hot-pluggable hard drives, at speeds of 10K or 15K

Maximum Capacity (per enclosure)
18,000GB using forty-five (45) 400GB1 10K RPM SAS disk drives

Beetje jammer wel. Goedkoop is de bak ook niet echt te noemen, hij zit al snel op 12-13K als je er een paar disks e.d. in stopt, de 18TB config kost waarschijnlijk meer dan de gemiddelde lease-bak. (45*849=38205, en dat zijn alleen nog de disks)

Ook loos dat ze willen dat je hem voor 6600 laat configureren zodra je er iets leuks mee van plan bent (>4 hosts, clustering of vmware ofzo)
Ik kon in eerste instantie geen SATA support vinden, maar in de spec sheet staat een klein noteje dat SATA support in Q4 van 2007 komt.
Ah, dan past er 15TB* in 1 doos, 45TB als je 2 enclosure's gebruikt. Dat lijkt tenminste ergens op.

*15TB theoretisch. Realistisch kom je op zo'n 8TB (raid, hot spare, 20% voor snapshots en 25% overhead (cijfers van NetAPP)

Overigens is ie warempel al in NL te krijgen, voor t luttele bedrag van ¤6.294, ex btw en verzendkosten.
De MD3000i is gebouwd rond twee LSI controllers. Zelfde controller zit bijvoorbeeld ook in een IBM DS3300.

Mix van SAS en SATA komt eind dit jaar via een firmware upgrade beschikbaar, evenals de uitbreiding met een extra enclosure. Je kun dan naar 60 disken. Er zijn inmiddels ook 400 GB SAS 10 Krpm schijven, dan zit je op 24 TB bruto. Van SATA komen binnenkort de 1 TB varianten beschikbaar, dat zou dus tot 60 TB bruto worden.

Performance: LSI claimt met de SAS variant van de MD3000 een throughput van 1 GByte per seconde te kunnen realiseren, met tussen de tien en twintig disken. Heb ik voorlopig wel genoeg aan.
Mensen alle Dell spullen(zoals bijna alle OEM's)worden door andere merken gemaakt maar wel in opdracht van Dell.
Meestal wel met eigen software en BIOS of firmware.

En Alle support loopt via Dell alleen de monteurs die de onderdelen vervangen zijn van service bedrijven als Getronics, Wang, Unisys.
Opslag begint vanaf 74gb en prijzen vanaf 8084. Mag ik hieruit concluderen dat een 74gb bakje 8084 euri kost? Is dat ook niet een beetje prijzig?
Je betaald het meeste voor het apparaat zelf in dat geval. En waarschijnlijk is de kleinste schijf die ze leveren 74GB. Nouw is het idd onozel om zo`n apparaat te kopen voor 74GB
Volgens mij betaal je in de regel juist het meest voor alle ondersteuning.
Dat vind ik ook... ze zeggen dat ze de andere opties te duur vinden, maar zelfs de (vaak als prijzig bestempelde) Apple xServe is goedkoper. De xServe daar begint bij ik geloof 3.299,00, en de xServe Raid begint bij 6.399,00. Ik snap ook niet waar Dell die prijs vandaan haalt :/
Natuurlijk behoorlijk onnozel om te kijken naar de minimale opslag capaciteit... Op die manier lijkt iedere grote storage solution duur.

Een moederbord met ondersteuning voor 4 CPU's, waar je er echter maar eentje in plugged, is ook absurd duur t.o.v. single CPU moederbord met 1 CPU erin.

Niemand koopt dat ding natuurlijk met maar 74 GB.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True