Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: IBM

IBM logoIBM heeft gisteren in navolging van HP en EMC een low-end-storagesysteem voor middelgrote bedrijven gepresenteerd. De System Storage DS4200 Express is uitgerust met vergelijkbare features als zijn grotere broer, de high-end DS4800. Zo kan het systeem FlashCopy- en VolumeCopybackups maken, respectievelijk het maken van point-in-time-kopieën en het maken van complete backups van partities. Verder kan de DS4200 Express backups wegschrijven naar een locatie op afstand. Data wordt lokaal weggeschreven op 2 500GB SATA-schijven, maar dit aantal kan vergroot worden naar maximaal 112 schijven. De performance van de DS4200 Express ligt een stukje lager dan die van zijn high-end familie, zodat de prijs verder verlaagd kan worden, zodat het systeem binnen het prijsbereik van middelgrote bedrijven komt te liggen. Het storagesysteem zal vanaf 25 augustus te koop zijn en zal 11.474 dollar kosten. Daar komen nog kosten voor de harde schijven à 900 dollar per schijf bij. Een server met 4TB aan opslag, zal dus 19.000 dollar kosten.

Moderatie-faq Wijzig weergave

Reacties (41)

waarom zijn er toch altijd die mensen die gelijk zeggen ''dat zetten we dan zelf wel even in elkaar''

jullie vergeten dat veel bedrijven de tijd daar niet voor hebben
dit soort bedrijven hebben een budget voor hun interne structuur
en als het dan betekent dat ze 19.000$ moeten betalen voor een veilige opslag van data, dan doen ze daar niet moeilijk over (advocaten kantoren e.d.)
en de ict-er die zo'n bedrijf in dienst heeft....of meestal een bedrijf dat de belangen behartigt
heeft de tijd niet om ''even'' een compleet systeem in elkaar te schroeven.

dus dan zijn dit de perfecte oplossingen voor bedrijven
en zeg nou zelf, hoeveel van die kantoor lui weten wat een 500GB HD kost ? of weten uberhaupt wat SATA is ?
denk je dat die zich daar druk om maken ?
die willen alleen maar dat het er snel is, en snel klaar staat en werkt
PReceis: en daarnaast: wat denk je van support, uptime garanties etc.?

storage is mission critical. Daar bezuinig je niet op. leuk zo'n hobbybob oplossing, voor thuis. niet voor op kantoor.
En wat gebeurt er wanneer hobbybob besluit om ergens anders te gaan werken....einde support.
Het gaat niet om het aantal gebruikers maar om de DATA!!!

Een bedrijf met maar 10 personen kan wel gigantisch belangrijke data genereren en dan is een dergelijke oplossing absoluut niet duur.

Wij (verzekeringsmaatschappij) hebben hier een EMC CLARiiON systeem aangeschaft en het aantal gebruikers bedraagt "slechts" 108 personen.
tuurlijk is dat waar, maar aan de andere kant -
een bedrijf met <200 users zal dan toch deze 19000 wel veel vinden. -

een zelfblouw atx is dan wel weer wat van 't overdrevene maar of deze oplossing dan al niet 'te hoog gegrepen is'

ik zie dan ook niet echt in waarom een bedrijf van minder dan 200 users heil zou moete zien aan een systeem dat 56tb data op kan slaan - (bij 200users en 10jaar komt dat dus neer op 25gb /p user /p jaar)
helemaal mee eens.... ik hoor nooit iemand zeggen, die nieuwe auto bouw ik zelf wel even, dat is goedkoper ;-)
De performance van een dergelijke oplossing is niet te vergelijken met een server met DAS of standaard externe cabinets voor SATA die we bij de winkel op de hoek kopen.

In deze oplossing zitten vier 4Gbps glasvezel poorten, actieve intelligente RAID controllers die redundant zijn uitgevoerd. Je kunt de DS4200 uitbreiden door EXP420 cabinets te koppelen. Er worden in tegenstelling tot wat enkelen hier zeggen geen SAS schijven gebruikt maar SATA disks. Het is wel mogelijk andere disk cabinets toe te voegen waarin met glasvezel schijven wordt gewerkt.

Tot 2GB cache kan er worden geplaatst welke bij stroomuitval bewaard blijft door een interne batterij. Dat met het feit dat de volledige oplossing redundant kan worden uitgevoerd, maakt de kans dat een dergelijke oplossing onderuit gaat zeer klein.

In deze oplossingen heeft de schijf zelfs twee connecties met de unit, zodat er daarvan zelfs één uit mag vallen.

De betrouwbaarheid van het systeem is voor bedrijven met veel data belangrijker dan enkel de kostprijs. Bedrijven die toch alleen naar de aanschafprijs kijken krijgen vroeg of laat toch een keer de domper op de neus als hun data niet bereikbaar is en mensen dus niet kunnen werken.
Ik blijft dit gigantische prijzen vinden.

Een DAS oplossing voor 2x SATA koop ik zelf in voor $170.

En een NAS oplossing voor 2x SATA koop ik in voor $330.

Er zijn ook grotere oplossingen beschikbaar, maar dan bouw ik vaak een ATX kast in elkaar met PCI-Express SATA controllers en hotswap bays.

Dan haal ik dus niet de 112 schijf oplossing mee, maar voor de meeste kleine/midden bedrijf oplossing is dat ook vaak niet nodig. Een Full-ATX storage kast heeft ruimte voor 5 van de eerder genoemde hotswap bays, waardoor er 15 hardeschijven gebruikt kan worden, meestal in combinatie met 3 cache controllers die dan in RAID-5 mode staan. Dan hou je dus 3 volumes over van elk ongeveer 2TB (meestal wordt één volume voor de FlashCopy en/of VolumeCopies gebruikt via Acronis), ben nog geen één midden bedrijf tegengekomen waar dat niet voldoende voor was. En qua prijs zit je dan in de $5000 range, waarbij de 15 hardeschijven inbegrepen zitten.

@_Arthur, ermmm, we hebben ongeveer 500TB in beheer bij klanten wat wij geïnstalleerd hebben, varieërend van SATABeast 19" blade racks tot bovenstaande oplossingen. Het zijn juist de klanten die geen bestaande 19" rack indeling hebben, en waarvoor het ook niet nodig is om die investeringen te maken. Zo hebben wij één klant die TV advertenties maakt, klein familie bedrijf, man, vrouw en 7 werknemers, ze zijn klein begonnen met 2TB, maar zitten nu al over de 40TB, wat geleverd wordt door 4 van de eerder genoemde ATX kasten. De investering is gewoon veel lager.

@De_Rest, dit zijn geen hobbybob opstellingen, er wordt hotswap RAID-3 of RAID-5 gebruikt, via SMART monitoring wordt er een waarschuwing gegeven aan de persoon in het bedrijf met de bevoegdheid om schijfbeheer te doen (en een email naar ons). En wij leveren meestal 10-25% aan reserve schijven mee al ingebouwd in hun hotswap bay, zodat het slechts een kwestie is van sleutel omdraaien, oude schijf eruit en de nieuwe erin. De email notificatie gebruiken wij dan tevens om contact op te nemen met de klant voor eventuele herbevoorraading van de reserve schijven.
Zo te lezen heb je er echt verstand van.

Als fatsoenlijk bedrijf ga je natuurlijk je 4tb+storage zelf in elkaar flanzen in een ATX kastje.

Dream on.

En voor bedrijven zijn de kosten van de hardware de kosten niet. Die worden gewoon in 3 jaar afgeschreven. De kosten zitten in de personen die het zaakje draaiende moeten houden.
Als bedrijf zelf niet, maar mijn leverancier toch echt wel.
Tuurlijk voor lek bedrijf maakt 5k en 19k een groot verschil.
In hoeveel jaar het af wordt geschreven maakt natuurlijk helemaal _nix_ uit.
Betalen moeten ze het toch.

Heel veel bedrjiven hebben een goeie eigen TD / beheer, die prima zo`n systeem in elkaar kunnen zetten.

Of die kopen een dergelijke systeem bij een leverancier, die het op die manier heeft gebouwd, 2000 euro er boven op voor de winst van dei leverancier, en dan heb je alsnog een 40% van de idiote prijs van dat IBM ding.
Als echt fatsoenlijk bedrijf neem je OOK niet dit "low-end-storagesysteem". Dan ga je voor de highend oplossing (fiber/scsi).

Ik pruts liever zelf iets fatsoenlijks in elkaar voor bedrijven die nog niet profitable zijn. Want belasting technisch gezien, zijn investeringen alleen zinnig bij winst.
En hoe veilig en stabiel denk je dat jouw hobbybob opstelling is? Wie gaat die assemblage en test kosten betalen? Hoeveel systemen denk jij te moeten aanschaffen voordat je een 100% stabiel systeem samengesteld hebt? Hoe denk jij een uptime van honderd procent te kunnen garanderen? En wat zijn de kosten bij een defect? Onderzoek en reparatie kosten?

Ik als network administrator kost in het meest gunstige tarief 75 euro per uur. Als ik het zelf zou bouwen zou ik never te nooit niet aan een kostenplaatje van maar 17000 euro komen laat staan 5000 euro.
En hoe veilig en stabiel denk je dat jouw hobbybob opstelling is? Wie gaat die assemblage en test kosten betalen?
Sommige mensen (ik ken er een aantal) kunnen dat gewoon. Omdat ze het ooit iemand anders hebben zien doen en een goed stel hersens in hun bol hebben zitten.

Vroeger (en nog steeds) bouwden ISP's een hoop van hun hardware zelf uit onderdelen op, ik heb nog een diskpack met 8 x 9.1 GB SCSI schijven van ruim 7 jaar oud, doet het nog prima. (dat ding heeft vroeger een full-feed nieuwsserver moeten bedienen).

Een van m'n ex-collega's heeft ook een keer een 3TB NFS server in elkaar geklust aan onderdelen, en los van wat gelazer met NFS in de linux kernel heeft dat ding het altijd perfect gedaan.

En voor je begint over kleine bedrijfjes, en serieuse bedrijven doen hier niet aan: Dit betrof een pan-europeese internet provider / telco, met een slordige 800 man in dienst. Echt geen klein bedrijfje van 5 man dus.
Leuk commentaar. Voor het MKB is 'zelf' sleutelen aan goedkope oplossingen grappig. Op het moment dat dit soort bedrijven in de problemen komen als gevolg van datacorruptie, brand of een andere vorm van dataverlies is meestal geen goede backup voorhanden. Met dit soort oplossingen van IBM, NetApp, EMC, HDS of HP kan men eenvoudig een mirror, snapshot of iets dergelijks maken. Het klinkt leuk allemaal om zelf iets te knutselen, maar als je als MKB eenmaal je data kwijt bent met een zelf gemaakt storage ding, dan blijkt achteraf dat je toch duur uit bent. Financiele gegevens zijn dan verloren, belastingdienst boos, personeel boos, salarissen kunnen niet betaald worden, rekeningen kunnen niet betaald worden etc etc etc. Er bestaat ook nog zoiets als een bewaarlicht, SOX, compliancy etc. Boodschap is, vanaf 2 TB, kopen van een oplossing bij een goede leverancier, met beveiligingssoftware, backup software. Goede service en goede support. Niks op de hoek kopen van de Computer wizard of zo. Dat werkt gewoonweg niet. Er is nog nooit iemand ontslagen omdat hij storage van NetApp, IBM, EMC, HDS of HP heeft gekocht.
Niks op de hoek kopen van de Computer wizard of zo.
Goh, ik ken toch een paar forse bedrijven die het wel allemaal zelf gebouwd hebben. Nooit ellende mee gehad, kwestie van de juiste mensen in dienst hebben.

Ik snap niet waarom iedereen nou zo moeilijk doet hierover. Als je een goed stel hersens in je bol hebt, die goed gebruikt, kun je net zo'n goed product bouwen als al die grote jongens dat doen.

Het belangerijkste is inderdaad : veiligheid. Maar dat kun je heel makkelijk oplossen door software raid, zo doen NetApp en al die andere dat ook. (de controllers op raidkaarten zijn meestal te slap om echt veel disks / I/O aan te kunnen, CPU's hebben power zat).

Als ik naar mijn goeie oude NetApp F630 kijk bijvoorbeeld, zit ook geen hardware raid in, alleen een alpha processor die alles regelt.
Er is nog nooit iemand ontslagen omdat hij storage van NetApp, IBM, EMC, HDS of HP heeft gekocht.
Klinkt leuk, maar er zijn zat bedrijven failliet gegaan doordat ze teveel hebben geinvesteerd in voor hen niet kritische dingen. (En die mensen zijn dan wel niet ontslagen, hun baan waren ze dan toch wel kwijt).

Waar het hier allemaal om draait is dat je een berekening moet maken van wat de prijs van je data is (vooral in geval alles verloren gaat) en wat de prijs is van het zekerstellen ervan. Het is geen keuze tussen een systeem als in het artikel omschreven (waarvan iedereen er overigens ook maar vanuit lijkt te gaan dat de zekerheid ervan gewaarborgd is) en helemaal niets.

Een zelfbedachte oplossing is altijd nog stukken beter dan helemaal geen oplossing, en als je voor een 1/3 van het investeringsbedrag van een 'pro' oplossing een hobbybob oplossing kan kopen die 95% vd zekerheid biedt, moet je je terdege afvragen of de overige 5% het waard is om die 2/3 meer in te steken. En of die misschien op een andere manier afgedekt kan worden.

Voor ieder het zijne, maar hoeveel mensen hier hebben die doordachte 'hobby' oplossingen uiteindelijk de mist in zien gaan?
900 dollar per schijf ???

500gig zit iets boven de 200 euro.
pricewatch: Western Digital Caviar RE2 WD5000YS, 500GB (7200rpm, SATA II, 16MB)
pricewatch: Hitachi Deskstar 7K500, 500GB (7200rpm, SATA-II, 16MB, NCQ)
etc.

Er wordt melding gemaakt van SATA schijven dus ik vind het een vreemde prijs.
Je vergeet hierbij echter wel wat extra kosten:
- extra poort op de controller
- extra stroom voorziening
- extra kastruimte
- extra koeling
- extra assemblagekosten
- extra onderhoudskosten
- en meer!?

Het is niet alleen de hardeschijf die betaald moet worden!

Als je dus voor <$2/GB kunt doorschalen naar 56TB, dan vindt ik dat niet duur! (112*0,5)
En wat dacht je van de kosten van/voor de bijbehorende recovery/beheer-software ?

maar toch, ruim $ 19 000 voor 1 TB bruto blijft duur; al zijn NetApps nog duurder :Y)

Even ter vergelijking: Het bedrijf waar ik werk heeft laatst een SuperMicro NAS oplossing (met SATA schijven) gekocht als backup-storage en dat ding was 'slechts' ~ ¤ 9100 voor 10 TB bruto en doet weinig onder voor de NetApps (veel te dure SAS) die we ook hebben staan ...

Vaak zit bij die hoge prijs wel een soort service-contract voor vervangende hardware inbegrepen, dus je mag de prijzen echt niet zomaar 'even simpel vergelijken', maar de marge is erg ruim hoor !
het is zoiezo 4TB voor 19.000 dollar, even beter lezen ;)

daarbij is het vooral de service die het duur maakt.

op welke snelheid draaien deze schijven trouwens gewoon 7.2 k of meer richting 10-15k
Wij hebben laatst 6TB netto onder de 10k euro gekocht (althans, 3 systemen ervan) als ik me niet vergis.

iaw, ik vind het wat aan de dure kant. Maar ja, als je EMC koopt, dan ben je nog duurdere uit :)
Persoonlijk denk ik dat het om SAS schrijven gaat, dat zou namelijk de prijs van 900 euro per schrijf verklaren.

Technisch gezien zou SATA ook niet logisch zijn. Adaptec en 3Ware hebben maximaal 16-channel SATA kaarten. Nu zou je in de machine natuurlijk 7 16-channel SATA kaarten (samen goed voor 112 schrijven) kunnen plaatsen, maar ik denk dat je dan DMA en IRQ channels te kort komt.

SAS kan namelijk een maximum van ruwweg 16.000 devices per port aan en zou dus beter aansluiten op het persbericht van IBM.
IRQ channels te kort ?
De servers van tegenwoordig hebben IO-APIC controllers die tot 256 IRQ channels ondersteunen, dus dat lijkt mij geen probleem....

Bovendien gaat dit over een storage oplossing in een backplane systeem die je aan je server koppelt via fiber-optic (FiberChannel = SCSI over Fiber)
Er zit natuurlijk ook nog een hele nette bracket omheen... Maar dan nog zit er waarschijnlijk wel een vrij forse marge op.
Dit is niet echt duur. Het zijn lijke schijfjes die je daar noemt, maar daar wil ik echt mijn 1TB Exchange server, en 3TB data servers op hebben draaien. Daarbij is dit een 4FC systeem. Als ik het goed gelezen heb zijn de schijven ook FC.
Is iets anders dan @home zelfbouw paketjes.Alles de cache van dit systeem is al 4Gb. Dit is toch nog iets meer dan de meeste tweakers in hun eigen PC hebben zitten.
Verschil is wel dat wanneer over 10 jaar je schijf eruit klapt, dat IBM dezelfde schijf nog in voorraad heeft..

Probeer jij over 10 jaar nog maar een Western Digital Caviar RE2 WD5000YS, 500GB (7200rpm, SATA II, 16MB) te krijgen.

(En ja, dit soort systemen gaan vaak 10 jaar mee..)
Er wordt melding gemaakt van SATA schijven dus ik vind het een vreemde prijs.
Waarschijnlijk gaat het hier om SCSI schijven met een SATA interface. Aan de binnenkant is het dus een volwaardige SCSI schijf, maar je kunt er gewoon SATA mee kletsen.

wij hadden de 36GB versie van die dingen in onze mailservers bij m'n vorige werkgever. (alleen niet van IBM).

Het SCSI gedeelte maakt die dingen een stuk duurder, maar ook veel betrouwbaarder dan normale SATA schijven. Dat is echter alleen relevant als je extreme disk I/O verwacht, voor de normale tweaker pc thuis of op het werk hoef je het niet te kopen.
Een beetje tweaker zet die er toch zelf in :Y)
een beetje tweaker maakt zelf zo'n server van onderandere een stacker kast met wat sata/ata controllers d'r in
De MBTF van een SCSI of FC schijf ligt veel hoger ligt dan een SATA schijf. En ook de SCSI schijven heb je in 15.000 rpm en SATA niet
Ligt er maar aan wat voor data je hebt lijkt mij om een keuze voor Sata of Scsi.
Archief kan toch goed op Sata en Actieve data op Scsi.
Ik vind dat mensen dikwijls erg vlug Sata als minder beschouwen. Als je het puur technisch bekijkt is dat natuurlijk zo maar als je betaald voor iets wat je niet nodig hebt is het toch een des-investering
Mee eens met 'woodywood', wij hebben 7 disk-caches varierend van 2TB tot 6TB per stuk. Die dingen zijn allemaal uitgevoerd met s-ata disken. Dit is vooral omdat de SCSI oplossing niets meer biedt voor ons. Er worden files van meerdere gigabytes uitgelezen en verschoven naar een rekenmachine.
De files zijn statisch en worden niet zoals bij een database parallel en door meedere threads gelezen. Alle SCSI optimimalizaties zijn nogal nutteloos hier. We hebben simpelweg een extreme hoeveelheid data storage nodig (dit is alle maar cache trouwens) die vooral sequentieel wordt beschreven en soort van parallel wordt uitgelezen, maar niet parallel genoeg om voor SCSI te kiezen :D
Het valt wel op dat de extra kosten per schijf zo hoog zijn. Kennelijk zit voor IBM daar ook een flink winstmage op.
Het is niet echt winst. Waarschijnlijk zit er op die schijf een leverings garantie van 5 jaar (of meer) zodat een bedrijf dat zo'n machine koopt de zekerheid heeft dat hun investering minimaal 5 jaar lang probleemloos in gebruik kan blijven en eventueel nog kan worden uitgebreid. IBM moet dus schijven van het type in deze machine op voorraad houden om later nog schijven te kunnen leveren.
Seagate levert ook 5 jaar garantie op een HDD...

Voor die 900$ kan je er volgens mij beter gewoon een nieuwe kopen als er eentje kapot gaat.

Maar zijn dit niet 10k RPM HHDs?
Dat is niet de soort garantie die NBK bedoeld. Hij bedoeld dat IBM de garantie biedt dat de schijven nog zeker 5 jaar leverbaar zijn...
ik vind het een beetje overdreven om ron.it meteen af te kraken. in het mkb is het inderdaad vaak niet gewenst om dure externe storage aan te schaffen. dus alternatieven gebaseerd op hardware raid controllers in combinatie met hot swap sata disken is helemaal niet verkeerd.

maar bij dit soort bedrijven zijn er meestal niet 10 tallen servers maar meestal 1 of 2. hang dan gewoon externe DAS cabinetten aan deze systemen.
in ron.it zijn verhaal heeft hij bij klanten dus zelf een DAS gebouwd. gewoon SATA disken in een kast hangen en extern via een SATA controller aan een systeem geknoopt. als je de voedingen redundant maakt is hier helemaal niks mis mee op een ding na, namelijk:

je laat de host de raid afhandelen. en dat is maar een controller. controller kapot, host down..... hoe ver wil je de redundantie laten gaan? als je de controllers ook redundant wilt maken, is het goedkoper cq. makkelijker om een extern disk cabinet oplossing te kopen met dubbele controllers, zodat je in de host twee hba's plaatst met dubbel touwtje naar het cabinet. raid wordt afgehandeld door cabinet en toch redundant.

dus die hobbybob instelling is niet zo. het is gewoon een raid configuratie voor een systeem verplaatst van de interne kast van de server naar een externe kast, is dus niks mis mee.... meerdere wegen naar rome heren.... ;)
Bedrijven die oplossingen kopen waar het in dit topic over gaat kijken niet alleen naar kosten en de hoeveelheid data die men kwijt kan.

Hoe wil je op den duur 50TB op een backup krijgen als die rechtstreeks aan één of twee servers hangt? Erger nog, hoe krijg je die data snel terug als een unit het begeeft.

Voor oplossingen die vele Terrabytes aan opslag met zich meebrengen dien je dus over voldoende bandbreedte te beschikken om niet alleen goed te kunnen werken, maar ook te zorgen dat als het eventueel mis gaat je zo snel mogelijk weer verder kunt. Hoe kun je een klant garanderen dat als zijn schijven over 5 of 6 jaar kapot gaan je dezelfde RAID-set nog kunt herstellen met eenzelfde vaste schijf. IBM biedt voor dergelijke producten ondersteuning voor een hele lange tijd (tot soms wel 15 jaar!). Een klant die zijn systeem heeft laten "bouwen" door een persoon kan op het moment dat die persoon of het bedrijf waar die persoon werkt wegvalt behoorlijk in de problemen geraken als zijn systeem down gaat.

Daarbij: wat verstaat eenieder onder het MKB? Vele kleine resellers vinden dat bedrijfjes van 5 tot 150 man. IBM vindt het MKB bedrijven van 500 - 2500 werkplekken. Dat is nogal een verschil met de manier waarop met automatisering wordt omgegaan en welke oplossingen daarvoor nodig zijn.
bij veel bedrijven wordt inderdaad niet op een cent gekeken....ook bij ons niet.
de kosten hiervan wegen niet op tegen downtimes die ontstaan door data-verlies.
Wij zijn een JIT plant die data krijgt van klant (iedere 50sec wordt er een carset afgevraagd)
Als wij stopvallen kost dit ons 1000 euro per minuut boete aan onze klant die tgv. van ons stopvalt.
plus onze eigen onkosten..........
Dus dan is het belangrijk dat er niets fout gaat bij ons en vooral niet in DATA........ :'( :'(
SCSI/SAS = Enterprise
SATA/PATA = Low/Mid End. Klaar uit ..dat weet iedereen.

Als je zegt dat het niet zo is klop je niet en ben je je niet bewust van wat je zegt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True