Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties

Seagate heeft een nieuwe lijn harde schijven geďntroduceerd voor de enterprisemarkt. De schijven komen in capaciteiten van 300, 600 en 900GB, en draaien op 15.000 toeren per minuut. Het is voor het eerst dat een harde schijf die groter is dan 600GB op deze snelheid draait.

De 2,5"-hdd's zijn beschikbaar in versies met de gebruikelijke 512 bytes per sector en varianten met 4kB per sector. De grotere sectoren maken het mogelijk om betere foutcorrectie toe te passen. De normale versies hebben een leessnelheid tussen de 210 en 300MB/s, en de 4kB-versies tussen de 215 en 315MB/s.

Seagate Enterprise Performance 15kDe schijven beschikken over platters van 300GB. Ze kunnen aangesloten worden door middel van een 12Gbit/s-sas-aansluiting. Deze verbindingen worden bijna uitsluitend in datacentra gebruikt en komen niet voor in standaard consumentencomputers.

De markt voor dergelijke harde schijven krimpt door de opkomst van ssd's snel. Ssd's bieden veel betere prestaties dan harde schijven en zijn al met vergelijkbare opslagcapaciteiten beschikbaar. Harde schijven genieten in sommige situaties echter nog de voorkeur, aangezien ze niet slijten door lees- en schrijfacties en hun data vele jaren kunnen vasthouden.

Moderatie-faq Wijzig weergave

Reacties (107)

Is daar dan echt markt voor? Ik bedoel of je neemt een SSD voor performance of een HDD met veel opslag voor een gunstige prijs.
Er is nog een derde criterium, betrouwbaarheid.
Daar hebben data centra minder boodschap aan tegenwoordig.
Ik werk zelf als beheerder en alle HDD's in ons datacenter zijn vervangen door SSD's. (Samsung 850 Pro modellen).

Deze zijn allemaal in raid 1 geschakeld, dus de betrouwbaarheid is er toch wel.
850 Pro SSD's zijn GEEN datacenter SSD's. Daarvoor moet je van Samsung de PM863 of SM863 SSD's hebben. Intel heeft daarvoor de S3510/S3710.

Een SSD in RAID-1 zetten is ook compleet nutteloos aangezien de wear leveling dan op beide SSD's even hard gaat en ze daardoor even hard slijten.

[Reactie gewijzigd door Snow_King op 26 oktober 2016 17:30]

Zolang het werkt lijkt het me geen probleem of de ssd nou bestempelt is als '' data center ssd '' of '' consumenten ssd ''
Het gaat immers om het resultaat en wat je er van verwacht.

Neem bijvoorbeeld de intel integrated graphics controller... die zijn echt niet '' gemaakt '' om er mee te gamen maar er zijn toch mensen die het doen en waarbij het voor hun voldoende is.

Of servers die geen Intel Xeon processor of AMD Operton processor hebben die speciaal gemaakt zijn voor servers maar een '' simpele '' desktop i7 processor gebruiken.

Maar 100% betrouwbaarheid heb je NOOIT, zelfs met de duurste server HDD of SSD.
Dus altijd backups maken!
Oh, dit is zo slecht. Ik doe even een copy-paste van het forum (denk dat Ciphax dit geschreven had).


Consumenten SSDs als Crucial krijgen hardwarematige bescherming tegen corruptie in de vorm van capacitors die de huidige write netjes kunnen afronden.

Samsung kiest voor de goedkopere softwarematige optie, waarbij de SSD middels een journal terug in de tijd wordt gezet bij onverwacht stroomverlies. Samsung schendt hierbij de ATA standaarden; omdat na een FLUSH commando deze data permanent opgeslagen hoort te zijn. Maar dat is niet zo, want als vlak erna zich een stroomstoring voordoet, zal de journal de SSD terug in de tijd gooien vóór het FLUSH-commando. Hierdoor zijn Samsung SSDs eigenlijk totaal ongeschikt voor zaken als RAID of enige complexe opslag. Stel je voor dat SSD1 terug in de tijd gaat maar SSD2 niet, bij een RAID0 set. Ook bij redundante RAID kunnen er allerlei vreemde effecten voordoen die tot corruptie leiden. Filesystems en RAID engines zijn niet gemaakt op een tijdreizigers.


Samsung 850s lijken me juist het slechtste wat je kunt doen als systeembeheerder waar betrouwbaar zo veel meer oplevert dan goedkoop spelen. Voor mezelf /eindgebruikers ben ik ook tevreden met Crucial/Samsung, maar no way dat dat spul ooit serieus ingezet gaat worden in ons park.
DataCenter.. + "..als vlak erna zich een stroomstoring voordoet.." ... iets met noodstroom voorziening in de vorm van een paar mooie UPS bakken?..

Je ziet wel vaker nu dat sommige bedrijven hun hele storage met consumenten hdd's uitvoert. Het verschil in prijs kun je genoeg reserve hdd's voor kopen mocht er eentje afbranden.
Leuk en aardig die UPS en noodstroom, daarnaast hebben servers over het algemeen een battrie backed writecache (of flashmodules tegenwoordig), maar het probleem blijft dat er dus consumenten SSDs zijn die liegen over het nu wel of niet "op disk" hebben staan van de data (als ik bovenstaande verhaal over Samsung mag geloven). In het foute scenario kan je dus alsnog datacorruptie hebben.
In foute scenario is de wereld er morgen niet meer. Er zijn altijd theorien te bedenken waar het fout gaat. Vraag blijft hoe vaak het fout gaat. Daarnaast is bovenstaand nog wat belangrijkers geschreven: Het gaat erom waar je ze voor inzet, kritische databases moet je er niet op draaien. Maar als tijdelijke snelle storage is het een prima oplossing.
Linux MDRaid houd een teller bij. Als die ook teruggerold wordt weet de MD layer dat die schijf niet bij is en gesynced moet worden. Combineer dat met een goede backup en ik zie het probleem niet. Software oplossing is goedkoper op schaal dan dure hardware kopen. Google/Facebook/Backblaze, allemaal voorbeelden van cheap ass oplossing en dan heel veel en met software redundantie en robuustheid aanbrengen. Voor de slager om de hoek is het handiger een complete server te kopen met alle UPS toeters en bellen erbij: de schaal en kennis is er niet naar om het anders te doen.
Nog een voorbeeld van een goedkope oplossing: voor een fabriekshal met lompe arbeiders en machines+stof een server regelen. Cheap ass kluis met laptop erin. Gaatje voor de voeding maken en geen hond die bij de server kan en ook stof en lompe acties houden het apparaat heel.
Niet alle toepassingen in servers vereisen dergelijke bescherming. Als je een database gaat draaien op de SSD, dan is een dergelijke bescherming zinnig. Voor een rekennode in een HPC-cluster is het onzinnig, als er gegevenscorruptieoptreedt, wis je de SSD gewoon en begin je opnieuw.

De Samsung 850 Pro is een interessante SSD, want hij wijkt enkel t.o.v. de SM863 af in de firmware en heeft dan ook stiekem dezelfde endurance als de SM863, ook al zegt het gegevensblad minder. Het is dus een zeer sterke SSD. Het kan als je slim wilt inkopen dus zeker een interessante SSD zijn voor servergebruik, zolang je maar goed nadenkt waar je heb wel en niet voor inzet.

Overigens valt een laptop vaker zonder stroom dan een server...
Uiteindelijk is het grotendeels afhankelijk hoe de schijven toegepast gaan worden in je server.

Als je betrouwbaarheid zoekt, dan neem je dus geen Samsung 850. Maar als jij snelle opslag zoekt die relatief goedkoop is en de betrouwbaarheid van je data minder belangrijk is, dan kan gerust een 850 nemen.
Dit specifieke model ssd lijkt me dan inderdaad niet zo'n goed plan. Maar in principe kan je wel consumer ssd gebruiken. Het is meer een kosten en uptime kwestie. Als je die dingen vaker moet vervangen kost het meer geld en je hebt meer downtime. Maar de data zijn wel veilig.
Als je het op de correcte manier kunt doen dan is dat natuurlijk the way to go, voor veel bedrijven is de IT zeer strikt budget gebonden. Het kan lastig zijn management te overtuigen van zekerheid terwijl er al tig andere maatregelen voor genomen zijn. Het prijsverschil overmeesterd de risico factor in ieder geval vaak.
Een consumenten SSD kan veel minder data schrijven dat een echte enterprise SSD. Ter vergelijking de voorbeelden van Snow_King:
Een 850 pro 512GB mlc heeft een TBW van 150TB voor 228 euro.
Een PM863 480GB tlc heeft een TBW van 700TB voor 232 euro.
Een SM863 480GB mlc heeft een TBW van 3080TB voor 308 euro.
De prijzen en specificaties spreken voor zich, een echte enterprise SSD loont dus wel in vergelijking met een consumenten SSD.

pricewatch: Samsung 850 Pro 512GB
pricewatch: Samsung PM863 (bulk) 480GB
pricewatch: Samsung SM863 480GB
En als je 3 PB gaat schrijven op zo'n ssd dan pak je natuurlijk de meest betrouwbare op dat gebied tenzij he qua afschrijving goedkoper kan. Doe je die 3 pb in 20 jaar dan kan je net zo goed voor een pm863 gaan en na 5 jaar kijken wat er dan goedkoper is.
Nee, dat is dus niet zo. Een Samsung 850 Pro heeft (zoals hier onder ook geschreven) geen goede bescherming tegen stroomuitval waar de PM en SM series dat dus wel hebben.

Ik verwacht van een SSD in een datacenter dat deze tegen stroomuitval kan en dan mijn data nog veilig houdt. Liever iets minder snelheid dan potentieeël data verliezen.

Verder helemaal eens over backups, maar ook die goed maken is een vak apart. Zeker de herstel procedure. Dus als herstellen niet hoeft, graag!
De bescherming tegen stroomuitval kan natuurlijk ook goed met een ups geregeld worden
Nee, ook die kan falen in een datacenter. Of sluiting in een kast waardoor de zekeringen er uit springen.

Nooit vertrouwen op een UPS. Elke server moet er tegen kunnen dat de stroom uit valt en dan geen data verliezen.
dan heb jij de verkeerde UPS,
als de zekering er uit klapt (welke?)
als DC er uit klapt heb je als nog stroom
als AC er uit klapt heb je nog stroom
en in beiden gevallen zet UPS -> shutdown and save mits anders ingesteld. + als DC er uit valt krijg je daar een waarscheuwing van.

Als ze beiden er uit klappen heb je een probleem met het aangesloten hardware ( waar de ups ook nog is voor beschermd is maar goed de mogenlijkheid )
Daarbij komt nog is als data je zo belangrijk is heb je een dual of meer ups setup.


In jou geval heb je dus een of andere chinees merk gekocht ofzo , maar dan als nog, zo zou een upc moeten werken

Elke server moet er tegen kunnen, wens je geluk als je ooit zo een systeem moet bouwen.Denk dat ze gelijk zeggen nou we kijken nog wel even rond.

[Reactie gewijzigd door Jhinta op 26 oktober 2016 22:22]

Goede of geen goede UPS: alles kan kapot. Stel je bent de ING en de UPS gaat kapot waardoor je een deel van je transacties kwijt bent, dan kan je niet aan je klanten verkopen "maar ik had een UPS van het beste merk". Feit blijft dat je euro's heb zitten sparen op een SSD die niet voor datacenter werk is bedoeld.

Is de server voor je zelf en is het niet erg dat je data verliest, dan kan je het prima doen. Is het voor bedrijfskritische applicaties, dan doe je er goed aan om degelijke SSDs aan te schaffen.

Ik heb situaties gezien waarbij een UPS op datacenter niveau aanwezig was maar die na een aantal onregelmatigheden in het stroomnet zichzelf uitschakelde nadat het net weer terug was. Echter viel het net daarna weer weg en lag het hele datacenter plat. Daarnaast kan ik mij ook voldoende scenario's bedenken waar een zelfs een goede UPS niet de oplossing is.
daar zit je bij je eerste zin all fout , als ik bij ING de infra onderhoud , heb ik een heel rail aan ups x2 op een andere locatie.
Als er 1 uit valt heb ik er nog tig draaien. waar heb je het over 8)7 ?
Je hebt mee gemaakt dat een ups uit viel , dus je had er maar 1 !
Bij cruciaal netwerken heb je geen 1 maar aantal ups om x dagen zonder te kunnen zodat herstel geen probleem zou moeten zijn.

het is de bedoeling dat het NOOIT uit gaat niet kan of mogelijk.
in jou situatie zou dus laten we zeggen ING heeft een datacenter met 8 rekken aan ups en allemaal tegelijk kapot gaan :+ geloof je het zelf?

[Reactie gewijzigd door Jhinta op 27 oktober 2016 00:02]

Bij Samsung zit er wel degelijk een verschil in, vooral als het op technische ondersteuning aan komt. Ik weet niet hoe het met de 850 zit, maar de 840 vertoond problemen icm raid controllers en heeft daarom bij bijna geen enkele grote raid controller brand officiele ondersteuning. Wil je het zakelijk verantwoorden dan moet je niet met consumenten SSDs gaan draaien met slechte ondersteuning.

Dit geld ook voor HDDs. De spinpoint f1 serie (het is oud, ik weet het) werkt ook niet in servers als je die jaren lang gebruikt en je krijgt van de support terug dat ze niet voor servers bedoeld zijn (en daarom kunnen ze je ook niet ondersteunen). Wij draaien enkel met harde schijven en SSDs die bedoeld zijn voor servers om dit soort problemen te voorkomen.
HDDs in Raid1 slijten toch ook even snel? Zolang ze maar niet precies tegelijk het begeven. Die kans is klein, daar is het principe op gebaseerd.
Nee, een SSD werkt op dat gebied heel anders. Die is beperkt in hoe vaak je hem kan beschrijven.
Ja, maar is de kans groot dat ze precies tegelijk stuk gŕan?

Je zou misschien ook nog voor een alternatieve strategie kunnen gaan: vervang er 1 een keer preventief. Dan lopen ze qua levensduur out of sync.

[Reactie gewijzigd door KopjeThee op 26 oktober 2016 19:04]

De kans is bijna 100% dat ze op het zelfde moment kapot gaan zolang ze vanaf het begin het zelfde patroon hebben. Je zal er dan dus inderdaad één eerder moeten vervangen, puur uit voorzorg.
Dat is onzin natuurlijk dat ze op het zelfde moment kapot gaan. De schrijfratings zijn een indicatie en het minimale wat de fabrikant garandeert. Ik ben het wel met je eens dat de kans bij een SSD groot is dat hij het later begeeft of meerdere ineens de geest gaan geven binnen een bepaalde periode waardoor je inderdaad eerder preventief de SSDs vervangt.
Mooi stukje van hwi geleend over de 840 tlc,s

Het punt waarop de eerste uncorrectable error plaatsvindt is wat ons betreft het punt waarop we de SSD in feite als ‘aan het eind van z’n leven’ moeten bestempelen. Dat was bij exemplaar 1 dus na 764 TiB geschreven data en bij exemplaats 2 na 768 TiB geschreven data. Dat beide waardes zo opvallend dicht bij elkaar liggen (minder dan 2% verschil!) doet ons vermoeden dat de levensduur van de Samsung 840 SSD’s vrij constant is, al is dat met een steekproef van twee exemplaren natuurlijk niet echt hard te maken.
Hoe dan ook: als we even uitgaan van de 764 TiB en rekenen met een gemiddeld aantal van 10 GiB writes per dag (wat volgens de meeste SSD-fabrikanten een bovengrens is voor ‘normaal’ consumentengebruik), dan komen we uit op een levensduur van 214 jaar. Daar moeten we echter bij aanmerken dat wij de SSD vrijwel sequentieel volschrijven en zodoende uitkomen op een write amplification factor (het verschil tussen het aantal naar de SSD verstuurde schrijfopdrachten en het door de SSD intern uitgevoerd schrijfopdrachten) van slechts 1,04 ŕ 1,05. Algemeen wordt aangenomen dat een WAF van circa 3,0 normaal is bij consumentengebruik en een SSD zonder compressietrucs. Dat zou betekenen dat we uitkomen op een levensduur van 75 jaar. Zelfs wanneer je een enorme power-user bent, iedere dag meerdere films downloadt op je SSD en zodoende op gemiddeld 30 GiB  per dag uitkomt, hoef je je volgens onze test geen zorgen te maken: dan nog rolt uit onze berekening een te verwachten levensduur van 24 jaar. Hoe je een SSD ook in de praktijk gaat gebruiken, al deze tijdsspannen zijn een stuk langer dan de periode dat je vermoedelijk daadwerkelijk dezelfde SSD gebruikt.


Jullie hebben beide een beetje gelijk.
Niet alle marketing geloven wat je leest. WC-papier kan je ook gebruiken om je neus mee te snuiten, eveneens kun je zakdoekjes gebruiken om je bips mee af te vegen. Etiketten zeggen van niet maar het is wel degelijk multipurpose wanneer het de situatie past.
Doet me denken aan dat bericht over datacenters die alleen maar consumenten HDD's gebruiken omdat die goedkoper zijn zelfs als je de snellere afschrijving meeneemt.
Het kán wel, maar bij SSD's is het snel duurkoop. Op consumenten HDD's kan je prima de buffers uitschakelen en daar veilig je data op zetten.

Met SSD's is dat best wel lastig te doen. Consumenten SSD's zijn namelijk best wel heel erg langzaam als je ze echt op de pijnbank legt.
Ligt aan het storage type. Object storage zoals Amazon S3 heeft een enorme durability van 99,99999999999 (11x9) waardoor de kans op het verlies van een file eens in de 10 miljoen jaar voorkomt. Dat is dus iets anders dan availability die slechts 99,99% is of kan zijn. Alles draait op commodity hardware met heel heel veel disken die elkaar xor-en over meerdere locaties. Hier worden dus massaal HDDs only gebruikt en kunnen tegen veel kapotte disken door een geavanceerde raid vorm (erasure code 20+6) gecombineerd met X-OR over arrays heen.
Of je loopt tegen de geweldig leuke bug aan welke de Samsung SSDs gekend hebben in combinatie met Linux!
Datacorruptie na een aantal dagen gebruik!
Even hard slijten wil nog niet zeggen dat ze ook exáct op hetzelfde moment stuk gaan.
Ok, je zal ze beiden moeten vervangen maar de data is in elk geval nog veilig.
Maar ook bij een gewone RAID1 is het verstandig om alle schijven te vervangen als er een stuk gaat, de andere schijven hebben er immers ook al vele draaiuren op zitten.
Ik hoop niet dat mijn hosting in jouw datacenter is.
Als betrouwbaarheid je niet voldoende interesseerde om dat even uit te zoeken toen je een hostingprovider zocht, waarom zou het je dan wel interesseren nu iemand een reactie erover plaatst?
Niet alle hosting providers zijn transparant over hun infrastructuur.
Net zo min dat alles in zijn datacenter RAID1 gebruikt op consumer SSD's.
Betrouwbaarheid moet immers altijd maar blijken, en zelfs de grote jongens kampen met problemen.
Er is wel een verschil tussen het probleem opzoeken en het proberen te vermijden.

[Reactie gewijzigd door DJMaze op 26 oktober 2016 17:11]

Tuurlijk maar ook bij grote jongens (zoals backblaze) hebben ze daar redundante strategieën en backup plans voor.
Betrouwbaarheid met Raid1? Tell me again, son.

Op mijn vorig werk veel toegepast op kritieke systemen (productiemachines aangestuurd op PC). Liep in bepaalde situaties meer fout dan goed. Uiteindelijk standaard Raid5 geworden.
Zeker op servers/kritieke systemen is Raid5 meer aangeraden ;)
RAID5 is altijd meer risico dan RAID1. Ik mag toch hopen dat je dat begrijpt.

Bij RAID1 heb je een 1:1 kopie van je data, bij RAID5 heb je 1 schijf aan Parity.
Het probleem van raid1 bij corruptie: welke disk bevat (de) correcte data.
ja maar dat probleem speelt bij alle raid versies. raid is ook niet bedoeld om data corruptie tegen te gaan maar om uitvallende harddisks op te vangen. Als je werkelijk corruptie op bestandsniveau wilt tegengaan heb je een self healing filesystem nodig.
ja maar dat probleem speelt bij alle raid versies.
Bij raid1 weet je wellicht niet eens dat er iets mis is.
Bij raid5 heb je de parity nog, dan weet je tenminste dat er iets mis is (indien de controller/software die leest en checked). Wellicht dat je voldoende hebt om te corrigeren.
raid is ook niet bedoeld om data corruptie tegen te gaan maar om uitvallende harddisks op te vangen.
Een van de tekenen van uitval is corruptie.
Dat is uiteraard alleen zo bij filesystem errors. Maar dan heeft raid 5 ook een probleem. Bij raid1 kan je de drive gewoon direct aan een sata poort hangen en uitlezen + eventuele recovery.
Het grote probleem met SSD schijven is dat die bijna zonder waarschuwing fouten gaan vertonen. Bij een raid opstelling blijven die soms onopgemerkt, totdat de prestatie gaat verminderen. De meeste consumenten SSD's, zoals de 850 pro, schijven hebben wat reserve aan boord, die stukje bij beetje in gebruik genomen worden. Als een SSD de geest geeft vervang je die gewoon, maar dan blijkt dat je een probleem hebt. Je kan de overblijvende schijf niet meer één op één kopiëren. Je moet de bestanden dus handmatig van de overblijver kopiëren, en dan kan een volgende schijf opnieuw "gerebuild" worden. Bij raid 1 is dit te doen, andere raid opstellingen geven problemen.
De speciale enterprise SSD's en speciale raid controlers mappen de nieuw aangesproken geheugencellen op de plaats van de oude. Raid 1, 6, 10 en eventueel raid 5 zijn dan goed te gebruiken.
De SSD's hebben namelijk de neiging om vrij plotseling de geest te geven en volgens Murphy gaan er dan gelijk meerdere tegelijk in de raid kapot. Bij voorkeur draait er nog steeds een HD mee die alle schrijfacties van een SSD-raid mirrored. De levensduur van de SSD's is helaas nog niet voldoende om lange tijd betrouwbaar in een datacenter te gebruiken.
Op welke brakke controller zou raid 5 beter moeten werken dan raid 1? Als je de capaciteit of prestaties van striping niet nodig hebt voldoet raid 1 prima. In beide gevallen mag er één drive falen.
Heel vreemde comment. Raid 5 is juist een van de minst betrouwbare, ga dan voor raid 6 of 10... En niks mis met raid 1.
Niet helemaal.
RAID 10 is een striped mirror:
N+1 keer RAID 1 (mirror) in een RAID 0 (stripe)
Aan de andere kant heb je nog RAID 01, een mirrored stripe:
RAID 0 (stripe) in N+1 keer RAID 1 (mirror)

http://www.thegeekstuff.com/2011/10/raid10-vs-raid01

En beide gevallen zou ik verkiezen boven RAID 5
Dit is een oude achterhaalde techniek. Raid 5 is heel erg kwetsbaar. Als 1 disk kapot is in je array moeten alle disken mee draaien om de kapotte disk te recoveren. Dit gebeurd vaak op een moment dat juist andere disken ook al niet meer zo healthy zijn. Je zal niet de eerste zijn die bij een complete rebuild uiteindelijk te maken kreeg met een totale dataloss. Vooral rebuilds van grote disken zijn enorm IO intensief en ze moeten ook nog de dagelijkse load behandelen tijdens die rebuild. Moderne systemen werken met meer disken dan 4 of 5 en gebruike erasure coding waardoor je een lokale en globale parity hebt en dus maar weinig disken nodig hebt in je array voor een rebuild en de rest blijft performen. Kijk ook deze site maar eens http://www.baarf.dk/BAARF/BAARF2.html en http://www.dba-oracle.com/oracle_tips_raid5_bad.htm En dat zijn al stokoude aanbevelingen.
Ik zou wel opletten als je 2x hetzelfde model gebruikt heb je bij SSDs grote kans dat ze rond hetzelfde tijdstip problemen gaan geven. Dus of tijdig vervangen, of twee verschillende types gebruiken.
Betrouwbaarheid is kwestie van kwalitatief beter product kopen. Of dat nou een ssd of hdd is.

De eerste HDD die niet slijt zoals het artikel suggereert zou overigens heel revolutionair zijn.
Zover ik weet zijn ssds over het algemeen minder vatbaar voor slijtage of schade. Geen bewegende onderdelen en de write cycle beperking is allang geen probleem meer, zelfs bij vrijwel alle datacentrum toepassingen (mits je research doet en de wat duurdere koopt die ook voor servertoepassingen gemaakt zijn).
Ieder dag 100gb schrijven en een goede ssd gaat alsnog vijf jaar mee. En daarna is de data nog steeds te lezen dus geen verloren data.
Een harde schijf in serveromgeving gaat toch echt niet langer dan drie jaar betrouwbaar zijn.
De eerste HDD die niet slijt zoals het artikel suggereert zou overigens heel revolutionair zijn.
Kommagebruik is in die zin heel belangrijk. Want zoals je het nu schrijft klopt het gewoon. Wat jij waarschijnlijk bedoelt is:
"De eerste HDD die niet slijt [komma] zoals het artikel suggereert [komma] zou overigens heel revolutionair zijn.

Het artikel zegt:
aangezien ze niet slijten door lees- en schrijfacties
Dit is correct. Het lezen en schrijven zorgt er niet (of in verwaarloosbare mate) voor dat de platters hun mogelijkheid verliezen om data goed op te kunnen slaan. Het gaat bij HDD's vooral om mechanische defecten, en ja, mechaniek slijt nou eenmaal.
Er bestaan ook zeer betrouwbare SSD's en of Seagate nou bepaald als betrouwbaar bestempeld kan worden.
Artikel zeg het al eigenlijk he...
Ssd slijt door read en write waar een hdd dit niet doet.
HDD ook maar uiteraard veel langzamer.
Ik heb bij een andere site (TechReport) wel eens een test gezien waarbij ze consumenten(!) SSD's op slijtage testten. Het experiment duurde letterlijk maanden lang, waarbij de SSD's 24/7 de meest rigoureuze schrijfacties te verwerken kregen. Pas toen ging de eerste SSD kapot. Zelfs met een slechts iets lichtere belasting zou dit al snel oplopen naar één tot enkele jaren. HDD's hebben ook niet het eeuwige leven en worden meestal na een paar jaar ook vervangen!
HDD slijt door 't fysiek draaien, waar een SSD niet draait.
Dat had ik bewust niet genoemd omdat ik dacht dat dit algemeen bekend was. Maar inderdaad. Dit valt dan ook onder de normale slijtage die ik noemde.
Een ssd slijt echter juist bij gebruik waar een hdd sowieso slijt .
De platters in een hdd gaan niet kapot door RW acties. De motor en kop mechaniek echter wel. De meeste drive failure komt echt door trillingen. En daar heb je in een serverpark/datacenter enorm veel last van.

Zelfs schreeuwen tegen een array verhoogt de latency.
Heb je het artikel wel gelezen? :)
Als je beter leest zie je dat deze bedoeld zijn voor de zakelijke markt, namelijk datacenters.
Dat heb ik zeker gelezen maar ook voor data centers zou ik liever een SSD nemen. Die dingen zijn tegenwoordig voldoende betrouwbaar en vallen ongeveer in dezelfde prijsklasse als dit soortenterprise modellen.
Enterprise SSD is toch echt vele malen duurder dan een Enterprise 15K Harddisk
Of je een SSD of HDD toepast is echt heel afhankelijk van WAT je met het systeem doet.

Een SSD is misschien sneller, maar is die snelheid ook echt nodig.

Als ik een backup omgeving bouw waarbij ik Veeam toepas gaat mijn voorkeur uit naar een groot Raid 10 of 50 array met 10 of zelfs 15K schijven, al is de keus meestal 10K vanwege de beperktere capaciteit.
Waarom? Omdat ik met backup hoge betrouwbaarheid wens en een hoge snelheid en geen bizarre kosten.
Veeam bijv. kan een bijzondere IO generator zijn wanneer synthetische backup files gebouwd moeten worden en dan is het fijn als er veel IOPS beschikbaar zijn.
Echter de backup wordt niet heel veel sneller als ik ipv bijv 16 600GB schijven van 15K 16 SSD's toepas. De rest van de server moet dit geweld ook aan kunnen en niet alleen de rest van de server, ook de source moet dit aan kunnen en eventuele transport media richting backup server moet dit kunnen.

Het blijft dus altijd een afweging tussen prijs/capaciteit/performance en ik ben blij dat er nu eindelijk een 900GB variant beschikbaar is!
Zie laatste alinea dus. Op dit moment is er zeker nog wel een markt voor in storagesystemen die 'n kleine SSD tier hebben, daaronder een 15k tier en daar weer onder nog een capacity tier met 7.2k drives. Maar best kans dat dit de laatste generatie draaiende 15k disks is.
Deze schijf zit qua snelheid én prijs (althans: hoogstwaarschijnlijk) tussen reguliere hdd's en ssd's in. Aangezien daar een flink gat zit, is daar denk ik idd een prima markt voor ja.

Betrouwbaarheid is eigenlijk niet zo'n issue denk ik, ten eerste zijn ssd's behoorlijk betrouwbaar, en ten tweede koop je snelle schijven niet voor betrouwbare dataopslag. Die gebruik je voor vluchtige data die snel toegangelijk moet zijn. Betrouwbaarheid is hoogstens een issue dat ze niet zó snel kapot moeten gaan dat ze inclusief vervangingen alsnog duurder worden dan ssd's (of hdd's uiteraard).

[Reactie gewijzigd door Aikon op 26 oktober 2016 16:31]

Het is een SAS schijf dus puur een enterprise produkt.

Daar is nog best een markt voor snelle schijven, als je dat soort bedragen uitgeeft kan er nog een hoop geoptimaliseerd worden, en enterprise SSD's zijn ook duurder dan die voor consumenten (door de vele langere levensduur bij schrijfacties).
Er is markt voor. De hardeschijffabrikanten zijn er zelf verbaasd over, want dit soort schijven is door. SSD-techniek achterhaald, maar in veel kringen in de computerindustrie is men conservatief en blijft men hoogtoerige schijven kopen.
De kosten blijven een grote factor spelen, zeker bij grote hoeveelheden disks. Daarnaast is de voorspelling van een jaar geleden dat SSD tegen de productiegrenzen van de halfgeleider industrie zou aanlopen, inmiddels waarheid. De levertijden op SSD's voor enterprise toepassingen (480GB, 960GB, 3.8TB) zijn inmiddels ruim anderhalve maand, en dat zal alleen maar oplopen met de groeiende vraag. Dan is een optie voor harddisks waar dat 'good enough' is, zeer welkom.
Het kostenargument speelt met name bij 7200-toerenschijven en in mindere mate bij 10000 toeren. Bij 15000 toeren is de prijs per terabyte gewoon erg slecht, in combinatie met de lage snelheid. Je kocht een 15000-toerenschijf vanwege de snelheid, maar de SSD heeft dat achterhaald.

Nu koopt men voornamelijk nog een 15000-toerenschijf omdat dat nu eenmaal de standaard is in bepaalde kringen.

Van een tekort aan (enterprise) SSD's is me niets bekend, Micron, Samsumg en Kingston leveren vooralsnog gewoon op de zaak en we verkopen redelijk wat servers.
SSD is veel betrouwbaarder dan een HDD!

Uiteraard slijten de cellen van een SSD echter is het heel nauwkeurig te voorspellen wanneer dit gebeurt en dus ruim van te voren te zeggen wanneer de disk zal falen en moet worden vervangen.
Een HDD kan veel minder nauwkeurig zeggen wanneer deze dood gaat, echter voelt het dan voor een hoop mensen aan alsof ze ook niet stuk zal gaan.

In mijn werk zie ik dat wij 15K en 10K disken eigenlijk nog maar zelden verkopen in onze servers. Puur kosten technisch is SSD al interessanter aan het worden en dan heb je uiteraard ook nog de enorme perfomance winst.
Waarom zou een HDD niet slijten bij lezen en schrijven? Dat is ook gebruik met bewegende onderdelen.

Ik snap dat het minder snel slijt, maar dat is nogal een groot verschil (met geen slijtage).
Maar zodra je ze niet gebruikt, denk aan back-ups, zijn ze een stuk betrouwbaarder. Vandaar zal er vanuit de enterprise markt nog wel wat interesse zijn.
Maar wil je dan 15k-schijven hebben, die toch een forse kostenpost zijn tov 7k2-schijfjes? Ik zou juist in zo'n geval nog tapes overwegen, of een degelijke 5k4-schijf, en eventueel een SSD-opstelling in RAID1. Mocht je dan je extra beschermingslaag nodig hebben dan is hij er, en normaal ben je klaar met het vervangen van een SSD, en heb je ook 0 downtime.
Een HDD slijt juist harder in gebruik dan een SSD. Een SSD van de generatie van 6 jaar geleden kun je 27 jaar lang continu beschrijven, dan is hij op. Een HDD haalt dat bijlange na niet. Een HDD bewaart gegevens daarentegen wel veel langer en is makkelijker te herstellen door de datarecoverybedrijven.
geen 27 jaar dacht ik, een maand of 3

https://nl.hardware.info/...9-eindconclusie-20-6-2013

Hier in lees ik als je de ssd dag in dag uit beschrijft de levens duur ca 3 maanden is.
Bij gemiddeld normaal gebruik loopt het als snel op tot een jaartje of 200 dat dan weer wel.
Een SSD kan tegenwoordig vele GB's aan schrijfacties aan, maar niet oneindig (is wel getest, maar heb zo geen link en soms ver boven de aangegeven fabrikantswaarden). Een HDD heeft daar geen of nauwelijks last van, maar qua betrouwbaarheid zit je dan vaker met de mechanische falen zoals leeskoppen, vibraties of temperatuurschommelingen die iets slopen... Maar áls die het blijft doen kan een HDD wel erg veel writes verwerken!

En dan is er nog het puntje dat (mogelijk) SSD's na vele jaren last (zouden kunnen?) hebben van data-retentie en dus blokken niet meer gelezen kunnen worden en dat valt ook onder betrouwbaarheid zou ik zeggen.

[Reactie gewijzigd door ToFast op 26 oktober 2016 16:37]

Een hdd slijt sowieso na verloop van tijd.. een ssd slijt de ste meer je hem gebruikt.
heb hier nog zoiets liggen... ongebruikt!!!
http://www.tomshardware.com/reviews/fujitsu,452.html :+
in verhouding met de huidige hardware wat zoal te krijgen is... mmja, beetje overbodig .. een beetje SSD zal al beter presteren en afgezien van de warmte welke dit toerental met zich meebrengt.... in 2002 was dit de snelste badass wat er te krijgen was, en deze zou eigenlijk in een serveropstelling zijn gekomen... maar helaas is deze in het vergeethoekje komen te liggen... mijn pech toen ;-)

[Reactie gewijzigd door speed112 op 26 oktober 2016 16:51]

Een nieuwsbericht op Tweakers en iets als access time en IO/s wordt niet eens vermeld?
Ik was altijd in de veronderstelling dat de kwetsbaarheid van de bewegende onderdelen ook de SSD opmars in de hand werkte, maar daar hoor ik in dit artikel niets over?
Bedrijfsdisks horen gewoon rustig in een serverrack te leven, dat schokt niet zo hard. In laptops daarintegen is een SSD duidelijk interessanter.
Ooit eens zo'n hoogtoerige schijf in een pc gehad jaren geleden... Net een vliegtuig bij het opstijgen als je de computer aanzette zo'n hoogfrequente toon :P
Harde schijven genieten in sommige situaties echter nog de voorkeur, aangezien ze niet slijten door lees- en schrijfacties en hun data vele jaren kunnen vasthouden.
OK, SSD zijn inmiddels wat goedkoper geworden, maar prijs/GB lijkt me toch niet onbelangrijk.
Ik ga nu de knuppel in het hoenderhok gooien; 15.000 rpm in een 2,5' case? Das vragen om troubles ... Dat zijn rpm's voor turbines in vliegtuigen ...
Dit soort schijven bestaan al jaren en zijn in mijn ervaring niet minder betrouwbaar dan hun 10.000 rpm varianten.
Volgens welke cijfers?
Porsche ontwikkelt een huifkar die 90km/uur haalt, was het eerst dat mij te binnenschoot.
Er zijn toch reeds ssd's met >1TB en snellere specs en een hogere betrouwbaarheid? :/
SSD's met een vergelijkbare betrouwbaarheid en ondersteuning zijn schreeuwend duur. In een serveromgeving wil je echt geen consumentenspul, zie ook de discussie verder naar boven. Wij hebben een paar klanten die heel bewust voor SSD's hebben gekozen in hun servers in ons datacenter, maar de meesten kiezen gewoon voor 15K 600 of 300 GB schijven. Dat is al gauw een factor 4 goedkoper.
De keus is nu mog gebaseerd op prijs, maar dat verandert snel, los van prijs, er zijn enterprise ssd's die beter presteren en een hogere betrouwbaatheid hebben dan traditionele harde schijven(mbtf)
De schijven beschikken over platters van 300GB. Ze kunnen aangesloten worden door middel van een 12Gbit/s-sas-aansluiting. Deze verbindingen worden bijna uitsluitend in datacentra gebruikt en komen niet voor in standaard consumentencomputers.

Mooi mag ik mijn personal computer met SAS nog steeds Uniek noemen :)

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True