Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

WD's HGST is de levering van de Ultrastar C10K1800 gestart. Volgens het bedrijf gaat het om de 2,5"-hdd die op 10.000rpm kan roteren met de hoogste capaciteit tot nu toe. Er is ook een speciale cachingmethode toegepast voor de enterprise-schijven.

De maximale opslagcapaciteit van de vorige Ultrastar-serie met 10K-rotatiesnelheid bedroeg 1,2TB, maar HGST heeft dit bij de Ultrastar C10K1800-serie weten op te schroeven tot 1,8TB. De fabrikant, onderdeel van WD, komt ook met modellen met capaciteiten van 420GB, 600GB en 900GB. De platters zijn in een doorsnee 2,5"-behuizing met dikte van 15mm gemonteerd.

De hoeveelheid cache is ten opzichte van de voorgaande generatie niet veranderd en bedraagt nog steeds 128MB. HGST maakt daarnaast gebruik van zijn media cache architecture. Volgens de fabrikant gaat het om een op de disk gebaseerde non-volatiele cachetechnologie, die tot tweeënhalf keer zo snelle random schrijfacties mogelijk zou maken. De sequentiële snelheden zouden tot 23 procent hoger liggen dan bij de vorige generatie. De fabrikant geeft echter geen details over zijn cache-methode.

De drives beschikken over een 12Gbps-sas-interface en maken gebruik van Advanced Format. Dit houdt in dat de sectoren 4096 bytes groot zijn, terwijl de schijf 512 byte-sectoren presenteert aan het besturingssysteem. Hierdoor kunnen er geen problemen optreden met compatibiliteit met verouderde besturingssystemen en applicaties. Tenslotte claimt het bedrijf het verbruik verbeterd te hebben en de beveiligingsmogelijkheden vergroot te hebben. De drives zijn inmiddels aan systeembouwers geleverd en zullen weldra beschikbaar komen.

HGST Ultrastar C10K1800.#sthash.wFinhNup.dpuf

Moderatie-faq Wijzig weergave

Reacties (108)

Het is niet lullig bedoeld, ik kom hier voor een rede om mijn nieuws te lezen; maar kan WD en HGST niet even op een normale manier voluit geschreven te worden (Western Diginal; Hitachi Global Storage Technologies).
Ben het helemaal met je eens. Eerlijk gezegd wist ik zelf niet eens waar HGST voor stond. Dus bij deze meteen bedankt voor de betekenis.
aan de andere kant spreekt men ook over HP en AMD zonder de namen volledig te melden, om maar even 2 voorbeelden te noemen.
Western Digital en Hitachi Global Storage Technologies schrijven het zelf ook niet voluit op hun producten, waarom zou Tweakers dit dan wel moeten doen? Zoek even op "C10K1800" op Google en er is geen enkele website die de volledige namen gebruikt, simpelweg omdat het teveel ruimte in beslag neemt, niet lekker leest en niets toevoegt.

Ik denk dat de meeste Tweakers niet eens weten dat HGST het oude Hitachi is en uiteindelijk boeit het ook niet: het is nu onderdeel van Western Digital en dus een ander bedrijf.

De ICT staat bol van de afkortingen, met een reden: de meeste namen en begrippen zijn een dusdanige mond vol dat je na het volledig uitspreken ervan alweer vergeten bent wat je ook alweer wilde zeggen. Daarom heeft men dus afkortingen uitgevonden: versnelde communicatie.

[Reactie gewijzigd door TimMer op 9 juli 2014 20:35]

Maak er dan minstens WDC van, aangezien dat ook hun URL is alsmede hun notering op de beurs.

En HGST is gewoon de officiele huidige naamgeving; de omvorming heeft plaatsgevonden nadat Western Digital en de storage-afdeling van Hitachi werd afgekocht. Hitachi Global Storage Technologies was de naamgeving nadat IBM en Hitachi in 2003 gingen samenwerken.

Aangezien weinig mensen IBM kennen als "producent" van harde schijven en Hitachi Global Storage Technologies ook nooit echt hele hoge ogen heeft gegooid in de consumenten-segment van de markt, vind ik het niet meer dan logisch dat HGST wel als vernieuwd merk genoemd kan worden.
WDC staat voor Western Digital Corporation, dat laatste woord erbij vermelden is overbodig.
Bij IBM hebben we het toch ook niet over International Business Machines Corporation?
En TB snap je wel, zelfs op de momenten dat het TiB zou moeten zijn ? Of GB of mm ?
Nee, TB is goed, dat is namelijk wat harddrive makers hanteren. De 10-machten, en een SI eenheid. TiB is een 2-macht wat je OS gebruikt,
HGST zegt mij echt niks. Hitachi was volledig duidelijk voor mij.
Ik bedoelde niet dat het nu TiB moest zijn hoor. Afkortingen in het algemeen. Uit de zin kun je opmaken dat HGST kennelijk schijven maakt. Bing kan je zo vertellen wat of wie het dan is.

Ze heten geen Hitachi meer, jammer genoeg.
Hmm, klinkt mooi, maar het zal wel weer heel duur zijn... Ik vraag me trouwens ook af hoe het met warmte zit. Een schijf die zo snel draait moet bijna wel veel hitte genereren...
Dit zijn Enterprise-schijven en kunnen niet zonder behoorlijke koeling worden gebruikt. Zou je hem in je laptop zetten, dan is hij binnen no-time stuk omdat hij zichzelf kapot verwarmt.

Hetzelfde geldt voor consumentenschijven zoals de WD Velociraptor. Dit is eveneens een 10k rpm schijf met 2,5" form factor. Echter wordt deze in een 3,5" behuizing geleverd met koelvinnen voor warmtedissipatie. Zonder deze 'caddy' kun je de schijf alleen kopen via Enterprise-kanalen en niet via Retail-kanalen.

10.000rpm klinkt consumenten vooral leuk in de oren; omdat die denken meer is beter. De grap is dat hoge rpm schijven voor consumenten vaak erg teleurstellend presteren. Zo zijn SSDs honderd tot duizend keer (!) sneller qua Random IOps performance dan deze peperdure 10.000rpm schijf. En ook een 5400rpm WD Green schijf kan prima meekomen qua sequential I/O performance.

Hoge rpm schijven zijn een nichemarkt; er is nog maar in sommige situaties behoefte aan dit soort producten. SSDs zijn namelijk veelal een veel beter alternatief. Je kunt ťťn SSD het laten opnemen tegen een batterij aan dit soort peperdure disks.

Voor mechanische schijven is laag rpm nog wel interessant; voor massaopslag. Maar ook op dit vlak zullen SSDs binnenkort hun heerschappij laten gelden. De prijs per gigabyte zakt namelijk veel sneller dan die van hardeschijven. En het hoeft echt niet 1:1 te zijn voordat men naar SSDs overstapt. Bij een dubbele prijs per gigabyte (1:2) kan het al lonend zijn vanwege de vele andere voordelen die SSDs bieden boven mechanische opslag. Nu zitten we nog met een verschil van 1:8 tussen mechanische opslag en solid state storage.
Sowieso een Velociraptor of deze HGST in je laptop zetten is best een uitdaging, ik denk dat je best wel een bult in de onderkant krijgt gezien deze dubbel zo dik zijn als een normale HDD.
ik denk eerlijk gezegd dat de 900GB variant de normale grootte van 9,5 mm kan hanteren. Echter worden ze dan nog steeds behoorlijk warm voor een HDD als je deze in een laptop plaatst.
In de enterprisemarkt heerst de 2.5" HDD anders nog steeds. Voor meer snelheid wordt er multitiering toegepast met SSD's als cache op hogere tier.

Voor zeer specifieke zaken (VDI, enorme databases) wordt vaak flash-only (SSD) storage gebruikt.
Eerder richting 1:15 a 1:20 nog.
er bestaan al schijven met een toerental van 15.000, ook 2,5 inch modellen, dus zon bijzonder nieuws vind ik dit niet. enigste verschil is dat de hoogste capaciteit van een 10.000 toerenmodel 2,5 inch HDD tot nu toe maximaal 1,2TB was.
15000 toeren gaat er uit. Omdat ze lage capaciteiten hebben zijn ze niet concurrerend te houden tov SSD's. Fabrikanten blijven ze op beperkte schaal produceren zolang conservatieve gebruikers eraan vast houden, maar ze steken geen cent meer in nieuwe modellen.
Misschien leuk om weten is dat in de tijd van U320 SCSI (en daarvoor), het opstarten van een schijf met hoog toerental vrij veel stroom vergde. Om te verhinderen dat er bij het opstarten van de computer te veel stroom gevraagd zou worden, kon je in de SCSI controllers instellen dat de schijf pas begon te draaien nadat de controller het start commando stuurde. En dan kon je de controller instellen om het startcommando in volgorde van SCSI-id's te sturen. En dan beginnen de schijven 1 voor 1 op te spinnen. (er waren ook andere mechanismen mogelijk om te verhinderen dat ze allemaal tegelijk begonnen draaien. :)

PS: ik weet niet hoe het nu zit, met SAS schijven.

[Reactie gewijzigd door V_J op 10 juli 2014 10:00]

Staggered spin-up wordt nog altijd gedaan door Raid controllers. En dat is maar goed ook stroompieken mollen je hardware.
Mooi spul, ik zag ook dat HGST de enige is met 6 TB 3.5" drives. Deze zijn gevuld met helium om zo turbulentie te verminderen.

Je vraagt je alleen af waarom je nog zo zou innoveren en ontwikkelen op mechanische schijven met de sterke opkomst van SSD drives. Blijkbaar denken ze bij WD/HGST dat de mechanische schijf voorlopig toch wel zal blijven voor de wat grootschaligere opslag.
Zolang de prijs GB/§ bij een SSD nog steeds ver van de HDD GB/§ dan word er nog wel voor ontwikkeld. Ik zie zelf wel een trent in het langzamer groter worden van de opslag capaciteit. De wet van Moore (welke eigenlijk voor cpu's is bedoeld) is bij de HDD's niet meer aanwezig.
De Wet van Moore gaat over aantallen transistoren per oppervlakte, niet over de snelheid van chips, laat staan over harde schijven...

Ja, de grootte van HDDs heeft een tijdlang een zeer snelle groei laten zien (of, en zo ja, hoe lang, dat exponentiŽle groei is geweest zou ik na moeten zoeken), maar kunnen we alsjeblieft stoppen met overal meteen "Wet van Moore" te roepen als iets snel groeit?

Het is wachten op de eerste persoon die na gaat tellen hoe vaak er, volkomen onterecht, "Wet van Moore" wordt geroepen, dat aantal uitzet tegen de tijd en daar ook een zeer snelle groei in ontdekt...

Om toch nog een beetje on-topic te zijn:
Je moet niet alleen vergelijken met SSDs; er lopen verschillende onderzoeken naar technologie die mogelijk gebruikt kan worden voor "universeel" geheugen (non-volatile, zo vaak herschrijfbaar en met de toegangstijd van RAM, maar met de capaciteit (en, als het even kan, de prijs per capaciteit) van HHDs). Als dat lukt, dan zijn al je investeringen in het verder verbeteren van HDDs ook opeens waardeloos.
Als dat lukt, dan zijn al je investeringen in het verder verbeteren van HDDs ook opeens waardeloos.
En datzelfde geldt voor je investeringen in het verbeteren van SSD's...
Daarnaast is universal memory nog steeds in een onderzoeksfase, er is zelfs nog geen prototype, en het gaat dus nog heel lang duren voor het werkelijk in productie is, en op een prijsniveau interrestant genoeg om een bedreiging te zijn voor HDD's
SSD's zijn snel, maar duur. Magnetische tape heeft een onwaarschijnlijke hoge opslagcapaciteit voor weinig geld, maar leent zich niet tot data die vaak worden uitgelezen.

Daartussen ligt nog een enorm marktsegment: de opslag van data die regelmatig wordt geconsulteerd maar waar snelheid niet essentieel is. En dat soort data heeft elk bedrijf in overvloed.
Magnetische tape heeft een onwaarschijnlijke hoge opslagcapaciteit voor weinig geld, maar leent zich niet tot data die vaak worden uitgelezen.
De meeste magnetische tape's dat ik zie online, zijn qua prijs net zo duur, als gewoon een puur HD te kopen.

Vaak lijken ze 50% goedkoper te zijn, dan een HD van vergelijkbare grote ( voorbeeld: 3TB vs 3TB ), maar in praktijk is die 3TB bij tapes "met compressie", en is de echte capaciteit 1.5TB.

Wanneer je dan de prijs bekijkt van die zelfde tapes * 2 ... dan zijn ze langs geen kanten goedkoop en is het prijs verschil minimaal tegenover gewoon puur dezelfde capaciteit in een HD te kopen.

Ik wou dat het anders was, want het zou interessant zijn dat ik alle data kan voorzien van een backup op deze manier, maar kwa prijs ben je gewoon beter af met een serie hd's. En een les dat ik al lang geleden geleerd hebt: Kwa HD's valt het vaak nog mee ivm kwaliteit zelf als je goedkoop gaat ( zeker aangezien er nu bijna geen concurrentie is ), maar op gebied van tapes = goedkoop gaan vaak vragen om je data te verliezen.
Als jij 1,5TB enterprise grade HDD's kan kopen voor nog geen 20 euro, vertel mij dan ook eens waar.

LTO-5 tapes waar jij het over hebt zijn namelijk particulier ~25 euro.
Waar haal je die 20 euro vandaan?

Ik zei 50% goedkoper dan een 3TB Harddisk ( maar de tapes geven je maar 1.5TB ).

3TB HD's zijn op dit moment nog altijd rond de 70 a 80§ minimaal. Gevolg is ... dat taps niet goedkoper zijn dan HD's als je capaciteit vs capaciteit vergelijkt.
80 euro enterprise HDDs van 1,5tb? Hah, consumenten != enterprise.
Consumenten HD's ... en Enterprise HD's van dezelfde type ... Sorry, maar het verschil tussen beide is vaak minimaal tot niet bestaand. Het is niet alsof WD aparte fabrieken heeft voor de Red Label HD's tegenover de "Consumenten" HD's.

Het beste verschil is, dat men de consumenten HD's nu met opzet durft handicappen door de Firmware meer "gevoelig" te maken bij Raid setup, zoals die toestanden dat bepaalde WD's in Raid Setups, uit de raid vallen ( puur door de firmware ). En ja, je hebt meer garantie en iets langere test procedure.

Maar welke bedrijf gaat zomaar HD's in hun servers proppen zonder hun eigen stress testen te draaien? Ik steek zonder problemen na eigen testen te draaien consumenten HD's in een server omgeving.

Vergeet niet batjes, we spreken juist over HD's vs Tapes, niet over SAS / 10.000 / 15.000rpm drives. DAT zijn echte enterprise HD's, niet die herverpakte HD's met een andere label, en 50% hogere prijskaartje.
Blijkbaar denken ze bij WD/HGST dat de mechanische schijf voorlopig toch wel zal blijven voor de wat grootschaligere opslag.
Jij niet dan? SSD's zijn leuk voor wanneer snelheid het belangrijkste is. Maar qua grootte en prijs zijn HDD's veel beter voor opslag.
In de toekomst zal dat waarschijnlijk wel anders liggen, maar momenteel zijn HDD's gewoon voordeliger.

[Reactie gewijzigd door Mavamaarten op 9 juli 2014 20:43]

Precies, Als je een SSD koopt met bijvoorbeeld 2 tb opslag ben je minstens 1700 euro kwijt.
Ik denk niet dat je dat zo snel zal kopen. HDD's blijven dus nog wel even de markt leiden qua grote van schijven die de consument zal aanschaffen.
Je kan ook gewoon 2 x Crucial M550 1TB kopen (https://www.4launch.nl/shop/#p-4-productid-348440). Ben je maar ~850 Euro kwijt.
"Maar" 850 euro? Daar heb je een 780 ti voor met toch zeker een 2 tb hdd
Het is inderdaad "maar" aangezien server hardware een redelijke prijsje hebben. Een 800 gb dc3700 kost al gauw 1600 euro. Deze is voor enterprise applicaties. De crucial m550 is niet gemaakt voor servers, en ze hebben minder write cycles en de betrouwbaarheid is minder. Uiteraard betekend dat ook dat de compatibiliteit slecht(er) is. Alles heeft z'n voordelen en nadelen. Maar mechanische schijf blijft nog wel een tijdje bestaan, over een paar jaar kost ssd waarschijnlijk net zo duur als een harddisk met gelijke grote?, persoonlijk hoop ik dat het snel komt.
ik wed dat dat de komende 5 tot 10 jaar nog niet gaat gebeuren, tenzei het gouden lythografie-ei wordt uitgevonden. en er ergens een mega silicium mijn wordt gevonden die een gemiddelde steenkool mijn in rusland doet verbleken.
Haha, het duurt wel een tijdje maar het is niet dat ze het niet kunnen, fabrieken maken kost veel geld daarom kost het veel geld (meer dan nodig is). Wanneer ze op het markt komen. Plus bedrijven willen geld verdienen dus houden ze het artificiel hoog.
Ik geef het nog 3-4 jaar tijd totdat mechanische schijven obsolete zijn.
of een 5e hands golfje 3.

ineens een videokaart erbij doen slaat nergens op, zeg dan dat je voor dat geld gemakkelijk 2x 4TB of zo kan kopen.
pricewatch: HGST Deskstar 7K4000, 4TB
zijn dan wel SATA, 3,5" en slechts 7k2rpm, maar aangezien ik toch een overdaad aan deze SATA poortjes op mn mobo heb zitten.
Neem je favo linux distro en zwengel ZFS aan de gang. In raid-Z1 heb je 16TB bruikbare ruimte en kan er nog eens een schijfje stuk gaan. 8)7
Gaat hier om enterprise schijven met een veel hogere mbtf.
who cares met dat soort bedragen kun je best wat spare parts op de plank gooien, en de vraag was immers waarom er geen ssds worden ingezet, niet waarom je deze schijven zou kopen...
Arecaatje met 16 poorten en raid 6 werkt stuk lekkerder..
;)

(Ook geen linux nodig)

[Reactie gewijzigd door flippy.nl op 9 juli 2014 23:44]

Dan weet jij niet wat ZFS is en kan doen. Maakt practische elke hardware raid kaart overbodig.
dat weet ik wel maar ZFS is te beperkend in het toevoegen van losse schijven en je opslag zit meteen vast aan je OS, met hardware raid ben je vrij in je keuze van OS en je hebt meer vrijheid en mogelijkheden in het upgraden van je array's.
Het is juist heel simpel om disks toe te voegen of je array te upgraden met ZFS http://docs.oracle.com/cd...819-5461/gazgw/index.html

persoonlijk vind ik data-integriteit een stuk belangrijker dan op welk OS mijn nas draait, tenzij je alleen windows kent natuurlijk, dan is ZFS een no-go
Voeg eens een enkele disk toe aan een Z2.... :z

En ik draai geen nas, ik heb het gewoon in mijn pc zitten. Losse nas is dus overbodig. ;)
Niemand stopt 24 TB in zijn desktop machine. Daar maak je een fileserver voor. Wat maakt het uit welk OS een fileserver draait zolang het zijn werk maar goed voor en betrouwbaar is? Desnoods kun je een 10gbit netwerk proberen op te zetten dan kan er rond de 1000MB/s gelezen en geschreven worden (mocht je schijf configuratie dat ook aan kunnen)

Bovendien spaar je ook nog eens geld voor een dure raid kaart uit terwijl het toevoegen van schijven juist veel makkelijker is met ZFS.

Nee, ik heb jaren met Areca kaarten gewerkt maar de proc's zijn nu zo snel dat er geen enkele reden is om in een dedicated fileserver nog een raid kaart te stoppen nu dat ZFS er is en steeds beter word ondersteunt.
waarom zou je geen 24TB (of meer) in je desktop stoppen? ik heb juist geen zin om het halve huis vol te hebben staan met een internet pc, game pc, HTPC, NAS en whatever je nog kan bedenken. er is absoluut geen reden om het niet in je "dagelijkse" systeem te stoppen, helemaal als je opslag onafhankelijk van je OS is (dus hardware raid).
wat was het budget ook alweer? ;)

om het dan nog niet te hebben over de andere voordelen van ZFS boven hardware raid
http://www.inprove.nl/zfs-voordelen

[Reactie gewijzigd door delta9vdp op 10 juli 2014 00:04]

Die areca had ik al liggen, hoef ie niet bij de prijs op te tellen. }:O
daar zijn de meningen over verdeeld, ik ben persoonlijk zelf overgestapt op 8x4tb raid-z2 op mijn favoriete linux distro debian, geen hardware raidcontroller nodig, gewoon op je moederbord prikken (in mijn geval wel op een hba wegens de hoeveelheid disks maar is bij minder disks niet nodig) dus nog eens goedkoper ook :9~
8 tb is vrij over kill. Kun je beter de beste graphics hebben de komende jaren met genoeg opslag.
Nee hoor, ik zit nu op 24TB aan opslag in mijn systeem met 2TB schijven (allemaal hitachi) met raid 6. Ik hou de prijzen goed in de gaten zodat ik kan overstappen naar 5 of 6TB schijven en mijn opslag richting de 50TB kan krijgen.
Wat heeft een videokaart met een HDD te maken zo opeens?
Gaat erover dat je beter je geld dan uit kan geven aan een hdd met een goede gpu dan aan 2 ssd's van 1tb per stuk
Je hebt niks aan een GPU in een normaal server tenzij het een cloud met grafische calculaties is. Uiteraad kan het ook gebruikt worden in workstations.

Als hij over een desktop zit te praten dan wordt het off topic, aangezien ze daarvoor niet bedoeld zijn.

Er zijn redenen waarom iemand 2x 1tb ssd wilt hebben, om het te vervangen door een videokaart en hdd slaat nergens op.
Had het inderdaad een beetje off topic over een desktop build ;) inplaays van een nas of server waar het weer wel handig is
Inderdaad. "Maar 850 euro".. Dat is niet echt de moeite waard ben ik bang. Sowieso kan je er 2 AMD r9 290 videokaarten van kopen.
Voor minder dan dat kocht ik een NAS met effectief 8TB opslag. :p
nou, ik vindt 850euro toch geen kattepis voor 2TB... Zeker omdat het weinig toegevoegde waarde heeft boven een fatsoenlijke HDD.. misschien als je echt met raw 4K video editing bezig bent ofzo..
Iets met appels / peren.... Cucial M550 is leuke schijf, begrijp me niet verkeerd, maar niet te vergelijken met een business schijf.

Dit soort schijven (De HGST's) komen in iSCSI en DAS systemen voor, denk aan een MD3220i van Dell, 24 van deze schoonheden op een rij. Levert je met een Raid5 + hotspare to een opslag op van ~39.6TB, met een gemiddelde snelheid van 950MB/s. Dat zijn leuke (enterprise) systemen voor "bang for buck" scenario's, welke je vaak ziet als storage bak, of backup to disk opslag. Ook zal dit een schijf zijn die menig bedrijf voor een eigen cloud zou -kunnen- gebruiken.

Dit zijn schijven die zijn ontworpen met een veel hogere betrouwbaarheid, al zegt dat niet veel, ze moeten wel minimaal 3 jaar mee gaan, met 24x7 draaien.

Meeste 2.5" 10k schijven die ik heb gezien (ook 15k) gaan overigens 5+ jaar mee zonder enig probleem (24x7)
Een Raid 5 array van 24 schijven, hoe lang duurt die array rebuild ?
4 tot 6 uur is mijn ervaring, al is het met de nieuwere arrays een stuk sneller.... - doe 't met regelmaat.... Vandaag zelfs een array met 48 disks...
Overigens ook een Voordeel van een hot spare. Je MTTR word erg verlaagd. :+

[Reactie gewijzigd door Mopperman op 10 juli 2014 17:14]

Welke raid controllers gebruik je dan eigenlijk want dat is een behoorlijk snelle parity berekening (Perc ?).
Dubbele SAS 6GB intern in de MD3220, voor een enkele MD1200/1220 de H710 1GB cache meestal, of SAS6/e
Ik begrijp heel goed dat mechanische schijven nog lang niet weg gaan vanwege de grotere opslag. Maar waarom zou je inzetten op snelle mechanische schijven, terwijl die niche juist zo in beslag wordt genomen door SSDs?
Dat harde schijven gemaakt zijn voor veel opslag ipv snelle opslag, wil niet zeggen dat extra snelheid niet welkom is, toch?
http://www.anandtech.com/show/2739
Where four SAS disks could read almost as fast as eight SATA disks, once we mix read and writes the SAS disks are slightly slower than the SATA disks. That is not very surprising: both the SAS disks and SATA disks use four platters. That means that the WD 1TB disk has a much higher data density, which negates the higher RPM of the SAS drive. Since the accesses are still sequential, areal density wins out.

As we have stated before, the SSD are especially attractive for mail and OLTP database servers. The real test consists mostly of random writes and reads. Typically, there are about twice as many reads as writes, so we used a 66% random read and 33% random write scenario to mimic OLTP database performance.

[Reactie gewijzigd door Mopperman op 10 juli 2014 17:22]

Er is gewoon enorm veel vraag naar bulkopslag. Snelheid boeit niet zo zeer, prijs per tb des te meer. Bijv. Youtube... al die filmpjes op SSD opslaan, waarvan een groot deel zelden geraadpleegd wordt, zou waanzin zijn.
Omdat Enterprise Storage Arrays "Dynamic Storage Tearing" gebruiken. B.v. SSD <-> SAS 10K <-> SATA. Afhankelijk van de hoeveelheid access van read en of write blocks worden de blokken dan op de juiste disken geplaatst (page tearing). Het meeste gelezen block naar SSD, een incidenteel accessed block naar SATA enz.
Wow, da's wel netjes. Steek er zo 88 in een 4U storage chasis en je hebt 158 TB aan raw storage. Dat lijkt me interessant om high density racks te maken.
eh nee. Ten eerste is 1.8T helemaal niet zo bijzonder, er bestaan schijven met meer opslag mogelijkheden en daarbij boeit het rpm helemaal niet met mass storage. Dus als je zo'n "oplossing" wilt pak je totaal andere dingen..
In deze form factor is 1.8TB wel de nieuwe top. Voor sommige workloads (bv. grote working set waardoor een SSD cache laag onbetaalbaar is) heb je liever 88 2,5" 10k RPM spindles dan 24 3,5" 7200rpm spindles die bovendien minder opslagruimte bieden. Ik zie dus zeker wel een markt voor deze schijven.
Laat me raden, je hebt nog nooit zo een project gedaan? Heb je ooit als eens bekeken, wat voor een toestand je krijgt ivm SATA/SAS aansluitingen?

88 connectors ...

a) Als je backplane's gebruikt, welke dan je data transfer gaan verhinderen, want die zelfde data moet bij een 4 of 6 op 1 over die 1 kabel gaan.

b) Als je echt de performance wilt behouden, iedere drive met zijn eigen kabel voorzien. M.a.w, je moet 88 aansluitingen hebben.

Dan mag je ook eens denken aan hoeveel raid kaarten je moet steken in je systeem. Voor een 24 poort versie ben je al snel $1000+ euro kwijt.

Er zijn maar weinig bedrijven dat dit budget gaan voorzien, voor een sneller access tijd tot die storage data. Zeker aangezien de transfer tijd nu ook niet zo spectaculaire verschilt met de 7200rpm drives. Je moet het artikel lezen, die 2.5* sneller, komt omdat men er een cache voorzien in heeft.

Maar je kan gerust hetzelfde behalen, met 7200rpm 3.5" drives, en gewoon je server voorzien met 128GB, 256GB of meer ECC ram, welke dient als je cache. Simpeler en goedkoper...

Nog nooit opgevallen, dat sommige bestanden bij bijvoorbeeld nieuwsserver providers, snel downloaden voor recente bestanden, maar trager zijn, des te ouder de bestanden zijn. Voor de simpele reden dat des te ouder = minder cached = meer kans dat hem het moet van de fysieke HD moet afhalen.
a) Als je een backplane gebruikt, heb je een normale sata aanslutingen(in dit geval 88 aanslutingen) of sas connectoren(88 / 4 = 22 aansluitingen), wanneer de sas aansluiting wordt gebruikt betekend dat niet dat de snelheid verkleind wordt, deze blijft hetzelfde als 1 op 1 aansluiting.

2) Dat hebben ze ook, een backplane deelt geen signaal met 1 sata kabel op meerdere opslag apparaten. Een backplane is gewoon een aansluit punt van de harddisk/ssd, en eventueel een omvormer zoals een sas kabel -> 4x sata kabel doet.

Voor een 24 poort kost inderdaad rond of meer dan 1000 euro. Maar daarom bestaan er ook sas expanders. Deze handige apparaten kan de aantal poorten vergroten. Dat betekend wel dat je een bottleneck kan krijgen maar dat is geen probleem met harde schijven aangezien ze bij lange na niet de volle bus snelheid gebruiken. ssd's zou een ander verhaal zijn uiteraard!

Veel bedrijven zouden inderdaad weinig budget voor geven, maar voordelen zijn er wel met name kleine bestanden, en/of een MYSQL database.
een 2.5 inch wordt inderdaad voorzien van een cache, maar dit wordt ook gedaan bij normale 3.5 inch schijven. De snelheid komt daar niet door, een 2.5" plaat is kleiner dus kan hij sneller data opvangen, je kan het zien zoals een auto met kleine banden die kunnen sneller optrekken, maar dit gaat ten kosten van de topsnelheid.

Geheugen gebruiken als cache is leuk en aardig, maar ik zou liever snellere schijven hebben en de I/O toch sneller hebben dan volledig te vertrouwen op caches. Het zou immers ook beter zijn om de geheugen te reserveren voor andere caches buiten normale file caches om. Bijvoorbeeld apache, mysql, APC cache, varnish, nginx en bijvoorbeeld een temp binnen de geheugen.
Als je een cache wilt gebruiken voor bestanden kan je een ssd's gebruiken met software voor caching, of een caching feature van een raid controller (maxcache, cachecade), aangezien deze weer goedkoper is dan geheugen en je die geheugen nog beter kan gebruiken voor andere applicaties.
---
Het is wel een mooie voorbeeld, maar dit hoeft niet geheel waar te zijn. een trage download kan meerdere redenen hebben, slechte connectie, volle lijn, limitatie harddisk, of een slecht functionerend server/harddisk.

Er worden zo veel bestanden gedownload, en de bestand grote is vaak 100+ mb, er kunnen niet veel in de geheugen gaan, en op een ssd's schrijven is vaak onmogelijk door de grote aantal writes. Dus is het makkelijk om tot conclusie te komen dat bijna geen caching gebruikt wordt.

De snelheid is meestal gewoon geluk of pech hebben, zelf heb ik geen problemen hiermee gehad, maar ik heb wel vaker gehad dat jammer genoeg dat ze niet compleet aankwam, dus dan heb je een incompleet bestanden, waarmee je niks kan. Van daar uit kan je wel vanuit gaan dat ze op meerdere servers de bestanden('parts') verdeeld hebben zodat de belading verdeeld kan worden. Maar dat geeft ook risico's aangezien per part er een kans is dat deze verloren gaat bij een defect harde schijf. aangezien raid een no-go is bij een massieve niet belangrijke opslag.

[Reactie gewijzigd door ilaurensnl op 10 juli 2014 02:44]

De reden dat deze schijven een 12Gb SAS interface hebben is niet omdat ze die snelheid als individuele schijf halen, maar omdat je ze dan lekker met velen aan een SAS expander kunt hangen en dus aan een of twee controllers (voor redundancy) genoeg hebt. Het klinkt alsof je zelf nog nooit zo'n project hebt gedaan ;)

[Reactie gewijzigd door Bigs op 10 juli 2014 08:25]

Nog nooit opgevallen, dat sommige bestanden bij bijvoorbeeld nieuwsserver providers, snel downloaden voor recente bestanden, maar trager zijn, des te ouder de bestanden zijn. Voor de simpele reden dat des te ouder = minder cached = meer kans dat hem het moet van de fysieke HD moet afhalen.
@Bigs: Jij beschikt over een verbinding om dit te kunnen waarnemen ?

[Reactie gewijzigd door goarilla op 10 juli 2014 11:09]

Dit is de 1e 10k RPM SAS schijf in 2.5 inch met een capaciteit van 1.8 TB. Hiervoor was alleen 1.2 TB beschikbaar, volgens mij ook van HGST. Andere fabrikanten leveren tot 900 GB.

Dit is dus wel degelijk bijzonder.
Met 84 disks van 3TB in 28U heb je al 252TB raw storage, netto 126TB.
Zijn jammer genoeg maar 7k5 rpm disks.

Ben wel believed naar die 512 emulate, of het geen nadelige effecten zal hebben.
Deze schijven sijn wel super als 2Tier storage na je 1Tier ssd's, maar ze zulen wel niet erg goedkoop worden, 900 euro lijkt me redelijk

Hoe kom je erbij 250TB raw 125TBnetto wordt ? Tenzij je raid1 maar dat lijkt me niet echt logisch, Raid6 lijkt me rdelijker

[Reactie gewijzigd door klakkie.57th op 9 juli 2014 21:26]

Technisch gezien is replicatie bij GlusterFS idd een RAID1 opzet. Wat je er zelf nog onder hangt moet je zelf weten.
Dit zal zo'n beetje tussen de 600 en 700 euro per schijf gaan kosten schat ik; hoeveel mensen ken jij die meer dan 50.000 euro voor een storagerack neerleggen? Of uberhaupt 158TB aan opslag nodig hebben?

Er zijn al bar weinig bedrijven die zoveel opslag nodig hebben, behalve datacenters en grote hostingbedrijven en die kijken nog veel kritischer naar cost/performance ratio, waarbij deze schijven minimaal het eerste halfjaar zeer slecht uit de bus gaan komen, totdat er wat concurrentie bij gaat komen en de prijs gaat dalen.
Bar weinig bedrijven? Vergeet niet dat, afhankelijk van de gebruikte technologieen om de bruto storage aan te spreken, er in sommige gevallen maar 50% aan netto storage overblijft.

79TB is helemaal niet veel voor een gemiddeld bedrijf. Zeker niet als het bedrijf ook gebruik wil maken van snapshots / shadow copies / backup2disk / thin-provisioning etc.

Bedenk maar eens hoeveel 79TB is? Inderdaad, omgerekend 160 gewone laptops van Dell of HP met elk een 500GB schijfje erin waar de gewone gebruiker/medewerker zijn/haar werk op doet. Ik zeg niet dat een bedrijf van 160 mensen in dienst dus per definitie 79TB hoeft aan te schaffen maar het getal is kleiner dan je vermoed, in dagelijks gebruik.
Niet die hele 500GB hoeft gebackupped te worden; daarnaast: ik ken geen enkel bedrijf wat al zijn laptops backupt.

En hoe wil jij slechts 50% netto storage overlaten? RAID1? Niet op deze schaalgrootte.

Alleen cruciale data wordt gebackupped; data die onder geen beding verloren mag gaan. Een OS + applicaties is niet zo interessant; dat is zo opnieuw geÔnstalleerd. Ook wordt er meer en meer gebruik gemaakt van cloudbackup als gevolg van decentralisatie, mobiel werken en dikkere internetpijpen.

Ik heb bij meerdere multinationals gewerkt, steeds redelijk hoog in de ICT-boom, en geen van allen kwam ook maar in de buurt van 80TB opslagbenodigdheid. Zelf ben ik tegenwoordig CIO en rapporteer ik rechtstreeks aan de CEO: die zou nooit, maar dan ook echt nooit akkoord gaan met dusdanig inefficiŽnte scenario's zoals jij ze schetst, zeker niet tegen de enorme bedragen waar het hier over gaat.

Het is een nichemarkt, alleen voor de supergrote spelers. En vooral die kijken naar cost/performance ratio, zoals ik al zei, aangezien 100 euro extra op een schijf op die schaalgrootte een enorme extra kostenpost is.
"De platters zijn in een doorsneel 2,5"-behuizing met dikte van 15mm gemonteerd."

Een behuizing van 15 mm dik is beslist geen doorsnee. DIe gaat in vrijwel geen enkele laptop passen. Een standaard 2.5" schijf is 9.5mm dik, nieuwere vaak 7mm.
Dit zijn dan ook server schijven, en daar is 15mm dus wel standaard. Oh en zelfs als je deze schijven in een laptop weet te passen heb je nog steeds niet de benodigde SAS interface :-)
Een laptop heeft ook geen sas interface, dit is een schijf voor servers of storage oplossingen. :)

[Reactie gewijzigd door the_stickie op 9 juli 2014 20:52]

In verleden veel gebruik gemaakt van HGST schijven(lees Western Digital en Hitachi samenwerking) en altijd tevreden over geweest.
Customer service is TOP en paar keer zonder te veel vragen gebruik van gemaakt.
Defecte schijven werden binnen een week vervangen.

Maar ik denk dat dit soort schijven nu nog bestaansrecht hebben omdat SSD's in vergelijking nog mainstream gezien best nieuw zijn (eurocent per gb vergelijkend)en bedrijven wat voorzichtiger zijn, maar dat er langzamerhand geen reden meer zal zijn om 15K en 10K schijven te maken voor de servermarkt.
ik vind dat dit soort harde schijven hebben nog steeds een hogere betrouwbaarheid ten opzichte van SSD's (wear vd. geheugencellen), wat niet heel onbelangrijk is voor bedrijfsservers die 24/7 draaien .
Hoe kom je daar nou bij? Uitval van draaiende schijven ligt duidelijk even stuk hoger dan bij ssd's, domweg omdat daar geen bewegende onderdelen in zitten.
Het probleem met ssd's van beperkte levensduur vanwege cell wear bij schrijven is inmiddels ook wel overkomen hoor, neem bv de Intel s3700: 5 jaar garantie, en gedurende die 5 jaar kan je elke dag 10 keer de hele ssd beschrijven. Goed, je betaald daar natuurlijk wel voor, maar het probleem is wel verholpen.
Eigenlijk de enige reden om nog spinning disks te gebruiken is de prijs per GB...
Eigenlijk de enige reden om nog spinning disks te gebruiken is de prijs per GB...
Dit is juist mijn punt..SSD's zijn nog te duur!

Ik heb nog geen server park van een bedrijf gezien waar de complete park bestaat alleen maar uit SSD schijven.Een moderne bedrijf investeert tegenwoordig in betere cooling van zijn servers en daarbij wordt ook de lifetime van de HDD's marginaal verlengt.
https://www.youtube.com/w...er_embedded&v=6IX9U2zaI_I

En zo betrouwbaar zijn de SSD's nog niet hoor,en ik heb al genoeg versleten. Zelfs paar exemplaren gehad die DOA waren.
Server ssd's, of van die lekker goedkope client dingen?
TransIP heeft inmiddels haar hele SSD platform op SSD draaien: https://www.transip.nl/nieuws-en-acties/bladevps-puressd/
Ik denk dat je informatie een beetje mis is? HGST is nu Western Digital.

In 2012 heeft Western Digital de toenmalige Hitachi harddisk branch opgekocht. Maar omdat er te weinig concurrentie overbleef op de markt, was Western Digitial gedwongen om een deel te verkopen. Namelijk het 3.5" productie deel, werd verkocht aan Toshiba. Ik heb nog altijd Toshiba drives zitten, dat zich identificeren als Hitachi ( ze hadden de firmware nog niet geupdate ). :D

Western digital behield de 2.5" productie deel van Hitachi.

Er is nooit een samenwerking geweest tussen WD & Hitachi. HGST is nu gewoon deel van Western Digital.

Hitachi is idd een bedrijf dat vrij goede schrijven maakte, met een deftige kwaliteit. Ik speel met vuur met dit te zeggen, maar de zwakste speler op de afgelopen paar jaren, is in praktijk Seagate ( en hun lachwekkende garantie ... de tijden zijn al lang gedaan dat Seagate nog durfde hun hand in het vuur stoppen, en lange garantie geven ).
Ik denk dat HDDs tegen het einde van ~2018 wel zn beste tijd hebben gehad. SSDs worden steeds goedkoper, zijn meer betrouwbaar en hebben een goede levensduur.
Persoonlijk denk ik wel dat de gewone HDD nog lang zal blijven, toch zeker als ze het wear probleem van SSD's niet kunnen oplossen. Als je namelijk 50% van je SSD volzet met muziek en films, dan wilt dat zeggen dat er enkel nog op de overige 50% van je SSD geschreven zal worden en dus zal die 50% ook sneller verslijten.
Naast natuurlijk de kost is dat bijvoorbeeld de reden dat mijn documenten/muziek/films/foto's op een gewoone HDD staan.

Om dan toch ff terug on-topic te gaan, ik vraag mij af of er een consumenten-versie komt en of die dan ook in een dikke heatsink wordt geplaats zoals de VelociRaptors of niet (en of het voor deze niet nodig is om wat extra koeling te voorzien).
Hier is toch wearleveling voor op SSD's om juist dit probleem te voorkomen of heb ik dat verkeerd begrepeen?
Ff ge-wikipedia't voor 100% zeker te zijn (http://en.wikipedia.org/wiki/Wear_levelling) en er is effectief een bepaald type wear leveling dat rekening houdt met deze low usage cells en die blijkbaar vnl in SSDs gebruikt wordt ten koste van een beetje performance.
We hebben hier over zakelijk gebruik.
De huidige server generatie heeft als voorkeur 2,5inch HD drives om zo veel disken in een 1 of 2 u server te krijgen, om niet over te hoeven stappen naar 3,5 inch disken is dit een welkome aanvulling.
SSD zijn nog veel ste duur, 600 Gb voor 4000 euro (voor servers)
datablokken van 4 kilobyte, met emulatie voor 512bit.
--> moet 512 byte zijn... Typo...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True