Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Ook in 2008 zal de vraag naar online opslag blijven toenemen, waardoor de problemen waar datacenters mee te kampen hebben alleen maar zullen groeien. De oplossing ligt volgens sommigen in het gebruik van flashgeheugen.

Onderzoeksbureau IDC heeft tien trends opgesteld die in 2008 te zien zullen zijn op de opslagmarkt. Bovenaan de lijst prijkt de voorspelling dat online opslagdiensten voor backup en archivering zullen worden omarmd. Andere trends die IDC ziet zijn onder andere mainstreamgebruik van solid state disks door verdere prijsverlagingen, de verschijning van opslagsystemen die op bepaalde type bestanden gericht zijn, de opkomst van virtuele servers als killerapplicatie voor iscsi, een groeiend aantal bedrijven dat volledige diskencryptie gaat toepassen en een overstap op 'groene' onderdelen bij de vervanging van hardware.

Waar het onderzoeksbureau niet op ingaat is hoe de datacenters kunnen voldoen aan de groeiende vraag naar opslag zonder te ontsporen wat energieverbuik betreft. Dit probleem heeft al de volle aandacht van de industrie. Zo hebben onder andere AMD, Dell, HP, IBM, Intel, Microsoft en Sun zich verenigd in de 'Green Grid'-consortium om tot efficiŽnter stroomverbruik in de datacenters te komen.

De verschijning van ssd's in datacenters lijkt wat dat betreft onvermijdelijk. Zo kan het flashgeheugen dienen als cache voor de opslagsystemen en zo voor snellere responsetijden zorgen voor databases en webapplicaties. De flash-cache stelt de magnetische drives ook in staat langzamer te draaien als de load laag is, zodat deze minder stroom verbruiken. Ook al beschikken ssd's nog niet over geoptimaliseerde energiebeheer-opties, flasharrays zijn hoe dan ook efficiŽnter per byte, aldus Ars Technica.

Gerelateerde content

Alle gerelateerde content (30)
Moderatie-faq Wijzig weergave

Reacties (57)

De inzet is afhankelijk van het doel wat je nastreeft: meer IO's per seconde of stroom besparen.
In een SAN omgeving voegen de flashdisks een level toe aan de storage hierarchy.
Dat wordt dan (in volgorde van afnemende snelheid en toenemende capaciteit):
RAM in je server
RAM cache op het SAN
Flash cache op het SAN
snelle maar kleinere disks, bijvoorbeeld 146GB SAS
langzame disks van grote capaciteit, bijvoorbeeld: 1TB SATA
optical disk storage of tape
De software verplaatst data tussen de verschillende levels afhankelijk van het gebruik zodat de meest gebruikte gegevens op de snelste lokatie staan.
Je kunt het vergelijken met de caches in een processor. De first level cache is het kleinst maar het snelst enz.
In een goed gebalanceerde storage hierarchy vermindert het aantal IO's per level in de orde van een factor 10. Als de capaciteit en betrouwbaarheid van flashdisks toeneemt kun je de snelle disks in je SAN zelfs vervangen door een kleiner aantal flashdisks.
Omdat het voorborduurt op bestaande concepten zijn flashdisks redelijk makkelijk te integreren in een SAN.
Ook voor gewone gebruikers komen soortgelijke oplossingen in beeld.
Kijk bijvoorbeeld eens naar dit device: http://www.realramdisk.com/products/sata8.php
Dit is dan wel op basis van RAM en niet op basis van flash maar dat is een kwestie van tijd. Een doe het zelf hybride drive...

Bij zware database toepassingen zou ik eerder snelle disks in de database server zelf plaatsen.
Zoals bijvoorbeeld: http://www.fusionio.com/iodrivedata.pdf
Geheugen op een PCI express card met 700MB/s lezen en 600MB/s schrijven.
80.000 IO's per seconde. En capaciteiten van 80GB tot 320GB.
En je kunt meerdere devices per systeem plaatsen.
Dat lijkt me voldoende voor de meeste databases.

Wat de betrouwbaarheid van Flash betreft: volgens een artikel op slashdot hangt het van het type flash geheugen af. Multi Level Flash haalt 10.000 cycles en Single Level Flash haalt 100.000 cycles. Door middel van Wear Leveling zorgt de software in een flashdisk ervoor dat de schrijfakties verspreid worden over de hele disk. Ook als je steeds dezelfde sector schrijft. Voor professionele toepassingen wordt SLC gebruikt.

Hoe groter het device hoe langer de levensduur.
Een 32GB disk met 80MB/s volledig beschrijven duurt 400 seconden.
Die kun je dan in principe 216x per dag compleet herschrijven.
10.000 cycles heb je dan na 46 dagen bereikt en 100.000 na 460 dagen.
Een 128GB disk die met dezelfde snelheid wordt beschreven houdt het 4x zo lang vol.
Dan kom je al op 5 jaar uit.

[Reactie gewijzigd door Dutchtraveller op 1 januari 2008 03:19]

Hoe groter het device hoe langer de levensduur.
Ik veronder stel dat je bedoelt hoe groter hoe korter de levensduur? Meestal wil groter ook zeggen complexer en grotere dichtheden, en dan gaat er al rapper iets fout.

[Reactie gewijzigd door bReChThOu op 31 december 2007 12:51]

Hoe groter de schijf hoe langer het duurt om hem volledig te overschrijven als de snelheid waarmee je schrijft gelijk blijft.
Onder die conditie heeft een schijf (met hetzelfde flashgeheugen) die 2x groot is de dubbele levensduur.

Harddisks van nu zijn complexer (in de zin van meer transistoren) en hebben een grotere dichtheid dan die van 10 jaar geleden maar de betrouwbaarheid is volgens mij toegenomen.
Uit diverse tests blijkt dat i.t.t. het algemene idee, de huidige generatie SSD disk niet of zelfs minder IO/sec aan te kunnen dan de huidige generatie harddisks:
http://www.tomshardware.c..._drives_cometh/page9.html

De multiple IO write request lijken een Flash drive te breken:
Although a database benefits from a SSD's quick read speed performance, it can get bottlenecked if multiple write requests come in at the same time. As command queues increase, the single hard drive does not even scale up, as this flash-based HDD does not support command queuing.
(Bron Tomshardware)

Enkel geavanceerde caching technieken in ram geheugen voor het flash geheugen kunnen deze bottleneck oplossen. Huidige SSD drives maken geen gebruik hiervan waardoor de Flash voor een database server eerder trager dan sneller is (zelfs) vergeleken met SATA schijven.
Ik vermoed dat we op de volgende generatie geheugen moeten wachten, die met de snelheid van RAM maar dat data vasthoud ook zonder stroom.
http://images.tomshardwar...tate_storage/image023.png
Intel schijnt hier al aan te werken.
Bijkomend maar niet onbelangrijk voordeel is, dat een lager energieverbruik automatisch minder warmteproductie betekent, wat weer energie spaart bij het koelen.
@database_freak (de reactie hieronder, ik heb op het verkeerde icoontje geklikt :( )
Je hebt gelijk dat de random write performance flink tegen valt.
De Sandisk drives zijn meer bedoeld voor de laptop markt en niet voor enterprise toepassingen. Voor de enterprise markt zijn er de Mtron en Memoright drives.
Deze hebben een sustained write snelheid van ongeveer 80MB/s.
Zie de tests van de Mtron7000 bij Anandtech: http://www.anandtech.com/storage/showdoc.aspx?i=3167&p=1

De Sandisk haalt in de sustained write test gemiddeld 49MB/s. en de Samsung haalt 29MB/s.
Zie de test bij Tom's Hardware: http://www.tomshardware.c...rite_transfer_performance

Wat opvalt bij die test zijn de minimum waarden voor de SSD's.
Die zijn veel lager dan het maximum en je zou verwachten dat de snelheid over de hele drive vrijwel gelijk is.
Bij de Anandtech tests zie je ook wel kleine dips maar niet zo diep.
Het zou veroorzaakt kunnen worden doordat wear-leveling aktief is maar ik vraag me af of de goedkope drives dit wel gebruiken.
En of het bij de dure drives al impact heeft omdat alleen maar nieuwe drives worden getest.
Een andere oorzaak zou ook de meetmethodiek kunnen zijn.
Hoe kleiner de meet-intervallen hoe meer fluctuaties.
Stel dat data wordt overgedragen in bursts van 5ms steeds gevolgd door pauzes van 5ms.
Als je elke seconde meet hoeveel er overgedragen is zul je de gemiddelde snelheid meten, de helft van de burstsnelheid.
Ga je nu iedere milliseconde meten dan zie je de bursts en de pauzes in je metingen terug.
Dus dan wordt het resultaat: minimum=0 en maximum=burstsnelheid. Het gemiddelde blijft natuurlijk hetzelfde.

BIj Anandtech is een mooie vergelijking te zien tussen een aantal consumer SSD's van Transcend en SuperTalent en een enterprise SSD (een drive uit de wat 'oudere' Mtron 3000 serie):
http://www.anandtech.com/storage/showdoc.aspx?i=3133&p=1
Daar zie je toch wel flinke verschillen.
Iedereen die er een wil aanschaffen zou dat artikel eerst moeten lezen.
Voor gebruik in een laptop of desktop zijn de PCMark05 scores van belang.
Daar zie je dat een consumer SSD niet kan concureren met een snelle (maar goedkopere) laptopdrive en zeker niet met een Raptor maar dat een enterprise SSD wel sneller is dan die laatste 2.
De resultaten van de Mtron laten wel zien waar het in de toekomst met de consumer drives naar toe gaat.

Ik kan ook wel verklaren waarom de SSD's zo slecht presteren in de random write benchmarks:
Stel dat je random blokken van 1KB schrijft.
Een SSD (en alle andere Nand flash devices) zijn georganiseerd in blokken (die weer uit pagina's zijn opgebouwd).
Het schrijven gaat per pagina maar je kunt alleen wissen per blok.
Als je ergens in een blok een stukje van 1KB wilt updaten moet je het hele blok lezen, wissen en de updated data terugschrijven.
Het hangt van de chips af hoe groot de blokken zijn.
Volgens wikipedia (http://en.wikipedia.org/wiki/Flash_memory) varieren de groottes van 16KB tot 256KB.
Dus voor dat random blokje van 1KB dat je naar de disk stuurt moeten intern misschien wel 256KB worden geschreven oftewel 1:256.
De random write snelheid komt uit op de sequentiele snelheid gedeeld door 256.
De factor waarmee de prestatie verslechtert is gelijk aan de verhouding tussen de grootte van de naar het SSD geschreven random blokken en groote van de blokken in de SSD.
Met wear-leveling kan dit nog slechter uitvallen.
Voor een Mtron7000 schat ik dat het aantal random writes per seconde ergens tussen de 100 en de 500 zal liggen. Dat is net zo snel of sneller dan de harddisks uit de test van TH.

Middels buffering in RAM op de SSD of in de cache van een raid controller kun je dit middels write-combining wel wat verbeteren maar niet fundamenteel oplossen.
Verder hebben de snelle SSD's zoals de Mtron intern waarschijnlijk al een raid0 organisatie. Hun chips zijn niet fundamenteel sneller dan die in de andere SSD's.

Conclusie: voor thuisgebruik zou ik voorlopig nog even wachten.
Alleen als je een snelle raid-controller hebt met veel cache zou je erover kunnen denken.
Voor enterprise oplossingen hangt het sterk van de toepassing af.
Voor webservers (heel veel random reads) zijn ze ideaal voor de statische content.
Bij databases zou ik me beperken tot de read-only data die random gelezen wordt en misschien de redo-logs. Als je daar toch de maximale snelheid wilt zou ik naar de hyperdrives kijken: http://www.hyperossystems...re.htm#hyperosHDIIproduct

[Reactie gewijzigd door Dutchtraveller op 1 januari 2008 22:51]

waarom zouden datacenters massaal flashdisks gaan gebruiken in '08?
flashdisks zijn toch nog erg duur in vergelijking tot gewone HD's?
ik denk eerder dat de overstap later komt als het een stuk goedkoper is,
anders wordt het een duur grapje.

idd, gelukkig nieuwjaar
Aanschafprijs is niet alles dat geld kost. Misschien heb je de aanschafprijs er wel zo uit als je ipv 1tb aan 'normale' hds 1tb aan SSDs gebruikt vanwege stroomverbruik. Met als bijkomend voordeel snellere responstijden.
Met als bijkomend voordeel snellere responstijden.
Maar de "sustained throughput" is veel lager. Daarbij is de levensduur van een SSD disk veel lager zeker in een data center waar heel veel lees en schrijf acties zijn. Ik vraag me af of SSD echt wel zo'n voordeel is ook tav het milieu een defecte SSD moet of weg gegooid worden of refurbished worden.

http://en.wikipedia.org/wiki/Flash_memory
The endurance of NAND flash is much greater than that of NOR flash (typically 1,000,000 cycles vs. 100,000 cycles).
http://www.seagate.com/ww...0VgnVCM100000f5ee0a0aRCRD
Seagate’s second-generation 2.5-inch 10K-rpm enterprise class disc drive, the Savvio 10K.2 delivers high I/O transaction performance with industry-leading 1.6 million hour MTBF reliability and up to 146GB capacity. With power consumption that has dropped an average of 15% over the previous product generation, and a form factor that is 70% smaller than conventional 3.5-inch drives, the Savvio 10K.2 makes possible the integration of more drives into smaller chassis sizes.
10E6 write/erase cycles tov 1.6*10E6 uur MTBF
De nieuwste flash drives halen transfer rates van 60 tot 120MB/s, wat meer dan voldoende snel is voor toepassigen waar flashdrives het meest geschikt voor zijn (dwz behoefte aan lage toegangstijden en lage vereisten ten aanzien van opslagcapaciteit). In de praktijk zullen ssd's harde schijve verpletteren in database-achtige toegangspatronen waarin de locatie van de gegevens min of meer willekeurig verdeeld is. Harde schijven halen nooit 120MB/s in dat soort toegangspatronen, eerder 1MB/s of minder.

Verder kun je een sata ssd makkelijk in raid gaan draaien (dat wil je sowieso in een server vanwege redundancy). Transfer rates van honderden megabytes per seconde liggen binnen handbereik.

De lage schrijf transfer rates van flash ssd's kunnen opgevangen worden door een raid-controller met een grote cache te gebruiken. Dit zal in databasetoepassingen met een normale verhouding tussen lees- en schrijfacties voldoende zijn om pieken op te vangen. Voor backupservers en dergelijke zijn flash ssd's niet geschikt. Daar zal ook niemand ze voor willen gebruiken vanwege de lage capaciteit.

De grootste vraag die onbeantwoord is, is de levensduur van een (flash) ssd in serveromgevingen waarin veel schrijfacties plaatsvinden.
Vrijwel alle ssd's hebben wel een systeem ingebouwd dat ervoor zorgt dat de schrijfacties goed worden verdeeld over de hele schijf, zodat het geheel ongeveer gelijkmatig 'slijt'.. Dus qua levensduur is dit niet zo vreselijk slecht.

Zo'n mtbf term verkoopt natuurlijk wel leuk, maar niet echt realistisch, als je dat moet geloven zou zo'n schijf gemiddeld 182 jaar meegaan..

Daarbij komt natuurlijk ook nog het feit dat een server na een aantal jaar sowieso weer wordt vervangen door een nieuwer/sneller/zuiniger model, dus over het algemeen zal een levensduur van een jaar of 5 wel genoeg zijn voor een hdd/ssd lijkt mij :)
Dat is wel waar, maar dan nog is de levensduur verschrikkelijk. Je mag geen versioning filesystems gebruiken, je moet het aantal schijf-activiteit zo veel mogelijk beperken. Voor grote database-servers is ssd dus een verschrikkelijk slecht idee. Ik heb een SD-kaartje gesloopt (capaciteit van 1Gb naar ca. 600Mb) door er een maandje een ext3-debian systeem op te draaien.
Zo'n mtbf term verkoopt natuurlijk wel leuk, maar niet echt realistisch, als je dat moet geloven zou zo'n schijf gemiddeld 182 jaar meegaan..
Nee die MTBF zegt niets over hoe lang een schijf mee gaat, maar hoeveel uitval je kunt verwachten.
Dus stel je hebt een MTBF van "182 jaar" en je hebt 2000 schijven (komt mooier uit dan 1000) in gebruik, dan kun je verwachten dat je in 1 jaar tijd (2000/182= ) 11 schijven kunt vervangen.
Namelijk al die 2000 schijven samen hebben na 1 jaar 11*1,6 miljoen uur gewerkt.
Nieuwe: Dat spreekt voor zich.
Sneller: Dat eigenlijk ook. Wat zou anders de reden voor een upgrade moeten zijn?
Zuiniger: Dat moet ik nog zien. Hier wordt slechts zelden op gelet bij aanschaf van een nieuwe server. Sterker nog: Meestal wordt hier de omgeving op aangepast (extra spanningsslof+koeling). Hier probeert nu juist het green-grid initiatief verandering in aan te brengen. Ik wens ze veel succes en hoop dat het lukt.
Bij welke servers is er dan zoveel writes? Load-balancers hebben hun OS en hun configuratie; die verandert quasi nooit. Webservers werken ook bijna altijd met dezelfde scripts.

Een ssd in je database-server steken, DAT is gekkenwerk. Maar voor al de rest is een ssd een goede oplossing die stukken minder stroom zuipt en veel betrouwbaarder is.
Bij servers is TCO het keyword (Total Cost of Ownership). Dus een laag stroomverbruik kan de aanschafprijs voor een deel weer goedmaken. Verder is het zo dat als flashdisks betrouwbaarder zijn dan normale hdds, dit ook weer gunstig is, immers, de kosten voor het vervangen van een hdd in een datacentre zijn ook niet gering (er moeten mensen voor betaald worden, je hebt te maken met downtime, je moet hardware op stock hebben liggen etc).

@PatDick... je hebt volledig gelijk

[Reactie gewijzigd door TERW_DAN op 31 december 2007 11:05]

Bedoel je niet keyword ipv keyboard? :)
TCO is leuk, maar je moet toch eerst de aanschafprijs betalen. Verschillende van de bedrijven waar wij producten aan leveren vinden het toch wat lastig om § 500.000 aan servers te financieren. Als daar dan ook nog een tonnetje bijkomt voor flash drives kiest men toch echt voor de lagere aanschafprijs en neemt men de hogere running costs gewoon voor lief. Misschien wat minder (verwachte) winst over de komende 5 jaar, maar een flinke beperking van het risico (die ton ben je dan tenminste niet kwijt.)

En de vervangingskosten van een harddisk zijn nihil. Ook met SS disks moet je systeem redundant zijn en ook in dat geval neem je gewoon een 24x7 onderhoudscontract. Het enige verschil is dat je een nieuwe harddisk moet kopen, maar die kosten zijn gewoon niet relevant.
Volgens mij haal je nu twee dingen door elkaar.

Een lagere aanschaf hoeft nog geen lager risico te betekenen. Als je weet dat je running cost hoger gaan worden, dan weet je dus dat je die ton later toch weer kwijt bent.

Mijn ervaring is dat sommige IT-managers moeite hebben om grote aanschaffen bij de directeur er doorheen te krijgen. Dan is het "makkelijker" om een lage aanschaf met hoge running cost te hebben, want dat geeft een gelijkmatiger budget.
Voordat iets als de aanschaf van servers met zulke prijzen worden aangeschaft, worden er impact-analyses gemaakt en berekeningen die bekijken wat de boel gaat kosten. TCO is toch wel degelijk belangrijker dan de aanschaf.
Ik kan me voorstellen dat een klein bedrijf meer kijkt naar aanschafprijs, maar die zal dan ook geen 500 ruggen aan servers (hoeven) uit (te) geven.

Ik heb toevallig net zelf een rapport afgeleverd met de berekening voor een paar pro-servers en dat wordt pas goedgekeurd als alle kosten bekeken zijn.
Het is me volstrekt onduidelijk hoe de 10 keer zo hoge kosten per bit opslag van SSD ten opzichte van een HDD een gunstiger TCO kan opleveren. Het energieverbruik is een non issue. Als de hoeveelheid data zo klein is dat een SSD volstaat, levert een traditionele HDD met DRAM betere prestaties tegen betere energieverbruik.
Ik denk eerder dat de prijs hierdoor omlaag gaat, niet dat ze wachten tot de prijs omlaag gaat...
'k zie het voornamelijk voor applicatie servers (zoals webservers en citrix farms) waarbij typisch relatief juist niet veel disk IO nodig is, bijna alles gebeurt in RAM en/of de data staat op remote database servers.
Juist bij hele grote database zul je ook veel IO's hebben en is een snelle cache in de vorm van flash nuttig. Er zijn weinig grote databases die continue van voor naar achter worden gelezen. Het gaat vrijwel altijd om een subset en daar win je met caching.

Maar het hangt natuurlijk af van het soort database: vergelijk bijv: OLTP en datawarehouse.
BIj de eerste doe je veel maar relatief kleine transacties met een hoog percentage schrijfakties en bij de tweede ligt de nadruk meer op minder maar veel grotere reads.
In de eerste situatie voegt een flashdisk als cache meer toe dan in de tweede.

Per grote onderneming heb je vele malen meer relatief kleine databases dan hele grote.
ik schat dat 99% van de servers minder dan 1TB data heeft en dat maar een relatief klein deel van die data ook continue wordt benaderd en/of geupdate.
In al die gevallen is het inzetten van flash als cache een prima oplossing.

[Reactie gewijzigd door Dutchtraveller op 31 december 2007 14:08]

toch mooi dat die flash disks gebruikt gaan worden ( volgens de voorspelling)
alleen zijn ze nogal klein.
ik voorlopig meer in hybrid drives.


ps gelukkig nieuwjaar alvast :)
Veel opslagruimte is niet altijd noodzakelijk, bijvoorbeeld de webservers van T.net hebben zo'n 5GB aan data volgens Moto-Moi en dan voldoet een 32GB SSD prima. Zo zijn er wel meer toepassingen, bijvoorbeeld DNS servers, spamfilters en loadbalancers, die niet veel diskspace nodig hebben. Zuinige en betrouwbare SSD's zijn dan goed te gebruiken. Naar mate de capaciteit toeneemt zullen ook de andere servers snel overgaan, en als de vraag groter is zal de ontwikkeling hopelijk ook nog sneller gaan.

[Reactie gewijzigd door AtleX op 31 december 2007 10:54]

das waar. Atlex..
tnx voor de uitleg

maar is een hybrid drive dan nog niet handiger, goedkoper en bruikbaar als data opslag.
ik bedoel dan sla je 2 vliegen in 1 klap

[Reactie gewijzigd door freaq op 31 december 2007 11:21]

Hybrid haalt het niet bij flash wat betreft energieverbruik.
Volgens het artikel (Tweakers, niet IDC) is de verwachting dat het energieverbruik een probleem gaat worden voor de grote datacenters.

Een HD verbruikt niet veel t.o.v. de andere componenten. Maar laten we zeggen duizenden flash HD's betekent wat minder stroom en potentieel iets minder koeling.

Vergeet niet dat je het niet met je eigen PC moet vergelijken, want ik neem aan dat jij geen datacenter op je zolder hebt. ;)
ťťn disk op zich gebruikt om en bij de 1A (notebookchijven wat minder, desktop en serverschjven heel wat meer). Dat is op zich niet veel.
maar een ssd gebruikt slechts een derde daarvan.
Een rackje vol harddisks gebruikt dus ook 3x zo veel als een rack ssd's. Bovendien id de mtbf een heel stuk hoger (wegens het ontbreken van mechnische componenten) en dus de onderhoudskost een stuk lager (moet minder vaak iemand ter lpaatste om disks te wisselen)
Alleen is dekost per GB momenteel te hoog. Maar zodra de vraag voldoende stijgt, zakt de prijs vanzelf wel. En dan verdwijnt ook meteen dat andere nadeel: men kan dan voor een gelijkblijvende prijs grotere schijven gaan aanbieden!
Grapjas, 1A, dat gebruikt een complete server... Een HDD gebruikt circa 0,1 ampere.
Het idle energiegebruik van 7200 toeren harde schijf ligt op ongeveer 9 watt. Tijdens het seeken ligt het energieverbruik wat hoger op circa 12W. De 15.000 toeren Fujitsu MAX vraagt 18W tijdens seek, waarvan 12W op de 12V rail. Dit laatste komt neer op een stroomsterkte van 1A op de 12V rail.
Een gewone IDE/SATA harddisk die 0,1A zuipt komt echt niet in mijn server. Dat 23-24 watt voor een disk!
Een disk verbruikt 5 a maximaal 15 watt, ofwel 0,065 ampere. De meeste disks verbruiken 10 wat onder load.
Je zou kunnen zeggen, wat maakt die 0,035A uit, maar in een rack waar elke 0,1A telt en aangerekend wordt tikt dat aardig door hoor.
Het gaat hier niet over de 230V aansluiting maar wat er op de 5V en de 12V aansluiting in je PC wordt afgenomen...
Bij opstarten trekt een harddisk 2,0 tot 2,8A op de 12V.
Daarna ligt het een stuk lager e.a. afhankelijk van het toerental.
Een WD G(reen) P(ower) disk draait op 5400 toeren en gebruikt minder dan 7W.
Dit is een van de zuinigste schijven na de SSD's natuurlijk.
Grapjas, 1A, dat gebruikt een complete server... Een HDD gebruikt circa 0,1 ampere.
Ligt er maar net aan waar je meet. (230V~, 5V= of 12V= )
Een 3,5" / 7200 rpm hdd trekt ongeveer tussen de 8 en 10 Watt.
De meeste 2,5" schijfjes kunnen uit 1 USB-stekker gevoed worden, dus max zo'n 2,5Watt (5V, 500mA)

[Reactie gewijzigd door TD-er op 1 januari 2008 14:03]

Linkje is niet voor iedereen toegankelijk
De gebruiker heeft geen toegang tot dit forum
(interne identificatie: forum::get_forumdata::forum_not_allowed)
* ]Byte[ heeft zijn firewall op een CF-card draaien... (1GB)
Voor diegene die er ook eens naar willen kijken, kijk eens op de site van EMBCop (IPCop based ge-optimaliseerd voor flash-cards)

[Reactie gewijzigd door ]Byte[ op 31 december 2007 12:33]

Je vergeet dat dikwijls niet alleen die 5GB nodig is maar dat er verschillende virtuele machines op dezelfde hardware draaien. En niet elke gebruiker is tevreden met een maximum van 5GB data.

offtopic:
'performantie' staat gewoon in de vandale hoor, onder 'muggenzifter' :? , ok de taal is belangrijk maar een woord als performantie is hier in belgie toch een algemeen aanvaard woord. het is al veel erger als iemand 'zei' en 'zij' door elkaar gooit of als er ergens naar 'gezogt' wordt. Het woord 'accesstijd' is trouwens ook geen nederlands woord.

[Reactie gewijzigd door kluyze op 31 december 2007 17:10]

qua data-hoeveelheid komen ze met 1 schijf mss wel toe, al denk ik dat dit enkel de forum-database is en niet de gehele site.

qua performantie zal die ene schijf natuurlijk schromelijk tekort schieten, laat staan qua betrouwbaarheid
Ik vraag me af hoe ze het probleem gaan oplossen met het beperkt beschrijven van Flash geheugen. Flash kan maar een beperkt aantal keren beschreven worden. Als je dan Flash als een write cache voor een harddisk gaat gebruiken dan gebruik je volgens mij precies flash op een manier waarvoor het niet bedoeld is. Bij ReadyBoost in vista word het correct gebruikt. Deze cacht eigenlijk beperekt waarna er veel uitgelezen word uit deze cache, maar dat is hier niet de bedoeling geloof ik

Nog erger is dat als het flash geheugen zich in de fase bevind dat het over de grens heen komt waarbij het te veel keer beschreven is er (voor de buitenwereld) random write error gaan ontstaan. Op een consumenten PC is dit al lastig, maar op een server, in een data center..... Dat lijkt met een nachtmerrie voor elke beheerder.
http://www.bitmicro.com/press_resources_flash_ssd.php
The better manufacturers have "wear-leveling" algorithms that balance the data intelligently, avoiding both exacerbating the wearing of the blocks and "thrashing" of the disk: When a given block has been written above a certain percentage threshold, the solid state flash drive will (in the background, avoiding performance decreases) swap the data in that block with the data in a block that has exhibited a "read-only-like" characteristic. Second, should bad blocks occur, they are mapped out as they would be on a rotating disk. With usage patterns of writing gigabytes per day, each flash-based solid state flash drive should last hundreds of years, depending on capacity. If it has a DRAM cache, it'll last even longer.
hopelijk gaan de prijzen van flashdisks omlaag in 2008 en zullen we weer een stapje dichterbij komen als het om de vervanging van de hardeschijf gaat....

Offtopic:
Iedereen alvast een gelukkig nieuwjaar!!!
Die prijs zakt vanzelf als de vraag stijgt. Nieuwe technologien worden naar gekeken etc, massaproductie wordt (nog meer) mogelijk.
de prijzen zullen zeker dalen, gezien de jonge leeftijd van de technologie en de inburgeringsgraad. Het nieuws dat ze ook op grotere schaal gebruikt gaan worden, zal de productie alleen maar ten goede komen en dus ook de prijzen laten dalen
Voor veel applicaties zullen flashschijven steeds meer "groot genoeg" zijn, maar ik verwacht eigenlijk dat rekencentra de plaats zijn waar schijven het langst stand zullen houden, omdat uitgerekend daar capaciteit telt. Wellicht dat het als cache poplulair wordt, maar dan is er nog een snelheidsprobleempje: flash is inmiddels snel zat om een schijf bij te houden, voor een raidarrray met 24 schijven in parallel ligt dat toch anders...
De relatief lage opslagcapaciteit van flash ssd's lijkt me niet zo'n probleem voor de meeste database-servers die voldoende hebben aan enkele honderden gigabytes opslagcapaciteit. Een database bevat meestal geen binaire gegevens. 100GB tekst is heel veel data. Voor file-, mail- en backupservers zal de opslagcapaciteit van een ssd wel snel onvoldoende zijn.

De prestaties van een ssd kunnen net zoals bij een harde schijf opgeschaald worden door ze in een raid-array te plaatsen. Dit wil je sowieso vanwege de redundancy. Anders zou bij uitval van een ssd alle data kwijt zijn en een server platliggen.
Flash kan inderdaad in RAID, maar wat ik bedoelde is dit: als je Flash als cache wilt gebruiken, is het logischer dat voor de RAID te zetten dan voor iedere schijf afzonderlijk (kosten/baten), maar dan zal het ook snel moeten zijn.

Wat betreft de behoefte aan data, ik ben het met je eens dat 100GB tekst veel is, maar.... ik stel vast dat de honger naar capaciteit groter dan ooit lijkt. In het dagelijks leven bedenk ik onder andere opslagoplossingen voor rekencentra; ze bestellen tegenwoordig opslagnetwerken van de honderden terabytes... Vandaar dat ik verwacht dat de schijf het nog wel een tijdje uithoudt.
Pas zowieso op met extra cache...dat levert niet altijd voordeel op namelijk...
In je systeem wordt al op diverse plaatsen gecached, zowieso doet je OS aan caching voor je filesysteem en daarnaast cached je raid controller ook al... Indien je nieuwe cache niet goed is afgestemd op de andere caches kan het zijn dat je alleen maar continu je cache aan het vullen en flushen bent wat alleen maar overhead creeert.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True