Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 125 reacties

Volgens vooralsnog onbevestigde geruchten zou Western Digital aan een nieuwe serie Raptors werken waarvan de platters met 20.000rpm ronddraaien. De recordsnelheid zou de harde schijf beter met ssd's moeten laten concurreren.

De nieuwe, snelle WD-schijven zouden een reactie op de opmars van ssd's zijn. Deze alternatieven voor harde schijven zijn nu nog prijzig, maar ssd's zouden in de komende twaalf tot achttien maanden een betaalbare optie kunnen worden. Waar solid state disks nu nog vooral worden ingezet voor toepassingen waar performance belangrijker is dan de kosten, zouden ze snel aan marktaandeel kunnen winnen als de prijzen lager worden. Om de markt niet met ssd's te laten overspoelen, zou WD aan een snel platter-alternatief werken.

De nieuwe Raptors zouden zijn gebaseerd op de onlangs geïntroduceerde Velociraptors, die 10.000 toeren per minuut maken. De schijven zouden ondanks hun extreme toerental relatief stil worden. De behuizing, die net als bij de Velociraptors een 2,5"-schijf in een 3,5"-formfactor onderbrengt, zou aan de geluidsbeperking bijdragen door niet alleen als heatsink maar ook als geluidsisolatie te functioneren. Verdere details over de WD-disks, zoals aansluitingen en capaciteit, zijn nog niet bekend. Western Digital zou met een 20.000rpm-schijf een primeur hebben: de gangbare rotatiesnelheid voor harde schijven is 7200rpm, terwijl high-end schijven maximaal 15.000 omwentelingen per minuut maken.

WD Velociraptor
Moderatie-faq Wijzig weergave

Reacties (125)

Ja ja.... volgens onbevestigde berichten...

Ik geloof er helemaal geen snars van. Zowiezo zou een raptor helemaal niet het type schijf zijn waar men als eerste naar 20k gaat. Dat zou je veeleer bij een SCSI/SAS schijf die voor servers is geoptimaliseerd verwachten. Pure random access is nog altijd server gebied, en dat is waar SSD nu nuttig is, en waar een 20k HDD ook zinvol zou kunnen zijn.

De Raptors zijn nog altijd voor desktops geoptimaliseerd (zie je aan het cache algorithme wat meer op sequentieel dan random access gebaseerd is) , en daarvoor is de accesstime niet dusdanig belangrijk dat er nog veel eer mee te behalen valt. Zelfs voor de random access op servers zitten we al weer hele tijden op 15k, en is er weinig animo om hoger te gaan. Misschien ook omdat de beweging van de leeskop dan steeds meer bepalend worden, en die blijkbaar niet goed sneller gemaakt kant worden?

Verder zijn de raptor nog niet eens op 15k aangeland... zou een beetje merkwaardig zijn als die stap 'eventjes' overgeslagen wordt... Zo simpel gaat dat allemaal niet.


Dit lijkt me meer wishfull thinking van een paar fanboys...
De Raptor is een enterpriseschijf alleen heeft hij gaan sas- maar een sata-interface.

Een lage toegangstijd is ook voor desktoptoepassingen van groot belang. De extreem goede prestaties van solid state disks bewijzen dit. Ik heb zelf wat onderzoek gedaan naar de performance scaling van verschillende typen harde schijven in raid en daaruit bleek dat de toegangstijd een sterke beperkende factor is. Hoe lager de toegangstijd, des te beter schalen de prestaties. Het prestatieverschil dat ontstaat door een lage toegangstijd is slechts gedeeltelijk te compenseren door harde schijven te stripen. Twaalf Raptors in raid 5 presteerden bijvoorbeeld nauwelijks beter dan zes Seagate Cheetah 15K.5's in raid 5.

Het is inmiddels acht jaar geleden dat de eerste 15.000 toeren schijf op de markt komt. Het wordt hoog tijd dat er weer eens een volgende stap wordt gemaakt. Zolang ssd's totaal niet op prijs/capaciteit kunnen concurreren met harde schijf blijven (snelle) harde schijven hun bestaansrecht houden.
Tja, wat noem je een enterpriseschijf?

Wel is het zo dat het binnen 2 jaar doodnormaal gaat worden dat enterprise applicaties op grote aantallen SATA schijven gaan draaien, dus wat dat betreft hoeft die SATA interface helemaal geen probleem te zijn.
(ook al omdat SATA drives in de praktijk helemaal niet minder betrouwbaar blijken in enterprise omgevingen)

Dat die twaalf 10k raptors in raid5 amper beter presteren dan zes seagate 15k schijven in raid5 verbaast me niet echt. Je applicatie moet wel heel veel IOs parallel kunnen uitvoeren om daar ten volle gebruik van te kunnen maken.

Je grafieken laten ook erg duidelijk zijn dat de schaalbaarheid zeer sterk afhankelijk is van de benchmark. (en dus ook applicatie)

Bij desktop applicaties zal dat de bottleneck gaan vormen. En zelfs bij veel server applicaties.
Wat dat betreft ben ik wel benieuwd wat er zou gebeuren als je die twee raid configs test met de MMB3 benchmark. Die simuleert een Exchange 2003 server, en dat is het ergste wat ik me kan bedenken wat betreft random IOs. Zelfs onze zwaarste SAP en SQL servers vielen in het niet bij de random IO die onze Exchange 2003 servers veroorzaakten.

Het is inmiddels al vrij lang geleden dat 15k schijven op de markt kwamen. Wat dat betreft ben ik ook totaal niet verbaasd dat iemand met 20k schijven op de proppen komt.
Maar ik ben het wel met AHBdV eens dat het niet logisch is dat dat een ontwikkeling van een 10k raptor zou zijn.
Een opvolger van een 15k SAS disk lijkt veel aannemelijker.

Overigens moeten SSDs niet alleen gaan concurreren op prijs/capaciteit, maar ook op random write performance. Dat is ook nog een belangrijke bottleneck.
Helaas iets dat in tests op internet vaak onderbelicht word.
Het is zelfs nog erger! SSD verbeteringen gaan snel, maar de HDD vooruitgang is sneller. De schijfopslagtechnologie ontwikkelt zich al tientallen jaren sneller dan de chip fabricage technologie. Mede daardoor is de architectuur van computers al zo'n lange periode onveranderd. Het lijkt me stug dat SSD's en ultra-snelle HDD's ooit buiten hun niche markt gebruikt zullen worden.
Overigens is een snelle HDD een goede zet van WD. SSD's zullen het nog lastig krijgen.
Met alle SSD technieken van vandaag de dag, zou het niet zinvoller zijn daarin tijd en geld te investeren om SSD's sneller en vooral goedkoper te maken, in plaats van geld te steken in een techniek die op den duur toch afgeschreven is? Ondanks de concurrentie van SSD's... Bovendien lijkt het mij dat harddisks op die snelheid ook sneller slijten, meer energie verbruiken en warmer worden.

[Reactie gewijzigd door Crusader op 6 juni 2008 15:42]

Warmer, ja natuurlijk vandaar de koel constructie om de 2.5" disk. Sneller slijten geen idee ik denk het haast wel de lagers die de platters op hun plaats houden zullen een beperkt aantal omwentelingen kunnen maken voor ze toch echt slijtage gaan vertonen. Meer energie dat hoeft niet altijd het kan zijn dat je een motortje net zo zuinig krijgt op 15.000prm als op 20.000rpm dat kost wel wat meer maar Raptors zijn niet de goedkoopste schijven.

Maar wat betreft jouw idee dat WD het maar beter gewoon op kan geven en de zeer lucerative HDD markt aan de SSD fabrikanten kan laten, is toch een vreemd idee. Natuurlijk zullen WD en andere nog HDD's blijven maken en blijven door ontwikkelen al is het alleen maar omdat de komende paar jaar HDD's wat betreft opslag ruimte nog steeds veel meer waarde voor je geld leveren dan SSD's en dat betekend dus dat er goed geld mee te verdienen is.

Ook hebben SSD's andere nadelen zo als random access times / seek times die zich nog niet kunnen meten met HDD's. Daar komt bij kijken dat alleen de huidige snelle SSD's de nieuwe 10.000rpm raptors kunnen verslaan als het gaat om sequential reads en writes. Dus als WD deze snelle SSD's weer kan verslaan met een snelere versie dan hebben zij dus nog steeds de snelste allround opslag di ook nog eens een betere prijs per GB bied dan de concurrerende SSD's.

Ik denk daarom dat WD het voorlopig bij het juiste eind heeft. In de toekomst zal WD vast en zeker de SSD markt in stappen als zij willen blijven voortbestaan, maar voorloopig doen zij het heel goed met hun lekkere snelle schijven voor een redelijke prijs.
Random reads en writes zijn met de huidige betere klasse SSD's net een pak beter dan de hdd's. Een velociraptor heeft een access time van grootte orde 10ms. Een ietwat deftige SSD (geen budget soort) kan makkelijk 0.1ms halen, of botweg 100x sneller dan een velociraptor.
Fout!

Random reads zijn bij SSDs veel beter dan bij HDDs.
Maar random writes zijn bij SSDs veel SLECHTER dan bij HDDs.

Daarom dat je SSDs dan ook helemaal nog niet zoveel tegenkomt bij bedrijven.

Als SSDs net zo snel zouden schrijven als lezen, dan zouden we allang in al onze servers naast de HDDs ook SSDs hebben zitten voor de temp files.
WD ziet een gat in de markt, dat tussen de huidige hdds en SSDs zit als het aankomt op prijs/prestatie verhouding. Als er geen geld mee te verdienen was (of de verwachting er niet naar) hadden ze het niet gedaan. Iedere techniek raakt op den duur natuurlijk veroudert, maar zolang het markttechnisch gezien interessant is zal het op de markt gezet blijven worden.
Of dit een gat in de markt is betwijfel ik sterk. 10k en 15k schijven zijn nu ook niet bepaald rijkelijk aanwezig in de standaard pc's. Dus ik zie niet direct in waarom ze ineens van 7200 naar 20k zouden gaan.
Misschien val jij (en je kennissenkring) buiten de doelgroep, maar de doelgroep waar WD op mikt zijn high-end servers en gamers.

Een high-end server moet snel aan zijn data kunnen komen voor de clients die het nodig hebben.

Een gamer wil natuurlijk dat er zo min mogelijk wachttijd zit tussen het laden van de textures en het laden van het spel.

Ik denk inderdaad dat WD hier een goede oplossing heeft gevonden.

Wat ik wel betwijfel is of de schijf wel lang genoeg meegaat. Ik dacht dat een schijf maar een bepaald aantal omwentelingen mee kon gaan (hoeveel weet ik niet). Maar hier zullen ze vast wel een nieuwe techniek voor hebben bedacht die dit oplost.
High-end servers gebruiken geen Raptors.
als deze schijf serieus 20.000 toeren gaat draaien dan is de kans heel groot dat WD ook die schijven gaat aanbieden als server schijf.

de nieuwe raptor is al de snelse van alle 10.000 hdd en ook van een hoop 15.000 rpm hdd.
Er zit een gat tussen de reguliere HDDs en SSDs. Dat is iets wat WD opvult met deze disks.
Waarschijnlijk heeft men tijdens het onderzoek bij het maken van de huidige lijn ontdekt dat deze vrij makkelijk op hogere toeren kan werken. Het meeste is al bekend waardoor met relatief weinig extra onderzoek, relatief weinig extra productiekosten (deze wordt tenslotte gebasseerd op ene bestaande lijn) een prima schijf neer kan zetten.

Een schijf die dus relatief goedkoop is om te maken, maar duur kan worden verkocht. Moet je als bedrijf altijd doen natuurlijk.
zou het niet zinvoller zijn daarin tijd en geld te investeren om SSD's sneller en vooral goedkoper te maken, in plaats van geld te steken in een techniek die op den duur toch afgeschreven is?
Niet als harde schijven je core-business is. Schoenmaker blijf bij je leest enzo.
Bovendien blijven HD's hun voordelen hebben (snel en toch enorme hoeveelheden opslaan voor een lage prijs). En als je dan kunt blijven concureren door op een bewezen goed concept wat aanpassingen te maken? Waarom niet?

Door kleinere schijfjes te gebruiken valt het met de trillingen nog wel mee. Als de afstand van de ondersteuning tot de rand halveren worden de trillingen kwadratisch minder. Dan kun je de omwentelingssnelheid weer een heel eind opschroeven (dubbel).

[Reactie gewijzigd door ]eep op 6 juni 2008 17:03]

Alles is op den duur afgeschreven, maar HDD's zul je verlopig nog wel 5 tot 10jaar te gebruiken, zijn. Dat lijkt me nog voldoende tijd om er tijd energie in te steken strevend naar een verbeteringen
Met alle SSD technieken van vandaag de dag, zou het niet zinvoller zijn daarin tijd en geld te investeren om SSD's sneller en vooral goedkoper te maken, in plaats van geld te steken in een techniek die op den duur toch afgeschreven is?
Voorlopig is het einde van de harde schijf nog lang niet in zicht. Een 1TB-harde schijf kost 120 euro, een ssd van 64GB al snel het tienvoudige. Voor massaopslag is ssd momenteel volkomen ongeschikt vanwege de hoge prijzen, terwijl je op een 300GB VelociRaptor behoorlijk wat data kwijt kunt als je je niet bezighoudt met videomontage of het downloaden van films.

Als Western Digital de 20.000 toeren schijf weet te combineren met een relatief hoge opslagcapaciteit (300GB zou prettig) heeft het ding zeker wel toegevoegde waarde. Ook kan WD dan de concurrentie aangaan met de Seagate Savvio 15K in het enterprisesegment.
HDD is voorlopig nog goedkoper, dat is nu nog het grote pluspunt.
Plus dat het vaker herschrijfbaar is, ook niet onbelangrijk.
Waar basseer je dat op?
technische documenten, flashgeheugen kun je ongweveer 10000 keer beschrijven

[Reactie gewijzigd door ThePiratemaster op 6 juni 2008 15:54]

Dat is achterhaald voor SSD schijven.... die worden namelijk al in servers gebruikt die bijv een SQL database draaien denk je echt dat ze dat doen als de SSD maar 10000 keer beschreven kan worden? ;)
SQL = Structured Query Language

http://en.wikipedia.org/wiki/SQL ;)

[Reactie gewijzigd door Sunbeam-tech op 6 juni 2008 19:57]

achterhaald, zet er maar 2 nullen bij

SSD info

10.000 is uit 1994, in 1997 zaten ze al op 100.000 en heden is het miljoenen voor high end producten

[Reactie gewijzigd door Prulleman op 6 juni 2008 16:03]

miljoenen is nog altijd veel minder als oneindig veel (of toch nog niet gehaald met hdd's) Ook worden veel trukken uitgehaald om alle bits evenredig te beschrijven.

Verder moet je ook in rekening houden dat voor elk bestand dat je leest er ook weer het tijdstip bijgehouden moet worden en dus ook weer een schrijfcyclus nodig is.

Ik vind het trouwens ook raar dat er een verschil is tussen NAND en NOR geheugen, zover ik weet is het toch de transistor zelf die afslijt.

Nuja, het gaat er natuurlijk op vooruit en met de hedendaagse technieken is de HDD te waarschijnlijk te klein en vervangen door een groter exemplaar vooraleer ze de geest geeft.

@gassiepaart: een SQL database is een database die SQL spreekt. SQL is een ('programmeer') taal die gebruikt word door onder andere MySQL en MSSQL
@kluyze:

Het is weliswaar slijtage, maar de manier waarop versleten wordt is compleet fundamenteel anders. Net zoals bij auto's kan je de effecten van het slijten van de remmen niet vergelijken met de effecten van het slijten van een overbrenging :-)

Bij NOR wordt gebruik gemaakt van hot carrier injection (carrier heeft geen relatie met beef). Daar worden elektronen, zo "heet" (ze krijgen zoveel energie -- bij een puntmassa als een elektron dat zelfs al golfkarakteristieken vertoont is het spreken over een temperatuur natuurlijk onzin) dat ze uit het dielektricum kunnen springen.

Bij NAND maakt men men gebruik van het fysische concept van field emission. De techniek zelf noemt tunnelling, soms voluit Fowler-Nordheim tunneling naar de ontdekker van het effect en de eerste ontwikkelaar. Hier verlaten de elektronen het dielektricum 1. op een scheiding 2. ten gevolge van een (al dan niet tijdelijk) statisch elektrisch veld. Dit laatste is veel minder schadelijk voor alles behalve het substraat.

Een lekenuitleg zou kunnen zijn dat ze bij dit laatste simpelweg ontsnappen, terwijl ze bij het eerste veeleer "losbreken" :)

EDIT: typofix

[Reactie gewijzigd door lvh op 7 juni 2008 11:27]

Een hdd gaat ook niet eeuwig mee, en wat betrouwbaarheid betreft: er is ook nog iets als RAID.
een probleem met raid en ssd's is dat alle raid schijven evenveel beschreven worden, de kans is dus vrij groot dat alle ssd's tegelijk zullen falen omdat ze aan hun limiet zitten
@ Miesalex

Als jij 5 "normale" schijven uit een oplopende serie een gelijke tijd
in RAID zet zal de kans van falen even groot zijn.
Een gelijke slijtage zal ook inhouden dat ze een gelijke kans op falen krijgen, zeker komende uit een zelfde serie.

[Reactie gewijzigd door Eric Oud Ammerveld op 8 juni 2008 11:35]

Hangt er een vanaf of het NAND- of NOR-geheugen is:
NAND kan tot 1.000.000 keer beschreven worden, NOR maximaal 100.000 keer.
http://en.wikipedia.org/wiki/Flash_memory#Endurance
SSD's gebruiken NAND
Ik snap ook niet dat niet nader te noemen bedrijven claimen HUGE Databases op dit flashgeheugen hebben draaien.
Dat kan makkelijk.
RAID controllers (Hardware) en LVM (software) kunnen stapels kleine, snelle schijven samenvoegen toe een enorme, bloedsnelle schijf.

Tegenwoordig kan high-end storage apparatuur data automatisch 'onder water' verdelen tussen kleine snelle (en vooral dure) schijven en grote trage (goedkope) schijven.
Zo staat het meest-gebruikte deel van je data op SSD's en de rest op ordinaire 1TB SAS schijven. (Zodra een ander deel van de database populair wordt, verplaatst de Storage apparatuur automatisch het meest-gebruikte deel naar de SSD)
Het grote voordeel van SSD is dat er geen mechanisch beweegbare onderdelen inzitten en zodanig dus veel betrouwbaarder is/kan worden. De prijs zal zoals al in het artikel genoemd wordt snel dalen, net zoals bij CDs/DVDs/BDs gebeurd is. En b.v. RAM geheugen is nog geen 20% van de prijs van 2 jaar geleden. Nu is dit wel een ander type geheugen, maar de trend zal wel soortgelijk zijn ...
Het grote nadeel is de prijs. Een terabyte flash zou iets van 4000 euro moeten kosten, tegen 120 euro voor een roterend stuk geheugen. Zelfs met een prijsdaling van 80% in twee jaar blijft het veel te duur voor massa-opslag. (In die tijd wordt je harddisk namelijk 4 keer zo groot, en daalt de prijs per gigabyte dus ook tot een kwart..)
Zowel SSD als HDD hebben een beperkte levensduur. Zolang die voor beiden ver boven de tien jaar liggen is het een irrelevant punt.
Voor HDDs ligt die wat mij betreft niet boven de 10 jaar. Verre van dat. Ik houd simpelweg 2 jaar aan voor de levensduur van de harde schijven die ik voor m'n servers gebruik. Kapot of niet, dan gaan ze d'r gewoon uit. Raidsets worden bovendien opgebouwd uit 2 verschillende merken/typen schijven om eventuele serie fouten te vermijden.

Als je naar de kosten kijkt van de hardware t.o.v. de kosten van recovery van verloren data, downtime etc. dan is dit de veilige optie.
2jaar??? ik houd over het algemeen 10 jaar aan, dat halen ze namelijk met gemak en als je alles maar redundant genoeg maakt, maakt het niet uit wanneer iets kapot gaat, dan vervang je het gewoon door een spare.
Elke 2 jaar kost gewoon te veel in mijn ogen.
Och.. 240 euro voor een goede grote schijf? Da's niet veel toch? Gedeeld over twee jaar kost dat een tientje per maand. Een IT-er kost al snel 60 euro per uur dus een probleem mag maximaal 4 uur kosten om op te lossen anders ben je al duurder uit. Bovendien worden schijven grofweg elke 2 jaar twee keer zo groot waardoor je dus ook lekker in je capaciteit blijft zitten.

Tien jaar vind ik wel heel erg lang, zeker voor schijven die in een server zitten. Mijn eigen PC staat zo'n 6 uur per dag aan maar ik begin mijn 4 jaar oude schijven nu wel te wantrouwen (ondanks dat ze het altijd perfect hebben gedaan) omdat gewoon bekend is dat na een jaar of drie vier de kans op problemen ineens heel hard gaat stijgen.
Als de schijf na 2 jaar nog goed werkt, gewoon laten zitten. Na 6 jaar misschien eens preventief gaan vervangen.

De shijven gaan of aan het begin stuk of na een jaar of 7, Maxtor had daar eens een mooi grafiekje van gemaakt.

De kans dat er bij het vervangen (twee keer) iets stuk gaat is vele malen hoger dan dat je er met je vingers van afblijft die extra 4 jaar.
@ptap & Ghoztmaster: 2 jaar is gebaseerd op een vrij brak (consumenten)merk dat inmiddels niet meer bestaat, 10 jaar is gebaseerd op een utopie. Een jaar of 5 beschouw ik als realistisch als je voldoende redundantie hebt.

@siepultjuh: Hoe ironisch dat juist Maxtor met zo'n grafiekje kwam. Ik heb inderdaad wel DOA Maxtorren gehad (kan ook liggen aan ermee smijten door de leverancier, daar zijn ze vrij gevoelig voor), maar de brakke series begaven het juist tussen de 1 en de 4 jaar gebruik...

[Reactie gewijzigd door mae-t.net op 7 juni 2008 19:55]

10 jaar geleden zaten we op schijven van 4 gigabyte, het lijkt mij niet dat jij die nu nog in je systeem heb zitten. Ik denk dat de techniek van SSD's steeds beter wordt en het het medium van de toekomst is.
Hahaha jah inderdaad, ik had 10 jaar geleden stuk of 4 x 4GB SCSi schijven in mijn pc zitten, die heb ik zo'n 8 jaar geleden verkocht en voor dat geld kon ik makkelijk een nieuwe 27 gig PATA schijf kopen van 700 gulden. Niet alleen was die schijf vele malen sneller dan de 'al oude' SCSi' schijven, maar ook veel stiller.
En elke twee jaar een nieuwe schijf is eignelijk een must, alleen al omdat de techniek er redelijk snel op vooruit gaat. Ik heb me namelijk telkens weer verbaast hoeveel data je voor hetzelfde geld weer kon krijgen twee jaar later, maar het ging me niet eens zozeer om de capaciteit, maar de snelheid. Die gaat werkelijk met sprongen vooruit. Als iemand nu werkelijk nog een schijf gebruikt van 6 tot 10 jaar geleden ben je in mijn ogen echt heel stom bezig. Je kan nu een TB krijgen voor zo'n 100 euro geloof ik. Daarmee kan je in veel gevallen al je huidige zooi vervangen en ga je er in elke toestand op vooruit, waarbij met name de snelheid nogsteeds mijn grootste belang is. Dat de capaciteit zoveel groter is geworden is alleen maar mooi meegenomen. Capaciteit is tegenwoordig ook geen issue, het draait allemaal om snelheid in mijn ogen. Vandaar dat ik momenteel ook 3x 36GB raptor raid-0 heb + 2x 500GB in raid-0. Ik kan al mijn films en games zo prima kwijt en een 100GB raptor-combo voldoet voor mij prima om het OS + game-installs kwijt te kunnen.

Een schijf zou best 10 jaar mee kunnen, maar dan is de schijf gewoonweg traag en niet bij de tijd. Ik merkte elke keer dat ik een nieuwe schijf kocht (elke 1 of 2 jaar) dat ik er met sprongen op vooruit ging kwa snelheid terwijl ze gewoon dezelfde 7200RPM draaien. Alleen DAT is al een belangrijk punt om over te stappen. Net alsof ik nu nog 10 jaar met mijn raptors zou doen terwijl tegen die tijd iedereen SSD's in zijn pc heeft. Waarom zou ik 10 jaar in hemelsnaam hoog willen houden met (tegen die tijd) ratelende gierende half-versleten Raptor schijven met een capaciteit van niets? Mijn schijven zijn waardeloos over 10 jaar, sterker nog dat zijn ze over 1 of 2 jaar al.

Ik zit echter deze raptors wel te overwegen, zowel de Velociraptors als deze 20K raptors. de 2,5" + Heatsink is echt een goeie uitvinding en hadden ze wel eerder mogen verzinnen. Het hangt er uiteindelijk vanaf hoe snel SSD's in prijs gaan dalen. Dit kan namelijk ook zeer snel omslaan. Er hoeft maar een lichte populariteit te ontstaan bij doorsnee consumenten en conventionele HDD's zullen snel volledig verdwijnen. Dit kan geen 5 jaar meer duren in elk geval. De vraag is dus eerder of het nu nog slim is om een dergelijke Raptor aan te schaffen. Misschien is de 20K schijf wel een van de laatste en snelste IDE schijven die we ooit zullen zien. Om die reden wel weer leuk om gehad te hebben imho ;) Daarna komt ie aan de muur te hangen om mezelf rond mijn 70e nog wat extra nostalgie te bezorgen.

[Reactie gewijzigd door BruT@LysT op 7 juni 2008 14:07]

goed nu werk je bij een bedrijf die zich afvraagt waarom die server van 5 jaar vervangen moet worden ,, alleen omdat de fabriekant geen garantie wil leveren op reparaties.....
Die schijven gebruiken een algoritme dat ervoor zorgt dat de cellen gelijkmatig beschreven worden. Tegen de tijd dat de eerste cel de geest geeft, zitten we al in het quantum computer tijdperk ;)
En als een cel kapot gaat blijft de rest nog werken dus tegen de tijd dat de capaciteit is teruggelopen tot 25% van de originele capaciteit is het heelal zo ver uitgerekt dat we de maan niet meer kunnen zien.
mmh ik vind het belangrijker dat m'n cellen niet kapot gaan dan dat ik 25% harde schijf ruimte verlies.

Als net die ene cel kapot gaat wat deel uit maakt van belangrijke data vind ik dat toch een stuk minder.
Gaan die dingen niet alleen kapot bij het schrijven? Dan heb je dat probleem namelijk niet.
Bovendien kan dit ook bij conventionele schijven gebeuren ;).
Je HDD doet dit ook gewoon: bad-block remapping noemen we het dan alleen. Dus zowel SDD als HDD hebben uitvallende delen.
Fout, de maan (en al het andere wat "dichtbij" is) komt dichterbij, alles wat ver weg is verdwijnt.
Nee, de maan staat elk jaar een paar cm verder van de aarde af, althans volgens de laatste uitgave van Wetenschap in Beeld
Dit is volledig off-topic, maar even corrigeren: golfdiesel heeft gelijk. De maan verwijdert zich van ons. Dit zorgt er voor dat over enkele miljoenen jaren de maan zo ver van de aarde staat dat er geen totale zonsverduisteringen meer zijn. Voor je het vraagt: komt door de getijden, wat een wrijving is.

On-topic: Wat is de verwachte levensduur van een normale HDD en een SSD? En hoe snel zou de bovengenoemde 20.000 rpm zijn? Dan vraag ik me ook meteen af: hoe snel is een SSD eigenlijk? Ik weet dat het bloedsnel is in vergelijking met een HDD. Werken die dan allemaal op andere verbindingen dan een IDE? Het is te lang dat ik een HDD gekocht heb :)
Normale hdd's zijn goedkoper ja. Maar van dit apparaatje verwacht ik dat de prijs/GB verhouding nog hoger komt te liggen dan bij de huidige raptors en daarmee mogelijkerwijs ongeveer toch gaat concurreren met SSD's. In dat geval vraag ik me nl ook het nut van deze schijf af.
Voorlopig houdt de HDD zijn positie hoor. Het duurt zeker nog een tijdje voordat SSD's significant marktaandeel beginnen te winnen. Het lijkt me een goede zet van WD om nu alvast met zo'n HDD te komen om de overgang naar SSD langzamer te laten verlopen, aangezien zelfs deze HDD waarschijnlijk minder zal kosten dan gelijkpresterende SSD's.
WD is geen semiconductor fabrikant, en zal dit ook niet worden gezien het gigantische kapitaal dat hiervoor nodig zou zijn. Het is dus absoluut niet zinvoller om daar geld in te gaan steken.
Een ander groot voordeel van SSD boven HDD is dat ze geen bewegende onderdelen bevatten. Deze schijf bevat dan wel niet meer bewegende onderdelen, maar wel sneller bewegende onderdelen. Beginnen de platters inmiddels niet als gyroscoop te werken bij deze enorme snelheid? Dit is dan wel niet erg als de schijf stil ligt, maar bij beweging lijkt mij dat er flinke krachten kunnen optreden. Iets waar SSD geen last van heeft. Deze zijn dan wel niet voor systemen bedoelt die veel bewegen, maar toch zie ik de voordelen er niet van in aangezien de SSD steeds goedkoper worden.
maar toch zie ik de voordelen er niet van in aangezien de SSD steeds goedkoper worden.

De nieuwe, snelle WD-schijven zouden een reactie op de opmars van ssd's zijn.

Verder is 20.000Rpm ook marketing want dan kunnen zij zeggen dat hun Hdd's de snelste zijn.
Platters werken altijd al als een gyroscoop, dat is niets nieuws. Daarom moest je vroeger bij die grote bakstenen van schijven ook vooral oppassen met het kantelen terwijl ze aanstaan, want dit trekt de platter krom met als gevolg krassen van lees/schrijf kop. Maar omdat tegenwoordig de platters in diameter steeds kleiner worden wordt het effect ook weer deels verminderd. Onder andere zullen ze de materialen ook wel beter hebben gemaakt en zijn platters minder flexibel dan destijds.

Nogsteeds zou ik echter een draaiende schijf niet zomaar heen en weer kantelen, de kans op krassen is erg groot vanwege het gyroscopische effect.
Wat ik een beetje vreemd vind is dat de hybride schijven een beetje stil staan. Waarom werken ze daar eerst niet aan om het SSD goedkoper te kunnen maken ? SSD voor je OS en progamma's en een stukje harde schijf voor opslag/swapfile :

nieuws: Samsung en Microsoft plannen hybride harde schijf

Mogelijk dat WD zichzelf uit de markt gaat prijzen omdat ze niet deelnemen aan de Hybride alliantie :

nieuws: Alliantie gaat hybride harddisks promoten

Mocht dat zo zijn dan kan WD nog wel eens op termijn failliet gaan, aabgezien de harde schijf qua performance wel aan zijn plafond zit daar waar SSD's nog maar in de kinderschoenen staat.
Och als het echt de kant op gaat van hybride harddisks zal WD zich echt wel aansluiten bij die alliantie of zelf die dingen gaan ontwikkelen.

Ze zijn heus niet achterlijk :)
hehe die gaan echt niet failliet hoor. wat mij betreft maakt WD de beste en betrouwbaarste schijven. een ander merk mot ik niet en ik ben echt niet de enige. als hybride aanslaat maken ze het zelf.
wat zou de fysieke snelheid zijn van de buitenste rand van de schijf
damn.. heb mn binas niet bij de hand... :+

*edit*
gelukkig wel het internet :-)

het is een 2.5" schijf, dus laten we uitgaan van 2.4" schijfdiameter
2.4" = +/- 6.1cm diameter

6.1cm diameter = 19.16cm omtrek
19.16*20.000rpm = 383200cm per minuut
383200cm per minuut = 3.83200km per minuut
3.83200km per minuut = 0.2299km/h of 0.06387m/s
huh? dat klinkt helemaal niet zo snel??


*edit2*
ah.. komma foutje helemaal verkeerd...

383200cm per minuut = 3832m per minuut
3832m per minuut = 229.9km/h

dat lijkt er meer op!!!

*edit3*
Thanks voor jullie meerekenen! had idd eerst een flinke fout met de komma gemaakt.
maar wat een snelheden zeg!

jammer dat we de 400km/h nog niet halen, dan zouje dus echt zeggen dat je PC sneller is dan een ferrari :+

[Reactie gewijzigd door Koesper op 6 juni 2008 16:14]

Zeg diameter van plattertje 2.2 inch (gokje!)
Radius dus 1.1 inch = 2.79400 cm.
Omtrek = 2 * pi * 2.79400 = 17.5552197cm
(17.5552197 * 20 000 * 60) / 100 000 = 210.662636 km/uur
(17.5552197 * 20 000) / (60 * 100) = 58.517399 m/sec

De centrifugaalkracht met die snelheid op die afstand wordt enorm (wie doet die berekening even? ;)). Dat moet een mooi stukje metaal zijn.

/edit: wie heeft er de werkelijke diameter van een platter in een 2.5" disk?

[Reactie gewijzigd door BramT op 6 juni 2008 16:26]

Nouja enorm , enorm .... De turbo in die auto van je ;) die gaat richting de 150.000 toeren. bij turbo's warmte nog altijd een groter probleem dan het toerental
Wat is het verschil qua omtreksnelheid met een 3.5 " Sas schijf met 15 K dan?
3,5 x 25.4 is diam 88.9 X Pi = 3.1416 =0.2792 M/Minuut x 50 = 251 KM/H,

bij en grote diamet is meer centrifugaal kracht op de platter.
Zijn dergelijke schijven intern al geen 2,5" ipv 3,5"? Maar dan gewoon in de behuizing van een 3,5" schijf om compatibiliteitsredenen.
Ik wil het wel doen.

acceleratie (in m/s^2) = snelheid^2 (in ms) / radius (in m)


snelheid = 58 m/s
radius = 0.028 m

Dan wordt de acceleratie aan de buitenkant van de schijf:

(58m/s) ^2 / 0.028 m = 120000 ms^2

ter vergelijk een acceleratie van 1 G staat gelijk aan ongeveer 10 m/s^2

Dus de rand van de harde schijf wil met 12000 keer zijn eigen gewicht wegvliegen van het centrum.
:X

[Reactie gewijzigd door Z-Dragon op 6 juni 2008 23:58]

Als je gewoon de tekst leest:
De behuizing, die net als bij de Velociraptors een 2,5"-schijf in een 3,5"-formfactor onderbrengt...
snap alleen de stap van een krappe 4km/m(240km/u) naar de .22km/u niet echt
idd, foutje gecorrigeerd in de edit
iets van 239,26 km/uur?
Nee maar je doet 3.8km per minuut, en om een of andere vreemde reden kom je dan op 0.2299km/h, terwijl je moet vermenigvuldigen met 60 om van km/m naar km/h te gaan. Dus 3.83200*60 = 229,92km/h
idd, foutje gecorrigeerd in de edit. thx
moet je SSD's eigelijk defragmenteren?
Nee, SSDs hebben algoritmes om de data te verdelen zodat een cel zo min mogelijk beschreven wordt. Als gevolg hiervan zal de data bij het defraqgmenteren automatisch weer gefragmenteerd op de schijf terechtkomen.

Defragmenteren kost dus
1) Tijd
2) Bij SSDs kostbare schrijfcycles

En levert op
1) een gefragmenteerde disk

Totaal zinloos dus
Hey, dit wist ik niet. Dat is dus wel nuttig om te weten.

Is het dan dus ook zo dat bij SSD de data al gefragmenteerd op de disk staat, en je dus als FS helemaal niks meer te controleren hebt ?
Klopt, je besturingssysteem/defragmentatietool heeft geen controle meer over de fysieke plek waar iets geschreven wordt.

Het zou eens tijd worden dat ook op het Windows platform het defragmenteren eens overbodig werd...
Hoe zit het dan met de prestaties na verloop van tijd? Word die SSD dan niet steeds trager ?
Fragmentatie is filesystem niveau. Daar heeft het fysieke opslagmedium weinig mee te maken. Op een goed filesystem is geen defragmentatie nodig.
ja maar bestaan er dan goede filesystems ? Heb eigenlijk altijd wel performance gehaald uit defraggen namelijk. Ok, ik geef toe, niet zo spannend veel, maar ..

De koppen van je HD maken minder bewegingen als je defragt, maar het beslissen van de opslag locatie is toch de Filesystem's beslissing. Maar als een filesystem alles aan 1 stuk schrijft (wat goed is), en je verwijderd iets dan kan je FS nog zo goed zijn, er komt dan echt een gat.
ja maar bestaan er dan goede filesystems ? Heb eigenlijk altijd wel performance gehaald uit defraggen namelijk. Ok, ik geef toe, niet zo spannend veel, maar ..
Ik heb nog nooit van defragmentatietools gehoord voor niet-Windows filesystems, en in de documentatie wordt dan ook wel gepraat over een minimale vrije ruimte om de fragmentatie laag te houden... dus blijkbaar is het niet nodig en hanteert het filesystem algoritmen om zichzelf niet al te gefragmenteerd te houden, mits het volume niet helemaal vol staat :)

Op mijn Linux en BSD machines heb ik daarom nog nooit een volume gedefragmenteerd of uberhaupt kunnen defragmenteren.
De vraag is of je SSD's moet defragmenteren ALS ze gefragmenteerd zijn.
Het antwoord is waarschijnlijk nee, het snelheidsverschil is te verwaarlozen.
ja snap ik. Maar wat ik met mijn opmerking net wou duidelijk maken is dat je de "schuld" dat defragmentatie nodig is niet op alleen de FS of alleen de disk kan afschuiven. Het is een combinatie + de delete beslissingen van gebruikers en andere acties van gebruikers. Het is niet af te schuiven op 1 object.
Het fragmenteerd wel, maar een SSD heeft hier veel minder last van omdat het heel snel bij het andere deel kan komen. Dus ja, het fragmenteerd, maar nee je merkt hier nagenoeg niets van.

Defragmenteren zou in theorie meer performance bieden, maar of het echt rendabel is om een aantal seconden je werk stil te leggen en te gaan defraggen....
Het effect bij SSD's is (veel) minder. Maar ook een SSD kan sneller een serie op rij liggende blokken ophoesten dan blokken die ver uit elkaar liggen.

Zeker als de SSD een SATA (of SAS) interface heeft dan hoef je in theorie minder commando's te geven om contiguous blokken te lezen.
nee, het moet niet, maar het kan wel. Het is het filesysteem wat als nadeel heeft dat er gedefragmenteerd moet worden. Niet de disk.
Ik heb recent een Ext2 implementatie voor Flash geschreven, dus ik kan er wel iets over zeggen. Op een "managed" Flash systeem zijn alle sectoren ongeveer even snel. (alle SSDs zijn managed). Fragmentatie is voornamelijk een optimalisatie als het lezen van sector N sneller is als je net ervoor N-1 hebt gelezen.

Voor simpele filesystemen als FAT en Ext2/3 is Flash defragmentatie dus overbodig. Modernere filesystemen gebruiken "extents", in plaats van een bloklist 1,2,3,4,5,6,7,8 slaan ze simpelweg 1-8 op. Fragmentatie in dat soort systemen betekent dus dat je veel kleine extents hebt. Dat kan betekenen dat je bloklijst zelf groter wordt: { 1-3, 100-102, 104-105 }. Dat maakt zo'n systeem marginaal langzamer. Aan de andere kant, dat soort moderne filesystemen probeert het aantal extents zelf al klein te houden. Zo beginnen ze nieuwe files niet in kleine stukjes vrije ruimte, maar ergens waar ze groeiruimte hebben.
zou wel mooi zijn , maar ook deze schijven zullen vooral in het begin duur zijn, en tegen de tijd dat deze op demarkt zijn is ssd misschien ook al weer een stap verder , nu betaal je voor 150gb raptor ook 144 euro, daar heb je een 1tb schijf voor ,en die presteren ook niet slecht tegenover de raptor, ben benieuwd als het wat wordt :)
Dit zijn schijven voor enterprise oplossingen. Voor databases etc. Niet direct voor thuis.
Raptors zijn geen enterprise schijven. De MTBF is te laag. Daarnaast is de raptor van oorsprong een IDE disk. De enterprise markt vereist scsi of SAS. Gewoon een ander marktsegment Raptors zijn "budget" schijven voor mensen die iets snels nodig hebben. Op dure schijven voor tweakers.
Ik heb de huidige raptor thuis juist om juist het OS een flinke performance boost te geven. Een ander deel wordt voor swap gebruikt.

Het opslag van data (muziek, video, andere software) heb ik de gebruikelijke sata schrijven.
Kijk voor de gein es naar de access times. Geen TB schijf die de raptor daarin voorbij streeft...
Oeh, WDC leest SA-forum, thnx WDC :P

Nu nog ff 400 G(i?)B erin proppen svp! (liever 640G(i)B btw)

Totziens Samsung, Seagate & Hitachi btw
Atty: 8 afnemen?

@Martijn Ve: weln's 'n 600GB SSD gezien met 'n lage prijs dan?
Samsung zit 'net' in de markt & Hitachi, Fujitsu & Seagate hebben tijd zat (gehad), om 'n desktop schijf van 10.000 óf 15.000 RPM te maken :O
M'n argumentatie is "kort door de bocht". Maar is dat niet de bedoeling van kleinere schijven? :P

@Spliffeh: Ik heb vernomen dat je ssd's juist beter niet kunt defragmenteren.

[Reactie gewijzigd door rj1093 op 6 juni 2008 16:27]

Beetje kort door de bocht niet?
Ten eerste deze disks worden vast extreem duur (de huidige velociraptor is al extreem duur en deze zal wel nog duurder worden) en dat is het niet voor iedereen waard. Verder staan de andere merken ook niet stil natuurlijk, die zijn echt ook wel snellere schijven aan het ontwikkelen.

edit:
Ik heb het ook niet over de concurrentie met de ssd, daar zal deze disk wel een aantal voordelen in hebben. ik heb het over de concurrentie met andere disks, de veloci(raptor) heeft normale harddisks niet overbodig gemaakt en dat zal deze disk ook niet doen.
(reageerde vooral op: "Totziens Samsung, Seagate & Hitachi btw")

[Reactie gewijzigd door martijnve op 6 juni 2008 16:28]

de huidige velociraptor is al extreem duur en deze zal wel nog duurder worden)
Volgens de Pricewatch is hij juist de afgelopen paar weken (vanaf aankondiging tot heden) in prijs gedaald

Daarnaast is het qua prijs/Gb de goedkoopste Raptor die op dit moment op de markt is. De 150Gb versie kost namelijk gemiddeld zo'n EUR 1,- per Gb (met een totaalprijs rond de 150 euro), en de Velo EUR 0,84 per Gb. Valt dus best mee, zeker als je ook nog eens rekening houdt met het feit dat een Velo eigenlijk een duurdere 2,5" schijf is.

Hoezo duur?
Verder staan de andere merken ook niet stil natuurlijk, die zijn echt ook wel snellere schijven aan het ontwikkelen.
Volgens StorageReview is er op dit moment al één schijf die qua performance in de buurt komt van de Velo: de Samsung F1. Echter heb ik zoveel enge dingen gehoord over deze schijven dat ik liever dan toch maar de Velo neem en genoegen neem met wat minder opslagcapaciteit. Tot nu toe is er dus nog niemand die, wat SATA schijven betreft, qua performance/kwaliteit in de buurt van de Raptor schijven komt, en voorlopig zie ik dat ook niet gebeuren betreffende de Velociraptor...
20k, hoe zit het dan met de betrouwbaarheid en geluid.

des te snel de onderdelen bewegen, des de grotere kans dat die kapot kunnen gaan.
geluid zou ik me niet teveel van voorstellen. Ik heb de raptor 10k gehad, en na een week met verlies doorverkocht, werd gek van de pieptoon, contant aanwezig. Zou dat me de 20k beter zijn, denk eerder van niet, dan van wel.
De toon van de 20K schijf zal wel hoger zijn. Met een beetje geluk ligt die dan boven de frequentie die je kan horen. Dan is hij niet stil, maar wel onhoorbaar.
oh ja, leuk. vindt je hond ook erg fijn, zeg maar :+
blijft die hond ook eens met zijn haren uit de fans, eerder een voordeel als nadeel lijkt me ;)
Betrouwbaarheid, geen idee. Geluid is een non-issue, aangezien je hier gewoon een handjevol van in je databaseserver drukt, welke in een datacenter hangt waar jij toch niet kunt slapen.
Raptors zijn schijven voor de thuis-tweaker daarom vragen ze zich af hoeveel herrie dat nou allemaal wel niet maakt.
Waarom ik voor SSD zou kiezen is omdat er geen bewegende onderdelen in zitten :)
Jammer van de prijs voor een SSD op het moment nog :(

20k rpm is wel even vooruit gang, vindt mijn 7.2k met 32mb cach al best wel snel xD

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True