Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Seagate werkt aan hdd's met twee actuatoren om snelheid te verdubbelen

Seagate heeft een techniek voor hdd's aangekondigd die gebruikmaakt van meerdere actuatoren, die ieder onafhankelijk een set schrijfkoppen aansturen. Door twee actuatoren te gebruiken zou de snelheid van een hdd verdubbelen.

Seagate noemt de techniek Multi Actuator en afgaande op illustraties en een filmpje lijkt het te gaan om een traditionele hdd, waarbij enkel de actuator die de schrijfkoppen aanstuurt, is aangepast. In plaats van één exemplaar gebruikt Seagate er twee. Iedere actuator stuurt een set van schrijfkoppen aan en omdat de actuatoren onafhankelijk van elkaar kunnen bewegen, ontstaat er een snelheidsvoordeel.

Hdd's hebben meerdere platters waar de data op staat. Bij huidige hdd's met één actuator kan per beweging maar één platter uitgelezen worden. Door meerdere actuators te gebruiken, zou dus data van verschillende platters tegelijk benaderd kunnen worden. In feite levert dat een vergelijkbaar snelheidsvoordeel op als bij raid-opstellingen van meerdere hdd's. Seagate meldt dat de eerste generatie van zijn Multi Actuator-producten twee actuatoren zal bevatten. Over toekomstige hdd's met nog meer actuatoren rept Seagate nog niet, maar dat lijkt niet uitgesloten.

De fabrikant wil de techniek inzetten in hdd's die voor datacenters zijn bedoeld en daarmee lijkt het gebruik van meerdere actuatoren niet naar harde schijven voor consumenten te komen. Het verdubbelen van de snelheid van een hdd zou op het gebied van willekeurige lees- en schrijfacties er ook nog niet voor zorgen dat de prestaties in de buurt komen van moderne ssd's.

Seagate heeft nog geen hdd's met meerdere actuatoren aangekondigd, maar de fabrikant meldt dat de techniek in ontwikkeling is en toegevoegd zal worden aan producten die in de nabije toekomst uitkomen. Om de capaciteit van harde schijven te vergroten, werkt Seagate aan hdd's die werken met heat-assisted magnetic recording, ofwel hamr. In 2019 zouden er 20TB-hdd's komen en in 2023 zou de capaciteit 40TB of meer moeten zijn. Waarschijnlijk worden dergelijke hdd's uitgerust met meerdere actuatoren.

Door Julian Huijbregts

Nieuwsredacteur

19-12-2017 • 17:42

77 Linkedin Google+

Submitter: TD-er

Reacties (77)

Wijzig sortering
Conner Peripherals heeft dit idee al in 1995 gepatenteerd en noemden het de "chinook".

foto: https://en.wikipedia.org/...2_dual-actuator_drive.jpg

en enkele jaren later zijn ze uitgekocht door een bedrijf genaamt seagate die er verder niks meer heeft gedaan
vreemd dat dit niet even word vermeld in het artikel.... :X

[Reactie gewijzigd door flippy op 19 december 2017 18:09]

De werking lijkt iets anders dan die chinook. Het lijkt of gewoon de ene helft van de platters gelezen en geschreven worden met één actuator en leeskop, terwijl de andere helft door de andere wordt gedaan, en beide actuators een enkele as delen. Met de chinook zitten de actuators op losse assen, en kunnen alle platters door beide leeskoppen gelezen en geschreven worden.

Bronartikel:
With two actuators operating on a single pivot point, each actuator will control half of the drive’s arms. Half the drive’s recording heads will operate together as a unit, while the other half will operate independently as a separate unit

[Reactie gewijzigd door Niet Henk op 19 december 2017 19:10]

dat komt omdat seagate binnen de form factor wilt blijven. dus er is maar ruimte voor 1 as/arm.
Je kan ook inleveren op de platter size, om meer ruimte te maken en een snellere harde schijf te kunnen maken. Dat is iets wat veel gedaan wordt in 15K rpm schijven, die vaak een platter diameter van 2.5" hebben, t.o.v. de gebruikelijke 3.74" (niet te verwarren met de form factor, die voor dit voorbeeld 3.5" is).

Het is altijd een overweging tussen snelheid/hoeveelheid opslagruimte/prijs, en ik denk het concept met twee assen en twee losse lees/schrijfkoppen eigenlijk nergens past met de komst van de SSDs (mogelijk zijn er in de databasewereld nog plekken waar performance erg belangrijk is, maar een SSD te snel slijt).
Zolang de prijs van SSD op x8 ligt per GB blijven HDDs aantrekkelijk.
Maar dat is zeker niet het geval voor 15K rpm schijven. En ik gok dat deze twee losse lees/schrijfkoppen snel duurder dan dat zal zijn.

De goedkoopste 600GB 15K rpm schijf in de pricewatch kost momenteel ¤128 (en dat is enkel bij één iets dubieuze winkel). Een 525GB MX300 kost ¤134. Natuurlijk deels enterprise vs consumentenspul, maar toch.

High RPM schijven zijn nu ongeveer even duur als SSDs, ook op enkele andere capaciteitspunten, en ik kan me voorstellen dat SSDs eerder goedkoper dan duurder worden. Het voornaamste voordeel van zulk soort snelle harde schijven is dan toch enkel betrouwbaarheid bij voortdurende belasting.

[Reactie gewijzigd door Niet Henk op 20 december 2017 12:30]

eigenlijk dus bijna een soort raid-0 idee. slim, best interessant idee, gezien de kosten niet veel hoger hoeven te zijn dan bij een traditionele schijf.
ze zijn gemaakt en ze hadden geweldige prestaties voor de tijd. het product was goed. probleem zat hem in de software en aansturing. de rest was gewoon niet klaar hiervoor.
Wat ik hier aan uit kan maken is dat het misschien in de toekomst geen nut meer heeft voor een SSD?. Want als zo meteen alle koppen individueel kan bewegen kunnen HDDs echt snel worden.
Latency is ook een belangrijke factor. De latency van een harde schijf ligt tussen de 5 en 25 microseconden, terwijl een SSD rond de 0,02 a 0,03 microseconde (20 tot 30 nanoseconde) zit. Dat is bijna een factor 1000 verschil. Bron, Bron.

Ook het aantal IOPS (input-output operations per second) is ook een wereld van verschil. Een HDD haalt rond de 200 IOPS, een SSD gaat over de 100.000, een 960 Evo doet 330.000 IOPS. Wederom meer dan een factor 1000 verschil. Zelfs met 8 losse actuatoren praat je over 1600 tegenover 100.000. Bron.

Edit @robvanwijk zat te slapen ;)

[Reactie gewijzigd door Balance op 19 december 2017 18:15]

0,02 a 0,03 milliseconde (20 tot 30 nanoseconde)
0,02 milliseconde is 20 microseconde is 20.000 nanoseconde.
Je kunt het hele lijstje hier vinden.
De latency van een harde schijf zit in de orde van enkele milliseconden.
Je moet namelijk simpelweg wachten tot de data voorbij komt onder de kop.
Dus met een 7200 rpm schijf duurt 1 rotatie 8.33 msec (120 rotaties per sec)
Gemiddeld moet je dan dus een halve rotatie wachten, dus zit je op nog steeds meer dan 4 msec gemiddeld.
Daarnaast moet je de actuator naar de juiste sector bewegen en de data nog verwerken.
Met de genoemde latency zit je er voor de hdd (en ook de SSD) dus ongeveer een factor 1000 naast.
Zelfs als je de lees/schrijf kop onafhankelijk van de vorige I/O juist kan zetten, moet je nog altijd gemiddeld een halve rotatie wachten tot de juiste plek onder de kop door komt. Verwacht dus geen SSD snelheid, waar de juiste plek altijd bereikbaar is, zonder rotatie-latency.
En je kan de lees/schrijf kop zelfs met dit systeem niet onafhankelijk klaar zetten. Net zoals bij RAID kan je N opdrachten parallel afwerken, en dat parallellisme is alleen optimaal als de aanvragen goed gespreid zijn. Bij RAID is N het aantal data-disks (aantal disks - aantal parity blokken per set), bij deze techniek is N het aantal actuators.
SSDs zijn vooral goed in random read/write, en dan ook meteen honderden keren beter. Een HDD kan dit fundamenteel gewoon niet evenaren door het ontwerp. Zelf met dit ontwerp heb je misschien 2x of later 10x snellere gemiddelde random io (want als een groot deel semi random op je "bovenste" deel ligt hier heb je hier niks aan) maar dan nog kom je niet in de buurt. Dus ik zie het somber in voor de HDD, behalve voor sequentieel bergen data streamen, zoals data centers soms doen. Misschien een gigantische back-end store die dan grote blokken naar SSD of RAM cached waarbij de blokken niet zo heel vaak veranderen. Dan zie ik er wel nuttige toepassingen voor.
Wat ik hier aan uit kan maken is dat het misschien in de toekomst geen nut meer heeft voor een SSD?. Want als zo meteen alle koppen individueel kan bewegen kunnen HDDs echt snel worden.
Een SSD is met random data nog altijd vele malen sneller, ook als een hdd 7 koppen zou hebben. De toegangstijd is ~100x zo kort, theoretisch wordt dat met 7 individueel bewegende koppen wat sneller, maar ik denk niet dat je mag stellen dat het 7x zo snel wordt, sterker nog: ik weet niet precies hoe access time gemeten wordt, maar als het om het opzoeken van een enkele bit gaat, schiet je met 7 individuele koppen niks op, behalve dat ze misschien ietsjes sneller kunnen bewegen dankzij een lagere massa. En zelfs al zou het een factor 7 schelen, dan is een SSD nog 100 / 7 = ruim 14x zo snel.
Volgens mij kan je, als je als HD-fabrikant echt wanhopig word, op elke hoek van de doos waar de schijf in zit, nog een as zetten waar je actuators op zitten. Daarmee gaat je toegangstijd er met een factor 4 op vooruit.
Je kan zelfs nog actatoren erbij zetten (op dezelfde as) die aan andere de andere kant van de as uitsteken en bewegen. Nog een factor 2?
Dit is niet helemaal correct. HDD's hebben nog steeds mechanische delen die kunnen falen en de hele HDD onbruikbaar kunnen maken. Bij een SSD, als de NAND Flash niet meer juist werkt, kan er geen data bij worden geschreven, maar er kan nog steeds toegang verleend worden tot de data. Iets wat je bij een HDD niet zou hebben als de mechanische delen zouden falen.

[Reactie gewijzigd door Oimatewtf__ op 19 december 2017 17:58]

Er zijn bedrijven die erin gespecialiseerd zijn om data van kapotte HDDs te halen.
Dus je kunt er nog steeds info vanaf halen.
Het probleem is dat dit echt aan de staat van de HDD ligt. Soms kan er nog data vanaf worden gehaald, en soms is de HDD gewoon te ver heen. Iets wat ik bij een SSD nog moet meemaken. Ik heb een kapotte ADATA SSD, waar niets meer kan worden bijgeschreven maar de data die er opstaat is nog steeds toegangelijk.
Ik heb een kapotte ADATA SSD, waar niets meer kan worden bijgeschreven maar de data die er opstaat is nog steeds toegangelijk.
Ja, maar leg hem een paar jaar in een doos in een la en kijk dan nog eens. Mijn harde schijven uit 2004 zijn nog heel goed leesbaar.
Ik heb een SSD van nog geen 4 jaar oud die niet meer herkend wordt door de computer waar hij 4 jaar in heeft gezeten
ook andere computers herkennen de schijf niet..

dat heb ik nog nooit eerder mee gemaakt met een HDD eerlijk gezegd..
Er zijn bedrijven die erin gespecialiseerd zijn om data van kapotte HDDs te halen.
Dus je kunt er nog steeds info vanaf halen.
Ja, in principe kan dat wel, maar dan moet de data dat wel waard zijn, want het is heel duur. Ik heb het met een microsd-kaartje wel eens meegemaakt dat ik er alleen nog van kon lezen en niet meer naar kon schrijven. Onder garantie vervangen uiteraard, maar zoiets heb ik met een HDD nog nooit gehad. Toch mooi dat ik de data er ongehavend af kon halen voor ik hem terugstuurde :) Nadeel is wel dat je data door de leverancier ook te lezen is (je kunt het niet verwijderen). Stond niks spannends op, maar wat moet Samsung met mijn wintersport actioncambeelden? ;)

[Reactie gewijzigd door Grrrrrene op 19 december 2017 18:09]

Met de nieuwste zeer high density drives word dat moeilijker en moeilijker (of beter gezegd duurder en duurder) want de precisie die nodig is neemt enorm toe. Dezelfde platters in een nieuwe drive werken vaak niet en dan moet de kop plaatsing manueel aangepast worden. Dat betekend uren prutten met een behoorlijke kans dat het niet lukt. Nooit op vertrouwen dus.
Ik heb het niet over falen maar meer over de snelheid. Wat jij zegt klopt natuurlijk ook. Ik denk ook dat de koppen allemaal apart kunnen bewegen dat de HDD ook sneller kapot gaat.
Als je ziet dat moderne SSDs al snelheden halen van ca 3GB/s via een PCIe interface. Voor HDDs is de interface best een beperkende factor al willen ze de SSDs bij kunnen benen.
Ik heb ergens het idee dat Seagate de maximale snelheid van HDD's over de SATA interface willen vergroten, en dat Janspook ook doelde op SATA SSD's. Niet PCI-E of NVME SSD's.
Correct. De snelheid van NVME of PCI-E zal nog wel een tijdje duren voordat HDDs daar zijn
Natuurlijk heb je gelijk wat betreft de snelheid. Maar in jouw context leek het voor mij alsof met deze technologie een SSD obsolete zou worden omdat ze "geen nut meer zouden hebben". Ik vraag me ook af wat HDD"s met deze technologie gaan kosten t.o.v een normale HDD met dezelfde opslagcapaciteit. Blijft dit hetzelfde, of betaal je een premium. Ook weer dingen om te overwegen.
Tot zover het theoretische verhaal....
In de C'T van maart 2017 staat het artikel "Zo lang gaan SSD's mee"
Hierbij werden 12 SSD's (6 verschillende) continu beschreven met een testtool.
In het artikel staat, dat tegen de verwachting in, de meeste SSD's niet meer te benaderen waren nadat ze waren doodgeschreven.
Laten we wel even reëel zijn dat dit is gedaan in onrealistische omstandigheden. De gewone gebruiker gaat een SSD hoogst waarschijnlijk niet doodschrijven en er werd meer dan een petabyte weggeschreven op die schijven in een zeer korte periode. Ik heb mijn 850 EVO nu al 2 jaar, en zit pas op de 8TB geschreven momenteel. Ik zal in mijn leven de petabyte waarschijnlijk niet eens halen met mijn normale gebruik. Dus de vraag of die test echt relevant is voor de meeste gebruikers valt nog over te discussiëren.
HDDs hebben nog steeds het nadeel dat de access times langer zijn, doordat de plaat op snelheid moet komen en de kop naar de juiste plek moet worden gestuurd. Dus bij het lezen van meerdere kleine (niet-sequentiële) bestanden blijft de SSD voordeel houden.
Harde schijven hebben nu nog steeds een voordeel in de dataretentie* en prijs per TB.

*Hoe lang de bitjes goed blijven.
Dit is vooral leuk voor datacenter toepassingen. De disks worden steeds groter maar de interface/snelheid ernaar toe blijft hetzelfde.

Als dat doorzet is data eraf en erop krijgen de bottleneck.

Het duurt nu al best lang om 10tb disks te vullen met data.
Dus eigenlijk een vorm van raid?
In het filmpje zie je een schijf met 8 leeskoppen, dat zijn er al 4 meer dan normaal in harde schijven zit.
Je zou dus kunnen stellen dat Seagate 2 harde schijven aan elkaar heeft gekoppeld in een behuizing.

Zou overigens wel interessant kunnen worden als elke leeskop z'n eigen actuator mee krijgt, dat er straks harde schijven zijn met 4 of 8 leeskoppen die individueel van elkaar kunnen opereren.
En wat als je dan ook nog eens meerdere van die schijven in een raid opstelling zet? Dat moet dan toch een serieuze concurrent van de SSD schijven kunnen worden, de snelheid van SSD met de grootte van een normale harde schijf...
Ik zou bijna stellen dat de HDD fabrikanten echt lang op hun gat hebben gezeten. De aim was puur zoveel mogelijk opslag persen op een aantal platters maar snelheid bleef altijd een beetje achterwege. Wat heb je nu aan een 10TB disc dat 2 dagen duurt om volledig te kunnen schrijven terwijl een SSD door die snelheden heenfietst? Een HDD heeft gemiddeld 200 ~ 250MB aan read / writes en zal altijd last hebben van access times. Ook met meerdere actuators behou je lag. En R&D moet hoogstwaarschijnlijk terug worden verdiend.

Een SSD heeft al de toekomst. Je koopt tegenwoordig enterprise SSD met opslag en snelheden waar je u tegen zegt. Daar kan een rack vol met HDD's nog steeds niet tegenop tegen IOPS, ruimte, stroom en noem maar op.
In praktijk geldt het omgekeerde veel harder: Als het om grote hoeveelheden gaat, zoals een heel rek vol met schijven, kan SSD daar niet tegen concurreren. Zeker, met SSD's zijn veel hogere snelheden te bereiken, maar een rek vol met harde schijven is voor veel toepassingen adequaat. Daarmee zijn kosten per terabyte en energieverbruik dan meteen belangrijker criteria waar naar gekeken wordt.

Desondanks moet er iets gebeuren: Met grote harde schijven wordt de RAID-rebuildtijd oncomfortabel hoog. De goede prijs per terabyte van een grote schijf wordt daarmee te onpraktisch. Ik zie deze ontwikkeling als een stap om de schijf bruikbaar te houden in zijn eigen toepassingsgebied, niet om de SSD naar de kroon te steken.

Vanzelfsprekend wil je in je PC op zijn minst je besturingssysteem op SSD zetten daar gaan dit soort schijven niets aan veranderen.
Ik dacht dat data over alle koppen en platters tegelijk geschreven/gelezen werd. Niet maar 1 platter tegelijk. Ik kan hiervoor geen link vinden, maar het zou toch wel veel logischer zijn om de data te parallel verdelen over de platters, ipv serieel.
De tracks op die platters liggen ZO ongelofelijk dicht op elkaar, dat het ondoenlijk is om meerdere tracks tegelijk uit te lezen met 1 actuator. Vergeet niet dat de koppen met nanometer-precisie geplaatst moeten worden. Op die schaal, en met de enorme snelheid waarmee dat gebeurt, gaat de elasticiteit van de leesarmen ineens heel hard meespelen: ze zwiepen heen en weer en het is al werkelijk een huzarenstukje om 1 head tegelijk netjes boven een track te houden. Meerdere tegelijk is gewoon fysisch onmogelijk met deze densiteit.
Goed punt. En ook electronica die meerdere keren uitgevoerd moet worden. In de dichtheid valt meer te behalen dan met een paar koppen.
Ik denk dat in het artikel, platters (verkeerd) gebruikt is om tracks aan te duiden.
Met 1 set van koppen kan er maar 1 track (* het aantal platter *2 (zijde)) benaderd worden.
Met 2 sets van koppen alleen, kan je niet zozeer meer snelheid vergaren zoals het plaatje/vid voorstelt, omdat 1 set maar 50% van de sectors kan benaderen.
Als je naast die 2 sets ook nog eens slimmere FW hebt die de drive in staat stelt 1 set alvast te postitioneren (waar de meeste latency vandaag komt (seektime)) terwijl de andere set zijn acties aan het doen is, dan kan je je winst pakken.

[Reactie gewijzigd door SpamLame op 19 december 2017 18:06]

Ik zou technisch gezien ook niet weten waarom dat niet zou kunnen en niet gedaan zou worden. Natuurlijk zal het geregeld voorkomen dat je de bits niet op dezelfde locatie kunt uitlezen, waardoor niet alle koppen tegelijk nuttige informatie kunnen lezen, maar met slimme algoritmes kun je opvolgende bits over alle platters verdelen. Come to think of it: zo _moet_ het nu toch gewoon gaan?
Gaat bij parallelle aansturing de busbreedte niet erg omhoog? ;) Of beter je benodigde bandbreedte.
Hebben eerst SATA-16 of zo nodig... :P
Mwah, een gemiddelde hdd doet sequential reads van 200MB/s ofzo? Dan zit er nog wel wat rek in als SATA-3 6Gbit/s als max snelheid heeft. Zeker een factor 3-4 verbetering :)
SSD op Sata blijft ook beetje hangen op 550MB/s dus denk eerder maar 2 a 3x sneller. Dus zeker niet verkeerd.

Misschien zou die leeskop ook gewoon uit 2 a 3 (of zelfs 4) hoeken kunnen lezen (dus meerdere leeskoppen per platter). Helaas zal de accesstime nooit die van een SSD kunnen benaderen.

[Reactie gewijzigd door watercoolertje op 19 december 2017 23:01]

Ik kan er niet zo mee zitten dat ze de snelheid van SSD nooit zullen benaderen, ik verwacht dat met een jaar of 5 er geen toepassingen meer zijn (voor consumenten) waar je een HDD zou inzetten. SSD's beginnen al aardig goedkoop te worden en zijn gewoon betrouwbaarder. Hun beperkte levensduur is vooral een getal op papier; ik ken nog niemand die z'n SSD echt "versleten" heeft.
Dit zijn geen consumenten schijven dus de kans is redelijk groot dat deze schijven aan SAS-3 12 Gbit/s doen :)
Er is al tijd sas3 die doet 12gbit/s
Dit zou natuurlijk nog een niveau hoger kunnen door twee verschillende actuator torens te hebben, of zie ik dit verkeerd?
Dat is een suggestie die iedereen altijd doet, maar dat schijnt ontzettend veel practische problemen op te leveren. Ik kan zo uit mijn hoofd niet het hele lijstje opnoemen, maar één van de lastige punten is dat het niet triviaal is om te kiezen welk van de koppen een bepaalde leesactie (of schrijfactie) moet uitvoeren. Met deze aanpak is dat in elk geval wel duidelijk: elke sector kan slechts door één kop benaderd worden. De vergelijking met RAID is wel een goede: in feite heb je twee schijven in RAID 0 staan, die "toevallig" op dezelfde spindel en in dezelfde behuizing zijn gemonteerd.

Ik was inderdaad erg verbaasd dat ze nu het "onmogelijke" toch voor elkaar hadden, totdat bleek dat er nog steeds slechts één "toren" is, maar dan in tweeën gesplitst. Dat op zich zou je al moeten vertellen dat het niet makkelijk is om de (veel meer voor de hand liggende) oplossing van twee "torens" aan de praat te krijgen, anders hadden ze echt wel daarvoor gekozen.

Edit:
Zie net een reactie van flippy.nl dat het wel degelijk mogelijk is om twee volledige set read/write heads te hebben. Er staat helaas geen verklaring bij waarom er slechts "a limited number of dual-actuator drives" is geproduceerd.

[Reactie gewijzigd door robvanwijk op 19 december 2017 18:27]

Prima uitleg, dank je :)
Ik kan me voorstellen dat dat problemen oplevert met ruimte in de behuizing; nu is er alsnog maar één scharnierpunt nodig.
Wat ik niet snap is waarom harde schijven de laatste jaren nauwelijks goedkoper zijn geworden, terwijl ze minder gewild zijn ivm de opkomst van SSDs.
Dat iets minder gewild is betekend niet automatisch dat de prijs omlaag kan.
Dat zou betekenen dat er weinig marge op zit, wat moeilijk te geloven is met zo weinig concurrentie en doorontwikkelde techniek.
Dat, of simpelweg dat ze de prijs niet willen verlagen omdat ze er toch nog genoeg aan verdienen. Het hele aanbod/vraag verhaal gaat eigenlijk alleen op als je het puur over ruwe grondstoffen hebt.
Technologische ontwikkeling komt niet meer veel vooruit. Misschien speelt ook mee dat er minder concurrentie is.
Nee, de vraag naar HDDs is gedaald door de SSD. Maar dat betekent niet dat mensen geen HDDs meer kopen. In de meeste nieuwe systemen uit de zelfbouw zit een SSD en een HDD.
Het is minder gewild. Maar met mate. En waarom zou je de prijs omlaag schroeven als het zo ook verkoopt?
Ik ga er toch vanuit dat de vraag gemiddeld gezien gedaald is, maar ik kan er naast zitten. Wellicht dat datacenters de mindere vraag van consumenten weer compenseren. Ik vermoed echt gewoon een gebrek aan concurrentie.
Overigens ken ik persoonlijk bijna niemand meer die nog een HDD in zijn systeem heeft.
Ik ken veel mensen die nog steeds HDDs gebruiken, al dan niet als opstartschijf
Wacht, ik dacht dat een harde schijf zijn data zo neerzette dat je altijd van meerdere platters tegelijk kon lezen, door dus de sectoren op de schijven verticaal neer te zetten voor sequentiele toegang.

Waarom doen ze dat niet gewoon dan?
leek mij ook? stel je hebt 3 fysieke platters.. welke aan 2 kanten data kunnen bevatten.. dan heb je dus 6 lees/schrijfkopjes.. die kunnen toch alle 6 tegelijk de data lezen / schrijven :?
en het idee van Conner uit 1995 lijkt me toch leuker dan het ding wat seagate nu bedacht heeft :?

gezien je dan dus over ALLE platters met 2 koppen kan racen.. dus ook van 1 platter 2x zo snel data lezen / schrijven
Nee; elke track heeft z'n eigen positioneringsinformatie. Met 3x2 koppen heb je dus 6 keer positioneringsinformatie, en die is potentieel niet hetzelfde (thermische expansie van de platters).
Ik had eigenlijk wel verwacht dat ze dit al soort van deden door data te interleaven over de platters. Terwijl kop #1 bitje 1 leest, leest kop #2 bitje 2, enz...
ik ben van mening dat het winst zal opleveren als de Data ( Programma ) verspreid is over meerdere platen. vooral met kopieren / plakken etc.

Als het op 1 plaat is dan niet.
SSD heeft dit niet en is altijd snel.
Zou dit ook niet nogal stroomverslindend werken? En een heel stuk luider zijn? Lijkt me niet echt iets wat ooit naar consumenten gaat komen, alleen al om die redenen
Misschien wel handig voor in opslagservers, want in serverrooms hoor je toch al vaak wat herrie van de ventilatoren en massaopslagservers die iets versneld worden maar toch de hoge dataretentie (tov SSD) behouden, dat is wel aantrekkelijk.
Bij opslagdiensten worden schijven stelselmatig vervangen. Om dan de snellere variant te halen is dan natuurlijk aantrekkelijker.

De prijs zou dus ook wel eens pro-sumer kunnen worden
Voor datacenters is het idd wel handig natuurlijk, alleen niet voor thuisgebruik :)
Thuisgebruik is het inderdaad niet het beste.
Want een avg persoon maakt niet snel het TBW van een SSD vol en daarmee is een SSD voor thuisgebruik vaak superieur als primaire schijf. Secundaire schijf zie je ook vaak nog een HDD, maar dat is dan vaak de opslagschijf.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True