Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 139 reacties

Seagate brengt volgend jaar een harde schijf op de markt met een opslagcapaciteit van 10TB. De schijf zal bestaan uit zes platters en gebaseerd zijn op de shingled magnetic recording-technologie. Schijven met behuizingen die met helium gevuld zijn, vindt Seagate te duur.

Seagate gaf eerder dit jaar al een hint dat er 10TB-drives op komst waren, maar in een interview met de Japanse site Akiba, bevestigt een topman van Seagate Japan dat de schijven in 2015 moeten verschijnen. De drives gaan zes platters bevatten. Dat betekent dat Seagate de opslagdichtheid heeft weten te verbeteren ten opzichte van zijn afgelopen jaar uitgebrachte 8TB-schijven.

Ook die drives bevatten zes platters, waarmee de capaciteit per platter op 1,33TB komt. Bij de 10TB-variant ligt die op 1,67TB per platter. Seagate maakt gebruikt van smr-technologie, waarmee de opslagcapaciteit jaarlijks 20 tot 30 procent moet kunnen toenemen. Smr kent enkele nadelen met betrekking tot snelheid, maar Seagate claimt dit deels op te kunnen lossen door de cache te vergroten. De hdd's verschijnen wel als 'archive'-modellen en zijn niet als boot-drive bedoeld.

Seagate wil de schijven voor een lage prijs aan kunnen bieden en zal zich daarom op smr blijven richten. Alternatieve technieken als met helium gevulde hdd-behuizingen gaat het concern niet gebruiken, aangezien de kosten daarvoor te hoog zouden liggen. Concurrent HGST gebruikt wel helium voor zijn 10TB-schijven.

Seagate SMR

Moderatie-faq Wijzig weergave

Reacties (139)

Kijk, daar kan je nog eens wat data op kwijt! Wat ik me alleen wel afvraag, is waarom die schijf niet bedoeld is als boot-drive...
Dat is vanwege het gebruik van SMR. De leeskop van een hardeschijf kan een kleiner gebied lezen dan een schrijfkop kan schrijven. Wat ze doen met SMR is dat ze tijdens het schrijven de vorige track deels overschrijven. Er blijft dan een klein gebiedje met de oude waarde over, welke ze nog kunnen uitlezen met de leeskop. Hierdoor neemt de capaciteit behoorlijk toe. Na een x aantal tracks zit er een gewoon track tussen om het einde van een overschijf sectie te markeren. Op het moment echter dat je halverwege een sectie wat data moet veranderen gaat het mis. Je kan niet zomaar midden in een overlap sectie gaan schrijven, je zult eerst heel het blok moeten lezen, de gewenste data veranderen en dan de hele sectie weer schrijven. Voor een OS schrijf met relatief veel random IO is dit funest voor de performance. Voor een data schijf waar meestal toch grote sequentiele files worden gezet is dit helemaal geen probleem. Daarom word hij ook niet geadviseerd als boot schijf maar als data schijf.
Hier is de uitgebreide uitleg
Dus je zou kunnen zeggen dat hij hetzelfde doet als een ssd, waar je ook alleen per pagina kan schrijven?
Ja, behalve dat bij een SSD dit altijd gebeurt (de belasting is lineair), terwijl bij shingled recording het afhangt van de data die in de overlappende sporen aanwezig is. Als daar toevallig niets staat dan hoeft die data ook niet herschreven te worden en schrijf je de nieuwe data net zo eenvoudig weg als bij een conventionele harde schijf.
Ik denk eigenlijk ook niet dat het handig is om een 10TB (!) schijf als boot-schijf te gebruiken. Ik bedoel: OS+programma's misschien 250GB, games en niet/minder belangrijke data op een 2e schijf. Daarbij zou ik als consument niet graag een onherstelbare crash willen hebben met een 10TB schijf (vandaar dat ik nog steeds vaak schijfjes van 'slechts' 1TB koop.

Ik vind dan ook de term 'archive' wel goed gekozen voor dit product: lange termijn opslag van bijvoorbeeld observatievideo's (buitencamera's).

Persoonlijk zou ik liever (veel) betere compressietechnieken willen zien dan grotere harde schijven. Als Jan Sloots compressietechniek cht was geweest, was 't misschien wel de doodsklap voor harde schijvenboeren geweest ;)
Haha tsja, als die compressietechniek eens zou bestaan, dan hadden we nu nog genoeg aan floppies bij wijze van spreken :D Maar ik weet nog niet zo zeker of compressie wel the way to go is, want read en write acties nemen dan wel meer tijd in beslag door de tijd die (de-)compressie in beslag neemt.
Dat werd vroeger ook gezegd over gebruik van 1tb schijfjes haha
Volgens het artikel omdat de snelheid wat lager is.
De drive zal best als boot-drive kunnen functioneren, maar zal zeker geen snelheidsrecords breken. Dus beter een kleinere, snelle boot/os-drive en een trage storage-drive ernaast.
En elk jaar word er maar meer en meer data in een even groote 3.5 inch behuizing geplaatst. Er moet toch ooit een limiet op komen of gaan we echt tot atoomgroote verder? En wat met de betrouwbaarheid van zo groote schijven?
Dan gaan we weer terug naar de 5.25" hardeschijven, goede oude tijd met de Quantum Bigfoot!
We hebben toch geen optische drives meer nodig.

[Reactie gewijzigd door GewoonWatSpulle op 23 december 2014 10:08]

Inderdaad en hoewel er met HDD's op 5,25 nog wel wat haken en ogen zijn is dat bij SSD,s niet het geval.
Toch bestaan deze niet (op ramdisk/hyperdrive systemen na).
Misschien als ze 3D V-NAND extreem hoog leren stapelen dat dat op de markt komt :D

Wat ik niet snap is dat ze niet OOK een model uitbrengen wat zowel SMR als helium bevat waardoor de dichtheid nog meer toe kan nemen en ze misschien al een 12 of 14 tb drive uit kunnen brengen.
Je concurrentie voor zijn kan veel opleveren.
Persoonlijk heb ik nooit begrepen waarom ze gestopt zijn met de 5.25" HD's. De plaat operavlakte is massief veel groter.

Enige nadeel dat ik kan bedenken is dat er mee trillingen kunnen zijn op zo een platen. Maar gezien de "nieuwe" toepassing helium zou dat juist verminderd kunnen worden.

Nu ja, gezien dat alles gebaseerd is op die 3.5" formaat productie, zie ik niemand nog investeren in een alternatief formaat.
Als de schijf groter wordt, worden trillingen sterker. De as en lagers krijgen het dus zwaarder te verduren. Ook wordt het snelheidsverschil tussen de binnenste en de buitenste cilinder erg groot. Dit stelt weer hoge eisen aan soft- en hardware.
Je tweede argument klopt niet: als je de binnenste diameter opschalen met de buitenste houd je dezelfde verhouding van snelheid binnen en buiten, dus bij de 5.25" gewoon een paar tracks aan de binnenzijde niet gebruiken, dan zit je wat dat betreft weer goed.

Ik denk eerder dat het sneller toenemen van de capaciteit de de kans groot wordt dat we meer richting 2.5" of kleiner gaan, vooralsnog de capaciteit sneller stijgt dan de gemiddelde vraag (4k films, Netflix en meer downloadmogelijkheden) stijgt.
Laatste poging was de bigfoot geloof ik... De oppervlakte was idd massief groter, de afstand tussen de eerste en laatste track daarmee ook, de rotatiesnelheid moest omlaag en daardoor was de seektime dan ook meteen ruk...
Erg betrouwbaar vond ik ze toen ook niet..

Vandaar dat ze ook 2,5" 10.000 toeren schijfjes zijn gaan maken.... Stuk rapper in gebruik

Misschien is t inderdaad een idee om zoiets weer te maken met een fikse solid state buffer buffer om als archive te gebruiken ...
Er is maar een beperkt voordeel te behalen bij zo'n voorsprong. Best kans dat er (op dit moment!) nauwelijks vraag naar zo'n schijf, en vanwege de benodigde investeringen nog minder winst aan te behalen is. Dit hangt uiteraard helemaal af van de vraag van de markt. Aangenomen dat ze goed weten wat er speelt, mag je aannemen dat dit een weloverwogen keuze is.
We kunnen nog een heel eind de 3e dimensie in.
Deze schijf heeft 6 platters. Maar op 1 platter zit 1,670 miljard bits.
Stel je voor dat je in de hoogte net zo dicht kan stapelen (holografische opslag). Dan zit je zomaar een factor miljoen groter.
De betrouwbaarheid van grote schijven; die opmerking komt al langs sinds ze een 10GB schijf aankondigden! Dat viel tot nu toe allemaal wel mee h :)
Wel 1 kant tekening, het is en blijft een seagate drive, en in mijn belevenis zijn die verre van betrouwbaar de afgelopen jaren.. Elke seagate drive die ik heb (gehad) had/heeft wel iets..
Duidelijk niet mee eens, aangezien Seagate gewoon 1 van de beste is, ook de laatste jaren.. Nog nooit klachten gehad hier....
Collega 12 seagates verschillende batches en formaat, allemaal binnen 2 jaar kapot. Onderzoek klopt toch aardig.
De ervaring van 1 persoon is niet representatief voor alle mensen.
Klopt daarom peter123 zegt ook het zelfde.....
Ik heb daarintegen nog nooit problemen gehad met seagate schijven. Twee ervan draaien al bijna tien jaar.
Persoonlijk heb ik ook slechte ervaring met Seagate, en als je een grotere steekproef neemt blijkt dat te kloppen. Deze schijven zijn dan ook niet voor mij.
nieuws: Onderzoek: harde schijven van Hitachi zijn het betrouwbaarst
Daarom zei ik ook de afgelopen jaren..
Tjah, je kan pech hebben natuurlijk. Ik heb hier 3 seagate disks met 12 jaar aan draaiuren in gebruik (en nog een aantal nieuwere). Alleen mn oude seagate (4.3GB schijfje) is dit jaar met pensioen gegaan. hij maakte te veel herrie, en lets face it.. qua energie verbruik is het ook gewoon niet goed te praten dat ding nog te laten werken :+
Kun je deze schijven gewoon in een NAS plaatsen?
Ik begin langzaam aan de limiet te komen en volgend jaar wordt mijn NAS door Synology niet meer geupdate. Dan wil ik dus een nieuwe kopen, maar een kleinere behuizing en daarmee ook minder stroomverbruik past mij wel.
Kun je deze schijven gewoon in een NAS plaatsen?
Ja hoor.

Seagate promoot zijn Archive lijn echter niet voor het gebruik in een NAS, dit omdat ze ook beschikken over een NAS-lijn a la Western Digital met hun NASware lijn (WD RED). WD Greens kunnen ook perfect in een ZFS cluster gezet worden (als je de headparking opschroeft).

Maar je zou als bedrijf nogal gek zijn om goedkopere schijven te promoten voor dat doel als je ook je duurdere lijn daarvoor kan pushen naar de consument.

Dit soort schijven kunnen perfect draaien in een media-NAS (die veelal bestaat uit grote bestanden die weinig wijzigen) en minder goed in een corporate omgeving waar meerdere mensen tegelijkertijd zullen werken met files op de NAS/SAN.
denk dat je dan richting zelf bouw moet gaan. kost veel minder en uitbreid mogelijkheden zijn eindeloos.
Even kijken of het BIOS van je NAS de schijven snapt. Ik denk dat grote NASbouwers wel BIOS updates hiervoor uit zullen gaan brengen.
Dat was enkel een probleem toen de capaciteit naar groter dan 2TB ging. Als je bios of raid card +2TB disks ondersteunt dan ook automatische alle grotere capaciteiten.
Daar ga ik dus niet aan beginnen. Het risico is veel te groot dat je gigantische hoeveelheden data kwijt raakt zodra een drive crasht. Bovendien heb je er dan meerdere nodig om backups te kunnen maken. Persoonlijk vind ik traditionele harddrives te onbetrouwbaar voor zo'n taak, zeker die van Seagate.

Voor permanente backups (weinig lees- en vooral schrijfcycles) is een SSD volgens mij een stuk beter geschikt. Alleen moet de prijs per gigabyte flink dalen. Misschien dat fabrikanten een betrouwbare budget SSD kunnen maken die niet erg snel is (voor backups niet zo belangrijk) maar wel veel capaciteit voor weinig geld levert.

Daarnaast is er natuurlijk ook altijd nog de cloud ...
SSD's zijn echter wel vrij kostbaar en hebben moeite met het een lange tijd vasthouden van data. De voltages zakken langzaam in, waardoor het moeilijker wordt om data uit te lezen. Als de SSD dus een tijd niet gebruikt is (archief) dan sluit ik zelfs niet uit dat het vrijwel onmogelijk wordt. Zie ook de problemen met de Samsung 840 (Evo) reeks, waar ze nu dus een firmware update voor hebben uitgebracht. Nee, doe mij maar een schijf als back-up, veel goedkoper bij grote hoeveelheden data ook.
Je kunt redundant storage opzetten. 'De Cloud' bestaat uiteindelijk ook uit harde schijven. Het is niet alsof die bitjes als herfstblaadjes ronddwarrelen. ;-)
Wat een onzin, dat zei men 'vroeger' ook over 1TB schijven. Wt 1000GB op 1 schijf!? Als je zoveel data hebt dat belangrijk voor je is moet je ook rekening houden met de backup, dat is nu niet anders. Het aantal schijven verminderen is simpelweg efficinter, en milieuvriendelijker, het risico groeit of krimpt niet wanneer de backup goed geregeld is. Moet je je voorstellen dat google 20.000 5TB schijven upgrade naar 10.000 10TB schijven, dat scheelt nogal. Het percentage ervan dat ze gebruiken voor raid/backup veranderd daar niet mee.

Voor thuis zal je waarschijnlijk alleen upgraden voor mr opslag (en google uiteindelijk ook wss maar dat terzijde). Als je nu bijvoorbeeld 1x 2TB, 1x 3TB en 1x 5TB hebt, met die eerste twee (de helft) als backup, dan zou je volgend jaar 1x 10TB erbij kunnen kopen en de rest als backup, zodat je niet 5 maar 10TB veilig kan opslaan.

Als je budget het niet toelaat om rekening te houden met de backup is het voor jou simpelweg niet de juiste keuze. En laat ik maar zwijgen over het idee om de opslag dan maar 10x zo duur te maken.

[Reactie gewijzigd door jesper86 op 23 december 2014 13:27]

Echte mannen backuppen op papyrus: na 2000 jaar nog leesbaar. Serieus: als je wilt backuppen is tape of optisch een bewezen keuze. Ssd nog lang niet.
Als je optische schijven zoals DVD of CD bedoelt, die zijn zeker niet betrouwbaarder dan harde schijven...
Of Magneto optisch. Cd/dvd kan ook maar niet zo lang als papyrus.
Een SSD als backupmedium is het slechste idee ooit. De schijven zijn gemaakt voor snelle random IO acties en dan ga jij die gebruiken voor opslag.
Als ze even duur en even groot worden is er toch geen aanleiding om dat niet te doen, het zal op het totaal plaatje wellicht nog aardige energie besparing opleveren.
Energie om te maken of gebruiken? Als je kijkt wat een 1tb hdd doet vs. Een ssd dan zal je zien dat het flink tegenvalt.
Dan is een SSD nog steeds in idle/Random en Sequential Write ruim een factor twee zuiniger.
Eerste google hithttp://arstechnica.com/civis/viewtopic.php?t=1226363 . zelfs idle zijn sommige ssds niet zo zuinig.
We hadden het over als vervanging voor 68TB 3.5inch drives, 2,5 inch drives zijn soms inderdaad zuiniger maar niet groter dan 2TB verkrijgbaar.
De hdd's verschijnen wel als 'archive'-modellen en zijn niet als boot-drive bedoeld.
Waarom niet als bootschijf? De lezen en schrijven snelheid van de kleinste en dus langzaamste (5TB) betreft 146MB/s

Zijn de schijven daarmee wel verstandig te gebruiken in een NAS of dergelijke? rare marketing jongens daar bij seagate!

@Ultraman
Ik denk dat latency een interessantere waarde is om te vergelijken met een "conventionele" hard disk. Waarschijnlijk ligt die iets hoger.
Dat was ook mijn vermoeden, maar een test van n van de schijven kon ik zo snel even niet vinden.
de lees en schrijfsnelheid kan natuurlijk die van de 128MB cache is, maar de gewone prestaties drame is. maar 5900rpm met zulke dikke platters zou toch wel wat moeten kunnen verstouwen lijkt mij.

[Reactie gewijzigd door dezejongeman op 23 december 2014 09:46]

Ik denk dat latency een interessantere waarde is om te vergelijken met een "conventionele" hard disk. Waarschijnlijk ligt die iets hoger.
Sequentile snelheden zeggen niets over boot prestaties.
Seagate wil de schijven gewoon als massaopslag in de markt zetten. Tegen de bootsnelheden van een ssd kunnen de schijven niet op. Met 6 platters zal het gewicht behoorlijk zijn. Het duurt even voordat zo'n massa op snelheid is. Het kan wel, maar dan heb je een zwaardere motor nodig, terwijl het op snelheid houden lang niet zoveel kracht (en dus energie) vraagt. Het is dus ook een kwestie van geld en energieverbruik.

Tegen de tijd dat een computer van een ssd is opgestart is de schijf wel op snelheid.
je moet dit soort schijven ook niet met een ssd vergelijken maar met andere 3,5 standaard schijf. die hebben immers jaren als bootschijf voldaan en doen dat ook nog bij velen.
Mooi allemaal hoor, maar de toekomst is aan SSD waarvan de
uiterste grenzen nog lang niet bereikt zijn.
Zolang harde schijven nog vele malen meer GB's per euro bieden denk ik dat er gewoon hdd's verkocht blijven worden. Uiteindelijk zal de SSD de harde schijf wel inhalen verwacht ik, maar daar gaan nog wel een behoorlijk aantal jaren overheen.
Klopt, zeker als je kijkt wat er in 9 jaar kan met zelfde micro chip.
http://www.globalnerdy.co.../05/microsd-2005-2014.jpg
De toekomst is aan de SSD als boot schijf en voor alle operaties waar snelle IO belangrijk is. Maar de toekomst is zeker ook nog een HDD in het scenario van opslag. De 2 zijn geen concurrenten van mekaar maar mikken op verschillende doelgroepen en vullen mekaar daarom goed aan;
Mooi om te lezen dat deze schijven niet al te duur gaan worden. Wat ik echter nog interessanter vind is wat dit met de huidige 3 TB schijven gaat doen bijv. Ik zit er nu naar te kijken om er een 3 tal van aan te schaffen, maar met nog 150 euro per stuk wacht ik dit toch maar even af.

Na de komst van deze schijven op de markt echter :9~
Voor 150 euro per stuk krijg je ook al nette 4TB schijven.
En als je kijkt is dat veel te duur. Sinds de overstroming okt 2 jaar terug blijft de prijs kunstmatig hoog.
En als je kijkt is dat veel te duur. Sinds de overstroming okt 2 jaar terug blijft de prijs kunstmatig hoog.
En waar haal je die wijsheid vandaan? Denk je niet dat de enorme concurentie de prijs van HD's tot de laagst mogelijke niveau drijft? Als je ziet dat de HD afdelingen van Seagate en anderen de laagst mogelijke winst produceren lijkt de marge flinterdun.
We willen de prijzen graag laag houden, dan is mijn vraag hoe laag worden? Heb hier zeker interesse in.
Als ik zie dat de 8 TB schijf ca 800 euro kost (vergeet de goedkoopste even, die wijkt teveel af), kun je verwachten dat een 10 TB zo'n 1000 euro zal gaan kosten, misschien bij introductie ca 1200. (zie schijven naast het het artikel).
Lijkt een hoop geld, maar de ST-506 met 5 MB kostte bij introductie ook 1500 dollar
Dat is wel een hele slechte aanname. Als je kijkt naar de huidige Seagate schijven (5TB voor 175 euro en 8TB voor 300 euro) dan zal deze schijf rond de 350 euro uitkomen. Doe er dan nog 50 euro bij omdat het first in class is en de prijs zal rond 400 euro liggen.
Je hebt gelijk. Ik heb het vergeleken met een helium gevulde schijf, terwijl men deze juist niet heliumgevuld wil uitbrengen. Jouw schatting is een stuk beter (en maakt het ook interessanter)
De nieuwe Seagate 8TB schijven ( 5 platen ) bieden ze te koop aan in Duitsland nu voor 240. Dat is een massieve prijsbreker in vergelijking met de Helium gevulde schijven, dat nu idd met gemak nog 800 kosten.

De 10TB schrijf waarover ze spreken is gewoon eenzelfde als de 8TB maar met een 6de plaat erin. Ze kunnen deze gerust vandaag al verkopen als ze willen, maar commercieel is het niet slim ( want het zou de prijzen drukken van hun 8TB variant ). 6 Platen is ook zowat de limiet van 3.5" disks ( zeker met lucht ).
10TB alweer. Waar zal de grens liggen...
We weten hoe groot een atoom is, en hoeveel atomen er op schijf passen... :-)
Zelfs zodra ze dat stadium bereikt hebben, kunnen ze vast wel weer iets met sub-atomen en quantum mechanica ;)
Precies! Photonen bijvoorbeeld. Een andere aanpak kan ook helpen. Nu gebruiken we alleen binaire data op de schijven. Als je dat op kan krikken naar bijvoorbeeld een viertallig systeem…
Die bestaan! Er zijn processors die in decimaal, hex en andere stelsels rekenen. Je betreed dan wel oude-mainframe-graveyard terrein.
Ik had duidelijker moeten zijn ;) Ik bedoelde, dat het veel zou schelen als de hardware zelf, dus op het meest fundamentele niveau, niet alleen nullen en enen zou kunnen lezen en schrijven, maar meerdere niveaus.

Stel dat je decimaal zou kunnen schrijven op een bitje, dan zou een 8-bits integer dus geen waarden van 0 - 255, maar van 0 - 99.999.999 kunnen bevatten

16 bits zou niet van 0 - 65.535 zijn maar 0 - 9.999.999.999.999.999

32 bits niet 4.294.967.295 maar 99.999.999.999.999.999.999.999.999.999.999

:*)
Goede vraag. Ik vraag me ook wel eens af hoe duurzaam dit soort schijven nog zullen zijn. Het lijkt me dat hoe preciezer het komt om te bitjes uit te lezen, hoe gevoeliger het word voor slijtage en andere issues.

Ook vraag ik me af hoe lang die magnetische deeltjes op de schijf "leesbaar" blijven... Echt bizar wat ze weten te presteren met harddisks..
Ik ben geen expert maar 'gewone' magneten blijven juist beter op sterkte als ze gebruikt worden, dus het zou me niet verbazen als dat ook voor de harde schijf geldt.

Een magnetisch deeltje maakt (zeg maar) een kleine rimpeling in het magnetisch veld. Of dat nou naar links of naar rechts is, maakt feitelijk niet uit en dat deeltje zelf slijt niet als je het uitleest.

(De slijtage-gevoelige, bewegende delen, zoals een asje van een schrijf/lees-armpje, blijven altijd het kwetsbaarste deel.)
Meeste schrijven tegenwoordig verversen de data ook elke zoveel tijd.

HDD's en Tapes zouden theoretisch zo'n maximaal 70 jaar kunnen overleven in 'perfecte' omstandigheden. Teminste het magnetisme op de platters/tape zou 70 jaar nodig hebben om compleet af te zwakken.
Maar een gemiddelde HDD head zal naar een jaar of 20 de schrijf niet meer uitkunnen lezen omdat de head te zwak is om de steeds zwakker wordende data uit te lezen.
Sommige tapes beweren 30 te halen zonder al te veel problemen. Maar je zou beter niet met meer dan 10 jaar rekening moeten houden. En aanbevolen is zelfs maar zo'n ~5 jaar.

Daarbij heb je bitrot, elke 8TB oid aan writes is er kans dat een 0 een 1 word of andersom, elke ~10 jaar kan een bitje random verspringen van 0 naar 1 of andersom.
Theoretisch is 20+ jaar goed te doen met een HDD, maar voor belangrijke data langer dan 5-7 jaar is redelijk af te raden.

Maar er zijn HDD's uit de jaren 80 die nu nog leesbaar zijn, maar genoeg ook niet.
Veel informatie was er niet over, staat redelijk verspreid over google en paar simpele uitlegsels en blogs heb je nix aan, heb meerdere keren dit nu een beetje uitgezocht omdat ik het ook wel interessant vond.
Hopelijk zullen wij die grens niet meemaken ;)
De grens wordt steeds hoger maar maakt cloudopslag ook steeds goedkoper.

Dit soort grote hdd schijven zorgt er voor dat je 1tb aan dataopslag in de cloud goedkoop kan aanbieden. Cloudoplsag zal op die manier ook steeds goedkoper worden.
Ja maar je kan ook nog wel wat meer dingen stellen zoals:
  • eigen local storage voor dataopslag steeds goedkoper wordt,
  • je met minder disken grotere redundant capaciteiten kan aanbieden,
  • dat je archiving | backup storage classes veel goedkoper worden,
  • de energiebehoefte per terabyte afneemt,
  • dat asynchrone replicatie goedkoper wordt,
en ik denk dat ik er nog plenty vergeten ben...
M.a.w meer, beter en goedkoper
Yep behalve "beter" ... want door het gebruik van SMR techniek kleven er ook nadelen aan. Het wordt daarom afgeraden deze schijven te gebruiken voor Boot Disken volgens de fabrikant... maar ja volgens mij geldt dat inmiddels voor iedere disk.
wet van moore geldt ook voor HDD's :)

oke sorry.. Kryder's law dan XD

[Reactie gewijzigd door spartacusNLD op 23 december 2014 10:42]

Nogal moeilijk daar die wet gaat over transistoren
Moore's Law is min of meer een self-fulfilling prophecy. Het hoeft niet zo te zijn.

het kan heel goed zijn dat morgen door een of andere natuurkundig moeilijkheden dat de opslagcapaciteit van apparaten en rekenkracht van computer niet meer omhoog kan.

Ik zal daar niet blind op vertrouwen.
Ik zou toch eerst eens zelf je linkje bekijken en eens nadenken of de Wet van Moore hier wel van toepassing is. Hint: nee.
Kryder's law :+ verkeerde link gebruikt idd..

[Reactie gewijzigd door spartacusNLD op 23 december 2014 10:45]

Nee, maar wel voor SSD's ;)

[Reactie gewijzigd door ATS op 23 december 2014 10:08]

Nee, dat wil ik helemaal niet zeggen. Hoe kom je daar nu bij? :?

Ik zeg alleen dat de wet van Moore welliswaar niet voor HDD's geldt (dat zijn immers geen transistoren waar de wet van Moore over gaat), maar juist wel voor SSD's (die wel bestaan uit transistoren).

En nee, dat wil ook niet zeggen dat zelfs de ontwikkeling van HDD's of andere niet-transistor gebaseerde opslag stil staat. Alleen dat de wet van Moore daar niet over gaat.
Je hebt echt geen idee waar het over gaat volgens mij. De "wet" van Moore zegt alleen dat ca elke 2 jaar het aantal transistoren in electronische schakelingen verdubbelt. Het is een observatie van wat er gebeurt in de praktijk, geen fysische wet zoals de wet van Newton of die van Buys-Ballot. Het geeft een aardig idee van hoe snel ontwikkelingen in deze tak van technologie gaan, inclusief die van SSD's. Bij SSD's komt het neer op grofwel elke 2 jaar 2x zo groote SSD's.

Ik zie werkelijk niet in waar ik nu ineens een limiet zo introduceren.

Oh, en die observatie over hoe snel de techniek zich ontwikkelt is ook niet gedaan door de eerste de beste. Gordon Moore is een van de oprichters van Intel. Wellicht ken je dat clubje wel... 8)7

[Reactie gewijzigd door ATS op 23 december 2014 12:49]

Het is een observatie van wat er gebeurt in de praktijk, geen fysische wet zoals de wet van Newton of die van Buys-Ballot.
Zo is het inderdaad ooit begonnen, maar toen het ook een redelijk nauwkeurige voorspelling bleek te zijn, begonnen steeds meer bedrijven hun road maps hierop af te stellen. Tegenwoordig worden er miljarden euro's uitgegeven aan R&D en productplanning ("het duurt X jaar om een smartwatch te ontwikkelen, dus tegen die tijd hebben we een processor met snelheid Y beschikbaar"), uitgaande van de Wet van Moore. We zitten nu in een situatie waar de Wet van Moore geldig blijft omdat iedereen er vanuit gaat dat de Wet van Moore "voorlopig nog wel zal blijven werken". De correcte naam van "Moore's Law" zou dus eigenlijk "Moore's Self-Fulfilling Prophecy" moeten zijn.
Ik zie werkelijk niet in waar ik nu ineens een limiet zo introduceren.
Niet direct, maar we zijn op het punt aangekomen waarop het formaat van transistoren te meten is in een aantal atomen. Ik zeg niet dat een transistor van n atoom mogelijk is, maar stel dat we dat voor elkaar krijgen; kleiner zal toch echt niet gaan.
Al moet ik eerlijk toegeven dat, juist omdat de Wet van Moore geen natuurwet is, er nog redelijk wat ruimte is om "vals te spelen": het is uiteindelijk geen uitspraak over natuurkunde, maar over de vindingrijkheid van ingenieurs. Als je bijvoorbeeld naar 3D chips gaat, dan kun je op een "grondoppervlak" van n atoom wel degelijk meerdere transistoren kwijt, door ze op elkaar te stapelen. In het specifieke geval van storage kun je ook meerdere bits in n cel kwijt, waarmee je ook weer wat extra speelruimte hebt.

[Reactie gewijzigd door robvanwijk op 23 december 2014 19:45]

Hulde voor je geduld en oprechte insteek om iemand, die zich zo - onnodig- opwindt en dat naar jou ventileert, toch wijzer te willen maken. :)
Ik denk dat jij niet weet wat de wet van Moore betekent. Lees misschien eerst dit even: http://en.wikipedia.org/wiki/Moore%27s_law
Moore's Law legt helemaal geen grens op. Kalmeer eens.
Wet van moore heeft niets met capaciteit te maken maar met transistor groote, je kunt op een gegeven moment niet kleiner (theoretisch, kun je niet kleiner dan 1 atoom, maar de quantum mechanica is daar ook al op aan het voortboorduren)

De capciteit kan eindeloos doorgeduwd worden, gaan aardig wat printplaten in een 5.25 bay ;)
over een 20 jaar zullen ze erover lachen als je het over 10TB hebt, dan zullen de schijven rond de 1PB (peta byte) zitten

kijk maar hoe groot ze 20 jaar terug waren. (rond de 10GB max per HDD )
Er zijn geen grenzen in dit heelal

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True