Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Seagate begint productie hamr-hdd's en komt in 2019 met 20TB-modellen

Seagate zegt vanaf 2019 hdd's te gaan leveren met een opslagcapaciteit van 20TB of meer, dankzij gebruik van heat-assisted magnetic recording. De fabrikant stelt dat de prijs per terabyte van hamr-hdd's lager is dan die van huidige hdd's.

Seagate meldt in een blog dat het op dit moment al de eerste hamr-hdd's aan klanten levert voor tests. De fabrikant zegt er al meer dan 40.000 geproduceerd te hebben. Volgens Seagate hebben de hdd's de tests goed doorstaan en werken ze zoals verwacht. Wat de opslagcapaciteit is van de huidige modellen, is niet bekend.

Volgend jaar wil Seagate starten met het produceren van hamr-hdd's op grotere schaal en in 2019 zou het leveren van hdd's met een opslagcapaciteit van 20TB of meer moeten volgen. De hdd's worden op dezelfde productielijn gemaakt als huidige traditionele hdd's. Volgens Seagate komen er in 2023 hdd's met een capaciteit van 40TB of meer beschikbaar.

Bij hamr-hdd's worden de magnetische gebieden waar data wordt opgeslagen onder verhitting van een laser gedemagnetiseerd en weer gemagnetiseerd. Daardoor kan data makkelijker geplaatst worden en kan de datadichtheid verhoogd worden. De hamr-hdd's gebruiken platters van glas, meldt Seagate. Dat is noodzakelijk omdat de platters tegen hogere temperaturen moeten kunnen, volgens Hoya tot wel 700C. Huidige op aluminium gebaseerde platters zouden maximaal 200C kunnen weerstaan.

Seagate werkt al jaren aan de hamr-techniek. De fabrikant stelt dat in de afgelopen negen jaar de datadichtheid ieder jaar met 30 procent is toegenomen en ook in de toekomst zou die stijging doorgezet kunnen worden. Bovendien stelt de fabrikant dat de prijs per terabyte lager is dan bij huidige pmr-hdd's. De gebruikte schrijfkop is wel duurder, maar omdat de capaciteit per schijf hoger is, resulteert dat in een lagere prijs per terabyte.

Met de huidige pmr-techniek is het maken van hdd's met een hogere opslagcapaciteit vrijwel niet meer mogelijk. Fabrikanten zoeken daarom naar alternatieven. WD kondigde eerder deze maand aan dat het in 2019 de eerste hdd's met microwave-assisted magnetic recording-technologie gaat uitbrengen. De mamr-technologie maakt gebruik van microgolven die worden gegenereerd door een spin torque oscillator, die zich vlakbij de schrijfkop bevindt. Deze genereert een elektromagnetisch veld dat het mogelijk maakt om gegevens met een veel hogere dichtheid naar een magnetische laag te schrijven, zonder dat daarbij de betrouwbaarheid in gevaar komt.

WD claimt dat er bij de hamr-techniek van Seagate meer 'uitdagingen' zijn op het gebied van materialen en betrouwbaarheid en dat zou bij de eigen mamr-techniek niet het geval zijn. Ook WD zegt dat de kosten voor mamr-hdd's vergelijkbaar zijn met die van huidige hdd's. Volgens de plannen van Western Digital zouden er rond 2025 hdd's met een capaciteit van 40TB op de markt komen.

Door Julian Huijbregts

Nieuwsredacteur

24-10-2017 • 19:48

89 Linkedin Google+

Reacties (89)

Wijzig sortering
Buiten de opslagcapaciteit ben ik ook wel benieuwd naar de read/write snelheden. Grotere dataduchtheid zou in theorie betekenen dat de snelheid omhoog kan. Schijven hebben natuurlijk een opspuntijd maar ben benieuwd If het mogelijk is dat hdd snelheden in de buurt komen van die van ssd
Access tijden van disks zijn de laatste 20 jaar nauwelijks verbeterd. Sequentieel wel, maar het probleem zit hem in de zoektijden.

De gemiddelde toegangstijd is de optelsom van rotational latency, en average seek time, en nog een beetje processing overhead.

Rotational latency is direct afgeleid van de snelheid waarmee de disk draait. 7200 rpm betekent 120 rondjes per seconde. De rotational latency is gemiddeld een half rondje, dus 1/240 seconde, ofwel 4.16ms. Bij nog tragere 5400 rpm schijven is het 1/180 seconde ofwel 5.56ms

Tel daar de gemiddelde zoektijd van het armpje bij. Hoe meer platters, hoe meer armpjes, hoe meer massatraagheid. Meeste armpjes komen niet verder dan 3 - 5 ms. Kortom, de gemiddelde toegangstijden van schijven zitten al 20 jaar rond de 8 10ms. Dat betekent niet meer dan 100 120 IOPS.

Als je een grafiekje tekent van IOPS per TB door de jaren heen dan schrik je je rot en is direct duidelijk dat SSD de enige optie op termijn is.
Access tijden van disks zijn de laatste 20 jaar nauwelijks verbeterd. Sequentieel wel, maar het probleem zit hem in de zoektijden.
Behalve dan dat er allerlei toepassingen zijn waar zoektijden niet relevant zijn (of, beter gezegd, waar 10 ms laag genoeg is). Alles wat data naar een gebruiker streamt (dus zonder verwerking; data van schijf rechtstreeks naar de gebruiker sturen) schiet weinig op met een besparing van 10 ms; dat verschil merkt de gebruiker toch niet.
Als je een grafiekje tekent van IOPS per TB door de jaren heen dan schrik je je rot en is direct duidelijk dat SSD de enige optie op termijn is.
Ja, nogal wiedes; IOPS blijft nagenoeg constant en de opslagcapaciteit groeit (bij benadering) exponentieel. Maar ehm... wat betekent dat grafiekje? "Hoe lang kost het om mijn hele schijf uit te lezen als ik alle clusters in willekeurige volgorde wil hebben." Ja leuk, maar welke realistische situatie ben je daarmee aan het modelleren!?
"IOPS per TB" is een goede uitleg voor "waarom is de Windows Indexer zo ontzettend traag?".
Dat er (toen het nog van belang was door gebrek aan SSDs) niemand van de fabrikanten aan gedacht heeft om die rotational latency te halveren (of zelfs nog meer) door data dubbel op te slaan op dezelfde “groef” zodat je maar maximaal halve rotatie moet wachten. Het zal je opslag en lees/schrijfsnelheid halveren maar als ze de keuze laten aan de koper... een 15000rpm schijf heeft dan ineens latency van een 30000 rpm schijf
Daar is aan gewerkt, maar iets slimmer die geen capaciteit kostte: een tweede leeskop, aan de andere kant van de schijf, zodat je gemiddeld nog maar 1/4 rotatie hoefde te wachten. Schrijven ging wel altijd met de (hoofd)kop.
Het is nooit echt doorgebroken, en nu met de ssd uiteraard achterhaald.
Dat is ook gedaan. Zoek maar eens op "Dual actuator hard disk". Hier een leuk artikel: http://www.tomshardware.c...e-hdd-harddrive,8279.html

Wat ook gedaan werd, was short-stroking. Dan werd bijvoorbeeld alleen de buitenste helft van de capaciteit beschikbaar gemaakt. Samen met het hogere aantal sectors op de buitenste tracks kon je 1/2 van de capaciteit op ongeveer 1/3 van de diameter van de schijf kwijt. Hierdoor is de afstand die de actuator moest afleggen veel kleiner en wordt je average seek time flink verbeterd.
Zou dat niet meer dan een firmware dingetje zijn? Lijkt me interresant als je zou kunnen kiezen of je je schijf in DDR2, DDR4 of DDR8 wil gebruiken en daarbij resp. de helf, een kwart of een achtste wil overhouden van de capaciteit.
Idd. Ik vroeg me af of het misschien ook ni kan met raid0? In de zin dat het me zou verwonderen dat alle schijven op hetzelfde moment op dezelfde radiaal van de schijf zitten. Je zegt tegen alle schijfen “fetch this” en er zal er wel 1 zijn waarvan de kop net op de juiste radiaal staat na het switchen naar de juiste track :-).

Misschien gebeurt dit al zo, dan wil ik wel eens de resultaten weten :-)
En wat als we in de andere hoek nog een 2de armpje zouden plaatsen? Het ene armpje de buitenste helft en de andere de binnenste helft van de platers.
Het grote voordeel van SSD is niet de doorvoersnelheid maar de access time die nagenoeg nul is waar de seek-time van de koppen van een HDD erg lang is. Dat maakt dat je OS met een SSD snel en responsief aanvoelt.
In wat voor RAID configuratie ga je 20TB disken stoppen?
Of eigenlijk: Hoe ga je je data beschermen tegen defecte schijven?
Sterk afhankelijk van de waarde van de data, maar RAID6 met een hotspare zou goed moeten zijn.

Maar dit soort schijven zijn interessant voor in een storagecluster, dan zou je de array ook nog eens kunnen mirroren. Kosten worden steeds minder interessant des te groter het cluster wordt. Failrate daarentegen :)

[Reactie gewijzigd door WinSCaP op 24 oktober 2017 20:06]

RAID is al behoorlijk aan vervanging toe, ook RAID6.

http://www.zdnet.com/arti...-6-stops-working-in-2019/
Ik doe nu toch al een tijdje raid60 ipv raid 6. Dus kleinere raid 6 arrays die je aan mekaar knoopt.
Daarenboven heb je nooit 1 set van unieke gegevens in 1 zelfde datacenter en heb je ook nog eens een backup van belangrijke data.

Dan moet er toch echt al heel wat fout gaan.
Juist ja. RAID moet je niet met een backup verwarren, dat is het niet (ja, mirroring is eventueel je lokale backup). Backuppen moet je ook off-site, tegen een brand bijvoorbeeld gaat het niet helpen als je backup in hetzelfde systeem hangt.
Zal vanzelf wel goedkomen. 1GB HDD's werden ook ooit gezien als "wie heeft nou zoveel opslag nodig?". Zal met 20TB vast hetzelfde zijn.
Ik vindt 20TB zelfs een beetje te weinig, 50TB is iets waar we vind ik horen te zijn. (maarja, ze moeten ook al hun edelen metalen slijten)
Okee maar dan heb je het wel over echt server opslag toch?
Niet alleen voor server ook gewoon voor video editor, je heb met 4 of 6K+ zo je schijf vol staan.
Aaah zo, ja daar kan ik me wel iets bij voorstellen ja.
Dan moet je maar 3 van deze schijven aanschaffen he :P
Een editor wil dit alleen op een fatsoenlijke array staan. Op een enkele hdd is gewoonweg te traag. Zo draai ik productie al op minstens 600MB/s en liever hoger (850+) en dat is nog maar FHD materiaal en mondejesmaat 4K. Gewoon puur wegens overhead aan snelheid die je kunt gebruiken tijdens een import die parallel draait aan het editten oid.
Zou je daar niet beter een raid van SSD's voor kunnen gebruiken dan?... lijkt me praktischer.
Dit soort grote spinning disks kun je dan voor archief/opslag gebruiken maar live projecten zou ik toch echt via SSD importeren en editen hoor (met uiteraard copieuze hoeveelheden RAM om al die zooi live in te laden zodat je bij het scrubben ed. niet van disk hoeft te laden). ;)

[Reactie gewijzigd door Ayporos op 25 oktober 2017 00:50]

Nee. Juist niet. Kheb hier een array staan van 5x 2TB. Moet er niet aan denken wat zo’n hoevelheid kost met ssds. Daarnaast is het extern. Scrubben gaat juist van disk dus ram is ondergeschikt. Het idee is namelijk juist dat je vaak een heel stuk heen en weer springt in files dus dat je het juist niet uit ram kunt halen.

[Reactie gewijzigd door supersnathan94 op 25 oktober 2017 07:20]

Zal vanzelf wel goedkomen. 1GB HDD's werden ook ooit gezien als "wie heeft nou zoveel opslag nodig?". Zal met 20TB vast hetzelfde zijn.
Dat dacht ik 28 jaar geleden ook van mijn 10MB HDD... Die zou nooit vol komen en zie waar we nu zijn.
probleem is alleen dat de schrijfsnelheden niet bepaald gelijk mee schalen ;(
ik heb zelf al een HDD van 10TB nodig om alleen al mijn andere HDD's te reorganizeren.

is vooral handig als je veel games hebt (stand-alone zonder cloud functie)
(rpgmaker games als voorbeeld)
In wat voor RAID configuratie ga je 20TB disken stoppen?
Of eigenlijk: Hoe ga je je data beschermen tegen defecte schijven?
Door geen een Filesystem te gebruiken met ingebouwde data controle zoals ZFS bescherm je je data. RAID Z2 of Z3 dus.
Ik had begrepen dat ZFS 1GB ram per 1TB bruto diskruimte nodig heeft, met 20TB disken gaat dit aardig in de papieren lopen, zeker met een array van 4 a 5 disken.
Dat is zover ik weet een 'best practice', geen harde eis.
Dat klopt, tot op een zekere hoogte. Alleen kakt je performance ontzettend in eens je boven de 1.5-2TB/GB ram uitkomt. Been there, done that. Het werkt wel, maar je moet geduld hebben :-p
Dat is toch alleen als je live dedup doet?
Niet naar mijn ervaring in ieder geval. Ik spreek wel over een jaar of 5-6 geleden en ik gebruikte toen ZFSguru.
Misschien was mijn config fout, of is er in tussentijd wat veranderd... Ik gebruik voorlopig geen ZFS meer in ieder geval.

ter referentie - ik had toen een stevige CPU (geen idee meer de welke maar redelijk high-end consumer spul), 16GB RAM; en 16x2TB array. Zolang je 'raid0' gebruikte was er geen probleem, Als ik overstapte op zraid1 of zraid2 begon alles te hakkelen eens de array groter werd dan ~20-25TB
Ik heb zelf altijd mirrors gebruikt.

Heb even gegoogled en kwam dit artikel tegen:
https://forums.anandtech....fs-configuration.2364288/

Wat idd in de basis uitgaat van 1GB per 1TB.
In draid, dan heeft de omvang van de disken een minder grote impact op de rebuild tijd. Raid 5 is al sinds 6/8 TB onbruikbaar en ik denk dat 20TB langzaam richting de grenzen van wat je met raid 6 wil aanloopt. Dus dan gaan we over op distributed raid, nu al aardig wat in gebruik trouwens.
Een nieuwe RAID configuratie waarbij je van elke schijf 2 kopien hebt?
dus een RAID 1+1 of zoiets? :+
In wat voor RAID configuratie ga je 20TB disken stoppen?
Of eigenlijk: Hoe ga je je data beschermen tegen defecte schijven?
Daar veranderd eigenlijk niets aan. Tegenwoordig hebben we slimme oplossingen als SHR, snapraid, enz.
[...]

Daar veranderd eigenlijk niets aan. Tegenwoordig hebben we slimme oplossingen als SHR, snapraid, enz.
Maar ook bij SHR duurt het rebuilden veel te lang, je loopt dagen lang het risico dat er nog een extra disk stuk gaat en je alles kwijt bent.
SHR heb ik zelf eigenlijk nooit geprobeerd. Met snapraid rebuilden ben je eigenlijk zo klaar mee. Die zet gewoon sequentieel je data terug. Dus dan praten we over 100-200 MB/s. Zelfs een 8 TB schijf lukt daarmee binnen een dag. Daarmee kun je ook tegen meerdere disk failures beschermen (bijvoorbeeld 4). Zie iemand met een 4 disk failure: https://sourceforge.net/p.../1677233/thread/eca5ed3d/

Overigens zijn schijven met een hogere datadichtheid ook altijd weer sneller. Vroeger zaten we op 100 MB/s (500 GB platters). Toen we naar 1 TB+ platters gingen is dit min of meer verdubbeld.
kan me voorstellen dat door de laser verhitting de schijf minder kwetsbaar is als de hdd uitvalt en het dan makkelijker maakt om data terug te lezen is voor date recovery iemand enig idee?
Zou het? Gebrande dvd's zijn ook niet zo betrouwbaar als beloofd.
Als je data lang wilt bewaren dan kan dit het beste met M-DISC's (Blu-ray of DVD)
Deze media hebben een speciale laag waarin de data langer bewaard blijft dan standaard DVD's/Blu-rays of zelfs Archival Grade media.
Je hebt wel een writer nodig die M-DISC's ondersteunt.
Betrouwbaarder dan HDD's mits je archival grade Gold dvd-r's koopt.
Eerlijk gezegd blijft een HDD het wel 10 jaar doen als je hem op de plank legt. Staat je vrij om meerdere kopien te bewaren en je data te scrubben.

[Reactie gewijzigd door sdk1985 op 24 oktober 2017 22:26]

Maar als je een archief back-up wilt dan is een edit niet nodig, en dan gaan cd's tot 100 jaar mee.
Gedrukte CD's gaan 100 jaar mee. Gebrande CDs never nooit niet.
Heb hier nog genoeg Twilight CDs/DVDs liggen die allemaal werken, en dat is al langer dan 10 jaar terug
Zeker weten dat ze allemaal nog werken of liggen ze er voor de sier?

In goede condities is ~10 jaar best mogelijk. Maar in de meeste gevallen kun je na 5 jaar wel gedag zeggen tegen je data. Ik heb honderden gebrande CD's onbruikbaar zien worden na verloop van een jaren. De meeste gebrande CD's zijn door een doorsnee CD/DVD/BR speler al na ~5 jaar gewoon niet meer uit te lezen.
CD and DVD

According to the US National Archives, CDs and DVDs have very similar lifespans. Generally, unrecorded (blank) CDs and DVDs have a shelf-life of five to ten years. The experiential life expectancy of recorded CDs and DVDs is between two and five years, though based on manufacturer claims, ten to twenty five years, or even longer, isn’t unprecedented. In any case, using very conservative numbers will reduce the risk of losing data.
Google eens archival grade, dus wel h, en ik heb trouwens nog honderde gebranden cd's uit 1995 die nog perfect werken (zelfs muziek, wat heel gevoelig is voor fouten)..

En de oude Kodak Gold schijfjes die ik heb zullen hier echt nog zijn over 40 jaar.. :+

[Reactie gewijzigd door stewie op 25 oktober 2017 13:03]

Zijn alle DVDtjes niet "gebrand"?

Als je bijvoorbeeld een DVD in de winkel koopt bedoel ik dan. Die zijn toch ook gebrand?
Nee winkel dvd's/blu-rays worden nog echt gedrukt met een pers, er zijn vast wel filmpjes van Sony DADC (persen is veel sneller dan branden, maar kleine (nederlandse) producties kunnen best gebrand zijn)
Die worden geperst
die zijn van plastic met een folie laag hier spreken ze over glas
Toch blijft het jammer dat de huidige SSD prijzen nog zo abnormaal hoog liggen. Voor 1 TB betaal je nog steeds de hoofdprijs terwijl dat eindelijk aantallen zijn waar je wat mee kunt (zonder je druk te hoeven maken om schijfruimte, zeker met al die grote games van tegenwoordig)

[Reactie gewijzigd door Martinspire op 25 oktober 2017 09:32]

1TB kost tegenwoordig zo rond de +/- 40 , valt best mee.
Al is een 3TB voor 73 relatief goedkoper omdat de prijs slechts 0,024 per GB is.
Bij die 1TB schijf is dat ongeveer 0,042 per GB.
Vroeger (~2011) kocht je een 2TB hardeschrijf voor onder de 50,- (0.025ct/GB), dat de prijs in zes jaar dus maar 0.001ct/GB lager is geworden voor 1 enkele HDD en de rest nog altijd op die 0.025 hangt is al apart.
Overigens is die Toshiba 0.02565ct/GB aangezien de verzendkosten er dan nog bij komen, in 2011 kocht ik 2TB met verzenden voor 49 euro... Nog steeds duurder geworden dus.
En helemaal vroeger, en dan hebben we het over zo'n 20 jaar geleden betaalde je Fl. 7000 voor een 1,2 GB harddisk. En dan kwam er ook nog eens 800 gulden bij voor een Adaptec SCSI controller.
Moet je eens uitrekenen hoeveel de prijzen per GB zijn gedaald :)
onzin! Ik had fl 500 betaald voor een 2,5gb hdd in 2016! Mijn hele pc, pentium 200 koste fl 2000.
Gaat om een Quantum bigfoot, en volgens een google resultaat:
1996- September- Quantum- 2,500- $440.00
http://www.mkomo.com/cost-per-gigabyte

[Reactie gewijzigd door Dragonfly_tp op 25 oktober 2017 12:00]

Geen onzin. Ik heb het over de tijd dat een 286 werd geleverd met een 20 of 40 MB harddisk.
jij zei 20 jaar geleden. Mijn Pentium 200 van 1996 is inmiddels 21 jaar geleden! Voor de hele pc slechts fl 2000 betaald inclusief 2,5GB hdd
Komt dat niet doordat hele fabrieken overstroomd zijn geweest diverse jaren terug? Het viel mij ook al op dat sinds die tijd de prijzen amper gedaald zijn. Daarnaast zijn ook wat spelers uit de markt gegaan.
Haar haal je die prijzen vandaan?
Ik had moeten verduidelijken dat ik het over SSD's had. Normale HDDs zijn goedkoper idd, maar SSD van 1 TB is nog steeds veel te duur
Dat was voor de edit inderdaad niet duidelijk. Overigens is een SSD van 1 TB nog lang niet voldoende om je geen zorgen te hoeven maken over ruimte. Mijn game schijf is 2 TB en daarvan is er nog 200 GB vrij. Daarnaast heb ik een 500 GB SSD in de pc zitten. Dus om mij geen zorgen te moeten maken moet die SSD 3 TB worden. (Als ik heel eerlijk ben zit er nog eens 3 TB in mijn machine, maar die zou ook naar de NAS kunnen).
Ik denk dat jij een HDD bedoelt, en niet een SSD ;)
Vrijwel niemand koopt 1TB schijven meer. Het is allemaal legacy markt op dit moment. Je hebt voor de productie van een 1TB schijf nog steeds veel dezeflde kosten als voor een grote schijf. Denk hier aan de motoren, controllers, enzovoort.

Fabrikanten maken die schijven nog puur omdat Medion achtrige bedrijven ze graag op een spec sheet zetten.
Wat is dan wel hot en goedkoop?
SSDs. De 40 euro storage markt bestaat eigenlijk niet. Als je iets geeft om die data komt er ook nog backup bij.
SSDs zijn duurder en minder groot Oo

Als ik puur opslag wil, ga ik toch eerder voor een HDD.

1 Gig SSD (rond de 300 euro)
1 Gig HDD (40 euro) kan alleen al meerdere HDD kopen daarvoor

[Reactie gewijzigd door Bjorn89 op 25 oktober 2017 08:22]

Je bedoelt waarschijnlijk 1TB ;)

Maar inderdaad. Dat was mn punt. SSDs zijn nog steeds veel te duur voor hoeveel opslag dat ze bieden.

[Reactie gewijzigd door Martinspire op 25 oktober 2017 09:34]

Is het bij 1TB niet gewoon zo dat je in verhouding meer betaald omdat de casing, vervoer, opslag, ect. gewoon het zelfde kost als bij een 6TB exemplaar ofzo?
Die kleine schijven zullen inderdaad niet veel goedkoper worden, maar ook grotere schijven zijn nou niet echt significant in prijs gezakt de afgelopen jaren, als ze al gezakt zijn...
Lijkt een beetje op alle vlakken prut te zijn met de prijzen in de PC componenten wereld de laatste tijd :(
Naast enorme R&D kosten worden zo'n beetje alle componenten in USD verhandeld, dus de euro helpt ook niet echt mee. Na jaren tussen de $1,30 en $1,55 voor en euro zaten we dit jaar bijna onder de 1. Nu is het iets beter met ~1,17, maar dat scheelt zo 10-35 procent t.o.v. die tijden. Met dank aan de EU/ECB.
Sowieso moeten wij veel meer betalen over hardware dan de Amerikanen, zou ook wel wat minder belasting over mogen betaald worden.

Alleen de brutto prijzen zijn al makkelijk 25-30% meer hier In Nederland(als ik dan kijk in Amerika met hun coupons, returns, etc) kun je vaak al de nieuwste kaarten voor veel minder halen!

Zo jaloers als ik de prijzen van NewEgg vergelijk met die van ons :P
Erg gaaf.. ik vind het mateloos interessant hoeveel data je als gemiddeld persoon al in je beheer kunt hebben. Zoveel muziek, games, films. En de hoeveelheid neemt alleen maar exponentieel toe.. over 10 of 20 jaar hebben we letterlijk een doolhof aan data.
Ook de cloud is uiteindelijk fysieke opslag.
Klopt, krijg alleen de indruk dat dit artikel focust op een consumenten/on premise markt. Maar het staat er idd niet, misschien lees ik iets wat er niet staat :)
Ik krijg bij dit artikel juist het idee dat dit puur op de zakelijke serverstorage markt is gericht en totaal niet op consumenten.
Denk dat dit soort schijven voor consumenten ook best onbetaalbaar worden als je nog iets van redundancy wil.
Juist door die verandering worden die 20 TB schijven steeds interessanter. Waar vroeger 100 consumenten elk een TB hadden waar ze er 100 GB van gebruikten komen die 100 klanten nu met 100 GB data aanzetten = 10 TB.
Interessante stelling. Ik ben zelf best wel gestelt op independence, ik heb liever mijn data zelf thuis in eigen beheer, puur door de waarde die ik eraan hecht. Foto's, videos, muziek, videogames, films, etcetera. Cloud gebruik ik enkel voor gemak en goedkope backup. Binnenkort breid ik uit naar ZFS en ECC omdat ik mijn data zo waardevol vind. Ik snap juist niet hoe je geen waardevolle data kan hebben, en hoe je dat niet veilig thuis op je HDD wilt hebben staan.
Tot het thuis 'veilig' verloren gaat bij een woningbrand of diefstal...
Raid of andere technieken zijn geen back-up of de data lokaal of in de cloud staat zal je nog steeds de 3-2-1 back-up regel moeten toepassen als het waardevolle data is.

En dan is het beschreven scenario geen probleem om je data terug te halen.
Tot het thuis 'veilig' verloren gaat bij een woningbrand of diefstal...
Dat is jammer, maar dat is dan ook in 'eigen beheer'. Niet iedereen wilt dat zijn Data overal staat.

(Gebruik zelf Drive,Dropbox, en nog een andere cloud storage om universiteits files te backuppen of projectwerk van thuis).

De rest bewaar ik ook lokaal, waarom zou ik mijn administratie op de CLOUD zetten :P
Daarom dat ik de cloud noemde als backup. Ook kan je erg makkelijk extra hdds kopen om die bij een vriend te stallen. Als het verloren gaat op die manier ligt het aan de onervaren persoon, niet aan thuis je data opslaan. Genoeg mogelijkheden voor waterdichte backups.
Omdat games streamen nog niet optimaal is :P

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True