Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Seagate wil binnen anderhalf jaar 14TB- en 16TB-schijven op de markt hebben

Door , 204 reacties

Uit interne roadmaps van Seagate blijkt dat het bedrijf van plan is om binnen achttien maanden 14TB- en 16TB-hdd's op de markt te brengen. Verder mikt het bedrijf erop om in 2020 een 20TB-model te verkopen.

PCWorld schrijft dat de informatie tijdens een teleconferentie met aandeelhouders bekend werd gemaakt. Het bedrijf heeft al een 12TB-schijf klaarliggen, die wordt uitgedeeld aan partners om getest te worden. Stephen Luczo, de directeur van Seagate, zegt dat de feedback op de schijven positief is.

Seagate is niet het enige bedrijf dat bezig is aan schijven met een opslag van meer dan 10TB. Eerder maakte Western Digital bekend dat het een 12TB-hdd aan het samplen is bij bedrijven en het werkt aan een 14TB-schijf. Zowel de schijven van Seagate als die van WD zijn bedoeld voor de zakelijke markt.

Harde schijven zijn snel marktaandeel aan het verliezen ten opzichte van ssd's. Bij consumentenproducten worden ze gestaag uitgefaseerd. Fabrikanten van harde schijven leggen daarom steeds meer nadruk op harde schijven voor de servermarkt, waar ze kunnen dienen als relatief goedkope massaopslag.

Emile Witteman

Freelancer nieuwsredactie

27 januari 2017 08:57

204 reacties

Linkedin Google+

Reacties (204)

Wijzig sortering
Wat ik zie is dat er een behoefte bestaat om alles te bewaren maar met dit soort hoeveelheden heb je een gedegen archief nodig anders kan je het nooit meer vinden. Heb gezien dat mensen wisten van ja dat mailtje of dat stuk heb ik nog, maar het vinden was een ander verhaal, en als ze het na uren zoeken gevonden hadden was de informatie achterhaald. Soms is het niet meer hebben sneller en goedkoper.
Voor jezelf een archief opbouwen gaat nog goed maar hoe meer mensen er in het archief kunnen en hoe meer data erin staat hoe lastiger het wordt. Zeker met binnen bedrijven waar mensen sneller wisselen van functie of weer vertrekken is het heel erg lastig. Vroeger had een bedrijf aan 1 TB al genoeg produceren we nu zoveel data dat meer nodig is? Of is het gewoon een geval dat we niet handig met data om gaan?
Een rapport van 1 mb wordt gemaild naar 10 mensen die het in hun mail krijgen, ze vinden het allemaal belangrijk en slaan het op. gevolg het rapport kost al 21 mb opslag en dan komen er revisies na commentaar en het explodeert want die oude versie weggooien is toch zonde. Goedkope data opslag is geen zegen maar eerder een vloek. Want een mailtje met een link naar een bijlage wordt gelezen maar de bijlage?
Voor mij slechts een kwestie van alles een beetje bijhouden. Ik bewaar elke foto / video die ik schiet. Het meeste gaat op de grote bulk, maar dagjes uit / gelegenheden worden gearchiveerd op jaar, in een eigen mapje, altijd makkelijk terugvinden.

E-mail terugvinden is jezelf aanwennen consistent te zijn. Altijd vermelden waar het over gaat, een referentienummer gebruiken enzovoort. Ingewikkelder dan dat is het niet. Ik kan binnen 2-3 minuten bijna elke foto terugvinden als ik of een datum weet of een locatie.

Een e-mail nog veel sneller, omdat ik consistent altijd dezelfde schrijfstijl gebruik, en ook als ik reacties krijg van collega's probeer ik in mijn antwoord referenties te vermelden waardoor het makkelijk terugzoekbaar is. :)

Mensen zijn te makkelijk met een e-mail sturen met als onderwerp "Rapport" en dan scan1.pdf als bijlage. Waarom niet even de moeite nemen om "Rapport 2016 bedrijf X" als onderwerp... Dat scheelt zo verschrikkelijk veel.

Ik produceer zelf ongeveer 4-500 gb / jaar aan foto-videomateriaal. 1-2gb aan e-mail privé en 10 gb aan e-mail zakelijk.

[Reactie gewijzigd door mvdam op 27 januari 2017 10:31]

Ja, 500gb aan foto- en videomatriaal en 499,99gb daarvan kijk je nooit van je leven een tweede keer naar. Het is tegenwoordig opslaan om het opslaan. Ik weet niet hoeveel bij jou video is, maar vaak zie ik bij mensen met zulke opslag duizenden fotos per jaar, waarvan slechts enkele de 'goeie' zijn..
Mwoah, dat valt best wel mee, Ik vind het erg leuk om dagelijks even te kijken wat ik "vandaag" 1-5-10 jaar geleden deed / geschoten heb. Daarnaast verwerk ik uitjes vaak tot een compilatiefilmpje enzovoort.

Maar ik ga er gerust vanuit dat ik geen gemiddelde gebruiker ben haha. :)

En ach, bruto kost het opslaan van 500gb mij "eenmalig" ¤0,03 * 500 15 euro aan opslag.

Backup kost me een tientje in de maand voor 9tb = ¤0.013 / GB / Jaar

Voor het bewaren en herleven van herinneringen, meer dan waard. :) (Voor mij)
Ik kan je John's background switcher aanraden (gratis voor Windows). Die maakt elk uur (of tijd wat je zelf instelt) een collage van random foto's op de desktop (in idle time). Ik heb hem geconfigureerd met m'n volledige foto library, en het is erg leuk oude foto's op deze manier terug te zien.
https://johnsad.ventures/software/backgroundswitcher/
500gb is niks puur uit hobby zon 500gb video en fotos per maand. Vergeet niet dat een foto 100mb is, een video gb per min.
Organiseren is niet zo moeilijk. Mapnaam cameratype.
Map datum+omschrijving omgeving
En dan map type video foto panorama gigapixel enz
Ik zou dat soort dingen dus na 5 jaar kwijt zijn en met bovenstaande gegevens niets kunnen vinden. De (map) datum van de meeste dingen ben ik in een jaar kwijt, specifieke mapnamen onthouden werkt alleen als ik het vaak gebruik en specifieke cameragegevens lijken me ook niet handig.

Persoonlijk heb ik ~100.000 bestanden gebackuped in een structuur die voor elke map hetzelfde is. Niet echt een noemenswaardige hoeveelheid, maar zonder duidelijke structuur kun je niks vinden. Zonder specifiek te weten wat ik zoek kom ik er altijd wel, simpelweg omdat het indelen in de juiste categorie mij helpt. Technische gegevens raak ik toch wel kwijt, dus liever een structuur waar zelfs iemand anders de weg in kan vinden. Ik probeer het meest logische te bedenken.

Het liefst gebruik ik in de toekomst een stuk software dat zoekt naar de inhoud van afbeeldingen of andere bestanden. Dingen als "zoek de afbeeldingen van mijn vakantie in Parijs waar ik samen met mijn vriendin op sta". Of "zoek alle facturen van bedrijf x van de jaren 2012-2017". Op die manier zoeken zou ideaal zijn, echt content aware. Maar dan alleen als dat soort software geen verbinding met het thuisfront heeft, daar heb ik een hekel aan.
Zowel Photos van Apple, als Google Photos doen het vrij goed met zoektermen heb ik gemerkt.

Muziek is er iTunes in combinatie met Apple Music.

DevonThink voor digitale administratie kan heel goed dingen terugvinden op basis van OCR.

1 app voor een bepaald type media dus.

En dan met Finder van MacOS kan je nog eens over alles heen zoeken. AI zijn alle bedrijven aan het uittesten, maar ik denk dat Apple wat betreft contentbeheer een voorsprong heeft. Daar zijn "libraries" al vanaf het begin ingeburgerd, terwijl Windows en Linux-gebruikers toch graag zelf hun eigen organisatie willen regelen.
ik bedoel meer, kheb een mapnaam type camrea, (drone, sony, gopro mobiel)
dan mapnaam met datum + eventuele omschrijving, bijv 27-02-2007 vakantie portugal

en dan om het bestandtype het gaat, video, foto, enz

ik snap alleen niet wie en waarom ik zo gedownmod word
YYYYMMDD formaat geeft als voordeel dat je mappen ook automatisch chronologisch staan. DD-MM-YYYY alvast niet..
Snap die -1 niet zo goed eigenlijk. 500GB is niet veel als je veel fotografeert.

Als je zelf consequent ordent en bijhoud is het niet zo moeilijk om goed en vindbaar alles te plaatsen.

Maar ik ben wel behoorlijk selectief in de foto's. Ik schiet vaak wel in burst maar bewaar er meestal 1 misschien 3. de rest gaat weg.
Deels heb je gelijk opslaan om opslaan. Toch heb ik mooi fotoboek gemaakt met foto's van afgelopen 5 jaar daarvoor 2 dagen bezig geweest boel foto's te bekijken.
Wat ik wel had moeten doen is de selectie bewaren en de rest wissen, maar ja om de ene of andere denk ik menselijke verzamelreden doe je dat niet.
Heb je ze ook afgedrukt? Of ga je er vanuit dat je nakomelingen over 30 jaar de formaten nog kunnen lezen, als ze de media al aangesloten krijgen?
Welk medium heeft een levensduur van 30 jaar+ ;) Naast de vraag of men tegen die tijd betreffende techniek nog kent is er maar weinig dat zo lang houdbaar is. Zeker de harde schijf niet (10-20 jaar max. afhankelijk van merk/kwaliteit). Ook CD/DVD/Blu-ray gaat de 20 jaar geregeld niet halen (afhankelijk van de kwaliteit). SSD is de enige die wel langere houdbaarheid kent - schijnt.

Ik heb al mijn foto's en video's gewoon in de cloud hangen. Veel gemakkelijker, automatisch gesorteerd en geen risico (althans - veel kleiner) dat een hardware falen of houdbaarheid van hardware oid ooit een probleem wordt. Ik zou dus ook niet weten wat ik met een harde schijf van meer dan pakweg 500 GB zou moeten...

[Reactie gewijzigd door kazz1980 op 27 januari 2017 15:22]

Mijn oude 386 werkt nochtans nog steeds gewoon, met hardware van 1989. Mijn cd'tjes van vroeg en midden 90'er jaren kan ik ook nog steeds goed beluisteren en inlezen. Ik heb zelfs nog een paar diskettes van die tijd die gewoon leesbaar zijn.

Als je ze goed bewaart en niet elke dag grijs draait zie ik geen reden waarom ze geen 50+ jaar zouden kunnen halen.

Bovendien, welke opslag denk je dat jouw cloud gebruikt? ;)
Goed bewaren kan de levensduur met gemak verdubbelen, zo niet meer! Maar alle hedendaagse (en vroegere) opslag media heeft een redelijk beperkte levensduur (zie Google voor meer info). Zeker media gebaseerd op magnetisme. Dus diskettes zijn meestal wel dood inmiddels... Dat ze het bij jou nog doen is echt gewoon mazzel! En cd's van 20+ jaar doen het ook echt regelmatig niet meer - maar dat ligt héél erg aan het merk/kwaliteit.... Mijn schijfjes van vroeger waren vooral budget ... 50+ jaar gaan ze normaal gesproken in ieder geval niet halen (voor mij ook niet erg boeiend - staat niks belangrijks meer op - eigenlijk alleen bewaard uit stukje nostalgie:P ). Een harde schijf heeft een levensduur van 10-15 jaar. De ouderwetse diskettes normaal gesproken niet meer dan circa 5 jaar...Zelfs als je ze goed bewaard en niet/nauwelijks gebruikt!

Ik betaal mijn beheerder van de cloud (Google in mijn geval) ervoor om te zorgen dat de opslagmedia blijft werken en dus ook met zijn tijd mee gaat. Zo lang zij blijven doen waar ik ze voor betaal blijft de data dus gewoon prima in orde ;)

[Reactie gewijzigd door kazz1980 op 27 januari 2017 15:21]

De cloud is niet zo veilig als je denkt. Wat nu als het niet meer wil boteren tussen the EU en de VS en de VS alle data toegang ontzegd (Trump?)?
Wat als met Google hetzelfde gebeurt als destijds met Mega?
Cyber attack op de cloud?
Er zijn factoren die een realistische kans hebben je data in de cloud kwijt te raken.

Zorg ook voor een eigen-beheerde lokale off-line kopie.

[Reactie gewijzigd door Durandal op 27 januari 2017 15:38]

Zeker. Heb alles ook lokaal opgeslagen staan ;) Op een externe harde schijf - dus die gaat niet heel lang mee en zal op termijn eens vervangen moeten worden! (maar heb daarvoor nu een 500GB schijfje en dat is zéér ruim voldoende! Heb daar geen terabytes voor nodig).
Dus als het bij Google helemaal mis zou gaan ben ik wellicht wat kwijt (in ieder geval het archiveringssysteem), maar zal niet tot nauwelijks foto's/video's daadwerkelijk kwijt zijn.

Vooralsnog geloof ik veel meer in de houdbaarheid van een goed beheerde cloud oplossing dan in lokale opslag. (Daarnaast vind ik het gewoon super praktisch dat ik nu overal toegang heb tot al mijn foto's!).
Staan op NAS die ook upload in MS cloud, staan dus dubbel.
jpg is formaat dat er al een tijdje is en denk over 20 jaar er nog is of anders toch gelezen kan worden.
Raw is andere verhaal maar ook dat zal wel mogelijk zijn of je doet een massa conversie tegen die tijd naar nieuw formaat.
Ja hoor aangezien ik zo lang ik leef die foto's van plan ben te bewaren zorg ik er gewoon voor dat het mee gaat op nieuwe media.

Daarnaast kan ik de media van 20 jaar geleden die ik heb nog gewoon gebruiken hoor. Heb een PC, software erbij en de media.

Heb voor alle legacy dingen gewoon 2 PC'tjes staan (Pentium MMX met win95 en een XP bakkie). Software ervoor kunnje ook gewoon bewaren.

30 jaar overbruggen gaat me wel lukken :)
Het is tegenwoordig opslaan om het opslaan.
Als het een prive-persoon betreft /een thuisgebruiker. Maar als het je beroep is en je ook voor vele anderen werkt, bewaar je alles. Een maand of wat reportages maken in het verre buitenland en je komt met Terabytes terug aan foto en film.
Je doet het niet even over.
Hm. Full HD films gaan gecomprimeerd voor 12 tot 20 GB, 4K films worden dan 50 tot 80 GB, en 8K komen uit op ongeveer 200 tot 320 GB per film... Dan gaat het hard met je terabytes hoor...
Tuurlijk heb je gelijk in maar hoeveel bedrijven zijn hier mee bezig ? Het gros niet foto's wel steeds meer want het is gewoon handig en duidelijk om foto's te gebruiken in je communicatie. Maar die hoef je echt niet altijd allemaal te bewaren.
OK, ander voorbeeld. Ik werk voor een universiteit en ons nieuwe cluster krijgt 350TB storage. Onderzoekers draaien simulaties, en per simulatie komt er een halve tot een hele TB data uit, die vervolgens gepostprocessed wordt.

Dat is nu een heel rack vol met schijven. Zou fijn (en zuiniger) zijn als dat een stuk kleiner kan.
Tuurlijk er zijn altijd uitzonderingen dat ontken ik ook niet maar dat is niet de grote gemene deler.
Ik denk dat de "grote gemene deler" toch gewoon de consument is of gaat worden. Als je het volgende artikel leest kun je er mischien een beeld bij vormen;

https://www.cnet.com/vide...ideo-experience-ces-2017/

Deze video doet dus 3GB PER FRAME !! Dan gaat het hard met je ruimte. Welliswaar nog toekomstmuziek, maar het gaat zeker komen. Zelfs een 16TB is dan al wat aan de krappe kant.

Voor mail en text bestandjes is het inderdaad wat overdreven
Voordat dat soort media gemeengoed zijn duurt dat nog wel even want daarmee kom je hele andere struikelblokken tegen. Je ziet hoe snel de adoptie van 4K video gaat. Dus nee en de consument doet straks alles in de cloud? of niet?
Nou, VR is toch aardig in opmars en ik verwacht dat we met 2 a 3 jaar wel met dergelijke technieken te maken gaan krijgen. En laat nou net dit soort VR niet geschikt zijn ( of gaan worden binnen afzienlijke tijd ) voor cloud. Daarvoor zit er veel te veel vertraging in. Maar goed, de tijd zal het leren.

Ikzelf zit in ieder geval als consument wel te wachten op dit soort schijven. Ik heb nu zo een 14 schijven uiteenlopend van 500 GB tot 3 TB, en zou die graag willen vervangen voor 1 of 2 van dergelijke exemplaren.
In opmars is een groot woord maar de ontwikkeling gaat snel en er zijn toepassingen voor, maar of het gemeengoed wordt is iets anders. Denk namelijk niet dat het werkt voor een ontspannen avondje film kijken. Net als 3D het kan en is soms leuk maar niet geschikt voor alles. Ik snap ook wel dat er een markt is voor deze schrijven.
Ook in de cloud heb je geen magische opslag. Vandaar dat in het artikel gesproken wordt over de zakelijke markt en servers - dit zijn schijven voor cloudaanbieders.
Qua zakelijk gebruik is 16 TB natuurlijk helemaal niks.... Ik werk ook dagelijks met vele Terabytes aan data. Gewoon in de IT. Niks bijzonders.

Qua privé gebruik voorzie ik niet heel veel toekomst in extreem grote harde schijven. Ze worden juist weer steeds kleiner. Je kunt nu zelfs budget laptops krijgen met 32 GB ruimte! Paar jaar geleden had je die niet kunnen slijten... Maar tegenwoordig, met mogelijkheden van de Cloud, geen probleem voor een gemiddeld gebruiker die alleen wat met Office, foto's en internet op de laptop werkt!
Tja, als je er over na gaat denken is het toch idioot hoeveel data bijvoorbeeld Netflix opgeslagen moet hebben. Vooral nu ze 4k aan het uitbreiden zijn...
Valt wel mee hoor. ik geloof dat ze iets van 15mbit voor hun 4K materiaal gebruiken. Dan praat je over 25-40 GB voor de meeste films.

Netflix is redelijk bezig met bitrate starving. Het is niet heel slecht wat ze laten zien maar als je hun 1080 spul ziet vergeleken met een blu-ray is er heel wat meer detail in de blu-ray versie.

Netflix zijn opslag capaciteit hoeft dus niet zo heel groot te zijn. Het probleem zit hem meer in het schalen naar miljoenen gebruikers. Daar ligt de uitdaging. Het opslaan ervan is een makkie.
Ja zoals ik al zei dat is voornamelijk door backups en schalen. Amazon werkt zelf met 12 regios nou laten we ervan uit gaan dat ze alle twaalf gebruikt worden moet je je data dus ook 12x opslaan en je weet hoe het gaat dat wordt als zodanig gemeld niet hoe groot hun library daadwerkelijk is.

Daarnaast zal veel spul hardcoded zijn dus heb je x landen versies. En niet zoals bij een DVD gewoon meerdere talen en subs in 1 file dit in verband met rechten en dat je het zo makkelijker op kan lossen door elk land zijn eigen library te geven.

Uiteindelijk blijft het staan dat de data niet je probleem is bedoel 50 PB aan data is niets anders dan grofweg 50 42u cabinetten. met 6TB schijven en dan heb je aan 25% spares. met 16TB schijven kan je dat terug brengen naar 18 stuks.
Tuurlijk hun hebben mirrors en daar nog wel mirrors van maar op een globaal opererend bedrijf is dat niet echt veel te noemen. Qua data transport zullen ze echt wel hogere kosten hebben.
Zoals ze zelf zeggen is Netflix meer kwijt aan marketing dan aan hun hele infrastructuur/automatisering/transport. En zolang Amazon Web Services aan hun SLA voldoet kan Netflix het niet zoveel schelen hoeveel servers en locaties ze daarvoor gebruiken. Dat is het voordeel van een cloud oplossing. En ga er maar van uit dat de opzet van AWS verre van simpel is, maar daar is het weer een kwestie van schaalvoordeel.
Tja ik kijk FullHD gewoon de 2GB versie en die ziet er prima uit wat mij betreft. 4K verwacht ik nog betere compressie ratio (dus niet 4k zoveel maar 2x). Ik vemoed dat je makkelijk een 4K film op een DVD kunt proppen.
Dat zijn eigenlijk upscales van lagere resoluties. Dat is niet echt full HD ;-) Er is een hoop informatie verloren gegaan als je het naar 2GB hebt gepropt.
Nee, het zijn samengeperste bestanden van hoge resolutie (met zeer geavanceerde compressie formaten anders haal je dat niet)

De compressie gebruikt elke pixel van FullHD of 4K of welk formaat ook, maar het gebruikt minder informatie om die pixels op te slaan. En het kiest slim waar het meer informatie nodig heeft en waar minder.

Er is een hoop data verloren gegaan. Maar veel minder informatie. Data en informatie zijn niet hetzelfde. Beeldmateriaal bevat enorm veel redundantie en in mijn ervaring, hoe hoger de resolutie, hoe meer redundantie; elke extra pixel voegt minder nieuwe informatie toe.
Ik neem aan dat die systemen slim genoeg zijn om dat bestand van 1mb maar 1 keer op te slaan (en niet iedere keer opnieuw)
Hoe naief ben jij, helaas zover zijn ze nog niet het risico op fouten is ook te groot. Dan moeten er meer checks aan een file hangen om dat mogelijk te maken.
Kan vandaag perfect en ik zie ook niet in waarom je extra controles zou moeten invoeren. Je hebt gewoon verschillende entries in je bestandstoewijzingstabel die naar dezelfde inodes verwijzen. Pas je dat bestand op 1 van zijn locaties 1 maak je op dat moment een kopie.
Ja op een user niveau lukt dat best en nu met 25000 users ? Binnen het mail systeem lukt het ook nog maar op file niveau niet want hoe verwerk je de wijziging van A die B niet mag zien. Dus helaas werkt niet.
In de praktijk gebeurd het toch.
Stel je hebt twee blokken met dezelfde data. Het opslagsysteem merkt op dat ze hetzelfde zijn, en slaat het blok 1 maal op samen met 2 verwijzingen naar het blok. Op het moment dat er via 1 van de verwijzingen een wijziging aangebracht wordt, wordt het blok gekopieerd en wordt 1 van de 2 verwijzingen gewijzigd naar het gekopieerde blok, dat nu gewijzigd kan worden. Bestandsrechten zijn op dit niveau nog niet eens van toepassing.
ZFS en BTRFS gebruiken dit in de praktijk voor opslag, maar ook voor werkgeheugen wordt ditzelfde principe toegepast met bijvoorbeeld KSM.
Ok en zo leer je elke dag weer bij :)
Voor zover ik weet doet een mac dit wel, mijn 30gb aan foto's kan ik eindeloos kopiëren zonder dat er minder ruimte beschikbaar komt
Klopt, veel systemen ondersteunen tegenwoordig deduplicatie.
Wat ik zie is dat er een behoefte bestaat om alles te bewaren maar met dit soort hoeveelheden heb je een gedegen archief nodig anders kan je het nooit meer vinden.
Klopt, de uitdaging van deze eeuw. Antwoord is te vinden bij Big-Data experts en NOSQL.
Zeker met binnen bedrijven waar mensen sneller wisselen van functie of weer vertrekken is het heel erg lastig.
Men moet eens stoppen met in ieder bedrijf voor iedere werknemer een persoonlijke account maken, Functionele account zijn in dat opzicht veel beter.
Een rapport van 1 mb wordt gemaild naar 10 mensen die het in hun mail krijgen, ze vinden het allemaal belangrijk en slaan het op.
Zet het shared op je filesserver en stuur die 10 mensen een linkje. (Was 10 jaar geleden bij mijn toenmalige werkgever ook al de aanbevolen methode) Maar dat is wel omslachtiger want je moet het bestand eerst bewust van je persoonlijke share naar een gedeelde zetten en dan bewust een shortcut maken en dan bij stap 3 die shortcut in de mail hangen. Ik ben destijds al tegengekomen dat mensen een linkje stuurden en dat het vervolgens door de helft van de ontvangers niet geopend kon worden vanwege onvoldoende rechten (zowel op de persoonlijke share van de verzender als ook op de gedeelde share).

En dan heb ik het nog niet over tussen bedrijven gedeelde documenten.
Goedkope data opslag is geen zegen maar eerder een vloek. Want een mailtje met een link naar een bijlage wordt gelezen maar de bijlage?
In bovenstaande voorbeeld is de oude methode gewoon de makkelijkste ook al betekent dat mogelijk dat je dingen niet kunt terugvinden.

Maar 14TB en 16TB is wel heel erg veel. Ook als het om foto's muziek en filmpjes gaat.
Uiteindelijk moet je ook voor een backup zorgen en hoe groter de media hoe lastiger dat wordt
(tenzij je natuurlijk ook HDD's voor die backop gebruik, uiteraard removable)
Antwoord is te vinden bij Big-Data experts en NOSQL.
Het probleem wat hij beschrijft is een sociaal probleem, geen technisch. Want op welke termen moet je zoeken? En heeft de gebruiker het veld wel ingevuld? Gebruiken meerdere gebruikers wel dezelfde termen? Ach je had "in s Gravenhage" geschreven i.p.v. "in 's Gravenhage', daarom vond je niks.

Google is niet voor niks zo groot geworden. Search is hard. Ook met NoSQL.
Google is niet voor niks zo groot geworden. Search is hard. Ook met NoSQL.
Dus Google is volgens jou niet een van die Big-Data experts?
Het probleem wat hij beschrijft is een sociaal probleem, geen technisch.
Klopt, deels ligt de oorzaak van het alles (willen) bewaren, deels in de ongestructureerde manier waarop we dat graag doen (want makkelijk). aangezien we dat niet kunnen oplossen moeten we het dus the hard way doen: zoekmachines met fuzzy-logic die verschillende maar op elkaar lijkende termen koppelt.
Dus Google is volgens jou niet een van die Big-Data experts?
Touché :)
En er zijn er nog een paar die hetzelfde doen (GQHC, NSA, Yahoo, A.., M.., ...)

Een paar jaar geleden had je o.a. ook Google Desktop search. Ik weet niet of dat nog steeds werkt. Voor pst-files denk ik niet maar voor andere dingen...
Klopt helemaal maar vaak te lastig voor mensen en rechten zitten te vaak in de weg vooral bij multidisciplinaire projecten. Google drive is dan weer fijn simpel iemand rechten geven op een bestand.
Probeer in Office365 maar eens met 10 (of was het nu 15) mensen aan te loggen op dezelfde (functionele) mailbox... werkt gewoon niet.
Privacy krijgt hier vaak al hetzelfde aluminium hoedjes gevoel als straling 8)7

Het is één functionele mailbox met 10 gebruikers (welke dus zelf zelfs geen mailbox hebben). Het probleem is dat hun primaire mailbox dus de functionele is en niet als shared mailbox.
Gewoon backups. Dan heb je nooit genoeg diskspace.
Ik heb nu 1 Petabyte ter beschikking en dat is ongeveer goed voor 1 jaar aan backups met Veeam.
Wil ik 2 jaar bijhouden dan zal ik dus meer diskspace nodig hebben en zijn dit soort disks meer dan welkom :)
Tja kan allemaal totdat er iemand wakker wordt en zegt wat kost dat allemaal is het nodig en wat is het risico als je sommige zaken niet meer hebt. (Ik heb het niet over de boekhouding). Maar mensen die de mailtjes dat het koffiezetapparaat stuk is of dat er taart is bewaren moeten zich wel iets afvragen.
Hangt een beetje van je domein af waarin je werkt. Maar het merendeel van onze gegevens moeten 10 en 15 jaar bijgehouden worden. Incremental forever wordt ons ten stelligste afgeraden door Veeam. Zelfs al doe je dan slechts om de de paar weken een full backup gaat het erg snel wanneer je main storage verbruik al om en bij de 100TB is. Vervolgens alles nog eens ontdubbelen op verschillende locaties voor DR en ..... tada 1petabyte in no-time

Laat maar komen die 16TB hd's :P. Paar jaar geleden hebben we zo nog eens de vraag gehad of we een voorstel konden terugvinden uit 1999 !!!

[Reactie gewijzigd door klakkie.57th op 27 januari 2017 14:48]

En was de wereld vergaan als je nee had gezegd? Dat is mijn ervaring namelijk, ben een opruimer, vaak is het dan niet zo belangrijk. Zeg je ja ben je twee aan het zoeken en is het dank je wel en hoor je achteraf was toch niet wat ik zocht.
Maar mensen die de mailtjes dat het koffiezetapparaat stuk is of dat er taart is bewaren moeten zich wel iets afvragen.
Vroeger deed ik dat ook. Mailbox netjes 'schoon' houden en zo. Ben ik mee gestopt. Ik gooi nooit mail weg. Staat gewoon allemaal vanaf dag 1 nog in mijn Inbox.
De techniek heeft me ingehaald. Veel gebruikers werken zoals ik en de software heeft zoch er op aangepast. Search wordt steeds belangrijker / beter / prominenter in applicaties. Je mail uit je mailbox halen om het te ordenen werkt averechts want in welke map moet je nu zoeken?
Klopt helemaal maar vooral wat oudere mensen hebben moeite met een goede zoekopdracht definieren en dat is toch de essentie. Daarnaast als je alles bewaard krijg je ook altijd teveel false positives mee. Daarom ruim ik rotzooi op, verder mapjes om het belang aan te geven.
Op mijn 1TB schijf archiveer ik alles al via een voor mij logisch systeem. Met 16TB zal dat echt niet anders zijn. Ik heb bergen, en bergen muziek, films, series, foto's etc. Muziek, Films en serie rangschik allemaal in een aparte map onder genre, en daarna jaar. Daarnaast nog een aparte map voor m'n gedigitaliseerde jeugdfilms.

Op zich als je het bijhoudt, en niet laat verslonzen is het prima bij te houden. Elke download archiveer ik direct.
Klopt maar gebruikt je familie het ook, en mogen je vrienden daar ook in ? Je eigen logica in stand houden lukt meestal wel, maar die logica delen wordt moeilijker. Zeker als het bestanden zijn die op meerdere plekken zouden kunnen staan!
Ja precies. Iedereen zijn eigen (fantastisch gerangschikte) privé archief...
Informatie wordt juist waardevol doordat meerdere mensen erbij kunnen en er mee kunnen werken... maar met zoveel mensen wordt het altijd vanzelf een puinzooi :)
Het is bij mij eigenlijk niet dat het aantal bestanden meer wordt; maar de bestandsgrootte.

Een filmpje van vroeger paste in 640x480 binnen 100MB.
Maar mijn 4k camera komt met heel wat grotere files.

Zelfde geld voor muziek. Had ik vroeger alles naar 128kbps geript; Nu wil ik eigenlijk wel alles graag in 320 of flac formaat.

Maar je hebt wel deels gelijk. Als ik ga 'ruimen' dan sorteer ik met WinDirStat op de grootste onnodige files en DIE gooi ik weg. De kleine files blijven voor eeuwig in het archief... Terwijl die mogelijk juist de meeste rommel bevatten. Maarja, dat kost tijd die ik er niet aan besteed.
wat ik vaak doe is sorteren op last modified / created en een berg oude meuk (die ik toch niet weg wil gooien) in een zip file stoppen... Dan weer een jaar later gaat die ineens de prullenbak in.
Voordeel van systemen als Sharepoint.
1 document waar iedereen in kan werken.
En je hoeft normaal gesproken niet bang te zijn dat er een versie verloren gaat,
Sharepoint houdt een geschiedenis bij van de versies. Kost ook opslagruimte, maar je kunt het document up-to-date houden. Als de mede-auteurs zich aan de afspraken houden natuurlijk,

Je mailt dus niet het bestand, maar de link ernaartoe.
Dit merk ik zelf ook op mijn stage. Ik ben constant bezig met het zoeken van oude bestanden terwijl mijn eigen 1TB stack veel netter is en ik snel iets kan vinden. Maar dat komt doordat er mensen weggaan en komen, iedereen heeft zijn eigen manier van opslaan en daardoor krijg je een chaos.
voor uw mailvoorbeeld heb ik een oplossing : deduplication :) voor de rest, idd, we zijn allemaal wel wat slordiger geworden met wat we allemaal bijhouden...
Wat ik zie is dat er een behoefte bestaat om alles te bewaren maar met dit soort hoeveelheden heb je een gedegen archief nodig anders kan je het nooit meer vinden. Heb gezien dat mensen wisten van ja dat mailtje of dat stuk heb ik nog, maar het vinden was een ander verhaal, en als ze het na uren zoeken gevonden hadden was de informatie achterhaald. Soms is het niet meer hebben sneller en goedkoper.
Voor jezelf een archief opbouwen gaat nog goed maar hoe meer mensen er in het archief kunnen en hoe meer data erin staat hoe lastiger het wordt. Zeker met binnen bedrijven waar mensen sneller wisselen van functie of weer vertrekken is het heel erg lastig. Vroeger had een bedrijf aan 1 TB al genoeg produceren we nu zoveel data dat meer nodig is? Of is het gewoon een geval dat we niet handig met data om gaan?
Een rapport van 1 mb wordt gemaild naar 10 mensen die het in hun mail krijgen, ze vinden het allemaal belangrijk en slaan het op. gevolg het rapport kost al 21 mb opslag en dan komen er revisies na commentaar en het explodeert want die oude versie weggooien is toch zonde. Goedkope data opslag is geen zegen maar eerder een vloek. Want een mailtje met een link naar een bijlage wordt gelezen maar de bijlage?
Het scenario zoals jij dat beschrijft wordt (bedrijfsmatig) afgevangen met deduplication. Verder ben ik het wel met je eens dat bestanden via email sturen niet echt handig is. Dat kan efficiënter(cloud).

Maar goed, content wordt gewoon al zo lang als computers bestaan elk jaar groter. Waar films 10 jaar geleden nog 700 MB innamen (divx) is 10 GB tegenwoordig normaal (mkv blueray rip), 20 GB voor 4K. Als jij nu als consument een 4K actioncam koopt dan heb je een bitrate van 100Mbps. Daar krijg je akelig grote bestanden van.
In google drive zijn documenten gelinkt, als ik het upload en naar 500 mensen stuur wil dat niet per definitie zeggen dat het document ook 500x gedupliceerd is.

En zoeken is net heilig, ik kan letterlijk elke factuur terugzoeken van de afgelopen 10jaar. Filters maken het nog eenvoudiger.

Veel Coudopslag maak uw computer niet trager of maakt het zoeken er niet trager op.

Ik weet nog heel goed toen ik een 16Gb schijf kocht. Iedereen verklaarde me zot. Dat zou die schijf nooit in mijn leven volkrijgen en nu lacht iedereen met 16gb.

RAW bestanden zijn nu 80Mb per stuk en UHD schermen zorgen ervoor dat beelden voor het web veel groter zijn geworden. 4K films nemen meer ruimte in. We need space.

En die vandaag een hele HD in beslag nemen passen over 10jaar gewoon op een mini usb-stick. De data overload waar je voor vreest gaat er niet komen.

Google zoekt nu al door miljarden terrabytes aan data. Als het bestaat zal je het vinden! Of het nu 10Gb, 10Tb of 10Pb is.
Ik moet er niet aan denken, bij uitval een een klap 16TB kwijt. Veel liever meerdere kleinere schijven.

En dan is het ook nog een Seagate :X

[Reactie gewijzigd door mission op 27 januari 2017 09:07]

Ik vermoed dat deze schijven in een raid-config terecht gaan komen :)
Ik vermoed dat deze schijven in een raid-config terecht gaan komen :)
Ik vermoed van niet.
Met dergelijke volumes wil je erasure-encoding achtige oplossingen en geen RAID.
Dus bijvoorbeeld Ceph of een van de diverse andere object-stores.

Met RAID heb je het probleem dat een rebuild faalt bij een read-error.
Nu halen firmware-makers van de schijven wel allerlei trucs uit om nooit een read-error terug te geven, maar gewoon een time-out, zodat je geen rebuild afbreekt.
Maar RAID is gewoon hopeloos achterhaald en met grote volumes gewoonweg niet werkbaar en niet schaalbaar meer.
Zo heb je met RAID bijvoorbeeld dat een rebuild het systeem enorm vertraagt en zodoende zelfs weken kan duren. Met erasure-encoding systemen is dat in de orde van de tijd die nodig is om de hele schijf te schrijven bij maximale schrijf-snelheid van 1 schijf.
Bij RAID moet elke schijf meewerken met schrijf-acties, waarbij dat bij erasure-encoding systemen dat steeds een andere set schijven is die actief is, dus veel kortere latency bij veel requests en vrijwel geen merkbare belasting van het systeem bij rebuilds.

Dus nee, dergelijke schijven gaan vrijwel zeker niet in RAID-configs draaien.
Weet ik nog niet zo, bereken je even de raid rebuild ? :) Ik vermoed dat backup/archive de enige oplossing is.

[Reactie gewijzigd door svennd op 27 januari 2017 09:20]

Backups zijn altijd de enige oplossing, ik zie deze schijven inderdaad niet in iets anders dan RAID 10 staan.
Waarbij ik me dan afvraag... je kunt schijven steeds groter maken en meer data verwerken. Maar waarom wordt de snelheid niet verhoogt? Technisch niet mogelijk?
Dan moet je ze normaalgesproken sneller laten draaien. Dit brengt een boel nadelen met zich nee, het is niet zonder reden dat de 15K en 10K schijven het eerste slachtoffer van de SSD waren.
Dit vraag ik me dus ook af...
Ja want dan kan je heel vaak een klein beetje data kwijtraken...

Als je bang bent data kwijt te raken kan je beter 2x 16TB in raid draaien dan een half dozijn kleinere schijven.
Onjuist, belangrijke data kan veel beter op 5x4tb inraid 6 dan twee keer 16tb in raid 1. Met raid 6heb je betere performance en betere redundancy , als een van de twee 16tb schijven sterft en de andere terwijl die 16tb aan data word gerebuild op een nieuwe ben je alles kwijt
Mmmm dat is een goed punt, maar qua downtime lijkt me het een ramp om te wachten tot een 16TB rebuild is
Waarom zou je downtime hebben gedurende een rebuild?
Ik bedoel downtime op de betreffende server.

Of loop ik hopeloos achter qua kennis? In mijn oude servertje kan ik niet bij de schijven tijdens een rebuild.
Tijdens een resilver op een ZFS array is ie iig gewoon beschikbaar, kan naar gelezen en geschreven worden.
Professionele systemen kunnen al jaren gewoon door blijven werken als de raid set aan het rebuilden is. Misschien met iets minder performance, maar daar merk je vaak niet eens heel veel van.

Daarnaast werken dergelijke storage systemen vaak met failure prediction. Zogauw SMART indicaties begint te vertonen van aanstaande storing, wordt er al een hot spare ingezet en wordt de verdachte disk vervangen.

Enterprise systemen gaan dit soort schijven gewoon in RAID6 opstelling gebruiken met een stuk of 8 a 10 disks per set.

[Reactie gewijzigd door anboni op 27 januari 2017 09:40]

Mijn areca raid werkt gewoon zoals normaal tijdens expansion of rebuild
Wie zet er dan ook zoveel data op 1 disk van 16TB zonder RAID & backup oplossing.
Ik iig niet.
Ik zou persoonlijk nooit voor (thuis gebruik) een dergelijke grote disk van 16TB gaan, ik zal eerder kiezen voor 8TB schijven in Raidz2 en is waarschijnlijk ook nog eens goedkoper, en al helemaal niet een SMR disk, tevens te aller tijden zorgen voor goede backup.

Het is al eerder aangegeven,
http://www.storagereview.com/seagate_archive_hdd_review_8tb

The HGST He8 HDDs completed its rebuild in 19 hours and 46 minutes. The Seagate Archive HDDs completed their rebuild in 57 hours and 13 minutes.

[Reactie gewijzigd door Habana op 27 januari 2017 14:46]

Ja duh. Ik ook niet maar worst kaas mocht er tussen twee back ups iets gruwlijk mis gaan (#seagate) dan hang je.

Zeker als later die schijven nog goedkoper worden en kleine bedrijfjes zelf een servertje gaan knutselen.

(Doet mij denken aan vroeger met tapeless back up solutions. Servertje bij n klein bedrijf begint als de duivel te gillen dat er een schijf defect is en uit paniek ropt iemand alle schijven eruit. Geen cloud back up dus weg data.)

[Reactie gewijzigd door mission op 27 januari 2017 09:18]

...mocht er tussen twee back ups iets gruwlijk mis gaan (#seagate) dan hang je.
Dan heb jij het over seagate met de consumentendisks in je achterhoofd.
De Enterprise schijven schijnen een andere klasse te zijn. Met zakelijke contracten en zo. Verantwoordelijkheid en service; van die dingen die je bij die goedkope bulk voor thuis natuurlijk niet kunt eisen voor die prijs.
Dat zou ik met een gerust hart doen, afhankelijk van de data die ik er op zet. Ik heb redelijk wat data staan die ook op internet te vinden is, en ik gewoon opnieuw download mocht hij lokaal niet meer bestaan.
Maar wat als je 500TB moet opslaan en de grootste cases zijn 90 slots ? En je moet ook nog competitief blijven want 90x stroom ....

Energie/datadichtheid zijn ook factoren...
Verkeerde

[Reactie gewijzigd door Mike.Kentin op 27 januari 2017 09:39]

Ooit al gehoord van backups?
Zijn deze, net zoals (veel goedkope?) 8TB schijven met name bedoeld voor archiving?

(zoals deze: pricewatch: Seagate Archive HDD v2 ST8000AS0002, 8TB)

[Reactie gewijzigd door Prulleman op 27 januari 2017 09:07]

Ja, maar als je nooit iets wilt verwijderen is een 14tb of 16tb hdd dé oplossing!
Tot die stuk gaat :P
RAID kan je daar wel mee helpen :Y)
RAID is geen echte backup ;)
Wel een middel om het stuk gaan van disks op te vangen ;) Niemand zei hier iets over backup ;)
Tijdelijke oplossing. Toen ik mijn eerste terabyte hard disk had, dacht ik ook 'm nooit vol te krijgen.
Vroegah, toen de 286 werd geleverd met 40MB (ja MMMMMMBEEEE) HD was de eerste opmerking "die krijg je noooooooit vol".
Ah de tijden dat je anderhalf uur bezig was om Dune2 in te pakken op 4 floppys als backup. :o
Yup! Been there :)

En klooien met van die disk compressie software waardoor je dan (zgn) een 80 MB hdd kreeg... alleen was hij wat optimistisch over de compressie factor :)

Ik hoop zo dat het RAM persistent gaat worden in de komende jaren... zodat we een 4-traps raket kunnen bouwen:

64GB RAM
256GB persistent RAM
4 GB SSD
16 TB HDD
(en daarboven nog L0 cache ... L3 cache, you get the picture)
Natuurlijk want die-hard data verwerken doe je liever op een SSD.
Behalve cold storage opslag, dat gebeurd nog steeds op tapes.
*moest even opzoeken hoeveel er op een tape gaat.
Iets van 6TB per LTO tape.

[Reactie gewijzigd door -=bas=- op 27 januari 2017 09:08]

tegen 2020 kan er op LTO-9 / 26TB per tape. (afgaande van de 2/3 jaar tick per LTO generatie)
En zelfs voor die cold storage wordt al veel vervangen door Virtual Tape Libraries (die pas in laatste instantie naar tape gaan, of zelfs helemaal niet meer bij offsite replicatie van de VTL).
"Fabrikanten van harde schijven leggen daarom steeds meer nadruk op harde schijven voor de servermarkt, waar ze kunnen dienen als relatief goedkope massaopslag."
archiving is was anders dan massa opslag

(toevoeging naar aanleiding van de discussie hieronder... als archiving een onderdeel is van het grotere "massa opslag" dan is mijn punt nog steeds valide...
als ze iets voor massa opslag op de markt brengen, is dat dus niet per definitie specifiek voor archiving)

[Reactie gewijzigd door Prulleman op 27 januari 2017 09:31]

:offtopic
archiving == massa opslag, maar massa opslag != archiving
Gelijkheid en ongelijkheid zijn commutatieve operatoren, dus als "archiving == massa opslag", dan geldt het omgekeerde automatisch ook.

Wat je probeert te zeggen is dat archiving een deelverzameling is van massa opslag. Dwz: Alle archiving valt onder massa opslag, maar niet alle massa opslag is ook archiving.
aan archivering stel je bepaalde eisen m.b.t. houdbaarheid van de data, voor de meeste massa opslag is dit minder relevant
Mag niet modereren op eigen post, maar je mag een +1 krijgen van mij :+

Dat was inderdaad wat ik bedoelde.
dan moeten we dus ⊂ en ⊄ gaan gebruiken :D
Wss wel. En hier kan je lezen waarom je die niet als main storage wil: http://www.storagereview.com/seagate_archive_hdd_review_8tb
Of net wel. Voor data die je weinig nodig hebt is dit een prima schijf. Ik heb er een vijftal die ik gebruik als cold storage backup schijven. En daar zijn ze uitstekend voor geschikt.
Ja ik zeg toch ook main storage, maw waar je OS op staat en je applicaties van draaien. Jij gebruikt ze waar ze voor gemaakt zijn, en dat was mijn punt niet.
De naam van het artikel verraad het al.
Hebben harde schijven bij gelijke prijs eigenlijk nog een voordeel t.o.v. ssd's?
Sequentiële schrijfsnelheid ? Ik vermoed ook dat data recovery bij HDD's een grotere kans heeft op succes... :P
Als data recovery een reden is om iets te kopen, moet je jezelf ernstig achter de oren krabben over je huidige setup :P
Dat is ook een opmerking die alles en niks kan betekenen. Wat bedoel je? Dus als ik iets zou kopen, moet ik me achter de oren krabben?
Wat bedoel je? Dus als ik iets zou kopen, moet ik me achter de oren krabben?
Als de mogelijkheid tot recovery de reden is, wel.
Je moet niet hoeven recoveren. Je moet de zieke schijf vervangen en je backup terug zetten.
HDDs kopen boven SSDs vanwege betere data recovery mogelijkheden is een beetje alsof je een 10 jaar oude lada verkiest boven een moderne volkwagen omdat de Lada beter uit te deuken valt na een crash...
Sequentiële schrijfsnelheid ?
Zoek een willekeurige review van een SSD en je zal dat ook daar de SSD altijd sneller zal zijn.
Meer opslagruimte. :) Nadeel is dan weer dat het trager is. ;)
Voordeel is dat de prijs per GB/TB veelal aanzienlijk lager is. Daar staat weer een hoger energieverbruik tegenover. Het blijft een kwestie van keuzes.

En bij het gebruik van multi-tier storage, komt veel gebruikte data (automatisch) op snelle storage, waaronder SSD. Data die amper gebruikt wordt, zoals archieven, kunnen prima op relatief tragere HDD's.
Hangt ook van het gebruik af, een SSD is snel in zn random data opzoeken, als je gaat kijken naar linear lezen maakt het vaak weinig uit. Vaak is dan de limitatie de verbinding naar de rest van je systemen (denk aan 10ge, 40ge of 100ge) dan is het per 100TB weer goedkoper en sneller (je hebt immers minder apparaten nodig ervoor)
Weinig uit? SSD's halen sequentieel tegenwoordig meer dan 1 GB per seconde... Bij de hdd's haal je weliswaar meer dan vroeger, maar daar zie je nog steeds reads van rond de 150, misschien 200 MB/s.
150MB/s is 1.200Mbit/s dat is sneller dan het gemiddelde netwerk waar zoon hdd in hangt.
Ik weet niet of je bekend met zogeheten datacenters, maar daar hangt tegenwoordig makkelijk 10 of 40 gigabit tussen servers. Een beetje SAN kan een factor 10 sequentiele snelheidstoename wel gebruiken. Of dacht je echt dat het meerendel van deze Enterprise schijven naar thuisgebruikers met een NASje met 2x 12 TB gaan?
Nee niet thuis in een NAS maar wel bij de Soho gebruiker en op kleine kantoren in de server. Daar hebben ze echt geen10gb of glasvezel backbone.

Maar ik denk wel dat thuis markt en de Soho markt een grotere koek van de totale hdd afzetmarkt is dan data centers

[Reactie gewijzigd door xbeam op 27 januari 2017 10:33]

2.5 en 5 Gbps netwerken zullen de komende 2 jaar best wel snel gemeengoed worden.
Natuurlijk zijn deze bedoeld voor in datacentra en niet voor in een huis-tuin-en-keuken-nas, en zeggen dat het verschil tussen SSD's en HDD's niet groot is klopt natuurlijk niet: maar in een beetje storage setup kan je veel geld besparen door voor HDD's te gaan, en dan heb je nog steeds niet te klagen over de snelheid hoor. De laatste setup die ik gezien heb trok zonder noemenswaardige problemen 32Gbps up en down, met 24 6TB schijven en in totaal ongeveer 120GB aan SLC SSD's voor caching.
Voor Netflix of Youtube is veel sequential snelheid wel belangrijk denk ik ja maar voor de meeste mensen? Welke files gebruikt men in bedrijven die niet binnen 0,1 sec. overgedragen zijn bij 1GB/s?

In de praktijk is de meeste access random access (of komt daar dicht in de buurt). Tegen de tijd dat de disk op volle snelheid is is de overdracht al weer klaar. Nu die ander file, op de andere kant van de schijf...

Kan me wel goed voorstellen dat HDD ergens tussen SSD en tape in gebruikt kan worden... Of wordt tape niet meer gebruikt voor archiving tegenwoordig?
Natuurlijk zal het niet bij iedereen op aarde altijd uitmaken, maar de stelling "als je gaat kijken naar linear lezen maakt het vaak weinig uit." waar ik op reageerde vond ik behoorlijk te kort door de bocht. Er is een belangrijk verschil tussen want SSD's en HDD's kunnen, ongeacht of iedereen het nou gebruikt of niet. Er werd hier een beetje gedaan alsof iedereen alleen maar SSD's voor de random read/writes performance gebruikt en als men dat niet nodig heeft een HDD 'net zo goed is'. Dat is het uitdrukkelijk niet, je haalt met gemak een factor 10 hogere rates met PCI-E SSD's. Dit is ook de reden dat mijn werkgever SSD's gebruikt in SAN nodes, bijvoorbeeld de kortere recovery tijden zijn door de grotere transferrates een groot pluspunt.

Tape wordt wel gebruikt voor offline archiving, maar dat is een aparte use case en niet onderdeel van de online taken waar SSD en HDD elkaar beconcurreren.
Ja en dat komt mede door de sata 600 aansluiting waar moderne harde schijven aanhangen.
Moet je maar eens proberen een ssd aan een sata 600 hangen gegarandeerd dat ie een stuk sneller is.
Maar net zoals ze hier boven mij zeggen die oudere magneet schijven zullen heel goed als een backup gebruikt kunnen worden.En die ssd waar dus windows opstaat voor het sneller opstarten.
Een nadeel van de cloud opslag is dat het online staat en dus slachtoffer kan worden van bijvoorbeeld een ddos aanval of van een hacker.
Dan ben je dus ook alles kwijt.Plus het heeft onderhoud nodig van de server admin.
Ook de server opslag harde schijven van de Cloud heeft hogere mtbf ,maar weliswaar langer als onze huis tuin en keuken harde schijven.
Absoluut waar, maar kijk je naar linear uitlezen maakt dat allemaal niet veel uit, we hebben hier meerdere 10Gbit sans staan met 48x600GB disks erin, dat trekt beide controller dicht (40Gbit in totaal per SAN) de SSD sans doen exact zelfde omdat er gewoon niet meer via het netwerk kan worden gehaald. Gaan we daarna kijken naar read latency dan zijn de SSD's natuurlijk in het voordeel, access times, same. Het hangt van je applicatie af en kosten. 1 tray met SSD's van 600GB kost ~15.000 euro, vs 4.000 voor 1 tray met normale SAS disks.
Tja en ga dan eens wat schijven repliceren? Of een hele node? Natuurlijk boeit het in arrays niet zo veel, maar niet iedereen gebruikt arrays (wij bijvoorbeeld draaien OS Swift op losse schijven).
Als je met Swift Objectstorage bedoelt maak je hier pas gebruik van als je enorm veel data wilt opslaan. Waar ik werk zijn we met een kleine omgeving begonnen als test en dat bestaat uit 3 nodes van 72 TB per stuk. Hier gaan schrijven van 6 TB in. Zelfs als alle schrijven van een node kapot gaan gaat er niks aan data verloren.

Alle grote bedrijven maken gebruik van deze techniek om enorm veel opslag aan te kunnen bieden en met elk denkbare applicatie kan men gemakkelijk tegen de API praten. Ook de reden dat Stack gratis 1 Tb aan storage kan aanbieden aangezien het schaalbaar is

[Reactie gewijzigd door vali op 27 januari 2017 11:28]

Weinig uit? SSD's halen sequentieel tegenwoordig meer dan 1 GB per seconde... Bij de hdd's haal je weliswaar meer dan vroeger, maar daar zie je nog steeds reads van rond de 150, misschien 200 MB/s.
Harde schijven hebben al jaren geen probleem met 250 MB/s+. De 150 MB/s haalde je al met een spinpoint F1 in 2008... Koppel je er twee aan elkaar dan zit je op 450 MB/s+. Ten opzichtte van een gewone SSD had Mida.e dus wel een terecht punt.

Praktijk is een ander verhaal, zelf heb ik zowel een 500 GB SSD als een 2x 1 TB raid 0 om mijn games vanaf te laden. Uit mijn tests blijkt dat het erg per game verschilt of de SSD iets toevoegt. Bij games als Battlefield is het een wereld van verschil, bij andere games doet het niets. Het punt dat mijn raid 0 array weg kan komt voor mij echter wel steeds dichter bij (lees de betaalbare 2 TB ssd).

[Reactie gewijzigd door sdk1985 op 27 januari 2017 14:04]

"een gewone SSD" is hier niet het punt, het gaat om enterprise level. Als je in de soho markt kijkt dan is alles goed genoeg, daar gaat het hier niet om. Juist in de Enterprise markt ga je niet de transferrates van SSD's evenaren met HDD's.

Bij games e.d. zou je zelfs kunnen kijken naar RAM caching.
Ook in lineair lezen komt een HDD niet in de buurt van een SSD.
Correct, punt is alleen dat je uiteindelijk toch met de verbinding naar de rest van het netwerk zit en als je die 'vol' krijgt met harde schijven voor een (stuk) lagere prijs heeft het gewoon geen zin om voor ssd's te gaan, sequenciele data betreft dan :)
Een beetje storage netwerk waar performance telt rol je niet uit met 1Gb links...
Ik beweer ook nergens dat je dat wel zou doen ;) . Zoals in andere reacties ook te lezen is: ook (relatief veel voorkomende) 40Gbit links worden regelmatig volgetrokken mbv harde schijven en eventueel een caching SLC SSD, nu kan alles nog veel sneller met SSD's natuurlijk: maar er zit een limiet aan wat je netwerk kan en wat je daadwerkelijk gebruikt!
Precies, mijn NAS hangt vol met WD Green schijven Kopie van array 1 naar array 2 in de machine gaat sneller dan een enkele SATA SSD, bij sequentieel lezen over het netwerk is Gb ethernet de limiterende factor. Caching werkt overigens ook prima, ik heb 64GB RAM in de NAS en zelfs bij random access trek ik Gb ethernet vol, simpelweg omdat de random data via de cache loopt.
Ik kan nergens op komen. Het enige mogelijke punt is dat het makkelijker is om dataherstel te doen op een kapotte harde schijf dan een SSD maar goed, dat ik hoe dan ook een probleem wat je niet hoort te zien.
Snelheid, energieverbruik, dichtheid enzovoort zijn allemaal punten waar een SSD altijd op wint.
¤

Dat is het voornaamste denk ik
Als snelheid geen issue is, bijvoorbeeld bij massa opslag of backups, zijn HDD zeker nog te verkiezen. Een SSD zal een HDD niet vervangen, het zijn 2 complementaire oplsagmedia die elk een specifieke use case hebben.
En ze hebben toch minder last van de maximale aantal schrijfbewegingen? Een SSD is toch een keer "op"?
maar een harde schijf is een keer versleten, wat sneller kan dan een SSD. Bij een SSD is de levensduur hoofdzakelijk gekoppeld aan het aantal NAND-write cycles. Bij een HDD is de levensduur hoofdzakelijk gekoppeld aan het aantal draaiuren en start-stop cycles.
Bij een HDD is de levensduur hoofdzakelijk gekoppeld aan het aantal draaiuren en start-stop cycles.
Maar naar bijv. een Seagate Enterprise disk van 10 TB (helium) mag je 550 TB per jaar heen schrijven.
Reken zelf even uit hoeveel dat per dag is. En dat voor de gehele garantieperiode.
Tevens zullen zakelijke schijven continu draaien dus start/stop is niet van toepassing.
Ja dat is een bepaalde garantie die een fabrikant geef. Maar ik had het ook over de factoren die slijtage veroorzaken.

In een data center voor massaoplsag waar data niet heel vaak wordt opgevraagd kan een schijf nog wel uitschakelen om energie te besparen.
In een data center voor massaoplsag waar data niet heel vaak wordt opgevraagd kan een schijf nog wel uitschakelen om energie te besparen.
Dat antwoord zal door iemand anders gegeven moeten worden..
Alleen door hun natuurlijke rolverdeling gaan SSDs juist heel veel cycles doen (omdat ze goed zijn in random access) terwijl HDDs juist vanzelf in de archief functie terecht komen (goedkoop en snel (genoeg) sequentieel)... dat is wel jammer.
Bij gelijke prijs? Nee. Maar de prijs is alles behalve gelijk.

Het is volgens de pricewatch (staat wel een foute HD prijs in) een verschil tussen 0.02 en 0.2 per GB op zijn meest voordelig.

Dat is een groot verschil en niet eentje die binnenkort gaat verdwijnen.

Nou zal het wel zo zijn dat voor de lichtere gebruikers SSD's steeds groter worden en je eigenlijk geen HD meer nodig heb. Eerst had je zeg een 32GB SSD voor het OS en een 1tb HD voor films in je PC. Dat zal steeds meer veranderen.

Maar als je een NAS "nodig" heb voor je data dan zal deze nog lang met HD's gevuld zijn.

[Reactie gewijzigd door sfc1971 op 27 januari 2017 10:41]

Sterker nog, de prijs verhouding tussen SSD en HDD is al bijna tien jaar min of meer constant. Verschil is dat de opslagbehoefte bij de meeste mensen niet meer zo hard groeit.

Vraag je mensen vijf jaar geleden of ze voor hetzelfde geld een 100 GB SSD of 1 TB HDD willen, dan kiezen ze sneller voor de HDD, want 100 GB is toch vrij krap.

Laat je ze nu kiezen tussen 1 TB SSD of 10 TB HDD, en veel meer zullen dan voor de SSD gaan, ook al is het verschil hetzelfde gebleven.

[Reactie gewijzigd door Dreamvoid op 27 januari 2017 12:22]

Ja geldt ook voor mij. Ook de vele mogelijkheden voor cloud opslag helpen daarbij natuurlijk.
Ze zijn beter bestand tegen statische electriciteit.
Mushkin previews a $500 4TB SSD at CES
Bron: http://techreport.com/new...iews-a-500-4tb-ssd-at-ces

Dat is het eerste waar ik aan moet denken. Goedkopere SSD's zijn vaak zelfs sneller dan de grotere ''archive'' hdd's. Goed dat ze niet gelijk de handdoek in de ring gooien, maar ik zie het zakelijk ook nog wel verdwijnen. Al zal dat wellicht wat trager gaan dan de consumenten markt. Genoeg mensen met een enkele disk en dat wordt nu i.p.v. een HDD een SSD.
Vind het juist ideaal een ssd voor het os en wat programma's en spellen soms een 2e ssd erbij.
En een hdd gespiegeld voor backup foto's muziek bestanden en een enkel ouder spel
Tja, zolang de prijs per gigabyte bij een SSD veel groter is als bij een conventionele HDD zal een HDD altijd interessant blijven voor o.a. archiving / bulk storage oplossingen, waar performance geen probleem is en je juist veel wilt kunnen opslaan.
Is dat niet belachelijk veel opslagruimte? Als de lees en schrijf snelheid ongeveer hetzelfde blijft zit je dagen te kopieren.
Zakelijke markt.......... Maar ook voor consument kan het wel handig zijn, heb van de ene kant ook liever 1 16TB HDD staan dan 4 4TB-ers of bijna 6 3TB-ers..
Zeker voor een server park scheelt dat een hoop stroom (en de drives gaan daar toch in raid).
Als de lees en schrijf snelheid ongeveer hetzelfde blijft zit je dagen te kopieren.
Als het de overige prestaties niet nadelig beinvloed, mag het dagen duren. Er zitten 24 uren in een etmaal, doe je best.
Heb hier meer dan 65 TB thuis en een redelijk groot deel is nog steeds meerdere harde schijven van 500 gig die al meer dan 10 jaar oud zijn het is leuk een 4TB ssd voor 500 dollar maar is nog steeds niet zo toereikend als harddrive's hoeveel TB je dan krijgt voor je geld.

Voor me game pc blijft het alsnog ssd's met harddrive vooral omdat bepaalde oude spellen problemen hadden met de ssd's en alsnog 10+ jaar oude spellen zijn harddrive's goed genoeg voor.
Is het huisvesten van 130 HDD's niet gigantisch onpraktisch? :P Hetzelfde zou je kunnen bereiken met negen 8TB schijfjes, is wat in een fileserver prima past.

Ik zit zelf altijd te dubben wat een verstandig upgrademoment is. Altijd maar wachten op meer meer is ook niet de oplossing merk ik al. ;)
Ik zei een redelijk groot deel :P heb ook genoeg 2/4 TB maar ik heb op het moment nog 74 500 gig schijven het is te doen maar wel tijd om ook dat deel is te vervangen ook gezien de leeftijd.

Ik dacht er gewoon over als ik elke keer zo dacht van is weer grote opslag weer te upgraden is extra mileu belastend inplaats dat ik de oudere gewoon houd en dan zou het ook wel heel erg in de centen gaan zitten.

Ach wie houd ik voor de gek meestal als ik weer nieuwe schijven haal komt er meestal nieuwe data op :+

Marja met het uitfaseren van de harddrive's is gewoon meer tot het eind van de schijven belangrijkste dingen die zogoed als niet of niet meer te vergaren is staan toch 2/3/4 gecopy'ed dus.

Maar zoals van der berg zegt zou ook eigenlijk niet kunnen wachten op 20TB harde schijven maar 12TB schijven kunnen al een mogenlijke uitkomst bieden voor me :)
Heb je nooit eens de vraag van jouw energiebedrijf gehad of je soms wat speciale plantjes aan het kweken bent? Dit is toch een aanslag op je energierekening?
Goed geraden heb zelf eens een gratis persoonlijke wekker service gehad om 5 uur in de ochtend :+

* edit *

Is natuurlijk als grapje ;) niet alle harddrive's staan constant aan maar me energierekening is wel een beetje hoog hoef alleen niet zoveel te stoken ;)

[Reactie gewijzigd door Scott91 op 27 januari 2017 13:30]

Sinds er 250GB schijven zijn, werk ik met array's. De capaciteit verdubbel ik om de zoveel jaar. Het economisch beste moment is, als het prijspunt van de volgende serie schijven per GB nog net wat hoger ligt als het minimum. Alle oude schijven worden als archiefschijf gebruikt, zodat er altijd genoeg ruimte is voor een backup. Dit werkt al jaren voortreffellijk.
Wauw, waar houdt het op? :-)
Heel interessant dit.

Ik ben nog steeds aan t zoeken naar een relatief goedkope NAS oplossing met ECC, dit soort schijven zouden dan ook wel interessant zijn voor mij.

Ik heb slechts 700GB thuis, maar heb in de loop der jaren best wel wat datacorruptie opgelopen, vooral in materiaal dat nog uit de jaren 90 stamt.
ECC is voor mij een vereiste bij de volgende aanschaf.
Of je werkt met raidz of btrfs systemen die automotisch scrubben en je data controleren op corrruptie.
Die kende ik nog niet.
Ik had als idee om ECC i.c.m. ZFS te doen op een raid config.
Gewoon zelf een NAS bouwen en dan een gratis OS zoals NAS4Free of FreeNAS er op.
Dan wil je nooit meer een kant en klare hebben!
Ja dat was mijn idee ook. Zo'n synology ofzo gaat m niet worden.
Ik vind het jammer dat dat soort kant en klare oplossingen geen ECC o.i.d. bieden.
Zowel de schijven van Seagate als die van WD zijn bedoeld voor de zakelijke markt.

Wij consumenten weten er ook wel raad mee.
Kan niet wachten op een enigszins betaalbare variant! Laten we zeggen een mooie 10-15 Tb van WD voor zo 500/600. Kan er nog 10 kwijt 😇
Ik zou graag willen zien dat Seagate wat meer werkt aan het hoge uitval van schijven. Sinds dat hier disks uitgevallen zijn koop ik het eigenlijk nooit meer. Ik heb 3tal een 7 jaar oude samsung draaien van 500GB per stuk die NOOIT problemen hebben gehad. En elk andere seagate knikkert er soms onverklaarbaar uit. 15TB aan data in 1 klap weg lijkt me gewoon een enorm risico, tenzij je Raid 1 draait.

[Reactie gewijzigd door Jism op 27 januari 2017 11:13]

Ik zou graag willen zien dat Seagate wat meer werkt aan het hoge uitval van schijven. Sinds dat hier disks uitgevallen zijn koop ik het eigenlijk nooit meer.
Dan heb je het wel over de thuisgebruiker-kwaliteit. Het zal bij de Enterprise varianten anders zijn.
Kijk maar eens naar Firecuda, IronWolf of Skyhawk bij Seagate. Wat die bieden en wat Seagate ter ondersteuning en voorwaarden aanbiedt.

Die haal je niet bij Aldi.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*