×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

De complexiteit van dataherstel - Op bezoek in Seagates Data Recovery Lab

Door , 270 reacties

17-10-2015 • 06:00

270 Linkedin Google+

Opslag kost tegenwoordig nog maar een fractie van de prijs die je jaren geleden betaalde, maar je data zelf wordt juist hoe langer hoe waardevoller. Denk aan je vakantiefoto's, de foto's van je kinderen of andere familieleden: sommige van die foto's kun je misschien nooit meer opnieuw maken. Maar ook meer zakelijke bestanden, zoals financiële gegevens, je scriptie of dat boek waar je aan werkt: je moet er niet aan denken dergelijke gegevens kwijt te raken.

Maar Murphy zal Murphy niet zijn als juist die schijf waarvan je geen backup hebt het meest ongelukkige moment kiest om met veel getik en gepiep de geest te geven. Of misschien is je laptop gevallen en geeft de schijf niet meer thuis, heb je er water over laten vallen of misschien is het wel een van de meest obscure oorzaken van allemaal: opeens ziet je besturingssysteem je harde schijf niet meer. En wat moet je dan, zonder backup?

Een mogelijke oplossing zou zelf gaan knutselen zijn, hetzij met de hardware zelf, of met allerlei betaalde of onbetaalde softwaretooltjes. Wij gingen op bezoek bij een bedrijf dat het vak van dataherstel tot in de puntjes beheerst om uit eerste hand te zien hoe professionals je verloren gewaande gegevens alsnog kunnen redden. Een kijkje bij het Data Recovery Services-lab van Seagate laat zien wat er allemaal bij het herstellen van defecte harde schijven komt kijken.

Reacties (270)

Wijzig sortering
Komt er naar aanleiding van dit video artikel ook een artikel over backups maken en wat daar de smaken in zijn en de do's en dont's? Ik zou graag een artikel hierover willen zien en dan ook 'cloudbackup' oplossingen getest
Ik zou dit ook graag zien!
Tevens zouden referenties erg welkom zijn naar bijvoorbeeld de geraadpleegde bron voor de relatief 'lage' kosten van softwarematige (¤150?) en hardwarematige (¤900) datarecovery door (proffesionele?) bedrijven.

Heb nog 2 WD 1TB schijven liggen die onleesbaar zijn, ben erg benieuwd welk bedrijf dit betrouwbaar en betaalbaar zou kunnen recoveren! Uiteraard wel op 'no cure, no pay' basis.. :*)
(Ik verbaas me uberhaupt dar er recovery-bedrijven zijn die niet (deels) op deze basis werken.)
Waar we geweest zijn, Seagate Data Recovery Services, werkt op no cure no pay (alleen onderzoekskosten van 50 euro bij no cure) voor 150 euro software- en 800 euro hardwareprobleem & herstel.
Ze werken samen met Mycom: daar haal & breng je je drive:
http://www.mycom.nl/service/data-recovery
Ik snap je insteek wel, maar het vervelende is dat als je 50% van de tijd onherstelbare schijven aan het weggooien bent moet dus de helft die je wel recovered 2x zoveel betalen want de kosten voor het runnen van zo'n bedrijf veranderen er niet door. Het is dan eerlijk dat de mensen waarvan de data wel recovered kunnen worden de kosten moeten dragen?

Tevens, er ik heb voor mijn vorige werkgever met meerdere bedrijven gewerkt en als je schijf zo ver heen is dat er niets meer is te doen dan kost het ook praktisch niets, want hier komen ze heel snel achter. Als ze vervolgens een uur bezig zijn geweest en softwarematig wil het niet dan mailen ze eerst wel voordat ze voor 500 euro gaan sleutelen. Misschien dat er ook wel bedrijven zijn die zo werken, maar mijn ervaring is dat je afspreekt, onderzoek maar (a zo'n 150 euro), en als het erg duurder gaat worden mailen ze even. Het zijn ook professionals op hun gebied, en het is bij mij nog nooit voorgekomen dat ze 500 euro factureerden en niets konden leveren.
Ik zou met de ( langzame ) komst van Glasvezel ook graag eens een aantal artikelen zien voor prive backups, waarbij vrienden/familie als backup locatie dienen.
Dat is nog redelijk simpel. Aan beide kanten een NAS en rsync bijvoorbeeld. Als je de initiële sync on site doet is er vaak niet veel bandbreedte meer nodig om elke dag de sync uit te voeren.

Daarnaast natuurlijk een offline Back-up, liefst alternerend twee kopien disk 1 voor de even weken, disk 2 voor de oneven weken bijv. En de nieuwste disk bij de buren of op het werk in de burola.

Kost je 4x opslag, maar dan heb je ook wat.
Dit. Ik heb hier zelf ook verleden jaar voor gekozen. Lokale opslag op een Synology NAS, eenmalig de data overgezet naar een WD MyBook en laatstgenoemde bij mijn ouders weggezet (en hun tweede NAS staat bij mij). Iedere week een sync van de data, laat het een nachtje uploaden en je bent weer "safe".
...tot een of ander stuk malware je data encrypt en deze via rsync ook meteen wordt doorgevoerd naar je backup nas.En dan?
Daarom doe ik het maar 1x per week ipv. iedere dag.

/Ah wacht, je doelt op malware die zich uit zichzelf ook de data via rsync op mijn andere NAS manifesteert. Ja, goede. Niet over nagedacht, maar in dat geval heb ik ook nog de data op een andere server in huis.
/edit 2:

Internet access voor de Synology disabled buiten 5 uur per week wanneer de backup window is, hetgeen me wat tijd oplevert mocht mijn NAS met malware besmet worden. Bedankt voor de tip :)

[Reactie gewijzigd door Exorcist op 18 oktober 2015 18:04]

Het recoveren van een Encryption mallware is eigenlijk eenvoudiger dan je denkt. Tevens sluit het perfect aan op dit artikel.

Wat de meeste encrypty mallware doet is je file encrypten, de encrypted file op harde schijf opslaan en het origineel weg gooien.
dit betekent dat in veel gevallen de originele file gewoon valt terug te halen.
Ik heb nu een aantal maal al een encrypted mallware systeem via een knoppix usb met photorec kunnen recoveren. Tot nu toe waren dit altijd single disks systems dus geen raid5 of andere striped disks. Maar in theorie moet dit op dezelfde manier gewoon goed gaan.

Eigenlijk is het wanhopig simpel dat het op deze manier gewoon terug gezet kan worden. Het probleem is wel dat je de data die je terughaalt altijd als besmet moet zien en dit ook zodanig moet behandelen om te voorkomen dat de mallware weer actief wordt. maar zolang je alleen je .jpg bestanden en andere files filtert en daarna de schijf formateert en opnieuw installeert is het relatief veilig en er zijn prima guides te vinden op internet hoe je dit moet doen.

[Reactie gewijzigd door COW_Koetje op 19 oktober 2015 20:58]

Thanx, weer wat geleerd!
Dus jij undelete die files met datarec (testdisk) ?
Ja,
Zodra je ziet dat de disk geencrypt is direct je pc/laptop uitzetten.
Knoppix bootable usb maken via andere pc/laptop.
Opstarten via USB en in knoppix kan je photorec starten.
Error in vorige mail ... programma heet photorec en niet datarec.
met photorec kan alle files terughalen.
Hierbij moet je aangeven waar je de recoverde files neerzet.
Doe dit niet op de orginele disk want dan overschrijf je je data.

Afhankelijk van de groote kan je dit doen naar een nas schijf (via nsf of smb share) deze moet je wel eerst aanmaken en mounten in knoppix of een usb disk direct op de pc/laptop.

Als het programma klaar is heb je een hele zooi directories en files staan .. met zoeken kan je dan de .jpg en avi en andere persoonlijke dingen terugvinden. Niet 100% garantie omdat die bestanden beschadigd kunnen zijn maar tot nu toe heb ik eigenlijk altijd alles terug weten te halen voor degene die het was overkomen.

Hier wat info:

http://www.cgsecurity.org/wiki/PhotoRec_Step_By_Step
https://www.linux.com/new...ally-wipe-your-hard-drive
Klopt, vandaar de bi-wekelijkse Back-up (ik doe dut overigens 1x per maand). Met wat geluk heb ik dan een Back-up van hooguit 2 maanden oud die niet besmet is.
Als je weet hoe je een kernbom moet maken is het ook 'simpel'.
;)
Ik schreef ook "redelijk simpel", beheer niet dat het ultra makkelijk is.

Maar een beetje Tweaker moet er toch echt wel uitkomen.
Dat heb ik draaien en kan ik iedereen aanraden. Crashplan Free for Friends. In een vogelvlucht hoe het werkt. Je installeert het op je PC. Je registreert je bij Crashplan. Daarna kan je een vriend uitnodigen per mail die vervolgens hetzelfde doet. Op dat moment zie je elkaar. Je kan quota's instellen en zo sync ik mijn foto's documenten en belangrijke installatie bestanden. Het werkt encrypted dus de data die bij jou komt te staan en de data die je uitstuurt kan je niet lezen. Pas na inlezen van de encryptie sleutel kan je vriend ook bij jou middels een USB drive lokaal zijn data restoren zodat het bij een disaster recovery alles al heel snel terug staat en het dus niet via internet hoeft (handig als je bv 2TB zou willen terughalen). Ik gebruik het al jaren en het is echt een goed en slim doordacht product en mooier nog het is gratis!
Tja een aantal lastige dingen zijn natuurlijk je wensen en eisen. In backup-land zijn nogal veel meningen.

Daarom heb ik dus nagedacht over risico's:
-De kans dat een hardeschijf stuk gaat; dat is een risico op downtime en dataverlies: RAIDz1 vangt dit deels op. Ook het zorgen voor verschillende hardeschijven van verschillende merken en verschillende types/productiedata zorgt voor minder grote kans op (tegelijk) uitvallen.
-De kans op het verlies van (de hele of een deel) van de array; = risico op het verlies van data: een echte backup
-Kans op electrische/brand/waterschade: het liefst een offsite backup
-Kans dat de hardware in mijn systeem stuk gaat: geen hardware gebaseerde RAID maar software met gangbare tools (ZFS v5000) en om het risico van downtime te verminderen een kant en klaar backup-systeem waar ik mijn schijven naar toe kan verhuizen, inprikken en gaan.

Er is veel wat je moet overwegen voor je data.

Een aantal stelregels / dingen om te overwegen lijken mij in ieder geval:
- Welke data wil je ECHT een backup van? Wat is kritisch en wat is fijne data om te hebben.
- Wat zijn je financiële en praktische mogelijkheden?
- Hoeveel heb je over voor een eventuele 'recovery'
- Welke risico's accepteer je? Maak een risico analyse (bliksem, brand, hardware die stuk gaat, fouten die je zelf maakt op je systeem, etc.)
- Keep it stupidly simple: als je het moeilijk maakt ga je het waarschijnlijk niet doen.
- Zorg dat je data op 2 plekken staat (het liefst fysiek gescheiden)
- Raid is geen backup, zelfs mirror niet ; het geeft je wel minder downtime (en dus een grotere kans om je data veilig te stellen als er iets fout gaat).
- Gebruik een filesysteem en OS dat je vertrouwt (het liefst met bit-rot detectie zoals zfs) en gebruik dat op de juiste manier
- Heb een terugval plan: wat als het misgaat?
- Wil je zelf de regie, zorg en kosten of besteed je het liever uit ('cloudservice') met risico's, nadelen en voordelen van dien

On-topic over mijn eigen situatie:
[spoiler]
Ik ben ooit begonnen zonder backup (gewoon een dump), zonder parity. Daar heb ik 1x dataverlies in gehad (middelbare school periode, eigenlijk redelijk onbelangrijk). Toen naar een software RAID array (mdadm 5, ext4), daar 1 stervende disk gehad. Toen besloten een extra parity schijf te willen en dus RAID6 gemaakt. Door de kosten (6 terabyte data ruimte) nooit een echte backup van gemaakt. - Alles op 'normale' consumenten hardware (zoals RAID ook bedacht is). Onthoud: RAID is geen backup! Omdat er ergens een keer data bij kwam die wat belangrijker was 1,5 terabyte off-site via een rsync partner bij mijn ouders gezet. Dat ging na aardig wat instel werk (het moet wel veilig en versleuteld) voor ongeveer anderhalf jaar goed. Toen is er ergens iets in de configuratie omgevallen (ik gok de Wake-On-Lan en het IP van mijn ouders). Daar heb ik nooit meer iets aan gedaan.

Nu (8 jaar later) heb ik pas een 'echte' server gebouwd met ECC, 8tb bruikbare ruimte in RAIDz1 (3x4tb) en voor mijn wederhelft 2x1tb in mirror. Die schijven allemaal uit andere batches / andere types. Dat systeem zit achter een UPS die hem netjes uit zet als er stroomstoring is en zou moeten beschermen tegen blikseminslag.

Vervolgens heb ik nu een backup-machine gemaakt (zonder ecc) die de data volledig kopieert eens in de maand (zfs send met snapshots) op 1x8tb en 2x1tb mirror. Die staat nu (nog) niet off-site. Eigenlijk moet dat wel binnenkort eens gebeuren, maar mijn upload snelheid (0,5mb/s) is daar niet echt heel geschikt voor.

Er zijn mensen die mijn huidige setup zwaar overkill vinden (en misschien is dat ook wel terecht). Er zijn er ook genoeg die over mijn setup zouden vallen: mijn backup heeft geen ECC en bestaat uit 1 drive. Daarnaast heb ik 8 terabyte aan ruimte wat een enorme kans geeft op problemen tijdens een rebuild / aflezen van mijn data (zeker van 1 disk). Die schijf zit ook nog eens via USB3. In de 'hoofd' NAS staan dus 3 schijven van 4 terabyte in RAIDz1. Iets waar veel mensen ook over zullen vallen. Als namelijk 1 schijf uitvalt is de kans op een geslaagde rebuild van de (hele) dataset relatief klein. [/spoiler]

Als ik voor mij mijn stelregels doorloop is dit mijn gedachtegang geweest:
---- Welke data wil je veilig stellen ----
Foto's en video, belasting gegevens, etc.. Mijn eigenlijk belangrijke data is eerder 2 terabyte dan 8. Omdat ik al een grote array had met mediabestanden wilde ik die mee verhuizen en heb ik toch gekozen voor 8tb dataopslag.
---- Wat heb je er voor over aan euro's en tijd ----
Ik vind het leuk en wil er wat aan uitgeven ;). Uiteindelijk in de orde van ¤ 1000,- voor 3-4 jaar.
---- Wat wil je uitgeven aan recovery ---
Data die belangrijk is is belangrijk, daar mag eventueel geld aan worden uitgegeven. Kritische data wordt duur, de rest is belangrijk maar kan ik zonder. De prijzen gaan snel naar 150-900 euro +. Voor dat geld kan ik ook zelf iets in elkaar zetten dat zo'n 3-4 jaar voldoet. Dat doe ik dan liever.
---- Welk risico accepteer ik: ----
Sommige data wil ik niet kwijt. Punt. Daarvan mag wel downtime zijn van enkele dagen MITS er een kopie van de data is. Ik wil/mag dus eigenlijk nooit zonder backup zitten. Ik accepteer dat er een kans is van een tweede probleem in een periode van enkele dagen en ik dan nog maar 1 kopie heb.
---- Hou het simpel ---
Zo veel mogelijk automatiseren. De backups maak ik met de hand maar wel dmv een script dat ik alleen maar hoef af te trappen. Het systeem doet verder zelf: SMART scans en scrubben (fout detectie) en laat mij dit weten per e-mail. Dit heb ik bewust niet volledig automatisch gemaakt omdat ik dan vooraf kan kijken of alles nog werkt. Toen ik het wel vol-automatisch had merkte ik dat ik niet meer de tijd nam om het te repareren toen het stuk was.
---- 2 fysiek gescheiden locaties van je data ----
De backup staat nu nog bij mij thuis ......
---- Terugvalplan, RAID en ZFS ----
Voor mij is RAID meteen een deel van het terugval plan: als de hoofd opslag stuk gaat heb ik alsnog op 2 plaatsen mijn gegevens als het goed is. De degraded array en de backup; een soort mirror situatie dus. Er mag 1 ding fout gaan en dan heb ik ALSNOG mijn data in een relatief veilige opstelling. Had ik puur de RAID had ik nog maar op 1 plek mijn data en was ik dus 'onbeschermd'. Had ik 2x een mirror (een kopie dus) had ik ook nog maar op 1 plek mijn data en was ik ook onbeschermd. ZFS gebruik ik omdat dat hogere data integriteit (kan) geven dan andere filestystems (btrfs daargelaten)
---- Zelf of uitbesteden ----
Omdat ik het veel flexibeler vind om het zelf te regelen heb ik het zelf opgetuigd. Zo weet ik wat er staat, hoe het staat en is mijn downtime beperkt. Daarnaast is uploaden naar een service erg traag (je kan meen ik wel hardeschijven opsturen die ze dan inladen) en moet ik er maar van uitgaan dat dat bedrijf bereikbaar blijft en het goed en netjes blijft doen. Ik ga er gemakshalve even van uit dat ik dit ook echt kan.
Been there, Done that,loved it.
Enige flaw in je setup is een real world desaster :)
Wat nu als je huis afbrand?

Wat ik hiermee probeer te zeggen is dat er altijd wel iets is waar je geen rekening mee wil/kan houden.
Succes met je setup ik draai nu een 4x 1 Tb Raid 5 op mdadm met een usb remote disk met rsync als backup. Maar heb ook al eens al mijn data verloren door een dual disk fail op de raid 5 cluster.
Daarom zei ik ook: eigenlijk moet die off-site. Nadeel dat ik daarmee heb ondervonden is dat de off-site backup wel eens omvalt, en dat herstel dan vrij lang duurt. Dat en vanwege de primaire kopie is de rede dat hij (nu) op dezelfde plek staat als de hoofd array :).
Je hebt je back-up echt 100x beter geregeld dan ik, maar ik zou je tocht echt op het hart drukken om nu al iets aan off-site back-up te doen. Zet die belangrijkste 2TB op een schijf en leg die bij je ouders of zo. Al update je dat maar 1x per jaar, dat is al veel beter dan niks.
Een fysiek probleem - brand, waterschade door lekkage, noem maar op - is volgens mij veruit je grootste risico. Met name omdat je de andere scenario's behoorlijk netjes hebt afgedekt.
En wat nou als een komeet op de aarde valt?
Off-site backup is niet genoeg. Je zou eigenlijk een backup moeten hebben op verschillende planeten: mars, jupiter, etc. [/sarcasm]

Of je moet je erbij neerleggen dat er altijd een risico is dat je je data kwijt kan raken. Je weet dat je te ver gaat zodra de kans op overlijden groter is dan de kans op data verlies. Dus wel backups maken, maar je hoeft nou ook weer niet te overdrijven.

Wat ik zelf doe: ik selecteer alleen de data dat ik zelf super belangrijk vindt (bijvoorbeeld: 5-10% van al mijn foto's) en gooi ze op mijn Dropbox (ik heb 10GB gratis) en Google Drive (15GB gratis). Mocht ik meer data nodig hebben, betaal ik graag ¤2 per maand voor ¤100GB bij Google. Bespaart mij een hoop tijd en geld, en ik vertrouw erop dat mijn data bij Google wel veilig is (en anders heb ik minstens 1PC met alle data).

[Reactie gewijzigd door mohf op 23 oktober 2015 21:17]

ik heb het zelf iets simpeler maar best vergelijkbaar ingedeeld.
Danwel geen software raid of hardware raid maar de "belangrijke data" staat bij mij op 2 verschillende pc's via een remote backup systeem + nog een externe HDD + local system.
Op local systeem: heb ik 4 HDD's hiervan hebben 3 een kopie van de belangrijke data. Zo lang er 1tje het overleefd in geval van disaster hoef ik nog niet te gaan rommelen met de remote restore :D

Dan remote system 1: een interne hdd met de belangrijke data + 1x per maand backup naar externe HDD

Dan remote system 2: 1 van de interne hdd's is speciaal ingericht voor de remote software (ook alleen uit te lezen als met remote recovery)

en als laatste nog eens per half jaar zelf op een externe hdd die in een brandkast gaat.

ik geeft toe het is nog niet 100% disaster proof ivm ontbreken van ups maar ben wel een heel end
Dat vind ik een hele goede vraag. Hoe kijkt redactie bijvoorbeeld aan tegen het autmoatische backup systeem aan in Windows 10? Ik werk nu in OSx en heeft Timemachine. Een prachtig stuf software in het OS die ieder uur netjes een backup maakt van het hele systeem. Met een druk op de knop kan ik een file terughalen van maanden geleden. Ik zag dat dit in Windows 10 nu ook verwerkt zit (zat in Windows 8 al verneem ik). Werkt dit goed? Is het net zo sterk als TimeMachine?
Ook ik zou zo'n artikel graag willen zien. Ik had 2 harde schijven (Western Digital) waar exact dezelfde data op stond. Op een gegeven moment liep dit toch uit de pas en kreeg de nieuwste schijf (met de meeste data) uiteraard problemen. Probleem bleek na (gratis) analyse te zijn dat de schijf kernmerken had dat het een harde klap heeft gehad of was gevallen (ik ben uiteraard super voorzichtig met die dingen, dus geen idee hoe dat zou kunnen).

Sommige data kon dan weer eraf gehaald worden voor ¤800,- Dat viel dan weer even tegen en heb ik niet gedaan.

Op dat moment had ik graag ook een artikel willen lezen wat nu een degelijke manier was om backups te maken en wat de verschillende manieren zijn (nu zet ik mijn data nog steeds op 2 aparte harde schijven).
Als je op linux werkt is tarsnap een geweldige oplossing. Het heeft geen uitstraling, en enkel een beperkte cli, maar heeft geweldige veiligheid en deduplicatie.
Haha haha wat een ironie.... mijn Seagate harddrive 4TB van net 26 maanden oud was viel buiten de garantie, ja meneer dikke pech voor u. Mag een nieuwe kopen.

Ben dan maar in de data sheets gaan kijken en vergelijken met andere merken en het is mij opgevallen dat zij geen MTBF vermelden en alleen het maximale operational hours van 2400 uur opgeven!!!

Wel meneer Seagate, een product dat maar gebouwd is om 2400 uur mee te gaan (100 dagen), dit was mijn laatste Seagate.

Nu begrijp ik dat ze een data recovery afdeling hebben, je hebt ze gewoon nodig wanneer je een Seagate koopt.

[Reactie gewijzigd door sokolum01 op 17 oktober 2015 07:50]

En ook hier is het belangrijkste wat je vergeet te melden de manier waarop je die HDD hebt ingezet.

Je spreekt waarschijnlijk over de ST4000DM000 welke door Seagate verkocht wordt als een Desktop HDD. De schijf heeft inderdaad "maar" 2400 uur aan Power On hours en een workload van 55TB/yr.

Indien je de HDD 24x7 gebruikt dan gaat deze inderdaad maar beperkt mee. Iets wat je van te voren kon weten als je je had verdiept in de specificaties van het product. Kwestie van de verkeerde HDD voor jouw gebruik dus.

Wanneer je een NAS hebt of een HDD 24x7 in wilt zetten in een workstation kan je beter kijken naar een echte NAS HDD of een Enterprise HDD. Dan heb je hogere power on hours, flink hogere workload (minimaal 150TB/yr en 550TB/yr) en dus ook een langere garantie termijn. Resp. 3 en 5 jaar, waarom? Omdat die HDD's beter zijn en langer getest zijn in de fabriek.

Kortom. Het is makkelijk om te zeggen:"ik koop merk x niet meer want wat een ruk schijf dat deze "maar" 2400 uur mee zal gaan".

Draai het eens om en koop de juiste HDD voor de juiste toepassing.

Dat is met andere producten zoals een auto ook zo. Wil je hard rijden dan koop je een snelle auto, wil je wat vervoeren dan rijd je in een bestelwagen.

Datasheet: http://www.seagate.com/ww...p-hdd-ds1770-5-1409gb.pdf
Het staat wel in de spec sheets, maar dat maakt die korte tijden niet minder belachelijk.

2400 power on hours.. ik heb (oude) seagate schijven in gebruik met meer dan 10 jaar aan power on hours. Het is belachelijk dat ze uberhaupt schijven maken die zo kort mee zouden gaan. Door de jaren heen heb ik eigenlijk alleen met toshiba slechte ervaringen gehad, en van seagate zelfs nog niet 1 kapotte schijf gehad (zelfs een oude 4 GB schijf is nog in gebruik in een DOS PC).

Ik moet eerdaags wel nieuwe schijven hebben (zoals je aan de power on uren ziet zijn ze nogal oud, en daardoor hebben ze relatief ook niet veel capaciteit) uit gewoonte en ervaring met seagate schijven zou ik eigenlijk daar voor willen kiezen, en had ook de 4TB variant op het oog, maar gezien de hoeveelheid uitval en dingen in de specs waarvan ik serieus dacht dat de webshop een tikfoutje had gemaakt denk ik dat ik toch nog maar even wacht en dan voor een ander merk ga waarbij de schijven zich een beetje hebben bewezen op het gebied van betrouwbaarheid.

Ik snap niet dat je als fabrikant zoveel opslagruimte aan gaat bieden die zo onbetrouwbaar is. Dit gaat alleen maar een leegloop van je klantenbestand opleveren.
Ik heb ook een thuisserver met 2 externe Seagate schijven. Geen idee hoelang ze mee kunnen, maar heb met "hdparm" ingesteld dat ze na 5 minuten inactiviteit uit gaan. De 2e (back-up) schijf draait op een dag hooguit maar een half uurtje en staat verder uit. Zo snel zal het dan dus allemaal niet gaan. Het enige is dat het LED-lampje misschien uitdooft omdat dat wel altijd blijft branden. Gaat er één stuk, dan is de tweede schijf dus de back-up en zit ik alsnog goed...
Afhankelijk van hoe vaak je computer gebackupt wordt per dag, en de backup daarna weer uitgezet wordt, kan het juist harder slijten. Vaak is het handiger om een HD gewoon aan te laten staan zolang je computer aan staat.
ik heb ook nog een paar van die oude seagates in gebruik met 40k+ poweron hours, ze maakten vroeger inderdaad goede hdds..
Nu zijn ze erg dramatisch, 2x hun dekstop 2tb hdds in verschillende pc`s en verschillende fabrieken gehad. Beide na iets meer dan 2 jaar zijn ze handig kapot gegaan.
Na een beetje googlen en wat onderzoek is zie je wel een trend.. de failure rates van seagate zijn tegenwoordig enorm
https://www.backblaze.com...bility-stats-for-q2-2015/
is bv een goede plek.. datacenter wat veel hdds in gebruik heeft en hiervan resultaten publiceerd over de failure rates.
Zelf ben ik naar een wd black gegaan, betaal je ietjes meer maar wel 5 jaar garantie dus iets meer vertrouwen in dat deze niet gelijk na 2 jaar de geest geeft.
Ik krijg zat systemen binnen die na 6 jaar 100 hours op de teller hebben staan. Computers staan niet altijd aan, en consumentenschijfjes hoeven echt niet super lang gegarandeerd te worden. Er zijn ook heel veel mensen die bar weinig data I/O doen, en als je ziet hoe veel mensen budgetsystemen komen lijkt me zo'n schijf helemaal geen slecht product op de markt.
Je bent er van op de hoogte zo te zien, knap! Maar dan nog 2400 uur!! Iedereen gaat al over zijn nek als dit een SSD zou zij geweest, maar kennelijk acceptabel voor een harddrive?

Inderdaad, koop een merk niet meer, geen respect voor een fabrikant die je 160 Euro laat betalen voor maar 2400 uur gebruik! Dat is niet normaal.

24x7 aan... mijn PC staat 24x7 aan. Nergens staat dat de harddrive een levensduur heeft van 100 dagen !!

Wat zijn 100 dagen voor een PC tegenwoordig!!

Maar kennelijk komt Seagate ermee weg omdat ik vooraf eerst een PDF moest doorlezen onterecht weten dat een harddrive maar 100 dagen meegaat.... iets van niet goed wijs dwaalt er in mijn hoofd als je dit normaal acht.

Nee, jouw redenering is juist waneer je de specs moet doorlezen omdat je voor een organisatie een NAS/DAS optuigen. Als consument ligt dit anders.

[Reactie gewijzigd door sokolum01 op 17 oktober 2015 09:17]

Die hdd's zijn bedoeld voor een PC wat een enkele uurtjes aan gaat per dag voor wat surfen en browsen. Bij dit gebruik zou de schijf wel 10 jaar mee gaan wat netjes is voor 160 euro.

Wat jij nu doet is net zoiets als een GTX 680 kopen en zeuren dat de games niet op 60fps draaien. Als jij een PC heb die 24/7 aanstaat en allerlei data heen en weer loopt te pompen dan moet je echt in een andere categorie harde schijven kijken. De schijf die je nu had gekocht is daarvoor niet geschikt.

Goedkoop koop is duurkoop.

Helaas zie ik dit al te vaak om mij heen. Mensen die met een Aldi boekje bij mij komen en vragen of die PC van 400 euro goed is. Mijn antwoord is standaard wat denk je zelf hij is 400 euro.. Men wil dan niet even doorsparen tot ze minimaal 1000 euro hebben zijn te hebberig en kopen hem toch om later mij te vertellen wat een rot ding het is.

Kwaliteit kost geld en bij PC's is dit niet anders. Mensen begrijpen dit maar al te goed bij andere spullen, maar bij PC's lijkt iedereen dat opeens vergeten te zijn.

[Reactie gewijzigd door ro8in op 17 oktober 2015 10:09]

Voor 400¤ bouw ik lachend een snelle pc met a-merk componenten. Ik heb nog nooit 1000¤ aan een pc uitgegeven!
Ik denk dat wij dan een ander perspectief hebben van wat een snelle PC is..
4 a 5 honderd euro uitgeven voor 5% meer snelheid is absurd. 1000 euro voor een pc wanneer je niet veel aan gamen bent is gewoonweg te veel.

Mensen kunnen over het algemeen goed met een Medion of ander "B-merk" uit. Waarom zou je iemand 2 jaar door laten sparen voor 500 euro meer, over 2 jaar is het misschien allemaal weer anders en ondertussen moeten mensen ook wat.

Overigens zie ik builds langs komen hier op Tweakers welke gelijk zijn aan die Medion's alleen zijn ze 400 euro duurder en zijn sommige componenten beter in kwaliteit, maar tja, die kan je later toch vervangen zoals een nieuwe powersupply. En voor Miep 3 hoog achter maakt het verschil tussen DDR1333 en DDR1600 echt niks uit.
5% meer voor 500 euro? Sorry nee...
Ergens hebben jullie allebei well een punt. Voor de alledaagse dingen maakt het niet bijster veel uit of je nou een i3 of een i7 hebt. Natuurlijk verschilt het wel wanneer je zware programma's gaat draaien, maar denk niet dat miep op 3 hoog zware renders in 3d max loslaat op haar cpu of occulus rift gaat draaien over een maand of 4.
Miep heeft farmville open staan en terwijl ze wacht op nieuwe coins doet ze ff een potje candy crush, daarnaast heeft ze facebook, skype en 6 vrouwen forums open. En heeft ze haar laatste 3 winkel wagentjes nog open staan omdat ze niet kon kiezen. Daarnaast draait mail met hun ziggo mail account en een aantal programmas waarvan ze niet weet wat het is maarja die starten automatisch op.

Miep gaat harder door haar resources heen dan je denkt!

Ik heb op kantoor voor de mensen die alleen kantoor dingen doen gewoon de standaard macbook pro's staan, maar toch vragen deze mensen zo nu en dan om een snellere laptop en ik heb het gezien. Meerdere tabbladen, word en excel, wat pdfjes het gaat sneller dan je denkt!

Ook "normaal" dagelijks gebruik gaat beter op een PC van 1000 euro dan op een PC van 500 euro. En ja 3d renders etc, praten we eerder over PC's van 3000 euro.

Mensen die roepen dat zij een snelle PC in elkaar zetten voor 500 euro is gewoon onzin. Alleen al een gtx980 kost 600 euro. Ik had een tijd geleden een htpc in elkaar gezet voor 580 euro en daar zag dus geen videokaart in.
Bepaald snel wou ik die PC niet noemen!

[Reactie gewijzigd door ro8in op 18 oktober 2015 11:24]

In een macbook pro moet je ook genoeg geheugen stoppen. De standaard 4GB is te weinig.
De bottleneck is in negen van de tien gevallen de harde schijf. Vervang die voor een ssd en je bent klaar. SSD's hoeven tegenwoordig ook niet veel meer te kosten. Tevens is het de kunst de eisen en wensen af te stemmen op het budget. Miep heeft echt geen grafische kaart nodig, een onboard gpu trekt Farmville e.d. echt wel.

Laatst heb ik nog voor ¤700 een leuke game pc gebouwd. Jan Huisman die sporadisch een spelletje speelt, maar voornamelijk office werk uitvoert. i5 erin, ssd, een GTX750Ti en klaar is kees. Jan was zeer tevreden, en heeft ook nog eens ¤300 over die hij elders kan spenderen. :)
Dit is zeker waar.

De grootste ongunst van de "simpele" gebruikers die beweren "niet veel computer nodig te hebben" is dat ze er aan voorbijgaan dat zij gewend zijn alles maar naast elkaar te openen en het sluiten van de programma's gebeurt automagisch wanneer je op afsluiten drukt.
Zodoende stel ik vaker dat een i5 met een iets overdadige hoeveelheid geheugen in plaats van een i3 met 'net genoeg' meer baat biedt dan het hebben van een ssd (wat dezelfde categorie gebruikers naar het volgende probleem brengt ivm SSD's: het vollopen van de C-schijf omdat alles maar zonder nadenken op de SSD geïnstalleerd wordt... houd de standaardgebruiker op echte massa-opslag dus.)
Ja, want een oud vrouwtje van 80 heeft echt een PC van 1000 euro nodig.

Je moet gewoon kopen wat je nodig hebt, om te browsen en Office te gebruiken hoef jij geen PC van 1000 euro te kopen...
Zie mijn reactie van 13:30 waarom ook deze groep gebruikers kan baten bij een pc met iets meer resources. Doorgewinterde gebruikers zijn zich een stuk beter bewust van de resources die over kunnen zijn, net-zogoed hebben "standaardgebruikers" dit inzicht veelal juist niet en zullen alles al snel toeschrijven aan dat "de computer traag is".

Je kan ze een laptop met 4gb geheugen toestoppen, wat waarschijnlijk voldoende is voor webbrowsen en e-mailen, maar als een gebruiker niet actief ook weer programma's sluit kan wat meer geheugen en processorkracht lonen voordat de gebruiker de pc ineens als traag ervaart en dat ding de schuld geeft in plaats van meer programma's te sluiten.
Een winkel die een HD verkoopt aan een consument zal evengoed minstens een jaar garantie (of was het langer?) moeten geven op 'duurzame elektronica', wat ze ook opgeven qua branduren. Wettelijk geregeld. Andersom heb je ook niets aan richtlijnen en statistieken van gemiddelden als je duurdere, op papier betere HD sneuvelt, net buiten de garantietermijn.
In de specificaties van seagate lees je inderdaad een Power-on Hours van 2400 uur en een Workload Rate Limit van 55 TB per jaar. Voor een NAS kun je idd beter NAS schijven nemen die geschikt zijn om 24/7 te draaien.
Zie http://www.seagate.com/ww...p-hdd-ds1770-6-1507us.pdf
Ik geloof hier helemaal geen bal van, zogenaamde specifieke Nas schijven met door elven gesmede firmware waarvan de Synologies en Qnaps helemaal geen gebruik van maken, maar toevallig wel enkele tientjes duurder zijn. Mijn simpele green's (WD 20EARX) staan gewoon in de Synology compatibiliteit lijst en hebben drie en een half jaar in de Synology perfect gedraaid en doen het nu in een ZFS servertje ook al weer ruim een jaar perfect, je moet gewoon een beetje geluk hebben met je aan koop, ik haal ze ieder geval wel altijd in de Compu shop op omdat er naar mijn idee met versturen er teveel mee gesmeten word.
Ik heb ooit gelezen hier dat die green schijven eigenlijk hetzelfde zijn als de red maar dat bij de red een aanpassing is gedaan En dat de zogenaamde nas schijven helemaal niet zo beter zijn kwa kwaliteit. Sas en enterprise schijven daarentegen zijn natuurlijk wel kwa kwaliteit een stuk beter.
Verschillen inderdaad weinig, het is vooral de TLER ondersteuning. Kort door de bocht voorkom je hiermee dat een schijf te snel uit een raid geflikkerd wordt. Zeker als de schijven een variabele data rate hebben, of traag zijn is dat wel handig.

Ik heb ook jaren met greens in een NAS gedraaid, werkte prima totdat ze 1 voor 1 begonnen te zeuren. Wel binnen de garantie vervanging gekregen maar je zweet wel ff penen als je een week op een nieuwe disk moet wachten en vervolgens 2 dagen moet wachten op je rebuild en dat al de derde disk van de vijf is die binnen een paar maanden uitvalt.

Bij de vorige upgrade dus WD red schijven genomen, iets duurder maar langer garantie en iets geruster slapen.

Met seagate overigens wel zeer slechte ervaring. De desktop schijven knallen er na een 2 jaar steevast 1 voor 1 uit en een slechtere return policy dan WD.
Altijd spare klaar laten ligen. Aankoop nieuwe wordt dus weer spare.
Cold spare ligt in de kast, ook handig als je er te last achter komt dat je raid weer een expansion nodig heeft..
Niet elke yield aan platters zijn even goed. De mindere gaan in de desktops en de betere in de nas en servers. Met geluk heb je een desktop die net zo lang mee gaat, maar wil je zekerheid kan je de desktop beter overslaan.
Ehm bij 8 uur per dag is deze disk dan met 1 jaar al afgeschreven

Kortom dit kan gewoon niet en is gewoon build to fail.

Ja voor een NAS moet je het liefst enterprise disks hebben voor een server zeker maar een PoH van 2400 kan niemand hardmaken zelfs niet bij normaal kantoor gebruik
24x7 aan... mijn PC staat 24x7 aan. Nergens staat dat de harddrive een levensduur heeft van 100 dagen !!
Bij normaal gebruik gaan ze veel langer mee dan de specificatie van 2400 uur. Maar je PC 24/7 aan laten staan is geen normaal gebruik. Het is al gezegd, maar koop de juiste drive voor de juiste toepassing. Dat is in principe met alle producten zo, waarom zou dat niet voor een HDD (of ander computer onderdeel) gelden? SSDs hebben tegenwoordig bijna allemaal eenzelfde disclaimer voor overmatig gebruik.
Een hardeschijf continu laten draaien geeft minder belasting dan hem heel erg vaak aan en uit zetten.
Hij zou juist langer mee moeten gaan in een server dan in een desktop.
2400 uur is echt een karige levens duur voor een hd.
Ik vind dat een pc 4 jaar zou moeten functioneren. Dat zou betekenen dat je hem 1:36 uur per dag mag gebruiken. Dat is weinig.
Verder ben ik het wel met je eens dat je een hd moet kopen naar het gebruik, als je data je lief is
Je hebt helemaal gelijk. En al stond je pc maar 12 uur per dag aan (en dat is heel erg gemiddeld gebruik, namelijk gewoon 's ochtends aan en 's avonds uit), dan nog had hij een levensduur van maar 200 dagen. Dat is minder dan een jaar. Dat is echt een onbehoorlijk product.
Een werkjaar is ca. 180 dagen. Maar dan nog is iets meer dan een jaar achterlijk.
Die 2400 zal ook vast strategisch zijn. De fractie die binnen 2 jaar uitvalt zal ruim binnen de winstmarge worden opgevangen. Daarna is jet jammer maar helaas geen garantie.

Het is een statistische calculatie om zo goedkoper mogelijk uit te zijn en voldoende markt te creëren door te zorgen dat zoveel mogelijk hd's pas na 2 jaar (maar wel zsm) vervangen moeten worden wegens defecten.
Ben ik helemaal met je eens.
Ze zouden het beter een wegwerp schijf kunnen noemen.

Als ik een schijf koop kijk ik of het sata 2 of sata 3 is en of het een 2,5 of 3,5 inch schijf is.
Dan denk ik genoeg te weten, maar dat gaat bij Seagate duidelijk niet op.

100 uur is gewoon belachelijk, en het had er in grote letters bij moeten staan toen je het schijfje kocht.
Die "Power-on-hours", is dat niet gewoon een nieuwe variant van MTBF?
De MTBF was min of meer bedoeld van we zetten N schijven aan en kijken wanneer de eerste stuk gaat. Als dat 1000 schijven waren en de eerste stopt er mee na 2000 uur, dan heb je een MTBF van 2 miljoen uur. (even heel kort door de bocht, het zat iets complexer in elkaar en is anders dan hier beschreven)
Dat waren voor thuisgebruikers totaal onbruikbare waarden.

De "Power-on-hours" zou dan vermoedelijk iets kunnen zijn van we hebben 10 schijven aangesloten gehad en de eerste N gingen er na 2400 uur defect.
Of mogelijk werkt het zelfs nog iets anders door te kijken hoeveel je de schijf moet "mishandelen" om 'm stuk te laten gaan en dan gaan extrapoleren.

Neemt niet weg dat het duidelijk geen schijf is voor in een NAS....
* TD-er zag daarnet "st4000dm000" staan in de web-interface van z'n NAS :X

[Reactie gewijzigd door TD-er op 17 oktober 2015 10:29]

Ik heb deze schijf (st4000dm000) ook. Als je naar de HDD failure cijfers kijkt voor deze specifieke schijf (link is al een paar keer gepost) zie je dat deze weer de uitzondering is ebln "normale" failure rates heeft.
Ik heb hier zo'n ST4000DM000 (4TB Seagate) schijf in een Synology hangen. Nou weet ik wel dat een steekproef n=1 niet heel veel zegt, maar vooralsnog geen problemen.Power-On-Time van deze schijf volgens mijn Synology: 18.839 uur.

Kortom: die 2400 uur die genoemd wordt, ik begrijp niet waar dat betrekking op heeft. Is er iemand die me kan vertellen wat die 2400 uur betekend?

[Reactie gewijzigd door upje op 17 oktober 2015 14:21]

Helemaal niets! Het enige wat telt is de garantie. Of die schijf nu alle uren aan heeft gestaan of niet de garantie is wat telt.

Misschien een goede tip voor Synology gebruikers:
Zorg dat je maandelijks een rapport aanzet over je schijf gezondheid. Als je "Bad sector" count oploopt dan kun je er op rekenen dat hij binnenkort defect "raakt". Ik zeg "raakt" omdat een NAS of SAN automatisch een schijf offline zet wanneer de count te hoog wordt.

Dear user,
The following is your monthly report regarding the health of disks on Dark. You can also check the health of individual disks at Storage Manager > HDD/SSD > Health Info.

Disk 1:
Disk Reconnection Count 0
Bad Sector Count 2984
Disk Re-identification Count 0

Disk 2:
Disk Reconnection Count 0
Bad Sector Count 48
Disk Re-identification Count 0


Sincerely,
Synology DiskStation
Ik zelf heb ook 10 schijven van het type ST4000DM000, nooit bij stil gestaan dat ze maximaal 2400 uren kunnen draaien. :X

Ik heb dan net ook gekeken en ze draaien allemaal al 4745 uur (197 dagen) volgens mijn Synology DS2415+

Kennelijk moet ik dus heel bij zijn dat ik zelfde data op 2 de off-site locatie heb staan.

Mijn rest vraag is nu dan ook, daar ik andere desktop schijven heb van 10 jaar oud die ook nog steeds werken (ook zeer lang en intensief gebruikt) hoe het dan zit met deze schijf?

Uit de data sheet is dus te halen dat 2400 uur max is maar ik zit dus al op de 4745 uur, moet ik dan in acht nemen dat elke schijf nu een zeer verhoogde kans heeft op uitval ?
Of met een korreltje zout nemen? ... De tijd zal het leren.

[Reactie gewijzigd door Macsylver op 17 oktober 2015 10:36]

Waarom je NAS hdd powerdown uitzetten? Ook qua energieverbruik, je zit zo op 25¤ per schijf per jaar.
Ben niet helemaal volledig geweest in mijn verhaal, schijven hebben hier voor in een home made server op ZFS - RAIDz2 gedraaid. Ben resent pas overgestapt naar de synology DS2415+. Hier heb ik inderdaad de power down aan staan. Als er geen aanvraag is zullen de schijven na 10 minuten in hibernation gaan.

Maar dan nog gaat het snel, de 2 nieuw bij geplaatste schijven hebben dan ook al sinds 14 september 592 uur gedraaid ( 24,6 dagen gedraaid). Hoge uren zijn dan ook te verklaren door het in gebruik nemen en het overschrijven / toevoegen van data.

Hoe dan ook laten we hopen dat het voor het merendeel van de eigenaren van de ST4000DM000 schijven mee valt en we dus op ze minst 2 jaar mogen verwachten ook bij wat meer dan "normaal" gebruik.

* note to myself: had gehoopt dat het dus wel los zou lopen met het gebruik van een desktop HDD en dat een RED schijf het in mijn setup dus niet echt van toepassing was. Kortom mocht er een disk failure komen dan zullen ze stap voor stap worden vervangen voor een 6TB RED schijf.

[Reactie gewijzigd door Macsylver op 17 oktober 2015 13:49]

Compatible betekend dat ze werken. Dat betekend niet dat de specificaties opeens anders worden als je ze in een NAS gebruikt.
Dus de schijven zijn door Synology geschikt bevonden voor in hun nas-sen. Voldoende reden om aan te nemen dat de genoemde schijven 24/7 gebruikt kunnen worden.
Zo een lijst zegt zeker wel iets, maar hoeveel? Wat voor testen hebben zij gedaan? Erin pluggen en kijken of het draait? Of hebben zij tientallen apparaten nu nog draaien voor ieder model hardeschijf dat op het lijstje staat? Het laatste lijk mij niet echt realistisch. Dus het antwoord lijkt ergens in het midden te liggen. Althans dat mag ik hopen.
Korrel zout nemen die 2400 uur. Paar jaar geleden gaven de goedkope greens ook tussen de 250.000 en 750.000 gespecificeerd. Seagates moeten ook makkelijk 100.000 uur mee kunnen. heb zelf goede ervaring met seagate gehad,en denk dat ze echt niet gaan zeggen : jammer meneertje 5000 uur en geen garantie! Normaal moet een schijf zelf in een nas wel een paar jaar mee kunnen.

Gewoon zorgen dat je wat backups maakt.
Kortom. Het is makkelijk om te zeggen:"ik koop merk x niet meer want wat een ruk schijf dat deze "maar" 2400 uur mee zal gaan".
In vergelijking met de concurrentie (WD, HGST) is dat anders wel een behoorlijk beperkte levensduur hoor, zelfs voor een desktop HDD.
Draai het eens om en koop de juiste HDD voor de juiste toepassing.
True.

Maar Seagate HDD's hebben over het algemeen schijnbaar wel het hoogste uitval percentage.
Zie bijvoorbeeld de charts van Backblaze.
[...]
Kortom. Het is makkelijk om te zeggen:"ik koop merk x niet meer want wat een ruk schijf dat deze "maar" 2400 uur mee zal gaan".

Draai het eens om en koop de juiste HDD voor de juiste toepassing.

Dat is met andere producten zoals een auto ook zo. Wil je hard rijden dan koop je een snelle auto, wil je wat vervoeren dan rijd je in een bestelwagen.
[...]
Hier de NAS schijven van Seagate
Daar staat een Power-on-hours van 8760 uur genoemd, oftewel precies 1 jaar bij 24/7 gebruik.

Kortom, ik denk dat ze iets anders bedoelen en dat een zeer ongelukkige naam hebben gegeven.
Bij 3 jaar garantie (dus uit gaande van 3 jaar gebruik) zou je de hdd niet langer dan 8 uur per dag moeten gebruiken.
Of het is -zoals anderen al noemden- dat ze het aantal uur gebruiken om ofwel de garantie in te perken, danwel coulance te geven buiten de garantie-periode.
In elk geval lijkt het mij duidelijk dat die waarde een hoop onduidelijk maakt :)

Voor printers wordt tenminste nog een duidelijke 'workload' aangegeven van X-aantal printjes per maand. Voor harde schijven zou zoiets ook handig zijn, maar de naam "Power-on-hours" is gewoon niet duidelijk.
Jouw redenatie doet mij denken aan de gloeilampenindustrie: Voordat de lampen de deur uitgaan eventjes kort 50.000v erdoorheen jagen zodat de lamp gegarandeerd stuk gaat na 2/3 jaar gebruik (zo heb ik ooit eens een gloeilamp gehad die maar niet stuk wilde). Met sommige LED-lampen, zoals van de Praxis, zie je dit opeens ook (?!?)...

Ik had 10-12 jaar terug een oude Maxtor 4 jaar lang 24/7 torrents draaien, die doet het nog steeds. Met zo weinig draaiuren lijkt het erop dat de HDD-fabrikanten, om hun winst veilig te stellen, er een soortgelijk verminkingssysteem voor hebben bedacht. Dus een 'Enterprise'-editie is dan eigenlijk het normale product, en de gewone consument krijgt dan de verminkte versie.

Ik was tevens erg verbaasd dat mijn 1TB WD laptop-schijf het na amper 2 jaar (dagelijks, relatief intensief) gebruik begaf, net buiten de garantie. De voorgaande kleinere schijfjes deden het toch beter. De verhalen zijn dan toch vaak 'Je moet maar net geluk hebben', maar nu geloof ik daar niet meer zo in.

Qua software moet het wel mogelijk zijn, ergens in de firmware, of een chipje ergens. Anders een onderdeel wat gewoon (te) snel slijt.

Vrijwel alle fabrikanten maken hun spullen zo, dat het niet al te lang meegaat. Kijk ook naar kleding waar na 3 maanden rare, kleine gaatjes inzitten...
Wanneer ik je link volg en je PDF lees, dan staat er:

Best-fit Applications •Desktoporall-in-onePCs •Homeservers •Entry-leveldirect attachedstoragedevices(DAS)

Een home server staat 24x7 aan.
En dan geven ze voor een product een levensduur van 2400 uur (100 dagen). Logica ontgaat mij.

Maar bedankt dat zulk informatie is op te zoeken. Kan dit model niemand aanraden.

[Reactie gewijzigd door sokolum01 op 17 oktober 2015 13:53]

het is anders wel redelijk bewijs dat die NAS of enterprize HDD niets beter doen dan hun "desktop" varianten...

Ik heb zojuist een schijf failure gehad in mijn NAS van 2012 (dus 3 jaar) en dit was een NAS schijf. Deze heb ik vervangen door de ST4000DM000 gezien deze een lage failure rate heeft (tot nu toe, het is en blijft een gok):
https://www.backblaze.com/blog/what-hard-drive-should-i-buy/

Moraal van het verhaal is toch om niets te vertrouwen. Koop een NAS met minimaal 2 schijven en zorg dat deze wordt ge-backuped.
5 jaar was nog niet eens zo heel lang geleden ook de standaard voor desktopschijven, en schijven slijten overigens meer van spin-up/spin-down dan van constant aan staan. De kwaliteit is gewoon achteruit gegaan.
Ik bezit een Seagate NAS, en daar zit ook gewoon een ST4000DM000 in, out of the box. Dus zelf zijn ze blijkbaar van mening dat het prima moet kunnen in een NAS.

Overigens weet ik wel dat ik nooit meer iets koop van Seagate, want wat een ¤%#%-ding is die NAS.
Prima, helemaal mee eens, Echter 2400 is wel wat weinig. Een product vaar van een hoog percentage net na de garantietijd kapot gaat is gewoon een slecht product. Voor mij al jaren reden om WD (red) schijven te kopen.
Je hebt gelijk hoor. Dat je moet researchen. Maar het is natuurlijk wel een inferieur product met zo'n beperkte levensduur. :')
Die opsplitsing van HDD's voor verschillende toepassingen is iets nieuws, wellicht om de productiekosten te drukken ter behoeve van winstmaximalisatie.
Ik heb er nooit problemen mee gehad om (goede) "desktop hdd's" in 24 uurs toepassing te zetten zoals een server of een NAS en dat heb ik absoluut zeker niet op uitzonderingsbasis gedaan. En dat waren ook niet speciale NAS schijven zoals WD ze nu verkoopt. (wat m.i. ook weer pure marketing is want buiten de 2 jaar kan je toch wel naar je garantie fluiten)

Een fatsoenlijke competente schijf kan 24 uur draaien gewoon prima hebben voor een jaar of 3 a 4. Daar is m.i. gewoon geen excuus voor.
Als dat niet zo is moet je sterk bij jezelf nagaan of dat een kwaliteit is waar je überhaupt data op wil parkeren.

Toen Seagate nog bestond naast Maxtor waren het prima schijven. Nu Maxtor de boel heeft overgenomen en hun giga uitval onder het merk Seagate is gaan verkopen is de kwaliteitsassociatie die ik met Seagate had volledig pleite.
Dus het zijn eigenlijk gewoon schrootschijven, wat ze ook in de specsheet knallen. En je kan ze dan vrijwaren door te stellen dat je de specs sheet had kunnen lezen, maar dat vind ik eigenlijk gewoon een beetje flauw. Niemand doet dat, er is gewoon een zekere verwachting van zo'n HDD.
Je kan ook geen wasmachines verkopen die na 6 maand stuk gaan omdat er in de kleine lettertjes staat dat je er maar 1x per maand een wasje mee mag draaien. Dat is gewoon niet realistisch.

[Reactie gewijzigd door Alpha Bootis op 18 oktober 2015 21:35]

Ik heb je tabel gevonden en bekeken, en ik geloof dat ik nu snap waarom ik mijn Seagate 1TB schijf zo traag en onbetrouwbaar vond worden...
Daarnaast heb ik nog een WD40EZRX van 4TB staan, die inmiddels ook ongeveer een jaar mee gaat en in mijn pc'tje zit die vrij vaak draait. Ik heb de specsheet al even opgezocht, maar ik kan hier geen Power On Hours vinden, of kan ik niet zoeken? Hier de link, je zou me enorm helpen! http://www.wdc.com/wdprod...Sheet/ENG/2879-771438.pdf
Waar je naar moet kijken zijn de hoeveelheid load/unload cycles. Jouw HDD geeft aan hier 300.000 aan. 300.000 minuten wel te verstaan wat uiteindelijk de rekensom oplevert van 208 dagen oftewel power on hours van ruim 5000. Ruim 2 x zoveel als de Seagate schijf in een eerdere post hier.
Hartelijk dank voor je duidelijke reactie!
Dan nog. Een doorsnee PC staat minimaal een werkdag per etmaal aan. 8 uur dus. 2400 uur is dan nog geen jaar. Of er klopt iets niet met de MTBF cijfers...
FF serieus, je snapt zelf toch wel dat 2400 uur wel overdreven weinig is, voor welke doeleinden dan ook.
Het klopt wat je zegt maar Seagate schrijven zijn nou eenmaal erg onberouwbar in vergelijking met de concurrentie. Hitachi zijn consumer disks bijvoorbeeld die kunnen veel meer hebben terwijl ze in diezelfde klasse zitten.
Voor ons ook NOOIT meer Seagate. Wij hebben op het werk al 10 schijven de kliko in kunnen gooien van de beruchte ST3000DM001 batch.

Lees hier meer over bij BackBlaze:
https://www.backblaze.com/blog/3tb-hard-drive-failure/
10 van de 10, 100, 1000, 10000?

Is het zelfde als ik zeg, de Q920 van Fujitsu is een slechte PC want we hadden er 23 ingespoeld en er ging er 1 kapot. Dus een failure rate van bijna 5%. Ondertussen gingen de overige 377 goed dus lag het percentage iets lager (0,25%).
Ok... 10 van de 10 schijven zijn kapot gegaan. Een failure rate van 100% :P
Dat ligt niet aan het merk maar aan de serie. De nieuwe ST4000DM000 doet het weer niet slecht: https://www.backblaze.com/blog/best-hard-drive/
Klopt... toch zegt dit ook iets over de quality control en bouwkwaliteit. Het feit dat deze serie nog steeds te koop is en niet van de schappen is gehaald is schokkend.
Ik heb mensen nooit begrepen die van een merk een product kopen, en het gaat toevallig stuk of iets anders. Hoor je ze meteen roepen van "ik koop nooit meer dingen van merk x".

Mijn top 3

#1 Zorg dat je HDD's altijd goed gekoeld zijn. Probeer het ten alle tijden lager dan 40C te houden.
#2 Doe er alles aan om vibratie op je HDD te verminderen.
#3 Gebruik de sata kabels die ze bij de moederbord leveren niet. Koop van een A merk goed geschermde kabels.
Hoi, vind het vreemd dat hier niet op gereageerd wordt!

Nr 1 & 2 begrijp ik volkomen.

Maar wat met de sata kabels? Ik zit nu niet in de IT, maar wel met 4-20mA signalen en digitale signalen allemaal unshielded in dezelfde kast.

Is dit niet gewoon "als het de contacten maar raakt"?
Uit ervaring heb ik wel 5x tegen niet goed werkende sata kabels aangelopen. En dat waren allemaal van die platte rode kabels, die standaard bij je moederbord zit. Sommige kabels hebben gewoon metalen contact punten, en die zijn juist heel slecht met contact maken.

Volgens mijn normen is een goed sata kabel met de volgende eigenschappen.
Gouden contact punten.
Afscherming per ader.
Sata connector met metalen clipje
Ik draai al jaren op platte rode kabels, die bij mn moederbord zitten.

Mn schijven zitten met z'n 7en op elkaar gepropt en er zitten schijven tussen die na 31000 uur nog steeds helemaal prima werken
net 26 maanden oud? En hoeveel maanden garantie had je?
Indien dit 24 is, dan geloof mij maar dat een andere fabrikant die 24maanden garantie geeft je niet 26 gaat geven. Want dan wilt natuurlijk iedereen 26 maanden garantie en zal seagate dus net zo goed kunnen aangeven dat ze 26 maanden garantie geven.

Het verhaal van de aantal uren dat die mag draaien vind ik wel vreemd, maar goed als jij het zegt, ik kan het niet tegenspreken omdat ik het niet weet.
Maar puur kijkend naar de aantal maanden dat die oud was en ervanuit gaan dat je er 24 krijgt is dat toch meer dan voldoende om te weten dat je niet meer kan doen dan begrijpen dat je geen garantie hebt?

Ik weet ook 99% zeker dat indien jou schijf 4800 uren gedraait had maar wel netjes binnen de 24 maanden garantie viel dat die gewoon gemaakt / omgewisseld werd.
Maar goed puur kijkend naar het ouderdom van 26 maanden zou ik hem niet eens opsturen omdat ik dan weet dat de garantie verlopen is.
Juist die 26 maanden garantie is een grijs gebied. In die tijd kan je wel verwachten dat een product nog werkt en geldt over het algemeen dat je geen 100% garantie meer hebt! Je hebt nog wel een deel garantie. Juist die 2400 uur kan een garantie claim flink dwarsbomen, als die schijf al 2500 uur heeft gedraaid is die gewoon op, foetsie garantie.

[Reactie gewijzigd door mathelicious op 17 oktober 2015 09:17]

Precies, maar ik vermoed dat sokolum01 bepaalde zaken verdraait en sommige hier een verkeert beeld geeft
24 maanden garantie = 24 maanden garantie en niet 26.
Er zullen wel uitzonderingen (coulances) zijn waarbij ze KUNNEN zeggen oh ja de schijf is net 25-26 maanden oud oftewel de garantie is verlopen maar we kunnen wel kijken hoeveel die gebruikt is en zo een UITZONDERING maken.
Welk vermoeden ik hier heb is het volgende:
1. schijf heeft geen garantie meer want is 26 maanden oud
2. seagate heeft nagekeken of ze uit coulance meer konden doen door naar de gedraaide uren te kijken. Hieruit bleek dat die dus ''teveel'' gedraait heeft om uit coulance iets te kunnen betekenen.

Maar punt 2 zijn ze naar mijn weten helemaal niet eens verplicht en vind ik juist HEEL erg netjes van Seagate.
Stel de schijf was alleen 26 maanden oud maar viel nog binnen de 100 draaiuren hadden ze het misschien alsnog gemaakt ondanks dat die helemaal geen garantie meer had.

Indien je nu mijn versie leest krijg je vraagtekens bij sokolum01 of hij niet gewoon aan het ''zeiken'' is om iets waarvan die van te voren al wist dat hij geen garantie had.

Als ik sokolum was geweest had ik 2 gedachtes kunnen hebben:
1. ik stuur de schijf helemaal niet op want hij heeft gewoonweg geen garantie en daar ben ik nota benen van op de hoogte, oftewel zonde van mijn tijd en die van seagate
2. ik stuur de schijf wel op en ik kijk wel wat hun ermee doen, zeggen ze: we doen niks want de 24 maanden garantie is voorbij dan moet ik me erbij neerleggen want ik wist dat de garantie voorbij was.

Maar goed dit heeft uiteraard ook niks met seagate te maken, dit is bij alle fabrikanten zo die 24 maanden garantie geven, echter zullen er genoeg zijn die niet eens naar de gedraaide uren kijken maar puur naar de 24 maanden. Dat Seagate een stapje verder gaat en hoopt het alsnog gratis voor je te kunnen maken na de garantie periode op basis van de draaiuren vind ik alleen maar goed, hopelijk doen alle fabrikanten het zoals Seagate het doet.
24 maanden garantie & levensduur van 100 dagen (2400 uur). Ja, achteraf voel ik mij flink beetgenomen. Ieder normaal consument zou dat moeten zijn.

Idd het zijn wegwerpartikelen geworden. Voor betrouwbaarheid moet je kennelijk een SSD kopen.
Nou dan zul jij volgens mij helemaal niks meer kopen in je leven, want bijna overal zit 24 maanden garantie op. Komt dit nu serieus als een baksteen uit de lucht vallen voor jou?

Bedoel dit niet aanvallend maar ik snap niet waarom jij niet snapt dat 24 maanden garantie redelijk normaal is in Nederland op vrijwel alle producten ( op eten etc na ).

Jij deed alsof het 24 maanden OF 2400 draaiuren zijn, en dat klopt voor de meter niet.
Je krijgt 24 maanden en dit zou eventueel langer kunnen zijn indien je nog niet aan die draaiuren zit.

Deed elke fabrikant het maar zo goed als Seagate op gebied van garantie afhandeling. Wist niet eens dat ze deze extra service bieden wanneer je garantieperiode verstreken is, dus in ieder geval bedankt voor deze goede hint. Dat wordt in het vervolg weer een Seagate als extra data schijf :D
2400 bedrijfs uren (100 dagen) bruikbaar in 24 maanden tijd... zo bekijk ik dat. Zoiets kan je nergens serieus voor gebruiken. Dat is gewoon een ripoff.
Nee nee, jij verdraait de service van deze fabrikant op deze manier.
Indien je zou ophouden over de draai uren wat bij jou op het begin niet eens het probleem was...
Jij had 24 maanden garantie, maar je verwachtten dat 26 maanden ook goed zou zijn om je schijf gefixt te krijgen. Daar ging je al de mist in. 24=24 en niet 26.
Dat ze een uitzondering maken en langer dan 24maanden garantie kunnen geven MITS je onder de draai uren zou zitten maakt het een heel ander verhaal.
Dat is geen ripoff, dat is coulance tot en met.

Jij viel dus zowel buiten de 24 maanden garantie ( je zat op een ouderdom van 26 maanden ) en je had teveel draai uren om meer dan de 24maanden garantie te geven.
Op dit gebied kan je gewoon weg 0.0 verwijten naar Seagate gooien, alleen maar naar jezelf dat je verwachten dat alles gemaakt zou worden ondanks dat je geen wettelijke garantie meer had.

Ik bedoel dit echt niet vervelend naar jou toe, ondanks dat de situatie vervelend is. Ik hoop je iets duidelijk te maken voordat je dit dadelijk bij bijv je moederbord, videokaart, wasmachine of magnetron gebeurt.
24 maanden garantie = 24 maanden garantie, tenzij anders aangegeven. Bijv HTC (een voorbeeld) geeft standaard 27 maanden garantie, hierbij is 27=27 en niet 30.
We hebben het hier over 1 schijf (MTBF Mean=gemiddeld) grote kans dat een andere schijf van het zelfde type enz langer mee of eerder kapot was gegaan. Kortom je hebt gewoon pech gehad dat dit net buiten de garantie periode gebeurd is. Apparaatjes gaan nu eenmaal stuk.

[Reactie gewijzigd door dezwarteziel op 18 oktober 2015 10:27]

Is dat zo ja? Ben erg graag benieuwd naar je bronnen. Stel dat 't zo is dan koop ik ook nooit meer seagate schijven.
Spec sheets lezen is niet lastig. Vergelijk een sheet van seagate maar eens met die van hgst en kijk naar de mtbf tijden.
MTBF is geen maatstaf voor de levensduur van een schijf. MTBF gaat over de defecten *binnen* de economische levensduur. Dat zijn dus de defecten die optreden tussen 0 en 2400 uur draaien, gemeten over alle schijven in het veld. Daar worden vaak de 'early fails' en DOA's nog vanaf getrokken, dus dan heb je het over de periode van 100 - 2400 uur.

Stel dat er een MTBF van 230.000 uur geclaimed wordt. Dan zou dat voor deze schijven betekenen dat als je er 1000 van de plank pakt en die hebben de eerste honderd uur overleefd, dan zullen er van die duizend nog tien kapot gaan in de 2300 uur die de schijven meegaan. Immers, na 2300 uur hebben die schijven met zijn allen 2.300.000 uur gedraaid.

Kortom, MTBF is interessant voor de fabrikant en voor de grootverbruiker, maar zegt helemaal niets over hoe lang jouw schijf meegaat.
Volgens mij mis je de woorden die "mean time between failiure" betekenen. :X
Ik ben ook niet zo Seagate gezind, maar ik heb totaal niets te klagen over hun garantie.
Ik heb vorig jaar de hardeschijven van mijn NAS vervangen door WD RED schijven omdat verschillende Seagate schijven (standaard) gelijktijdig beschadigde sectoren begonnen te vertonen in verschillende NAS systemen.
De schijven waren ongeveer 1.5 jaar oud (NAS staat 24/7 aan). Heb deze opgestuurd naar Seagate (3 stuks) en heb enkele weken erna 3 nieuwe schijven terug gekregen zonder probleem. En het waren zelfs geen gereviseerde schijven.
Dingen zijn ook gewoon binnen garantieperiode... had je wat anders verwacht?

Bij WD kreeg ik de nieuwe schijven al opgestuurd voordat de defecte verzonden waren. Daarnaast ook meermaals een nieuwer model of grotere schijf in de plaats gekregen.
MTBF is een statistisch cijfer. Het geeft aan na hoeveel uur een bepaald (klein) percentage van alle schijven uitvalt. Je kunt dus zowiezo pech hebben en net een schijf hebben die dicht bij die minimale levensduur uitvalt.

Daarnaast zal er verschil zijn in hoe fabrikanten hun uitval 'uitleggen', al dan niet opzettelijk. Dat is zo bij alle apparaten. Bij het ene merk kan het zijn dat na de garantie de kans op falen ineens drastisch toeneemt, terwijl het andere merk er voor zorgt dat ook na de garantie de kans op uitval slechts mondjesmaat toeneemt, om er voor te zorgen dat ze een goed imago houden.

Eigenlijk zouden fabrikanten daarom naast een MTBF ook een k-waarde (shape parameter) van de Weibull verdeling moeten opgeven. Die k-waarde geeft aan hoe sterk het aantal uitvallers oploopt in de tijd. Hoe kleiner k, hoe langzamer het oploopt, dus hoe beter. Ik geef je op een briefje dat fabrikanten die waarde nauwlettend in de gaten houden, in verband met garantie-claims en imago. Helaas publiceren ze de cijfers niet.

In de tussentijd kan je natuurlijk zelf er voor kiezen om een schijf met een hogere MTBF te kopen.
MTBF is een statistisch cijfer. Het geeft aan na hoeveel uur een bepaald (klein) percentage van alle schijven uitvalt.
Het geeft aan na hoeveel uur 50% van de HDD's uigevallen is, niet slechts een klein percentage. Onder welke omstandigheden dat gemeten wordt weet ik niet.

Je punt dat de verdeleing van de uitvallen (of het een Weibull-verdeling is is nog maar de vraag) enorm spannend is klopt inderdaad. Maar goed, daar kunnen we nog lang over blijven dromen...
Je hebt gelijk, uiteraard... het heet niet voor niets MEAN time between failure :Y)
Mijn externe harde schijf van LaCie was ook ooit gecrasht. Eerst de controller en later de schijf zelf, die ook door Seagate gemaakt was. Ook had ik in een laptop een andere HDD geplaatst, ook een Seagate. Ook deze crashte na niet al te lang. Op dat moment viel me op dat het steeds Seagate was en nooit WD of Hitachi. Dus ging ik Googlen en jawel, hordes mensen met problemen. Hier zie je zo een artikel.
Dan ga je terug naar de winkel (mits als consument gekocht) en vraag je een vervangende schijf. Als het inderdaad de schijf is die sokolum01 in 'video: De complexiteit van dataherstel - Op bezoek in Seagates Data Recovery Lab' noemt dan is ie compatible'.

[Reactie gewijzigd door PcDealer op 17 oktober 2015 14:07]

Of: het datablad is niet compleet. Die power on hours en de hoeveelheid dataverkeer zijn randcondities waarop een AFR (annual failure rate) of een MTBF wordt gebaseerd. Ik geloof echt niet dat na 2400 uur 50 procent van de schijven de geest heeft gegeven.
Of je inlezen, om er achter te komen waar de grondslag ligt. Ik heb drie woorden voor je : "advanced power management".

De post van Delix :
http://forum.qnap.com/viewtopic.php?t=72697&start=30

I rest my case
Je hebt het in dit bericht, en de berichten hieronder, constant over de 2400 uur Power On time van die Seagate drive. Ik heb even nagekeken wat er in mijn computer zit en er op dit moment aan hangt:

WD 1TB HDD: 25.151 uur power-on (sinds juni 2008)
WD 1TB HDD (USB, backup), 5102 uur power-on (sinds juni 2008)
Seagate 1TB HDD: 9.104 uur power-on (sinds ergens in 2010)
WD 1TB HDD (USB, backup), 480 uur power-on (sinds ergens 2012)
Crucial 128GB SSD: 3.367 uur power-on (sinds september 2011)

(De USB-schijven zijn normaal niet aangesloten en/of staan uit.)

Die Seagate heeft ook de genoemde 2400 uur aan power-on tijd in zijn specs staan, maar hij heeft al ruim 3x zoveel erop zitten. De SMART-data geeft aan dat de drive perfect in orde is. Alle andere drives zijn ook in orde, ook de ruim 7 jaar oude WD, met 25K+ power-on uren.

Wat die 2400 uur precies betekent kan ik je niet zeggen, maar het betekent zeker niet dat de drive maar betrouwbaar is tot aan dat aantal uren en dat je je dan druk zou moeten maken dat hij stuk gaat.

[Reactie gewijzigd door Katsunami op 17 oktober 2015 23:26]

Verkijk je niet op die hoge MTBF-cijfers van sommige fabrikanten.

MTBF vertelt iets over percentage uitval tijdens de normale levensduur, maar niet over de levensduur. Je kan vb een product ontwerpen voor een levensduur van 5 jaar (ca 40 000 uur), maar gedurendie die 5 jaar wel een MTBF van vb 200 000 uur hebben. Dat betekent dat als je ergens tijdens die 5 jaar vb 1000 producten 200 uur zou laten werken, dat je je dan mag verwachten aan ongeveer 1 uitvaller. Maar na 5 jaar is misschien wel enkele tientallen procent defect.

Maar 2400 uur operational life is wel erg laag...
Ik had precies hetzelfde.
Laat ik nou altijd gedacht hebben dat dit in een cleanroom gebeurt.
Ze werken in cleancells, zoals ze het zelf noemen. Dus die werkplekken staan onder druk. Bovendien kan stof in droge toestand volgens mij niet veel kwaad als je het afspuit. Of doel je daar niet op?

[Reactie gewijzigd door TradeMarkNL op 17 oktober 2015 08:05]

Bedoel jij of weet jij toevallig of de lucht op de werkplaats optimaal gereguleerd wordt door airco's? En hebben ze daar radiatoren of vloerverwarming?
Ik bedoel dat ik weet dat die werkplekken onder druk staan, maar niet exact hoe en hoe het zit met verwarming. Kan ik evt nog voor je navragen.
Eens met donderdraak: precies diezelfde vragen had ik ook. ESD-veilig werken - ik zie zo snel weinig aan voorzorgsmaatregelen.

En zeker die stofdichtheid mis ik in het filmpje, terwijl in de topics op GoT er vaak de stelling is dat een schijf die (thuis) opengemaakt is, verloren is.

Wellicht dat het zinnig kan zijn om, voor zo iets opgenomen wordt, op GoT of zo te vragen wat men zou willen weten/horen.

Afgezien daarvan: leuk onderwerp, leuk filmpje, graag meer hiervan!
Al onze tafels, vloeren en stations zijn ESD-veilig, je ziet er weinig van terug omdat het netjes weggestopt zit ;)

wij hebben 2 seperate airco systemen volledig voorzien van HEPA filters in alle aan en terugvoer aanzuiging.

De cellen waar ook de losse headstacks hangen staan onder luchtdruk zodat stofg die op een schijf zit weggeduwd wordt van de gevoelige onderdelen.
Het viel mij ook al op dat ze niet eens een polsbandje omhebben.
De gehele vloer is bij ons ESD materiaal, onze schoenen geleiden statische energie daar naartoe.
Als je op een antistatische mat werkt en verder qua kleding-keuze rekening houd met statische elektriciteit, dan is de kans op statische ontlading al minimaal.
Voor zo'n service lijkt me een minimaal risico al een te groot risico. Ik (als potentiele klant) had dit graag verder toegelicht willen zien. Na het zien van dit filmpje krijg ik er geen warm gevoel bij.
Ik zie de speciale vloer en de mat waar op ze werken, maar aan de andere kant al zie ik hoe de disken klakkeloos op elkaar worden gestapeld, dat doet me meer aan mn eigen hobbytafel denken dan een prossefioneel bedrijf. Als je een doos met 20 HDD's besteld zitten ze allemaal in een apart ESD-zakje en daarom heen nog een ESD-veilig piepschuimen houder. Op de TD zie ik hier weinig van terug. "Op eigen risico" krijgt voor mij dan toch een andere lading.

offtopic: Iemand recent nog ervaring met Seatools? Het lijkt alleen wel een doorverwijs-tooltje te zijn geworden naar deze afdeling. Kon er weinig meer mee.....(hopelijk gaat iemand dit tegen spreken, ik heb hier nog een NAS met raid 1 staan waar (hopelijk) maar 1 disk van kapot is)( Goede alternatieven zijn ook welkom)
De vloer kan ook een ESD veilige vloer zijn met een hiel- of enkelbandje in je sok/schoen. Is tevens een stuk professioneler dan een polsbandje.

[Reactie gewijzigd door fheerens op 17 oktober 2015 12:03]

Tuurlijk is een schijf 'verloren' als je hem thuis open haalt :) een stof deeltje wat de kop raakt kun je vergelijken met een f16 die door een kerktoren heen vliegt...einde oefening dus. Maar ongetwijfeld zijn die ruimtes allemaal clean want de leeskoppen hangen daar allemaal in de lucht :)
Over esd e.d. gesproken, daar is weinig over terug te zien. Maar aan de andere kant, schijven worden tijdelijk gefixed, gerecovered en gaan vervolgens in de trash (danwel vernietigd cq teruggestuurd) het is niet de bedoeling dat die schijven weer productie gaan draaien :) in mijn ogen is esd dan minder belangrijk...immers als de pcb stuk gaat hebben ze voldoende op voorraad :)
Ik vind het ook jammer dat zij ( Tweakers ) niet hebben vermeld dat waar de mannen in werken Cleanrooms zijn en wat ze dragen speciale kleding tegen het verspreiden van stof zijn.

Kleine uitleg.
Thuis als je op een zonnige dag de zon door de ramen schijnt en jij al die duizenden stofdeeltjes ziet dat zijn deeltjes van 10 micrometer tot ongeveer 40 micrometer. ( zichtbare stof ).
Als je een meting zou doen zou je op ongeveer 200.000 tot 300.000 deeltjes stof per vierkante meter komen/ meten.

Cleanrooms hebben diverse standaarden van waar geen mens meer bij mag komen tot waar deze mensen in werken. Bijvoorbeeld maken van Wavers ( platen van computer chips), Operatie ruimtes , farma industrie en ook reparatie ruimtes voor hardeschijven.
Ik denk dat de ruimtes waar deze jongens voor reparatie werken ongeveer op een deeltjes dichtheid zitten van 5 deeltjes per vierkante meter met een maximale grote van 5 micrometer.

Echt heel schoon dus.

Thuis je harddisk open maken is dus ook zeer uit den boze, niet doen dus!!!

Het is wel lang geleden dat ik in zulke ruimtes ben geweest en het is ook een schatting van de waarde voor deze ruimtes, hier kunnen dus ook geen rechten aan ontleend worden.

[Reactie gewijzigd door NoNoAD op 17 oktober 2015 15:03]

Meer info over de stof preventie is inderdaad wel interessant en of dat de gehele dag aanstaat of periodiek en omgevings temperatuur.

Wellicht dat je ook de ESD veiligheid wat meer kan toelichten want ik denk dat tweakers hier dat vaak negeren. Terwijl dat een belangrijk aspect is in onze sector.
Stofpreventie zoals ik hierboven uitleg, staat de gehele dag aan, ESD veiligheid staat hoog in het vaandel en is dan ook overal maar dan ook overal doorgevoerd. alle werkoppervlakten hebben of ESD matten of zijn van ESD materiaal. Waarbij de gehele vloer ook geleidend is.
Ik heb de nodige microbiologie ervaring, en die kast waar hij in werkt ziet eruit als een simpele flowkast (https://en.wikipedia.org/wiki/Laminar_flow_cabinet). Mijn vermoeden is dat die wand achterin een groot filter is, waardoor de schone lucht de werkplek op komt en stof weggeblazen wordt van de voorkant. Iets dergelijks gebruiken we ook om steriel te kunnen werken, alleen komt de lucht dan van boven en wordt langs de bodem weer weg gezogen.
Hey Phehistyr, nu zie je eindelijk waar ik werk!

En je slaat de spijker op zijn kop, wij hebben ze beide, van achter en van boven.
Oh, dat is lang geleden. :D Ik had de link nog helemaal niet gelegd, maar inderdaad leuk om eens te zien!
Nou zie je ook weer niet het gehele proces. Misschien is dat wel helemaal niet nodig voor schijven die alleen eenmalig uitgelezen hoeven worden en dan de prullenbak in moeten. Ze lezen alles één keer uit van de eerste sector tot de laatste. Alles wordt dus ook maar één keer met de naald overheen gegaan. Een enkel stofje maakt denk ik dan niet zo weinig uit. De discs draaien toch ook behoorlijk snel rond. Belangrijker is denk ik dat de interne luchtdruk juist is en constant blijft.
Denk dat ze wel weten wat ze doen. Het gaat ook niet om reparatie.
Ja, da's een leuk fabeltje. hoewel er wel een klein beetje waarheid in zit.
Lang niet alle HDDs zijn compleet luchtdicht. Er zijn er zat die gaatjes hebben zitten waar een luchtstroom dooorheen gaat. En dus ook stofdeeltjes. Vaak zit er wel een filtertje, dat dan weer wel. Alleen stel je daar niet te veel van voor.

Andere HDDs zijn dan weer wel hermetisch dichtgelijmd. En dan is het werken in een 'steriele' omgeving wel aan te raden. alleen lang niet noodzakelijk.
Bedenk ook, na data recovery is de schijf eigenlijk niet meer bruikbaar, want onbetrouwbaar geworden. Dus een stofdeeltje meer of minder maakt niet of nauwelijks wat uit.

Met andere woorden, het kan geen kwaad omzelf je herstel uit te voeren, zat tutorials te vinden. Als je maar de diepvries truc als ALLERlaatste redmiddel gebruikt.
wel heel strategisch op de monitor gefilmd, zodat we niet zien welke software gebruikt word.
wil het al jaren weten wat voor software er allemaal gebruikt word
Indien het tot jou beschikking kan komen vind je het op google. Zo heb ik onlangs vrijwel alle gegevens terug kunnen halen van een (externe) schijf waarvan de bootsector en alles defect was, de bootsector was ook niet meer te maken. Ondanks dat ze hier op tweakers op een eigen gemaakte forum/topic vertelde dat die de prullenbak in kon. Schijf werd niet eens meer herkent door windows en etc ook niet wanneer ik hem uit de behuizing haalde. Nergens terug te vinden, niet in ''deze computer'' niet in apparaat/schijfbeheer en niet in ubuntu.
Via ubuntu bijv ( wat ik tijdelijk gebruikt heb in vm voor dit ) kan je al vaker een stuk meer (geen g-parted etc die gaat niet diep genoeg wanneer de schijf 99% na de piep is :D )
http://www.easeus.com/resource/free-easy-recovery.htm
http://www.wondershare.ne...2zW8IEUbtUgCA0aAqu18P8HAQ

De tool zelf heb ik niet meer om reden dat ik na al dit ''gedoe'' windows 7 opnieuw geinstalleerd heb en vervolgens geupgrade ben naar windows 10. Maar alles heb ik van google afgehaald, uiteindelijk is het via windows gelukt dankzij een bepaalde tool die ik van google had, volgens mij was het 1 van de bovenstaande.
Via ubuntu had ik meer hoop doordat deze via g-parted of testdisk wel de schijf liet zien maar er vervolgens niks mee kon. Ook zou de schijf 0kb aan bestanden hebben volgens ubuntu.

Echter denk ik dat ze bij bedrijven als Seagate andere software gebruiken die je niet zo 1,2,3 op google vind. Maar ej waarom hun software gebruiken indien het met andere ook gratis kan, en let op mijn hdd was volgens vrijwel iedereen toe aan een enkeltje prullenbak, ik zou er volgens de ''pro's'' niks meer mee kunnen. Dit was gelukkig wel het geval dankzij een gratis programma.
Let dan wel op er zijn gratis programma's die je bijv 250gb laten recoveren, maar ik had er 1 die liet me bijna 2tb (was gewoon het aantal data van de 3tb die ik in gebruik had, oftewel er zat geen limiet aan) recoveren zonder er 1 cent voor te betalen, donatie is wel een optie.

Het grootste voordeel van het lab van bijv Seagate is dat ze ook hardware matig veel kunnen doen, zo zullen hun wel weten welke chip bijv de bootsector regelt en dat op 1 of andere manier vervangen en etc. Nou zoiets is voor mij never nooit niet te doen, dus vooral hardware matig hebben hun een groot voordeel op de thuis gebruiker. Ook wel logische indien je een fabrikant bent van hdd's. Maar stel ik kon de bootsector maken op hardware nivo dan was mijn probleem waarschijnlijk direct verholpen, oftewel dan is dat het enige wat je hoeft te doen met als resultaat dat je weer al je gegevens hebt + de schijf is weer bruikbaar. Nu ligt deze schijf ergens in een la, dit terwijl die geen piepje,kraakje of wat dan ook vertoonde nooit uitgevallen en etc, hij had gewoon zoiets van Ej Jeroen ik stop ermee en bekijk het je maar.


Maar software matig dus puur gegevens recoveren kan je zelf ook doen (gratis) tenzij je hdd natuurlijk een halfuurtje magnetron onvervonden heeft.
Zelf heb ik met mijn hdd niks meer kunnen doen na het overzetten van de gegevens, bootsector was niet meer te herstellen, oftewel formatteren was ook geen optie omdat de tools die je ervoor nodig had niet werkten doordat de schijf niet zichtbaar is. Dit is waarschijnlijk een klusje die seagate wel weer zo verholpen heeft doordat ze hardware matig lekker ermee kunnen knutselen.

Verder vraag ik me af hoe dit bij WD gaat, mijn laatste schijf van hun was deze externe en hiervoor ook regelmatig problemen gehad met WD. Mij lijkt dat de recovery / reparatie afdeling zwaar overtoeren draait met hun ''brakke'' schijven, althans brak is natuurlijk gebaseerd op mijn ervaringen met hun. Ik hoef in ieder geval niks meer van WD en ik hou het voorlopig bij Seagate en Samsung waar ik tot op heden nog nooit problemen mee gehad heb.

[Reactie gewijzigd door LopendeVogel op 17 oktober 2015 08:28]

Ik ben daar nu wel iets huiveriger voor geworden. In het filmpje vertellen ze vrij duidelijk (dan wel onder Windows) dat je moet oppassen met (eigen gevonden) tools, omdat je de data verder kan verminken. Het zou bij mij dan gaan afhangen van het belang van de bestanden of ik het naar zo'n bedrijf zou sturen. Zeer goed om te weten dat het kan, hoeveel het kost en hoe ze het (ongeveer) doen! Erg leuk artikel!
Er zijn vrij goedkoop USB 2/3 kastjes waar je een IDE of S-ATA schijf in kan zetten die geen schrijfacties op de schijf toelaten. Dan kan de software in ieder geval niets verminken. Dan loop je eigenlijk alleen nog het risico dat er intern in de schijf iets stuk is dat meer schade aanricht. Als je vaak data voor mensen probeert te herstellen is zoiets zeker wel een aanrader.
Dan kan de software in ieder geval niets verminken.
Dat verplaatsen van data van slecht leesbare sectoren naar spares gebeurt in de firmware van de schijf, niet extern. Je kan als gebruiker geen schrijfacties uitvoeren maar intern gebreurt dat gewoon wel. Dus als je hem aan de stroom hebt en je leest van zo'n brakke sector dan gaat de frimware een betere plek opzoeken, schrijft daar een kopie en markeert de daarna oude sector als niet meer te gebruiken.

Wat je in dit geval nodig hebt is aangepaste firmware die alleen maar dom leest en zijn stinkde best doet de data toch met correct en desnoods met incorrecte CRC te lezen niet niet probeert slim te zijn.
In dit soort gevallen kan het inderdaad zijn dat de firmware nog iets vernachelt, ik heb zelf een antiek IDE model gehad en toendertijd veel gebruikt die op veel schijven dergelijke functionaliteit in de firmware probeert uit te schakelen (met de bijbehorende software kon je diverse functies aan en uit zetten voor het geval de firmware ellende veroorzaakte)

Het grote nadeel aan dat ding was dat hij aan de paralelle poort aangesloten moest en ongelooflijk langzaam was met het kopieren van data.
https://www.google.nl/sea...ei=WFwiVruVEIHVygOimKvgBA

Er zijn er kennelijk tegenwoordig heel veel verschillende. Ik had een oud IDE model ooit op de kop getikt, met S-ATA varianten heb ik geen ervaring, maar als ik zo op google kijk zijn ze er wel. In hoeverre die dingen de zoals hierboven aangegeven firmware schrijfacties en dergelijke beperken durf ik niet te zeggen. Ik had toendertijd een luxe examplaar gekregen van een data recovery bedrijf waar een kennis werkte. Ze gingen daar over op USB apparaten (dat ding was iirc beperkt tot rond de 150 KB/s met kopieren )
Dat vertellen ze voornamelijk om te zorgen dat jij je hdd naar hun gaat opturen.
Zo'n filmpje is natuurlijk mooi gratis reclamen.

Zit wel een kern van waarheid in. Als ze tikken inderdaad niets meer doen. Maar als ze gewoon opspinnen en daarna "lijken" te werken kan je gewoon met data recovery aan de gang gaan.
Om een vergelijkbaar iets te doen als wat zij zeggen: Maak onder Linux met dd eerst een image van de schijf als hij nog enigszins wordt gedetecteerd en werk vervolgens met (kopieën van) deze image. Zo kan de schijf niet nog verder kapot gaan en kun je het op tig manieren blijven proberen!
Dat kan, ik ging natuurlijk veel verder met min of meer het verstand op 0 doordat de tweakers hier op het forum al zeiden dat die de prullenbak in kon, oftewel vanaf dat moment maakt het je allemaal al een stuk minder uit.
Mijn schijf kon gewoonweg niet verder meer verminkt worden, hij viel ook niet meer software matig te repareren.
Met recoveren van DATA kan een tool eigenlijk niks fout doen, het enige wat die doet is proberen op je defecte schijf data te vinden die je vervolgens naar een andere hdd kan kopieren.
Nadeel is is dat veel tools dit niet kunnen omdat je schijf niet te herkennen is, zo heb ik ook een hele dag voor de pc gezeten totdat ik een tool had die wel deed wat die moest doen. Maar dit betekent dus dat ik veel tools gebruikt heb die geen van alle ervoor gezorgt hebben dat de data niet hersteld kon worden.

Waar ik eerst mee bezig was, was de schijf herstellen. Ik heb zelfs omdat een werkende schijf mijn eerste prioriteit had (net 1 week ervoor gekocht van een mede tweaker) een lowlvl format proberen uit te voeren via een tool, deze gaf uiteraard ook de eene error na de andere. Ik heb het MBR proberen te maken en hoog waarschijnlijk nog verder omzeep geholpen, ik heb ubuntu geprobeert om de schijf te herstellen. Ondanks al die ''rare'' fratsen wist ik uiteindelijk alsnog al mijn data eraf te halen ( dit was mijn 2e prioriteit doordat de schijf niet meer bruikbaar was. Gelukkig geen extreem belangrijke zaken want die heb ik op een aantal usb sticks staan)

Uiteraard wilt Seagate niet dat jij hetzelf gaat proberen haha. Stel jij was auto monteur dan adviseer je ook je klanten de reparaties niet zelf te doen maar dat ze bij jou komen. Zo gaat dat nu eenmaal, je moet toch je geld verdienen aan je klanten. Indien al je klanten zelf dit soort zaken gaan uitvoeren dan ja, uh kunnen ze die afdeling gelijk weg doen en het personeel ontslaan.
Bijna geen enkel bedrijf die reparaties uitvoert zal je adviseren zelf te gaan repareren. Niet omdat jij het niet kan maar omdat een bedrijf geld wilt verdienen.
Handig dus als je er totaal niks vanaf weet en er zo'n bedrijven zijn, maar met een beetje google werk kan jij software matig vrijwel ALLES zelf doen.

[Reactie gewijzigd door LopendeVogel op 17 oktober 2015 09:04]

Dat is allemaal in-house software dus ook al wist je hoe het heet, kun je er volgens mij nog niet veel mee.
aah bedankt, dacht het al.
kon ook zijn dan het software was dat op de gesloten markt was exclusief voor data recovery bedrijven. maar inhouse van seagate zelfs lijkt wel logisch.
maar er zijn wel kleine bedrijven die niet gekoppeld zijn aan grote hdd fabrikanten. krijgen/kopen die de software bij seagate zelfs dan.


nogmaals bedankt voor het antwoord.
Meestal wordt DeepSpar (http://www.deepspar.com/products-ds-disk-imager.html) gebruikt. Voor consumenten bijna niet te betalen.

Ik repareer zelf regelmatig een USB-stick of een normale hardeschijf, zonder specialistische software of hardware. Het moeilijkste is dan een actuator vervangen. Je moet ervoor zorgen dat de heads elkaar niet aanraken, dus zal je zelf een spacer moeten maken. Recoverybedrijven gebruiken hiervoor een ramptool, maar die kost rond de 600 euro, en per merk hardeschijf heb je een andere nodig.

Sommige hardeschijven zijn bijna niet door een 'hobbyist' (net als ik) te repareren. Denk aan schijven met een head-alignment-schroef in de topcover. Zit die schroef een fractie van een millimeter te los of te vast, dan doet ie het niet meer.

Platterswaps zijn ook niet aan te bevelen zonder het juiste gereedschap. Schijven met meerdere platters moeten exact de juiste positie houden. Een platter een millimeter naar links of naar rechts gedraaid tijdens het overzetten? Dan kan je 'm weggooien.

Het is een leuke hobby, en soms maak ik iemand heel blij, voor weinig geld. Sommige mensen hebben gewoon geen 1000 euro op de plank liggen voor professionele recovery, maar hebben wel dierbare foto's.

[Reactie gewijzigd door Nux op 17 oktober 2015 16:53]

Interessante video!
Heb hier ook nog een oude 160 GB schijf liggen (nog met IDE) die ik niet meer kan benaderen. Er staat nog wel belangrijke data op, maar om er nou honderden euro's aan uit te geven voor data recovery. Ik ga zelf wel een keer pielen ;)
Is de schijf nog te zien in schijf beheer? Dan valt er via software wellicht veel terug te halen.

Zo niet dan is het voor ide schijven vaak mogelijk het controlererboard om te wisselen met die van een identieke schijf. 9 van de 10 keren werkt de schijf dan weer als vanouds.

Bij moderne HD's is het niet mogelijk het controlerboard zomaar om te ruilen. Dit heeft te maken met een soort van bios chip met daarin de calibratiegegevens. Deze (de chip) moet eerst worden overgezet op een identiek donor board.
Hij is niet te zien in schijfbeheer, maar ik had het ook al eens gelezen dat je het controlboard kon wisselen van een andere schijf. Dat ga ik dus maar eens uitproberen.
Thnx voor het meedenken :)
En als ie het dan nog niet doet moet je de eeprom van de kapotte schijf terugzetten op de goede printplaat. Soldeerwerk...
Ik zal het onthouden!
Thnx :)
ik denk 99,5% kans dat je het erger maakt.
Zie mijn reactie hierboven :) Ik heb hetzelfde probleem gehad met een externe sata schijf, en alles eraf kunnen halen. Het MasterBootRecord(MBR) was niet eens meer te maken, en werd in windows en in ubuntu niet herkend zonder fratsen uit te halen met 3th party tools en volgens de tweakers hier op het forum was de schijf rijp voor de stort, niet dus..)
Wel moest ik een mes gebruiken om de behuizing eraf te slopen want met de behuizing eromheen kon ik al helemaal niks. Vervolgens nadat de schijf uit de behuizing was ( schijf was nog steeds niet herkenbaar in windows (deze computer / schijfbeheer ) en niet in ubuntu (g-parted etc etc) Maar wel de gegevens eraf kunnen halen via windows met 3th party tools ( gratis en voor niks, let wel op sommige gratis tools laten je een x aantal gb recoveren, ik had er 1 die was gratis en liet je oneindigd tb's recoveren, duurde wel bijna 24u voor bijna 2tb :D )

[Reactie gewijzigd door LopendeVogel op 17 oktober 2015 08:52]

Ik ga er eens een keer rustig voor zitten :)
Leuke aflevering!
Ik heb zelf onlangs wel succesvol een defecte hdd weten uit te lezen door 'm in de vriezer te leggen. Wellicht een gelukje aan mijn kant.
Ik zag op 6:20m een SSD aangesloten via een IDE kabel... enig enig idee waarvoor dat was? Heeft IDE nog voordelen tov SATA?
Het is een 2,5" hdd. Waarschijnlijk uit de behuizing van een externe schijf gehaald.
En die schijven hebben soms een sata aansluiting die niet standaard is. Ik heb dat wel eens bij een Samsung 2,5" hdd gezien. Dat zwarte blokje zal een verloop zijn van die niet standaard aansluiting naar IDE.
Je ziet ook een blauw/witte kabeltje aangesloten. Lijkt op een extra voeding die van usb komt...
Dit is een zeer instabiele schijf die slecht leest. het blauw witte kabeltje geeft diagnostische commando's door aan de controller. het is gewoon een sata schijf. in dit geval gebruiken we een parallel signaal om de stabiliteit te verhogen. tevens zal deze aan een write blocking device zitten met een speciale controller om onze in house software met de schijf te laten communiceren en verschillende registers direct te kunnen aanpassen op de schijfcontroller.
Dat is geen SSD, maar nog een gewone "oude" Toshiba HDD.
Het" rondje" van de aandrijving is de weggever.
En IDE heeft zeker geen voordelen tegenover SATA meer.
Je zou er nog van kunnen verschieten hoeveel IDE HDD's er nog in "oude" computers zitten hier en daar.
Al dan niet met belangrijke data
Bulk opslag is geen voordeel?
al een 3tal keer een schijf opgestuurd naar seagate voor recovery , alle 3 de keren konden ze niks voor mij terughalen , terwijl ik ook veel zaken doe met Kroll ontrack deze hebben mij nog nooit teleurgesteld (koste soms wel 2000 euro maar dan had ik de keus) 1x ook een schijf teruggehad met allemaal krassen waarvan wij zeker weten dat dit er nooit op heeft gezeten.
voor mij geen seagate data recovery meer !
Ze hebben in ieder geval een fixed price optie zodat je weet waar je aantoe bent. Bij anderen gaat het snel direct over 1000 euro heen plus uiteraard vooronderzoekje... Ik denk dag seagate recovery als ook hd fabrikant zijnde prima weet wat ze doen qua recovery. Heb je die 3 niet gelukte gevallen ook voorgelegd aan Kroll? Ik lees van niet. Zou een leuke test zijn.
Diezelfde schijven die Seagate had nagekeken kon Kroll wel recoveren?
Aan het einde van de video wordt gezegd dat backuppen gratis is. Dat is natuurlijk niet zo, je moet nog steeds een schijf hebben om je data op te slaan, of betalen om grote hoeveelheid data in de cloud op te slaan. En je moet er af en toe een beetje tijd in steken, al is het maar dat je op een knopje moet klikken. (behalve als het automatisch gaat)
ik wou net zeggen, persoonlijk, ben ik flink wat geld kwijt voor een back-up.
laatst 8 6TB schijven aangeschaft voor een back-up das niet gratisch
Wat jij en zovelen vergeten is dat je regelmatig een recovery moet testen. Er blindelings vanuit gaan dat je backups wel goed zullen zijn is erg dom. Een controle door een backupprogramma alleen is niet voldoende. Zeker niet als die enkel tijdens het maken van de backups controleert. Dat zegt niets over de kwaliteit van de backups na langere tijd.
Je kan voor vervelende verrassingen komen te staan als recovery echt nodig is.
Sowieso kan het geen kwaad om op een rustig moment eens te testen zodat je beter weet wat je moet doen als het echt nodig is. De kans op fouten maken is dan ook kleiner.
Je kunt toch zelf ook gewoon een harde schijf kopen van hetzelfde type en onderdelen overzetten?
Als jij de firmware kan aanpassen om die componenten te accepteren en je hardware hebt om met diagnostische commando's dat ding uit te lezen wel ja. Stuur me even je CV als het lukt!
Het is me een keer gelukt met de hand een hardeschijf een duw te geven en toen startte hij weer. Zover gaat mijn expertise helaas. Maar jij kan mij dus vertellen dat 2 hardeschijven van hetzelfde model met dezelfde onderdelen niet verwisseld kunnen worden? heul appat
ik had het eens een schijf met een kapotte pcb. ik dacht pcb overzetten data uitlezen en klaar is kees. bleek de firmwarechip op hdd moest ook overgezet worden.
sommige bedrijven op internet beiden overzetten van hdd firmware chips aan.
het overzetten van pcb en rom chip verwisselen met soldeerbout had ervoor gezorgd dat ik de data kon uitlezen.
Ik had mondkapjes en haarnetjes verwacht. En de rest van het chirurgen autfit. Helemaal op de plek waar ze de schijf open schroeven.
Inderdaad, viel me ook al op: schijf opengemaakt (geen esd bandje om de pols) en dan lekker eroverheen praten/ademen...
Los van dat we de dedicated "inhouse" software en onderdelen zo (kant en klaar) niet zelf hebben denk ik dat we als hobbyist data-recoveraars een heel eind komen. En arrogant dat t klinkt, dat lukt vaak ook nog. Half jaar geleden nog iemand tranen van blijdschap: klikkende schijf, werd wel herkend maar iets lezen...ho maar. (te lang verhaal om uit te leggen hoe ik er een week over deed om alles te herstellen).
Wel moet ik zeggen dat het een heel interessant filmpje is en dat ik het eens ben met de strategie die Seagate toepast: eerst zoveel mogelijk uitlezen, daarna aan de slag met wat er te lezen valt.
Zelf gebruik ik daarvoor ddrescue , een aanrader.
Meer van dit soort filmpjes!
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*