Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 167 reacties
Bron: tecChannel

Naar aanleiding van de betrouwbaarheidsproblemen met de IBM 75GXP harde schijven heeft tecChannel een artikel gepubliceerd, waarbij wordt uitgelegd dat IDE-schijven niet bedoeld zijn voor continu gebruik. IBM claimde niet voor niets dat de 120GXP reeks slechts geschikt was voor een maximale maandelijkse belasting van 333 uren. Nu telt een maand gemiddeld 730 uren, dus hier zit een duidelijke waarschuwing in. Nu blijkt dat bij de berekening van de MTBF (mean time between failure) door andere fabrikanten eveneens wordt uitgegaan van een laag gemiddelde gebruiksduur. De meeste gaan uit van een lagere POH (Power-on Hours) dan IBM en Maxtor. Het minimum dat wordt gebruikt is zelfs 150 uur - zo'n vijf uur per dag. Maxtor lijkt wel uit te gaan van een POH-waarde van 730 uur.

SCSI stekker SCSI-schijven daarentegen zijn weliswaar tot 4 keer zo duur als een vergelijkbare IDE-schijf, maar zijn wel ontworpen voor permanente belasting zowel qua tijdsduur als qua i/o operaties. Indien je toch besluit continu gebruik te maken van IDE-schijven zorg dan voor een goede koeling. Wanneer de bedrijfstemperatuur rond de twintig graden in plaats van de vijfentwintig blijft, daalt het uitvalspercentage met zo'n tien tot vijftien procent.

Die höhere Zuverlässigkeit von SCSI-Festplatten ist in den Datenblättern durch eine höhere MTBF ausgewiesen. In der Regel liegt sie zwischen 1.000.000 und 1.200.000 Stunden. Die MTBF-Werte von IDE-Laufwerken bewegen sich dagegen in einem Bereich von 500.000 bis 800.000 Stunden. Auch in der Garantiezeit unterscheiden sich die beiden Laufwerksgattungen: Die Hersteller gewähren auf IDE- drei, auf SCSI-Drives fünf Jahre. Eine Komponentenlebensdauer von fünf Jahren ist den IDE- und SCSI-Festplatten aber wieder gemein.

FOG-Boy was wijs en aardig genoeg om alvast te beginnen met dit artikel

Moderatie-faq Wijzig weergave

Reacties (167)

1 2 3 ... 10
Heee Hooo, let's go! Wat fantastisch dat ik lekker heb doorgespaard voor een mooie scsi disk in mijn power ws.

Er staat een artikel in de computer totaal van deze maand [voor wat het waard is] waarin men beweert dat u160 scsi de volgende voordelen heeft boven utlra-ata ide:

"de mogelijkheid tot wel 15 apparaten aan te sluiten op 1 controller. Bovendien kunnen SCSI schijven data lezen en schrijven tegelijk, iets wat IDE schijven vooralsnog niet kunnen."

Overigens noemt de schrijver dit een lijstje van voordelen. Wie daar meer van wil weten, zie de scsibijbel op: www.scsifaq.org
Overigens is een MTBF voor scsi disks zo'n 1 miljoen uren tegenwoordig.
"Bovendien kunnen SCSI schijven data lezen en schrijven tegelijk"
ComputerTotaal moet even zijn huiswerk overdoen... :P

Natuurlijk kan geen enkele schijf tegelijk lezen en schrijven.

Het punt van verschil is: bij SCSI kunnen schijven data van de controller (op de kaart) naar de CPU/geheugen sturen, terwijl er tegelijkertijd data-overdracht plaats vindt tussen andere schijven op diezelfde controller.
IDE kan dat niet.
Als er data van schijf 1 naar schijf 2 moet op dezelfde controller, dan moeten ze steeds op elkaar wachten, en dat kost dus tijd...

Maar tegelijk schrijven én lezen op 1 schijf, lijkt me stug :?
En hoe lang moet je nog sparen voor de andere 14 schijven? ;)
zie de scsibijbel
dan is er zeker ook een IDE-necromicon?
Mijn pc staat 24/7 aan en daar zitten 4 HDD's in die nog (klop, klop) geen problemen hebben gegeven, en ik ben juist van mening dat het continue aanstaan van een pc juist meer voordelen biedt dan het elke keer aan en uitzetten van de machine.

Doordat de pc (bijna) altijd aan staat en de CPU door de koe continue belast wordt, heb je geen last van temperatuur schommelingen en krijgt de hardware niet elke keer een "schok" als de pc aangezet wordt. Want volgens mij gaan de meeste dingen kapot door de temperatuur schommelingen en niet zozeer door slijtage o.i.d.

Ik laat mijn pc dus lekker dag en nacht aan staan, of het moet echt bewezen worden dat het slechter is dan elke keer aan en uit zetten.
Ik laat mijn pc dus lekker dag en nacht aan staan, of het moet echt bewezen worden dat het slechter is dan elke keer aan en uit zetten.
dit klopt wel denk ik ;)

ik heb hier nog een goede 80486 van ongeveer 6 jaar oud met 4 ide schijven. hij draait minstens al 4 jaar 24/7 en nog steeds doen ALLE hd's het perfect.
heb nog helemaal niks van sleitage gemerkt op wat voor manier dan ook...

edit:
typo's, zin verbeterd
"slijtage"

Ik ben toch benieuwd als het ding een keer uit geweest is of dan alle schijven nog starten. Kwaaltje van oude disks, en dit valt ook onder uitval....
Vergeet niet dat Windows al heel lang de optie heeft om schijven uit te schakelen als ze een bepaalde tijd niet gebruikt worden. Standaard staat deze optie geloof ik op 1 uur.
Mijn WD draait ook al een paar maanden non-stop. (misschien een paar keer opnieuw opgestart, maar dan staat ie zo kort stil, dat het alleen maar slecht is...)
Dan moet je wel power managing aan hebben (APM of ACPI) anders doet 'ie dat niet. ( en natuurlijk geldt dat alleen voor IDE schijven ... SCSI schijven worden niet uitgeschakeld .. maar dat is niet nodig :+ )
Het probleem light bij de (meer tweakende) mensen die vanwege ACPI problemen (bv. het grote WIN2K IRQ probleem waarbij WIN2K/ACPI alle apparaten op een IRQ zet. En waarvan MS zegt dat dat zo hoort... Amahoela krijg je alleen maar knetterende SB Lives en bedroevend slechte SCSI prestaties door) hun HAL op standaard PC hebben gezet (en dat zijn er een hoop hoor) Die hebben dus niets van Power management en daar worden dus ook geen HD's uitgezet .. Dat staat allemaal keurig door te draaien.
Mijn pc staat 24/7 aan

Dat deed een collega van mij ook. Vervolgens vloog de computer in de fik toen hij niet aanwezig was en binnen enkele minuten stond de hele zolderkamer in lichterlaaie. Ze wonen vrijwel naast de brandweer dus die was er snel bij om te blussen. Toen kon in ieder geval de rest van het huis nog worden gered (wel met waterschade). Toch iets om eens over na te denken.
Dan zou je alles wat standby kan staan ook van de stroom af halen (atx systeem, video, tv, stereo, ga maar door)

Ik ken iemand wiens voeding in de fik vloog toen hij hem aan zette... Maakt geen verschil met jouw collega, want deze jongen woont weer ver van de brandweer :)
volgens mij gaan de meeste dingen kapot door de temperatuur schommelingen en niet zozeer door slijtage
Ik zie geen reden waarom harde schijven en ander computer-interieur door temperatuur-schommelingen kapot zouden gaan.

Thermische uitzettingscoefficienten liggen in de orde 10^(-5) per K, dus 20 graden verschil zorgt voor slechts 0,02% uitzetting. Harde schijven kunnen vrij goed tegen vallen (althans, volgens de specs en de enkele tests die ik per ongeluk heb uitgevoerd), waarbij ze wel ergere dingen meemaken dan een beetje uitzetting.
Met dat vallen heb je volgens mij geluk gehad. Mijn ervaring bij dit soort ongelukjes is 100% defect.
Misschien dat dit opgaat als je PC 10X per dag aan en uit zet. Maar ik denk dat dit net zoiets is als het fabeltje dat je een TL-buis niet te vaak aan en uit moet doen i.v.m. de verkortte brandduur en het enorme verbruik.

Ik denk wel dat in dit geval het helemaal niet schadelijk is om de boel aan te laten. Alleen is het aantal uren dat voor de schijf is gespecificeerd veel sneller bereikt als je schijf continue aan is.

Aan de andre kant denk ik inderdaad dat een schijf makkelijk een veelvoud van de MTBF kan halen als ie inderdaad altijd aan is en niet wordt blootgesteld aan wisselende omstandigheden. Ik heb hier 5 ouwe servers draaien die geen krimp geven wat dat betreft. De enige onderdelen die ik daar af en toe moet vervangen zijn de CPU fans ( ook de Intel 'in a box' fans geven er ooit es de brui aan ).

En zoals je al aangeeft : de grootste slijtage wordt veroorzaakt door temperatuurschommelingen. Vergelijk het wat dat betreft maar met een auto ............ ook daar vind de grootste slijtage plaats bij koude motor. Op het moment dat ie op ideale bedrijfstemperatuur is, dan is de slijtage te verwaarlozen.
Het is een feit dat een tl-buis tijdens het opstarten meer vermogen verbruikt.
En het is een feit dat lama's diarree krijgen na het eten van overdoses laxeermiddel.....

Dit is wel erg kippen met paprika's vergelijken, nietwaar?!?

Je hebt uiteraard volkomen gelijk, maar in een PC zitten geen hoogvermogens starters, alleen een voeding die van 240 volt netjes 5 en 12 volt maakt, en het verschil in warmte afvoert.
Staat erbij, verschilt per merk.

Ik vraag me trouwens af hoe dat precies zit met het fabeltje : alles altijd aan, tis beter dan steeds alles aan/uit zetten. Volgens mij is hier ook nog best een omslagpunt in te vinden. Dat als je bijvoorbeeld 2x per dag 1 uur achter de pc zit dat het dan beter is hem steeds aan en uit te zetten ipv hem aan te houden. Dat er een omslagpunt is gebaseerd op de tijd tussen het uitzetten en aanzetten wat voordeliger is (qua slijtage) dat is bekend, maar wat zal die tijd ongeveer zijn????
dus de always power on optie is dus schadelijk????

hmmm......geen problemen hiero me 4 IDE schijven

tenminste ..nogniet

touch wood
Veel bedrijven hebben wel een severtje met een IDE schijf die dag en nacht draait. Zelf heb ik ook al 2 jaar een server met IDE draaien. Toch zie ik hier op de rug erg veel Quantum HD's uitvallen van 3 jaar oud. Weinig overleven de 4 jaar. Ik dacht dat het gewoon een minder goede serie was maar het hoort dus gewoon zo? Kortom, ik ga mijn schijven maar eens vervangen binnenkort.

Oja, het is knock on wood :)
Mwah wees gerust ook bij scsi schijven leggen veel het loodje na 3 jaar. Tussen 3 en 4 jaar gaat ruwweg 5% kapot. Daarna neemt het nog percentage wat per jaar uitvalt nog veel sneller toe naar de 30% per jaar wat kapot gaat.

Op me werk heb ik pas twee compaq scsi schijven(meestal seagate of quantum) stuk zien gaan die allebei ongeveer 19000 uur gedraaid hadden. Verder zie ik ook een sterke stijging bij schijven die over de 24000 uur heen zitten. Vreemd genoeg lijken de schijven die over de 30.000 uur gaan het vaak dan ook meteen voor altijd te bljven doen. Bij wijze van spreken dan.

Verder staan er nog een stel antieke IBM servers. In tegenstelling tot de IDE ibm schijven lijken deze totaal onverwoestbaar, zijn letterlijk nooit storingen op :) :9

edit: typo
Toevallig de EL serie, 5.1 en 7.6 GB groot ? Vallen hier ook (ROC Twente Plus) bij bosjes uit na plusminus 2 - 2,5 jaar.

-1 Off-Topic modjes :)
het wordt ook wel gewoon afkloppen genoemd ;)
Het gaat hier ook denk ik niet om het thuis gebruik.. Maar om belasting zoals bij grotere bedrijven en instellingen.. Tuurlijk houdt een IDE het wel uit 24/7 als de max. belasting 2 uur hooguit op een dag is.. Echter dit wordt een ander verhaal als ze 8 uur op een dag vol belast worden..
nou lekker dan! tijd om eens aan koeling te gaan denken idd.
of zou dit een smoesje zijn van ibm om met een uitvlucht te komen voor die schijven???
IBM is gewoon stom geweest. Ze dachten daar het getalletje voor de MTBF eens lekker positief neer te zetten, door het niet in uren, maar in maanden uit te drukken. Ze gingen er voor de mooiigheid maar vanuit, dat je je PC dus niet langer dan 333 uur per maand aanzet.

Volgens mij is dat zwaar misleidend, en moet IBM er op aangesproken worden door de consumentenorganisaties. Een consument kan op basis van dat mooie IBM-getalletje namelijk helemaal niet vergelijken met andere fabrikanten. Daar is het IBM natuurlijk om te doen geweest, meer maanden dan de concurrentie, maar dan wel met een kwalitatief minder goed product.
sci-mdk: dit is geen artikel van IBM, dus ook niet hun smoesje.

BazzH: Ik geloof niet dat jij het snapt:
'lekker positief neerzetten' en 'mooi IBM getalletje'
IBM heeft juist een storm ontketend omdat ze schreven dat je IDE schijven beter niet meer dan 333 uur per maand aan zou moeten zetten. De ANDERE fabrikanten gaan met hun MTBF uit van dezelfde of zelfs minder gebruik, zodat je zou moeten constateren dat die andere fabrikanten nu nog aan misleiding doen.
De 2 merken, waar ik op doel (WD en Maxtor) hebben het probleem gewoon niet. Een uitvalspercentage van 0% zullen zij ook niet halen, maar dat haalt geen enkel product. Daar zit/zat het probleem voor IBM, het uitvalspercentage (vooral bij de 75GXP serie) was gewoon te hoog. Nu ze in de VS aangeklaagd zijn voor de slechte kwaliteit van de 75GXP serie, gaan ze zich gewoon op deze manier indekken tegen eventuele toekomstige problemen.

Laatst hier een artikel gelezen op de eerste rackmounted Macintosh-server (Xserve). Die wordt standaard geleverd met (slik) IDE-schijven. Macintosh levert producten van hoge kwaliteit, en ik kan me dus niet voorstellen, dat ze schijven in die servers leveren, die maar 5 uur per dag mogen draaien. Daar is zo'n Xserve duidelijk niet voor bedoeld.
De Xserve is voorzien van vier "hot-pluggable" 7200-rpm Ultra ATA/100 harde schijven en kan worden geconfigureerd met maar liefst 480 GB ofwel een halve terabyte aan opslagcapaciteit per server.

Bron: www.apple.nl
Iedereen mag hier het zijne van denken, maar dat zegt toch ook wel wat....
Nee, dat is niet waar.

IBM heeft de storm al ontketend, toen hun schijven bij bosjes de geest gaven. Dit in tegenstelling tot schijven van andere merken, waar merkbaar minder klachten over waren/zijn.

Om die reden weiger ik een IBM-schijf te kopen, omdat ik met andere merken nog nooit problemen heb gehad. Ik heb al meerdere Western Digital schijven 24/7 aan het werk gehad, zonder problemen. En bij Maxtor gaan ze zelfs bij het berekenen van de MTBF uit van een 24/7 belasting.


Je kunt zoiets inderdaad op 2 manieren uitleggen:

1. De schijven van IBM zijn gewoon minder degelijk als bijv. de 2 merken, die ik hierboven noem.
2. De schijven van IBM zijn er, in tegenstelling tot bijv. de 2 hierboven genoemde merken, niet op gemaakt om lang achter elkaar te werken. Dat hadden ze er dan wel ff bij mogen vermelden. (en ze in ieder geval zelf niet leveren in low-end servertjes)
IBM heeft juist een storm ontketend omdat ze schreven dat je IDE schijven beter niet meer dan 333 uur per maand aan zou moeten zetten.
IBM kan alleen voor z'n eigen producten spreken, en zeker niet voor die van de concurrenten.
Optie 3: Andere merken hebben laks aan het aantal werkuren om zo beter te verkopen ???
Zo erg zal het niet zijn, maar IBM is IMO gewoon eerlijk.

Zoals het artikel (waar het immers om gaat) zijn IDE schijven gewoon niet gemaakt voor 24/7, of je nou een Maxtor, IBM of een ander merk hebt.

Het hele IBM Crash probleem wordt echt te opgeblazen.
De 75GXP was inderdaad een ramp!
60GXP al een stuk beter en de 120GXP serie crashed tot nu toe niet abnormaal vaak en deze is nu toch al een paar maanden op de markt.

Ok eerlijk is eerlijk, bij IBM heb je nu nog meer kans op een crash, maar dat andere schijven ook kunnen crashen vergeten mensen "omdat het geen IBM is".
Ook koeling blijft een vereiste wil je meer betrouwbaarheid hebben.
Het blijft fijne mechaniek en dat zal altijd stuk kunnen gaan.
Hmm, blijf ik toch nog met een uurtje of drie zitten. Een schijf maken die je niet langer dan 5 uur per dag aan zou moeten houden ?

Mooi, het is 2 uur, ik ga naar huis anders crahed m'n PC. Niet dus, ze zouden een schijf moeten maken die het minstens 10 uur of langer uit houd. Low end of niet low-end.
Een schijf maken die je niet langer dan 5 uur per dag aan zou moeten houden ?
333 uur nog altijd 11 uur per dag hoor!
En het is maar een ADVIES...dat vergeet iedereen hier.
Men moet niet vergeten dat er alle fabrikanten voor sommige modellen 2 typen IDE disks hebben. Een consumer disk en een heavy duty disk.

Daarom is het van belang om bij bijvoorbeeld Compaq/HP, Dell, Apple en IBM de originele disk te bestellen welke als optie wordt aangeboden. Let maar eens op het partnummer van IDE disks. Exact de zelfde disk voor een WS heeft een ander nummer dan een Server uitvoering. Dit is niet voor niets. In het artikel geven ze dit ook aan met een voorbeeld van IBM. Waarbij van 1 type disks er twee uitvoeringen bestaan, de consumer en de heavy duty. Verschil tussen de disks, consumer=max 8 uur per dag, heavy duty=24 uur per dag.
BazzH, lees het artikel eens aandachtig.

Volgens jou zijn WD en Maxtor dan zo geweldig, maar juist WD gaat uit van een nog VEEL lagere POH uit dan IBM. 240 uur ipv 333.
Van Maxtor zijn de getallen helaas nog niet bekend.

In rackmounted servers kan je er wel vanuit gaan dat ze daar IDE schijven met 732 POH gebruiken. Zoals bv de IBM schijven voor hun blade servers.
In rackmounted servers kan je er wel vanuit gaan dat ze daar IDE schijven met 732 POH gebruiken. Zoals bv de IBM schijven voor hun blade servers.
Dat maak ik nergens uit op. De IBM workstations, die ik laatst via een zorgverzekeraar heb ontvangen (oudjes dus), waren overigens voorzien van WD-schijven.... (er zijn daar ook 's avonds en 's nachts mensen werkzaam).

Het probleem is ook niet echt, dat ze uitgaan van een lager getalletje. Het probleem is (eigenlijk was, want de huidige series zijn natuurlijk beter) het te hoge uitvalspercentage. In dat verband ben ik alleen nog maar de naam IBM tegengekomen.
waarom PC uitzetten? Als de pc aanstaat wil nog niet zeggen dat de harde schijven gebruikt worden?
De meeste gaan uit van een lagere POH (Power-on Hours) dan IBM en Maxtor, waarbij het minimum zelfs 150 uur is - zo'n vijf uur per maand.
Vijf uur per dag denk ik...
dit verklaart denk ik ook gelijk waarom juist hier en op GoT dit onderwerp zoveel ter sprake komt:

je hoort iedereen klagen over de hoge uitval van de GXP-reeks en heel weinig over maxtor. op zich niet zo gek want ik denk dat de gemiddelde tweaker zijn pc/harddisk wel meer als vijf uur per dag belast. en zeker de mensen die hem dus 24 uur per dag belasten met full-time divX downen enzo, zullen onder de categorie dooie GXP vallen

* 786562 henk
Laten we nou even een beetje voorzichtig zijn met de uitspraken die we doen, voor we nog meer spookverhalen de wereld in helpen.
Bij de GXP reeks is dus GEEN sprake van 5 uur per dag, maar een GEADVISEERDE POH van 11 uur per dag. Belast de gemiddelde tweaker een schijf ook meer dan 11 uur per dag en 7 dagen per week?

Bij de GXP gaan ze in vergelijking met de concurrentie waar wel cijfers van bekend zijn dus nog van hoge POH waarden uit.

En hoeveel mensen hier geloven eigenlijk daadwerkelijk dat Maxtor als enige 732 gebruikt? Ik vind die vage (marketing) uitspraak over de hoge kwaliteit van de IDE schijven, nou niet bepaald een aanleiding om 732 POH te verwachten.
Als Maxtor daadwerkelijk 732 POH zou gebruiken dan zouden ze dat wel keihard van de daken schreeuwen want dat is geweldige reclame. Alleen al dat ze dat niet doen zou al genoeg moeten zeggen.
Hoe vaak komt het nu voor dat een schijf continue bezig is, dus zonder te stoppen en dat de hele dag door, en dan ook nog eens een keer een maand lang?

9 van de 10 doet meer uren niks dan wel.
9 van de 10 doet meer uren niks dan wel.
Nou je kan je behoorlijk vergissen hoor: een normale familie-computer doet toch eens in de 2 minuten een caching van opgevraagde data in haar geheugen. En leest soms wat informatie voor het besturingssysteem.

Denk aan: c:\pagefile.sys
waar o.a. de uptime en tijdelijke geheugen (swap of zo) voor Windows NT varianten naar toe wordt geschreven. die wordt toch echt wel vaak beschreven!

dat is dus niet echt NIETS DOEN te noemen, ik denk dat een harde schijf dan wel 9 van de 10 uren WEL wat doet

maar natuurlijk hebben we het hier niet over normale pc's.
HD's op WebServers bijvoorbeeld zijn bijna continue actief en aan :P
die hebben wel wat erger te verduren dan de familie-pc
En de "office" PC's op kantoor dan? Deze staan zo'n 8-9 uur per dag aan. Worden een jaartje of 3 gebruikt gaan daarna naar lagere scholen of oostblok en deze zitten met de problemen!!!!!!
Oh, kijk ze eens blij zijn, maar 2 maandjes later zitten ze met slechte harde schijven terwijl de rest het nog doet.
Het gaat niet om de schijfactiviteit per maand, maar de POH, dus de tijd waarin de schijf alleen maar aanstaat, ook al doet ie niets.
toch wel HEEL ERG VREEMD dat veel hd modellen IDENTIEK zijn voor ide & scsi op de printplaat na. en die gaat meetstal niet stuk, als de schijf stuk gaat dan is het meestal de mechaniek.

maargoed, ik ben erg blij dat ik alleen maar maxtor schijven gebruik, thuis en in al mijn servers. yes.. ide.
same moment, same thought :)
Dat is dus niet waar! Er zijn wel een paar fabrikanten die af en toe een identiek magnetisch gebeuren met twee interfaces leveren, maar die modellen zijn absoluut de low-end van de SCSI wereld, en worden over het algemeen ook verafschuwd door SCSI kenners.
En dan te bedenken dat er vaak IDE-schijven in low-end x86 servers geleverd worden. Zelfs IBM zelf doet dit!

Nou moet ik zeggen dat ik thuis ook een server heb draaien met IDE schijven, maar ik heb voor de zekerheid toch maar een RAID-1 geinstalleerd, onder meer om deze reden. En ja, er is er al een keer een stuk gegaan... en als ik dit lees denk ik bij mezelf "can't blaim em..."
je bedoelt "necronomicon" :*)
Precies. Ach, mensen willen graag voor een euro-stuiver op de eerste rang zitten. Logisch. Maarja, men let dan wel nog op performance (bohhh, die is snel!) maar het kwaliteitsverschil valt niet zo op.
Nou, ik heb hier SCSI in mn workstation zitten. Het is simpelweg fijner dan IDE, klaaruit, simpel, punt. Als ik die SCSI schijven in de hand neem en vergelijk met een IDE schijf, dan zie en voel je gewoon al een verschil. SCSI is veel degelijker gemaakt, echt bedoelt voor heavy-duty-business gebruik, versus het consument-achtige van IDE.

edit:

Guttegut, is een mening meteen weer een flamebait. Goed, dan maak ik er een flamebait van:
Zeker jaloers dat jij geen SCSI hebt hè? }>
maar het kwaliteitsverschil valt niet zo op
De kwaliteitsverschillen kan je ook zo makkelijk aflezen/bekijken :?
In de meeste winkels mag je de producten niet eens bekijken dus dat werkt ook niet echt.
Kwaliteit zal ook heus wel echt 1 van de redenen zijn waarom SCSI zo duur is.
SCSI devices moeten een bepaalde verwachte levensduur hebben, die ligt duidelijk boven die van IDE. Daar zal ook wel wat kwaliteit extra voor nodig zijn. En daardoor wordt het een stuk duurder.
Ik zou je graag gelijk geven, maar mijn SCSI-schijven zijn altijd binnen een jaar naar GoT (al drie keer teruggemoeten, Quantum/Maxtor), terwijl de enige IDE-schijf die het ooit opgegeven zo'n Quantum Bigfoot - op een wankele kast :) - was.

Ze werken idd wel veel en veel prettiger (DivX op een PII266, anyone?).
\[off-topic]
Guttegut, is een mening meteen weer een flamebait.
Een mening is niet per definitie een flamebait.
Een niet-onderbouwde mening wel. En in jouw post zie ik een argument dat SCSI beter is dan IDE, "dat zie je en voel je gewoon", en da's een echt non-sense argument.

Is precies hetzelfde als zeggen dat Linux beter is dan Windows omdat het beter aanvoelt.
\[/off-topic]
Hoe een apparaat aanvoelt/uitziet kan ook al een teken van kwaliteit zijn. De afwerking en constructie zijn ook belangrijk.
[quote[Nou, ik heb hier SCSI in mn workstation zitten. Het is simpelweg fijner dan IDE, klaaruit, simpel, punt.[/quote]

Vind je gek dat je een Flamebait krijgt met dergelijke argumentatie ?

SCSI heeft zeker voordelen, maar niet voor de Jan-met-de-Pet thuis, en ook niet voor tweakers, simpelweg omdat het budget een echte SCSI schijf niet toelaat.
Hoezo? Genoeg lui die beweren dat "IDE is tegenwoordig net zo goed als SCSI". Ik bestrijd dat.

Dat het voor sommige mensen het extra geld niet waard is, is heel iets anders, en kan ik me ook prima voorstellen. Feit blijft dat SCSI spul, mits kwaliteit, fijner werkt dan IDE.
Op www.westerndigital.com eens gekeken naar de MTBF van een 20 GB, 7200 rpm Caviar-schijfje met 2 MB cache. Staat keurig netjes:
MTBF
500,000 Power On Hours
Zo hoort dat dus.....

[edit]
Is even lang als die van IBM hoor, maar dan wel op een duidelijke manier omschreven.
500.000 Power On Hours.
Stel je hebt die dus 24/7 aan staan (dus 8760 uur per jaar), dan zou hij ruim 57 jaar mee gaan?!

Waar zit iedereen zich dan druk over te maken? :?
Even een verklaring over MTBF... Als daar 500.000 POH staat betekend dat niet dat zo'n ding 57 jaar meegaat. MTBF is altijd een gemiddelde over een groot aantal schijven.

Voorbeeld:
Als je 500 drives 2000 uur aanzet, en er sneuvelen er 2, dan is je MTBF (500 x 2000)/2 = 500.000

De meeste fabrikanten halen daar dan ook nog de 'early failures' en zo vanaf, en met een beetje pech wordt MTBF berekend in plaats van getest.

MTBF is alleen interessant voor service organisaties met een paar honderd van die dingen in het veld, dan weten ze hoeveel er per maand uitknallen, dus hoeveel service calls, man-uren, kilometers en zo ze moeten incalculeren.
Maar bij 57 jaar mtbf bij continue gebruik kan je er toch wel vanuit gaan dat het ding vrijwel zeker bvb 10 jaar mee gaat.
Althans, de kans dat ie binnen tien jaar de geest geeft door slijtage is aanzienlijk kleiner dan dat ie binnen 57 jaar de geest geeft.
In verreweg de meeste gevallen wordt een HD wel binnen tien jaar vervangen, dus zo'n groot probleem is het niet.
Ja en nee.
Omdat 57 jaar een langere periode is dan 10 jaar is de kans dat ie in de resterende 47 jaar stuk gaat inderdaad groter. Maar dat heeft niets met slijtage te maken.

MTBF (en scsirob legt het prima uit) is de kans dat er iets stuk gaat.
Met een MTBF van 500.000 uur kun je verwachten dat (gemiddeld, het is geen garantie!!!):
- Met 500.000 schijven zal er na 1 uur draaien 1 stuk zijn.
- Van de 57 schijven zal er na 1 jaar gebruik 1 stuk zijn.
Wanneer je het hebt over jouw eigen ene schijf, dan zegt MTBF eigenlijk niets. In principe dat jouw schijf dan in 57 jaar gemiddeld 1x stuk gaat. Maar wat is nu een gemiddelde over 1 schijf?

Bij een enkel exemplaar kun je het dan beter over kansen hebben. Dan is de kans dat jouw schijf binnen 3 jaar de geest geeft ongeveer 0,05.

Overigens zijn mijn ervaringen anders dan gemeld: van de 60 IDE schijven (ongekoeld) zijn er 3 stuk in 5 jaar.
Van de 16 gekoelde SCSI schijven ook 3 en dan in 3 jaar.
het gaat meer om de mensen die een IBM disk hebben gekocht :)


Ik denk dat het probleem eigenlijk meer iets van IBM zelf is. Deze mededeling is namelijk een makkelijke manier om jezelf van een hele grote lading toch niet zo best werkende HD's te ontdoen.

Bedenk namelijk dit eens.
Alle grote fabrikanten hebben een low-range server lijn gebasseerd op IDE Disks. Als deze disks theoretisch maar een uitermate beperkte levensduur hebben dan zou dat inhouden dan deze fabrikanten disk na disk na disk als RMA zouden krijgen, dat accepteerd de klant niet en kost de fabrikant geld. Dus dat willen ze niet, als het verhaal dus helemaal op waarheid zou zijn gebasseerd dan zouden er nooit low-range server op IDE disks zijn gebasseerd maar ook op SCSI.
En ja hoor, hieronder vind je een stukje van de aanklacht tegen IBM.
Overview

1. Plaintiffs Doreen McKee, David Nizic, Nate Amsden, Jeremy Schmit, Oliver Soell, Christopher Wetzler and Internet Services Zocalo, Inc. have filed this class action, on behalf of themselves and all others similarly situated tot obtain damages, restitution, and injunctive relief for the Class, as defined infra at 21, from IBM.

2. As alleged more fully herein, IBM has made misrepresentations and concealed material information in the marketing, advertising, and sale of a consumer computer component, the Deskstar 75GXP Hard Disk Drive, Model Numbers DTLA-307015, 307020, 307030, 307045, 307060 and 307075 (the "Deskstar 75 GXP")

3. In particular, IBM represented to plaintiffs and members of the class that the Deskstar 75GXP is a safe and reliable disk drive for accessing and storing data on a personal computer, that it was free from defects; and that it was of merchantable quality and workmanship. Plaintiffs' experiences, mirroring those of thousands of other 75GXP purchasers who have recounted their problems with the Deskstar 75GXP, reveal that is not the case.

4. IBM further specially represented that the Deskstar 75GXP would perform within certain reliability specifications. It demonstrably does not.

5. Defendant similarly concealed material facts regarding the Deskstar 75GXP, including that it fails at unacceptably high rates, is inherently defective and is not a reliable storage device, is not of merchantable quality, and does not conform to the specifications it purports to comply with.
De 75GXP is allang uit de running en de marketing is echt wel aangepast sinds dat model.

Dit artikel is dus achterhaald.
Zoals je wellicht wel weet, kan in de VS een rechtzaak vrij lang duren.......

Is trouwens wel grappig, dit komt namelijk uit het originele artikel van dit topic...... (tenminste, er werd naar gelinkt)

Maarja, dat was wel wat leeswerk hoor. Die moeite hebben veel mensen blijkbaar niet genomen....

En zodra je gaat merken, dat er erg veel van die schijven veel te vroeg de geest geven, dan ben je ook alweer een tijdje verder. IBM had toen waarschijnlijk inderdaad al weer een aantal nieuwe modelletjes....
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True