Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Bron: Bank Tech

We weten het allemaal, als Windows traag opstart of je gewoon een wat soepeler systeem wil hebben defragmenteer je je harde schijf even. De bestanden die door veelvuldig gebruik verspreid zijn geraakt over je harde schijf worden netjes bijelkaar geraapt en aanelkaar geplakt. International Data Corp. heeft een onderzoek gedaan naar fragmentatie, en dan vooral de kosten daarvan voor bedrijven. Het blijkt dat er miljarden guldens aan hard- en software upgrades bespaard zouden kunnen worden als de harde schijven van de PC's in bedrijven regelmatig gedefragmenteerd zouden worden. Bedrijven zouden niet goed op de hoogte zijn van het probleem:

Defrag.exeAlthough the fragmentation problem isn't new, it lacks the "sex appeal" of computer viruses and other problems, Widen said. However, it can be equally deadly to the bottom-line and IT professionals' attempts to maintain efficient information systems. While popular viruses like the Love Bug or Melissa have captured the attention of IT managers, fragmentation remains a silent killer, quietly stalking systems, causing them to freeze up and slowing down applications by as much as 15 minutes. "Unless a red flag gets raised people don't get concerned about it or look at the problem," Widen said.[break]Uit testen in echte bedrijven bleek dat de performance winst van een regelmatige defrag sessie niet mis is; tot bijna 220% in Windows 2000 en ongeveer 55% in veel gebruikte programma's als Word en Excel. Totaal zou er daarom 50 miljard dollar per jaar uitgespaard kunnen worden:[/break]Network defragmentation clearly provides cost savings of several magnitudes when compared to manual defragmentation, Widen said. According to a cost comparison study by IDC, defragmenting 1,000 workstations and 10 servers manually would take 52,520 hours and cost $2.1 million, based on $40 per hour for IT staff time. Using a network-deployed defragmentation system, the job would require only 24 hours of staff time at a cost of $960.

IDC also compared the costs of hardware upgrades versus the cost of licensing and installing defragmentation software. It estimated the cost of purchasing 1,000 workstations, including staff set up time, at $3.2 million. In comparison, licensing Diskeeper NT for 10 servers and 1,000 workstations would cost only $24,000.

Lees de rest hier. Bedankt Freezer voor de tip.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (84)

Ik krijg altijd jeuk van dit soort nieuws. Riekt naar verkapte reclame voor defraggers in dit geval. '50 MILJARD DOLLAR? WAT ERG!. Maar meneer hier is de perfecte oplossing, en dat voor een bijzonder schappelijke prijs. Als u hier tekent ... etc. etc.'

Hallo Windows haters. Ik snap jullie enthousiasme over Linux, Unix, Novell of wat voor OS dat niet bij MS vandaan komt wel, maar dat is nog geen reden om hier absolute flauwekul te gaan posten! Fragmentatie komt onder alle OS-en voor. De reden is eenvoudig: bestanden worden gecreeerd, verwijderd, veranderen van grootte etc. Toewijzen van schijfruimte gebeurt in kleine blokjes en daarvoor bestaan verschillende methodes die meer of minder fragmentatie veroorzaken, maar het is een trade-off: minder fragmentatie zal ertoe leiden dat een bestand later sneller gelezen kan worden maar vergroot de benodigde tijd om het weg te schrijven. Als er al minder fragmentatie onder een bepaald OS voorkomt dan komt dat door een defragger die in de achtergrond draait. Dat NTFS geen last heeft van fragmentatie is flauwekul. Wat wel zo is, is dat door fragmentatie onder NTFS minder schijfruimte wordt verspild. Door defragmenteren gaat je HD niet eerder kapot, sterker nog hij gaat langer mee doordat minder bewegingen van koppen nodig zijn om je bestanden te lezen!

Voor een workstation is de beste oplossing defragmenteren in de achtergrond zoals - de niet gratis versie van - diskeeper doet.
Door defragmenteren gaat je HD niet eerder kapot, sterker nog hij gaat langer mee doordat minder bewegingen van koppen nodig zijn om je bestanden te lezen!
Daar ben ik het niet mee eens, want tijdens een defragmentatie sessie gebeurd er een helehoop.
Nl: - Bestanden lezen in het begin aan het eind neerzetten en die bestanden weer aan het begin + de rest van zo'n file weer terug zetten naar het begin :?
Dat zijn dus allemaal veel bewegingen van de koppen over de platter.
Wel eens een 20 Gig schijf gedefraged hij is uren aan het ratelen :'( , onder win 9x kan je dan ook nog eens niks doen want dan begint hij weer opnieuw
niet onder win2000
Echter na het proces verloopt het wel super en krijgt de schijf weer rust en zijn er inderdaad minder bewgingen nodig

En nu :Z met het geratel op de achtergrond :)
Daar ben ik het niet mee eens, want tijdens een defragmentatie sessie gebeurd er een helehoop
Als je regelmatig defragt valt dat wel mee. Een goede defragger verplaatst ook niet alle bestanden, en het is ook niet nodig dat alle bestanden naar het begin v/d schijf worden gezet (m.a.w. dat de vrije ruimte totaal wordt gedefragt).
Mja ze gaan er dan van uit dat je per app die je opstart zoveel seconden langer kwijt bent...kan inderdaad gebeuren als je windows installatie er echt lang (>6 maanden) op staat..maar in de bedrijven waar ik werk worden op alle PC's waar veel op gewerkt word zeer regelmatig een ghost image teruggezet, om "vervuiling" van het werkstation te voorkomen. Je kunt net zo snel een image terugzetten dan handmatig alle temp dirs etc. langs te gaan.

Ik kan me voorstellen dat dat bij veel bedrijven zo gebeurt dus ik denk dat 50 miljard dollar echt een zeer hoge inschatting is.
Het gaat hier ook over servers, en op een server zet je niet ff een ghost image terug. Als je 90 man op een server hebt en die server loopt te beuken en kan het niet bijbenen omdat alle documenten gefragmenteerd over een schijf staan heb je de keuze of : een sneller bestandsmedium nemen, of de schijf laten defragmenteren. En een defragmentatie porggie is echt wel goedkoper dan een raid pakketje. Dus die 50 is best nog wel een redelijke schatting.
Als je er van uitgaat dat je windows servers gebruikt.
Bij Linux/Unix en Novell is helemaal geen fragmentatie.
Ik denk dat er hier echt gedoeld wordt op werkstations
Bij Linux/Unix en Novell is helemaal geen fragmentatie.
Dat is niet juist. Ook bij Linux en NetWare is er fragmentatie. Bij elk FS is dat zo.
Juist bij servers zou het effect veel minder moeten zijn. Een beetje server handelt IO's of voor tientallen zo niet honderden clients. Al die IO acties worden toch al geoptimaliseerd om ze zo effectief mogelijk van de disk te halen, fragmentatie effecten zijn dan al veel minder dan wanneer een file sequentieel gelezen wordt.
Daarnaast kun je je afvragen hoe zinvol het is om 's nachts je machinepark te laten defraggen. Stroom is ook niet gratis dus uitzetten kon wel eens meer opleveren. Defraggen overdag kan niet want dan wil je werken.


Wim
--

www.win2kwereld.nl
Wat een dikke onzin
ga maar eens op freshmeat kijken: kun je defrag voor linux downloaden,
hoewel het ext2 filesysteem er wel wat beter rekening mee houdt dan windows-bakken

Is net zo'n onzin als dat MS een tijd lang heeft verkondigt dat je NTFS partities niet hoeft te defragmenteren.......... en nu wordt bij win2k zelfs een uitgeklede diskeeper meegeleverd
Onno -> even mierenneuken:

ISO9660 kent geen fragmentatie. Dat is dan ook een file system voor CD-ROM en niet voor harddisks, maar het is een bestaand file system.

Ook voor harddisks kun je best een file system schrijven dat geen fragmentatie kent. Dan moet het file system om de zoveel tijd files gaan verplaatsen om de vrije ruimte in 1 blok te krijgen. Niet erg snel waarschijnlijk, maar het kan wel.

\[edit: Oeps, ik lees verderop dat Onno zelf ook al aan iso9660 gedacht had.]
Oeps, ik lees verderop dat Onno zelf ook al aan iso9660 gedacht had
Hehe :D

En ja, natuurlijk, je hebt gelijk, het kan theoretisch wel, maar werkbaar is het niet. En daarom bestaat het dus ook niet. (behalve bij de al genoemde read-only FSs dan :))
precies wat onno zegt alleen onder unix zetten we gewoon een tape terug.
dat is de perfecte en zeer snelle defrag..onder veel unix systemen tevens de enige.
Volgens mij was een eigenschap van HPFS dat het niet fragmenteerde, of was dat dan maar propaganda?
HPFS fragmenteerde niet, zolang het er een groot genoeg vrij stuk schijf bestond. Anders wel hoor.

Ik vind het wel jammer dat bv een W2K niet in de achtergrond defragmenteert, bv als het systeem een kwartier niet gebrukt werd, het even gaat zien wat er aan elkaar te knopen valt. Zou toch weinig of geen overhead geven, als het zo continu zou gebeuren - zelfs op een server.
'k mot nog 'n bedrijf zien dat s'nachts hun servers uitzet..... (Kost volgens mij meer aan IT om ze s'morgens op te starten, s'avonds uit te zetten dan aan stroom).
PC die als data-entry en administratieve doeleinden worden gebruikt, worden inderdaad meestal uitgezet. In mijn wereld (die van de microelectronica) en waarschijnlijk in alle domeinen waar research en development wordt gepleegd, proberen we net van het feit dat het interne netwerk rustig is te profiteren. Het is 'n feit dat 'n VHDL of Verilog Simulatie tot twee keer zo snel gaat s'nachts omdat er geen gebruikers op het net zitten!
Defragmenteren van je fileserver kun je dan dus ook niet gebruiken, daar defragmenteren ervoor zorgt dat je server gedurende bepaalde tijd onbruikbaar is!
Bij een NT server kun je toch als je meedere
Fysieke harddisken hebt , software matig een stripeset,
en als je fault tolerance wilt
een RAID 5 maken. En zo I/O te optimizen.
Of zeg ik nu heel wat doms.
Ja, nogal ja. Wat heeft dat in godsnaam met filesystem fragmentatie te maken.

Zeg dan niets.
je kunt al die bedrijfs pc's toch zo instellen dat 's nachts automatisch wordt gedefragged? (en gelijk ook scandisk, als eerste)
hele probleem gelijk opgelost...
of willen die gasten een server based defrag programma verkopen... ?

Jake
Bij ons (Philips ASA Lab) gaat na 20:00 de spanning van het net af. Dit om te voorkomen dat een per ongeluk niet uitgeschakelde monitor in brand zou vliegen. Dat is op het lab al meerdere malen gebeurt. Om 07:00 zetten ze de spanning er weer op, dus defraggen tijdens het booten kan wel, maar dan loop je de kans dat ie nog bezig is als je wilt gaan werken om 08:00. Toch wel lastig.
dan wordt het idd heel lastig om te defraggen ja, maar het moet toch een keer gebeuren, en dat kan toch best automatisch, zonder server based pakket, maar gewoon met sheduled-tasks (iets wat elke tweaker natuurlijk meteen uitzet...)

Jake
moet ook geen philips beeldbuizen hebben, die zijn idd nogal licht ontvlambaar.
(zie phillips breedbeeld tv's)
Zelf merk ik het ook wel. Ik doe een beetje wat in de home-recording geinzooi en op zowat iedere site die je tegenkomt wordt geadviseerd om na een vette opname/edit-sessie te gaan defraggen. Dat scheelt weer in het afmixen, want dan kun je weer een paar extra trackjes door de mixer gooien. Komt doordat er minder naar parts gezocht hoeft te worden (omdat alles lekker bij mekaar staat), waardoor je HD-tijd overhoudt. Extra sporen dus! :)
Is leuk, Executive Software (die van Diskkeeper) heeft vorige week al een mailing er uit gedaan als promotie materiaal. Het gekke is dat Microsoft nog steeds vast blijft houden dan NTFS niet gefragmenteerd kan raken (Zie de boeken) omdat het NTFS een intelligent filesystem is. Iedere windows NT gebruiker weet wel beter. Gelukkig is microsoft bij windows 2000 slimmer geweest en hebben ze diskkeeper lite erbij geleverd (wat dus inhoud dat ze toegeven dat er fragmentatie is).
Het leuke is je kan NTFS onder NT 4.0 ook niet defragmenteren ... ze geven dan in de boeken aan als "prefered solution" format partition and restore van backup en dan is de schijf gedefragmenteerd :)
www.diskeeper.com/coverpage.asp

Daar staat een defrag tool voor NTFS onder NT 4
Ja dat diskkeeper is leuk maar ik heb het onder W2k nog niet in een scheduler kunnen krijgen. En zoiets mag van mij toch echt wel 's nachts gebeuren. (Dus microsoft helpt er ook niet echt aan mee :()
Sorry hoor, maar ik vind dit maar een wazig bericht. Hardisken zijn tegenwoordig zo snel dat je weinig merkt van die fragmentatie. En zeker in het zakelijk gebruik staan er toch maar een paar apps op je schijf... ;).
Fragmentatie leidt tot meer seeks. Hoewel de transfer rate enorm toegenomen is de laatste jaren, zijn de seek times wel wat beter geworden, maar niet spectaculair.
Waarom geen fs dat nooit fragmenteert? lijkt me kostenbesparend :P
Dat gaat niet, zelfs als je bestanden niet in "fragmenten" gaat verdelen, maar volledig achterelkaar opslaat komen er "gaten" in je schijf omdat je er wel eens een bestand afgooit, en die ruimte alleen bij toeval helemaal weer opgevuld raakt
Daar zit het 'um dus juist. Bij Microsoft wordt elk gaatje opgevuld op een HD. Zelfs als een bestand dan over 10 lokaties verspreid staat. Bij Netware is dit veel minder het geval. Ten eerste ondersteunt Novell BlockSuballocation, ofwel meerdere files in een block. Ten tweede zal Netware trachten files zoveel mogelijk in een sequence te schrijven zodat de files beter in te lezen zijn. Totaal vrij van fragmentatie is iets natuurlijk nooit. Novell heeft trouwens ook het voordeel dat het de volledige FAT in zijn geheugen opslaat voor snelle toegang.
Bij Microsoft wordt elk gaatje opgevuld op een HD.
Hmm... nee, niet helemaal waar. En je bedoelt Microsofts FAT implementatie. Want wat je zegt is totaal niet van toepassing op Microsofts HPFS en NTFS implementaties.
Is er wel, ISO9660. :P
HPFS doet ook erg leuk mee. 2% fragmentatie na 3 jaar gebruik heb ik een keer gezien.
Felix,

2 woorden: Novell NetWare.
niet als flamebait bedoeld maar is gewoon zo.

Naja, tuurlijk fragmenteert het wel een beetje maar Novell reorganiseert zelf alle bestanden bij het wegschrijven op een zodanige manier dat het nooit tot performanceverlies van het filesystem leidt.
Elk bestandssysteem krijgt zonder actieve defragmentatie vroeg of laat last van fragmentatie. Je kunt alleen door bestanden op een slimme manier in de partitie te plaatsen de gevolgen wel zo veel mogelijk minimaliseren. En FAT leent zich niet bijzonder goed voor intelligente algoritmes -> reletief snel last van fragmentatie. Bij systemen als HPFS, NTFS, ext2, NWFS een stuk minder.
Maar fragmentatie krijg je. Altijd.
Onno: je krijgt alleen binnen een redelijke tijd genoeg fragmentatie om een probleem te zijn als je je schijf erg vol zet. Als je schijf voor een redelijk deel leeg is zijn er dus ook vrijwel altijd aaneengesloten ruimtes voor bestanden te vinden.

Het is zelfs met een ext2fs partitie, wat helemaal geen geweldig fs is, erg lastig om meer dan 10 % gefragmenteerde files te krijgen.
De titel is nogal fout: "Fragmentatie kost 50 miljard dollar per jaar"

Kan beter worden: "Niet Fragmenteren kost 50 miljard dollar per jaar".
Nee, fragmenteren is juist het proces waarbij de data verspreid raakt, defragmentatie is het proces wat jij waarschijnlijk bedoeld..
Niet defragmenteren kost 50 miljard dollar ;)
Even de andere kant:
Als je veel defragmenteert slijt je harddisk veel sneller en gaat hij dus eerder kapot. Dus is je systeem een tijd buiten werking, moet je evt. veel data opnieuw intypen ofzo. Dus al met al ontloopt het elkaar denk ik niet zo erg veel...

Kan ooit nog eens iemand op promoveren ;)
Hmm, moet je me toch eens uitleggen. Ik neem aan dat je bedoelt dat je HD zo ongelofelijk hard aan het lezen/schrijven is? Tja, maar dat is maar een half uurtje en met een hele lompe HD misschien eens 2 uur, maar toch niet veel langer? Bovendien zijn HD's uit servers enzo daar wel op berekend: sterker nog: als je niet defragmenteert moeten ze continu random schrijven en lezen, dat is pas slecht voor je harddisk. En denk je niet dat een HD in een bedrijf na 2 jaar ofzo afgeschreven is? En wat dacht je van raid configuraties waardoor het uitvallen van 1 schijf in een systeem niet tot gegevensverlies leidt....???

Beetje onzin dus he?
Nee, als jij je systeem defragmenteert is dat ding natuurlijk wel veel meer werk aan het verrichten, maar als jij dat niet doet, moet je veel meer random reads doen, wat ook weer slijtage oplevert (minstens zoveel als nij defragmenteren). Als je 1x per week defragmenteert, dan heb je al weer veel minder slijtage. Overigens defragmenteer ik nooit, omdat anders mijn }:O stilstaat. Met speeddisk werkt het ook niet als mijn koe graast, omdat die dan alles laat crashen.
De enige manier om van dat fragmentatie probleem af te komen is volgens mij hardwarematige defrag in de disk in te bouwen maw de disk gaat defraggen als hij ff niet wordt aangesproken.
Zelf heb ik op mijn werk een jobje in de taskmanager die eens in de maand s'nachts mijn windows partitie ff defragd :)
Hmm.. dan moet je wel een erg intelligente harddisk gaan bakken.
Hoe weet zo'n schijf welk FS er op de schijf staat? Kunnen tig verschillende zijn.
Ik denk dat een software oplossing toch echt beter is hoor. Je kunt dat toch gewoon in het OS inbouwen, dat als de computer 15 mins (bijvoorbeeld) niet is gebruikt, dat hij gaat defraggen?

En geen FAT meer gebruiken zal ook behoorlijk helpen, zeker in combinatie met verschillende partities.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True