Defragmentatie komt altijd voor. Voorbeeld? men zet 200 kleine files op een harddisk, alleen niet in 1 write, maar verspreid over een maand oid. In die maand zet men ook nog verschillende andere files op de harddisk. Nu verwijdert men die 200 files.
Allemaal lege plekken. Men wil nu een grote file wegschrijven. Wat gebeurt er? Stel nou dat er geen ruimte meer is op de harddisk om die grote file in 1 blok weg te schrijven, maar wel verdeeld over de plekken die die 200 kleinere files innamen.... fragmentation.
Unix gebruikt inodes en dat lijkt slim maar alles wat niet linear is opgeslagen is fragmented. Ook inode tables (die ook gefragmenteerd raken, namelijk wanneer ze overlopen). ext2 levert net als HPFS wel degelijk fragmentatie op ookal claimen ze van niet. NTFS5 ook, trouwens.
Echter, er is 1 misvatting tussen FAT fragmentatie en Inode/dirtable filesystems zoals ext2, ntfs en hpfs: Fat's dirtable staat vooraan, de andere filesystems gebruiken dirtables verspreid over de disk. Om FAT te defragmenteren is het zaak alles zo veel mogelijk in elkaar te schuiven naar voren. Voor het defragmenteren van NTFS is dat helemaal niet zo nodig. (of voor ext2 of hpfs). Het is dan zaak zoveel mogelijk LEGE PLEKKEN open te houden IN area rondom een directory tree op disk. Immers, DAAR staat de info over de files, moet de kop telkens terug, dan kost dat tijd. De filesystems zijn zo ontworpen dat ze lege ruimte open laten op plekken waar ze overloop verwachten (bv van een dir-node) plus houden ze ruimte vrij voor grote en minder grote files. Dat allemaal in elkaar schuiven met een defragger is dus niet zo zinnig.
De enige defragger die werkt onder NT is de defragger die EN system EN directories EN normal files EN MFT data defragmenteert. Die is er niet, dus defragmenteer ik ook niet. De rest breekt af wat er aan defragmentatie protection algoritmes in NTFS zitten ingebouwd. Het eindresultaat is marginaal.
(verder gaan defragmentatie tools ervan uit dat de heads van de harddisk geparkt worden VOOR de first track, en is er dus een grotere speed te behalen indien je de data zoveel mogelijk propt in de eerste sectoren van de harddisk. Dat lang alle harddisks niet vooraan parken is een ding waar rekening mee moet worden gehouden wanneer men defraggers gebruikt

)