Dat laatste raadsel beantwoordt deze man toch best wel duidelijk in zijn video.
Het was een (uit modern oogpunt) tijdelijke oplossing. Het moest goed genoeg zijn voor de versie van Windows die destijds ontwikkeld werd, en gedurende die levensduur waren dergelijke capaciteiten opslagmedia niet in de lijn van verwachting gezien zijn simplistische beslissing om gewoon wat bestaande getallen te vermenigvuldigen om op deze limiet te belanden.
Dit is een van die zaken die in latere versies van Windows had moeten worden bijgewerkt (wat hij ook aan relevante personen in de organisatie had doorgegeven) maar er is nooit iets mee gedaan. Het functioneerde goed genoeg dat de mogelijke (indirecte) problemen die het veranderen kon veroorzaken het gewoon niet waard maakten; mensen die het echt nodig hadden konden mets iets meer moeite het wel voor elkaar krijgen.
Uit mijn oogpunt is het trouwens heel makkelijk redeneren met de kennis die we vandaag hebben. Gedurende de periode waarop dit werd gemaakt was het internet immers nog geen gemeengoed, en de hoeveelheid makkelijk beschikbare kennis veel kleiner (zeker m.b.t. reeds bestaande apparaten), en de toekomst was natuurlijk ook zeer onbekend ondanks het feit dat Microsoft wel wat contacten zal hebben gehad.
Wij zien op dit moment alles maar in termen van de maximale grootte van de partitie, maar er is een reden waarom clustergrootte überhaupt een instelling is. Zowel grote als kleine clusters hebben hun voordelen en nadelen: groter is sneller en kleiner is zuiniger. Zeker met de langzamere processors en opslagmedia van die tijd was het een probleem om te vaak nieuwe ruimte aan te breken. Wat je bespaarde in vrij te maken ruimte kwam ten kosten van veel meer huishouding in de File Allocation Table (waar deze boel zijn naam aan dankt!) wat ook weer meer vertraging met zich mee brengt. Ik vermoed dat er ook wel zorgen kunnen zijn geweest over hoe goed een dergelijk gigantische FAT zou schalen: het gebeurt best vaak dat zaken goed werken met hoeveelheden in de orde van 10, 100 en 1.000, maar dat het tergend langzaam wordt zodra je met de 10.000 en hoger aan de gang gaat.
Als je dan een arbitraire limiet nodig hebt om te voorkomen dat mensen technologische extremen opzoeken waar vervolgens klachten uit voorkomen (denk aan mensen die klagen dat Windows alle ruimte op hun schijven opsnoept, of dat de hele machine super langzaam is) waar je geen specifieke getallen voor weet omdat je geen glazen bol hebt, dan ga je dat maximum ook niet heel arbitrair binden aan bepaalde voorwaarden als een bepaalde clustergrootte. Stom en onbetrouwbaar als deze 32GB limiet mag zijn in verhouding tot wat het echt doet, op dat moment was het een goed genoeg getal dat de extremen afdekte tijdens de levensduur van die versie van Windows. (Vandaag zouden we misschien niet argwanend zijn, onder andere omdat we veel meer kunnen testen; mocht een limiet wel nodig zijn dan pushen we wel een hotfix die de halve wereld bereikt in een aantal uur... maar dat was destijds natuurlijk geen optie.)
[Reactie gewijzigd door kalikatief op 18 augustus 2024 01:18]