Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 182, views: 35.323 •

Vanaf augustus zullen 2,5"-schijven met een capaciteit van 640GB en 3,5"-modellen van 2,5TB op grote schaal verkrijgbaar zijn, blijkt uit een roadmap van TDK. De eerste hdd's met een capaciteit van 3 Terabyte worden nog dit jaar leverbaar.

TDK maakt lees- en schrijfkoppen voor hdd-fabrikanten en het bedrijf presenteerde zijn roadmap onlangs aan financieel analisten. Momenteel testen de hdd-fabrikanten koppen voor 320GB- en 375GB-platters voor 2,5"-schijven. De productie van de 320GB-exemplaren is reeds begonnen en die van de 375GB-varianten volgt deze maand. Fabrikanten hebben dan ook al 2,5"-schijven met twee platters en een capaciteit van 640GB aangekondigd, terwijl het eerste model met 750GB nog in februari aangekondigd moet worden. Eind september eindigt de kwalificatieperiode voor de 375GB-platters en dan zullen alle klanten die met TDK samenwerken, 2,5"-schijven van 750GB op de markt hebben.

Platters met een capaciteit van 640GB voor 3,5"-schijven worden momenteel getest door fabrikanten van harde schijven. De productie zal in maart beginnen, maar het duurt nog tot augustus voor de massaproductie op stoom is gekomen; tegen die tijd zullen 2,5TB-modellen met vier 640GB-platters verkrijgbaar zijn. Fabrikanten zullen waarschijnlijk ook nog dit jaar met hdd's met vijf platters komen, wat de capaciteit op 3,2TB brengt, maar de fabrikanten zullen waarschijnlijk voor een maximum capaciteit van 3TB kiezen. De vorige roadmap van TDK voorzag de komst van de schijven met grotere opslagcapaciteit overigens al voor begin dit jaar. Mogelijk is de introductie uit kostenoverwegingen uitgesteld.

TDK opslag-roadmap

Reacties (182)

Reactiefilter:-11820177+1117+25+30
Ben benieuwd naar het limiet wat sommige PC's kunnen draaien, dit was 4TB dacht ik?
@Ayo_Technology
Je kan beter neerzetten dat je first post heb, dit heeft geen toegevoegde waarde whatsoever |:(

[Reactie gewijzigd door Arnlith op 8 februari 2010 13:29]

De eerste grens waar tegenaan gaat lopen is het 2TB maximum van de MBR partition table. Overstappen op het GPT model is dan het advies, mits je OS het ondersteunt.
Ik heb wel eens 1TB x 4 in RAID-0 proberen te zetten en er werd toen door Windows maar 2TB herkent. Hoe gebruik je dan dat GPT model?
Door in plaats van MBR GPT te kiezen als je gaat formatteren. Maar dan moet je OS dat wel ondersteunden, als jij nog XP gebruikt dan heb je die optie gewoonweg niet, want XP kan daar niet mee overweg.
Ik heb Windows 7 64bit, maar ik lees net hieronder dat je er dus niet van kan booten, dus het is echt een schijf voor data en niet voor het booten van Windows.
Waarom zou je uberhaupt een 3TB schijf als bootdisk willen?:S
ik vindt 500GB al MEER dan genoeg. Moet echt mijn best doen om die vol te krijgen met install files...

verder vindt ik het wel een lekkere ontwikkeling. Gezien me htpc bijna vol zit qua disks kan ik me 1tb varianten mooi gaan vervangen voor 3tb schijfjes:)
In het geval van een RAID array kan het nog wel voorkomen natuurlijk. Je maakt een partitie aan van een paar 100GB om te booten en dan de rest als data. Alleen dat geeft dus gezeur als je wil booten, want als MBRdrive kun je maar 2TB gebruiken (dat probleem had ik dus ook toen ik een array had van 5,25TB op m'n Areca waar ik tegelijkertijd van wilde gaan booten. De enige oplossing is om meerdere volumes te maken, en dat wilde ik juist niet).
Dus dan maar een simpele SSD er in neem ik aan ;)

Trouwens wat moet een mens met een 5,25TB disk? Ik kan me totaal geen zinnige reden bedenken waarom een mens zo'n grote schijf zou willen hebben. Hoe groter de schijf hoe meer disks je moet gebruiken en hoe groter de kans dat door een disk failure van een of meerdere van de disks in de array alle data verloren gaat.

Ik zou je toch echt aan raden om gewoon losse disks te gebruiken voor een HTPC oplossing bijvoorbeeld de troughput hoeft in de meeste thuis situaties toch niet extreem groot te zijn, en als dat wel nodig is ga dan voor een professionele oplossing en bijvoorbeeld meerdere RAID 6 of zelfs RAID 60 oplossingen, alweer niet met hele grote schijven gewoon om het risico te verkleinen.
Tja dat zei de vrouw van Alexander Graham Bell ook toen hij bezig was met de Telefoon, Wie wil er nou met jou bellen zei ze geloof ik...
Trouwens wat moet een mens met een 5,25TB disk? Ik kan me totaal geen zinnige reden bedenken waarom een mens zo'n grote schijf zou willen hebben.
Maar jij bent niet iedereen.
Sommige mensen willen dat wel, klaar.
Ik snap niet dat je steeds mensen ziet typen dat zij het nut niet inzien van veel data opslag, iedereen bepaalt dat voor zichzelf.
Hoe groter de schijf hoe meer disks je moet gebruiken en hoe groter de kans dat door een disk failure van een of meerdere van de disks in de array alle data verloren gaat.
Onzin, RAID oplossingen zorgen voor redundancy.

[Reactie gewijzigd door ASS-Ware op 8 februari 2010 20:28]

Trouwens wat moet een mens met een 5,25TB disk? Ik kan me totaal geen zinnige reden bedenken waarom een mens zo'n grote schijf zou willen hebben.
Dat werd/wordt zo vaak geroepen. En toch heb jij straks gewoon een 10GB schijf in je pc. Aangezien je graag je HD (2160i) 75GB files ergens op moet zetten... :*)
Dat werd/wordt zo vaak geroepen. En toch heb jij straks gewoon een 10GB schijf in je pc. Aangezien je graag je HD (2160i) 75GB files ergens op moet zetten... :*)
Dat gaat niet passen hoor.
Ik denk toch dat een 5,25 TB opslag thuis niet eens zo extreem veel meer is tegenwoordig. Een foto van een digitale camera neemt steeds meer en meer ruimte in beslag en mensen hamsteren nou eenmaal gegevens en gooien dus ook nooit meer hun foto's weg.

Waar je nu nog genoeg heb aan 1 terrabyte zal je in de nabije toekomst 5 terrabyte niet meer dan normaal vinden. Het grootste probleem is inderdaad hoe je de boel veilig opslaat.

Ik ben toevallig dit weekend begonnen met nadenken over mijn nieuwe opstelling voor thuis. Dit zal bestaan uit een raid 5 set van 3 x 2 terrabyte. Deze worden gecombineerd als 1 grote datastore voor mijn esxi machine. 4 gigabyte is daar volgens mij ook de maximale partitie grote dus dat sluit dan netjes aan. Daarnaast zitten er nog 2 x 200 gigabyte diskjes in. Hier komen de Virtual Hard Disks voor mijn 2 besturingssystemen op te draaien.

Daarnaast heb ik nog wat oude disks over die mooi in een externe behuizing passen. Zo kan ik belangrijke foto's, camcorder filmpjes en documenten veilig weg schrijven en buitenshuis opslaan. Films en muziek neem ik niet meer mee in mijn backup. Ik vind RAID 5 in combinatie met een UPS + Surge protection meer dan genoeg veiligheid voor vervangbare gegevens.

Overigens is deze situatie al bewezen als veilig en stabiel. Ik trek zo'n 80 MB/sec over mijn gigabit netwerk en blader dus door netwerk shares heen alsof het lokaal staat. De doorstroomsnelheid is voor mij namelijk wel erg belangrijk aangezien ik niets lokaal op sla en ook zit te denken aan een overstap naar SSD.

Bovenstaande situatie zul je steeds vaker thuis tegen gaan komen daar ben ik van overtuigd. Je zal dan alleen fysieke machines zien draaien als server i.p.v. dat ze virtueel op een esxi bak draaien. Ik heb hier laatst echter voor gekozen zodat ik makkelijker en sneller mijn virtuele machines en gegevens naar een eventueel toekomstige server kan migreren.
Ik ben hard op weg om al mijn zelfgemaakte videos op schijf te zetten en om het monteren een beetje snel te kunnen doen, pomp ik alles op een interne HD van 1 TB. Deze drijf begint al behoorlijk vol te raken. En externe HD is niet echt een oplossing, want USB 2.0 of FW is niet snel genoeg. En 3TB drijf zou voor mij een uitkomst zijn.
dat probleem had ik ook.
ik maak veel video's (sinds kort als ruw bestand in 2160p(3840x2160) )is al gauw 1200GB per uur !! |:(
( voorlopig kan je dat nog niet op die kwaliteit afspelen
tenzij je de video in vieren knipt en het op 4 pc's elk een stukje film afspeelt)

heb nu net een nieuw systeem staan 12x 2TB op 4 verschillende raid controllers ( voor extra snelheid (sata 300 limiet) )

deze ruimte gerbuik ik alleen als speling om de films op te renderen.


belang bij grotere schijven is per persoon verschillend

ik herinner me nog goed dat ik van een 800MB hardeschijf naar een BIGFOOT 4 gb overstapte wat een verschil _/-\o_

waarom zijn die bigfoot's er eigenlijk niet meer?
een beetje kast van tegenwoordig kan er zo 20 in beter ruimte besparing dan 3,25 " lijkt me
maarja zal wel wat met timmings te maken hebben denk ik
@terw_dan Een fatsoenlijke server houdt de RAID array en de bootschijf gescheiden. Doorgaans heb je een gemirrorde bootschijf voor het OS, vaak niet eens groter dan twee 80 GB schijfjes, en vervolgens een RAID array voor je applicaties, je databases, je data, etc noem maar op wat ruimte en/of performance nodig heeft. (Je installeert dus ook ALLES op de RAID, niets op de C:)

Bij een server is het OS zelf 99% idle, maar zijn het vooral de applicaties die de resources innemen. Voorbeeld: Exchange, SQL Server, Oracle, etc.

Op die manier kun je ook redelijk gemakkelijk een OS vervangen (mits de applicaties het ondersteunen natuurlijk), en veel gemakkelijker aan disaster recovery doen bij geval van een compleet verwoest OS. Af en toe een systeem image maken van je OS drive, even de laatste terug zetten, en je server is weer up & running. Dat gaat je met een RAID array met OS erop niet lukken. ;)
Een fatsoenlijke server houdt de RAID array en de bootschijf gescheiden.
Hopelijk maakt dat binnenkort niet meer uit omdat dan iedereen ZFS (of later Btrfs als het stabiel is) gebruikt, waarbij je gewoon 1 grote storage pool hebt met filesystems die de complete ruimte met elkaar delen, en het hele concept van partities dus overboord gegooid is.
Disaster recovery is dan gewoon een rollback doen van een eerdere filesystem snapshot. OS vervangen moet dan ook eenvoudig zijn als je installer een ZFS pool kan importeren.

FreeBSD kan je inmiddels al booten vanaf GPT+ZFS, en voorzover ik weet kan je ook al bij Linux en Mac OS X vanaf een GPT booten... dus weer een teken dat Windows qua storage een beetje achter de feiten aanloopt :D
Yja, dan is je filesystem-snapshot dus wel steeds de volledige grootte van de pool.

Geef mij dan maar een dagelijkse backup van de data en bij iedere install/update een systeem-backup.
ZFS snapshots zijn van een individueel filesystem, niet de pool. En snapshots nemen geen plaats in beslage totdat het filesystem en het snapshot beginnen te divergeren, alles is copy-on-write. Ik neem zelfs dagelijks automatisch snapshots.

Ik draai een linux systeem met FUSE+ZFS, en ben hier voorlopig zeer tevreden over. De instructies heb ik hier geblogged: http://mindinthewater.blo...-4-zfs-on-linux-with.html
Dan is het op zich wel mooi. Echter voor het overzicht van de gebruiker is het ook wel zinvol om data en systeem gescheiden te houden.

Vroeger had ik een aparte partitie voor OS en een aparte partitie voor Programs, maar toen kwam ZipMagic 2000 en die moest per sé op dezelfde schijf staan als het OS. Sindsdien ben ik maar weer overgestapt om Apps samen met OS te zetten. Alleen om de padnamen niet te lang te maken wilde ik destijds de naam van de map 'Program Files' verkorten tot 'Programs' maar dat was ook niet mogelijk, omdat ook Windows bepaalde paden hard op 'Program Files' had geprogrammeerd. Je kon wel alles aanpassen in de registry, en dan werkte alles prima, alleen wanneer er een nieuwe app bijgezet moest worden, was de default weer 'Program Files'.
Waarom zou je uberhaupt een 3TB schijf als bootdisk willen?
Persoonlijk heb ik alles liefst op 1 schijf (minste kosten, lawaai, warmte en energieverbruik) en 1 partitie (geen verlies van schijfruimte doordat 1 partitie vol staat en de andere nog plek over heeft, alles makkelijker terug te vinden)
De kosten zullen hoger zijn dan twee keer 1,5 Tb hoor, de kosten van stroom zijn vrijwel verwerpelijk, die paar watt die een schijf trekt zijn verwaarloosbaar op je stroomrekening. Enige wat ik kan bedenken is meer ruimte, minder warmte maar zelfs daar zit ik niet echt mee.
de kosten van stroom zijn vrijwel verwerpelijk,
Normaal reageer ik niet op spel/grammatica fouten, maar deze vond ik toch wel erg grappig: ver·wer·pe·lijk bn zeer af te keuren

:9
Ehm leuk als je een keer een herinstalatie moet doen van windows? Alles backuppen etc. Ik heb gewoon een 320GB schijf voor windows alleen en dan nog een 1TB voor me downloads een 500GB voor muziek en fotos en nog een 250GB voor alle instalatie files (.exe's).

Nooit problemen mee :D
Een herinstallatie op 1 schijf gaat nog ietsje makkelijker dan op meerdere schijven. Plus geen geklooi met bijna volle schijven terwijl de andere partitie ruimte genoeg heeft.

Voor mij ook maar 1 partitie.
1 partitie is het slechts wat je kan doen. Als je OS-partitiie corrupt raakt is in 1 klap je gehele disk onbruikbaar. Zo kan ik nog wel meer nadelen noemen. Een disk indelen in twee partities heeft altijd mijn voorkeur (dus ook niet meer partities, juist om de reden die je zelf al aangeeft). Eentje voor het OS en programma's en de grootste van de twee voor al het andere.

Zo hoef je maar heel weinig te verplaatsen cq. veilig te stellen om je OS opnieuw (of een ander OS) te installeren. Er zijn andere oplossingen, ik weet het. Maar uit ervaring weet ik dat een twee-partitie systeem veruit het handigst is. Twee aparte disks is uiteraard nog beter.

Vorige week nog ervaren; Packard Bell systeem met natuurlijk juliie geliefde "1 partitie doet het allemaal" erop. Of ik even zijn Windows 7 upgrade erop wilde zetten. Dat ging even helemaal niet lekker; Ten eerst wilde de Windows 7 setup niet Vista updaten'vanwege vermeende compabiliteits issues (ondanks schoonmaakacties etc.etc.). Dan blijft er dus niks anders over dan schoon installeren, maarja; er moet natuurlijk wel eerst een hoop data bewaard worden. Waar laat je dat ? Idd; op een andere harddisk. 500Gb aan data die overgepompt moest worden (en uitgezocht etc.) Klusje van ruim een paar uur, terwijl dat veel sneller had gekunt en zonder tweede harddisk mits er vooraf al twee partities waren geweest.
Persoonlijk heb ik alles liefst op 1 schijf (minste kosten, lawaai, warmte en energieverbruik) en 1 partitie (geen verlies van schijfruimte doordat 1 partitie vol staat en de andere nog plek over heeft, alles makkelijker terug te vinden)
Met een tweede partitie moet je iets meer ruimte vrijhouden, dat klopt maar het mag geen naam hebben. Makkelijker terugvinden snap ik ook niet echt, een tweede partitie geeft je een duidelijke scheiding waarmee je een mooie indeling kan maken. Het is gewoon een kwestie van gewenning.

Je OS op die hele grote partitie betekent ook zware fragmentatie van je cache files Zoals je temp files en internet cache files; die gaan overal zwerven wat de prestaties (zeker bij een harddisk) flink doet afnemen. Plus wat ik al meldde; een aparte OS partitie maakt je opslagsysteem veel flexibeler.

[Reactie gewijzigd door Madrox op 8 februari 2010 16:26]

Hoe meer harde schijven je gebruikt, hoe meer kans je hebt dat er 1 kapot gaat.
1 partitie in raid 5(of 10) is het best wat je kan doen. wat data behoud betreft.
oh ja?
Dus als je 2 schijven hebt heb je meer kans dat een schijf sneller stukgaat dan dat je er 1 hebt?
Je OS op die hele grote partitie betekent ook zware fragmentatie van je cache files Zoals je temp files en internet cache files; die gaan overal zwerven wat de prestaties (zeker bij een harddisk) flink doet afnemen.
Temp files en cache files behoor je geregeld te verwijderen, dus fragmentatie van die files boeien niet.
@Madrox - Ik geef toch echt de voorkeur aan 3: OS, data en een scratchdisk om fragmentatie van je andere twee partities te voorkomen.
Dat zeg je nu ja, maar wacht maar tot je een schijf van 3TB heb die voor 90% vol staat met data (films, games, muziek etc) en je OS is corrupt ofzo. Kan je formatteren en ben je meteen alles kwijt. Denk dan toch dat je beter een partitie kan maken voor je OS en je installs van 200GB ofzo.
De kans dat je data-partitie of os-partitie corrupt raakt lijkt me net zo groot als dat slechts 1 grote partitie corrupt raakt.
Het is mij verder nog nooit gebeurd, alleen een kapotte harde schijf, maar dan kan je makkelijk genoeg een nieuwe harde schijf halen en een kopie maken van wat nog te lezen is van de oude schijf.
Als het OS kapot is is het uiteraard eerst een kwestie van OS installeren op nieuwe HD, en dan de nog te lezen data te kopieren.
Uit ervaring kan ik je zeggen dat de OS-partitie veel gevoeliger is voor defecten dan welke andere partitie dan ook. Juist omdat er op je OS-partitie het meest gebeurt ;)
En de meest prettige oplossing als je schijf crasht.
Nee, niet erg slim om alles in één partitie op één schijf te zetten, maar ieder zijn/haar meug.
En de meest prettige oplossing als je schijf crasht.
Nee, niet erg slim om alles in één partitie op één schijf te zetten, maar ieder zijn/haar meug.
Als je schijf crasht, dan ben je die tweede partitie ook kwijt hoor.
Natuurlijk ben je je gegevens kwijt als je disk crasht. Daarvoor moet je een backup maken. Het is alleen allemaal gemakkelijker op te lossen als je met 2 partities werkt.

vb: part1 = 200GB, part 2 = de rest.
- als part2 of de schrijf crashed heb je veel (copy) werk, wat heel tijdrovend is.
- als part1 crashed moet je enkel part1 opnieuw installeren.

maar ook je backups zijn gescheiden:
- een backup (van je gegevens) blijft beperkt tot alles op 1 partitie.
- je os kan ook gebackupt worden (telkens je een programma hebt geïnstalleerd of zo)
- je kan zo ook gemakkelijk een andere backupstrategie gebruiken voor de verschillende partities. (incrementeel, differencieel of full)

een ander (bijkomend) voordeel is, als je een ander OS (vb: linux of mac) wilt proberen, je enkel moet zorgen voor een extra partitie voor je 2e OS, terwijl je gegevens in beide OS'en toegankelijk zijn.

Het blijft natuurlijk een eigen keuze, maar er zijn heel goede redenen om toch te partitioneren...
Tja, twee fysieke schijven, twee HDD's of een SSD en een HDD is natuurlijk ook beter, alleen is dat duurder en is men daar in de consumenten-pc en desktop-pc-markt niet op ingesteld.

Zelf heb ik 2 HDD's en 2 branders (1× CD (voor de audio-CD's) en 1×DVD) en daarmee zit ik aan de grens van wat er aangesloten kan worden. (Mobo heeft 2× P-ATA) Wil ik meer, dan moet ik extra adapters kopen. (IDE (S-ATA, P-ATA of SAS/SCSI)
Veel systemen hebben trouwens ook niet de ruimte voor meer schijven.

Mischien dat ik nog een keer zo'n S-ATA adapter koop, samen met een leuke E-Sata schijf, kan de data daarop. Nu staan de werk-gegevens op de interne HDD en heb ik alleen een externe USB-schijf (langzamer) voor gegevens die daar niet passen, die ik op meerdere PC's wil kunnen benaderen en backup.
Als bootdisk zou ik toch echt een SSD willen aanraden. Het moet kunnen booten, een paar zware progjes erop en thats it!

Verder is het altijd af te vragen waarom je 4 TB zou willen hebben... Ik denk dat een hogere lees-schrijf snelheid eigen voorop moet komen te staan en niet meer de grootte van een schijf. Tenzij je natuurlijk een SAN bouwt.

[Reactie gewijzigd door _Noldy op 8 februari 2010 15:25]

Verder is het altijd af te vragen waarom je 4 TB zou willen hebben... Ik denk dat een hogere lees-schrijf snelheid eigen voorop moet komen te staan en niet meer de grootte van een schijf. Tenzij je natuurlijk een SAN bouwt.
Door de hogere bitdichtheid zal de doorvoersnelheid ook hoger worden. Er zullen ook wel modellen met een enkele platter van 640GB verkocht gaan worden, en die zullen sowieso sneller zijn.

[Reactie gewijzigd door Aham brahmasmi op 8 februari 2010 23:11]

mwah, ik boot 1 keer in de maand, of nog minder vaak, Waarom zou ik zoveel geld uitgeven aan een disk specifiek voor het booten als ik dat bijna nooit doe? ;)
Dat ben ik ten dele met je eens. Het Booten doe je maar 1 keer, per dag of misschien zelfs per week. Bij video montage ben je vaker aan het lezen/schrijven en dan is het handig om je data op een SSD te hebben staan.
Ik gebruik over het algemeen weer een smerige manier om hier omheen te komen, en dat is door geen partities aan te maken, maar direct je filesystem op je raiddevice te gooien.
Ik weet alleen niet of dit ook onder windows kan.
toch wel apart, ik heb nog ouderwets MBR op een software raid(LVM) in linux van ongeveer 2,5TB, en ik merk niks van de door jullie genoemde grens.
Maar dit geldt dan natuurlijk alleen voor boot-schijven. Met een 500 Gb boot-schijf en een 3 TB schijf is er niets aan de hand.
Wel ranzig traag he en ouderwets dat hfs+. btrfs of ext4 zijn toch een heel stuk performanter.
Wel ranzig traag he en ouderwets dat hfs+. btrfs of ext4 zijn toch een heel stuk performanter.
hfs+ ouderwets en traag? Het performt als een tierelier.

Ik weet niet hoe jij telt, maar volgens diezelfde regel kun je dan stellen dat UFS ouderwets is, puur omdat de eerste versie heel lang geleden voor het eerst het levenslicht zag, maar ondertussen is het gewoon doorontwikkeld en up-to-date gehouden.

Soms wil je overigens betrouwbaarheid boven performance. Proven technologie, btrfs en ext4 zijn in dat opzicht simpelweg nog 'te jong'. (maar zeker niet slecht, en ik zou ze ook zeker gebruiken, afhankelijk van de situatie en of die het toestaat).
Volgens mij is ext4 toch al echt betrouwbaar te noemen. Het is niet zo maar dat het in de officiele Linux kernel zit en de grote Linux distro's dit als default filesystem kiezen. Trouwens, Google draait ook alles op ext4 sinds enkele weken ...
Alleen jammer dat je wel een veel te dure computer voor moet kopen.
Alleen jammer dat je wel een veel te dure computer voor moet kopen.
HFS+ wordt ook ondersteund door Linux, en door windows als je de juiste driver hebt.

Ik zou niet weten waarom je 't nodig zou hebben, maar het kan zeker.
mjah, volgens mij kan linux nog steeds niet journalen op hfs+ :(
Onzin. SATA schijven hebben 48-bits LBA, wat neerkomt op 128 PB aan adresruimte. De bestandsgroottelimiet voor HFS+ is 8 EiB en voor NTFS zelfs 16 EB - 1kB. De bestandsgroottelimiet ligt dus 64x (voor HFS+) zo hoog dan de limiet van SATA.

En waarom zit je zo te flamen?
klinkt nogal fanboyachtig eigenlijk... waarom niet verwijzen naar nieuwere fs zoals ext4 etc?
Je kan tot 16tb gaan per schijf in Ntfs (met de standaard 4kb clusters). en zelfs tot 256TB als je 64kb clusters gebruikt.

http://en.wikipedia.org/wiki/NTFS#Limitations (kijk het was even gemakkelijk opzoeken als jouw linkje)

Fat32 heeft limitaties maar deze zijn intussen met NTFS van de baan geveegd. Maar dat enkel fatso's zonder poen dit gebruiken?? Het blijft een prima bestandssysteem

Werk jij voor Apple of zo? Ik merk toch een serieuze windows-haat in 95% van je posts.
Zo lang ik met een mac niet out-of-the-box naar NTFS kan schrijven, vind ik dat je je bek moet houden als evangelist van Apple.

[Reactie gewijzigd door 108886 op 8 februari 2010 14:05]

Per partitie, niet per schijf. Klein detail, maar daar liep ik wel tegenaan met het expanden van mijn RAID array.
Met deze reactie ben ik het 100% eens, ook al is deze op het eind een beetje grof maar het is geen sekte hier laatste keer dat ik checkte ;)
Zijn reactie was behoorlijk fanboyachtig ja, maar dat een Mac niet out of the box naar NTFS kan schrijven ligt eerder aan Microsoft dan aan Apple :)
Fat32 heeft limitaties maar deze zijn intussen met NTFS van de baan geveegd.
"Intussen"? Sinds de eerste versie van NT, en voor consumenten sinds XP.
Volgens mij haal je Harddisk geheugen en RAM geheugen door elkaar.
Die 4 Gig die jij benoemd komt door windows.
In dit artikel word gesproken over harde schijven en die worden momenteel beperkt door de hoeveelheid data die ze op een plater kunnen persen.
De 4GB geheugen grens komt niet door Windows, dit is bij ALLE 32 bit besturingsystemen het geval. Je kunt simpelweg met een 32bit besturingsysteem niet meer dan 4GB geheugen adresseren. Je dient dan over te stappen op een 64bit besturingsysteem.
Als ik mij niet vergis kan op z'n minst een bepaalde versie van windows 2003 en ook mac os x wel meer dan 4GB geheugen gebruiken in de 32-bits versie.
Enige beperking is dat elk programma afzonderlijk wel 32-bits geheugenadressen gebruikt en niet meer dan 4GB kan gebruiken.
Zie ook http://en.wikipedia.org/wiki/Physical_Address_Extension
Met PAE kun je het voor elkaar krijgen, dat ging onder bepaalde versies van XP ook nog wel. Maar het is ten eerste niet bepaalde een superstabiele oplossing en ten tweede kun je nog niet echt lekker in 1 keer meer dan 4GB adresseren. Dus je hebt gelijk dat er mogelijkheden zijn, maar het punt van _Dune_ is zeker valide, stap gewoon over op 64b :P.
Maar het is ten eerste niet bepaalde een superstabiele oplossing
Waarom is PAE niet stabiel? Wat is dat nou voor onzin. Windows XP gebruikt PAE overigens vanaf SP2 maar alleen voor de NX bit in de pages, niet voor het daadwerkelijk adresseren van meer dan 4GB (omdat het driver-model er niet mee compatible is). En het blijft natuurlijk iets voor je OS zelf, 32 bits applicaties zitten door het flat memory model nog altijd aan de 4GB per proces vast.

[Reactie gewijzigd door .oisyn op 8 februari 2010 16:06]

Nope... Er bestaat zoiets als Physical Address Extension, kortweg PAE. Dit laat toe om op een 32 bit systeem toch meer dan 4 GB geheugenruimte te kunnen addresseren. Het zit echter alleen in server besturingssystemen (Server 2000, Server 2003, Server 2008) en in sommige linux distributies. Ik geloof wel dat het een kleine performantie overhead geeft. (het zou kunnen dat het in Vista te hacken is ook.. ;))

Ten tijde van de 32 bit Xeons (Xeon Prestonia) lieten de meeste dual Xeon moederborden tot 12 GB toe (voorbeeldje, sommige zelfs meer), en dankzij deze techniek kun je het gebruiken. :)

[Reactie gewijzigd door V_J op 8 februari 2010 14:11]

Niet geheel waar overigens, alle besturingsystemen (32-bit) ondersteunen voor zover ik weet PAE (Physical Address Extention). Dit staat ze toe om meer dan 4GB geheugen te adresseren.

Echter, in het verleden (toen PAE nieuw was) heb ik daar nogal 'enge' dingen mee meegemaakt, tegenwoordig schijnt het echter een stuk stabieler te zijn.
Klopt niet volledig.
Per process ga je inderdaad niet meer dan 4GB kunnen adresseren, maar in een 32bit server kan er door middel van PAE wel meer dan 4GB effectief gebruikt worden (zij het niet voor 1 enkel process)
Windowws 7 32bit? Laatste keer dat ik er iets over hoorde was dat het tot in ieder geval 16GB aan werkgeheugen zou gaan.
Windowws 7 32bit? Laatste keer dat ik er iets over hoorde was dat het tot in ieder geval 16GB aan werkgeheugen zou gaan.
Nee, een 32b OS zal lekker tot de 4GB beperkt worden, tenzij je kunstgrepen als PAE gaat toepassen, maar dat zal denk ik niet echt het geval zijn bij Win7 32b (MS wil het liefste gewoon hun 64b versies verkopen, dat is een stuk makkelijker dan ondersteuning voor iets als PAE toe moeten passen, wat niet het eenvoudigste is om te doen).
dude, sinds pae (zit al sinds de pentium pro op elke cpu) kan dat prima. Alleen ouderwetse os-en ondersteunen dat niet. Linux kan het al sinds 1999!
De PC's zelf hebben geen limiet(of je moet een heel oude hebben). Er zijn echter bestandssystemen die daar wel last van hebben zoals ext3. fat32 heeft een veel kleinere limiet(maar die dien je eigenlijk alleen te gebruiken voor usb-sticks). Door de uitontwikkeling van ext4 is dat geen probleem meer te noemen en het veelgebruikte ntfs kan ook veel aan(theoretisch 16 EB).
Mwah... ext3 zit op het moment op een max van 16TB het komt dichterbij, maar voorlopig kun je nog door. :)
Het probleem gaat zijn met dit soort grote schijven is dat als je een MBR partitie aanmaakt je maar 2TB ziet en wil je de volledige grootte gaan gebruiken dat je dan een GPTpartitie moet aanmaken.
De limiet ligt namelijk bij 2TB. We hebben er met de huidige 2TB schijven nog geen last van, omdat 2TB voor je OS maar 1,89TB is ofzo (weet het niet exact uit m'n hoofd) waardoor je nog onder de 2TB limiet zit. Met 3TB schijven is dit dus niet meer zo.
Het probleem van GPTdisks is ten eerste dat oudere OSen er niets mee kunnen. WinXP 64b is zo'n beetje het oudste OS dat er wat mee kan, de standaard WinXP 32b kan er niets mee. WinVista en Win7 kunnen er wel mee overweg, maar als ik zo kijk in de documentatie van Microsoft(http://www.microsoft.com/...vice/storage/GPT_FAQ.mspx) kunnen die er ook nog niet van booten.

Iemand die dus een nieuw systeem koopt met 1 3TB schijf komt bedrogen uit, hij zal of niet kunnen booten van de disk als deze GPT geformatteerd wordt, of hij zit aan de max van 2TB, wat natuurlijk zonde is als je voor een 3TB schijf betaald.

Dus daar moet rekening mee gehouden worden. De oplossing is niet moeilijk, gewoon een kleine HDD of SSD erbij voor het booten en die 3TB puur als data en een modern OS.
Je schijven zijn 2TB, en voor je OS 1.89(ofzo) TiB, dus de Tebibyte.
Windows geeft ten onrechte TB aan terwijl daar TiB moet staan, daar gaat het dus mank.

TB = 1000^4 en TiB = 1024^4. TiB is dus het binaire stelsel van 512, 1024, enzovoort, en TB in het SI opgenomen en gewoon 100, 1000, enzovoort.

Iig ik kan me voorstellen dat de grens bij 2TiB ligt (dus 2.1 ofzo TB) omdat schijven met blocks van 4K werken (de nieuwste ook niet meer maargoed) dus het binaire stelsel gebruiken.

http://en.wikipedia.org/wiki/Terabyte

[Reactie gewijzigd door _eXistenZ_ op 8 februari 2010 13:45]

Goh, en ik dacht de hele tijd dat TiB / GiB etc juist de 'marketing' TB was, dwz 1.000.000.000 bytes. Bedankt voor de correctie.
Het is niet de fout van Microsoft. Vanuit het verleden heeft de hoofdletter T altijd voor 1024 gestaan en de t voor 1000. Net als de B voor byte en de b voor bit.

Echter de harddiskfabrikanten wilden graag naam maken met zo hoog mogelijke getallen. Een harddisk met 1024*1024MB aan ruimte voor 1 TB verkopen of een voor 1000*1000 'mB' verkopen als 1 TB... Dan is de keuze snel gemaakt. 1.099.511.627.776 vs 1.000.000.000.000 is toch bijna 10% lucht die je verkoopt! Een 1TB disk is dan ineens maar 931,32GB groot.

Is zie het hele MiB verhaal puur als een bijverschijnsel om de vanuit het verleden gemaakte fout van harddiskfabrikanten uit commerciele overwegingen op te lossen.

[Reactie gewijzigd door Fairy op 8 februari 2010 14:50]

Nee, sowieso was het allebij al met een hoofdletter T, heeft niks met T of t te maken. Je verhaal klopt van geen kant. Bytes / bits wel, maar niet de hoeveelheid bytes of bits.

Is ook gewoon hier te lezen: http://en.wikipedia.org/wiki/Terabyte

En K / k is een uitzondering (Zie JEDEC-tabelletje rechts)

[Reactie gewijzigd door _eXistenZ_ op 8 februari 2010 15:10]

Met _eXistenZ_, je verhaal gaat nergens over.
Echter de harddiskfabrikanten wilden graag naam maken met zo hoog mogelijke getallen
Nee, dit is traditioneel zo gegroeid. Vroeger was het namelijk helemaal niet gebruikelijk om hoeveelheden bits met tweemachten aan te geven. Niet met hardeschijven en ook niet met snelheden (bits per second eenheden zijn vandaag de dag ook nog altijd met SI prefixen - een 20 Mbit internetaansluiting geeft je 20.000.000 bps). Wel zie je tegenwoordig op de meeste (alle?) schijven een voetnoot met "1GB = 1.000.000.000 bytes"
@Fairy:
de hoofdletter T altijd voor 1024 gestaan
Dat is natuurlijk onzin. Harddisk fabrikanten hebben zich al sinds den beginne (1956!) gewoon gehouden aan het SI-stelsel. Het was door luiheid van programmeurs dat ze met een "kilobyte" (letterlijk zo uitgesproken) gewoon 1024 bytes bedoelden.
Pas in 1998 (!) werden de kibi, mebi, etc. grootheden door het IEC in het leven geroepen, omdat de verschillen met de SI grootheden te groot werden en niet meer verwaarloosd konden worden. Het was ook gewoon verwarrend.
1000*1000 'mB' verkopen als 1 TB
'mB' zou milliByte zijn volgens het SI stelsel :P

[Reactie gewijzigd door Fireshade op 8 februari 2010 16:09]

Zo is het inderdaad ongeveer geweest, alleen was het geen luiheid van de programmeurs. In die tijd, waren computers gewoon nog niet zo snel. Na elke regel code werd er opnieuw nagedacht, het de code korter kon gemaakt worden. Een van de oplossingen was 1024 gebruiken ipv 1000, zodat de conversies veel eenvoudiger werden. Dit spaarde veel lijnen code, waardoor het programma sneller werd en minder plaats innam op de HD. Dus wat jij nu als luiheid ziet, is vroeger toch goed over nagedacht. Natuurlijk heb je gelijk dat het een goede zaak is er nieuwe grootheden zijn gemaakt omdat er wel degelijk een verschil is.

Tegenwoordig worden veel programma's tijdens de compilatie geoptimaliseerd. Hoewel sommige programmeur wat teveel rekenen op de compiler. Ook voor script-talen is het tegenwoordig geen probleem meer. De cpu's zijn snel genoeg om de vele regels te verwerken en aan plaats is er ook geen tekort meer.

Eigenlijk is er daarom ook geen echte reden meer om nog te willen vasthouden aan de binaire notatie. Het SI-stelsel zou dus de voorkeur moeten hebben. (vind ik)
Totale onzin. Programma's maken geen gebruik van voorvoegsel. Zij kennen geen Mi of M. Met de code heeft het dus helemaal niets te maken.

Die voorvoegsels bestaan er puur en alleen voor de mensen die er gebruik van maken.

Voor programmeurs is het vaak handig om in binaire eenheden te werken. Voor normale gebruikers is het alleen maar onhandig.
Het is helemaal niemands fout. Het is alleen verwarrend en daarmee heb je alles gezegt.
Wat je zegt over de harddisk fabrikant is ook gewoon een broodje aap verhaal.
Hoe wil je dit nml. rijmen dat ze bijv, en ik noem nu maar 1 voorbeeld; een disk die ruim 3 TB (SI-tabel) terugdraaien naar precies 3 TB (SI-tabel) ?

Ze gaan helemaal niet voor de hoogst mogelijke getallen, dat zit echt verkeerd tussen jouw oren. Hoef alleen maar te verwijzen naar notabene het hier geschreven artikel om dat te weerleggen.
Fabrikanten zullen waarschijnlijk ook nog dit jaar met hdd's met vijf platters komen, wat de capaciteit op 3,2TB brengt, maar de fabrikanten zullen waarschijnlijk voor een maximum capaciteit van 3TB kiezen.

[Reactie gewijzigd door Madrox op 8 februari 2010 20:11]

Of gewoon nog simpeler... De eerste partitie beperken tot maximaal 2TB ( je Boot Partitie), en dan een 2de met 1TB...

Deden we vroeger ook met een aantal andere leuke HD limieten ( is niet de eerste keer, dat dit gebeurt in de HD geschiedenis. Ik voel me oud :D ).

Daarbij, een slimme persoon maakt altijd een kleine boot partitie, met zijn Windows OS erop, en dan een 2de partitie, voor de data, my documents folder, enz... Veiliger, en handiger bij een nieuwe installatie.
Dan zou je GPT en MBRs moeten gaan gebruiken op 1 disk. En nee, dat gaat niet werken (dat was ook mijn idee, een paar 100GB als MBR en de rest als 1 GPTpartitie, maar dat gaat dus niet samen op 1 schijfje). Je zult daadwerkelijk een apart volume moeten gaan gebruiken (of dit volume 1 schijf of een array is maakt dan niet zo ehel veel uit). Dus jouw truukje werkt helaas niet (been there, done that).
Sommige RAID controllers (ook de simpele onboard types), zijn soms in staat om één schijf in een RAID configuratie te plaatsen, en als je geluk hebt, dan kan je soms 2 volumes aanmaken.

Heb dat nooit getest, maar in principe moet het dan wel te doen zijn om 100GB MBR en 2.9TB GPT te maken. Zal kijken of ik daar deze week tijd voor heb, want ik heb het wel vaker gedaan op een systeem met ext3/ext4/FAT32/NTFS/XFS combinaties. Die combinaties werken echter ook met gewone partitionering.

Maar ik zal 2x 2TB schijf pakken, in RAID-0 plaatsen en dan kijken of ik 100GB MBR Boot + 3.9TB GPT data kan aanmaken, wat dan ook moet werken op 1x 3TB als de RAID bios tenminste ondersteuning heeft voor één schijf als RAID volume (loopt meestal via JBOD ondersteuning).
Maar dan maakt je controller 2 volumes aan. Wat ik al zei, het maakt niet zoveel uit of je volume nu een disk of een array is, je kunt op dat volume niet GPT en MBR tegelijkertijd gaan gebruiken.
Dus wat jij zegt is idd een goede manier, meerdere volumes maken en dan moet het wel lukken (maar dat heb ik zelf nooit geprobeerd).
Dat gaat zeker werken, kan ik je melden ;)

De enige beperkende faktor is de harddisk controller; als die het niet aankan, is het feest over.
Gelukkig kunnen de harddisk controllers vandaag de dag veel hebben.

[Reactie gewijzigd door Madrox op 8 februari 2010 16:38]

Via een RAID5 werkt het wel, 2 volumes waarvan 1 MBR en 1 GPT. Dan zal het met een enkele schijf ook wel gaan als het je lukt om 2 volumes aan te maken.
Ik moet je helaas weer corrigeren.

Windows Server 2003 kan booten van een GUID/GPT boot disk via Itanium.

Windows Server 2008, Windows Vista en Windows 7 hebben ook geen probleem met een GUID/GPT boot disk, als je de 64-bits editie en EFI gebruikt. Heb er zelf één draaien (2008) met een 20TB volume.

Nu is 64-bit geen probleem tegenwoordig, ook niet voor consumenten versies, en alle nieuwe computers waar zo'n 3TB schijf in gaat zullen Windows 7 draaien. De beschikbaarheid van een EFI moederbord is echter wel schaars. Er zijn echter genoeg server en workstation moederborden die het goed ondersteunen, en het begint ook langzaam door te dringen tot de consumenten markt modellen (ik heb geen zin om de volledige lijst van huidige beschikbare EFI borden op te zoeken).

GigaByte is bijvoorbeeld zo'n fabrikant die het goed in orde heeft, en daarom ook zo populair is bij de Hackintosh community, omdat er verschillende EFI firmwares beschikbaar zijn voor vele van hun moederbord modellen. MacOSX draait namelijk via EFI.

PS: Als je Windows 7 of Windows Server 2008 op een EFI systeem met GPT boot wilt installeren, dan heb je deze instructie nodig (scheelt je de uurtjes die ik zoet was om de problemen op te lossne): http://technet.microsoft....rary/dd744321(WS.10).aspx

[Reactie gewijzigd door Ron.IT op 8 februari 2010 14:23]

Voor GTP heb je
1) moderne BIOS nodig die GTP ondersteund (en deze optie staat standaard af)
2) GTP compliant OS nodig : Vanaf Vista dus
3) 64bit windows versie
4) NTFS, EXT4, ofzo...maar geen FAT32 dus...

je komt de limitatie vnl tegen als je een RAID volume maakt...bijv 5x 1terabyte en je kunt ze niet zien onder windows
Zat het probleem niet enkel bij hardware RAIDs? (geen idee hoe windows omgaat met z'n RAIDs, komt over het uiteindelijke volume nog een partitie?)
Dat geldt dus alleen voor booten, om geen verwarring te scheppen. Voor gewoon GTP is niet meer dan een sofware update en kan ook op 32bits, zie mijn post hieronder.

[Reactie gewijzigd door Causing op 8 februari 2010 15:19]

Je bent vast in de war met geheugen op een 32bits systeem. Dat is 2^32bit = 4gb, hoewel bits hier ook een belangrijke rol spelen.

Een sector op bijna alle schijven is 512Bytes, dus 32bits heeft 2tb als max (2^32 * 512). Voor boven de 2tb moet je inderdaad naar een GUID Partition Table (GPT). GPT gebruikt een 64bits LBA(logical block addressing), die je nooit vol kan krijgen.

GTP ondersteund tot 18 exabytes (2^64 blocks), maar windows systemen zijn gelimiteerd tot 256 terrabyte per partitie.

GTP op 32bits systemen worden gedraaid door middel van een 64bit LBA . Zo kan server 2003 (met SP1) en windows 7 x86 ook nog met GTP overweg.

Met andere woorden: om volumes groter dan 2tb te hebben heb je meer dan 32bits LBA indexing nodig, en dat kan dus ook op een 32bits systeem. Om marketing redenen doet Microsoft dit niet in Windows XP 32bits.

Met GTP moet je ook rekening houden met kleinere schrijven in raid. Als je bijvoorbeeld je 4x 500gb raid0 online gaat migreren naar 5x 500gb kan dat opeens niet met behoud van je data, want je moet naar GPT en dat betekend alles backuppen. So be ware for data loss :)

[Reactie gewijzigd door Causing op 8 februari 2010 14:26]

Zoals je aangeeft waren sectors tot nu toe altijd 512 B, echter nieuwere (grote) schijven zouden wel eens sectors van 4kB kunnen krijgen (WD is daar al mee begonnen). Ook daarvoor is een nieuw OS beter omdat het de disc-blokken wel moet "alignen" met de FS blokken (anders kost het enorm performance).
Zo kun je volgens mij weer door tot 16GB :9
Naar buiten toe zijn deze schijven (met 4 kb fysieke sectoren) gewoon 512 b. Dus dat lost niet op; grens blijft daardoor nog steeds bij 2 TB liggen.
Mooi hoor.
Mja, het zou eigenlijk raar zijn als het niet omhoog ging.

[Reactie gewijzigd door Soldaatje op 8 februari 2010 13:31]

Het oude gezegde dat de harde schijf ruimte ieder jaar verdubbeld gaat volgens mij de laatste paar jaar al niet meer op. Volgens mij is 2TB al een jaar lang het maximum.
Was het niet iedere 1,5 jaar?
Wat is de maximale partitie grootte van NTFS? Volgens mij 2TB.

Hoe wordt dit dan opgelost?

[Reactie gewijzigd door NeoX17 op 8 februari 2010 13:32]

Dat is geloof ik 16 Exabyte ofzo. Gaat nog wel even duren voordat we dat bereiken :P.
[edit]
Niet helemaal dus, dat is de max filesize.

264-1 clusters is de max partitie grootte. Dus dat hangt een beetje af van de clustersize.
Zie http://en.wikipedia.org/wiki/NTFS

[Reactie gewijzigd door TERW_DAN op 8 februari 2010 13:39]

Het is inderdaad 16 Exabyte, maar dan heb je wel clusters van 4GB (lijkt mij ook niet zo handig :))
niets mis met clusters van 4GB lijkt me. Als je daadwerkelijk zulke hoeveelheden data hebt dat je 1 volume van 16EB nodig hebt zullen die files ook wel gigantisch zijn, dan is 4GB voor 1 cluster best te accepateren. Zijn je files kleiner dan is het raadzaam eens een fatsoenlijke datastructuur te gaan gebruiken waarbij je data over meerdere volumes kan verspreiden :P
Als je harddisk dan kapot gaat ben je wel hééél veer mp3tjes kwijt (offehhh mp6jes)
Het is inderdaad 16 Exabyte, maar dan heb je wel clusters van 4GB (lijkt mij ook niet zo handig :))
Netware heeft cluster-re-allocation.
Misschien dat NTFS dat straks ook heeft.
we hebben nog wel even te gaan dan hoor:

In theorie is de maximale volumegrootte in NTFS 264-1 clusters. In Windows XP Professional is dit echter in de praktijk maar 232-1 clusters. Met standaard 4 kB-clusters geeft dit een maximale grootte van 16 terabytes per volume.

bron : wiki
Meerdere partities op een hardeschijf? Ik neem niet aan dat mensen een partitie van 4 TB willen hebben... Op het moment nog niet denk ik dan.

Er moet sowieso een nieuwe bestandssysteem komen, want NTFS begint te verouderen.
Er moet sowieso een nieuwe bestandssysteem komen, want NTFS begint te verouderen.
NTFS is toch redelijk schaalbaar? Het mag dan wel 20 jaar oud zijn in de basis, maar er worden regelmatig nieuwe versies uitgebracht (de huidige is versie 3.1 die geïntroduceerd is met XP/2003).
Ehh jawel?

Waarom zou je allemaal aparte partities willen als je nu met een raidcontroller al over de 16TB kan die je hierboven word genoemt. Het is dan juist zonde om allemaal aparte partities aan te maken.
Waarom zou je geen partitie van 4TB willen hebben?

Heb vroeger ook vaak zat met parrtition magic zitten kloten om on the fly mijn windows partitie of mijn media partitie te vergroten.

Ik heb mijn 2TB NAS met 2 schijven nu gewoon als 1 volume ingedeeld, nooit meer gedoe tot dat alles vol zit. Ik kan toch niet voorspellen hoeveel % software/muziek/film/doumenten ik over een jaar heb.

Alles zit gewoon onderverdeeld in mapjes, welke je nog een driveletter kan toekennen in windows ook...als je het belangrijk vind.

Kijk windows op een aparte partitie, andere OSsen op hun eigen partitite, prima, maar bestanden mogen bij mij allemaal op 1 partitie.
Meer controle over fragmentatie...?
Minder gevolgen van een corrupt file systeem?
Gemakkelijker backup beheer (ok, dit kan afhangen van hoe je backupt)
(ik neem een image van mijn bootpartitie, dus is het interessant als die niet *te* groot is)
...
Maar ik ben wel met je eens dat het kiezen van partitiegroottes een moeilijke zaak is.

[Reactie gewijzigd door V_J op 8 februari 2010 14:24]

even google:
zie ik even snel voorbij komen :

http://technet.microsoft..../cc779002%28WS.10%29.aspx

NTFS:
Aanbevolen minimale volumegrootte is ongeveer 10 MB.

De maximale grootte van volumes en partities is 2 terabyte (TB) of meer. Zo kan een dynamische schijf met een standaardclustergrootte (4 kB) partities van 16 TB minus 4 kB hebben

:D

[Reactie gewijzigd door Omemanti op 8 februari 2010 13:37]

kom maar op,
steeds meer steeds kleiner,

Als het allemaal ook nog eens betaalbaar zou worden :D
krijgen we dan misschien ook schijven van 1TB voor 45 euro..
Op een gegeven moment krijg je het toch niet meer vol... Mag je dan nog zoveel films bewerken of downloaden, je krijgt er consument in iedergeval een dagtaak bij..

@BP_LOZ
het blijft een mooie quoot :)

[Reactie gewijzigd door Omemanti op 8 februari 2010 13:37]

Dat ging over geheugen en niet hdd ruimte.
Dat ging over werkgeheugen. Niet schijfruimte.

And boy was he wrong!
"640K ought to be enough for anybody." - Bill Gates, 1981
Alleen jammer dat Bill Gates dat nooit gezegd heeft ;)

[Reactie gewijzigd door blobber op 8 februari 2010 13:49]

Er is al naar gezocht maar er is niemand die het rechtsreeks gehorod heeft nog is er 1 stuk bewijs van. Daarnaast zei hij dat hij al even domme en nog dommere dingeng gezegd heeft maar dat niet.
Lijkt mij eerder een uitspraak van Steve Jobs. Bill was niet echt een hardware man zoals Steve Jobs dat was.
Je moet niet vergeten dat de bestanden ook telkens groter worden. Een 720p rip van een film is al minimaal 4,4GB. Een serie van 20 minuten in 720p is ook al 550MB tegen de oude 170MB. Ook mp3's zullen langzaam verdwijnen om plaats te maken voor lossless audio formaten.

Zeker met de opkomst van glas zullen de hdd's nog even moeten groeien om de constante stroom van media aan te kunnen.
Glas, media / films on demand, HD video / audio, en natuurlijk de power user (video / afbeeldingbewerkers). Ja, opslagruimte en internetsnelheid zijn nog lang niet aan hun limiet.
Op een gegeven moment krijg je het toch niet meer vol...
Hah... Een uitspraak uit de oudheid... Die heb ik ook wel eens horen vallen over mijn 540MB harddisk.

We hebben zelf een HD camera waar we nogal wat mee filmen en die AVCHD bestanden die tikken toch lekker door, hoor. Terrabyte zit zo vol.
Hopelijk zakken de 2TB dan weer netjes door naar het niveau van 1,5 TB nu, daar zit per GB ~30% prijsverschil tussen in 1 lijn.
Limiet van een NTFS schijf is 256 TB, dus nog niet onmiddelijk panikeren ;)

De maximale bestandsgrootte is iets van een 2TB

Edit: blijkbaar slechts 16 TB per volume.

[Reactie gewijzigd door GSamson op 8 februari 2010 13:35]

256TB is het limiet, met het gebruik van 64kB clusters, maar het kan vele malen groter als je de clusters groter maakt.

De max bestandsgrootte ligt veel hoger, 16EB, niet 2TB :).
Waar heb je het over? Die limieten die je noemt worden veroorzaakt door de NTFS implementatie in Windows, de theoretische limiet ligt op 8 EiB. :)
Blijft me verbazen dat iedere keer wanneer ik een grotere hdd krijg, ik hem toch weer vol krijg.

Vroegah was je blij met 4mb harddrive space, nu zit ik al tegen 1tb aan binnen 6 maanden. Komt waarschijnlijk ook dat films betere qualiteit worden en dus meer hdd space verbruiken, maar waar is de limit?
Die is er niet, als je meer mogelijkheiden krijgt gebruik je die. SIMPEL ;)
Een harde schijf is als een zolder; hoe groter, hoe meer 'rommel' je erop gooit :+
edit; Nog maar nauwelijks enkele jaren terug moest je om dvd's te back-uppen die dingen nog comprimeren om ze op 2-3 cd-rommetjes te zetten. Nu laat je zelfs Blu-ray's geript ergens op een harde schijf staan.

[Reactie gewijzigd door Entr_opy op 8 februari 2010 14:56]

Mijn eerste PC (gekocht door mijn vader) had wel 20 MB aan boord. (ergens begin jaren 90). Mijn eerste zelf gekocht pc had wel 850 MB aan boord (1995, of daaromtrent). In 2000 kocht ik een PC met wel 20 GB. Mijn voorlaatste PC van inmiddels ook een jaar of 7 oud had 40 GB aan boord. En mijn nieuwste PC van een maand oud heeft 1 TB aan boord.

En na dus welgeteld 1 maand loopt de HDD van mijn pc al weer een factor 3 achter op wat verkrijgbaar is. 8)7
Er staat 3 TB aan het eind van dit jaar.
'vroeger' had je ook groote games. Dune was gewoon 6 diskette's ARJ-gecompressed :+

vroegah :P
Mijn eerste PC had niet eens een harde schijf, maar alleen 2x 5.25" floppydiskdrives. En nu heb ik een balpen met 4gb flashgeheugen in de achterkant.
Toen je hem kocht liep je al een factor 2 achter, dus tegen het eind van het jaar een factor 3 valt ook nog wel mee :)

Belangrijker is de vraag of je er iets mee doet :)
De pc van mijn ouders heeft 250 gb, waarvan 80% nog leeg is,
Ik 9TB en loop nog tegen beperkingen aan, tis maar waar je het voor nodig hebt :)
Meen dat NTFS rond de 14 á 16 TB zat dus dat zal het probleem niet zijn.
Probleem wordt denk ik zoals hierboven ook wordt gesuggereerd dat pc's dit niet meer gaan trekken (met name de oudere pc's met pentium 4 bijvoorbeeld)

maar goed ik heb zelf ook 2TB schijf in pc zitten (ook omdat andere schijf na 3 jaar dienst onderuit ging) moet zeggen t gaat allemaal wel vlotjes.
Dat heeft natuurlijk niet zo heel gek veel te maken met de leeftijd van je systeem. Als je daar een OS opgooit dat overweg kan met deze grootte van schijven dan gaat het prima werken. Het limiet ligt bij de software, niet zozeer bij de hardware, en al helemaal niet bij de cpupower.

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Websites en communities Lumia Smartphones Laptops Sony Apple Games Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013