Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties
Bron: Maxtor

Maxtor heeft in een press-release bekend gemaakt dat ze aan het einde van het jaar de 137GB zullen passeren voor ATA drives. Maxtor doet dit in samenwerking met Compaq, Microsoft, VIA Techhnologies, ONTRACK Data International en StorageSoft. De standaard zal het in de toekomst mogelijk maken om schrijven met een capaciteit van 144 petabytes te produceren. Het passeren van de 137GB barrière zal de gemiddelde computeraar niet veel uitmaken. Op dit moment is de gemiddelde capaciteit op een PC ongeveer 20GB. Rond 2005 zal dit op ongeveer 100GB komen te liggen. Hieronder een stukje press-release:

Maxtor logo"On average, we hit a capacity barrier every six years," said Dave Reinsel, senior research analyst, IDC. "At the current rate of storage, reaching 144PB will take care of the industry's capacity issues for the next 20 years."

The "Big Drive" interface initiative succeeds in breaking through the barrier with an upgraded ATA interface allowing for up to 48 bits of address space on a single drive, and therefore the maximum capacity of an ATA device up to 144PB.

dioser@work stuurde de tip.

Lees meer over

Gerelateerde content

Moderatie-faq Wijzig weergave

Reacties (100)

Wat is een petabyte? Ik ken wel de voorvoegsels Tera en Exa, komt peta daarna? En dan nog moet peta volgens mij Peta zijn omdat vergrotende voorvoegsels met een hoofdletter horen zover ik weet...
Hij gaat zo :

kilo 1000^1 1024^1 = 2^10 = 1,024
mega 1000^2 1024^2 = 2^20 = 1,048,576
giga 1000^3 1024^3 = 2^30 = 1,073,741,824
tera 1000^4 1024^4 = 2^40 = 1,099,511,627,776
peta 1000^5 1024^5 = 2^50 = 1,125,899,906,842,624
exa 1000^6 1024^6 = 2^60 =
1,152,921,504,606,846,976
zetta 1000^7 1024^7 = 2^70 =
1,180,591,620,717,411,303,424
yotta 1000^8 1024^8 = 2^80 =
1,208,925,819,614,629,174,706,176

Info komt hier vandaan
Thanx,
Als ik die info daar goed lees staat er ook dat er voor Peta nog geen afkorting is, dus die P hebben ze gewoon maar ff zelf verzonnen bij Maxtor? (Lijkt ook wel logisch gezien de andere afkortingen, daar niet van...)

ff verder gezocht (handig; raging.com :) ) En volgens mij is de P toch een erkende afkorting. Op de site van NIST (SI staat op http://physics.nist.gov/cuu/Units/index.html ) staat namelijk gewoon de P als afkorting. ( http://physics.nist.gov/cuu/Units/prefixes.html ) Raar trouwens dat er geen SI.int site is oid.. Ik weet dat dit wat offtopic gaat, maar goed ik denk dat het wel belangrijk is, nu al is er soms verwarring over capaciteiten etc.
Dan wordt het "bedriegen" door HDD-fabrikanten steeds erger:
nu:
20*1000=20000MB
20*1024=20480MB
verschil: 480 meg (valt wel mee)

137*1000=137000MB
137*1024=140288MB
verschil:
3.288 MB,
oftewel: makkelijk Diablo II
Ach ja, die verhalen blijven iedere keer de op op steken. Natuurlijk wordt het bedrog steeds groter in absolute zin. Maar de programma's worden daarentegen ook steeds groter. Relatief blijft het verschil altijd 2,4% (1024/1000*100%) Dus ik vind het allemaal nogal meevallen. Pas als programma's niet echt veel groter meer zouden worden zou je het verschil echt merken. Nu blijven de verhoudingen ongeveer gelijk :*)
het grootste dataverlies zit hem volgens mij nog steeds in je filesystem ik weet dat iig bij fat32 er nog steeds geen meerdere (delen van) files in 1 cluster kunnen. dat betekend dus dat als je bijvoorbeeld een clustergrootte van 16K gebruikt je gemiddeld 8K ruimte weggooid per file. bij 32K clusters is dit gemiddeld zelfs 16K per file. Dit kan dus aardig in de cijfers lopen vooral als je heel veel kleine bestandjes op je HD hebt. Ik weet het niet zeker maar volgens mij is dit bij de meeste files systems, ook ntfs iig. Je moet je dus nooit te strikt aan zulke cijfers houden.

edit:
Ik heb ff gekeken op mijn schijf en het valt bij mij nu nog mee is toch maar 20MB van de 10GB data dat is wel met clusters van 16K win2k geeft het verschil overigens zelf direct aan
Hoeveel A4 tjes vol zijn dat ?
zowel deca (10), hecto (100) als kilo (1000) worden in ieder geval met kleine letters geschreven.
Mega (10^6) met een hoofdletter, net zoals Giga (10^9), Tera (10^12), Peta (10^15), Exa (10^18), Zetta (10^21) en Yotta (10^24).
Ik dacht dat als kilo of mega met een leine letter werden geschreven dat ze dan volgens het decimale stelsel 1000 en 1000000 betekenden en als ze met een hoofdletter werden geschreven Kilo en Mega dat ze dan volgens het binaire stelsel 1024 en 1048576 (1024^2) betekenden.

Voorbeeld:

Kilobyte (KB) = 1024 Bytes
kiloByte (KB) = 1000 Bytes

Zo zie je vaak dat harddisks worden gemeten met megaBytes en daarom zit er bijvoorbeeld geen 137 Megabyte op de 137 megaByte schijf die in dit artikel is beschreven. Helaas gaan Harddiskfabrikanten erg makkelijk om met GB's en gBs en kun je er beter vanuit gaan dat ze het hebben over de decimale variant van de GB ;(
Dat klopt niet, want 1 mB is een miliByte :)
Eh volgens mij klopt daar niks van :) Kilo is gewoon altijd 'k' en Mega altijd 'M', en bijvoorbeeld milli is 'm'. Het rekenen in het 'binaire stelsel' zoals jij dat noemt gebeurd volgens mij gewoon automatisch zodra het opslagcapaciteit etc. betreft.

Dat er soms toch vaak met hoofd en kleine letters wordt gestoeid ligt zover ik weet gewoon aan het feit dat veel mensen niet weten hoe het SI stelsel in elkaar zit...
Wat ik me ook nog meen te herinneren ( :+) is dat deze hele computer teminologie afweek van de standaard teminologie. mB was geen milibyte omdat je een byte maximaal in 8 stukjes kan delen (een bit). Een milibyte sloeg dus nergens op.
anders gezegd wil jij zeggen dat één Kb wat KiloBit betekend, slechts 24 bits minder is dan een KB ?? sorry, maar decimaal en binair hebben daartussen geen verschillen imho....
[intussen best wel offtopic]

Nee wat veel mensen gebruiken is:

kb = kilobit (1000 bits)
kB = kiloByte (1000 Bytes)

Kb = Kilobit (1024 bits)
KB = KiloByte (1024 Bytes)

Whatis.com zegt hetvolgende:

http://whatis.techtarget.com/definition/0,289893,sid 9_gci212542,00.html

[/intussen best wel offtopic]
En hoe dienen we 137 GB te backuppen?!? :?

Ik backup nu al zeer selectief met mijn 30 gig.
2 HD 's kopen :)

Maar zitten ze dan niet over de huidige bios grens heen (net als toen met de 8 GB HD's)
Zal wel weer wat problemen geven met installeren van Windows, Linux en het herkennen dan wel booten van de hd's
Flash je tegen die tijd je bios toch met een linuxbios... daaaaag beperking :)

www.linuxbios.org :9
Zal wel weer wat problemen geven met installeren van Windows, Linux en het herkennen dan wel booten van de hd's
Problemen met windows misschien, maar in een aantal gevallen is dat op te lossen door het bios te flashen. Linux heeft er zelden problemen mee. Zo heb ik een 10 Gig aan een 486 hangen. En een 12 gig aan een P90 hangen :) Debian linux had geen problemen. De P90 wil zelfs niet booten van een DOS/windows _floppy_ zolang die HD erin hangt :)

mmm, linuxbios ja. Errug relaxed 8-)
Ik verwacht dat binnen niet al te lange tijd een linuxbios optioneel verkrijgbaar is bij nieuwe systemen. (dell, compaq etc.) Als de hardware er voor wordt geoptimaliseerd kun je nog wel een paar honderd % snelheidswinst halen. En dan in de "biossetup" aangeven welke modules en hdparm settings je wilt :9
Dat zou pas innovatie zijn, zeker voor de tweaker ;)
Wat dacht je van een DLT of dds4 tape?
Kun je dan wel een hele battery HD's van kopen.

Of een DVD+RW met 8 lagen (als die er zijn tegen die tijd) hebbie er 8 nodig elke keer.
axtor doet dit in samenwerking met Compaq, Microsoft, VIA Techhnologies, ONTRACK Data International en StorageSoft
Wat hebben MS en VIA met HDD's te maken, volgens mij kan Windows makkelijk 137+ GB adresseren en kunnen de huidige chipsets dat ook. Of willen ze samen de specificaties opstellen voor toekomstige HDD's :?
Via zal er wel voor chipset doeleinde in zitten en ms voor inderdaad de besturingssystemen.
De grote spelers moeten er wel bij zitten anders hebben we over een tijdje weer 3 standaarden, daarnaast heeft MS de laatste tijd de neiging overal bij te gaan zitten, dit was weer een kansje voor hun.

* 786562 TheGhostInc
Uit het volledige artikel:
In addition to Maxtor, notable industry players such as Compaq Computer Corporation, Microsoft Corporation, CMD/Silicon Image (NASDAQ: SIMG), ONTRACK Data International, Inc. (NASDAQ: ONDI), Phoenix (NASDAQ: PTEC), Promise Technology, StorageSoft, and VIA Technologies are all committed to delivering solutions to the 137GB capacity barrier.
Blijkbaar is die 137 GB barriere toch niet zo makkelijk als je zou denken :?
Dat klopt, volgens de al-oude adresseringsmethoden (C/H/S - Cylinders/Heads/Sectors) kun je maar 8 GB aan data adresseren.
Daarom hebben ze het LBA-systeem bedacht.
Die konden 2^28 blokken van 512 bytes adresseren.
144PB is 2^57 bytes (128 * 1024^5)
De nieuwe standaard kan adreseren tot 144 PB, dus het maximaal benodigde aan adres-ruimte is 56 bits.
Dit is precies het dubbele van de LBA-standaard aan adres-bits.
Ik vermoed dus dat de adressering nu in 2 stappen plaats gaat vinden.
Dit heeft een iets grotere impact op de chipsets etc. dan de limiet van 8GB die met een BIOS-uitbreiding op te lossen was (de adressering was toch altijd al hetzelfde op hardware-niveau)
Maxtor de schuifruimte, Microsoft de vulling, denk: MS Office in de 4xDVD versie :+
/off topic

Microsoft heeft wel degelijk wat met hardware te maken, valt te denken aan bijv. het bestandsysteem.
Een HD is meer dan een stukje hardware, anders zit je straks weer te werken met zo'n gare diskmanager.
Denk maar eens terug aan de oude 540mb, 2Gb en 8Gb limieten.
Nou je zal nog versteld staan, waar windows zoal problemen mee heeft, ook al lijken ze onbelangrijk voor zo'n besturingssysteempje. We zijn niet voor niks van FAT16 naar FAT 32 gegaan ;) Dus ook Windows zal zijn limieten wel ergens hebben liggen.

Maar wat ik meer belangrijk vindt van deze hardeschijven dan wat er allemaal wel niet op kan, is hoe snel het er op kan (doorvoersnelheden) en dan vooral als hij helemaal afgevuld is met A-cad tekeningen of zo. Want een defragmentatie van zo'n vol HDD'tje zal ook wel de benodigde tijdkosten, of ff een scandiskje omdat Windows weer eens bleef hangen |:(
Er staat in het artikel:
Rond 2005 zal dit op ongeveer 100GB komen
Hiermee bedoelen ze dus de gemiddelde schrijfruimte die een PC tot zijn beschikking heeft.
Ik denk dat het meer zal zijn. Als je nagaat dat vorig jaar nog 4,3Gb schijven leverbaar waren, en nu nog met moeite een 15Gb schijfje te krijgen is. Ik denk eerlijk gezegd dat het veel harder omhoog zal gaan. Systemen met 30/40Gb gaan tegenwoordig als warme broodjes over de toonbank. En ook veel meer mensen richten zich op het videobewerken, en zeggen dan: "doe er nog maar zo een van 60Gb bij". Ik weet niet hoog het gemiddelde in 2005 zal liggen, maar ik ben er bijna zeker van dat het veel hoger zal zijn dan 100Gb.

* 786562 mister
Ik denk dat ze uit gaan van de al jaren geldende exponetiele groeisnelheid van hardeschijven. (beschreven in de zoveelste wet van Moore):
De capiteit van harde schijven op hetzelfde prijsnivo vedubbeld elk 1.5 jaar.

\[reken-modus]
2005-2001=4
4/1.5=2.6
2^2.6=6

6x20=120 GB
\[/reken-modus]

In 2005 zal volgens deze wet dus inderdaad de gemiddelde grote van een harde schijf rond de 100 GB liggen. (give or take 20%)
Ik denk dat ze dus toch gelijk hebben. (mits er gaan rare ontwikkelingen zijn in het koopgedrag van mensen, waardoor ze meer geld aan hardeschijven uit gaan geven.
Hoe lang denk je dat de gemiddelde PC meegaat? Er lopen nog een hoop PCtjes rond van 3, 4 jaar oud die het gemiddelde gigantisch omlaagtrekken.
Als je goed kijkt zijn de prijzen van harddisks niet echt veranderd. Je betaalde vroeger (1992, lol ik wordt oud), voor een 250 MB harde schijf evenveel als nu voor een 40 GB exemplaar. In verhouding (40Gb is nu beetje top of the range, 20 is gemiddeld) veranderd er dus niet. De technologie gaat hard vooruit, wat betekent dat ze er voor hetzelfde geld meer MB's in kunnen stoppen.

Blijft het feit dat je als "normale" computergebruiker niets hebt aan 137 GB, dat krijg je echt nooit vol met een paar spellen en een OS, but then again, dat zeiden ze ook toen de eerste harddisks van 20MB uitkwamen.

/edit
Mr X , refrase : 40GB zit nu in de meeste top of the range/high end computers, ik weet ook wel dat er zat 80 GB schijven te krijgen zijn, maar het is maar een klein gedeelte van de thuismarkt die dat koopt.
/edit
...40Gb is nu beetje top of the range...
Huh??

Hoeveel 80Gb HDtjes wil je hebben?? :)

edit:

quote toegevoegd...
Wat mij intrigeert is hoe men denkt schijven van die grootte bruikbaar te maken. Wat wordt bijvoorbeeld de seektime op een disk die door meer dan 1000 keer de hoeveelheid data van een disk van dit moment moet gaan?

Met filesystemen van deze grootte mag er ook wel wat aan de diverse filesystemen gedaan worden. XFS belooft in ieder geval wel ondersteuning voor dit soort monsterachtige hoeveelheden. Wat dat betekent voor de sector-grootte valt ook nog te bezien.

NTFS biedt ook ondersteuning voor 2^64 bytes maar daar zitten wel wat
praktische beperkingen aan vast.
worden er niet een hoop dingen ontwikkeld die we niet zo erg nodig hebben? Als iedereen nou alles still alles stopt en eerst eens zorgt dat we solid state drives krijgen. Een Hard disk is zo hopeloos verouderd
cassettes zijn toch ook "uit"?
Een hard disk is hopeloos verouderd?

Nou ik zou echt niet met cd's oid willen werken hoor.. elke keer als ik op start de bootcd erin.. daarna een andere cd erin om drivers te laden.. daarna een andere cd erin om mp3tjes te laden.. daarna een andere cd erin om een spelletje te spelen..

Nee, solidstatedisks blijven echt nog wel een tijdje..
mag ik je ervan verzekekeren dat jij geen enig idee hebt waar je over praat :?
Bij deze:
Jij hebt geen enig idee waar je over praat :)

solid state -> zonder bewegende delen...
Ik kan het niet altijd correct hebben, dat is waar ;)
worden er niet een hoop dingen ontwikkeld die we niet zo erg nodig hebben? Als iedereen nou alles still alles stopt en eerst eens zorgt dat we solid state drives krijgen. Een Hard disk is zo hopeloos verouderd cassettes zijn toch ook "uit"?
Dus jij vindt dat de HDD fabrikanten maar moeten stoppen met het ontwikkelen van grotere en betrouwbaardere HD's en zich volledig toe te leggen op Solid state HDD's :?

Bedrijven kunnen heus wel aan meer dan een ding tegelijk werken, ze hebben immers meestal hele grote R&D afdelingen.

Maar totdat Solid state betaalbaar en produceerbaar is ben ik blij dat er steeds grotere en betrouwbaardere HDD's uit komen.
Emmm.... hebben ze het er hier niet over dat er een nieuwe standaard/ interface komt? En dat die 137 GB de max is die de huidige standaard aankan (ata100?) . De nieuwe, 48 bits addressering laat de 144PB toe per enkele HD. Dit verklaart ook waarom er zoveel bedrijven bij dit project betrokken zijn.Anders zitten we inderdaad weer met 3 of meer verschillende standaards...
Dat wil dus niet zeggen dat er al snel zulke drive's komen...
JM2C's...
Ja volgens mij is dat ook de hele reden van dit bericht dat ze met de huidige snelheid zo aan het maximum zitten en er dus een nieuwe standaard moet zijn. En dat hebben ze nu samen met die andere grote bedrijven bereikt. Dus nu kunnen ze weer een tijdje vooruit totdat ze bij de 144PB zijn.

Maargoed, mijn 40GB zit nog lang niet vol en dat zal ook niet zo snel gebeuren. En anders kopen we er over een jaartje wel een 100Gb ofzo bij. :)
In het blad Natuur & Techinek staat dat binnen niet al te korte tijd de snelheid van de harde schijf de beperkende factor wordt in het hele computersysteem. Volgens dat blad wordt er al driftig gezocht naar alternatieven, zijzelf introduceren er ook een paar. :?
www.natutech.nl:

De harde schijf maakt sinds zijn uitvinding een stormachtige ontwikkeling door. Jaarlijks verdubbelt de opslagcapaciteit. Deze halsoverkopsnelheid brengt de fundamentele grenzen aan de ontwikkeling snel dichterbij. In twee artikelen exploreert Natuur & Techniek de technologische uitdagingen. Deze maand deel 1: de grenzen aan de groei.
Door: Leon Abelmann


Jammer dat er geen volledig stuk op staat :(
de harde schijf IS al de beperkende faktor. Iedereen die wel een ram-disken gemaakt heeft en daar bijv progjes op gezet heeft ziet het snelheids verschil. Een PC is compleet uit balans zoals ze nu zijn. Gare knaken bakken.
Een tijdje geleden hadden ze het toch over holografische harde schijven en dat je dan bij elke invalshoek er weer een hoop capaciteit erbij krijgt?

de snelheid van je computer ligt nu al het meest aan je harddisk.
Daarom is IDE-raid ook zo interessant geworden om toch je HD-sneldheid flink om hoog te krijgen. Maak maar eens een raid 0 configuratie van 4 identieke 7200rpm schijven. De sneldheid zou dan in theorie 4x zo hoog moeten worden. alleen wordt dit in de praktijk net niet helemaal gehaald. Maar het schilt echt een hoop.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True