Toshiba wil in 2027 de eerste 40TB-mamr-hdd's met twaalf platters uitbrengen

Toshiba wil in 2027 zijn eerste '40TB-klasse' harde schijven op de markt brengen op basis van twaalf platters. De hdd's, bedoeld voor datacenters, zouden voor het eerst bestaan uit twaalf van dergelijke schijven en zouden gebruikmaken van mamr-technologie.

WD toont mamr-technologie
Bron: Western Digital

Doorgaans gebruiken schijven van een dergelijke opslagcapaciteit tien of in enkele gevallen elf platters. Dankzij de extra platters stijgt de datadichtheid van de hdd, waardoor er meer opslagruimte in een standaard 3,5"-hdd verwerkt kan worden. Toshiba spreekt over een 40TB-klasse hdd, wat zou kunnen betekenen dat er ook nog hogere opslagcapaciteiten op de markt komen. Verdere specificaties zijn nog niet bekendgemaakt. Op vrijdag 17 oktober staat er een symposium gepland waar Toshiba naar eigen zeggen meer informatie over de 40TB-mamr-hdd wil geven.

De harde schijf moet gebruikmaken van microwave-assisted magnetic recording, ofwel mamr. Deze tegenhanger van heat-assisted magnetic recording maakt gebruik van microgolven in plaats van een laser om een hogere datadichtheid op een platter te bereiken. Mamr gebruikt een spin torque oscillator bij de schrijfkop om een elektromagnetisch veld te genereren. Dit verlaagt lokaal de magnetische weerstand van de platter, wat het mogelijk maakt om gegevens in een hogere dichtheid en met een kleinere schrijfkop te schrijven. Hamr doet dat door een platter lokaal te verhitten met een laser, wat ook de magnetische weerstand verlaagt.

Vooralsnog zijn er relatief weinig harde schijven beschikbaar die mamr-technologie gebruiken; de schrijftechniek is nog relatief nieuw. Toshiba gebruikt de techniek al wel, onder meer voor de 18TB MG09-hdd's.

Door Yannick Spinner

Redacteur

14-10-2025 • 10:35

48

Reacties (48)

Sorteer op:

Weergave:

Ongeloofelijk veel. Wanneer lopen we tegen de fysieke grenzen aan van datadichtheid?
Met de Bekenstein bound en wat rekenwerk ongeveer 10^50 petabyte in 1cm3 materie. We hebben dus nog even.
Dat is kubiek, een schijf is flinterdun (0.00012 cm3 in magnetisch materiaal). Daarnaast heb je om op die niveaus te werken ook koeling dichtbij 0K nodig. Ik denk dat praktisch gezien we tegenaan de 200-500TB (~10 jaar ontwikkeling) tegen problemen zullen lopen terwijl 250TB SSD dit jaar al beschikbaar zijn. Qua kost (ruimte en energie) zijn SSD nu al bijna goedkoper voor de datacenters.

De vraag voor data gaat al een tijdje sneller dan de harde schijven kunnen ontwikkelen. We zien elk jaar een 25-30% groei in de hoop data (en met LLM gaat dit nog sneller gaan) maar capaciteit van de harde schijven verdubbelen maar elke 4 jaar (2021 was de 20TB schijf), de schijven houden het dus niet meer bij. SSD aan de andere kant verdubbelen jaarlijks.

Het grootste probleem met een 40TB schijf is dat de throughput en IOPS niet omhoog (kunnen) gaan, 7200RPM is het maximum voor deze densiteit. Om deze 40TB schijf te herbouwen in RAID zal het ~20 dagen duren. Veel te lang voor “gezonde” data. Een 400TB schijf zou bijna een jaar nodig hebben, volstrekt onbruikbaar.

[Reactie gewijzigd door Guru Evi op 14 oktober 2025 13:29]

Het grootste probleem met een 40TB schijf is dat de throughput en IOPS niet omhoog (kunnen) gaan
In de praktijk is dit een veel kleiner probleem dan je zou denken.

Zulke schijven zijn bedoeld voor de hyperscalers, en die gebruiken ze in clusters van duizenden schijven. Ze gebruiken geen RAID op individueel serverniveau, maar op datacenterniveau. Throughput van een individuele schijf is irrelevant als je een groot bestand tegelijkertijd van tientallen schijven kan lezen. Seek latency is irrelevant als tien kleine bestanden elk van een eigen schijf komen.

Hetzelfde geld voor recovery. Je bent niet één schijf aan het herbouwen, je laat honderden schijven elk een klein beetje data naar honderden andere schijven schrijven. Die ene schijf opvullen zal een tijdje duren, maar de redundancy van je data heb je in een paar seconden al weer terug.

Het leukste is dat dit beter werkt naarmate je groter bent. Bij een cluster van een paar honderd schijven kan je tegen issues aan lopen als populaire bestanden toevallig op dezelfde schijven terecht komen, maar bij tienduizenden schijven is dat statistisch onmogelijk, en alle schijven zullen praktisch dezelfde load krijgen.

Als je meer wil weten, deze blog post over AWS S3 is een goed begin.
Inderdaad, maar de hyperscalers stappen over naar SSD vanwege de kost en om AI te trainen.

Een van de problemen met AI is dat ze al hun data in parallel nodig hebben. Het is moeilijk in te schatten welk stukje data dat ze voor de context nodig zullen hebben. Dus schijven die vroeger 'stilgezet' konden worden en enkel data streamden indien gevraagd staan nu continue te draaien omdat een LLM een referentie naar een stukje data heeft en de doorvoer van duizenden schijven vallen in het niets tov een paar honderden SSD.

De kost in de datacenter per TB is meer en meer energie-gebonden (en ook plaats). Een 3.5" bevat nu 40TB, terwijl je in een veel kleinere 2.5" schijf 250TB kan bevatten die ook 4x minder energie kost. Wij hebben die vergelijkingen ook recent gemaakt en het kost 1M meer in kosten per jaar om een rack te vullen met 3.5" schijven en laten draaien tov een VAST cluster dat in 8U past. Dat de aanschaf van VAST een half miljoen meer kost is irrelevant.
Integendeel, AI zorgt voor een enorme vraag naar HDDs. SSDs zijn nou eenmaal een héél stuk duurder, en je hebt de iops gewoon niet nodig voor het grootste deel van de AI training. Het draait om de cumulative bandwidth, en de HDD-clusters van de hyperscalers zijn dusdanig groot dat dát geen enkel probleem is.
Dank voor het delen van de link (tevens het bewijs van de meerwaarde van het instituut Tweakers)!
We hebben reeds meerdere (https://tweakers.net/pricewatch/compare/2124868;2181466/) SSD's op 2.5 inch formaat van 60 terabyte. Qua datadichtheid is dit dus zeker geen stap, deze harde schijven hebben minder capaciteit maar zijn groter dan de beste SSD's.
Vergeet de dataretentie en datarecovery niet. Voor langdurige archivering is SSD niet ideaal.

Informatie die middels MAMR of HAMR is vastgelegd op een platter is een stukje stabieler/ langdurig zekerder dan informatie in een setje gestapelde TLC of QLC vertikaal gestapende nand-chips. Ook voor herstel van gegevens maakt het nogal verschil of het gaat om magnetische informatie op een platter of spanningsverschillen in halfgeleiders.
Bijt jezelf niet vast in het verleden.

EaseUS “Is SSD of HDD beter voor langdurige opslag?” Dit artikel bespreekt tests en expertinzichten en concludeert dat SSD's geschikt kunnen zijn voor langdurige opslag, mits goed beheerd.
https://www.easeus.com/disk-copy/clone-resource/is-ssd-or-hdd-better-for-long-term-storage-02.html

MiniTool Partition Wizard “[Opgelost] Is SSD goed voor langdurige opslag: vroeger vs nu” Hier wordt uitgelegd hoe SSD-technologie is geëvolueerd. Moderne SSD's, vooral als ze goed worden opgeslagen, kunnen betrouwbaar zijn voor langdurige opslag.
https://www.partitionwizard.com/clone-disk/is-ssd-good-for-long-term-storage.html

Darwin’s Data “Is een harde schijf of SSD beter voor langdurige opslag?” Dit artikel benadrukt de fysieke duurzaamheid van SSD's en hun geschiktheid in omgevingen waar mechanische storingen een risico vormen.
https://darwinsdata.com/is-a-hard-drive-or-ssd-better-for-long-term-storage/

Data Science Workbench “SSD vs HDD voor langdurige opslag” Bespreekt de betrouwbaarheid en prestaties van SSD's in professionele contexten, met aandacht voor goede opslagpraktijken.
https://dw-test.elc.ucdavis.edu/ssd-vs-hdd-for-long-term-storage

Reddit r/DataHoarder discussie In deze community delen gebruikers hun ervaringen met SSD's voor archivering. Veel gebruikers zijn positief over moderne SSD's.
https://www.reddit.com/r/DataHoarder/comments/zpt6es/long_term_storage_ssds_vs_hdd/
Mijn achtergrond is Materiaalkunde. Ik wijs je dus meteen erop dat 3 van je 5 bronnen het hebben over "mits goed beheerd". Precies mijn punt. (Het stuk van Darwin's Data gaat over gebruikdsduur, niet over data retentie.)

Fundamenteel is een opgeslagen spanningsverschil minder stabiel dan de orientatie van een magnetisch domein, en al helemaal als dat magnetisch domein alleen van orientatie kan omslaan als het materiaal eerst ontvankelijk gemaakt wordt voor het "flippen". Of dat nou met lokale verhitting werkt of met lokaal oscillerend magnetisch veld op 20-25 GHz.

Het is niet voor niets zo dat SSD vrijwel altijd doet aan overprovisioning en dat de controller netjes aan wear levelling moet doen, iets dat bij magnetische opslag niet hoeft.

[Reactie gewijzigd door JumpStart op 14 oktober 2025 13:34]

Dat mag wel zo zijn. Maar ik heb in mijn leven een 640GB, een 3TB en een 8TB schijf gekocht en allemaal zijn ze overleden. Ik heb nog een 256GB ssd liggen van pak m beet 10 jaar oud. Er is mee gegooit, gefietst, op vakantie gegaan, zeilen etc. En dat ding doet t nog steeds, net als alle ander SSD's die ik heb aangeschaft. Natuurlijk zijjn de wat goedkopere HDD's niet zo goed als de Pentastar's of the WD RED's. Maar ik denk dat de mechanische complexiteit wel een nadeel is voor HDD's. Daarintegen als de platters nog goed zijn kan je vrijwel altijd je data recoveren. Geen idee hoe dat met SSD's is maar dat is vast niet "vrijwel altijd".
De enige schijven die bij mij zijn overleden, hebben allemaal niets te lijden gehad in hun respectievelijke PCs en een 320GB IDE schijf die ik een keer heb laten vallen, doet het nog steeds. Goed, die stond niet aan toen ik hem liet vallen, maar toch. En hoewel SSDs bij mij als betrouwbaar bekend staan, heb ik toch ergens in m'n achterhoofd dat die zonder waarschuwing, net als SD kaartjes en USB sticks, zomaar ineens kapot kunnen zijn, waarbij je dan mag hopen dat je er nog op kan, in tegenstelling tot, in ieder geval bij mij, de HDDs, die ik altijd heb kunnen klonen nadat SMART aangaf dat ze op het punt stonden om te overlijden.
Ik zeg ook niet dat het bestaan van zo'n SSD deze hardeschijven totaal nutteloos maakt ;)
Wat louter bedoelt op de vraag over wat het limiet van datadichtheid zou zijn, dat deze nieuwe HDD's die grens niet opschuiven.

Groter verschil is natuurlijk ook prijs, die 2.5 inch SSD's van 60TB zijn 7 tot 10 duizend euro.
Dat is in prijs per terabyte bijna het tienvoudige van een forse consumenten HDD, dus mocht je een nas van 120 terabyte willen maken zou ik zeker 5 harde schijven van 24 TB aanraden en geen 2x60TB SSD's. (laat staan wanneer je extra RAID schijven meerekent)

[Reactie gewijzigd door Jehare op 14 oktober 2025 16:20]

Tsja, uiteindelijk is het too much en komt er een nieuwe formfactor voor HDD's :+ dan kunnen er weer meer platters in.
Ik zeg 5,25" :) Hoe zullen we ze noemen? Bigfoot?
Sja, kunnen we wel allemaal grappig vinden, maar wat is er mis mee? Metalen disks heb je toch al niet zo veel meer in normale desktops zitten. Dan moet je toch meer aan NAS systemen of servers denken.

Even een bierviltjes berekening: een platter op 5,25" heeft ongeveer 2.25x zo veel oppervlak, en de hoogte van de drive is ongeveer 2x zo hoog, dus je kunt er 2x zo veel platters in kwijt.

De grootste schijf in de winkel is 30TB (datacenter schijven zijn misschien nóg groter), maar even uitgaande van 30TB, x2,25x2 = 135TB.

Voor zo'n 135TB drive moet je anders 4 normale schijven in zetten, en dat neemt toch ook best veel ruimte in.
Ik krijg weer de horrorbeelden voor ogen van tijdens m´n stage.
Het ´neerleggen´ van zo´n disk was al genoeg voor een RMA. :(
RuggenMusculusAandoening ja, die dingen waren zwaar :)

Zeker de 12,7GB variant. Superdik en zwaar, wel "dikke" opslag toen in je pc.

[Reactie gewijzigd door Soeski op 14 oktober 2025 11:55]

Probleem was niet dat ze zwaar waren, maar ze konden geen enkele stoot verdragen.
Bij het minste stootje deed ie het niet meer.
Dat was in 1998 in die goeie ouwe tijd dat dat 2-4 GB heeft veel was. :D
Wat had Quantum toch lekkere namen voor hun schijven :)

Bigfoot en Fireball waren zo herkenbaar.
En deden hun naam eer aan. De Quantum Fireball was lange tijd de HDD die de meeste warmte genereerde in m'n PC. Andere HDDs bleven beduidend koeler tijdens gebruik. Later ook Maxtor modellen gehad die eveneens als kachel konden dienen.
Ik zeg 5,25" :) Hoe zullen we ze noemen? Bigfoot?
Lol, die had ik in mijn eerste NT-4 server draaien.
3 X 2,1 GB in RAD-5.
Man wat een ruimte toen!
Heh, ik heb er hier nog steeds eentje in een la liggen! Ik heb nog van alles uit die tijd. Zelfs een complete XT die het nog steeds doet. Ik kan wel een museum beginnen. :)

[Reactie gewijzigd door poktor op 14 oktober 2025 12:22]

Denk ik toch gelijk aan deze :

https://www.os2museum.com/wp/seagate-st-225-just-wow/olympus-digital-camera-120/

20Tb, o nee 2Tb, toch niet het is maar 20Mb, wat waren we blij met deze schijf

in plaats van een ibm Winchester schijf 8" 10Mb

Leuk om te lezen : Wikipedia: History of hard disk drives

[Reactie gewijzigd door psdata op 14 oktober 2025 12:09]

Die Bigfoots maakten altijd zulke mooie geluiden.
De eigenaren ervan meestal ook als je bepaalde geluiden ging horen...
Ik heb thuis nog een Full Size 20MB 5,25" harddisk liggen. (Die is dus 3.25" hoog). Uit ongeveer 1978, voor een 7-user/scherm DTP systeem van ICL (met een 80186 en 1 MB RAM). Wel met de bekende Xebec 1210 controller die later ook in de IBM PC zat.
Ongeloofelijk veel. Wanneer lopen we tegen de fysieke grenzen aan van datadichtheid?
Tegenwoordig krijgt elke platter niet zo zeer meer opslag, maar doen ze gewoon meer platters per disk.

Er worden zeker nog stappen gezet om de hoeveelheid data per platter te verhogen, maar niet zo snel meer als jaren terug.
De belangrijkere vraag is: wanneer stopt de daling van de kosten per TB?

Het is leuk dat je technisch een 40TB-schijf kan maken, maar praktisch niemand gaat die kopen als die 50x zo duur is als een 20TB-schijf. Het is dan véél logischer om twee 20TB-schijven te kopen. Een 2x zo grote schijf mag ietsje meer dan 2x zo duur zijn (de extra stroom/koeling/behuizing voor een tweede schijf is niet gratis), maar veel ruimte is daar niet.

Op een gegeven moment kom je op een punt waar het gewoon niet langer de moeite waard is om te investeren in R&D voor hogere datadichtheid: als je je bestaande schijven voor dezelfde prijs met dezelfde marge kan verkopen, waarom zou je dan miljarden steken in risicovol onderzoek? Het is dan véél logischer om je winst te verhogen door te investeren in het verbeteren van de marge op je bestaande producten.

Je kan in de Pricewatch al zien dat we hier langzaam tegen aan beginnen te lopen. Een Seagate Exos X24 is €17,47 / TB, terwijl een Seagate Exos X18 €17,78 / TB is. Het is nét de moeite waard om voor de grotere schijf te gaan, maar het scheelt weinig!

Ook het historische prijsverloop van de X18 is interessant: hij kwam in september 2020 op de markt en zat amper een half jaar later al op het huidige prijsniveau. Met uitzondering van een prijspiek in 2021 is de prijs al een jaar of 3 stabiel, terwijl je zou verwachten dat de prijzen zouden dalen door de introductie van nieuwere schijven. Dit is niet een nieuw ding. Als je kijkt naar de historische prijs (let op, logaritmische grafiek - iedere lijn op de y-as is 10x zo duur) is vrij duidelijk dat er bij harde schijven een enorme "knik" zit bij 2010.

Al die fancy technieken zijn leuk als je absoluut zo véél mogelijk data op draaiend roest wil proppen, maar het kost wel geld. Ik zie het best nog wel gebeuren dat we, puur om economische redenen, blijven steken op schijven die niet veel groter zijn dan 40TB.
De Seagate EXOS M 30TB was twee maanden terug in mijn plaats voor 510 te krijgen. Ongeveer de prijs/GB van de EXOS X24 24TB. Echter zien we nu in het algemeen een prijsstijging bij RAM en HDD. Vermoedelijk wat Tweakers laatst al vertelde. Even afwachten, ik heb nog genoeg plek voor mijn Linux ISO's.
En mijn eerste harddisk was 25mb :) en daar kon al ongelooflijk veel op vond ik toen 8)7

En nu gebruik ik uitsluitend nog Toshiba,s van 18 en 20TB

[Reactie gewijzigd door Chrismaclinux op 14 oktober 2025 11:31]

De laatste toshiba's die ik had waren nogal... luid... is dat inmiddels beter?
Welke waren dat?? Mijn ervaring is dat mijn Toshiba,s veeel stiller zijn dan mijn oude WD pro,s 6TB die ongelooflijk krakend geluid maken...je denk dat het laatste uur is aangebroken voor ze.. maar het gekke is dat het gewoon werken. en bij de Toshiba,s hoor ik dat niet of veel minder. Ook maakt het verschil of je schijven in een Synology hangt of in een Ugreen ... Bij Ugreen nas blijken ze stiller te zijn

[Reactie gewijzigd door Chrismaclinux op 14 oktober 2025 11:58]

N300 schijven. Maken echt een pokkeherrie op 4TB elk, mijn Exo's zijn ook niet stil maar kraken tenminste niet al-tijd. Met een eerdere toshiba had ik juist het omgekeerde (wel ergens rond 2008) dat die veel stiller was dan mijn toenmalige seagates.

Nu wil ik best investeren in een fatsoenlijke NAS maar ook die hoeft geen herrie te maken natuurlijk.
Oke, N300 ja dat zijn al wat oudere schijven van Toshiba...bij mij stond betrouwbaarheid voorop vandaar dat ik bij die Toshiba,s MG09 en de MG10 serie uitkwam en ik had destijds ook vaak gelezen dat ze ook redelijk stil waren vandaar dat ik deze 6 stuks heb gekocht...en ze draaien al jaren zonder problemen.
Ja, ik had eerst een IBM PC XT zonder harddisks, maar daarna een Laser Turbo XT met 20MB harddisk. Dat was niet vol te krijgen, we hadden berekend hoe vaak Police Quest erop paste.

En voor je het wist had je een 130MB Seagate harddisk, toen 500MB, toen...
Vind je?

Mijn harddisk was toen 20MB, en Windows 1.0 had al 5 MB nodig, daar had je dan ook nog DOS 4.0 bij nodig dat ook 2,5 MB was, dus dan zit je al op 7,5 MB van de 20.

Ik had denk ik wel honderden diskettes met spellen van 1.44mb, deze pasten nóóit op die 12,5MB.

Vooral spellen die meerdere disks hadden waren handiger om op harddisk te zetten zodat je gewoon door kon spelen (Monkey Island, X-Wing, Indiana Jones), maar dan is die harddisk al helemaal snel vol.

(Okee, als ik ruimte nodig had, gooide ik Windows er wel af, en zette het later wel weer terug voordat m'n vader er achter kwam)
Mijn eerste was 20mb, en als je die pc aanzette klonk het alsof een vliegtuig opsteeg. Je hoorde hem zo aandraaien.
Interessant artikel als je wilt lezen waar we vandaan komen in harde schijven.

https://en.wikipedia.org/..._IBM_magnetic_disk_drives

"The IBM 1405 Disk Storage Unit was announced in 1961 and was designed for use with the IBM 1400 series, medium scale business computers.[25] The 1405 Model 1 has a storage capacity of 10 million alphanumeric characters (60,000,000 bits) on 25 disks. Model 2 has a storage capacity of 20 million alphanumeric characters (120,000,000 bits) on 50 disks. In both models the disks are stacked vertically on a shaft rotating at 1200 rpm. "
Wat ik me wel eens afvraag hoeveel hdd in de wereld in gebruik zijn. Denk eens aan alle data voor het internet/websites, cloud opslag, mailservers, servers voor (technische/wetenschappelijke) data, nassen, hdd in pc's,

Ik denk dat we dan over tientallen miljarden hdd's hebben.

[Reactie gewijzigd door Askjeeves op 15 oktober 2025 15:51]

Zoiets ja, schatting is dat het internet ongeveer ~300 ZB aan data, 300.000.000.000 TB.
Als je uitgaat van 20TB per schijf zijn dat 15 mjrd HDD's.
En dan heb je nog alle data die niet op het internet staat, dus je zal dat wel *4 kunnen doen.

Maar als je technisch wilt zijn, een groot deel van het internet wordt gehost op SSD's en dan heb je ook nog tape drives voor archieven die niet zo snel te benaderen hoeven zijn waar ook veel op staat.
Ik had begrepen dat HAMR meer schaalbaar zou zijn dan MAMR maar misschien heb ik dat mis. Daarintegen bewandelt Western Digital wél het HAMR pad, daar hebben ze tevens al een doorontwikkeling op HAMR in het verleden aangekondigd genaamd HDRM (head-dot magnetic recording).

Biedt de één voordeel over de andere? Nevermind, ik kan niet lezen :+
In het artikel staat gewoon:
Deze tegenhanger van heat-assisted magnetic recording maakt gebruik van microgolven in plaats van een laser om een hogere datadichtheid op een platter te bereiken.

[Reactie gewijzigd door recyclebin op 14 oktober 2025 12:00]

uitvoering: HPE S4R85A, 72TB

HP heeft al een 72Tb disk als ik de pricewatch mag geloven :)
sanpt ik maar heel veel winkels hebben

Discks in pack = 1

dus dan is het een single 72 TB disk 8)7
Ik weet nog ooit lang geleden 3 tieners in de auto met 1 vader achter het stuur onderweg naar Amsterdam om daar in een bakstenen winkel de toen grootste consumenten hardeschijf ter wereld te gaan kopen van maar liefst 1 Gigabyte! Alle 3 op van de zenuwen want er stond toch wat heel groots te gebeuren... Een Western Digital (PATA uiteraard). Speciale software op een diskette die je moest inladen omdat je bios niet overweg kon met zo een enorme schijf. Hij kwam terecht in een 486DX2@66 16MB EDO Ram, wat een plezier. Jammer alleen dat de winkelier ongelijk had en dat hij wel vol raakte 8)7
Gewaagd.
Seagate heeft 10+ jaar ontwikkeling zitten in hun HAMR met een laser om voldoende betrouwbaarheid te krijgen.
Die zijn nu eindelijk in massa productie met hun 30TB model.

Dat Toshiba de MAMR-variant gaat ondernemen... dan moet blijven dat de mini-microwave op de schrijfkop voldoende klein en betrouwbaar is om 1+ miljoen uren te kunnen blijven werken.
Gezien ze dit in 2027 klaar willen hebben, moeten ze deze techniek al enige tijd in ontwikkeling hebben.

En...
12 platters.
Ik dacht dat Seagate in hun 30TB model nu 11 platters gebruikt.
Als je Toshiba's 40TB 12 platter model omzet in een 11 platter versie, zit je op 36TB.
Dat is meer dan Seagate met HAMR....
Maar ja, in 2027 heeft Seagate vast ook grotere HAMR varianten.
Gave technologie! :) Ben benieuwd naar de levensduur, zeker in vergelijking met HAMR en reguliere harde schijven. In MAMR komt er immers geen hitte aan te pas, dus misschien zal het mindere uitzetten en krimpen wel helpen (al is dat op een zeer klein gebied per keer)

Op dit item kan niet meer gereageerd worden.