Toshiba brengt 24TB-nas-hdd niet uit in Europa vanwege 'beperkte vraag'

Toshiba brengt de harde schijven N300 en N300 Pro van 24TB niet in Europa uit. Volgens de fabrikant is de vraag naar dergelijke grote opslagcapaciteiten voor bijvoorbeeld nas-systemen te klein. De grootste wel verkrijgbare N300-schijf van Toshiba heeft 22TB opslagruimte.

In een statement tegenover ComputerBase schrijft Toshiba dat de 24TB-variant van de N300 'voorlopig' niet in Europa uitkomt vanwege de beperkte vraag. Het Japanse bedrijf sluit niet uit dat de schijven in de toekomst wel hier worden uitgebracht. De Pro-versie uit de N300-serie is helemaal niet in Europa verkrijgbaar. De reguliere N300 is in capaciteiten van 4 tot 22TB te krijgen, zo blijkt uit de Pricewatch.

De beslissing van Toshiba is opvallend omdat het bedrijf wel een MG11-hdd van 24TB verkoopt in Europa. De N300-serie is echter specifiek bedoeld voor nas-systemen van consumenten. Concurrenten als Seagate en Western Digital bieden wel verschillende SATA-nas-hdd's van 24TB in Europa aan.

Update, zaterdag: In het artikel werd ten onrechte gesuggereerd dat de grootste N300-schijf een capaciteit van 18TB heeft. Dat is namelijk 22TB. Het artikel is daarop aangepast.

Door Yannick Spinner

Redacteur

09-05-2025 • 08:44

134

Submitter: KipKroket

Reacties (134)

134
134
50
2
0
55
Wijzig sortering
Ik vraag me dan af wat is dan de prijs in de landen waar het wel uitgebracht word? Dus wat kosten die 24GB schijven in Japan of VS of Canada?
Volgens deze bron "up to" $649 wat redelijk overeen komt met 24/26TB schijven die al wel te koop zijn en die van €500-€750 kosten
Ja dus kijkend naar de koers zou dat dus 576 euro zijn. Dus dan valt dat redelijk in de middenmoot.
hoe verschilt een HDD die bedoeld is voor nas-systemen?
Bor Coördinator Frontpage Admins / FP Powermod @piertje9 mei 2025 09:29
Het enige verschil is veelal een andere firmware afstelling. Er is meestal geen specifieke productielijn voor 'NAS' schijven. Dat is veel te kostbaar. Het is deels firmware, deels marketing. Fysiek zijn de schijven vaak identiek.
En tevens een stukje garantie. Desktopschijven hebben een minder goede garantie dan NAS schijven bij gebruik van meerdere schijven tegelijk.
Wat niet te controleren is door de fabrikant. Zowiezo zitten er in mijn PC ook 4 HDDs. Is het dan een NAS of een PC?
Trillingen zijn prima te controleren met trillingssensoren en een stukje logging, en je kan er vanuit gaan dat die ook op een HDD zitten. En met 4 HDDs zit je denk ik op het randje van wat nog een PC kan worden genoemd. Maar een groot deel zit hem ook in het gebruikspatroon, en dat is ook weer middels logging vast te stellen.
Die sensor zeker wel, de logging weet ik niet (kan iig. niets vinden dat ze dat doen).
SMART attributen
191/221 G-Sense Error Rate
211 Vibration during write
212 Shock during write

En ook een error log wordt bijgehouden in de firmware van je HDD, waaruit een fabrikant heel goed kan zien hoe een schijf tot zijn einde is gekomen. Voor de consument wat lastiger omdat veel metrics niet gedocumenteerd zijn
Dat weet ik zo nog net niet.
Net beginnen mijn Toshiba schijven foute sectoren te vertonen, 4 jaar.
Maar een MG schijf heeft 5 jaar garantie en een N300 schijf slechts 3 jaar:
https://www.toshiba-storage.com/nl/warranty-information/

Ben ik toch blij dat ik een MG schijf in mijn NAS had ipv een N300 schijf, anders was die al uit garantie.
Of zou de N300 langer gewerkt hebben? Maar waarom dan minder garantie geven?
Voor een NAS zou ik geen SMR-schijven kopen, zelfs al waren ze gemarket als NAS-schijf (ik kijk naar jou, WD Red :/ ).

Het lijkt erop dat deze Toshibaschijven CMR zijn, dus wat dat betreft iig geschikt :) .
Dat is juist, de vraag is van welke schijf ze zijn afgeleid: NAS-schijven worden door fabrikant zowel afgeleid van desktopmodellen als servermodellen. Een serverschijf ("enterprise") is mechanisch wel anders door dubbele lagers, waardoor hij jarenlang 24 uur per dag kan draaien. Verder heeft zo'n schijf vibratiesensoren waardoor hij de vibraties van de ventilatoren van een server kan verdragen. Een desktopschijf heeft enkele lagers en geen vibratiesensor.

Als een NAS-schijf afgeleid is van het enteprisemodel dan is dan doet hij kwalitatief amper onder voor het enterprisemodel. Is hij afgeleid van een desktopmodel, dan is de firmware vaak wat aangepast om beter compatibel te zijn met RAID-kaarten e.d., maar is hij niet echt betrouwbaarder dan een desktopmodel.
NAS wil je doorgaans enkel CMR schijven in plaatsen. Geen SMR.

SMR staat voor Shingled Magnetic Recording. Wat betekent dat de metalen platters als een soort dakpannen in de HDD behuizing zitten (Shingled). Daarmee kan je de capaciteit verhogen, maar tegelijkertijd verlaagt het de schrijfprestaties aanzienlijk.

WD heeft ooit SMR schijven geadverteerd als NAS compatibel, en het feit dat ze SMR waren verzwegen. Maar consumenten waren niet blij toen ze daar achter kwamen dmv de zeer slechte prestaties en klaagden het bedrijf aan.

[Reactie gewijzigd door Dekar op 9 mei 2025 11:26]

Wat betekent dat de metalen platters als een soort dakpannen in de HDD behuizing zitten (Shingled)
De platters zitten fysiek gewoon exact op dezelfde locatie. Als je een SMR en CMR schijf opent zie je geen verschil. Het zijn data tracks die overlappen. Dat kun je alleen zien met firmware inspectie en als je slechte prestaties ziet. Fysiek zien SMR en CMR schijven er exact hetzelfde uit.
Zoals @ArawnofAnnwn al aangeeft zijn het niet de platters die als shingles gestapeld zijn.

Bij SMR overlappen de sporen elkaar deels; daardoor kunnen de sporen dichter bij elkaar liggen, wat meer opslagcapaciteit oplevert op hetzelfde oppervlak.
Schrijven in een "overlapt gebied" vereist ook het herschrijven van aangrenzende sporen en dat kost dus meer tijd, tijd waarin de kop niet met iets anders bezig kan zijn.
Getest voor grotere betrouwbaarheid. Of bedoel je met als doel tussen consumtenten en corporate-omgevingen? Eigenlijk soortgelijk, maar in grotere mate met wat extra features/diensten.

Meer specifciek: Denk aan werklast qua data-overpompen, 24/7 activiteit, gemiddelde failure tijd voordat deze zou moeten falen (MTBF) ligt hoger, hogere tolerantie voor hoge temperaturen (zitten immers vaker rond andere hard-werkende schijven, plus worden warmer door eigen activiteit), hogere trillingstolerantie. Ook qua prestaties worden ze hogere ingezet (grotere cachbuffers, betere lees-/schrijfprestaties). Firmware is ook soms complexer met een betere foutenherstel en ondersteuning van extra sensoren om met vibraties om te gaan in multibaysystemen. Verder heb je nog zaken als garantie, waar enterpriseoplossingen vaak 5 jaar hebben met deel van de voorwaarden dat snelle vervanging mogelijk is en specifieke support. Tenslotte wordt voor consumtentenschijven ook meer gekeken naar het in toom houden van stroomgebruik.

[Reactie gewijzigd door RaJitsu op 9 mei 2025 09:37]

Bor Coördinator Frontpage Admins / FP Powermod @RaJitsu9 mei 2025 10:36
Ook qua prestaties worden ze hogere ingezet (grotere cachbuffers, betere lees-/schrijfprestaties)
Fysiek zijn de schijven vrijwel altijd identiek aan andere, niet NAS schijven. De verschillen zijn puur firmware gebaseerd in de meeste gevallen. Zelfs hogere trillingstolerantie is vaak niet meer dan firmware afstelling. Het is veel te duur om specifieke productielijnen op te zetten.
Is het dan niet ook zo dat ze een batch hebben waarvan ze verwachten dat deze betrouwbaarder is en daarom van de juiste labels en firmware kunnen voorzien zodat ze harder gepusht kunnen worden?
Bor Coördinator Frontpage Admins / FP Powermod @RaJitsu9 mei 2025 10:40
Hoe denk je dat ze dat moeten bepalen? Enterprise schijven worden soms harder gepushed omdat stroomverbruik daar veel minder een ding is. NAS schijven voor de consument zijn een ander verhaal. Het is deels ook gewoon marketing.
Geen idee. Ik had altijd het idee dat voor de verschillende lijnen ze apart productielijnen hadden en dat componenten gebinnd werden op basis van platterkwaliteit wat naar mijn idee kan met bijv. specifieke op optische en magnetische sensoren gebaseerde tests. Maar ik moet ook zeggen dat ik dat puur baseer op aanname.

Ik heb ook begrepen dat bij Seagate hun IronWolf-schijven niet altijd beschikken over FDB-lagers, terwijl dit bij de Exos wel zo is. Maar dat kan ik mis hebben.
Een NAS schijf heeft meestal firmware die minder agressief power management doet en er van uitgaat dat de schijf redundant is. Bij problemen wordt direct een fout gemeld ipv een langdurige recovery poging ondernomen waardoor de hele disk array onbeschikbaar is.
Een hdd die op zichzelf draait gaat haar uiterste best doen om bij problemen toch de gegevens te lezen. Een hdd die in een raid omgeving draait, gaat maar even proberen om te lezen en daarna vrij snel melden dat de gegevens niet betrouwbaar gelezen kunnen worden zodat de raid omgeving de gegevens kan controleren, herberekenen en verbeteren.

Daarnaast houdt een disk in een raid omgeving rekening met trillingen omdat er in een raid meer, meestal de zelfde, disks draaien die daarmee de zelfde trillingen maken en daarmee elkaar zouden kunnen versterken.

Om kort te gaan: een disk op zichzelf doet altijd haar uiterste best. Een disk in een nas houdt rekening met de andere disks en laat daar ook gebruik van maken.
Ik heb zelf Enterprise disks van Toshiba in mijn Synology NAS zitten (MG09 en MG10) en die produceren behoorlijk wat takkeherrie dan wat je bij een NAS schijf zou verwachten. De MG10 nog meer dan de MG09. Ik vraag me soms af hoe ze goed blijven met dat soort geluid, maar blijkbaar hoort dat zo.
Ik heb 4x4TB HDD's in mijn PC zitten. 3 van WD en één van Toshiba.

Mijn PC maakte soms best een takkeherrie en ik dacht dat dit betekende dat er iets niet helemaal goed was met één van mijn oudere WD schijven. Bleek later dat dit juist m'n nieuwste was (de Toshiba). Dat ding maakt inderdaad een takkeherrie. Iedere keer wanneer ik deze schijf activeer, is het moment dat je mijn PC hoort. Van dat "ouderwetse gerammel", zeg maar. Contact opgenomen met Toshiba, blijkt normaal te zijn :')
Staat tegenover dat ik bij mij op het werk 4x 22TB Toshiba Enterprise schijven heb draaien in een Synology NAS en die eigenlijk best wel stil zijn.

Die zitten dan wel in een rack tesamen met vier servers die veel luider zijn dan de Synology-installatie.
Je moet dan al twee keer deze capaciteit hebben om single point of failure te voorkomen. Anders ben je bergen bestanden kwijt als die mega schijf kapot gaat. Dus dan heb je het probleem om enorme hoeveelheden data te kopiëren.

Tja, sommige ouders documenteren elke milliseconde van hun opgroeiende (eerste) kind en komen er later achter dat duizenden foto's en filmpjes ook niet echt werkt. Er zal ook best wel iemand zijn die zo'n beetje elke speelfilm ooit uitgebracht op zijn NAS heeft staan. Misschien is er nog nut als je studeert voor multimedia en bergen videos bewerkt. Verder zie ik weinig nut als particulier voor dit soort enorme opslagsystemen.
Een beetje speelfilm is al snel 4Gb, 6000 films is een forse verzameling maar komt niet in de buurt van 'elke speelfilm ooit uitgebracht).
Als je een beetje Steam library met AAA titels van 100Gb/stuk hebt kan je 'maar' 240 games opslaan ;)
4 GB? Het is geen 2005 meer. Als je nu de beste versie downloadt van een film, hetzij 4k of full hd, dan kom je gemiddeld uit op zo’n 50 GB per film.
Ik had streaming kwaliteit aangehouden omdat de meeste mensen dat voldoende vinden. 50Gb is voor de meeste mensen onhandig: duurt extreem lang om te downloaden en veel mensen zien het verschil amper.
Met een 1gbit/s internet lijn en vanuit een nieuwsgroep trek je die binnen 10 minuten naar binnen. Sabnzbd doet er vaak langer over het uitpakken van bestanden dan het downloaden zelf, laat staan het transcoden en upscalen van de bron, verwijderen van audio en subtitels anders dan NL, EN of DE.

Hoe anders dan rond de eeuwwisseling toen Napster er 5 minuten over deed om een mp3 van 3 minuten te downloaden...

Ik zie zelfs het verschil ook niet altijd, zelfs niet tussen 1080p en 2160p resoluties. Maar ik hoor ook vrijwel nooit het verschil tussen een 128kbit mp3 en een 192/256kbit audio file.
Ik gebruikt NZBget en die kan bestanden al uitpakken tijdens het downloaden. Dus wanneer hij klaar is met downloaden dan is de film vrijwel onmiddelijk al uitgepakt.
Niet iedereen heeft beschikking over 1Gbit. Daarnaast is het een keuze of je de extra kwaliteit wil. Rond de eeuwwisseling had je ook zat mensen die genoegen namen met een crappy DivX codering in plaats van de 'luxe' DVD rips.
Denk als mensen een NAS neerzetten om films op te slaan ze meer kans hebben om ook een snellere verbinding te hebben aangeschaft misschien
"extreem lang" is wat, twintig minuten? En met de meeste dingen (zoals stremio) kun je dat on the fly doen. Dus praktisch Streaming, maar dan op hele hoge kwaliteit.
Als je er op zit te wachten is dat 'extreem' ja ;)
Niet iedereen heeft 1Gbit mogelijkheid en de aanbieder moet het ook maar kunnen leveren.
nee daar was ik ook wel vanuit gegaan. Dus vandaar ook die 20 minuten. Dat is een gemiddelde snelheid van ~ 42 MB/s (~333 mbps) dat is absoluut geen gigabit en tegenwoordig vaak optie 2 aan glasvezel aanbod (van de 5), dus ook niet verschrikkelijk duur. Bij Ziggo ook "wifi middel" whatever that may mean.

Maar is een redelijk gangbare download size en ook voor streaming prima te doen eigenlijk. Ja gaat em niet worden op een 8mbit DSL lijntje, maar laten we ff eerlijk zijn, dan werkt netflix HD ook niet.
DSL lijntjes zijn er nog genoeg. Meeste abonnementen beginnen tegenwoordig op 100Mbit, maar dat is niet in alle gevallen wat gehaald wordt.
Genoeg voor Netflix HD in ieder geval, maar downloaden van een 40Gb bestand gaat wel even duren...
Maar dat ga je dan ook niet doen. Houd er wel even rekening mee dat we niet alles voor de onderkant van de markt gaan zitten bereken. Dat niet iedereen gigabit heeft staat buiten kijf, maar aangezien partijen tegenwoordig 2, 4 of zelfs 8 gigabit aanbieden ga ik er wel vanuit dat het gemiddelde nu gewoon wat hoger ligt dan een 100 mbit DSL lijntje. en volgens mij is dat helemaal niet fout aangezien de gemiddelde snelheid in NL zo'n 200mbit is. https://www.speedtest.net/global-index/netherlands en dit is speedtest, dus dit gaat daadwerkelijk om praktisch haalbare snelheden.

Als je dan aan het kijken bent naar dit soort schijven dan ga ik er vanuit dat je dat niet doet om met je 8 mbit lijntje een beetje Linux ISOs te downloaden. Dan zit je veel eerder daarboven.
Plus alles bij mij gaat automatisch ik hoef er niet op te wachten.

Ik heb iets van 80 TB netto en moet regelmatig opschonen omdat alles volloopt :P

Dus 24 TB is zoveel nog niet.
Oke, maar waarom heb je het over streamingkwaliteit bij een artikel over data-opslag? Streamingsdiensten zijn erg efficient, maar daar heb je niks aan als je het thuis kijkt, of vanaf je eigen server.

Met een 1Gbit/s internetverbinding duurt het slechts 7 minuten om 50 GB te downloaden, dus tegenwoordig is dat geen enkel probleem meer. Dit jaar en volgend jaar komen zowel Odido als Ziggo met 8 Gbit/s, dus dan heb je zo'n film letterlijk binnen een minuut gedownload.
Nouja, ik vind van wel. Ik ga vaak voor streamingkwaliteit omdat het gewoon meer dan goed genoeg is (hoe dan ook vele malen beter dan de oude DIVX en dvd-rip qualities) en eigenlijk altijd meer dan prima kijkbaar.

Het kost mij ook maar een paar minuten om een film van 50gb binnen te hengelen, maar als dat voor 10-15gb kan, kan ik 3 tot 5 keer zoveel films bewaren. Iets wat juist nu weer meer van pas komt dan ooit, gezien blijkbaar vrijwel iedere film die het waard is om te kijken, van alle streamingservices wordt gerukt.

De ruimte die je nodig hebt voor films van 50GB is ook niet goedkoop. Nog maar 20 films per TB? Insane.
Full HD op 50GiB vind ik wel een behoorlijke bitrate, dan zit je aan Bluray-kwaliteit terwijl de meeste mensen tegenwoordig via streamingdiensten kijken die (helaas) niet veel verder komen dan 10% daarvan.

Op zich heb je wel gelijk, ik download zelf media op streamingbitrates omdat ik niet zoveel opslag heb, maar ik zou er ook geen $650 (=577 euro, =700 euro met BTW) aan besteden.
Tsja, een MG11 24TB is 420 in de BTW en een WD variant ook ongeveer zoveel. dus om nou 700 neer te leggen is een beetje overkill. Vandaar ws ook dat ze hem niet hierheen brengen.

Ik zit nu op 4X20, maar de prijs per TB is met 24TB nog niet gunstig genoeg om dat te kunnen verantwoorden en met standaard RAID setups is dat sws al een drama om te rebuilden, laat staan 24TB.
Ik heb onlangs 2 tweedehands hdds gekocht van 14 TB per stuk voor in totaal €175, dus omgerekend €6,25 per terabyte. 20 films per terabyte dus 30 cent per stuk van de allerhoogste kwaliteit. En ik kan zo’n 550 films kwijt op deze schijven van de allerhoogste kwaliteit dus het valt behoorlijk mee wat prijs betreft @CapnCrinkle

[Reactie gewijzigd door Dynamix86 op 10 mei 2025 01:27]

Idk... 2e hands is al iffy, maar ook zit ik een stuk dichter bij 6000 films dan 550. Dan hebben we het nog niet eens gehad over series welke nu al snel 1tb per serie zijn...

Ik heb al 30TB en het staat ramvol.
Steam slaat toch alle games voor je op? Of laat je ze ook alle 100 geinstalleerd staan?
Het lijkt me nogal wiedes dat je alleen de spellen die je al een paar maanden niet meer gespeeld hebt eens van de schijf af flikkert. Je gaat natuurlijk niet telkens een spel herinstalleren als je het wil spelen om het direct na het spelen weer te verwijderen. Steam slaat niet telkens je configuratie op. Save games zijn ook lang niet altijd in de Steam cloud opgeslagen.
Bijna iedere moderne game slaat wél op in de cloud en al die oude games kosten niet zoveel ruimte, dus dat is wat van een strawman.

De meeste mensen die ik ken met een gamepc en vaak enkel SSD opslag, herinstalleren games wel degelijk met regelmaat. Ze hebben vaak maar 2-4 (grote) games tegelijkertijd geïnstalleerd staan en als hun mood switcht naar een andere game, pleuren ze degene die ze op dat moment het minst interesseert er weer af.

Juist vanwege modern, snel internet is dit aanzienlijk beter te doen. Toen GTA V net uit kwam kon je het een nacht aan laten staan voor je kon spelen. Intussen download je hem in 15 minuten...
Bijna iedere moderne game slaat wél op in de cloud en al die oude games kosten niet zoveel ruimte, dus dat is wat van een strawman.
Uh, nee? In ieder geval is dat niet het geval voor een aanzienlijk aantal van de spellen die ik vaak speel. Het is wel zo dat het tegenwoordig vaker zo is voor het opslaan van voortgang, maar het is nog geen algemeen aanvaard verhaal. En het is helemaal niet het geval als het om instellingen gaat. Dat gelijk een strooman noemen gaat echt véél te ver.
De meeste mensen die ik ken met een gamepc en vaak enkel SSD opslag, herinstalleren games wel degelijk met regelmaat. Ze hebben vaak maar 2-4 (grote) games tegelijkertijd geïnstalleerd staan en als hun mood switcht naar een andere game, pleuren ze degene die ze op dat moment het minst interesseert er weer af.
Leuk voor je. Dat jij en je vrienden dat dan wel doen betekent niet dat dit voor iedereen zo is. Ik ken een redelijk aantal mensen dat dit juist niet doet omdat ze geen zin hebben om daarna een uur te spenderen om alle instellingen weer goed te krijgen. Voor sommige spellen, denk aan Arma of DCS:World, is een uur absoluut geen overdreven tijdsindicatie. Die ga je niet zo even opnieuw installeren. En tevens omdat Arma met mods en DCS met DLC samen al bijna 1,5TB innemen.
Juist vanwege modern, snel internet is dit aanzienlijk beter te doen. Toen GTA V net uit kwam kon je het een nacht aan laten staan voor je kon spelen. Intussen download je hem in 15 minuten...
GTA V van 10 jaar geleden wel, modernere spellen niet altijd. Dit is ook weer sterk afhankelijk van wat je speelt.
Tot Steam failliet gaat en je games verdwijnen. Daar kan een jaar overheen gaan, maar dat kan ook van de een op de andere dag gebeuren. Steam heeft beloofd dat als dat gebeurt, ze hun DRM uit gaan zetten via een update van de client ofzo, maar zodra dat nieuws de mainstream bereikt kun je ervan uitgaan dat de game-downloadservers overbelast zijn.

Ik heb zelf meer dan duizend games op Steam (thanks, Humble Monthly) waar ik nooit meer bij kan komen zodra Steam's servers ermee op houden. Dat tikt behoorlijk aan, zelfs al zijn de meeste games indies. Ik was zelf van plan om Ooit (TM) een kopie van al die games op een externe HDD ofzo te zetten, zodat ik er (desnoods met een crack) bij kan. Voor mijn GOG-games doe ik dat al, maar daar heb ik er niet zoveel van.

Voor de meeste games zullen piraten ervoor zorgen dat er nog altijd wel ergens een kopie te halen zal zijn, maar die piraten moeten al die games ook ergens opslaan :)
4GB? Een deftige bluray rip is 80GB :D
Ik denk niet dat het backuppen van eigen media de enige reden is om dit soort opslagcapaciteit te willen. Dat gaat toch vooral om films, series en andere grote media.
Idd, ik gebruik momenteel 4x 18TB om mijn films, series en muziek te back-uppen.

Ik zit nog te denken om een 2e - offside - backup te creëeren.
Waar kun je films, series ed. aanschaffen in digitaal formaat welke je lokaal kunt opslaan?

Als het kopen zijn is het toch allemaal een backup van gekochte cd's, dvd en bluray?
Insinueer jij dat deze HDDs alleen gebruikt worden voor illegaal materiaal of nuttelozen foto’s?
Tenzij die persoon zelf natuurfilms, series en audio opnames maakt is die kans aanwezig :)
Ben jij op de hoogte van initiatieven zoals Anna’s-archive? Want goedkope grote opslag is vrij belangrijk om vrijheid van informatie te behouden dat in deze woelige wereld serieus bedreigd begint te worden. Ik kan niet wachten tot ik een lokaal archief kan draaien zoals anna.
Voor de moraal van het verhaal maakt het ook weinig uit of de data uit legale of illegale bron is, toch ?

Die gekochte CD, DVD en BluRay heeft ook niet het eeuwige leven.
Geweldige schrijven dit ..ik heb er zes van
En 1x20TB
Ik denk dat je er best nog wel eens flink naast kunt zitten.

Ja, voor veel mensen is het (uiteraard) daarvoor, maar er zijn ook mensen zoals ik die een NAS houden voor de hele familie, waar ook de hele familie al hun videos/foto's van de kids, vakanties etc op backupt. Dat zit zonder enige film of serie al op 6TB nu.

Daarnaast moet je zeer zeker de hobbymatig fotografen, filmers en editors niet vergeten.
Rauwe foto's, maar vooral rauwe source materials kosten echt BAKKEN met ruimte.
Een rauwe 8K24FPS source video kost letterlijk 7.5GB per minuut aan materiaal. En dat zijn de niet-speciale camera's. Absolute basics.
Er zijn wel erg veel berichten op het forum waarin mensen zeggen dat een bepaald apparaat of feature niet nodig is omdat die schrijver zelf zich niet kan voorstellen waarom andere mensen het nodig hebben. Je mag er gerust vanuit gaan dat, als ze verkocht worden, mensen redenen hebben om ze te kopen (en meestal: hoe duurder iets is, hoe duidelijker de reden). Je mag die redenen onzinnig vinden zodra je ze weet wat ze zijn natuurlijk...
Ik herken het punt dat je eeuwen bezig bent met data van zo'n schijf halen. Ik had een NAS met 4TB schijven (HDD). Toen ik een nieuwe NAS had en alle data ging overzetten duurde dat meerdere dagen.
Je kunt natuurlijk heel veel HDD's nemen en die blijven updaten/syncen maar een snel een back-up maken zit er niet in.
Met veel data heb ik dan liever een snellere schijf. Maar een SSD/NVME is niet te krijgen in 24TB (en is nog te duur).
Toen ik een nieuwe NAS had en alle data ging overzetten duurde dat meerdere dagen.
Met veel data heb ik dan liever een snellere schijf.
En dan? Bottleneck met NAS is nog steeds vrijwel altijd een netwerk ding. gigabit gaat gewoon met maximaal 125MB/s. met 10gig kom je nog een eind, maar dan moet je wel een systeem en switch hebben dat dit aankan. Anders maakt het eigenlijk niet uit of je HDD of SSD gebruikt in je NAS.

Voor DAS is het een ander verhaal, maar daar zou ik sws niet met HDDs in de weer. Te gevoelig voor trillingen en eigenlijk alleen interessant in een array voor video scratch oid.
Ik gebruik inderdaad 10Gb voor de NAS. Ik haal de schijf uit de NAS voor de kopie of back-up maar dan zit je nog steeds vast aan die limieten. Vooral kleine bestanden zorgen voor lage snelheden. Nu draai ik alleen nog met SSD's (met redundantie) maar dat kost natuurlijk veel meer per GB's data.
Het is o.a. voor het centraal houden van foto en video materiaal voor het bewerken ipv. per systeem een lokale kopie gebruiken.
Ik haal de schijf uit de NAS voor de kopie of back-up maar dan zit je nog steeds vast aan die limieten
Wat voor "kopie/backup" maak je dan dat je dat op individuele schijf kan doen dan?
Ik draai nu een NAS in RAID-1 dus alle data staat op iedere schijf. De andere NAS gebruikt nu een U.2 schijf (zijn nogal prijzig) dus die heeft een externe schijf als back-up. Ik kan daardoor dus altijd een kopie van een schijf maken, zolang die schijf groot genoeg is (nu is dat minimaal 8TB).
Als 'hobby'-fotograaf & videograaf dat na een trip al snel met meerdere TB's aan RAW data thuiskomt is er zeker een usecase voor een NAS met flinke opslagcapaciteit. Hier een DS1821+ met 4x 18TB disks in RAID opstelling met 2 schijven redundantie. Daarbij hangt er een local backup aan die de meest cruciale data wekelijks back-upped, een 26TB USB disk die daar maandelijks weer een backup van maak, en ook nog eens 2 offline backups die ik halfjaarlijks maak.

Overigens heb ik geen Toshiba's maar WD Ultrastar (voorheen Gold), welke prijs/kwaliteit best in orde zijn.
Als je alles maar eindeloos bewaart misschien. Maar wie gaat er nu serieus na 3 jaar nog door duizenden foto's van een dagje dierentuin heen?
Ik zoek regelmatig foto's uit en bedenk dan welke ik zou inplakken in een album. Die bewaar ik anders is er nooit meer doorheen te komen.
Had ook een collega, schijf vol met 40 foto's van een tijger, 25 foto's van 2 olifanten, 8 fotos van dochter voor een bord bij de ingang etc.
Wie kijkt dat serieus nog terug?
Ik had het ook niet over een dagje dierentuin. Heb het over trips die je eens, hooguit een paar keer in je leven maakt. Soms halsbrekende capriolen voor uithaalt om net dat perfecte shot te maken.
Dan kom je toch niet op 24TB aan foto's? En anders kijk je van zulke reizen ook niet 3 dagen nonstop foto's terug...

Doet me denken dat ik eens bij een vriend van em op bezoek was die had een stedentrip gedaan. Heb ik 3 uur naar foto's zitten kijken. Na een kwartier was ik er eigenlijk wel klaar mee, gewoon een paar (tussen de 50 en 100) mooie foto's van de hoogtepunten van je vakantie en klaar.
Dat verschilt per persoon heb ik gemerkt. Je kunt ook alleen van je reis genieten en geen foto's maken.
Mensen identificeren zich nu eenmaal aan hun herinneringen, ze maken wie je bent. Een foto is een soort fysieke variant daarvan. De een wilt ieder moment bewaren en de ander niet. En met 24TB aan opslag hoeft iemand zich geen zorgen te maken over opslag. Iedereen heeft zo zijn ding gok ik.
Een foto of 100 is anders ook al gauw 5 gig als je een beetje serieuze camera hebt hoor. Dus dat is dan al curated content. moet je nagaan wat er rauw aan data doorheen gaat.
ik heb vaak genoeg die discussie gehad. Waarom zou je uiteindelijk alles RAW in enorme resolutie willen bewaren? Is het niet enorm veel efficiënter en vooral ook overzichtelijker om de boel uit te zoeken en te comprimeren naar JPG of een ander formaat met voldoende resolutie om de foto's nog goed af te drukken.

Of zijn er mensen die nog door alle RAW data van 5 jaar geleden gaan terwijl dit continue aangroeit? Als je dat lekker vind moet je dat vooral doen maar ik merk dat hoe meer fotos er zijn hoe lastiger het is om er doorheen te komen. Zeker hoe ouder het wordt.
Foto's gaat al lang niet meer over simpele afdrukken. Een fototje op papier is leuk, maar de echte dingen beginnen pas interessant te worden met canvas en metaal poster.

Ik druk iig geen foto's meer op foto formaat. Als ik iets afdruk is het op groot formaat en dan heb je wel degelijk die resolutie nodig.

En voor de nieuwe generatie is het ook gewoon schieten en kijken wat er blijft kleven. Veel meer op "capture the moment" berust en dus niet statige poses. Zorgt er voor dat je dan rustig met 1000 fotos wegloopt van een event van een paar uur.

En nee dan ga je niet alles bewaren, maar ook gecomprimeerd neemt het gewoon nog steeds veel ruimte in. 1000 foto's zijn RAW nu een gig of 80 voor mijn settings, maar compressed is het nog steeds 8-10 gig.

Uiteindelijk moet je wel gaan deleten en ruwe shit weg gaan gooien, maar zolang het niet hoeft is er niks op tegen om het niet te doen. opslag is niet zo duur meer, totdat je de hele array moet gaan vervangen.
Ik heb panorama's van >120mp, dan praat je het met smart objects als lagen over psb's van enkele GB per beeld om maar iets te noemen. En dan heb ik het over fotografie. Laat staan uncompressed video in 4k 120fps.
Och breek me de bek niet open. Laatste bruiloft die ik deed met een BM 6K cam was 1TB ruw voor de dag. Dan de rest er nog omheen. Poeh. Tfaat hard.
Een particulier heeft dan meestal ook geen NAS (nodig).

Ik maak (als kleine MSP) backups van Office 365, Proxmox en VMware nodes voor al mijn klanten - die staan op meerdere QNAP units die allemaal minimaal 4 schijven hebben. De oudste (cold archive) hebben schijven van ieder 2TB en 4TB, de nieuwste NAS modellen hebben schijven van 10TB en die lopen nu al vol. Aangezien ik ook een backup van een backup maak, zijn die 24TB schijven wel erg interessant! In èèn NAS kan ik dus raw 96TB kwijt ipv 16TB bijvoorbeeld. Tel uit je winst.
Hoe performant is dat nog bij jou? Ik heb het ook jaren lang gedaan (en er ook nog steeds draaien), Veeam backups op Synology's en Qnaps. Maar ik kwam er laatst wel achter hoe achterlijk traag die apparaten tegenwoordig zijn vergeleken met een budget Dell Server (T360) in combinatie met Veeam, zelfs met de nieuwe generatie schijven is het een wereld van verschil. Waar die Dell Synthetic fulls in minuten maakt (iets van een uurtje voor 10TB aan VM's in het geval waar ik de vergelijking testte), zijn Syno's en Qnaps daar soms wel dagen mee bezig.

Daarnaast voldoen Synology's en Qnaps niet aan de laatste best practises voor backups, omdat ze o.a. niet geschikt zijn voor immutable repositories en andere beveiligingen van je backups. Mogelijk ook iets om over na te denken.

Ik vermoed dus dat ik voortaan budget Dell / HP e.d. servers zal adviseren over Synology's bij Veeam gebruik, omdat je dan ook de nieuwe officiele Veeam Linux Immutable repository ISO kan gebruiken.

[Reactie gewijzigd door Dennism op 9 mei 2025 09:57]

Jep, daar liep ik ook tegenaan. Een disc-sync van een nieuwe 18TB schijf op nieuwe QNAP met 2.5Gbit poort duurde ruim 3 dagen (meer dan 72 uur).
En dat voor de snelste HDD die nu verkrijgbaar is, theoretisch had ie in 16 uur klaar moeten zijn.

[Reactie gewijzigd door djwice op 9 mei 2025 13:37]

Bijvoorbeeld een lokale kopie van de laatste versies van AI modellen.
Bij mij is dat afgelopen 4 maand ongeveer 11,5TB.

Zonder duplicaten.
Ik begon met een 4TB NVMe, dat bleek sneller van verwacht niet genoeg.
Ik zie gewoon een N300 van 20TB staan in de pricewatch
@YannickSpinner
Dit artikel gaat over de 24TB-variant :D
De reguliere N300 is in capaciteiten van 4 tot 18TB te krijgen, zo blijkt uit de Pricewatch.

[Reactie gewijzigd door Prince op 9 mei 2025 11:17]

Ah excuses, nu snap ik em :P Die versie is gek genoeg niet aan de N300-tag gekoppeld. Ik fix
Correctie: er is zelfs een 22TB-variant. Allebei gekoppeld in de PW!

[Reactie gewijzigd door YannickSpinner op 9 mei 2025 11:29]

De dik gedrukte tekst spreekt nog steeds van 18tb als de max.
Nou weten we nog niet wat er nou zo specifiek is aan deze NAS harde schijf tov een ‘narmale harde schijf in mijn ogen is elke ‘data center’ schijf al wel geschikt voor een NAS…. Even een korte uitleg zou voor velen wel informatief zijn geweest.
Ik denk dat de meeste tweakers het verschil weten. Deze schijven hebben een relatief hoge levensduur maar, komen niet met de grote nadelen van datacenter schijven (geluid, warmte etc).
Meh, van m'n HGST 7K4000 4TB Deskstar was toen ook een NAS versie, heb er 3 van in gebruik waarvan de oudste inmiddels sinds 2013? met inmiddels meer dan 71k draaiuren vrolijk 190TB dataverkeer heeft verstouwd, niet in een NAS maar gewoon binnen PC kasten. Nul problemen of ook maar een hint dat er iets is met de levensduur. Zowel de NAS als de Deskstar versie waren volgens mij 7200RPM.

https://i.imgur.com/n8PPcmT.png
https://i.imgur.com/tp2ulmb.png

Wat mij betreft kan de NAS versie gestolen worden, al kunnen die eventueel functies hebben om 'stiller' te opereren maar dat zou voor mij persoonlijk een worst wezen.

[Reactie gewijzigd door CriticalHit_NL op 9 mei 2025 09:38]

Ik heb jarenlang in mijn Synology gewoon een goedkope desktopschijf gehad. Zon eco ding, werkte prima en heeft 7 jaar lang elke dag aangestaan.

N=1 :+
eh, je geeft aan dat de NAS versie heel goed werkt, dan is dat toch juist positief?
Ik gebruik een Deskstar, dat was geen NAS versie.
uitvoering: HGST Deskstar 7K4000, 4TB
Er was ook een Nas versie van de 7k4000. Daar heb ik er nog een berg van draaien op verschillende plekken.

uitvoering: HGST Deskstar NAS, 4TB
Als je twee servers hebt waaronder eentje op een fail-over locatie wil je de hdd snel kunnen vervangen. Als leverancier van de servers moet je er dus voor zorgen dat je een voorraad beschikbaar hebt. Dat kan prijzig worden als die nauweljks verkocht worden.
Na het lezen van de laaste alinea kun je dus eigenlijk concluderen dat de markt al verzadigd is. Voor Toshiba is er daardoor relatief weinig omzet te behalen na het op de markt brengen en promoten van deze schijf.
Ik denk dat je dan een paar flinke stappen neemt om die conclusie te trekken. 24 TB, welke normale consument heeft dat in vredesnaam nodig c.q. investeert dit in lokale opslag? Dat is alleen de uber-enthusiast die activiteit vertoont dat verder gaat dan wat de meeste MKB-oplossingen vergen. In Azië heb je veel meer mensen, dus een grotere kans dat je een dergelijk persoon tegen komt. Ook het aantal mensen die überhaupt dergelijke bedragen uitgeven aan dergelijke oplossingen ligt hoger (gemiddeld inkomen is lager, maar absolute aantal mensen dat veel geld heeft (zeker gecombineerd met dergelijke IT-activiteit (o.b.v. algemene interesse maar ook het gebrek aan beschikbaarheid van betrouwbaar internet op bepaalde plekken), ligt waarschijnlijk een stuk hoger).
Dat valt best mee met die paar flinke stappen.
In het artikel zelf staat namelijk dat de afzetmarkt te klein is in Europa. In de laatste allinea wordt het als frappant gezien dat Toshiba al een dergelijke schijf op de markt heeft en dat concurrenten ook 24 TB nas-HDD 's aanbieden. Ik denk dus dat er voor de kleine afzetmarkt al voldoende aanbod is waardoor het geen zin heeft voor Toshiba om hier resources aan te besteden.
Jij stelt dat dit bewijs is dat markt verzadigd is, dus dat deze er ooit wel was en nu niet of te vol zit. Het kan ook zo zijn dat de markt er nooit was. De MG-serie is voor enterprise-doeleinden. Dat is dus een andere markt dan voor de N300-serie.
Dat zijn mensen die alle rawits foto's eindeloos bewaren. Of alles wat los en vastzit downloaden.
De markt is niet verzadigd, koop maar eens een HDD boven de 8TB. Die prijs is ontzettend duur, en in mijn ogen kan dat niet anders met maar twee/drie concurrenten.

De enige hoop zijn meer betaalbare NVMe disks, maar dat duurt nog wel even als we het over die TBs hebben.
Er staat anders een mooie 20TB N300 disk in de Pricewatch:

uitvoering: Toshiba BULK N300 NAS Hard Drive, 20TB
Ik heb zeker vraag naar zo een schijf,

maar ik vermoed dat ze deze niet aan mijn "vraagprijs" gaan kunnen leveren :)

Net een upgrade in mijn zelfbouw NAS gedaan naar 2x 16TB , heb gekozen voor "recertified" enterprise disk's, is altijd een gokje natuurlijk maar de prijs is dan wel binnen mijn budget , en eigenlijk heb je (als je geen pech hebt) een top of the line disk set,
Ik ben eigenlijk wel benieuwd hoe beperkt die vraag in Europa dan is t.o.v. bijvoorbeeld de VS.
Dat verschil moet behoorlijk dramatisch zijn om te besluiten hier niet te verkopen.
Aangezien andere fabrikanten wel al een verdienmodel zien in het leveren van soortgelijke harddisks ligt het er waarschijnlijk aan dat de markt hier te verzadigd kan zijn vergeleken met bijvoorbeeld de VS. En dan kan het lucratiever zijn om meer investering te doen in enkele markten en anderen voorlopig te negeren.
Komt vooral door de prijs gok ik, een is geen en dan wordt het al gauw een dure hobby als je meer dan twee schijven wilt en boven de 3TB komt.


Om te kunnen reageren moet je ingelogd zijn