Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 124 reacties

HGST, onderdeel van Western Digital, heeft voor de professionele markt een 8TB- en een 10TB-HelioSeal-schijf aangekondigd, waarbij de platters draaien in een met helium gevulde behuizing. Daarnaast komt de fabrikant met een pci-e-ssd.

HGST logoDe 8TB-Ultrastar He8-schijven, bedoeld voor gebruik in datacenters, komen direct op de markt, samen met een 6TB-versie. Het 10TB-model, een 3,5"-drive die beschikt over zeven platters, een 12Gbit/s-sas-interface en 128MB cache, wordt momenteel nog getest door HGST en partnerbedrijven. Volgens de fabrikant leveren zijn nieuwe Ultrastar He8-schijven momenteel de meeste opslag per dollar, terwijl ook het energieverbruik per TB laag is. De schijven zouden vooral nuttig zijn voor de opslag van media en grote hoeveelheden data, bijvoorbeeld via cold storage, ofwel langdurige dataopslag. HGST geeft vijf jaar garantie op de schijven.

10TB-schijf van HGST

De hoge opslagcapaciteit van de 10TB-harddisk is volgens HGST mogelijk dankzij twee technieken. Zo zorgt de HelioSeal-technologie ervoor dat de schijven gevuld zijn met helium om de warmteontwikkeling door luchtweerstand in de behuizing te verminderen. HGST denkt in 2017 al zijn harde schijven met helium te gaan vullen. Daarnaast gebruikt HGST een opslagtechnologie die luistert naar de naam shingled magnetic recording, waarbij datagebieden op een platter elkaar deels overlappen. Volgens concurrent Seagate zijn er omstreeks het jaar 2020 harde schijven te produceren die dankzij smr-technologie 20TB of meer kunnen opslaan.

HGST heeft ook de Ultrastar SN100-ssd-serie aangekondigd. Deze ssd's komen beschikbaar in een reguliere 2,5"-form-factor, maar ook als een pci-e add-in-kaart. Om te communiceren met de pci-e-databus wordt het NVMe-protocol gebruikt. NVMe maakt ook optimalisaties voor energiebeheer mogelijk. De fabrikant zegt ssd's met opslagcapaciteiten van 800GB, 1,6TB en 3,2TB te kunnen gaan leveren, waarbij de mlc-nandchips van Toshiba afkomstig zijn. Momenteel verstuurt HGST monsters van de eerste modellen, waarbij de fabrikant meldt dat de prestaties gemiddeld tweemaal zo hoog zijn als die van zijn huidige FlashMAX pci-e-ssd's.
Ultrastar SN100

Moderatie-faq Wijzig weergave

Reacties (124)

Ik ben wel benieuwd wanneer de techniek van conventionele draaiende hardeschijven is uitontwikkeld. Op een gegeven moment moeten ze toch aan hun maximale grootte zitten omdat het fysiek gewoon niet mogelijk is om er meer uit te persen aan opslagruimte. Je zit met de huidige grote schijven al met problemen zoals bitrot data rot. Hoe groter de schijf qua opslagruimte, des te meer kans je daarop hebt. ZFS is dan al een vereiste voor betrouwbare opslag.

Verder vraag ik me af of na een aantal jaar het helium niet uit de schijf is verdwenen. Volgens mij als je een opgeblazen heliumballon een hele tijd laat liggen dan zal hij na verloop van tijd ook slapper worden omdat het helium door de ballon heen gaat. Zelfde als bij autobanden, de zuurstofatomen zijn zo klein dat ze na verloop van tijd verdwijnen door diffusie door het rubber van de band heen. Als je er dus een stikstof/zuurstof mengsel in pompt (te herkennen aan groene ventieldopje) dan zal de band dus langer hard blijven (stikstofatomen zijn groter, dus zachter worden gaat langzamer)

[Reactie gewijzigd door ThinkPad op 10 september 2014 13:32]

Ik ben wel benieuwd wanneer de techniek van conventionele draaiende hardeschijven is uitontwikkeld. Op een gegeven moment moeten ze toch aan hun maximale grootte zitten omdat het fysiek gewoon niet mogelijk is om er meer uit te persen aan opslagruimte. Je zit met de huidige grote schijven al met problemen zoals bitrot.
Bitrot? Ik denk dat je data degradation bedoelt.
It should not be confused with "bit rot", defined in the Jargon File as a jocular explanation for the degradation of a software program over time even if "nothing has changed".
ZFS is dan al een vereiste voor betrouwbare opslag.
ZFS is in veel gevallen overkill en niet beschikbaar op ieder platform.

De opslag hoeft niet betrouwbaar te zijn. De beschikbaarheid van data wel. Dit kan gerealiseerd worden met backups en redudante opslagruimte (RAID1/5/6...). ZFS kan gebruikt worden, maar je use case moet dan wel iets meer bevatten dan alleen 'redudante opslagruimte' door de overhead en extra eisen die ZFS met zich meebrengt.

Als je overigens een serie disken hebt zonder productiefouten, en je houdt ze koel en zet ze nooit uit, dan is de kans groot dat ze jarenlang meegaan. Elk merk heeft zijn goede en minder goede series, en helaas is het op voorhand niet te zeggen welke jarenlang door blijven knorren en welke je net buiten de garantieperiode mag vervangen. :'(

[Reactie gewijzigd door The Zep Man op 10 september 2014 13:32]

De opslag hoeft niet betrouwbaar te zijn. De beschikbaarheid van data wel. Dit kan gerealiseerd worden met backups en redudante opslagruimte (RAID1/5/6...). ZFS kan gebruikt worden, maar je use case moet dan wel iets meer bevatten dan alleen 'redudante opslagruimte' door de overhead en extra eisen die ZFS met zich meebrengt.
He? Ik weet niet wat jij met je data doet maar betrouwbaar is voor mij juist wel heel belangrijk. Bits die spontaan omvallen kunnen heel vervelend zijn. Als ik een fotocollectie (of wat voor data dan ook) dan wil ik niet dat die over een paar jaar foutjes bevat.
RAID en backups zijn prima als er een hele disk uitvalt, maar een paar bitjes die spontaan veranderen vang je daar niet mee op. De meerwaarde van ZFS is dat het dit soort foutjes juist wel kan vinden en repareren.
O2 en N2 verschillen nauwelijks in afmetingen. Wel kan ik me vaag herinneren dat O2 makkelijker 'oplost' in het rubber en op die manier makkelijker door de band naar buiten kan gaan.
Het vullen van banden met stikstof is een prachtig verkoopverhaal. Standaard bestaat de lucht al uit 78% stikstof, 21% zuurstof en 1% diverse gassen. Als ze de band om de velg hebben gemonteerd zitten er daarom al 22% andere andere gassen in. Het bijvullen gebeurt daarna met 99,6% stikstof. Tenzij ze iets verzonnen hebben om de band eerst 'schoon' te spoelen zal de vulling dus nooit volledig uit stikstof bestaan.

Helium is wél vele malen kleiner. Nu is Helium inert, het reageert niet met andere stoffen. Van waterstof, het kleinste molecuul, is bekend dat het zelfs door de wand van metalen tanks heen sijpelt. Dat is ook een van de grote problemen voor waterstof auto's: hoe maak je een tank die a) sterk genoeg is voor de zeer hoge druk b) dik genoeg is om het sijpelen te beperken c) niet broos wordt door de waterstof en d) het gewicht van de tank niet zo groot is dat daardoor het rendement van de auto weer flink omlaag gaat.

Ongetwijfeld zal het Helium in de loop der tijd uit de behuizing van de HDD naar buiten verdwijnen. Volgens Wikipedia doet Helium dat in tegenstelling tot waterstof echter nauwelijks door vaste metalen zoals de behuizing maar wel door scheurtjes in pakkingen etc:
Helium leaks through cracks should not be confused with gas permeation through a bulk material. While helium has documented permeation constants (thus a calculable permeation rate) through glasses, ceramics, and synthetic materials, inert gases such as helium will not permeate most bulk metals
Bron: http://en.wikipedia.org/wiki/Helium#Minor_uses

I.t.t. een gewone harde schijf zullen deze schijven dus niet alleen onderhevig zijn aan de gewone slijtage maar ook aan weglekken van het Helium. Ik vermoed dat HGST daar rekening bij houdt voor de garantie. Maar vijf jaar is behoorlijk lang. HGST zal dit vast niet zomaar geven.
Als de druk in de drive ongeveer gelijk is aan buitenlucht zal er weinig lekken. Zelfs met een klein gaatje zal het dan lag duren tot alle helium door zuurstof vervangen is. En als je een kleine onderdruk maakt zal het lekken de eerste jaren amper invloed hebben.

Vergelijk het met zeppelins. Die waren bijzonder moeilijk neer te schieten (totdat er betere kogels ontwikkeld waren die de waterstof in brand konden steken). Sommige zeppelins kwamen terug met honderden kogelgaten en zelfs gaten van granaten maar omdat het druk verschil tussen de waterstof containers en de buitenlucht maar zeer gering was lekte ze maar heel langzaam.
Door diffusie gebeurt het hoe dan ook. Overdruk of onderdruk maakt daarbij niets uit.
Door het draaien van de schijven wordt de helium ook rondgeslingerd. Dat kun je vergelijken met een centrifuge. Aan de randen zal de helium dus meer botsen dan als de schijf stilstaat.

De Zeppelins hadden vele afzondelijke compartimenten. En het drukverschil tussen de compartimenten en de buitenlucht was inderdaad niet groot. Maar die zeppelins werden na een vlucht gerepareerd en bijgevuld. Dat gaat bij deze harde schijven wat lastig.
Alleen is de metalen behuizing van een HDD ten eerste gasdicht, en ten tweede veel steviger dan een latex ballon. Ik denk niet dat je veel gaat merken v.w.b. lekkages. Daarnaast zou het handig zijn van de fabrikant om te zorgen dat de drive ook zonder helium werkt, dan kan 'ie ook zonder helium namelijk gewoon door blijven draaien, zij het met meer warmteontwikkeling.
Wel eens een hardeschijf opengeschroefd? Onderkant is een aluminium 'bakje' met daarin de platters en armpje e.d. Het geheel wordt afgesloten door een deksel, met een rubberen seal ertussen :P

Het zal vast heel langzaam gaan, maar echt 100% luchtdicht is het niet. Op molecuulniveau zal er toch langzaam wat 'lekken'.

[Reactie gewijzigd door ThinkPad op 10 september 2014 13:35]

"Gasdicht" is nogal een ruim begrip. Luchtdichte ruimtes bestaan a) uit één deel of zijn b) afgesloten met pakkingen. Een pakking is meestal gemaakt van een veerkrachtig materiaal. Meestal laten die materialen tot op zekere hoogte ook stoffen door (zuurstof, vloeistof, enz.).

Ik ga er echter vanuit dat HGST hier rekening mee gehouden heeft ;)

Zo'n schijf zal overigens ongetwijfeld gewoon doorwerken als er zuurstof in de behuizing komt ipv helium. Denk dat je er alleen wel een garantiegeval aan overhoudt ivm sterk stijgende temperatuur.
Alles is poreus. Daar kom je nog meer achter wanneer je met stoom werkt..
Ik vraag me af wat en waarom er gekozen wordt voor pci... Ik begrijp dat het sneller zal zijn maar als ik in een gemiddelde server kijk dan kan ik daar meer disken in kwijt dat pci kaarten? Hebben ze hier nog meer reden voor dan alleen de hogere snelheid?
Nee, snelheid is de enige reden.
Liever zouden we het ook niet doen en 'gewone' schijven gebruiken, maar de interfaces zijn nog niet snel genoeg. Zo'n PCI-e kaart is een hack om daar om heen te komen.
Wanneer servers worden uitgerust met een snellere interface voor 'gewone' schijven zullen de PCI-e kaartjes wel weer verdwijnen. Tot die tijd is het de enige manier om de maximale snelheid uit moderne SSDs te krijgen.
Of we gooien die extra poorten voor een HDD eruit, en gaan (behalve voor maffe standaarden) helemaal over op PCIe intern en USB extern. Dat scheelt de stap van PCIe naar SATA die je chipset nu maakt. Dan zullen er soms misschien ribbon-kabels nodig zijn voor PCIe, maar an sich moet het kunnen. Ik zou het wel prettig vinden, want SATA is nu definitief traag aan het worden (ongeveer elke SSD zit aan de max, als je em de goeie data voert), en ik zie het SATA-protocol niet netjes opschalen naar 10x de bandbreedte. Niet zonder extreem brede kabels (IDE met z'n 40 aders was een stuk slechter weg te werken, over 68/80-pins SCSI hebben we het niet eens) in elk geval.
Dit is een van die cirkelbewegingen in de IT die je steeds terug ziet komen.
In de eerste computers zat de HD ook rechtstreeks op de ISA-bus aangesloten. Toen werd dat te duur en wilde we wat meer ruimte hebben en gingen we kabels maken die een ISA-bus na deden, dat werd de ATA standaard.
Vervolgens werd dat te langzaam en zetten we de controller rechtstreeks op de schijf, dat werd IDE.
Nu gaan we de boel weer direct op de bus aansluiten. Ik voorspel dat er vervolgens weer een beweging komt om schijven los te maken van de PCI-E bus en er een kabeltje tussen te zetten. Daar is dan weer een extra chipje voor nodig en zo gaan we verder.
Een SSD via PCI-e is vele malen sneller dan een SSD via Sata. Die worden voornamelijk gebruik voor de hoofdschijf waar het besturingssysteem op staat.
een 12Gbit/s-sas-interface en 128MB cache

http://en.wikipedia.org/wiki/PCI_Express
2.0 - 4 Gbit/s
3.0 - 7.877 Gbit/s
4.0 - 15.754 Gbit/s
Dus als ik het goed lees is PCI-E 3.0 langzamer als SAS... Waarbij het voordeel dus wegvalt? Behalve bij PCI-E 4.0... maar die zie je nog niet.

[Reactie gewijzigd door Doubt op 10 september 2014 13:45]

Per lane In a ×16 slot (16-lane)
Vermenigvuldig de gequote waarden dus maar eens met 4, 8 of 16 om de daadwerkelijk maximale theoretische snelheden te zien; ik neem toch aan dat een enterprise-oplossing niet in een PCIe 1x-slot wordt geschroefd?
Duidelijk alleen die vlieger gaat niet op. Bij 3.0 blijft hij steken op 15 Gbit/s dus inderdaad wel winst maar het verschil is minimaal?
Ik denk dat je ergens een copy/paste issue hebt gehad? Ik leest toch echt v3.0 doet 15.75GB/s oftewel 128Gbps.

Speed - Per lane, in each direction:
v1.x: 250 MB/s (2.5 GT/s)
v2.x: 500 MB/s (5 GT/s)
v3.0: 985 MB/s (8 GT/s)T/s)
v4.0: 1969 MB/s (16 GT/s)

For a 16-lane slot, in each direction:
v1.x: 4 GB/s (40 GT/s)
v2.x: 8 GB/s (80 GT/s)
v3.0: 15.75 GB/s (128 GT/s)T/s)
v4.0: 31.51 GB/s (256 GT/s)
Scherp en thnx! Begrijp nu eindelijk het issue!
De getallen van PCI-E zijn per lane. Voor een kaart als deze zullen er minimaal 4 of meer lanes gebruikt worden waardoor je dus al op +-28Gbit/s tegenover de 12Gbit van SAS.
De 12 Gb SAS interface uit het artikel slaat op de HDD niet op de SSD.
Speed
Per lane, in each direction:

v1.x: 250 MB/s (2.5 GT/s)
v2.x: 500 MB/s (5 GT/s)
v3.0: 985 MB/s (8 GT/s)
v4.0: 1969 MB/s (16 GT/s)

For a 16-lane slot, in each direction:

v1.x: 4 GB/s (40 GT/s)
v2.x: 8 GB/s (80 GT/s)
v3.0: 15.75 GB/s (128 GT/s)
v4.0: 31.51 GB/s (256 GT/s)
Dus ja, 15.75GB/s voor een 16-lane slot, 985MB/s per lane op basis van de 3.0 specificatie.
De latency van een PCI-Express slot is echter wel lager richting de CPU/Memory dan van een SAS controller (tenzij geïntegreerd in chipset/cpu) en bepaald ook een deel van de te behalen ruwe snelheid.

[Reactie gewijzigd door Venator op 10 september 2014 13:59]

uhm, ligt er aan hoeveel kanalen er beschikbaar zijn.. Kijk naar sommige moederborden die mooi zo'n pci-e ssd m.2 slot hebben, maar wel maar 1 kanaal beschikbaar waardoor je em beter gewoon op de SATA-6 kunt aansluiten..
De schrijven hebben een SAS interface. Geen pci-e, die zijn alleen voor de SSDs
Dan neem je de standaard formfactor:
Deze ssd's komen beschikbaar in een reguliere 2,5"-form-factor, maar ook als een pci-e add-in-kaart.
Snap ik maar wat is de keuze van iemand om zo'n pci-e kaart te nemen? Afgezien van ruimte gebrek...
datatransfer snelheid is hoger via pci-e, toch?
Dat zei ik al in mijn eerste reactie maar sneller als SAS... veel oplossingen zullen het verschil wat denk ik minimaal is niet merken? Correct me if i'm wrong...
PCIe is niet per definitie sneller dan SAS. Voornamelijk omdat niet bekend is welke PCIe-standaard deze schijven aanhouden maar ook omdat SAS te vaak verkeerd wordt gebruikt (namelijk het niet vermelden van de generatie).

Algemeen: SAS kan 3, 6 en 12Gbps verstouwen, PCIe 40, 80, 128 en 256Gbps over een 16-lane poort.

Het aantal PCIe-SSD's op dit moment wat een hogere transfer genereert dan een SAS 12Gbps interface, is op 1 hand te tellen ondanks dat PCIe sneller zou moeten zijn. Als voorbeeld de Intel PC3500 en PC3700 familie; die hebben een maximale rating van 22Gbps over PCIe. Zoals je op basis van de cijfers al ziet; dat is dus amper de helft (!!!) van de laagste ondersteunden snelheid over een PCIe 16x slot.
Intel SSD DC P3700 Review: The PCIe SSD Transition Begins with NVMe
Bandwidth limitations were only one reason to want to ditch SATA. The other bit of legacy that needed shedding was AHCI, the interface protocol for communication between host machines and their SATA HBAs (Host Bus Adaptors). AHCI was designed for a world where low latency NAND based SSDs didn't exist. It ends up being a fine protocol for communicating with high latency mechanical disks, but one that consumes an inordinate amount of CPU cycles for high performance SSDs.
waar wij ze voor gebruiken is die hoge bussnelheid wel lekker (caching disc voor content delivery --> filmpjes & foto's)
atop voor de hardware laat zien dat de bottleneck nou de 10Gig netwerkkaart is..
Daar kan je ook wel omheen met Nic Teaming en vergelijkbare technieken?
idd, maar is nog niet nodig :0)
we hebben meerdere storages, maar met stresstests kwam dat als eerst volgende issue naar boven
De doorvoersnelheid van PCI express is hoger dan SAS. Daarnaast kun je bij sommige servers de sloten toewijzen aan specifieke virtuele servers. De SAS poorten zitten dan aan dezelfde adapter en is dus niet op die manier te splitsen. Vaak zit de SAS adapter ook gewoon op een PCI-express bus, wat betekent dat je het pad (onnodig) langer maakt.
Nou, als je een database server gaat bouwen met als focus zeer hoge transactievolumes + afhandelsnelheid, dan wil je ieder component wat in de weg kan staan van hogere I/O elimineren. Lagere I/O kan betekenen dat je dan meer kosten per transactie gaat krijgen. Vaak zie je dan ook combinaties van memorycached transacties ontstaan met meerdere tiers aan storage arrays om de ruwe data weg te kunnen schrijven.
Volgens concurrent Seagate zijn er omstreeks het jaar 2020 harde schijven te produceren die dankzij smr-technologie 20TB of meer kunnen opslaan.
Wacht even... Binnenkort is 10TB beschikbaar, maar 20TB is voor 2020 gepland? 5 jaar voor een verdubbeling, zou dat betekenen dat Moore's Law voor harde schijven dan nu zo ongeveer niet meer haalbaar blijkt te zijn?

@hieronder: tuurlijk wel, het is zelfs een periode nog sneller geweest dan Moore: http://en.wikipedia.org/wiki/Mark_Kryder

[Reactie gewijzigd door ktf op 10 september 2014 13:22]

quote van de wiki:
http://nl.wikipedia.org/wiki/Wet_van_Moore
De voorspelling werd in 1965 gedaan door Gordon Moore, een van de oprichters van chipfabrikant Intel. De wet gold nog tot 2011, maar deskundigen houden er rekening mee dat deze vooruitgang binnenkort langzamer zal gaan verlopen. De reden daarvoor is dat de steeds verder doorgevoerde miniaturisatie niet langer alleen afhankelijk is van technologische vooruitgang, maar ook gehinderd wordt door fundamentele fysische barrières.
Dit is volgens mij ook van toepassing op de HDD industrie.. :o

[Reactie gewijzigd door THEMAN!! op 10 september 2014 13:27]

De Wet van Moore stelt dat het aantal transistors in een geïntegreerde schakeling door de technologische vooruitgang elke 2 jaar verdubbelt. (eerste zin van het artikel waar je naar linkt)

Dit gaat dus over Processoren en niet over harde schijven.
Klopt, ik heb het hele artikel gelezen, maar als je naar de onderdelen van de wet van Moore kijkt dan gaat het ook o.a. over de miniaturisatie en de fysische barrières, ofwel het kleiner maken van de transistors en de grenzen hiervan. Hier hebben wij het inderdaad niet over de transistors maar meer over bv. de hoeveelheid celletjes die op een platter kunnen.

Je kan het inderdaad zo klein mogelijk maken, maar zoals het straks bij de processoren gaat gebeuren worden er steeds meer andere componenten gebruikt doordat het nanometerproces steeds kleiner wordt. Wij kunnen hier ook vanuit gaan dat dit straks ook bij de HDD's gaat gebeuren. Kijk maar nu naar de overgang van de HDD's met lucht naar Helium. Het werkt wel, maar wat wordt het straks? Zo ook met het aantal platters. Hoeveel kan/wil je nog kwijt in een 3.5" behuizing? Als laatst ook met de hoeveelheid celletjes op een platter. Ergens zal dit ophouden anders heb je last van fouten.

[Reactie gewijzigd door THEMAN!! op 10 september 2014 14:02]

De 20TB projectie voor 2020 zal uitgaan van het verkleinen van de bitgrootte. Dat is onderhand erg moeilijk in HDDs en het is wachten op een doorbraak in heat assisted (HAMR) of bit patterned (of evt MAMR). Dat heeft trouwens niks te maken met transistors en het kleiner worden daarvan (en ook niet met lithografie processen).

De schaling van bits op een HDD wordt ook wel Kryder's Law genoemd. Het is wat anders als Moore's law. Ook al zal iedereen het wel begrijpen als je het zo noemt.

Ondertussen is Helium een manier om de luchtwrijving te verminderen en meer dan 5 platters in een doosje te stoppen. Dit schaalt natuurlijk maar beperkt door. Op een gegeven moment is het doosje vol.

Het betekent nu wel even een sprong, maar om de bits weer substantieel te verkleinen verder te komen zal er nog wat meer werk gedaan moeten worden.
Laten we inmiddels aardig bezig zijn met nanotubes als transistoren, waardoor dit juist nog wel eens een hele harde bump zou kunnen krijgen.. Dan kom je gemiddeld genomen toch weer terug op de wet, denk ik zo.
correct me if i'm wrong ... maar de wet van Moore ging toch over het aantal transistoren op een chip?
Is die ooit haalbaar geweest dan? Volgens mij niet.
halvering prijs of verdubbeling van snelheid zit er ook al een beetje bij. Uberhaupt zijn de schijven elke 1,5 jaar niet echt in capaciteit verdubbelt dacht ik zo, dus Moore's law is al niet echt toepasbaar. :)
@doubt, wat dacht je van speciale storage servers die de ssd kaarten als tussenstation gebruiken voor veel geraadpleegde data waarna niet veel gebruikte data de cold storage in gaan. Dit zijn schijven voor storage oplossingen en dat zijn niet de gemiddelde servers zover mij bekend is.
Daar heb je inderdaad een punt. Vraag is alleen hoeveel zal afname zijn ik neem aan dat er een aparte productielijn voor komt en de afzetmarkt zal niet heel groot zijn dan?
Wij draaien ook op een SAN met alleen SSD storage :+ en coldstorage. Merk verschil bijvoorbeeld met laden van TS Profiles en data wat er op geladen is t.o.v data wat niet op SSD staat. Het gaat met storage op SSD puur om data wat veel gebruikt wordt dit kan bijvoorbeeld ook nog in puur geheugen geladen worden voor nog grotere snelheidswinst. Bottleneck wordt op den duur je I/O throughput maar daar heb je dan ook weer oplossingen voor.
Ik ben enorm benieuwd naar het plan van HGST om alle schijven te voorzien van helium. Ik bedoel, het raakt een keer op en dat zal op deze manier alleen maar sneller gaan. De ene bron spreekt over 20 tot 30 jaar en de ander gaat daar weer ruim overheen. Opvallend ook dat je er niemand over hoort, lijkt me toch best interessant om te weten?
Helium raakt op? Het is na waterstof het meest voorkomende goedje in het universum. Op aarde is de voorraad momenteel nog minder, echter zijn ze nu zo'n grote stappen in de ruimtevaart aan het maken dat we tegen die tijd ruimte mijnen hebben.
http://www.independent.co...ut-of-helium-2059357.html

misschien wel veel voorkomend ... maar niet "te mijnen" als ik dit artikel zo lees.
Dus raken we idd wel "er door heen" en moeten we er dus eignelijk zeer zuinig mee doen.
Ik vind het ineens hard gaan.
We hebben relatief lang met de 3 en 4TB Disk's gedaan. Eerst kwam er regelmatig wel wat nieuws. En als er een stapje was was het meestal iets kleiner bv de stap van 3 naar 3TB.

Nu gaan we in korte tijd van 4TB naar 5 en 6TB vervolgens naar 8TB en komt er weer iets later de aankondiging van 10TB.

Ik vind het wel mooi want dan zal de prijs per GB van HDD's ook wel weer wat gaan dalen (mooi moment om mijn nas een upgrade te geven) maar vind het wel apart dat het in een korte tijd zo hard gegaan is. Ik ben wel benieuwd hoe lang het nu duurt voordat we weer grotere HDD's gaan zien. Ik kan me voorstellen dat het nu wel weer even duurt.
Hoef je niet benieuwd over te zijn, want zoals reeds in het artikel staat verwacht Seagate dat de volgende genraties tot 2020 ons al aan een capaciteit van 20TB gaan brengen. Pakweg elk jaar een stapje van 2 TB omhoog is prima voor de marketing jongens...
Zeggen is 1 doen is 2.
Nu zijn we in een jaar van 4 TB naar 10TB gegaan dat is 6 TB in een jaar. Dat is wat anders dan de 2 waar jij het over hebt. Waarom nu alles in een keer? waarom hebben ze dat niet net zoals in het verleden uitgesmeerd over een aantal jaar.
Nieuwe wedloop wie de grootste hd kan maken ? (na nieuws van vorige week van Seagate met 8TB)
Nieuw? Volgens mij is dat al sinds de eerste hardeschijf al aan de gang :)
Toch lange tijd dat de op 3TB oid zijn blijven hangen.
Volgens mij hing het langer op 2TB dan op 3 TB.
Dat ze eerst maar eens op de markt komen, het maximum in de PW is 6GB.
Dat ze eerst maar eens op de markt komen, het maximum in de PW is 6GB.
Ik heb liever dat de huidige harde schijven betaalbaarder worden. In de tijd dat schijven van 500 GB, 750 GB, 1 TB en 2 TB geïntroduceerd werden zat er relatief weinig tijd tussen de introductie van de nieuwe maximum grootte en een prijskaartje van 100 euro.

Ik herinner mij nog dat 2 TB zelfs een dip maakte naar 70 euro voor de overstromingen in Thailand. Ondertussen is dat prijspeil wel weer bereikt, maar een 4 TB disk van een enigzins bekend merk gaat niet voor minder dan 130 euro over de toonbank, ondanks dat ze al een aardige tijd uit zijn.

[Reactie gewijzigd door The Zep Man op 10 september 2014 13:22]

Inderdaad ja, voor die overstromingen was die Samsung 204UI of zoiets heel populair en volgens mij zelfs voor rond de 60 euro te krijgen. Ik heb er nog steeds een aantal van.

Het wordt wel tijd dat schijven weer wat goedkoper worden ja. En ik hoop ook dat die technologie zich verplaats naar de mobiele schijven, lijkt me erg interessant.

OT: Het gaat wel snel ineens... een half jaar geleden de eerste 6TB, 2 weken terug de 8, en nu de 10... Wel fijn. Kunnen we naar steeds minder schijven toe.
Net niet. Je zal nu steeds 2 schijven moeten hebben voor een backup. Want ze geraken steeds dichter bij gegarandeerde unrecoverable errors per schijf. Wat ze dus ook onbruikbaar maken voor zelfs raid 6.
Ik denk dat beide samengaan. Eerst moeten de grotere verschijnen voor de andere in prijs kunnen dalen.
Ze zijn ook op de markt (de 8TB versie dan). Dat jij hem niet bij een retailer vind is omdat de consument niet het doelpubliek is van deze schijf.
In de Pricewatch staan ook niet alle Enterprise modellen direct vermeld (of soms helemaal nooit), omdat deze vaak ook niet door de shops die hun producten in de Pricewatch aanbieden worden gevoerd als lijn. Primaire focus blijft toch richting wel consumenten op T.net.
Nm again. Reactie op een andere post komt telkens hier te staan, sorry.

[Reactie gewijzigd door ratmats op 10 september 2014 18:21]

Op zich mooie ontwikkeling, zal nog we enige tijd duren voordat deze voor de gewone consument verkrijgbaar zijn voor en betaalbare prijs, ik ben nog wel benieuwd wat de UBER van deze schijven zal zijn en wat het effect van deze is ivm eventuele raid rebuild.
Helium is zo waardevol dat het eigenlijk niet zou gebruikt mogen worden voor zinloze doeleinden zoals 't vullen van schijven, balonnen en andere speeltjes. Eens dat gas ontsnapt - zie je 't nooit meer terug - het verlaat gewoon de dampkring!
Is helium niet extra brandbaar?

Edit: Dankjullie wel, inderdaad verwarde ik Helium met Waterstof (H). :Y)

[Reactie gewijzigd door Mic2000 op 10 september 2014 19:46]

Nee en het is ook nog eens een inert gas, waardoor het niet gaat reageren met andere stoffen.

[Reactie gewijzigd door ThinkPad op 10 september 2014 13:21]

Helium is een edelgas en brandt dus helemaal niet.
Je denkt aan Waterstof (H). Helium is een edelgas en brandt dus juist niet.
niet in een vaccum.. zonder zuurstof geen ontbranding
als het een vacuum is, dan zit er dus oko geen helium in ;)
Nee.

Een vacuum *is* een ruimte zonder materie en druk, alleen de afwezigheid van zuurstof noemt men dus geen zuurstof vacuum.

En zoals al eerder vermeld, Helium (He, dus niet H) is een inert gas, wat niet eens niet alleen niet brand, maar helemaal niet reageert met andere elementen.

Misschien kun je je de Hindenberg nog herinneren? Deze luchtballon was gevuld met waterstof gas. Na dit ongeluk is men dan ook vrij snel over gestapt op helium.

[Reactie gewijzigd door ScoeS op 10 september 2014 21:54]

De Duitsers hadden graag Helium gebruikt maar op dat moment waren de VS de enige leverancier van grote hoeveelheden. De VS zagen de bui letterlijk hangen (Zeppelins zijn ook gebruikt worden voor oorlogsdoeleinden) en vertikten het om aan Duitsland Helium te leveren.

De Duitsers waren daarom gedwongen om waterstof te gebruiken.
Wikipedia: Een vacuüm is een ruimte zonder materie en zonder druk.
http://nl.wikipedia.org/wiki/Vacu%C3%BCm

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True