Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

IBM en Sony verhogen opslagdichtheid tapes voor ontwikkeling 330TB-cartridge

Door , 40 reacties

IBM Research en Sony hebben tapeopslag ontwikkeld met een recordopslagdichtheid van 201Gb/in2. Die ligt twintig keer hoger dan IBM's huidige maximum bij beschikbare tapesystemen en kan gebruikt worden om datacartridges van 330TB te maken.

Tapeopslag heeft nog altijd flinke potentie voor de opslag van grote hoeveelheden data, claimt Sony, door de capaciteit in combinatie met energiezuinigheid, lage kosten en lange levensduur. Om de opslagdichtheid te vergroten, richtte Sony zich op verbeteringen van de tape. IBM Research in Zwitserland ontwikkelde de lees- en schrijfkoppen, verbeterde de servomechanismen en maakte de algoritmes voor signaalverwerking efficiënter.

Sony's tape bestaat uit verschillende lagen. De opslaglaag bevat magnetische nanodeeltjes en Sony heeft een nieuwe methode toegepast om de deeltjes met een gemiddelde grootte van 7nm aan te brengen. Dankzij een elektrostatische ontlading botsen argon-ionen met het bronmateriaal en spatten de nanodeeltjes uniform op het substraat. Op de resulterende dunne laag legt Sony een beschermende laag en daarbovenop gebruikt het bedrijf een smeermiddel.

Dit middel vermindert de wrijving bij het contactpunt tussen de tape en de kop, waardoor de tape soepeler langs de koppen loopt. Dat moet het uitlezen en schrijven op hoge snelheid ten goede komen. Daarnaast verlengt het middel volgens Sony de levensduur.

De verbeteringen leiden er wel toe dat de tape iets dikker is dan voorgaande versies, wat gevolgen heeft voor de lengte. Met de techniek kan IBM een kilometer tape per cartridge gebruiken, rekening houdend met de afmetingen van een JD-cartridge van de IBM TS1155, het huidige tapesysteem van IBM, van 109x125x24,5mm. In 2015 ontwikkelde Sony tape die met een lengte van 1255 meter in de cartridges past. De vermindering van de lengte wordt ruimschoots gecompenseerd door de verhoging van de opslagdichtheid naar 201Gb/in². Het huidige maximum voor commerciële tapeopslag ligt op 9,6Gb/in², maar IBM demonstreerde in 2015 al een opslagdichtheid van 123Gb/in². De productiekosten liggen volgens IBM wel wat hoger, maar de kosten per terabyte zouden uiteindelijk lager uitvallen.


Met name bij grote bedrijven en instellingen is tapeopslag nog in gebruik voor back-ups en gegevens die niet frequent benaderd hoeven te worden. Daarnaast worden supercomputers vaak gecombineerd met tapeopslag, zoals die bij CERN en de Nederlandse Nationale Supercomputer Cartesius. De tapelibraries bevatten robotarmen die op verzoek cartridges kunnen pakken om deze te kunnen laden.

Reacties (40)

Wijzig sortering
En wanneer gaan we dit in de praktijk terug zien?
De "185TB tape technologie" die in 2014 werd aangekondigd zie je nu nog steeds niet terug in commercieel verkrijgbare producten.

Neemt niet weg dat 100'en TB's per tape wel heel welkom zijn met de opslagvraag van tegenwoordig.
Archieven van Petabytes zijn echt geen uitzondering meer in de onderzoekswereld en als SKA over een paar jaar een beetje van de grond komt hebben we het over EB's aan opslag. (1.25 PB aan verwerkte data per etmaal per locatie, gedurende decennia lang)
Zou mooi zijn als ook de snelheid van de tapedrives nog wat verder omhoog kan.
Mwhoa, de genoemde IBM TS1155 heeft een doorvoer van 360MB/s dus dat lijkt me een redelijke doorvoer; je doet dus 1.3TB/uur. Deze waarde is natuurlijk alleen geldig indien de controller de data snel genoeg kan aanleveren en de software (om de data weg te schrijven) geen compressie, checksums en andere zaken nog moet gaan berekenen.

Over het algemeen zal je bij dit soort enterprise-class drives er niet eentje maar meerdere tegelijk inzetten; als je in een nacht (22:00 tot 06:00) meer dan 10TB weg moet schrijven aan gewijzigde/nieuwe data, ben je sowieso al een redelijke grootverbruiker en zal je daar in de infrastructuur wel rekening mee hebben gehouden.

Vergeet ook even niet dat vaak de onderliggende storage scheduled of real-time een aantal optimalisaties al kan hebben uitgevoerd; als je over 100 Windows VM's hebt uitgerold aan de hand van een template van 60GB OS-disk, zal je in je eerste full backup waarschijnlijk nog niet eens 2GB weg hoeven schrijven. Het template zit al in de backup en door middel van deduplicatie, heb je enkele tientallen MB's aan daadwerkelijk essentiele data per VM die nieuw in de backup komt.
Het maken van een backup is niet het probleem. Wat mensen vaak vergeten is de duur van een restore vanaf een tape. Enkele jaren geleden meerdere disaster recovery tests uitgevoerd voor een grote klant. De tape-robot, waar vanaf restored werd, was veel kleiner dan de productieomgeving, waardoor de restore van alleen de SAP omgeving dagen zou duren. De volledige infrastructuur restoren zou weken in beslag nemen.

Alleen door een uiterst complexe planning te maken, in welke volgorde de systemen online zouden komen, konden we binnen de gestelde grenzen van de klant blijven (terwijl zij verantwoordelijk waren voor het niet investeren in de restore omgeving).

Tegewoordig gaan off-site backups meestal middels storage-replicatie, maar dat was er toen nog niet echt :) en er zijn bedrijven die denken dat zoiets te duur is...

[Reactie gewijzigd door Abom op 2 augustus 2017 12:23]

Als de boel in brand staat is er misschien wel mogelijkheid wat drives bij te zetten. De grote OEMs helpen je maar wat graag aan wat spul, hoe dringender hoe liever duurder.
Ik heb HP wel eens een SAN binnen 4u weten binnenrijden om te 'helpen'.

Anyway, das kwestie van planning: het starten van de disaster recovery, kan wellicht ook budget vrijschakelen voor externe hulp.
Uiteraard, wij waren die grote speler, wij konden alles leveren wat je wilde, compleet mobiel datacenter op een vrachtwagen? Geen probleem! Graag hier even tekenen...

Mijn verhaal betrof een disaster recovery test, maar wel met hardware waar de klant voor betaalde en daadwerkelijk bedoeld was in geval van een calamiteit, en dat was gewoon onder de maat. Toen we dat aantoonde waren ze nog steeds niet echt bereid om meer te investeren in hun recovery omgeving.

[Reactie gewijzigd door Abom op 2 augustus 2017 13:34]

Toen we dat aantoonde waren ze nog steeds niet echt bereid om meer te investeren in hun recovery omgeving.
Ik zie ze al staan: "Dat gebeurt toch niet." "Die kosten kunnen we niet verantwoorden"
Totdat het een keer echt gebeurt en het bedrijf helemaal stil ligt, dan mag het ineens alles kosten op het laatste moment!
Ik ken dat probleem, hier met het oog daarop de storage omgeving bewust nog veel sneller gemaakt dan normaliter noodzakelijk is.
Effe een backup maken van mijn systeem, 320 tb is heel erg veel.
Zo zie je maar weer dat het door ontwikkelen van een product wel degelijk zin heeft.
Gebaseerd natuurlijk op vernieuwde techniek.Ja en ik denk dat dit product heel erg goed zou kunnen doen in een werk omgeving alleen al om een backup te maken van een geheel jaar.
Gelukkig is deze tape enigszins best snel maar is ook afhankelijk aan wat voor een controller hij hangt.ziet er goed uit ga zo door sony en ibm.
Ruim 300 TeraByte met 1,3 TeraByte per uur. Ruim 200 uir om een tape vol te schrijven.... Maak ik een rekenfout of is er hier iets belachelijk...?
Die LTO drives gaan best wel vlot. En die robotarm is sneller dan het met het handje wisselen.

Maar langzaam of snel is een relatief begrip. Hier wat nummertjes om zelf te oordelen.

BM LTO Ultrium 6 zit in testrig op 576 GB/hour, pak & beet 400-500 in de praktijk
IBM LTO Ultrium 7 zit in testrig op 2,7 TB/hour, pak & beet 2,2-2,4 in de praktijk

als we die lijn doortrekken zouden we ergens in lab op een 4,4 TB/hour moeten uitkomen met die nieuwe tapes & heads.

[Reactie gewijzigd door kwakzalver op 2 augustus 2017 12:09]

20 keer hogere datadichtheid betekent ook dat de snelheid 20 keer hoger zal liggen als de tape even snel blijft draaien. Alleen moet de hardware die het aanstuurd dat natuurlijk wel aankunnen.
20 keer hogere datadichtheid betekent ook dat de snelheid 20 keer hoger zal liggen als de tape even snel blijft draaien. [...]
Nou nee, de datadichtheid gaat 2-dimensionaal op tape.
Een LTO-tape zal ongeveer 100x van voor tot achter beschreven worden, waarbij steeds een volgend spoor in gebruik is.
Nu zal het aantal sporen vast niet lineair oplopen met de toenemende datadichtheid en op een gegeven moment zal je vanuit praktische overwegingen misschien ook wel meerdere koppen willen hebben omdat het anders heel lang duurt.
Maar 20x de dichtheid zal zeker niet 20x de transferrate opleveren, maar het zal vast wel meer dan een factor sqrt(20) zijn.
In het wegschrijven van een stroom bits zal het probleem ook niet zitten maar als je een bestand wil restoren die fysiek ergens aan het eind van de tape zit veruit de meeste tijd in spoelen naar het bestand.
M.i. hebben ze dat nog niet echt elegant opgelost?

Tape drives hebben zo nog hun toepassing maar persoonlijk kies ik tegenwoordig eigenlijk altijd voor voldoende redundancy in harddrive ruimte over een x-aantal hardware platformen en fysieke locaties.

[Reactie gewijzigd door Ton Deuse op 2 augustus 2017 13:03]

Heb nog eens taperobotjes aangestuurd met Python code met een MySQL database waar ik de index in opsloeg. Bij uploaden pikte de Python code de file indexering uit de tar files die langs kwamen. De data kwam op LTO tapes (ultrium 3 en 4) in twee gebouwen. In elk gebouw stond een robot met twee tape drives, dus je kon restoren terwijl een backup liep.

Backup/restore ging via webserver. Een restore job van 1 bestandje duurt ongeveer 1 a 2 minuten. De tape robot moet daarvoor een tape pakken, in de reader steken, spoelen naar de juiste plek en dan de data naar je toe sturen.

De tape leverde zo'n 100 tot 200 megabyte per seconde, dus je moest wel op de 10G backbone zitten om de volle snelheid te halen. Voor de gigabit paupers was er een paar terabyte tijdelijke opslag om data te bufferen en de tape niet onnodig op te houden.

Ik vind 2 minuten echt geen slechte tijd om data volstrekt random uit een archief te halen. Je zou meer tijd kwijt zijn met het opzoeken en inpluggen van een USB drive uit de boekenkast naast je bureau.
Kan iemand vertellen wat de lees en schrijfsnelheid naar dit soort tapes is?
Op een van de IBM pagina's wordt een rate van 160MBps genoemd. Met dat tempo duurt het dik 600 uur voordat het ding volledig beschreven is....
Je hoeft een tape niet in 1x helemaal vol te schrijven. In een goed tape-schedule, zal de betreffende tape eens in de week, maand of jaar terugkomen in de drive en schrijft daarna nieuwe data weg. Juist tapes gebruikt men voor offsite storage dus als de backup klaar is, gaan tapes eruit, worden getransporteerd en komen via een bepaalde schedule weer terug.
Dat is via het oude principe. Als je IBM Tivoli Storage Manager (TSM) of tegenwoordig IBM Spectrum Protect genaamd, dan gebruik je incremental for ever. Bovendien als je back-ups voor een jaar of langer gaat bewaren, dan zijn dat eigenlijk geen backups meer maar archives. De enige reden om data zolang te willen bewaren is legal complaincy.
Gebruik je dan geen WORM tapes?
Yup, d'r zijn ook gegevens die 10+ jaar bewaard moeten worden, daar zijn dit soort systemen ook ideaal voor.
Gegeven dat je voornamelijk incrementele backups maakt ben je normaal gesproken (een uitzondering daar gelaten) niet bezig om iedere dag 330TB weg te schrijven. Stel je hebt iedere dag 2TB aan veranderde gegevens, dan ben je "slechts" 3 uur en 40 min aan het schrijven. Verder zijn dat snelheden die uit gaan van 2.5TB cartridges, door de hogere dichtheid van deze nieuwe cartridges zal de doorvoersnelheid ook een pak hoger liggen.

[Reactie gewijzigd door the_shadow op 2 augustus 2017 12:05]

Jammer dat er niet meer zo'n systeem bestaat voor de gewone consument. Tapeopslag blijft toch iets speciaals hebben, ik denk met veel genoegen terug aan de tijd dat ik wel 100 C64-programma's op een cassette van 60 min kwijt kon.
Hoezo bestaat het niet?

LTO 3 tot 6 tape drives staan refurbished op de bekendere sites vanaf een Eurootje of 200. En dat loopt natuurlijk op tot gloednieuwe devices van grofweg 4K. Bijbehorende tapes komen uiteindelijk uit op ergens tussen de 8 en 20 Euro per TB opslag mits je je verdiept in de correcte software/aansturing. Let wel: dan heb je alleen opslag; je kan niet zoals op de C64 er direct van "booten / spelen"; dat is dus niet anders dan de oplossing die voor enterprise in het artikel staan.

Kan het zijn dat je tape (cassettebandje) en tape (LTO) enigszins met elkaar verwart? Het ene medium is random "realtime" access is terwijl het andere medium random "very delayed" access is; de cassettebandjes lagen naast je tape-recorder terwijl je LTO-tapes vaak (tientallen) kilometers verderop worden opgeslagn. Het ligt er dus volledig aan wat exact jouw doel/argument is om tapeopslag in te zetten.
Bedoeling is om al mijn externe harde schijven (± 10 TB) te backuppen, niet om er spelletjes van te laden zoals vroeger. Ik ging er altijd van uit dat dit soort apparatuur veel te duur was voor de gewone consument, daarom heb ik me er nooit in verdiept. Dat ga ik dus nu wel doen, dank voor de tip.
Ik denk dat je jezelf een groot plezier doet als je de optie van één HGST disk van 10-12TB overweegt. Zelfde prijs maar dan voor nieuw spul. Ik kijk ook met enige regelmaat naar de tape-optie, maar kom telkens tot de conclusie dat het geen echte optie is.
Of voor hetzelfde geld 2x een Seagate 8 TB archive disk.
Die SMR-techniek maakt het minder geschikt voor dagelijks gebruik, maar uitermate interessant voor backups.
Die HGST schijven hebben een erg lage uitval, maar daar is de prijs ook naar. 2 schijven voor hetzelfde geld is waarschijnlijk veiliger, omdat je er dan 1 ook echt buitenshuis zou kunnen hebben.
Refurbished tape opslag voor de gewone consument? Dit betekent dat een fotograaf of videograaf die tapes kan gebruiken als archief voor zijn foto-/videocollectie? Als permanent archief in plaats van een NAS?
Dat opent perspectieven.

Eigenlijk is tape-opslag al heel oud qua technologie. Verbazend dat het nog zoveel gebruikt wordt en doorontwikkeld.
Voor 200 euro een drive vinden is wel mogelijk. Maar let wel op de interface. De meesten zullen SCSI gebruiken en een SCSI adapter vind je niet in een gemiddelde consumenten PC.
De meesten zullen SCSI gebruiken en een SCSI adapter vind je niet in een gemiddelde consumenten PC.
En dan is er ook nog de vraag of er wel drivers zijn voor je consumenten-OS. Het gaat om refurbished spul dus wat ouder dus is het de vraag of er wel ondersteuning is voor de nieuwste versie van het OS. De consumenten-OSsen worden minder lang ondersteund als de server-OSsen dus de kans is groot dat je zelf al naar een nieuwe versie gemigreerd bent. Wie heeft er nog het met Server 2008 compatible consumenten-OS 'Vista' draaien, laat staan het met 2003 compatible XP (al is ook 2003 natuurlijk al uit support)
Ach, Microsoft is wel koning van de backwards compatibility. De drivers die ze meeleveren met hun OS'en zijn talrijk. En daar zit vast wel een mooie collectie Adaptec drivers bij.

Then again..... check dit. Valt toch wel tegen. ;(

[Reactie gewijzigd door SwerveShot op 9 augustus 2017 14:30]

Ik had een machine staan, een oude Proliant ML330G3 oorspronkelijk uitgeleverd met Windows SBS 2003 en in gebruik geweest als bedrijfsserver (primary domain controller). Deze voldeed op een gegeven moment niet meer en is toen buiten werking gesteld. Hierna is deze bij mij terecht gekomen.

Deze had twee SCSI-drives en een ATA Raid adapter (4 kanalen). Voor de SCSI-adapter was er alleen een driver voor Windows 2000 en voor Windows 2003. Met kunst en vliegwerk heb ik dit draaiende gekregen op Windows 7 maar onder Windows 8 of later zou dit niet gelukt zijn. De raid-adapter kon overigens wel een HDD aansturen, maar geen twee tenzij in raid (en ik had geen twee identieke ATA-HDD's liggen).

Omdat de PCI-sloten alleen 3,3V ondersteunden en vrijwel alle normaal in de handel zijnde PCI-insteekkaartjes enkel op 5V werken was het vinden van bruikbare insteekkaarten, bv voor USB 2.0 (of nieuwe) vrijwel onmogelijk. Je komt dan in het professionele assortiment terecht met hoge prijzen tot gevolg. Het oude spul is meestal hoger geprijsd als nieuw spul.

Kortom, als je een leuke Adaptec-SCSI-kaart vindt, moet je nog maar afwachten of die
- fysiek in je systeem past
- ook een driver heeft voor jouw OS, ook al heeft Windows veel drivers, je zal zien dat het model dat je gevonden hebt er nu net eentje is waarvoor Windows geen driver heeft en de maker van de kaart ze net van de website heeft gehaald.

Ook diverse Linux-distributies konden overigens niet overweg met de SCSI-controller en degene die dat wel kon (Ubuntu, Xubuntu 12.04) had vanaf versie 14.04 weer problemen met de nVidia-kaart die ik er in gestoken had (dat was toevallig wel een 3,3V PCI-kaartje maar zo oud dat de laatst beschikbare driver een driver voor Vista was). Snow Linux, SolydX en wilden prima installeren maar na herstart was er geen schermweergave, Manjaro en Debian andere zagen de SCSI-controller niet. Halverwege 2016 heb ik het systeem maar definitief uit gezet.
Mr777: Dat kan nog steeds, hoor ;-)

"ik denk met veel genoegen terug aan de tijd dat ik wel 100 C64-programma's op een cassette van 60 min kwijt kon."

[Reactie gewijzigd door Anton L. op 2 augustus 2017 19:13]

Vraagje, is het met tapes zo dat voor één bestand alles netjes achter elkaar weggeschreven wordt eigenlijk.
Zo ja, dan is dit een mooie ontwikkeling natuurlijk, maar mocht dit niet het geval zijn, dan kan dat het terughalen van bestanden nog wel eens behoorlijk gaan vertragen lijkt mij, aangezien er dan veel over en weer gespoeld zal moeten worden met deze tapes om één compleet bestand weer terug te kunnen halen.
En aangezien de opslagdichtheid ook aanzienlijk is vergroot, maakt dit dat alles ook nog eens dichter op elkaar geschreven staat, wat het terug vinden/halen van bestanden dan ook weer een preciezer werkje maakt, en zo wellicht ook nog eens extra vertraagt.

[Reactie gewijzigd door SSDtje op 2 augustus 2017 12:35]

in LTFS is er een index vooraan de tape en de 2de partitie heeft de data, zoals je al zegt achter elkaar aan.
Nice, aangezien ik al zat te denken, dat het veel over en weer moeten spoelen van deze tapes me nou ook niet echt bepaald gezond lijkt voor dit soort, toch wel relatieve fragile/sensitive manier van data opslag.
Dus thx voor je reactie, top.
:)
Dit fenomeen heeft zelfs een naam. Men noemt dit 'shoe shining' omdat de tape hierbij heen en weer over de kop van een tapedrive gaat. Net als het poetsen van je schoenen met een poetsdoek. Is niet bevorderlijk voor de levensduur van de drive en zeker niet van de tape zelf. :*)
Ga er van uit dat 1 bestand lineair op tape staat maar mogelijk wel interleafed: als er bij het schrijven meer jobs parallel liepen dan is het om em om een blok voor iedere job. Dat vertraagd het teruglezen iets.
Als bij het schrijven de data niet snel genoeg wordt aangeleverd en de tape blijft lopen komen er lege stukken op tape. Als je dat niet wilt, dan spoelt de tape steeds heen en weer omdat ze vaak maar op 1 snelheid kan schrijven. Dat vertraagd het schrijven enorm veel.
Als bij het lezen de data niet snel genoeg kan worden doorgestuurd wordt het teruglezen enorm traag omdat de tape gaat heen en weer spoelen, ook hier omdat lezen vaak maar op 1 of soms 2 snelheden kan.
Sommige tape cartridges hebben een beetje ssd geheugen voor een index maar debackup software moet daar mee om kunnen gaan. Meestal heeft backup software een eigen tape index database. Dat is de backup die je het eerst wilt restoren.
De combinatie LTFS met een laag meta data powered software in recente opstellingen werkzaam in een flash server maakt dat data in een active archive(Tape,S3, Flas,Object storage, softwarelaag) solution zeer snel terug gevonden kan worden. Kijk eens hier hou dat werkt https://strongboxdata.com/products/strongbox/
Mijn excuses voor waarschijnlijk off-topic / oninteressant voor Tweakers, maar wat heeft die Dr Lantz (IBM Research scientist in de video) een uitzonderlijk kalme, rustgevende stem. Het roept vraagtekens bij me op m.b.t. zijn denkvermogen, intellect / IQ (in positieve zin).

[Reactie gewijzigd door CoreIT op 2 augustus 2017 13:38]

Tape wordt in de praktijk steeds minder in backups gebruikt maar steeds vaker in active archive solutions. Primary storage ontlasten door meta data powered flash en object storage laten landen op tape. kijk eens bij Spectra Logic, Strongbox en Nodeum.
Tape heeft een prachtige toekomst...


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*