Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Stel een vraag

Discussieer mee of stel een vraag

Filters - Verfijn resultaten

Topictype

Categorieën

AND

Onderwerpen

AND

Subforum

Datumbereik

Topicstarter

Topicstatus

24 topics - Pagina 1 van 1

Het grote ZFS topic

30-04 15:40 discussie 17.231
Het grote ZFS topic
http://derivadow.files.wordpress.com/2007/01/zfs-self-healing.jpg%3Fw%3D510
ZFS; wat is dat? :?

ZFS ofwel Zettabyte FileSystem is een nieuw soort filesystem om bestanden mee op te slaan. ZFS verschilt enorm van andere filesystems, omdat het naast filesystem ook de functies van LVM en RAID engine verzorgt. We noemen ZFS daarom een hybride filesystem.

Vrijwel alle bestaande filesystems werken op één storage device zoals een hardeschijf. Ze zijn niet gemaakt om meerdere hardeschijven aan te spreken. Daarvoor is een aparte RAID layer nodig die van meerdere schijven één schijf maakt en er vervolgens een filesystem op wordt geplaatst. Het filesystem is zich hierbij niet bewust van het feit dat zijn data op meerdere disks staat; die twee werelden zijn strict gescheiden.

ZFS werkt heel anders; het spreekt direct meerdere schijven aan en integreert de functionaliteit van RAID, LVM en filesystem in één pakket. Dat heeft veel voordelen, voornamelijk op het gebied van betrouwbaarheid, maar zeker ook prestaties.

Zo zo... en wat zijn die 'voordelen' van ZFS dan? :7

ZFS is een 'next-gen' filesystem en heeft alleen Btrfs en ReFS als concurrenten. Btrfs is nog sterk in ontwikkeling en door de GPL licentie beperkt tot de Linux kernel. ReFS is het antwoord van Microsoft op de tekortkomingen van inmiddels behoorlijk gedateerde filesystems die we gebruiken, we noemen ze daarom legacy filesystems omdat deze eigenlijk gemaakt zijn voor een ander tijdperk. Alle platforms (Windows, Linux en UNIX) hebben dus hun eigen next-gen filesystem in de koker, maar ZFS is op dit moment het meest stabiel en volwassen en volledig production ready op meerdere besturingssystemen.

Een overzicht van enkele voordelen van ZFS versus legacy filesystems:
  • Checksums waken over de integriteit van je bestanden, en in het geval dat er toch corruptie plaatsvindt zie je precies welke bestanden dit treft. Nooit meer 'silent corruption' dus!
  • Intelligente afhandeling van onleesbare sectoren (bad sectors) - deze worden automatisch gecorrigeerd door deze te overschrijven met redundante data indien beschikbaar. Met ZFS ben je vrijwel immuun voor het probleem van bad sectors wat steeds groter wordt met de stijgende datadichtheid.
  • Self Healing; het on-the-fly automatisch repareren van corruptie en bad sectors, mits er voldoende redundancy beschikbaar is zoals in een mirror of RAID-Z configuratie.
  • Dynamische stripesizes betekent dat ZFS niet kwetsbaar is voor de zogenaamde 'write hole'; ZFS kent geen read-modify-write. Dit is een technisch belangrijk voordeel van RAID-Z boven RAID5 wat grote voordelen heeft op gebied van betrouwbaarheid én random write prestaties.
  • ZFS bewaakt de consistency van zijn filesystem en application data door transaction groups en ZFS Intent Log (ZIL); onverwachte stroomstoringen zouden nooit ZFS mogen beschadigen.
  • ZFS kan één of meerdere SSDs inzetten als intelligente caching (L2ARC) wat vergeleken kan worden met de Smart Response Technology (SRT) van Intel, wat je ook in staat stelt om een HDD te cachen met een SSD. Het verschil is dat ZFS dit kan doen zonder de betrouwbaarheid aan te tasten; als je SSD corrupt raakt wordt dit opgemerkt en wordt er van de HDD RAID array gelezen, Intel SRT en andere oplossingen kunnen dit niet en dus is deze feature niet helemaal veilig, in tegenstelling tot ZFS waar L2ARC geen risico toevoegt.
  • Snapshots zijn een verademing voor backups. Maak een snapshot en je kunt vrij rommelen, niet goed dan doe je een rollback. Het concept van een snapshot is al heel oud, maar de manier hoe het werkt bij ZFS maakt dat het gebruik ervan zeer flexibel werkt en heel economisch is met opslagruimte; alleen wijzigingen - de 'delta' - kosten opslagruimte.
Zelf zou ik een aantal andere meer praktische argumenten aanvoeren:
  • ZFS geeft je een betrouwbare RAID layer en zorgt dus dat je de foutgevoelige ouderwetse RAID layers volledig uitschakelt. Het filesystem zit 'direct' aan de disks en samen met checksums geeft dit je veel meer bescherming voor je bestanden.
  • ZFS bespaart je kosten omdat je geen dure TLER-schijven hoeft te kopen, geen hardware RAID en UPS/BBU. Gewone desktopschijven werken prima met ZFS op een gewone non-RAID controller.
  • ZFS kun je uitstekend als backup combineren. De snapshots zijn heel krachtig om incremental backups te maken. Het idee is dat je terug in de tijd kunt bladeren en zien hoe je bestanden toen waren. Dat is een krachtige feature om perongeluk deleted files of een virus die aan je bestanden knaagt af te dekken.
  • ZFS laat je lekker flexibel met data omgaan en data erop pleuren en 'vergeten'; je hoeft er niet meer naar om te kijken. ZFS is heel onderhoudsarm dankzij de self-healing. Op een moment dat ZFS filesystemschade tegenkomt, repareert het dit vanzelf.
Zijn er ook nadelen?
  • ZFS draait niet onder Windows. Alleen onder Solaris/IllumOS en FreeBSD kun je spreken van eerste klasse implementaties die bewezen stabiel zijn en goed ondersteund worden met actieve ontwikkelaars. De Linux implementatie is erg goed op weg, maar is nog niet zo bewezen als bijvoorbeeld de FreeBSD implementatie. Daarnaast is ZFS makkelijk toegankelijk middels speciale 'NAS' operating systems - waarover later meer.
  • ZFS is erg hongerig naar geheugen, je kunt het vanaf 512MB RAM gebruiken, maar dan knijp je ZFS wel enorm. Pas boven de 4 gigabyte dus praktisch 6-8GiB wordt ZFS in alle glorie ondersteund met standaard prefetching enabled. Dit is overigens specifiek voor FreeBSD. Bij Solaris geldt dat ZFS hier beter werkt op systemen met weinig geheugen zoals 2GB. Deze bron meldt als Rule of Thumb 1GB per schijf plus wat je nodig hebt voor applicaties voor het Solaris platform.
  • Je kan bij ZFS een bestaande RAID-Z (1/2/3) vdev niet uitbreiden met één of meer disks. Simpel gezegd: heb je een 4-disk RAID-Z dan kun je niet zomaar een disk bijpleuren en het een 5-disk RAID-Z maken - iets wat met traditioneel RAID wél kan: Online Capacity Expansion (OCE). Bij ZFS is het wel mogelijk om nieuwe vdev's toe te voegen. Nadeel is dus wel, dat je (vaak) in een keer een flink aantal disks moet kopen als je RAID-Z gebruikt. Bij mirrorring heb je dat probleem niet omdat je hier wel van een enkele disk een mirror kunt maken en andersom.
Maar ondersteunt ZFS nou RAID? (8>

ZFS ondersteunt diverse opslagmethoden die erg vergelijkbaar zijn met RAID. Echter, geen enkele traditionele RAID engine kan nadoen wat ZFS doet, dus in die zin is het geen echt 'RAID'.

De volgende schema's zijn beschikbaar:
• RAID0 - striping: maximale performance, geen (extra) bescherming
• RAID1 - mirroring: twee schijven met identieke data
• RAID10 - striping+mirroring: een combinatie van hierboven (min. 4 schijven)
• RAIDZ - enkelvoudige parity: vergelijkbaar met RAID5
• RAIDZ2 - tweevoudige parity: vergelijkbaar met RAID6
• RAIDZ3 - drievoudige parity: dit bestaat bij traditioneel RAID niet of nauwelijks

En wat is dat RAID-Z dan? :?

RAID-Z is een verbeterde vorm van RAID5 die alleen mogelijk is als RAID en filesystem niet gescheiden zijn, zoals normaliter het geval is. Omdat ZFS die twee combineert, kan een aantal belangrijke tekortkomingen van RAID5 worden voorkomen. Hierbij gaat het bijvoorbeeld om de RAID5 'write hole', en die komt weer door non-atomic read-modify-write cycles die nodig zijn als je naar RAID5 schrijft met een grootte anders dan de optimale full block size; veelal random writes dus. RAID-Z kent echter geen read-modify-write cycles omdat alle disks in elke write I/O worden betrokken. Dit kan alleen maar met een dynamische stripesize, en dat is dus een van de slimme voordelen van RAID-Z boven RAID5.

RAID-Z is dus anders dan RAID5, maar het deelt wel de basis eigenschappen:
• één disk mag uitvallen zonder gegevensverlies, twee disks betekent alles kwijt
• de beschikbare opslagruimte is gelijk aan het aantal schijven minus parity schijven maal de grootte van de kleinste disk. Dus 4 schijven van 2TB in RAID-Z = 6TB bruikbare ruimte.

RAID-Z2 is dan hetzelfde maar met twee parity disks, dus vergelijkbaar met RAID6. RAID-Z3 gebruikt zelfs drie parity disks voor extra veiligheid, wat in thuisomgevingen zeldzaam is. Het is vaak handiger om meerdere RAID-Z2's in een enkele pool te draaien dan één grote RAID-Z3.

Dus ZFS is software RAID? Is Hardware RAID niet beter? :Z

ZFS is inderdaad softwarematige RAID, en dat heeft diverse voordelen. Veel mensen denken dat het veel aanslag pleegt op je CPU, maar zelfs een Atom CPU kan meer dan een gigabyte aan XOR instructies verwerken. XOR geldt als een makkelijke instructie en wordt in de praktijk beperkt door geheugenbandbreedte wat op moderne systemen tussen de 4 en 20 gigabyte per seconde ligt. Mensen die denken dat een XOR-engine nodig is voor goede performance, hebben teveel geluisterd naar de doctrine van de controllerfabrikanten.

De voordelen van software RAID:
  • Geen dure Hardware RAID controller nodig*
  • Geen Battery Backup Unit nodig (mits je filesystem een afdoende natuurlijke bescherming heeft zoals een journal of soft updates)
  • Geen dure TLER-schijven nodig, zoals de WD RE series, die stukken duurder zijn alleen voor meer garantie en firmware die TLER mogelijk maakt. Door goedkope schijven te gebruiken kun je er meer van kopen dus meer storage en meer performance. (Wikipedia: Time-Limited Error Recovery). * - Zie uitleg een stuk terug bij voordelen ZFS
  • Onafhankelijk van de controller. Gaat je controller stuk met software RAID dan koppel je je disks aan een andere controller en je bent zo weer online.
  • Gebruik van meerdere controllers. Je onboard SATA poorten zijn de best mogelijke poorten die je kan hebben, dus waarom die niet gebruiken? Je hebt er vaak max 6 en dus kun je zowel disks op je onboard controller als op een add-on controller aansluiten, en in dezelfde pool integreren. Zolang je controllers voldoende bandbreedte hebben is hier geen enkel bezwaar tegen qua performance.
  • Hardware RAID weet eigenlijk niet of een block corrupt is, het kan alleen constateren dat een block niet in sync is. Vrijwel alle controllers gaan ervan uit dat de parity fout is en de originele data goed is, en corrigeren de parity in dat geval. Dit kan voor corruptie zorgen die niet gedetecteerd of gecorrigeerd wordt door traditioneel RAID; silent corruption. Software RAID zoals in ZFS kan dus dingen die hardware RAID nooit zou kunnen nabootsen, met cruciale verschillen tot gevolg.
Zo, nou ik ben overtuigd hoor! Waar kan ik dat ZFS krijgen? :9~

Geen Windows, vanzelfsprekend. ;)

Er zijn drie platforms waar ZFS op draait:
• Solaris (eerst van Sun, nu in de klauwen ehh handen van Oracle)
• FreeBSD (opensource UNIX)
• Linux

Solaris:
Solaris is een heel degelijk UNIX besturingssysteem en ook de thuisbasis van ZFS. Sun was namelijk eigenaar van Solaris en ZFS voordat het werd overgenomen door Oracle. Oracle heeft aangegeven ZFS verder te zullen ontwikkelen, maar het originele team achter ZFS is verdwenen met de overname.

Beschikbare varianten:
Nexenta (Stor); een op (Open-) Solaris (/Illumos?) gebaseerde distributie speciaal ontwikkelt voor NAS/SAN gebruik. Gratis versie is gelimiteerd tot 18TB.
napp-it; een uitgebreide web-interface voor Illumos.
EON ZFS Storage - embedded distributie
OpenIndiana Enterprise oplossing met ZFS.

FreeBSD:
FreeBSD is een veelal onbekend maar toch zeer geavanceerd besturingssysteem. FreeBSD heeft dankzij zijn licentie geen enkel probleem met ZFS integratie, en heeft het al vrij vroeg, sinds FreeBSD 7.0 geïntegreerd. Die versies waren nog expeirmenteel en instabiel. Vandaag de dag zitten we met een goed stabiele ZFS v15 en de nieuwe v28 code is al draaide op FreeBSD 9 (en intussen al ZFS v5000 via FreeBSD 9.2 / 10.0). Het grote voordeel van FreeBSD is dat je meer zekerheid hebt over de toekomst van ZFS op dit platform. Ook heeft FreeBSD een aantal beperkingen van het Solaris platform niet, en is de hardwaresupport beter, maar nog steeds minder goed dan Linux.

Beschikbare varianten:
mfsBSD - een simpele LiveCD voor FreeBSD waarmee je ook direct op ZFS kunt installeren.
FreeNAS - een uitgebreid NAS besturingssysteem. De oude versie 0.7.x heeft wel oudere ZFS support en valt af te raden, maar de nieuwe 0.8.x versie beschikt wel over een stabiele en moderne ZFS versie.
ZFSguru - een nieuwe variant helemaal op ZFS gericht, nog erg in ontwikkeling maar heeft als grote voordeel dat er een volledige FreeBSD installatie achter zit, zonder dingen weggesnoeid zoals bij FreeNAS. Dit maakt het installeren van extra software makkelijker, wat bij FreeNAS toch een stuk lastiger is. Voor de nog ontbrekende features moet je terugvallen op de text shell, iets wat steeds minder nodig zal zijn naarmate ZFSguru zich verder ontwikkelt. CiPHER ontwikkelt sinds november 2011 mee aan dit project. ZFSguru kan beschouwd worden als gemakkelijkste all-in-one ZFS oplossing.
NAS4Free Het open-source broertje van FreeNas die gemaakt is nadat FreeNas in de handen van ixSystems is gekomen. Bijna dezelfde functionaliteit, maar niet meer gebaseerd op nanoBSD, en dat kan in de toekomst nog wel eens voordelen opleveren.

Linux:
Linux is een uitstekend allround besturingssysteem, maar de GPL-licentie is helaas slecht cq. niet verenigbaar met de licentie van ZFS, de CDDL. Dit heeft tot gevolg dat ZFS alleen via een omweg beschikbaar is op het Linux platform. In de praktijk is het op veel besturingssystemen intussen erg gemakkelijk geworden om het te installeren, voor systemen als Ubuntu zijn er al PPA's om ZFS te installeren, en Gentoo levert bijvoorbeeld de sourcecode gewoon mee in de ISO.

Beschikbaar zijn:
• ZFS-on-Fuse (Userland Fuse implementatie)
• ZFSonLinux (Kernel implementatie)
• Debian GNU/kFreeBSD - zeg maar linux zonder linux kernel, pervers nietwaar? })

Allemaal mooi en aardig, maar ik gebruik Windows! :(

Het idee is dat je een aparte computer (NAS) bouwt waar ZFS op draait, en dit via Samba, NFS of iSCSI exporteert naar je Windows, Apple of Linux desktop pc. Windows zelf heeft geen idee van ZFS, maar kan bestanden wel opslaan via CIFS (Samba) en/of andere protocollen.

Gevolg is wel dat je een aparte dedicated computer bouwt alleen voor ZFS opslag. Je kunt het ingewikkelder doen door met virtualisatie te gaan werken, maar dat zou ik alleen doen als je daar bekend mee bent. Vragen over ZFS icm een specifiek virtualisatie pakket kan je beter stellen in het topic voor het desbetreffende virtualisatie pakket, dat zorgt ervoor dat dit topic minder vervuild.

En hoe bouw ik zo'n ZFS NAS dan? (8>

Met je handen. Nee serieus: het is heel makkelijk. Je kunt in Het grote DIY RAID NAS topic deel 3 je eigen build bediscussiëren of een eigen topic aanmaken als je een uitgebreide build wilt bespreken met veel vragen.

Om je wel een idee te geven wat er mogelijk is, worden hier twee builds gepresenteerd. Eentje die best te overwegen is - de Instap NAS - en een dure luxe build waar we van dromen - in elk geval de hoeveelheid disks. In de praktijk zal jouw build dus tussen deze twee uitersten liggen.

Instap ZFS NAS
Processor: Elke moderne Celeron (G1610 / G1820) of Pentium (G3220 etc) voldoet voor ZFS. Oudere Atom's (op de Avoton na) zijn niet aan te raden, die kunnen maar 4GB geheugen aanspreken, en dat is een veel gevallen te krap. Het kan wel, maar dan moet je goed weten wat je doet, en wat ZFS tuning toepassen. CurlyMo heeft ZFS aan de praat op een miniscuul x86 bordje, met maar een beperkte hoeveelheid RAM.
Geheugen: Minimaal 4GB is aan te raden. Wil je 1Gb Ethernet continu blijven halen, is 8GB aan te raden.
Moederbord: Maakt weinig uit, zoek in de reviews naar een zuinig bord met een leuke AHCI controller. In het DIY RAID NAS topic komen legio bordjes langs die lekker zuinig en modern zijn.

Wat misschien nog wel de belangrijkste tip is: Kijk of bijvoorbeeld elk budget onderdeel (zoals de netwerkkaart) ondersteund is in het OS dat je wil gebruiken. Zo zijn FreeNAS en ZFSguru (beide gebaseerd op FreeBSD) wat kieskeuriger qua hardware dan Linux.

Krachtige ZFS NAS
Processor: Een sterke i5 of Xeon. Socket 1150 of 2011(-3). Voor ECC support moet je even goed opletten.
Moederbord: Een Supermicro of gelijkwaardig bord dat ECC support.
Geheugen: ECC! (Let op dat Registered geheugen alleen werkt op Socket 2011(-3), en dat je voor Socket 2011-3 DDR4 geheugen nodig hebt. Qua hoeveelheid ligt het een beetje aan je pool, maar als je echt een krachtige server wil is 16 of 32GB aan te raden. Als je ZFS gaat combineren met ESXi een een flink aantal VM's, wil je al snel richting 32GB gaan.
Controller: Er zijn SuperMicro borden met onboard LSI2308 controller. Mooie aanrader! Wil je een losse HBA, kan je voor bijvoorbeeld een IBM M1015, Dell H200, of een LSI 9201-16i gaan. Voordat je iets koopt, check even in de topics of deze controllers op het moment nog steeds gangbaar zijn. Er veranderd nog wel eens wat in storage land, en ook wij kunnen niet continu de startpost blijven updaten.

Schijven: Western Digital Green of Red zijn momenteel erg populair. De nieuwste Seagate series zijn ook veel in gebruik.
Let op dat je goed moet kiezen tussen TLER of non-TLER schijven. Beide hebben hun voor- en nadelen.
Hitachi maakt volgens velen technisch de beste schijven, maar er zijn vooral 7200RPM schijven van Hitachi, dus zit je qua stroomverbruik al snel hoog met Hitachi.

Kan ik met ZFS mijn array uitbreiden zoals met RAID5 veelal kan?

Nee, dit is een belangrijke beperking van ZFS die voor thuisgebruikers vaak als hinderlijk wordt aangemerkt. ZFS kun je echter wel uitbreiden, maar dat werkt heel anders. Dit heeft echter ook voordelen die RAID5 weer niet heeft, dus lees dit even goed:

Als je een RAID-Z hebt van 5 disks, kun je die niet zomaar met een paar disks uitbreiden naar een 7-disk RAID-Z bijvoorbeeld. Een RAID-Z heeft dus een vast aantal schijven wat je niet kunt veranderen.

Wat kan wel?
  • Bij mirroring (RAID1) kun je altijd schijven toevoegen en weer verwijderen uit een mirror vdev. Voeg je een schijf toe aan een 2-disk mirror, dan wordt het een 3-disk mirror waarbij alle drie de disks dezelfde data opslaan. Verwijder je een disk van een 2-disk mirror, dan wordt de resterende 'mirror' disk een normale enkele disk. Die kun je vervolgens weer tot mirror omtoveren door een schijf toe te voegen. Mirrors kunnen dus wat RAID-Z niet kan.
  • De gebruikelijke manier van uitbreiden is dat je een nieuwe vdev ofwel array naast de al bestaande RAID-Z vdev plaatst. Dus bijvoorbeeld weer een 5-disk RAID-Z erbij plaatsen. De beschikbare ruimte van alle vdevs is als één eenheid beschikbaar binnen een ZFS pool. In de praktijk betekent dit dat je schijven in groepjes toevoegt in plaats van elke keer één schijf erbij. Ook betekent dit dat je elke keer een extra schijf aan parity protection kwijt bent, maar dat heeft wel als voordeel dat je bescherming op peil blijft naarmate je uitbreidt en niet steeds minder wordt.
  • ZFS kan weer dingen die traditioneel RAID niet kan. Zoals: je kunt in de nieuwe RAID-Z vdev die je gaat toevoegen, schijven met een andere grootte gebruiken, een ander aantal of ander RAID-level dan de eerste array. Zo kun je nu beginnen met 2TB schijven en later 3TB en weer later 4TB gebruiken en zit je dus niet vast aan een bepaalde grootte.
  • Alle vdevs in een pool worden gestriped, zeg maar RAID0. Maar omdat het geen echt RAID is, kan ZFS leuke trucjes toepassen. Stel je eerste array doet 200MB/s maar je nieuwe array met modernere schijven doet 400MB/s, dan zou je bij traditioneel RAID 2x200 = 400MB/s krijgen. ZFS doet echter aan load balancing en laat elke vdev lopen op de snelheid die hij aankan door simpelweg meer data te schrijven naar die vdev. Veelal geldt hoe groter de opslagruimte des te hoger de performance dus dit gaat ook mooi op met het feit dat ZFS meer data schrijft naar de snellere (en verondersteld grotere) array.
Praktisch is:
  • Je begint met een 5-disk 2TB in RAID-Z, je breidt die later uit met nog eens 5 schijven maar dan 3TB ook in RAID-Z. De beschikbare ruimte is 4*2TB=8 + 4*3TB=12 is samen dus 8+12=20 terabyte. Je bent dus 2TB+3TB=5TB kwijt aan parity.
  • Je begint met een 6-disk 3TB RAID-Z2 met goede bescherming, maar wilt later nog wat extra ruimte. Je kunt dan bijvoorbeeld 3 disks 4TB in RAID-Z plaatsen voor 8TB extra opslagruimte.
  • Je kiest voor mirroring en kunt altijd een schijfje bijprikken. In groepjes van twee of zelfs één schijf en later die tot mirror promoveren. Bedenk wel dat je hele pool stuk is als één mirror vdev stuk is. Dus draaien met een enkele schijf is wel een risico.
Verder moet je weten dat ZFS niet direct de data herverdeelt wanneer je je pool uitbreidt met een nieuwe RAID-Z array/vdev bijvoorbeeld. De data blijft staan waar hij staat. Alleen nieuwe data die geschreven wordt, wordt over alle vdevs verdeeld dus ook de nieuwe. Je kunt dit voor bestaande data forceren door de directory een andere naam te geven en dan te kopiëren naar de originele naam. Doordat je de data opnieuw schrijft, wordt deze over alle vdevs verdeeld en krijgt het dus extra snelheid van de nieuwe vdev als je dat nodig acht.

Ik heb gehoord dat je ZFS moet optimaliseren voor 4K Advanced Format hardeschijven?

Dat klopt, voor moderne Advanced Format hardeschijven die 4K sectoren hebben, wil je het liefst ook dat ZFS met deze eenheden werkt. Echter, omdat dergelijke hardeschijven doen alsof ze normale 512-byte sector schijven zijn door hun sectorsize te emuleren, ziet ZFS niet dat je dergelijke schijven hebt. Dit zul je dit wel moeten forceren middels de ashift setting. Dit is een vdev property maar geldt pool-wide. Dat betekent dat een bestaande pool nooit meer van ashift instelling kan veranderen. Ashift=9 wil zeggen dat de pool optimaal is voor 2^9= 512 bytes sectoren. Ashift=12 wil zeggen 2^12= 4K sectoren geoptimaliseerd.

Optimale configuraties voor 4K sector Advanced Format hardeschijven:
RAID-Z: 3, 5 en 9 disks
RAID-Z2: 4, 6 en 10 disks
RAID-Z3: 5, 7 en 11 disks

De gedachte hierachter is dat het aantal 'dataschijven' een macht van 2 is, dus 2, 4, 8, 16. Waarom? Omdat je dan een 'schoon' getal krijgt wanneer de 128KiB recordsize wordt gedeeld door het aantal schijven.

Voorbeeld: RAID-Z met 3 schijven betekent dat er twee dataschijven zijn en één parityschijf. Met een 128KiB recordsize krijgen de schijven dan 64KiB te verwerken en dat is optimaal omdat dit een veelvoud is van 4 kilobyte - de sectorsize van moderne Advanced Format hardeschijven.

Echter, heb je 4 schijven in RAID-Z dan moet die 128KB verdeeld worden over 3 schijven. Dat wordt 42.7KB per schijf. Dit betekent dat je net wat minder opslagruimte hebt omdat je het verschil tussen 42.7K en 43.0K niet kunt gebruiken (slack) maar nog belangrijker is 43K niet een veelvoud van de 4K sector size die moderne Advanced Format hardeschijven hebben.

Laatstgenoemde configuratie is dus niet optimaal wat zorgt voor tragere writes. De performancedegradatie is afhankelijk van platform en hoe goed/snel de firmware van je hardeschijven sectoren kunnen emuleren. Zo zijn nieuwere type WD EARS schijven veel sneller in sector emulatie dan de klassieke 4-platter modellen.

Hoe zit het precies met TLER-disks in combinatie met ZFS?

Voor de meeste Hardware RAID en Windows FakeRAID is TLER verplicht. Dit is een functie van de hardeschijf die de error recovery min of meer uitschakelt, door deze te beperken tot 7 seconden. Dit voorkomt dat de RAID engine de schijf uit de array gooit zodra er bad sectors gevonden worden en je met een kapotte array zit.

Bij ZFS en non-Windows software RAID is dat anders. Daar heb je geen TLER nodig om je data te beschermen. Toch kan het beperken van de timeout wel voordelen bieden door lange wachttijden bij bad sectors te voorkomen. Je videostream zou hierdoor onderbroken kunnen worden en ook Virtual Machines vinden het niet fijn als ze een tijd lang niet met hun disk kunnen communiceren. Echter, wat je met TLER hardwarematig doet, kan je operating system ook softwarematig. Zo kun je onder BSD-platform de timeout instellen, wat hetzelfde effect geeft als TLER. Andere platforms bieden mogelijk vergelijkbare functionaliteit.

TLER kan daarnaast ook heel gevaarlijk zijn. Het schakelt min of meer de 'laatste defensielinie' uit. Stel je hebt een redundante array zoals een RAID1/mirror waarbij één disk helemaal dood is. De overige disk heeft bad sectors. Dan is de recovery-functionaliteit van de hardeschijf de laatste kans om je data helemaal intact te kunnen uitlezen. In zulke gevallen is TLER zeer onwenselijk en kan een gevaar opleveren voor je gegevens. In gevallen waar je nog wel over redundantie beschikt, maakt het voor je data niet uit.

ZFS kan ook mijn SSD gebruiken voor caching en andere versnelling?

Dat klopt, je kunt een SSD gebruiken voor drie dingen:
• Een normale pool met SSDs als disk members, leuk voor systeempool en opslag van VM images en andere zaken waar je random I/O performance voor nodig hebt
• Een HDD pool waar je een SSD (partitie) als L2ARC cache device toevoegt. De SSD zal dan snippertjes data verzamelen die random worden opgevraagd, wat veel sneller is dan de HDDs laten seeken.
• Een HDD pool waar je een SSD (partitie) als SLOG ofwel Dedicated ZIL toevoegt.

SSD in een normale pool gebruiken
Je kunt SSDs prima in een RAID0 pool of een RAID-Z pool gebruiken. Denk aan opslag van VM images, als systeemdisk en andere zaken waarvoor je IOps performance nodig hebt. SSDs hebben minder last van de performancebeperkende eigenschappen van RAID-Z omdat SSDs vooral transfer-capped zijn. Dit betekent dat SSDs in een RAID-Z pool goed zou moeten presteren.

SSDs als L2ARC cache device
Door een SSD (partitie) aan een ZFS pool toe te voegen, zal deze gebruikt worden om bepaalde data op te slaan - te cachen. Wordt bepaalde data herhaaldelijk opgevraagd, dan zal deze voortaan vanuit de SSD geleverd worden in plaats van dat je je hardeschijven laat seeken. Dit werkt ongeveer zoals Intel SRT caching toevoegt op het Windows platform. Belangrijke eigenschappen van caching:
• ZFS L2ARC caching is veilig in gebruik, in tegenstelling tot alternatieven zoals Intel SRT wat corruptie op de SSD niet kan detecteren. ZFS doet dat wel en leest in dat geval van de HDD pool ipv de SSD. L2ARC is dus altijd veilig in gebruik.
• ZFS cached geen grote bestanden die sequentiëel worden opgevraagd; denk aan grote bestanden die van A tot Z worden uitgelezen. Dat kunnen hardeschijven prima en daarvoor zal de cache device niet gebruikt worden! Alleen zogenaamde non-contiguous reads ofwel random reads zullen op de SSD terecht komen. Dit kunnen kleine bestanden zijn, maar ook enorm veel fragmenten in grote bestanden. ZFS cached dus geen bestanden, maar datafragmenten. Dus de cache werkt ook prima op 20GB grote databestanden van je favoriete game, mits dat spel aan random reads doet. Een voorbeeld hiervan is World of Warcraft.
• Caching werkt alleen effectief als je een voorspelbaar gebruikspatroon hebt. Als je werkelijk willekeurig I/O zal doen, zal caching geen of nihil voordeel opleveren. Alleen als je herhaaldelijk dezelfde data raadpleegt, zal caching merkbare winst kunnen opleveren. Dit is vaak wel het geval.
• Caching geldt niet alleen voor de daadwerkelijke data, maar zeker ook voor metadata. Denk bijvoorbeeld aan random reads bij het openen van een grote directory met een heleboel bestanden. Het cachen van metadata wordt vaak over het hoofd gezien, maar telt zeker mee!
• L2ARC cache moet eerst worden opgebouwd; en wordt beperkt door de snelheid waarmee ZFS de SSD 'mag' vullen, dat is namelijk bewust gelimiteerd. Het kan dus een paar weken duren voordat je L2ARC op oorlogssterkte is.

SSD als SLOG device ofwel dedicated ZIL
Bij ZFS is de ZIL ofwel ZFS Intent Log vergelijkbaar met de journaling log van NTFS en Ext3. De ZIL is standaard ingeschakeld voor alle pools ook met een enkele disk en beschermt voornamelijk tegen het recoveren van recente writes vlak voor een stroomstoring of crash. Je hebt een ZIL niet strict nodig; ook zonder ZIL is ZFS consistent. Je zult alleen wel tot enkele minuten data verliezen evenals application consistency; later daarover meer.

Veel mensen zeggen dat ze een 'ZIL' toevoegen aan een pool. Dat is echter technisch incorrect. Je doet juist het tegenovergestelde: je schakelt de ZIL uit die op de pool staat en ook bescherming heeft die de pool zelf heeft, zoals RAID-Z. In plaats daarvan gebruik je een apart apparaat als ZIL, in een mirror configuratie of zonder bescherming. Dat is dus vrijwel altijd een achteruitgang op gebied van bescherming, al stelt dat niet zoveel voor. Maar belangrijk om te beseffen dat elke pool standaard een ZIL heeft inclusief de bescherming die de pool zelf heeft, en dat je met een dedicated ZIL ofwel SLOG (separate LOG device) die bescherming in feite outsourced aan een SSD die daar veel sneller in is. Een ZIL heb je dus normaliter altijd.

In tegenstelling tot L2ARC caching is een dedicated ZIL juist wél gevaarlijk, omdat je zoals gezegd dus een bescherming van de pool zelf uitschakelt. Daar zit hem ook de snelheidswinst: je laat je hardeschijven niet meer de ZIL functie uitvoeren met random writes maar laat een SSD (partitie) die functie uitvoeren. Een ZIL wordt alleen beschreven en nooit gelezen tenzij na een stroomstoring/crash; alleen dan zijn de gegevens nodig.

Kan ik een of meerdere SSD's voor meerdere taken gebruiken?
Jazeker. Je kunt een SSD partitioneren en gebruiken voor alle doeleinden die je wilt:
- systeem pool voor booten en wat niet
- L2ARC cache voor je grote HDD pool
- SLOG voor je grote HDD pool

Met meerdere SSDs wil je alle taken spreiden over alle SSDs. Wat je niet wilt is een SSD helemaal voor SLOG gebruiken en de ander helemaal voor L2ARC. Dan worden ze ongelijkmatig belast en haal je geen performancevoordeel wat je anders wel zou hebben. Je wilt dus juist de taken gelijkmatig verdelen over al je SSDs. L2ARC doe je altijd in striping (RAID0) terwijl SLOG je voor mirroring kunt kiezen.

Hoe groot moet ik de partities dan maken?
Stel je heb twee SSDs van 128GB, dus totaal 256GB. Op je SSD maak je dan partities aan zoals:
- partitie 1 voor systeem/boot pool: 28GiB
- partitie 2 voor L2ARC cache: 60GiB
- partitie 3 voor SLOG: 4GiB
- rest van de ruimte onbenut laten als overprovisioning (let op: de SSD mag niet gebruikt zijn anders gaat deze ruimte verloren! secure erase of TRIM erase gebruikte SSDs alvorens overprovisioning toe te passen).

Doe dit voor beide SSDs en je hebt:
- een systeem/boot pool in mirror configuratie 28GB beschikbare ruimte
- L2ARC caching met twee partities in striping = 2x 60 = 120GB
- SLOG in mirror met twee partities = 4GB

Verder lezen B)

Wikipedia: ZFS
BSD Now - ZFS

Handige tutorials:


Migreren van data binnen dezelfde pool
Upgrade van v28 naar v5000 zonder alle features te activeren
Hoe werken feature flags
ACHI SSD in FreeBSD 9.1
ZFS send/receive van en naar een bestand
Patitioneren van je SSD voor je systeem, SLOG en L2ARC (in ZFSGuru)
ZFS send/receive op een corrupte pool
Draaien op en terugzetten van een ZFS On Root backup
ZFS send/receive tussen pools
ACL + Samba voorbeeld

Aanvullingen? Laat het weten!

Discussie over de toekomst van ZFSguru

12-02 14:17 discussie 835
Even een afsplitsing van de lopende discussie in het ZFS topic over ZFSguru.

En dan ook gelijk de aftrap: leeg je hart over ZFSguru. Vertel alles wat je dwarszit, gooi het er maar uit.

Ik kan er namelijk wel wat mee, en misschien gebeuren er mooie dingen door. Als jullie mij kunnen overtuigen, kan ik Jason wel overtuigen. ;)

De tot nu toe genoemde kritiekpunten op ZFSguru, zijn:
  • Punt 1: de voortgang van de Web-interface gaat te traag.
  • Punt 2: in beta8 zitten bugs zoals het niet kunnen toevoegen van slog.
  • Punt 3: de communicatie verloopt stroef en de website is verouderd.
  • Punt 4: de richting van ontwikkeling is onduidelijk, verkeerd of roept vragen op.
  • Punt 5: de ontwikkeling wordt gedomineerd door Jason en anderen hebben geen inbreng.
  • Punt 6: hulp wordt niet gewaardeerd.
Mijn voorlopige antwoord op deze punten:


Punt 1: de voortgang van de Web-interface gaat te traag
ZFSguru bestaat uit drie onderdelen:
  • Systeemarchitectuur
  • Services
  • Web-interface
Aan alle drie wordt (afwisselend) gewerkt. De web-interface is dus niet het enige onderdeel waar aan wordt ontwikkeld. Uiteraard wel een belangrijk onderdeel. Het klopt ook dat de interface nog niet af is; pas 0.2 zou de eerste stable release zijn. Maar in de tussentijd is er wel veel tussenwerk en andere verbeteringen toegevoegd, terwijl de featurelijst van 0.2 nog niet is behaald, namelijk Samba rewrite en Migration Manager. De eerstgenoemde komt in beta9, de migration manager is de laatste grote feature voordat 0.2 kan uitkomen. De features van 0.3 wordt ook al aan gewerkt en zijn al goed op weg met aardige voortgang. Daarna gaat het snel opwaard, elke major feature betekent een een jump van 0.3->0.4 bijvoorbeeld. Uiteindelijk belanden we bij 1.0 en dan kan een streep worden getrokken dat het project duidelijk een bepaalde mature status heeft bereikt. Tot die tijd, is het een project in wording.

Maar denk aan Firefox, Firebird, Phoenix destijds... dat was ook al bruikbaar voor de eerste 0.1 release en ik gebruikte dat destijds ook. Een project heeft tijd nodig om zijn ambities te kunnen vervullen. Wine is een uitstekend voorbeeld; pas na vele jaren een product wat goed bruikbaar is voor de eindgebruiker. Maar uiteindelijk wel een belangrijk en voor velen onmisbaar project. Het werk heeft zijn vruchten wel afgeworpen. Zo ook dient de basis voor de ambities voor ZFSguru gelegd te worden, en dat kan ten koste gaan van belangen op korte termijn. De lange termijn is waar de prioriteit ligt. Met tussenstops zodat het huidige ook goed bruikbaar blijft. Maar het einddoel is belangrijker dan het verbeteren van het huidige.

Conclusie: voortgang van ZFSguru fluctueert sterk. Nu er in 2013 veel aandacht is geweest voor services en systeemarchitectuur, zal er in 2014 weer meer focus liggen voor de web-interface.


Punt 2: in beta8 zitten bugs zoals het niet kunnen toevoegen van slog.
Mee eens. De meeste bugs in beta8 zijn klein en onschadelijk. Maar de sLOG-bug belemmert functionaliteit die in beta7 wel werkte, en dergelijke regressions horen niet. Niet in een stabiele release anyway. Maar het plan was om pas stable releases te doen vanaf 0.2 final. Dan was een 0.2.1 bugfix release mogelijk terwijl de 0.3-beta als experimental branch beschikbaar is. Nu zijn er een hoop dingen in ZFSguru gebeurd die niet in de originele 0.2 feature list zaten, waardoor het lang duurt voordat 0.2 wordt bereikt. Voor de gebruikers zeker niet optimaal, maar dat is een prijs van prioriteiten voor het behalen van het voorlopige tussendoel, 0.2 final. Nu met beta9 blijft er nog maar één feature over totdat er een 0.2 rc en final kan komen. Dan wordt het een stuk leuker en kan de ontwikkeling van de web-interface zeker sneller gaan. Maar bedenk ook: de snellere voortgang van de web-interface betekent dat wel echter dat systeemversies of nieuwe services minder prioriteit zullen krijgen. Kortom, er is onevenwichtig aandacht voor bepaalde elementen. Dat kan ook niet anders met twee mensen waarvan in elk geval ik zeker niet fulltime eraan werk.

Conclusie: de resources zijn beperkt. Dus we werken aan de grote dingen, zodat we ook zo snel mogelijk een stabiele basis voor de gebruikers hebben. Dat betekent wel dat gedurende die tijd ZFSguru nog geen stabiel product is. Maar dat is ook zo gecommuniceerd; pas vanaf 0.2 zou ZFSguru een stable release hebben.


Punt 3: de communicatie verloopt stroef en de website is verouderd.
Mee eens. Dit is wel een duidelijk punt van verbetering. Maar laten we een streep trekken met de nieuwe website. Dan wordt het ook leuker om de interactie met gebruikers aan te gaan. Nu is Jason veel tijd kwijt om de passwords te resetten van gebruikers. Ook het forum kent veel gebreken. Als dit soort issues zijn opgelost is het wellicht ook leuker om actiever te zijn. Zo merk ik ook dat ik liever op t.net reageer dan op het ZFSguru forum.

Conclusie: verbeteringen in de communicatie zijn zeer wenselijk en noodzakelijk om gebruikers een goed gevoel te geven over het project en zijn toekomst. Ook de nieuwe website die we in 2014 willen lanceren zal bijdragen aan betere communicatie, bijvoorbeeld door een beter forum en meer mogelijkheden.


Punt 4: de richting van ontwikkeling is onduidelijk, verkeerd of roept vragen op.
Misschien begrijpen jullie de richting nog niet goed, misschien denken jullie wel veel te beperkt, alles is mogelijk! Maar duidelijk mag zijn dat alle mooie plannen niet in een maandje te realiseren zijn.

Wat ik hiermee bedoel te zeggen is dat mensen ook de kans moeten krijgen om iets te ontwerpen waar zij zelf tevreden over zijn. Vaak lukt dat niet één twee drie. Zo heeft Gene Roddenberry - de geestelijk vader van Star Trek - vele flops op zijn naam staan en Star Trek was in het begin ook nog niet zo zeker van zijn toekomst. Maar achteraf is men alle flops vergeten en is Gene Roddenberry tot Star Trek zoals Steve Jobs tot Apple kan worden gerelateerd.

Zo geldt ook de toekomst van ZFSguru. Als het project erin slaagt zijn ambities in elk geval gedeeltelijk te verwezenlijken, dan zijn de huidige problemen niet zo belangrijk in verhouding tot het eindresultaat. Het alternatief is alle ambitie opgeven en een iets betere ZFSguru maken en dan na een jaar je motivatie verliezen en dan drijft ZFSguru over anderhalve jaar als een dode vis in de rivier. Dat is niet wat wij willen.

Conclusie: de ambities reiken ver om van ZFSguru een succesvol project te maken. Om al die ideeën te verwezenlijken is wel tijd nodig en dat gaat ten koste van belangen op korte termijn.


Punt 5: de ontwikkeling wordt gedomineerd door Jason en anderen hebben geen inbreng.
Nou ik heb zeker inbreng, maar het zijn geen 2e Kamerverkiezingen nee. Als ontwerper van een creatief werk moet je de vrijheid hebben om iets op jouw manier vorm te geven. Vaak kost het tijd om iets te krijgen zoals je bedoeld had, waar je zelf tevreden over bent. Als anderen gaan eisen dat het anders moet, is dat niet altijd leuk wanneer iemand nog helemaal niet klaar is met hoe het bedoeld was. Al die kritiek is wellicht meer van toepassing op het eindresultaat, dan aan een voorlopige versie die nu beschikbaar is.

Dat gezegd, is het ook zo dat er veel waardevolle feedback wordt gegeven waar wij wel wat mee kunnen. Goede positieve kritekpunten die mij danwel Jason van gedachte doen veranderen, zijn zeker welkom en zeer waardevol.

Conclusie: feedback over de richting van ontwikkeling is zeker welkom, maar de keuze blijft natuurlijk aan de ontwikkelaar.


Punt 6: hulp wordt niet gewaardeerd.
Dit is ook een punt wat regelmatig ter sprake komt, maar weinig concrete voorbeelden kent. Als je een mooie toevoeging kunt maken aan ZFSguru is die hulp zeker welkom. Maar wie gaat er uren vrije tijd spenderen aan ZFSguru? Wie van jullie is bereid dat te doen? Tot nu toe niemand.

Wel zijn er veel mensen die zouden willen helpen, maar dat niet kunnen omdat ze niet kunnen programmeren of omdat de documentatie ontbreekt om een effectieve bijdrage te kunnen doen. Beide zijn niet makkelijk op te lossen; ook dat kost weer tijd.

In de toekomst hopen we een basis te leggen dat anderen op een laagdrempelige manier kunnen bijdragen aan het project. Dat moet lekker eenvoudig worden, net zoals het eenvoudig is om bij te dragen aan WikiPedia. In de toekomst zou je:
  • ... ondersteuning kunnen vragen en bieden via custom forum integratie.
  • ... zelf services ontwikkelen en opsturen.
  • ... documentatie en vertalingen aanpassen.
  • ... zelf grafische themes kunnen ontwikkelen.
  • ... maintainer worden van een bepaalde service en die werkende houden en updaten naar nieuwe versies.
Voordat bovenstaande mogelijk is, moet er eerst werk worden verricht om een dergelijke infrastructuur mogelijk te maken. De prioriteit ligt nu bij het releasen van 0.2, dus het opbouwen van de community infrastructuur duurt nog wel even. Tot die tijd kun je via DM of email ideeën of code submitten.

Conclusie: meehelpen aan ZFSguru is niet zo eenvoudig als het lijkt. Hoewel het bieden van documentatie e.d. kan helpen, kost ook dat weer veel moeite en tijd. Het alternatief is om tools te ontwikkelen zodat meehelpen een stuk laagdrempeliger wordt.



Tot slot:
Mocht je meer punten willen toevoegen aan dit overzicht, laat het mij weten!

Verder verzoek ik eenieder om openhartig te zijn met kritiek en aanmerkingen, maar probeer het wel constructief en nuttig te houden. Afkraken zit ik niet op te wachten; het is een gratis product van twee belangenloze mensen die er hun tijd aan besteden. In dat perspectief moet je je adviezen en opmerkingen dan ook kunnen plaatsen; en niet als een klant die eisen stelt bij een gekocht product. Heel soms komt kritiek op die manier wel over, en dan merk ik dat ik het lastig vind om objectief te blijven en de kritiek serieus te nemen.

Het doel van het topic is om over en weer tot nieuwe inzichten te komen. Dit is hét moment om mij te overtuigen!

ECC geheugen voor zelfbouw ZFS NAS?

07-01 17:11 discussie 156
Hallo tweakers,

Ik zit al een tijdje te denken om een NAS te bouwen op basis van FreeNas of Nas4free , voor Backup van bestanden van meerde pc's. En om muziek op elk apparaat beschikbaar te hebben in huis. Verder zou ik graag ook een kleine FTP server willen draaien op de NAS.

Nu zit ik met een probleem, ZFS en ECC ram. Ik heb bijna overal gelezen dat je het beste ECC ram gebruikt om te voorkopen dat je date beschadigt als gevolg van "omgevallen" bit's. Dus toen dacht ik , " oke ik maak een NAS met ECC ram" . Maar dit is makkelijker gezegd dat gedaan, zeker met een budget van 500 euro inclusie 3 hdd's.

Er is op internet erg veel onduidelijkheid wel Intel chips ECC support hebben, en al vind je een goede chip, dan moet je nog een goed moederbord vinden.

Bij AMD schijnen de meeste FX cpu's ECC te ondersteunen, en de meeste AM3+ Asus mobo's ook. Maar ook hier is onduidelijkheid over !

Mijn vragen zij als volgt :
-Is het heel erg om geen ECC ram te gebruiken
- is er een OS waarmee je een NAS kan opzetten die geen ZFS naar bijv XFS gebruitkt , en zou je dan wel ECC kunnen gebruiken ?
- En heeft iemand ervaring met ecc support bij de AMD FX serie.


bronnen:
problemen ECC support Intel :
https://communities.intel.com/thread/60807
http://hardforum.com/showthread.php?t=1693051

bij amd
http://hardforum.com/showthread.php?t=1698299

Bestanden die eroderen op HD - hoe hiermee om te gaan?

13-11-2015 discussie 35
Ik gebruik een zwik externe WD HD's (MyBooks) voor archieven en backups daarvan. Nou was ik laatst wat oude, gearchiveerde projecten aan het bekijken en kwam ik wat beschadigde bestanden tegen: enkele sound files die niet 100% zijn bij afspelen en tekstbestanden die hun inhoud verloren lijken te hebben (simpele .txt files). Het gaat om bestanden van ruim 10 jaar oud. Deze specifieke disc (een oude 500MB MyBook) heeft toevallig (nog, foei!) géén backup. De disc geeft geen errors in CrystalDiscInfo, wel een wat hoge temperatuur van 60 graden.

Ik gebruik een sync tool (FreeFileSynch) om de back-up van m'n overige archiefschijven regelmatig bij werken. Maar als bestanden op een archiefschijf beschadigen, wordt die beschadiging natuurlijk gewoon gekopieerd bij synchen, neem ik aan. Een archief is zelf natuurlijk al snel veel te groot om alle bestanden met enige regelmaat te checken. Dus begin ik me zorgen te maken over m'n archieven, hoe secure zijn die op deze manier?

Als ik zo wat zoek over dit probleem vind ik steeds sites waarop beweren dat bestanden op HD helemaal niet *kunnen* beschadigen. Volgens mij is dat wel zo, ik weet 99% zeker dat die bestanden destijds onbeschadigd gearchiveerd zijn.

Heeft iemand hier ideeën over? Hoe kan dit voorkomen worden? Is het wellicht verstandiger om archieven gecomprimeerd op te slaan (i.v.m. ingebouwde datacorrectie in compressiemethodes)? Checksums berekenen en opslaan? Zijn er kant en klare oplossingen voor? Of is het werkelijk onmogelijk wat ik meen te zien en moeten die bestanden toch destijds al beschadigd zijn geweest?

ZFS opslag met aparte applicatie server

05-11-2015 discussie 52
Inleiding
Op advies uit het DIY RAID NAS topic post ik hier mijn eigen topic over de geplande aanschaf ten behoeve van een nieuwe ZFS server met aparte server waar de applicaties op draaien. Dit zou voordelen hebben zoals stabiliteit en minder storingsgevoelig zijn. Ook kan ik de ZFS server dan op BSD platform houden terwijl ik een ander operating system (Linux) kies voor de applicaties. Graag jullie advies over onderstaande situatie.


Budget
Budget is rond 700 euro voor zowel de ZFS server als de applicatieserver. Dit is exclusief hardeschijven, want die heb ik al.


Welke hardware heb ik reeds in bezit
10x 2TB hardeschijven
4x 4TB hardeschijven
1x Samsung EVO 840 120GB SSD
1x Adata 128GB SSD
IBM M1015 HBA geflashed met IT-mode firmware
Define XL behuizing
MSI 970 moederbord met AMD Athlon x955 quadcore processor met 4x4 ddr3 1333mhz kingston value geheugen.


Welke pool configuratie wil ik?
Ik wil van de 10x 2TB schijven een RAID-Z2 maken en de 4x 4TB schijven een RAID-Z maken.


Welke software wil ik gaan gebruiken?
Voor opslag vind ik ZFSguru wel fijn werken.

Maar hoe krijg ik het voor elkaar dat apps zoals Sonarr SABnzbd Headphones Plex Couchpotato en Autosub storingsvrij werken en dat wat deze downloaden ook netjes op mijn storage server komt? Ook wil ik deze downloads zonder problemen toegankelijk maken voor mijn mediaspelers in huis.

Hoe kan ik dit het beste en makkelijkste voor elkaar krijgen tegen een redelijk budget? Alvast bedankt voor jullie hulp!

Geimproviseerd Freenas ZFS servertje

26-10-2015 discussie 3
Momenteel heb ik een Synology 213j met twee 2x 3TB WD Red schijven in mirror, deze loopt al enkele weken aardig vol (98%). Dus is de nood, en verleiding, groot om een nieuw systeem aan te schaffen.

Gebruik nu:
  • De Synology wordt nu hoofdzakelijk als mediaserver gebruikt.
Gebruik later:
  • Plex :delen naar vrienden en familie, video bestanden 1080p +-10 - 16GB, uitschuivers 30GB
  • Backups
  • Mailserver: klinkt leuk, hoeft niet
  • Bittorrent
  • In de toekomst misschien usenet
  • FreeNas
  • ZFS ?


Hardware
Ik heb nog een 6jaar oud gaming systeem liggen waarvan misschien nog onderdelen van pas kunnen komen.
* Behouden
  • Antec 1200*
  • P6T SE Asus*
  • Core I7 920
  • 6GB Ram 1600hz
  • GTX 275 Asus
  • 1 x HDD 1TB*
  • 1 x HDD 640GB
  • 1 x SDD Vertex 3 120GB (OS)*
  • 750W PSU Be Quiet
  • DVD Brander
  • Scythe Mugen 2 koeler*
Dit is de opstelling die ik zou willen bekomen
  • Antec 1200: Grote kast*
  • P6T SE: 1366 socket, dus xeon compatibel. 6 SATA aansluitingen, wel maar SATA-300. Ook maar een Realtek NIC, NO-ECC*
  • Xeon X5650: tweedehands refurbished, 7598 Passmark score dus zo'n 3-5 streams, pak zuiniger als I7 920
  • Corsair Vengeance 12 GB DDR3-1600 Tri-Kit CMZ12GX3M3A1600C9: Veronderstellend dat ik ZFS gebruik is er veel ram nodig. Regel 1GB Ram - 1TB storage. 15TB storage = 12 GB of 24GB Ram?
  • 3x3TB WD Red Nieuw
  • 2x3TB WD Red van Syno*
  • be quiet! Straight Power 10 400W : Normaal maar 360W verbruik onder full load, dus genoeg?
  • Scythe Mugen 2 koeler*
  • 1 x SDD Vertex 3 120GB:Als L2ARC?*


Software
FreeNas is goed gedocumenteerd dus zal ik daarvoor gaan.

Als opslagtechnologe zou ik voor ZFS willen gaan, RAIDZ2?



Het is dus grotendeels een hardwarematige vraag. Ik was tot een weekje geleden een totale newbie op het vlak van servers, dus heb je opmerkingen of tips, alsjeblief, laat maar horen.

Dank!

ZFS-NAS: Hoe best beginnen met oog op uitbreidingen?

17-08-2015 discussie 11
Beste mede-tweakers,

Ik ben aan het nadenken om zelf een NAS te bouwen (waarschijnlijk met de BBG als basis) en ik heb voornamelijk wat vragen over hoe ik deze het beste ga configureren. Ik ben namelijk nog een student en mijn budget laat mij niet direct toe om in één keer al mijn wensen uit te voeren. Bovendien is het voor mij niet noodzakelijk dat alle data even secuur wordt bijgehouden.
Om deze post zo overzichtelijk mogelijk te houden is het misschien best dat ik eerst even uitleg waarvoor ik de NAS zou gebruiken.

Eerst en vooral wil ik de NAS gebruiken zodat ik draadloos back-ups kan maken van zowel mijn MacBook Pro als mijn (windows) desktop.
Ernaast zou ik de NAS ook willen gebruiken als mediaserver, vooral dus om een centrale opslagplaats te hebben voor mijn series en films. Muziek en foto's eventueel ook maar hier later meer over.
Als bijkomende extra lijkt het mij wel leuk om mijn eigen cloud-opslag te voorzien met een pakket zoals Owncloud bijvoorbeeld. Dit lijkt mij vooral handig zodat wanneer ik mijn MBP zou willen vervangen ik niet per se hoef te kiezen voor een model met veel opslag maar de meeste data zo kan opslaan.
Na het lezen van Het grote ZFS topic denk ik dat ZFSguru hiervoor misschien wel in aanmerking komt.

Zoals ik al eerder heb aangehaald staat mijn budget mij niet toe om in een keer 4 grote schijven aan te kopen om dit allemaal te realiseren.
Ik dacht eerst en vooral om te beginnen met één schijf die de back-ups voor beide computers verzorgt. Ik ben echter niet zeker hoe dit in zijn werk gaat, momenteel heb ik één schijf met een HFS+ partitie voor de MBP en een NTFS partitie voor de desktop. Hoe zou dit werken als de schijf in ZFS formaat is?

Daarna dacht ik om uit te breiden met één schijf voor de opslag van mijn series en films. In alle eerlijkheid is deze data niet zo kritisch, of in mijn ogen niet kritisch genoeg de schijf te mirroren of in RAID-Z te plaatsen. Als ik erna wil uitbreiden en mijn eigen cloud-opslag opzetten vind ik het wel belangrijker dat deze data veiliger opgeslagen wordt. Vooral als ik deze oplossing ook zou gebruiken om mijn foto's en muziek op te slaan.

Nu ben ik niet echt vertrouwd met ZFS of ZFSguru maar ik vroeg mij af of dit allemaal haalbaar is met één systeem en beginnende met 1 harde schijf? Zijn er voor de rest nog zaken waar ik op moet letten of die ik over het hoofd zie?

Ik ben van plan om zelf nog wat zaken te onderzoeken en uit te dokteren maar misschien kunnen jullie wat ervaring delen of de juiste weg aanduiden.

Alvast bedankt.

Fibre channel target FreeBSD / ZFSguru

22-11-2014 discussie 12
Hallo,

ik heb de wens om 2 machines met erlkaar te verbinden middels Fibre Channel.

1 Machine voor storage de ander ESX.

Storage draait ZFSguru (freebsd) en daar zou FC moeten kunnen werken in Target mode.

Echter komt er met "ctladm port -l" geen FC kaart naar voren.

Kaartjes zijn Qlogic 2460

Wat ik reeds gedaan heb is:

loader.conf:
isp_load = yes
ispfw_load = yes
hint.isp.0.role = 2


Nou heb ik het vermoeden dat het wel zou werken wanneer ik het laat werken via de kernel, ergens las ik dat er een nieuwe config ge-maked moet worden ... dat vind ik alleen te spannend worden en zou het graag via loadable modules willen laten werken. (of iemand moet me er doorheen weten te sleuren).


Hopelijk heeft iemand tips (ook hoe ik dan mijn ZFS volumes kan aanbieden aan ESX.


Bij voorbaat dank.

Martijn

ZFS backup server(ftp?)

25-07-2014 discussie 10
Beste mede tweakers.

Ik wil graag een server maken waar andere mensen van buiten mijn netwerk backups op kunnen maken.
Het gaat om minimaal 15 personen. Dit zullen er later meer worden.
Voor ieder persoon wil ik een quota op de hoeveelheid schijfruimte.

Ben nieuw in de wereld van zfs. Der zijn hier topics genoeg over waar mijn hoofd van duizelt.
Zat zelf te denken aan zfsguru en backups via ftp of zijn hier mooiere/betere oplossingen voor?


Wat voor hardware kan ik hier het beste voor gebruiken.
Heb zelf het volgende lijstje gemaakt.
Kan ik het beste het OS op een USB stick/SSD of een 2,5 inch schijfje zetten.
Lees dat je een SSD voor meer doeleinde kan gebruiken. Heeft dit echt nut voor mijn toepassing?

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed¤ 35,93¤ 35,93
1ASRock B75 Pro3-M¤ 56,90¤ 56,90
2Western Digital Green WD20EZRX, 2TB¤ 75,90¤ 151,80
1Lian Li PC-V354B¤ 140,40¤ 140,40
1Corsair CMV8GX3M1A1333C9¤ 43,90¤ 43,90
1be quiet! System Power 7 300W¤ 30,53¤ 30,53
Bekijk collectie
Importeer producten
Totaal¤ 459,46


Systeem is redelijk op budget samengesteld. Kast heb ik al.

Hoop dat jullie mij kunnen helpen.
Bij voorbaat dank!!
Tjerk

Niet-zelfbouw ZFS/BTRFS NAS met remote backup

02-04-2014 discussie 16
Geachte tweakers,

In het kader van leesbaarheid begin ik met de conclusies van mijn zoektocht tot nu toe en de vragen die ik jullie graag voorleg (ook genummerd in de tekst).

Ik zoek een goede lange termijn opslag/backup voor mijn belangrijke files (documenten/foto’s):
  1. De eerste eis is een self healing file system, ZFS of btrfs
  2. De tweede eis/sterke voorkeur is een niet-zelfbouw systeem
  3. Een veilige oplossing vereist storage op ZFS/BTRFS en niet backup. Maar hoe gaan jullie dan om met storage op mobiele apparaten (laptop vriendin, foto’s op telefoon)?
  4. De Netgear ReadyNAS 104 lijkt de enige niet-zelfbouw BTRFS optie te zijn in de pricewatch. De reviews zijn wisselend over netgear vandaar dat ik me afvroeg of er hier iemand ervaring heeft met dit apparaat specifiek in een dergelijke setup?
  5. Ik zou graag twee NAS’en hebben op gescheiden locaties die elkaars data backupen. Wat zijn hierbij de do’s en dont’s?
  6. Is ECC apparatuur noodzakelijk bij een ZFS/btrfs oplossing?

Aanleiding en huidige situatie

Ik zoek een oplossing om mijn belangrijke files (documenten, foto’s ed) op te slaan/backuppen. Aanleiding daarvoor is dit artikel.

Momenteel heb ik eigenlijk maar één PC in gebruik (en af en toen een laptop van m’n werk). De PC is wat oud maar ik ben erg tevreden over de snelheid. Het is een Dell Dimension 9200 (ik ben altijd erg gecharmeerd geweest van de koeloplossingen van Dell), Q6600, 5Gib, Radeon 7870. Een tijdje geleden heb ik er een 180Gib SSD in gestoken voor boot (win7) en spul dat ik vaak gebruik waardoor de PC nog erg goed mee kan.

Ik gebruik nu de PC’s 2 originele Seagate Barracuda’s 7200.10 van 250GB voor data opslag. Middels Intel’s Matrix raid van het mobo heb ik hierop twee RAID volumes staan:
  • 200GB RAID 0 voor niet kritiek spul zoals muziek, films, games en overig
  • 150 GB RAID 1 (dus 300GB op de disks) voor wel kritieke files zoals documenten en foto’s
Mijn belangrijke files zijn nu dus beschermd tegen falen van één disk. Van deze files maak ik regelmatig een backup. Eens per één of twee maanden; deze files veranderen niet vaak, ik kan helaas niet elke maand op vakantie op gave foto’s te maken… Ik maak een backup op een disk die letterlijk naast de PC staat Toshiba PX1396E-3T01 1TB zodat ik er snel bij kan (staat ook ander oud spul op) en ik heb een disk op kantoor liggen WD Elements Portable 1TB Zwart die ik mee naar huis neem, backup, en de volgende dag weer op kantoor leg.

Op zich is m’n data redelijk veilig zo lijkt me. In verband met bitrot zoals in het gelinkte artikel genoemd, maak ik sinds een paar maanden nieuwe backups zonder de oude weg te gooien. Mocht een originele file namelijk beschadigd raken, dan wordt de beschadiging ook gewoon gebackupt.

1. Daarom ben ik nu op zoek naar een oplossing voor mijn data opslag waarbij de gegevens niet alleen tegen disk failure beschermd worden maar ook tegen file system failure. Dit is mogelijk met ZFS of btrfs. Mijn voorkeur gaat uit naar btrfs omdat ik er dan nog eens ’n disk bij kan steken door de online capacity expansion (als ik het goed begrijp)

Storage vs backup

Het idee is dan natuurlijk dat je het ZFS/btrfs systeem als storage gebruikt en niet als backup. Dan ben je namelijk wederom data van een foutgevoelig systeem met mogelijk incorrecte data aan het backupen naar een super veilig systeem wat weinig zin heeft. Dan kom je dus uit bij een NAS (liefst zou ik gewoon al m’n devices op ZFS/btrfs overzetten maar dat kan (nog) niet). De storage op een NAS is dan ook te bereiken met andere apparaten dan mijn eigen PC (laptop vriendin, telefoons, toekomstige tablets). Met ‘n gigabit netwerk zouden files snel genoeg accessable zijn als ik het goed begrijp.

2. Ik geef de voorkeur aan een niet-zelfbouw NAS.
Ik ben een tweaker en repareer spul dat niet kapot is maar dit is iets dat niet fout mag gaan. Deze keer moet het gewoon werken, blijven werken en zonder gedoe betrouwbaar zijn voor lange tijd. Dat kan ongetwijfeld met een zelfbouw NAS maar als het kan bespaar ik me liever de moeite en hopelijk kosten (alhoewel ik in het storage forum al aardig wat gunstig geprijsde zelfbouw systemen heb gezien). Daarnaast ben ik niet onhandig met computers maar ik heb eigenlijk alleen ervaring met microsoft. Dus ik ben wat terughoudend over een zelfbouw NAS met bv FreeNAS als OS.

3. Een vraag die ik heb is hoe jullie omgaan met local storage op andere apparaten?
Hoe bijvoorbeeld handig om te gaan met files op de laptop van mijn vriendin. Ik weet zeker dat zij haar foto’s graag bij zich heeft als ze haar laptop mee neemt. Remote access kan natuurlijk maar is onderweg of in het buitenland verre van ideaal. De laptop bij verbinding met thuis wifi laten backupen naar de NAS kan, maar dan zit je met het eerder beschreven risico van foutieve backups. Hoe is hier goed mee om te gaan?

4. Ik zou graag twee NAS’en hebben op gescheiden locaties die elkaars data backupen. Wat zijn hierbij de do’s en dont’s?
Om de data absoluut veilig te stellen zou ik graag twee NAS’en hebben, een bij m’n vader en een bij mij thuis, die elkaars data backupen (bv elke nacht incremental) zodat data in geval van brand/diefstad veilig is. Ik begrijp dat de meeste NAS software dit gewoon kan. Zijn hier ervaringen mee? Ik hoef geen gebruiksaanwijzing maar ik lees op internet vooral dat het kan en hoe het kan maar niet echt do’s en don’ts zeg maar.

Concrete optie

5. De Netgear ReadyNAS 104 lijkt de enige niet-zelfbouw optie te zijn in de pricewatch. De reviews zijn wisselend over netgear vandaar dat ik me afvroeg of er hier iemand ervaring heeft met dit apparaat specifiek in een dergelijke setup?
Mis ik iets of is ZFS/btrfs nog zo nieuw dat er geen andere niet-zelfbouw opties zijn? Deze is zo'n ¤100 goedkoper dan de goed aangeschreven QNAP TS-412 terwijl die alleen EXT3 of EXT4 ondersteunt. Op basis hiervan zou de 104 dus een no-brainer zijn maar ik begrijp dat de software en ondersteuning slecht zijn.

6. Is ECC apparatuur noodzakelijk bij een ZFS/btrfs oplossing?
Het klinkt natuurlijk logisch om een file systeem met error correctie te ondersteunen met andere error correcting apparatuur (CPU, RAM) maar ik heb geen idee of dit zin heeft/noodzakelijk is.

Hardware RAID controller als normale SATA controller

29-01-2013 discussie 4
Hallo

In een freenas (0,7) servertje draai ik nu 3 sata schijven (2, 1 en 0,5TB). Dit wil ik binnenkort om gaan gooien. Ik wil met een stelletje nieuwe schijven zorgen voor een berg meer opslagruimte.

Het moederbord heeft echter maar 4 sata poorten, dus uitbreiding is nodig.
Nu heb ik voor 3 tientjes een LSI MegaRAID SAS 8344ELP kaart overgenomen (8x sas raid controller) met de gedachte deze te gaan gebruiken als sata controller.

Ik wist nog niet of ik hardware raid ging gebruiken, maar een hardware raid controller met 8 poorten voor 30 euro vond ik te mooi om te laten liggen. een normale sata controller is al duurder. Als ik niet gebruik ging maken van raid kon ik hem nog altijd gebruiken als normale sata controller.

Maar is dat ook zo?
Ik zat net wat rond te lezen en kwam onder andere deze post tegen:
CiPHER in "Welke harddisk voor FREENAS"
met vooral dit stuk:
quote:
Ik heb een Areca en die flikkert ook gewoon schijven eruit, of je nou op passthrough disk, JBOD (dus zonder RAID) mode of als RAID set aanmaakt, dat maakt allemaal geen verschil.

Bij een RAID controller is de RAID firmware de baas. Die bepaalt wat er gebeurt, en als de disk een timeout geeft, beschouwt die firmware de hele disk als verloren (achterlijk!). Dat wil je dus niet, je wilt dat je OS directe controle heeft over de disk, dan heb je ook geen TLER meer nodig en ook nooit meer disks die zomaar uit de array vallen bij een bad sector.
klopt dit? Stel dat ik er schijven in hang zonder raid, blijft de controller dan zo streng en gooit hij de disk eruit als er een bad sector is (in plaats van de ...seconden aan retry's)? In dat geval zou de kaart redelijk nutteloos zijn. De consumenten schijven hebben geen TLER die dat een beetje afvangt (al is het nog redelijk belabberd) en zouden dus bij elke bad sector eruit geknikkerd worden.

Voor hetzelfde geld ga ik wat doen met ZFS, dan neem je sowieso al schijven zonder TLER, maar dan zou de raid controller ook bij elke slechte sector de disk "afschrijven" en daarmee ZFS panisch maken (die denkt dat dat de schijf dood is).

Wie heeft hier verder ervaring mee? (een hardware raid controller gebruiken als sata controller).

ben benieuwd naar jullie ervaring/kennis hiern :+

bedankt
timberleek

ps: het is nog niet van direct belang, want er zijn nog geen schijven en nog even geen tijd, maar ik zit me wel vast in te lezen op het wel en wee van deze materie. En dan kom je wel eens wat tegen... 8)7

[FreeBSD/UNIX] Feedback omtrent opzetten van shares

11-01-2013 discussie 20
Ik heb al een tijdje naar alle tevredenheid een NAS draaien op basis van ZFSguru... So far so good, ik ben er ondertussen wat bekend mee en hij draait "in productie".

Het enige nadeel op dit moment is het feit dat mijn shares niet zo goed zijn afgeschermd. In die zin dat shares publiekelijk/anonymous toegankelijk zijn... Ondertussen mijn kennis van UNIX permissies weer wat opgepoetst, te weten gekomen dat voor een folder te accessen je ook +x moet hebben enz...

Nu had ik graag het volgende "principe" opgezet:

2 entiteiten: Bart en "de rest".

De rest zijn gezinsleden, zoals mijn vriendin of vader of broer.

Het komt er op neer dat ik altijd en overal toegang moet tot hebben en nergens door gehinderd wil worden. De groep "rest" wil ik op bepaalde shares dezelfde rechten als mezelf geven, en op andere shares alleen lees en op nog andere shares geen toegang... Wel wil ik, dat alle files, door wie dan ook aangemaakt, dit schema ook volgen... Dwz, ook al maakt root een file of map aan, ik wil dat deze de bovenstaande constraints in acht neemt. Hoe ik dit doe op fileniveau heb ik nog niet door. Hoe ik dit bewerkstellig via Samba denk ik wel, en dat zou dan met het Samba create mask zijn...

Ik heb me ondertussen wat ingelezen in de sticky bit/GUID/SUID (begrijp ze nog niet volkomen, maar ik ben wel zover dat ik dit volgens mij niet nodig heb).

Nu zie ik eigenlijk door de bomen het bos niet meer en vroeg me af wat ik nu moet configureren:

Umask? sticky bit? Create mask? Security mask?

Of ik heb enkele principes niet door en haal dus nu alles door mekaar of ik ken de componenten nog niet goed genoeg om tot een oplossing te komen, in ieder geval had ik graag jullie oerduidelijk Nederlandse uitleg gehad :) en hierover een discussie gestart waarom ik voor een bepaald iets moet kiezen of net niet...

ZFS i.c.m. ESXi en RDM zonder VT-D

13-12-2012 discussie 67
Op dit moment beschik ik over een ESXi setup die helaas geen VT-D ondersteuning heeft.
Hier wil ik een guest op draaien met ZFS als filesystem, zoals bijvoorbeeld kan met ZFSguru of FreeNAS.

Om een hdd door te geven aan deze guest moet je van RDM gebruik maken. Hierbij kan de guest niet direct communiceren met de disk.
Ervaringen van anderen met een vergelijkbare setup melden vaak errors op hun pool. Dit zou net te wijten zijn aan de 'vertaalslag' die ESXi maakt om de guest toegang tot een hd te geven.

Tweaker RudolfR meldt dat je door een RDM met parameter -r aan te maken geen errors meer hebt, maar helaas wel hierdoor SMART en spindown functionaliteit verliest:
quote: RudolfR
Doordat ik de RDMs aanmaak met -r ipv -z, heb ik geen S.M.A.R.T en geen spindown.
Maar met -z kreeg ik errors in m'n pool, dus er zat niets anders op.
Kan iemand bevestigen of ontkrachten dat je dus zonder een VT-D compatible build:

-errors op je pool hebt, maar wel SMART en spindown
OF
-geen errors hebt, en SMART en spindown ondersteuning verliest?

Veiligste manier om bulkdata te verhuizen QNAP naar ZFS

07-10-2012 discussie 15
Ik heb al een tijdje een QNAP TS 439 Pro II in bezit, maar ga deze wegens verkoop "leeg maken" en al mijn data verhuizen naar mijn nieuw gebouwde ZFS machine (N40L met 5 x 3TB in RAIDZ).

Nu vroeg ik me af: hoe kopieer ik het best mijn data van de QNAP naar de ZFS-machine?

Ik heb onder de QNAP meerdere shares, met uiteraard wat permissies op. Onder ZFS wat permissies instellen is niet zo eenvoudig had ik begrepen, dus die mogen ook wegvallen. Het belangrijkste is dat mijn data correct wordt overgezet en liefst volledig, daar maak ik me echt zorgen over en ben ik redelijk "angstig" om...

rsync leek me dan het makkelijkst, maar dan moet ik vanaf de QNAP continu een sessie in SSH laten openstaan om volgend commando te runnen:

rsync -avz /pad/naar/mijn/shares/op/qnap ssh@zfsguru:/pad/naar/mijn/zfs/share

[ZFSguru] booten van degraded RAID-Z

20-09-2012 discussie 7
Op aanraden van Cipher heb ik even dit topic aangemaakt.
Het probleem “kindje” ;)
#ProductPrijsSubtotaal
1Intel Celeron G530 Boxed¤ 37,45¤ 37,45
3Seagate Barracuda 7200.14 ST3000DM001, 3TB¤ 136,-¤ 816,-
1Antec Three Hundred Two¤ 54,90¤ 54,90
1FSP Aurum Gold 400¤ 55,90¤ 55,90
1Kingston KVR1333D3N9/8G¤ 35,65¤ 71,30
1MSI B75MA-P45¤ 56,99¤ 56,99
Bekijk collectie
Importeer producten
Totaal¤ 1.092,54

Het stappenplan wat er getest is:
Stappenplan:
X. Normal Beta6 gedownload van ZFSguru (van Cipher).
X. Deze geladen in Vmware en een installatie gedaan op een usbstick inclusief image. er hangt geen dvddrive aan mijn nas
X. De NAS via usb opgestart en een RaidZ1 gemaakt met 3 harde schijven met ashift 9 (ja fout van mij, dit zag ik pas 4 dagen later )
X. op die RaidZ1 heb ik de installatie uitgevoerd inclusief kopieren van image en vervolgens de bootloader van de usbstick disabled. Daarna NAS uit, usbstick eruit en de NAS start zelfstandig op.
X. Wat opviel is dat ZFSguruNAS zelf NIET aangeeft dat ie een IP adres krijgt (http://0.0.0.0.) maar ik wel via een andere pc kan connecten/werken etc.
X. Wat benchmark gedaan op de schijven en eens getest hoe je kunt delen/sharen met samba (dit werkt out-of-the-box :o )
X. Wat films gekopierd en de snelheid gemeten (80MB/s) wat me niet tegenviel, al had ik 100MB verwacht :p. Ik verdenk hierbij de ashift 9 optie of CPU die enorm stijgt bij gebruik. Ram lijkt me geen probleem.
X. Vervolgens een weekje opstarten/afsluiten getest en nog wat opties bekijken in zfsguru waaronder het delen met samba maar niets gewijzigd. ZFSguru/NAS werkt zoals het hoort

Probleem:
X. Vervolgens een test gedaan om te kijken of een harde schijf faillure wel werkt en dit zorgt voor problemen. Ik zet de NAS uit en koppel de sata power kabel los van disk 3. Ik boot de NAS weer maar blijft hangen na het biosscherm. Ik verdenk de bootloader van problemen. Na een uur de NAS toch maar gewoon uitgezet.
X.Disk 3 weer stroom gegeven en de NAS aangezet en zfsguru werkt zonder problemen.
X.Dit gemeld in het zfstopic en cipher adviseerde om de bootcode in ZFSguru te updaten. Dit verrvolgens gedaan door in zfsguru via “disks” de bootcode te update. Deze was al up-to-date en vervolgens de harddisk faillure test opnieuw gedaan.
X.Helaas wil de NAS niet opstarten zonder disk 3. In de bios geeft de NAS disk 1 en 2 probleemloos aan en zelf met boot volgorde veranderen, blijft de NAS hangen op de (zfs)bootloader.
X. NAS uitgezet en vervolgens disk 3 weer stroom gegeven. NAS start probleemloos op en kan weer in zfsguru.
Op aanraden van MCC eens de datakabel losgemaakt ipv power kabel. Ik heb de kabel losgemaakt van de harde schijf, dit betekend dat aan het moederbord 1 sata kabel hangt zonder harde schijf (sata_2).
We starten de NAS weer eens op en ik kreeg deze error:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
De error die ik krijg:
ZFS: i/o error - all block copie unavailable
ZFS: i/o error - all block copie unavailable

FreeBSD/x86 boot
Default: Data:/boot/kernel/kernel
Boot:
ZFS: i/o error - all block copie unavailable

FreeBSD/x86 boot
Default: Data:/boot/kernel/kernel
Boot:
(en nu een streepje, lijkt op "nadenken")

Nog een 15 minuten gewacht maar zonder enige progressie dus weer powerdown en data kabel erin gestoken. ZFSguru boot gewoon op
Nog wat weetjes:
x. De disks zijn geformateerd in een GPT format (mocht dit van belang zijn) + AHCI mode op moederbord (hotplug disabled, blijkbaar een optie op mijn moederbord)
x. Ashift 9 heb ik dus niet aangepast, dat zal ik wel doen bij het aanmaken van raidz2 (als ik de harde schijven binnen heb )
x. FreeNAS 8.2 op usbstick gezet en raidz1 configuratie gemaakt, vervolgens weer een powerkabel losgemaakt en kijken of ie opstart, dit was geen probleem (logisch, het was een usbstick ;) ) en de raidz1 is degraded zoals verwacht.
x. BIOS/UEFI is 1.1 (er is een 1.2 versie van de bios, maar gezien de release notes, niet interessant)
Wie o wie kan mij helpen om ervoor te zorgen dat ZFSguru opstart in degraded mode en dus laat zien dat Raidz1 zijn werk doet!

Mac Pro + ZFS fibre channel SAN build

29-07-2012 discussie 106
Ik heb besloten om mijn Windows-workstation eindelijk eens de deur uit te trappen en te vervangen door een Mac Pro. Ik ben een liefhebber van snelle storage en heb in het verleden altijd redelijk dikke raidconfiguraties gebruikt. In de afgelopen jaren is er nogal wat gebeurd op dit gebied. Ik wil het dit keer anders aanpakken dat met dikke raidcontrollers en hoogtoerige harde schijven.

De huidige situatie is dat ik een Windows-workstation heb met de volgende specs:

- Core i7 930
- 12GB RAM
- Areca ARC-1280
- 4x Mtron Mobi 3000 16GB in raid 0 voor boot
- 5x OCZ Vertex 30GB in raid 5 voor data
- 6x Western Digital Velociraptor 300GB in raid 5 voor data (foto's en video)
- Totaal datagebruik ca. 1TB

Verder heb ik nog een Windows 7-server met de volgende specs:

- Atom 330
- 4GB RAM
- Areca ARC-1280
- 4x Western Digital WD20EARS 2TB in raid 5
- 4x Seagate Barracuda LP 1,5TB in raid 5
- 4x Western Digital Caviar RE2 500GB in raid 5
- Chenbro-behuizing met twaalf 3,5 inch hotswap bays
- Unieke datagebruik ca. 1,7TB en 2x backup van al mijn data (van server en workstation)

De bovenstaande hardware staat ergens in het oosten van het land. Sinds een half jaar overnacht ik in Utrecht op de dagen dat ik op ons kantoor werk in Amsterdam. 's Avonds maak ik dan gebruik van een MacBook Air. Momenteel kan ik op die dagen niet bij mijn data tenzij ik het vooraf gekopieerd heb. Het zou handig zijn al ik altijd bij mijn data kan.

De prestaties van de file shares op de server zijn erg ruk. Ik haal hooguit 40MB/s bij het maken van backups (maar vaak veel minder) terwijl er aan beide kanten opslag met dikke raid-arrays wordt gebruikt. De scheduling van de Areca zorgt er regelmatig voor dat reads lang uitgesteld worden als er veel writes op een array plaatsvinden. Dit is nogal irritant. Ik heb een tijdje Ubuntu gedraaid op de server maar dat presteerde nog slechter dan Windows. Ik heb dus een hoop dure en dubbele hardware (in workstation en server) die maar matig presteert. Ik heb liever een eenvoudiger opstelling waarin de opslag is gecentraliseerd in een SAN en slimme caching ervoor zorgt dat ik met goedkope laagtoerige harde schijven en simpele sata-controllers uitkan. Dat zou mogelijk moeten zijn met ZFS.

Wat betreft prestaties wil ik iets dat vergelijkbaar is met direct attached storage. Ik wil een pijp van zeker 400MB/s tussen de Mac Pro en de storage server en opslag met lage latencies. De beste oplossingen hiervoor lijken fibre channel over iSCSI over 10Gb ethernet. In beide gevallen wil ik point-to-point verbindingen gebruiken zodat ik geen dure switches nodig heb. 10GbE kost zo'n 350 euro per adapter. Dual channel 4Gb fibre channel is wat duurder dan 10GbE maar heeft niet de overhead van iSCSI. Ik heb alleen geen flauw idee of 'link aggregation' of hoe het ook heet bij FC gaat werken met p2p-verbindingen van twee poorten? Op dit moment heb ik nog de ballen verstand van fibre channel, ZFS en OpenSolaris maar ik begreep dat je een ZFS-volume met behulp van Comstar toegankelijk kunt maken als een fibre channel of iSCSI LUN. Het zou handig zijn als beide mogelijk is zodat ik hetzelfde volume kan mounten op de MacBook Air via een software iSCSI-initiator. Het zou helemaal leuk zijn als dit mogelijk is vanaf elke plek op de wereld waar een internetverbinding beschikbaar is.

De Mac Pro is een 2,8GHz quad-core basisconfiguratie die ik wil voldouwen met RAM en verder kaal wil houden. Voor zover ik begrepen heb is het met de dual 4Gb fibre channel adapter van Apple mogelijk om te booten vanaf een FC LUN. Dit zou leuk zijn want dan heb ik geen boot-ssd nodig in de Mac Pro.
Voor de server denk ik aan een Core i5-mobo met 16GB RAM en zes sata-poorten. De Areca ARC-1280 gaat eruit vanwege zijn hoge energieverbruik (20-25 watt). Ik heb nog een ARC-1680 liggen waarop ik de harde schijven in pass-through modus zou kunnen gebruiken. Ik kom dan in totaal op 14 poorten. Hier wil ik acht 2TB harde schijven op aansluiten verdeeld over twee raid-z pools, één voor de primaire data en de andere voor backups. De vijf Vertexen (in totaal 150GB) zou ik als L2ARC kunnen gebruiken. Voor de ZIL heb ik eventueel dan nog een veiliger ssd nodig met een supercapacitor.

Vragen die ik zoal heb:

- Welk besturingsssysteem? OpenSolaris?
- Hoe gaat fibre channel link aggregation in zijn werk bij een p2p-verbinding?
- Kan ik hetzelfde volume toegankelijk maken via FC en iSCSI? (voor de duidelijkheid: gelijktijdig gebruik is niet van toepassing)
- Kan ik prestaties verwachten die vergelijkbaar zijn met die van direct attached storage in raid?
- Wat doe ik met de boot-drive in de server? Kan booten vanaf de ssd's die ook in de L2ARC worden gebruikt of kan ik beter aparte drives gebruiken (kost sata-poorten)

Freenas ZFS stripe data recovery?

10-06-2012 discussie 0
Hallo,
Ik heb een Freenas 0.7.2 (revision 6567) amd64-embedded zelfbouw nas met 2 keer 2TB Samsung schijven. Een virtual device ZFS1 type stripe met beide schijven en een volume/pool genaamd Media3 bestaande uit vdev ZFS1. ZFS pool versie is 13.
Meer dan een jaar gedraaid zonder een enkel probleem.
Maar ik kreeg het in mijn bol en was wat aan het experimenteren met een kleinere schijf erbij (niet slim1) en heb uiteindelijk de volume/pool en de vdev verwijderd. Daarna een nieuwe vdev en nieuwe pool/volume aangemaakt (echt niet slim2 8)7 ).
Kortom ik zie mijn data niet meer want de schijven worden nu netjes als leeg aangegeven.
Ik heb van de meest data wel een backup maar niet van alles. Ik mis ca 10 GB aan ruwe HD video materiaal van mijn kids.
Mijn vragen:
1. Is het mogelijk om de pool/volume weer terug te krijgen of te reconstrueren? Ik heb gelezen dat als je eenmaal een nieuwe pool/volume hebt aangemaakt de oude niet meer te herstellen is, klopt dit? zpool import -D geeft niets meer omdat er een nieuwe is aangemaakt? Ook via Freenas 8 is er niets terug te halen of te importeren.
2. Is het mogelijk om bv met r-studio van R-Tools de ZFS stripes te reconstrueren? Ik heb het geprobeerd en zie ca 10 partities maar het is mij niet gelukt om dit goed te krijgen. Blocksize is een van de in te vullen parameters. Het feit dat er ondisk format wordt gebruikt door ZFS is dit een voor of nadeel bij de reconstructie?

[OpenIndiana]Uitgebreidere storage-performance testen

07-06-2012 discussie 3
Naar aanleiding van heel wat populariteit van ZFS en het artikel van Tweakers.net besloten om thuis om te experimenten (je bent Tweaker of niet) wat geïnvesteerd in een LSI SAS-kaartje (de IBM 1015) en deze in mijn ESXi geprikt, doorgemapped aan een VM en een ZFS-pool gecreëerd met OpenIndiana.

Nu, eerlijkheid gebiedt me om te zeggen dat ik absoluut niet bekend ben met Solaris-derivaten... De leercurve hiervan lijkt me nog iets steiler dan die van Linux, en dat vond ik in den beginne al heel vermoeiend, maar nu ik er een beetje mijn weg in vind des te voldaner... Tijdens die leercurve heb ik hulp gehad van vele Tweakers, waarvoor dank. Met OpenIndiana hoop ik enkele even-goedhartige Tweakers te vinden ;) ...
Ik ben geen luie zak, maar om nu enkele dingen "snel" te bekijken, moet ik een heel plan doorlopen waar ik nu nog niet uit ben...

Kort gezegd, had ik graag een soort oplossing voor volgend probleem: ik wil een soort "all in one" rapport trekken (desnoods text of console based wat ik kan kopiëren) van de performantie van mijn ZFS-pool... Dit om in een volgende blog te verwerken (The Hyperactive Blog: An all in one ESXi-NAS-SAN build) .

Nu heb ik enkele dingen ge-Google'ed en kom ik bij volgende pakketjes uit die dit zouden moeten bewerkstelligen:

http://www.iozone.org/
http://www.textuality.com/bonnie/

Die eerste zag er veelbelovend uit, dus met wat Google'en kwamen we bij dit uit:

http://nixcraft.com/solar...stall-iozone-solaris.html

Ik heb onder Linux nog niet zo veel moeten "maken en compilen", ik had het voordeel dat ik altijd met Ubuntu mijn pakketjes kon binnensleuren via apt-get... Nu, so far so good, een wget van het iozone pakketje, wat cd'en en ik wou gaan make'en:

root@OpenIndianaVirtual:/tank/test2/iozone3_408/src/current# make

You must specify the target.
        ->   AIX                  (32bit)   <-
        ->   AIX-LF               (32bit)   <-
        ->   AIX64                (32bit)   <-
        ->   AIX64-LF             (32bit)   <-
        ->   bsdi                 (32bit)   <-
        ->   convex               (32bit)   <-
        ->   CrayX1               (32bit)   <-
        ->   dragonfly            (32bit)   <-
        ->   freebsd              (32bit)   <-
        ->   generic              (32bit)   <-
        ->   ghpux                (32bit)   <-
        ->   hpuxs-11.0 (simple)  (32bit)   <-
        ->   hpux-11.0w           (64bit)   <-
        ->   hpuxs-11.0w          (64bit)   <-
        ->   hpux-11.0            (32bit)   <-
        ->   hpux-10.1            (32bit)   <-
        ->   hpux-10.20           (32bit)   <-
        ->   hpux                 (32bit)   <-
        ->   hpux_no_ansi         (32bit)   <-
        ->   hpux_no_ansi-10.1    (32bit)   <-
        ->   IRIX                 (32bit)   <-
        ->   IRIX64               (64bit)   <-
        ->   linux                (32bit)   <-
        ->   linux-arm            (32bit)   <-
        ->   linux-AMD64          (64bit)   <-
        ->   linux-ia64           (64bit)   <-
        ->   linux-powerpc        (32bit)   <-
        ->   linux-powerpc64      (64bit)   <-
        ->   linux-sparc          (32bit)   <-
        ->   macosx               (32bit)   <-
        ->   netbsd               (32bit)   <-
        ->   openbsd              (32bit)   <-
        ->   openbsd-threads      (32bit)   <-
        ->   OSFV3                (64bit)   <-
        ->   OSFV4                (64bit)   <-
        ->   OSFV5                (64bit)   <-
        ->   linux-S390           (32bit)   <-
        ->   linux-S390X          (64bit)   <-
        ->   SCO                  (32bit)   <-
        ->   SCO_Unixware_gcc     (32bit)   <-
        ->   Solaris              (32bit)   <-
        ->   Solaris-2.6          (32bit)   <-
        ->   Solaris7gcc          (32bit)   <-
        ->   Solaris8-64          (64bit)   <-
        ->   Solaris8-64-VXFS     (64bit)   <-
        ->   Solaris10            (32bit)   <-
        ->   Solaris10cc          (64bit)   <-
        ->   Solaris10gcc         (32bit)   <-
        ->   Solaris10gcc-64      (64bit)   <-
        ->   sppux                (32bit)   <-
        ->   sppux-10.1           (32bit)   <-
        ->   sppux_no_ansi-10.1   (32bit)   <-
        ->   SUA                  (32bit)   <-
        ->   TRU64                (64bit)   <-
        ->   UWIN                 (32bit)   <-
        ->   Windows (95/98/NT)   (32bit)   <-


OpenIndiana is een Solaris-variant, in 64 bit dacht ik, en dan gebruik ik dus GCC als compiler (?).

En dan kom ik al bij mijn eerste foutmelding:

root@OpenIndianaVirtual:/tank/test2/iozone3_408/src/current# make Solaris10gcc-64

Building iozone for Solaris10gcc-64

gcc -O -c  -Dunix -DHAVE_ANSIC_C -DASYNC_IO -D__LP64__ \
                -D_LARGEFILE64_SOURCE -D_FILE_OFFSET_BITS=64 -Dsolaris \
                 -m64 libbif.c -o libbif10-64.o
sh: line 1: gcc: not found
*** Error code 127
make: Fatal error: Command failed for target `iozone_solaris10gcc-64.o'


Dus wou ik eerst gcc gaan installeren volgens http://wiki.openindiana.o...mmended+build+environment

Maar daar krijg ik na het uitvoeren van:

pfexec pkg install developer/gcc-3 \ 


een gewoon ">" en kan ik alleen termineren met Ctrl + C...

Kan iemand me hierbij helpen en een soort van "educating hand" toereiken? Een kleine uitleg wat ik fout doe of enkele beginselen zouden heel welkom zijn...

FreeNAS, ZFS of Ext4? op Thin Client

15-11-2011 discussie 1
Ik heb een bescheiden energie zuinige thin client, Wyse WinTerm WT9455XL met een EPIA-V Motherboard, VIA C3 550Mhz CPU en 512MB RAM aan boord.

Hierop wil ik FreeNAS installeren op een Flash On IDE Module.

FreeNAS wordt standaard geinstalleerd met het aanbevolen ZFS filesystem. Naar ik begrepen heb functioneert ZFS pas optimaal als er veel RAM geheugen voorhanden is.

Nu is mijn vraag:

Is het beter om van het aanbevolen ZFS filesystem af te wijken en FreeNAS op Ext4 te installeren omdat ik maar 512MB RAM heb?

Ik heb zelf al aardig wat gezocht en gelezen, maar ik twijfel nog op bovenstaande punt.
Heeft iemand advies of praktijkervaring met FreeNAS op een thin client systeem met weinig RAM geheugen (icm het ZFS Filesystem)?

Veel IOPS in een kleine behuizing met 2x Gbit

21-09-2011 discussie 16
Ik heb thuis al een tijdje een ESXi-servertje draaien, sinds kort is die aangevuld met een minder zuinig exemplaar van Intel met twee stevige hexacore Xeons en 24GB geheugen gecombineerd met een SSD.

De weg op dit moment ligt dus open voor een mooi testcluster te bouwen en op zo een manier dat ik de Intel server kan aanzetten op een need to basis... (ik moet de stroom niet betalen, maar ik blijf liever bij mijn zuinige bak voor "productie" VM's)...

Nu vroeg ik me af: ik wil op een snelle en makkelijke manier storage kunne presenteren voor mijn ESXi's en op zo een manier dat ik hosts kan off poweren zonder downtime van VM's... (alhoewel ik die eis zachter aan het laten worden ben, aangezien mijn machine met een 80GB SSD is uitgerust en ik deze met een VM zou kunnen presenteren aan mijn ESXi hosts...). Nadeel van deze setup is dat ik die host dan jamais kan afsluiten, aangezien ik dan met RDM's zou werken...

De voorkeur gaat dus uit naar een apart HEEL klein storage bakje waar ik dus 2 SSD's in kan steken en zo weliswaar met heel kleine opslagcapaciteit toch SERIEUS wat IOPS kan trekken...

Graag jullie reacties hier op... Welke opstelling gebruik ik het best? Ik vind mijn weg een beetje in Linux, heb nog nooit ge-experimenteerd met mdadm, ZFS lijkt me iets leuk, maar dan eerder voor dikke storage + een SSD... Gebruik ik best een aparte RAID-controller of HBA? En heeft er iemand een idee voor een case voor alles in te steken? Ik wil het echt PIEPklein houden, maar voorkomen dat mijn moederbord en/of CPU de bottleneck worden... Mijn SSD's moeten dus MAXIMAAL performen om voldoende IOPS te bieden...

[FREEBSD] Samba snelheid

02-06-2011 discussie 8
Sinds kort draai ik een Freebsd 8.2 op mijn server.Het kopieren van of naar de server via mijn windows 7 pc's gaat erg traag (tussen de 2 en 8 MB/s). Volgens mij is dit gezien mij hardware te laag.

De server:
Freebsd 8.2 is geinstalleerd op een Crucial RealSSD C300 64GB HDD. De bestanden staan op een aparte ZFS pool (5x Hitachi Deskstar 5K3000, 2TB).
De hardware: AMD Phenom II X2 550, Zotac 880G-ITX en 8gb geheugen.
Het netwerk is 1 gigabit per seconde (router, netwerkkaarten en kabels)
De server wordt benaderd door verschillende windows 7 machines.

Via PuTTy heb ik wat interne snelheden achterhaald. Ik heb het volgende commando 5x uitgevoerd.
quote:
NAS# dd if=/dev/zero of=somefile bs=1m count=4k
4294967296 bytes transferred in 58.974471 secs (72827568 bytes/sec)
4294967296 bytes transferred in 33.445957 secs (128415142 bytes/sec)
4294967296 bytes transferred in 35.193181 secs (122039759 bytes/sec)
4294967296 bytes transferred in 29.686668 secs (144676638 bytes/sec)
4294967296 bytes transferred in 36.066081 secs (119086055 bytes/sec)
De weergeven snelheden zijn niet stabiel.Het schommelt tusen de 70 en 144 MB/s. Ik vind de waardes wat lastig om te interpreteren. Toch lijkt mij dit niet de bottleneck. De interne schrijfsnelheid van de server is 'hoog genoeg'. De oorzaak voor de trage samba snelheid ligt dus niet aan de schrijfsnelheid van de server.

Ik heb de Samba als volgt ingesteld:

/etc/rc.conf
quote:
# Local services
zfs_enable="YES"

# Network services
sshd_enable="YES"
samba_enable="YES"
samba_config="/usr/local/etc/smb.conf"
/usr/local/etc/smb.conf
quote:
#======================= Global Settings =====================================
[global]
workgroup = werkgroep
server string = %h Samba
security = user
log file = /var/log/samba/log.%m
log level = 2
max log size = 500
hide dot files = yes
passdb backend = tdbsam
socket options = TCP_NODELAY SO_RCVBUF=131072 SO_SNDBUF=65536
use sendfile = yes
os level = 10
preferred master = No
domain master = No
dns proxy = No
wins support = No
ldap ssl = no
case sensitive = Yes
level2 oplocks = Yes
oplocks = Yes
load printers = No
printcap name = /dev/null
disable spoolss = Yes
show add printer wizard = No
quote:
#============================ Share Definitions ==============================
[homes]
comment = Home directory for %u on %h
browseable = no
writable = yes
path = /tank/private/%u/Docs
valid users = %S

[printers]
printable = Yes
browseable = No
available = No

[public]
comment = %h Shared Public Directory
path = /tank/public
force directory mode = 0777
force create mode = 0777
force group = nobody
force user = nobody
public = yes
writeable = yes
read only = no
Heeft een van jullie tips truucs om de snelheid van samba te verhogen? Of zijn waardes tussen de 2 en 8 MB/s normaal? Ik hoop van jullie te vernemen. Alvast bedankt.

[ZFS] hardware requirements

07-01-2011 discussie 13
Goedemorgen,

Ik sta op het punt om mijn virtuele systeem in te richten en ik ben eigenlijk benieuwd of er een hardware requirement zit aan ZFS. Ik wil de storage pool gaan gebruiken voor een aantal virtuele machines.
Over het hoe en waarom kan ik later uitbreiden maar de mensen die ZFS kennen, kennen ook de voordelen van ZFS :)

Ik draai op dit moment met onderstaande configuratie

KFSN4-DRE/SAS moederbord
8GB DDR2 MDT ECC REG PC5300
1x30GB OCZ ONYX SSD
4x300GB 10K SUN SAS harde schijven
Onboard SAS controller

Gebruikt OS: Windows 2008 R2 Enterprise
Gebruikt VM: Hyper-V

Ik ben benieuwd of de vier harde schijven die ik nu gebruik genoeg output (iops?) geeft voor xx virtuele machines. Denk hierbij aan een aantal (2 of 3) webservers en wat test servers met linux omgeving.
ZFS moet worden geserveerd door middel van een virtuele machine waar FreeNAS op draait.

Dus een kleine situatieschets;

Host draait op SSD ----> FreeNAS serveert 4x300GB ZFS ----> Webserver met ZFS storage pool.

Wie kan mij hier wat meer over vertellen of misschien een beter suggestie geven over hoe en wat?
Ik heb verder weinig ervaring met OS anders dan Windows dus een hapklare oplossing zou ik prettig vinden.

Overigens kan ik weinig vinden over ZFS en performance over vier schijven.

Bedankt :)

Beste practice voor filesystem

02-07-2010 discussie 63
Op mijn NAS draait een ext3 filesystem. Onverhoopt gebeurd het wel eens dat deze plotseling uitvalt (kapotte UPS laatst :( ). Een gewone fsck loopt even het journaal na, brengt veranderingen aan en is klaar.

Maar er is ook een interval bepaald wanneer fsck een gehele check gaat uitvoeren.

Met tune2fs kun je natuurlijk van alles tweaken om die geforceerde test te omzeilen, maar het is wellicht niet voor niets.

Bij zo'n check duurt het luttele uren voordat ie klaar is (2.5TB). Voor prive gebruik vervelend, maar niet heel erg.

Wat is voor professioneler gebruik best practice wat dit betreft eigenlijk? Er kan van alles gebeuren dat je NAS down gaat (Altijd rekening houdend met worstcase scenario's) en een paar uur uit de lucht zijn, terwijl het incident misschie maar minuten bedroeg is niet erg tof natuurlijk :)

Opensolaris unknown rpool ID

06-06-2010 discussie 3
Op een laptop die oud is, maar nog wel aardig werkt wil ik eigenlijk opensolaris installeren. Dit omdat ik wat meer wil spelen met zfs + zones. Opzich allemaal geen probleem natuurlijk, maar aangezien de laptop a) een kapotte CD-drive heeft b) niet via netwerk kan booten c) niet via USB kan booten, moest ik een manier zien om osol te installeren. Dit heb ik gedaan door de disk in VirtualBox te hangen, en een image te maken naar de physical disk. De VM werkt ook naar behoren, so far so good.
Wanneer ik de disk in mijn laptop hang, kan ik niet meer booten, ik krijg dan de volgende foutmeldingen:

Belangrijkste mededelingen in tekst:
Notice: error reading device label
This device is not bootable! It is either offlined or detached or faulted. Please try to boot from a different device.
spa_import_rootpool: error 19
Cannot mount root on $PHYSICAL_ID (van VirtualBox) fstype zfs

panic: vfs_mountroot: cannot mount root
Foto van de volledige tekst

Nu komt dit omdat ZFS denkt dat het een device id (devid) nodig heeft om te kunnen functioneren. Dit devid is afhankelijk van je fysieke hardware. Laat deze nu net anders zijn omdat ik in Virtualbox installeer, en op mijn laptop wil runnen. Zie ook http://defect.opensolaris.org/bz/show_bug.cgi?id=4755
In dit topic staat ook het een en ander aan oplossingen aangeven, maar dit voldoet niet in mijn situatie. Het gebruikelijkst is namelijk om de osol livecd te booten, de zpool te importeren, en vervolgens weer te exporteren. Dit zorgt er namelijk voor dat de devid word geupdate. Gezien mijn bootopties gaat dit dus niet lukken. De opties op grub te patchen leveren bij mij een kapotte grub op, dan kan ik dus helemaal niet meer booten.

Heeft iemand enig idee hoe ik dit kan aanpakken? Kan ik opensolaris niet forcen om mijn devid te negeren ofzo?

Edit: Met -kv als extra boot opties zie ik de vmdk id van virtualbox, maar ook een id die denk ik van mijn laptop is;
/pci@0,0/pci-ide@1f,1/ide@0/sd@1,0

Nu gaat iedereen er dus blind vanuit dat je met een import/export van de rpool (wat bij mij niet mogelijk is) je devid wel weer fixt. De zin "ZFS should be able to reset your device ID automatically after an export". Er is echter nergens iets te vinden over hoe je dit manueel doet. Weet iemand dit?
Resultaten per pagina: 25 | 50 | 100


Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True