Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Stel een vraag

Discussieer mee of stel een vraag

Filters - Verfijn resultaten

Topictype

Categorieën

AND

Onderwerpen

AND

Subforum

Datumbereik

Topicstarter

Topicstatus

413 topics - Pagina 1 van 17

Het grote QNAP topic - Deel 2

21:42 discussie 4.380

Het grote QNAP topic - Deel 2



Logo QNAP


Inleiding
QNAP is een bedrijf dat al enkele jaren NAS-systemen verkoopt. In hun segment bieden ze NAS'en aan voor thuis, MKB of enterprisegebruik aan. De NAS'en van QNAP zijn er in alle maten met uiteraard ook een bijhorend prijskaartje.

Dit topic dient om Tweakers met een QNAP, of die met het idee spelen om een QNAP te kopen een hoekje te geven waar specifieke QNAP problemen of functies besproken kunnen worden.

Producten
QNAP heeft zoals al verteld een uitgebreide range van producten. Instapmodellen beginnen met 1 HDD bay maar je kan makkelijk tot 8 bays gaan als je nood hebt aan uitgebreidere storage.
De bekendste serie is de Turbo Station (TS) serie. Dit zijn non-rackmountable NAS'en die je op je desktop of in een kast kan zetten. Een voorbeeld hiervan is de QNAP TS-439 Pro II.
Het eerste getal (in dit geval een 4) duidt op het maximum aantal HDD's dat je in de trays kan steken van een QNAP. De cijfers daaropvolgend (39 in dit geval) duiden op de serie, en de "Pro II" duidt op de versie.

Functies, specialiteiten en firmware
De QNAP firmware is van grond af heel uitgebreid. Op dit moment zitten we aan versie 3.3.0 en deze biedt onder andere standaard volgende functies aan:
  • SAMBA/CIFS
  • AD-integration
  • iTunes-media server
  • Twonky Media server (UPnP)
  • Virtual hosting van websites
  • HFS+ support voor externe devices
  • ISO's mounten vanuit de NAS
  • Apple Time Machine backupserver
  • FTP server
  • rsync
  • NFS
  • Afhankelijk van model: iSCSI
  • MySQL-server
en nog veel meer, want de QNAP NAS'en zijn uitbreidbaar met QPKG's, waarmee je bv van je QNAP een Wordpress, SabNZBD+, Asterisk enz.. server kan maken

Op de QNAP-site vind je meer informatie over wat een QNAP allemaal kan doen met de laatste firmware en afhankelijk van jouw gewenste model welke functies er nog bovenop komen.

QNAP's blinken imho uit in hun performance ten opzichte van andere NAS'en van andere vendors. In reviews komen de QNAP's ook altijd heel sterk naar buiten. Bewijs hiervan vind je onder andere op SmallNetBuilder en dan met name de NAS-sectie

Support
Naast je standaard handleidingen die je online vindt heeft QNAP ook nog ruime support via het QNAP-forum
QPKG's
QPKG's zijn bestaande linux applicaties welke door enkele enthousiaste QNAP gebruikers worden aangepast en ingepakt in een speciaal formaat, waardoor deze zeer simpel point-and-click op een QNAP zijn te installeren. Voor meer achtergrond informatie over QPKG's, installatie instructies, etc zie het QNAP-forum. Je dient je dan wel even te registreren, daar alle informatie over qpkg's alleen is te vinden nadat je bent ingelogged. Onderstaande lijst is een overzicht met QPKG's die SL1000 onderhoud voor de QNAP.

Spotweb
Omschrijving:
Spotweb is een nederlandstalige nzb zoekwebsite welke je op je eigen QNAP kunt draaien.
zie voor meer informatie over spotweb: SpotWeb - Webbased Spotnet
Installatie instructies:
zie het volgende bericht voor afhankelijkheden, installatie instructies, etc: sl1000 in "Het grote QNAP topic - Deel 2"
Download links
ALLE QNAP series [TS-X09, TS-X10/12/19, TS-X39/59/79, etc]

SABnzbdplus
Omschrijving:
SABnzbdplus is een usenet downloadtool voor het downloaden vanaf nieuwsgroepen.
Installatie instructies:
zie het uitgebreide topic op het QNAP forum voor afhankelijkheden, etc: http://forum.qnap.com/viewtopic.php?f=133&t=36763
Download links:
ARM (x09 series) [TS-x09 series]
ARM (x19 series) [TS-x10 series / TS-x12 series / TS-x19 series ]
Intel x86 based [TS-x39 series/ TS-x59 Series / SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Sickbeard
Omschrijving:
SickBeard is een add-on op SABnzbdplus, welke automatisch je favoriete series download vanaf usenet.
Installatie instructies:
zie het uitgebreide topic op het QNAP forum voor afhankelijkheden, etc: http://forum.qnap.com/viewtopic.php?f=133&t=41670
Download links:
ARM (x09 series) [TS-x09 series]
ARM (x19 series) [TS-x10 series / TS-x12 series / TS-x19 series ]
x86 (Intel based) [TS-x39 series/ TS-x59 Series / SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Couchpotato
Omschrijving:
Couchpotato is een add-on op SABnzbdplus welke een lijst met favoriete films in de gaten houdt. Zodra Couchpotato een film spot welke aan je voorwaarden voldoet, wordt deze automatisch gedownload.
Installatie instructies:
zie het uitgebreide topic op het QNAP forum voor afhankelijkheden, etc: http://forum.qnap.com/vie...1&t=40596&start=0
Download links:
ARM (x09 series) [TS-x09 series]
ARM (x19 series) [TS-x10 series / TS-x12 series / TS-x19 series ]
x86 (Intel based) [TS-x39 series/ TS-x59 Series / SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Headphones
Omschrijving:
Headphones is SickBeard, maar dan voor je CD verzameling, je kunt je favorite artiesten volgen en automatisch de laatste cd's downloaden.
Installatie instructies:
Nog geen, Als iemand het leuk vindt om een compacte instructie te schrijven, dan is hij/zij meer dan welkom.
Download links:
ARM (x19 series) [TS-x10 series / TS-x12 series / TS-x19 series ]
x86 (Intel based) [TS-x39 series/ TS-x59 Series / TS-x79 Series / SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Dropbox
Omschrijving:
Dropbox is een web-based file hosting service, welke via cloud computing gebruikers via internet in staat stelt hun bestanden en mappen op te slaan en delen met anderen. Er zijn zowel gratis en betaalde diensten, elk met verschillende opties.
Installatie instructies:
Dropbox is X86 only, er is geen code beschikbaar die op een arm-platform werkt.
Voor meer informatie zie het topic op het QNAP forum: http://forum.qnap.com/viewtopic.php?f=226&t=38205
Download links:
x86 (Intel based) [TS-x39 series/ TS-x59 Series / SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Logitech Media Server
Omschrijving:
Logitech Media server (aka SqueezeboxServer) is de server software van de Squeezebox (voorheen Slim Device) welke audio (.mp3, .flac, .OGG, enz.) kan streamen naar de Logitoch spelers. Dit LMS QPKG is een combinatie van SSOTS (gemaakt door flipflip) en LMS. Het geeft je een one-click installatie oplossing, zonder de noodzaak om zelf LMS te downloaden en te installeren.
Installatie instructies:
zie het uitgebreide topic op het QNAP forum voor afhankelijkheden, etc: http://forum.qnap.com/vie...f=123&t=35740#p155722
Download links:
OLD ARM (x09 series) [TS-x09 series waarbij x=1,2,4]
ARM (x19 series) [TS-x10 series / TS-x12 series / TS-x19 series ]
x86 (Intel based) [TS-x39 series/ TS-x59 Series / TS-X79/ SS-x39 series / TS-509 / TS-809/ TS - 809U-RP]

Het grote DIY RAID NAS topic deel 3

02-05 10:58 discussie 20.477
Het grote DIY NAS Topic
http://www.xs4all.nl/~mskramer/diyraidnas3.png
Al weer deeltje drie van "Het grote DIY RAID NAS" topic. Nog steeds blijken veel Tweakers geinteresseerd te zijn in het zelf maken van een NAS met RAID functionaliteit. Voordelen hiervan zijn de doorgaans hogere performance van een zelf gebouwd systeem t.o.v. een embedded oplossing en door het gebruik van een gangbaar OS is men flexibeler in de software die gebruikt wordt. Zo kan het NAS tevens eenvoudig ingezet worden als webserver, domain controller, gameserver, of welke toepassing dan ook die men op een regulier consumenten NAS niet aan de praat krijgt.

Uit het afgelopen topic blijkt dat voor een DIY RAID NAS veelal gebruik gemaakt werd van *NIX besturingssystemen. Een reden hiervoor is dat zodra je aan complexere RAID levels gaat denken als RAID5 en RAID6, dat Windows hier qua software RAID geen fatsoenlijk performende oplossing aanbiedt, terwijl de software RAID van besturingssystemen als Solaris, Linux en FreeBSD vrij goed performed. In dit topic gaan we weer verder met het discussieren over de laatste nieuwtjes die door het een of ander gerelateerd zijn aan het zelf maken van een NAS, vraagstukken behandelen met betrekking tot het aanschaffen van een nieuw NAS of als je gewoon even wilt patsen met je zojuist aangeschafte NAS. Zorg in dat geval wel voor foto's ;)

Lees trouwens voordat je eventueel specifieke RAID vragen wilt gaan stellen in ieder geval de RAID FAQ en de RAID wikidoor, aangezien daar waarschijnlijk veel van je vragen al worden beantwoord.

Over nu naar advies met betrekking tot het samenstellen van je NAS, uitgaande dat je met een schone lei begint.
Hardware:
Processor, moederbord en geheugen:
De kern van je NAS. Hiermee bepaal je in feite al of je een energiezuinige-, een überperformance-, een spotgoedkope- of een guldenmiddenwegfileserver wilt hebben.

Een NAS moet natuurlijk uiteindelijk data over het netwerk pompen. 100mbit trekken vrijwel alle courante CPU's tegenwoordig wel vol, maar wanneer je met gigabit aan de slag gaat, moet je toch wel wat meer cpu power in huis hebben. Een oude P3 of celeron die je eventueel nog hebt liggen zal hoogstwaarschijnlijk op gigabit niet veel sneller zijn dan op 100mbit, maar zal bovendien relatief niet erg zuinig zijn. Als je ouders de energierekening betalen en die het allemaal wel best vinden is dat natuurlijk geen probleem, maar voor de mensen die hun eigen rekening betalen is het wellicht aan te raden eens door te rekenen hoe lang het duurt eer je een nieuw, meer energiezuinig nas er al uit hebt. AMD heeft qua energieverbruik nog altijd een streepje voor op Intel. Mede dankzij de lage prijs is een systeem gebaseerd op een AMD platform ideaal voor een NAS.

Aangezien Software RAID wat ruimte in het geheugen wel prettig vindt en de prijzen ervan tegenwoordig zo belachelijk laag zijn, is 1GB toch echt wel het minimum wat je zou moeten willen.

SATA (RAID) Controllers:
In de meeste gevallen zal software raid wel voldoen, zeker als je RAID0, 1 of zelfs 1+0 gaat draaien. RAID5 is echter een ander verhaal. Hierbij moet immers bij elke write pariteit worden berekend en weggeschreven. Dat resulteert in een lagere write-performace. Zeker als je de standaard onboard RAID5 implementatie van je moederbord of die van windows gaat gebruiken kan de performance bedroevend zijn (minder dan 15MB/sec writes zijn eerder regel dan uitzondering). Gelukkig bestaan er wel goede implementaties, bijvoorbeeld geom_raid5 voor FreeBSD, MDADM voor Linux en de voor het ZFS filesystem beschikbare "RAID-Z".

Hardwarematige raid controllers zijn in de meeste gevallen voor een thuis NAS overkill, maar kunnen nuttig zijn in de volgende situaties.
Je wilt RAID5 of 6 draaien en:
• Je gebruikt Windows op je NAS (de softwarematige RAID5 alternatieven van windows lopen sterk achter op die van Linux en FreeBSD)
• Je móet beslist Online Capacity Expansion of Online Raid Level Migration functionaliteit hebben.
• Hoge IO concurrency (bijv. fileserver op een LAN-party waar veel mensen tegelijk leechen :+)
• Je hebt het geld ervoor en wilt een extra patsfactor aan je NAS toevoegen O-)

Als je tot de conclusie bent gekomen dat je inderdaad een hardwarematige raid controller nodig hebt én over voldoende budget beschikt, zijn bijvoorbeeld de controllers van het merk Areca aan te raden. Deze staan bekend om hun uitstekende performance, degelijkheid en goede support. Daarnaast zijn er natuurlijk voldoende andere aanbieders van raidcontrollers. Zorg in ieder geval dat je een koopt waarbij er een dedicated CPU op zit die de XOR berekeningen uitvoert. Anders wordt je main CPU alsnog lastig gevallen met XOR operaties waar die niet voor is geoptimaliseerd en is je prijs/performance ten opzichte van een goede software raid5 oplossing er veelal flink op achteruit gegaan

Het kan natuurlijk ook zo zijn dat je te weinig SATA poorten hebt en software RAID wilt draaien. In dat geval kun je een gewone, simpele sata controller gebruiken. Let er hierbij wederom wel op dat de PCI-bus vrij snel vol zit. Als je dus nog een leeg PCI-e x1 slot hebt doe je er beter aan een PCI-Express SATA controller te kopen.

Kast en voeding:
Voor een thuisserver is een stille kast in combinatie met een efficiënte voeding meestal de beste oplossing. Bij de drivebays is het ook handig om te weten dat je elke 5.25" met een simpel en goedkope bracket kunt gebruiken voor een 3.5" harde schijf. Enkele merken kasten waarbij je eigenlijk altijd wel goed zit, zijn Antec, Chieftec en CoolerMaster die alle drie ook nog eens stock erg degelijke voedingen meeleveren; niet onbelangrijk voor een fileserver.

Als je om wat voor reden dan ook een rackmount chassis wilt hebben, zou je eens kunnen kijken bij Chenbro. Die kasten zijn over het algemeen erg degelijk voor een relatief vriendelijke prijs.

Als je toch op de energiezuinige tour bent kun je evengoed even kijken naar Mini-ITX oplossingen. Deze kastjes zijn doorgaans voorzien van een redelijk laag wattage voeding en in combinatie met een intel atom 'achtig' systeem kun je dan voor erg weinig watt toch een NASje maken. Een andere optie is om in zo'n kast een moederbord te stoppen waar je een normale (energiezuinige variant van een) desktop CPU op kunt plaatsen om op erg weinig cm3 relatief veel performance te krijgen. Check de Pricewatch voor de mogelijkheden. Een kastje wat zich voor dit doel erg leent is overigens de Chenbro ES34069. Deze kast heeft ruimte voor 4 hot-swappable harde schijven, 1 2.5" harde schijf, 1 slim-drive optical drive en een Mini-ITX moederbord. Helaas is de leverbaarheid van de kast niet om over naar huis te schrijven en gaat de kast in dat geval een substantieel deel van de complete kosten van het NAS innemen.

Harde schijven:
Tenslotte natuurlijk hetgeen waar je de bestanden opslaat: de harde schijven. Er is veel keus en het is maar net hoeveel ruimte je nodig hebt en hoeveel budget je hebt. Over de hoeveelheid schijven en de grootte ervan valt wat te zeggen. Het is handig om allereerst na te gaan hoeveel schijfruimte je in totaal wilt hebben en of je RAID wil gaan draaien. Als je bijvoorbeeld minimaal 4TB schijfruimte wilt hebben EN RAID5 wilt draaien, maar slechts plek hebt voor 4 harde schijven, kun je er voor kiezen 4 harde schijven van 2TB te nemen. Netto houd je dan 6TB over, terwijl als je zat ruimte hebt, misschien beter 1 of 1.5TB schijven kunt gebruiken omdat die een betere prijs/grootte verhouding bieden. Tenzij je natuurlijk het verbruik wilt beperken, want 2 harde schijven verbruiken nog altijd meer dan 1.
Software:
Operating System:

Windows:
Hoewel ik het doorgaans voor een DIY RAD NAS niet zou aanraden is Windows natuurlijk een optie. Het kan prettig zijn als je geen zin hebt om energie en moeite te steken in het 'leren' van een nieuw besturingssysteem; alles is lekker vertrouwd en het is meestal ook nog vrij stabiel te noemen. De RAID5 implementatie van Windows is echter niet zo snel als die van de op *nix gebaseerde varianten. Als je er verder geen problemen mee hebt dat je schrijfsnelheden erg laag zijn ten opzichte van *NIX alternatieven, is Windows een reëele optie. De server edities van Windows ondersteunen standaard RAID5, maar Windows XP niet. Gelukkig hebben we daar de RAID hack voor.

FreeBSD:
FreeBSD is een geavanceerd serverbesturingssysteem met unieke features. Zo kent FreeBSD natuurlijk software RAID met het GEOM-framework, maar het meest bekend onder NAS is FreeBSD vanwege zijn uitstekende ondersteuning voor ZFS. Zelfs met unieke features die andere OS niet hebben; zo kan FreeBSD direct van een RAID-Z pool booten zonder losse systeemdisk nodig te hebben.

FreeNAS:
FreeNAS is een OS gebaseerd op FreeBSD, specifiek voor het draaien van een NAS. Het is lichtgewicht en simpel te configureren via de webinterface. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten erin, inclusief ondersteuning voor ZFS. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 32MB CF kaart), kan dit een goede optie zijn.

NAS4Free:
NAS4Free is een doorontwikkeling van de FreeNAS 7 series web-interface, maar dan draaiende onder een moderne FreeBSD 9 motorkap. Vrijwel alle standaardfeatures die je van een NAS verwacht zitten er in en biedt RAID5 ondersteuning via een oudere (maar stabiele) versie van geom_raid5, maar wel met minder RAM genoeg neemt dan ZFS wat nutuurlijk ook wordt ondersteund. Als je dus een OS zoekt waarbij je zo weinig mogelijk zelf hoeft te tweaken en die een kleine footprint heeft (het past op een 128MB CF kaart), kan dit een goede optie zijn..

ZFSguru
ZFSguru is zoals de naam doet vermoeden een NAS-distributie die zich volledig richt op ZFS en van de grond is opgebouwd met een interface die velen prijzen vanwege zijn helderheid en duidelijke opbouw. Dit project is van alle opties het minst doorontwikkeld. Wel zijn er add-on services beschikbaar die de functionaliteit uitbreiden met bijvoorbeeld SABnzbd+, Transmission of VirtualBox. In tegenstelling tot FreeNAS en NAS4Free kun je ZFSguru wel makkelijk uitbreiden; het is namelijk een volledige FreeBSD distributie onder de motorkap zonder zaken wegbezuinigd.

Linux:
Je DIY RAID NAS kun je prima baseren op Linux. MDADM biedt goede prestaties en is erg stabiel gebleken. De community is bovendien erg groot en er is daardoor veel informatie beschikbaar. Op http://linux-raid.osdl.org staat een mooie beschrijving over raid en dan met name de toepassing ervan op een linux machine. Welke distributie je wilt gebruiken is natuurlijk helemaal aan jou. Als je nog niet met een distro bekend bent, kijk dan even in Het grote welk OS (bijvoorbeeld linux distro) topic deel 7. Hieronder een aantal linux distributies die speciaal voor NASses ontwikkeld zijn:
Openfiler
SME Server

OpenSolaris:
Dit OS biedt out-of-the-box support voor ZFS, een erg vooruitstrevend filesystem. Echter zijn er in het vorige topic niet echt veel personen gebleken die hier gebruik van maakten, maar dat er wel interesse in is. Mocht iemand zin hebben hier een stukje over te schrijven: DM me dat even :)
Links:

Linux software RAID optimalisaties
Installatie van ZFS onder FreeBSD (experimenteel!)

Het grote ZFS topic

30-04 15:40 discussie 17.231
Het grote ZFS topic
http://derivadow.files.wordpress.com/2007/01/zfs-self-healing.jpg%3Fw%3D510
ZFS; wat is dat? :?

ZFS ofwel Zettabyte FileSystem is een nieuw soort filesystem om bestanden mee op te slaan. ZFS verschilt enorm van andere filesystems, omdat het naast filesystem ook de functies van LVM en RAID engine verzorgt. We noemen ZFS daarom een hybride filesystem.

Vrijwel alle bestaande filesystems werken op één storage device zoals een hardeschijf. Ze zijn niet gemaakt om meerdere hardeschijven aan te spreken. Daarvoor is een aparte RAID layer nodig die van meerdere schijven één schijf maakt en er vervolgens een filesystem op wordt geplaatst. Het filesystem is zich hierbij niet bewust van het feit dat zijn data op meerdere disks staat; die twee werelden zijn strict gescheiden.

ZFS werkt heel anders; het spreekt direct meerdere schijven aan en integreert de functionaliteit van RAID, LVM en filesystem in één pakket. Dat heeft veel voordelen, voornamelijk op het gebied van betrouwbaarheid, maar zeker ook prestaties.

Zo zo... en wat zijn die 'voordelen' van ZFS dan? :7

ZFS is een 'next-gen' filesystem en heeft alleen Btrfs en ReFS als concurrenten. Btrfs is nog sterk in ontwikkeling en door de GPL licentie beperkt tot de Linux kernel. ReFS is het antwoord van Microsoft op de tekortkomingen van inmiddels behoorlijk gedateerde filesystems die we gebruiken, we noemen ze daarom legacy filesystems omdat deze eigenlijk gemaakt zijn voor een ander tijdperk. Alle platforms (Windows, Linux en UNIX) hebben dus hun eigen next-gen filesystem in de koker, maar ZFS is op dit moment het meest stabiel en volwassen en volledig production ready op meerdere besturingssystemen.

Een overzicht van enkele voordelen van ZFS versus legacy filesystems:
  • Checksums waken over de integriteit van je bestanden, en in het geval dat er toch corruptie plaatsvindt zie je precies welke bestanden dit treft. Nooit meer 'silent corruption' dus!
  • Intelligente afhandeling van onleesbare sectoren (bad sectors) - deze worden automatisch gecorrigeerd door deze te overschrijven met redundante data indien beschikbaar. Met ZFS ben je vrijwel immuun voor het probleem van bad sectors wat steeds groter wordt met de stijgende datadichtheid.
  • Self Healing; het on-the-fly automatisch repareren van corruptie en bad sectors, mits er voldoende redundancy beschikbaar is zoals in een mirror of RAID-Z configuratie.
  • Dynamische stripesizes betekent dat ZFS niet kwetsbaar is voor de zogenaamde 'write hole'; ZFS kent geen read-modify-write. Dit is een technisch belangrijk voordeel van RAID-Z boven RAID5 wat grote voordelen heeft op gebied van betrouwbaarheid én random write prestaties.
  • ZFS bewaakt de consistency van zijn filesystem en application data door transaction groups en ZFS Intent Log (ZIL); onverwachte stroomstoringen zouden nooit ZFS mogen beschadigen.
  • ZFS kan één of meerdere SSDs inzetten als intelligente caching (L2ARC) wat vergeleken kan worden met de Smart Response Technology (SRT) van Intel, wat je ook in staat stelt om een HDD te cachen met een SSD. Het verschil is dat ZFS dit kan doen zonder de betrouwbaarheid aan te tasten; als je SSD corrupt raakt wordt dit opgemerkt en wordt er van de HDD RAID array gelezen, Intel SRT en andere oplossingen kunnen dit niet en dus is deze feature niet helemaal veilig, in tegenstelling tot ZFS waar L2ARC geen risico toevoegt.
  • Snapshots zijn een verademing voor backups. Maak een snapshot en je kunt vrij rommelen, niet goed dan doe je een rollback. Het concept van een snapshot is al heel oud, maar de manier hoe het werkt bij ZFS maakt dat het gebruik ervan zeer flexibel werkt en heel economisch is met opslagruimte; alleen wijzigingen - de 'delta' - kosten opslagruimte.
Zelf zou ik een aantal andere meer praktische argumenten aanvoeren:
  • ZFS geeft je een betrouwbare RAID layer en zorgt dus dat je de foutgevoelige ouderwetse RAID layers volledig uitschakelt. Het filesystem zit 'direct' aan de disks en samen met checksums geeft dit je veel meer bescherming voor je bestanden.
  • ZFS bespaart je kosten omdat je geen dure TLER-schijven hoeft te kopen, geen hardware RAID en UPS/BBU. Gewone desktopschijven werken prima met ZFS op een gewone non-RAID controller.
  • ZFS kun je uitstekend als backup combineren. De snapshots zijn heel krachtig om incremental backups te maken. Het idee is dat je terug in de tijd kunt bladeren en zien hoe je bestanden toen waren. Dat is een krachtige feature om perongeluk deleted files of een virus die aan je bestanden knaagt af te dekken.
  • ZFS laat je lekker flexibel met data omgaan en data erop pleuren en 'vergeten'; je hoeft er niet meer naar om te kijken. ZFS is heel onderhoudsarm dankzij de self-healing. Op een moment dat ZFS filesystemschade tegenkomt, repareert het dit vanzelf.
Zijn er ook nadelen?
  • ZFS draait niet onder Windows. Alleen onder Solaris/IllumOS en FreeBSD kun je spreken van eerste klasse implementaties die bewezen stabiel zijn en goed ondersteund worden met actieve ontwikkelaars. De Linux implementatie is erg goed op weg, maar is nog niet zo bewezen als bijvoorbeeld de FreeBSD implementatie. Daarnaast is ZFS makkelijk toegankelijk middels speciale 'NAS' operating systems - waarover later meer.
  • ZFS is erg hongerig naar geheugen, je kunt het vanaf 512MB RAM gebruiken, maar dan knijp je ZFS wel enorm. Pas boven de 4 gigabyte dus praktisch 6-8GiB wordt ZFS in alle glorie ondersteund met standaard prefetching enabled. Dit is overigens specifiek voor FreeBSD. Bij Solaris geldt dat ZFS hier beter werkt op systemen met weinig geheugen zoals 2GB. Deze bron meldt als Rule of Thumb 1GB per schijf plus wat je nodig hebt voor applicaties voor het Solaris platform.
  • Je kan bij ZFS een bestaande RAID-Z (1/2/3) vdev niet uitbreiden met één of meer disks. Simpel gezegd: heb je een 4-disk RAID-Z dan kun je niet zomaar een disk bijpleuren en het een 5-disk RAID-Z maken - iets wat met traditioneel RAID wél kan: Online Capacity Expansion (OCE). Bij ZFS is het wel mogelijk om nieuwe vdev's toe te voegen. Nadeel is dus wel, dat je (vaak) in een keer een flink aantal disks moet kopen als je RAID-Z gebruikt. Bij mirrorring heb je dat probleem niet omdat je hier wel van een enkele disk een mirror kunt maken en andersom.
Maar ondersteunt ZFS nou RAID? (8>

ZFS ondersteunt diverse opslagmethoden die erg vergelijkbaar zijn met RAID. Echter, geen enkele traditionele RAID engine kan nadoen wat ZFS doet, dus in die zin is het geen echt 'RAID'.

De volgende schema's zijn beschikbaar:
• RAID0 - striping: maximale performance, geen (extra) bescherming
• RAID1 - mirroring: twee schijven met identieke data
• RAID10 - striping+mirroring: een combinatie van hierboven (min. 4 schijven)
• RAIDZ - enkelvoudige parity: vergelijkbaar met RAID5
• RAIDZ2 - tweevoudige parity: vergelijkbaar met RAID6
• RAIDZ3 - drievoudige parity: dit bestaat bij traditioneel RAID niet of nauwelijks

En wat is dat RAID-Z dan? :?

RAID-Z is een verbeterde vorm van RAID5 die alleen mogelijk is als RAID en filesystem niet gescheiden zijn, zoals normaliter het geval is. Omdat ZFS die twee combineert, kan een aantal belangrijke tekortkomingen van RAID5 worden voorkomen. Hierbij gaat het bijvoorbeeld om de RAID5 'write hole', en die komt weer door non-atomic read-modify-write cycles die nodig zijn als je naar RAID5 schrijft met een grootte anders dan de optimale full block size; veelal random writes dus. RAID-Z kent echter geen read-modify-write cycles omdat alle disks in elke write I/O worden betrokken. Dit kan alleen maar met een dynamische stripesize, en dat is dus een van de slimme voordelen van RAID-Z boven RAID5.

RAID-Z is dus anders dan RAID5, maar het deelt wel de basis eigenschappen:
• één disk mag uitvallen zonder gegevensverlies, twee disks betekent alles kwijt
• de beschikbare opslagruimte is gelijk aan het aantal schijven minus parity schijven maal de grootte van de kleinste disk. Dus 4 schijven van 2TB in RAID-Z = 6TB bruikbare ruimte.

RAID-Z2 is dan hetzelfde maar met twee parity disks, dus vergelijkbaar met RAID6. RAID-Z3 gebruikt zelfs drie parity disks voor extra veiligheid, wat in thuisomgevingen zeldzaam is. Het is vaak handiger om meerdere RAID-Z2's in een enkele pool te draaien dan één grote RAID-Z3.

Dus ZFS is software RAID? Is Hardware RAID niet beter? :Z

ZFS is inderdaad softwarematige RAID, en dat heeft diverse voordelen. Veel mensen denken dat het veel aanslag pleegt op je CPU, maar zelfs een Atom CPU kan meer dan een gigabyte aan XOR instructies verwerken. XOR geldt als een makkelijke instructie en wordt in de praktijk beperkt door geheugenbandbreedte wat op moderne systemen tussen de 4 en 20 gigabyte per seconde ligt. Mensen die denken dat een XOR-engine nodig is voor goede performance, hebben teveel geluisterd naar de doctrine van de controllerfabrikanten.

De voordelen van software RAID:
  • Geen dure Hardware RAID controller nodig*
  • Geen Battery Backup Unit nodig (mits je filesystem een afdoende natuurlijke bescherming heeft zoals een journal of soft updates)
  • Geen dure TLER-schijven nodig, zoals de WD RE series, die stukken duurder zijn alleen voor meer garantie en firmware die TLER mogelijk maakt. Door goedkope schijven te gebruiken kun je er meer van kopen dus meer storage en meer performance. (Wikipedia: Time-Limited Error Recovery). * - Zie uitleg een stuk terug bij voordelen ZFS
  • Onafhankelijk van de controller. Gaat je controller stuk met software RAID dan koppel je je disks aan een andere controller en je bent zo weer online.
  • Gebruik van meerdere controllers. Je onboard SATA poorten zijn de best mogelijke poorten die je kan hebben, dus waarom die niet gebruiken? Je hebt er vaak max 6 en dus kun je zowel disks op je onboard controller als op een add-on controller aansluiten, en in dezelfde pool integreren. Zolang je controllers voldoende bandbreedte hebben is hier geen enkel bezwaar tegen qua performance.
  • Hardware RAID weet eigenlijk niet of een block corrupt is, het kan alleen constateren dat een block niet in sync is. Vrijwel alle controllers gaan ervan uit dat de parity fout is en de originele data goed is, en corrigeren de parity in dat geval. Dit kan voor corruptie zorgen die niet gedetecteerd of gecorrigeerd wordt door traditioneel RAID; silent corruption. Software RAID zoals in ZFS kan dus dingen die hardware RAID nooit zou kunnen nabootsen, met cruciale verschillen tot gevolg.
Zo, nou ik ben overtuigd hoor! Waar kan ik dat ZFS krijgen? :9~

Geen Windows, vanzelfsprekend. ;)

Er zijn drie platforms waar ZFS op draait:
• Solaris (eerst van Sun, nu in de klauwen ehh handen van Oracle)
• FreeBSD (opensource UNIX)
• Linux

Solaris:
Solaris is een heel degelijk UNIX besturingssysteem en ook de thuisbasis van ZFS. Sun was namelijk eigenaar van Solaris en ZFS voordat het werd overgenomen door Oracle. Oracle heeft aangegeven ZFS verder te zullen ontwikkelen, maar het originele team achter ZFS is verdwenen met de overname.

Beschikbare varianten:
Nexenta (Stor); een op (Open-) Solaris (/Illumos?) gebaseerde distributie speciaal ontwikkelt voor NAS/SAN gebruik. Gratis versie is gelimiteerd tot 18TB.
napp-it; een uitgebreide web-interface voor Illumos.
EON ZFS Storage - embedded distributie
OpenIndiana Enterprise oplossing met ZFS.

FreeBSD:
FreeBSD is een veelal onbekend maar toch zeer geavanceerd besturingssysteem. FreeBSD heeft dankzij zijn licentie geen enkel probleem met ZFS integratie, en heeft het al vrij vroeg, sinds FreeBSD 7.0 geïntegreerd. Die versies waren nog expeirmenteel en instabiel. Vandaag de dag zitten we met een goed stabiele ZFS v15 en de nieuwe v28 code is al draaide op FreeBSD 9 (en intussen al ZFS v5000 via FreeBSD 9.2 / 10.0). Het grote voordeel van FreeBSD is dat je meer zekerheid hebt over de toekomst van ZFS op dit platform. Ook heeft FreeBSD een aantal beperkingen van het Solaris platform niet, en is de hardwaresupport beter, maar nog steeds minder goed dan Linux.

Beschikbare varianten:
mfsBSD - een simpele LiveCD voor FreeBSD waarmee je ook direct op ZFS kunt installeren.
FreeNAS - een uitgebreid NAS besturingssysteem. De oude versie 0.7.x heeft wel oudere ZFS support en valt af te raden, maar de nieuwe 0.8.x versie beschikt wel over een stabiele en moderne ZFS versie.
ZFSguru - een nieuwe variant helemaal op ZFS gericht, nog erg in ontwikkeling maar heeft als grote voordeel dat er een volledige FreeBSD installatie achter zit, zonder dingen weggesnoeid zoals bij FreeNAS. Dit maakt het installeren van extra software makkelijker, wat bij FreeNAS toch een stuk lastiger is. Voor de nog ontbrekende features moet je terugvallen op de text shell, iets wat steeds minder nodig zal zijn naarmate ZFSguru zich verder ontwikkelt. CiPHER ontwikkelt sinds november 2011 mee aan dit project. ZFSguru kan beschouwd worden als gemakkelijkste all-in-one ZFS oplossing.
NAS4Free Het open-source broertje van FreeNas die gemaakt is nadat FreeNas in de handen van ixSystems is gekomen. Bijna dezelfde functionaliteit, maar niet meer gebaseerd op nanoBSD, en dat kan in de toekomst nog wel eens voordelen opleveren.

Linux:
Linux is een uitstekend allround besturingssysteem, maar de GPL-licentie is helaas slecht cq. niet verenigbaar met de licentie van ZFS, de CDDL. Dit heeft tot gevolg dat ZFS alleen via een omweg beschikbaar is op het Linux platform. In de praktijk is het op veel besturingssystemen intussen erg gemakkelijk geworden om het te installeren, voor systemen als Ubuntu zijn er al PPA's om ZFS te installeren, en Gentoo levert bijvoorbeeld de sourcecode gewoon mee in de ISO.

Beschikbaar zijn:
• ZFS-on-Fuse (Userland Fuse implementatie)
• ZFSonLinux (Kernel implementatie)
• Debian GNU/kFreeBSD - zeg maar linux zonder linux kernel, pervers nietwaar? })

Allemaal mooi en aardig, maar ik gebruik Windows! :(

Het idee is dat je een aparte computer (NAS) bouwt waar ZFS op draait, en dit via Samba, NFS of iSCSI exporteert naar je Windows, Apple of Linux desktop pc. Windows zelf heeft geen idee van ZFS, maar kan bestanden wel opslaan via CIFS (Samba) en/of andere protocollen.

Gevolg is wel dat je een aparte dedicated computer bouwt alleen voor ZFS opslag. Je kunt het ingewikkelder doen door met virtualisatie te gaan werken, maar dat zou ik alleen doen als je daar bekend mee bent. Vragen over ZFS icm een specifiek virtualisatie pakket kan je beter stellen in het topic voor het desbetreffende virtualisatie pakket, dat zorgt ervoor dat dit topic minder vervuild.

En hoe bouw ik zo'n ZFS NAS dan? (8>

Met je handen. Nee serieus: het is heel makkelijk. Je kunt in Het grote DIY RAID NAS topic deel 3 je eigen build bediscussiëren of een eigen topic aanmaken als je een uitgebreide build wilt bespreken met veel vragen.

Om je wel een idee te geven wat er mogelijk is, worden hier twee builds gepresenteerd. Eentje die best te overwegen is - de Instap NAS - en een dure luxe build waar we van dromen - in elk geval de hoeveelheid disks. In de praktijk zal jouw build dus tussen deze twee uitersten liggen.

Instap ZFS NAS
Processor: Elke moderne Celeron (G1610 / G1820) of Pentium (G3220 etc) voldoet voor ZFS. Oudere Atom's (op de Avoton na) zijn niet aan te raden, die kunnen maar 4GB geheugen aanspreken, en dat is een veel gevallen te krap. Het kan wel, maar dan moet je goed weten wat je doet, en wat ZFS tuning toepassen. CurlyMo heeft ZFS aan de praat op een miniscuul x86 bordje, met maar een beperkte hoeveelheid RAM.
Geheugen: Minimaal 4GB is aan te raden. Wil je 1Gb Ethernet continu blijven halen, is 8GB aan te raden.
Moederbord: Maakt weinig uit, zoek in de reviews naar een zuinig bord met een leuke AHCI controller. In het DIY RAID NAS topic komen legio bordjes langs die lekker zuinig en modern zijn.

Wat misschien nog wel de belangrijkste tip is: Kijk of bijvoorbeeld elk budget onderdeel (zoals de netwerkkaart) ondersteund is in het OS dat je wil gebruiken. Zo zijn FreeNAS en ZFSguru (beide gebaseerd op FreeBSD) wat kieskeuriger qua hardware dan Linux.

Krachtige ZFS NAS
Processor: Een sterke i5 of Xeon. Socket 1150 of 2011(-3). Voor ECC support moet je even goed opletten.
Moederbord: Een Supermicro of gelijkwaardig bord dat ECC support.
Geheugen: ECC! (Let op dat Registered geheugen alleen werkt op Socket 2011(-3), en dat je voor Socket 2011-3 DDR4 geheugen nodig hebt. Qua hoeveelheid ligt het een beetje aan je pool, maar als je echt een krachtige server wil is 16 of 32GB aan te raden. Als je ZFS gaat combineren met ESXi een een flink aantal VM's, wil je al snel richting 32GB gaan.
Controller: Er zijn SuperMicro borden met onboard LSI2308 controller. Mooie aanrader! Wil je een losse HBA, kan je voor bijvoorbeeld een IBM M1015, Dell H200, of een LSI 9201-16i gaan. Voordat je iets koopt, check even in de topics of deze controllers op het moment nog steeds gangbaar zijn. Er veranderd nog wel eens wat in storage land, en ook wij kunnen niet continu de startpost blijven updaten.

Schijven: Western Digital Green of Red zijn momenteel erg populair. De nieuwste Seagate series zijn ook veel in gebruik.
Let op dat je goed moet kiezen tussen TLER of non-TLER schijven. Beide hebben hun voor- en nadelen.
Hitachi maakt volgens velen technisch de beste schijven, maar er zijn vooral 7200RPM schijven van Hitachi, dus zit je qua stroomverbruik al snel hoog met Hitachi.

Kan ik met ZFS mijn array uitbreiden zoals met RAID5 veelal kan?

Nee, dit is een belangrijke beperking van ZFS die voor thuisgebruikers vaak als hinderlijk wordt aangemerkt. ZFS kun je echter wel uitbreiden, maar dat werkt heel anders. Dit heeft echter ook voordelen die RAID5 weer niet heeft, dus lees dit even goed:

Als je een RAID-Z hebt van 5 disks, kun je die niet zomaar met een paar disks uitbreiden naar een 7-disk RAID-Z bijvoorbeeld. Een RAID-Z heeft dus een vast aantal schijven wat je niet kunt veranderen.

Wat kan wel?
  • Bij mirroring (RAID1) kun je altijd schijven toevoegen en weer verwijderen uit een mirror vdev. Voeg je een schijf toe aan een 2-disk mirror, dan wordt het een 3-disk mirror waarbij alle drie de disks dezelfde data opslaan. Verwijder je een disk van een 2-disk mirror, dan wordt de resterende 'mirror' disk een normale enkele disk. Die kun je vervolgens weer tot mirror omtoveren door een schijf toe te voegen. Mirrors kunnen dus wat RAID-Z niet kan.
  • De gebruikelijke manier van uitbreiden is dat je een nieuwe vdev ofwel array naast de al bestaande RAID-Z vdev plaatst. Dus bijvoorbeeld weer een 5-disk RAID-Z erbij plaatsen. De beschikbare ruimte van alle vdevs is als één eenheid beschikbaar binnen een ZFS pool. In de praktijk betekent dit dat je schijven in groepjes toevoegt in plaats van elke keer één schijf erbij. Ook betekent dit dat je elke keer een extra schijf aan parity protection kwijt bent, maar dat heeft wel als voordeel dat je bescherming op peil blijft naarmate je uitbreidt en niet steeds minder wordt.
  • ZFS kan weer dingen die traditioneel RAID niet kan. Zoals: je kunt in de nieuwe RAID-Z vdev die je gaat toevoegen, schijven met een andere grootte gebruiken, een ander aantal of ander RAID-level dan de eerste array. Zo kun je nu beginnen met 2TB schijven en later 3TB en weer later 4TB gebruiken en zit je dus niet vast aan een bepaalde grootte.
  • Alle vdevs in een pool worden gestriped, zeg maar RAID0. Maar omdat het geen echt RAID is, kan ZFS leuke trucjes toepassen. Stel je eerste array doet 200MB/s maar je nieuwe array met modernere schijven doet 400MB/s, dan zou je bij traditioneel RAID 2x200 = 400MB/s krijgen. ZFS doet echter aan load balancing en laat elke vdev lopen op de snelheid die hij aankan door simpelweg meer data te schrijven naar die vdev. Veelal geldt hoe groter de opslagruimte des te hoger de performance dus dit gaat ook mooi op met het feit dat ZFS meer data schrijft naar de snellere (en verondersteld grotere) array.
Praktisch is:
  • Je begint met een 5-disk 2TB in RAID-Z, je breidt die later uit met nog eens 5 schijven maar dan 3TB ook in RAID-Z. De beschikbare ruimte is 4*2TB=8 + 4*3TB=12 is samen dus 8+12=20 terabyte. Je bent dus 2TB+3TB=5TB kwijt aan parity.
  • Je begint met een 6-disk 3TB RAID-Z2 met goede bescherming, maar wilt later nog wat extra ruimte. Je kunt dan bijvoorbeeld 3 disks 4TB in RAID-Z plaatsen voor 8TB extra opslagruimte.
  • Je kiest voor mirroring en kunt altijd een schijfje bijprikken. In groepjes van twee of zelfs één schijf en later die tot mirror promoveren. Bedenk wel dat je hele pool stuk is als één mirror vdev stuk is. Dus draaien met een enkele schijf is wel een risico.
Verder moet je weten dat ZFS niet direct de data herverdeelt wanneer je je pool uitbreidt met een nieuwe RAID-Z array/vdev bijvoorbeeld. De data blijft staan waar hij staat. Alleen nieuwe data die geschreven wordt, wordt over alle vdevs verdeeld dus ook de nieuwe. Je kunt dit voor bestaande data forceren door de directory een andere naam te geven en dan te kopiëren naar de originele naam. Doordat je de data opnieuw schrijft, wordt deze over alle vdevs verdeeld en krijgt het dus extra snelheid van de nieuwe vdev als je dat nodig acht.

Ik heb gehoord dat je ZFS moet optimaliseren voor 4K Advanced Format hardeschijven?

Dat klopt, voor moderne Advanced Format hardeschijven die 4K sectoren hebben, wil je het liefst ook dat ZFS met deze eenheden werkt. Echter, omdat dergelijke hardeschijven doen alsof ze normale 512-byte sector schijven zijn door hun sectorsize te emuleren, ziet ZFS niet dat je dergelijke schijven hebt. Dit zul je dit wel moeten forceren middels de ashift setting. Dit is een vdev property maar geldt pool-wide. Dat betekent dat een bestaande pool nooit meer van ashift instelling kan veranderen. Ashift=9 wil zeggen dat de pool optimaal is voor 2^9= 512 bytes sectoren. Ashift=12 wil zeggen 2^12= 4K sectoren geoptimaliseerd.

Optimale configuraties voor 4K sector Advanced Format hardeschijven:
RAID-Z: 3, 5 en 9 disks
RAID-Z2: 4, 6 en 10 disks
RAID-Z3: 5, 7 en 11 disks

De gedachte hierachter is dat het aantal 'dataschijven' een macht van 2 is, dus 2, 4, 8, 16. Waarom? Omdat je dan een 'schoon' getal krijgt wanneer de 128KiB recordsize wordt gedeeld door het aantal schijven.

Voorbeeld: RAID-Z met 3 schijven betekent dat er twee dataschijven zijn en één parityschijf. Met een 128KiB recordsize krijgen de schijven dan 64KiB te verwerken en dat is optimaal omdat dit een veelvoud is van 4 kilobyte - de sectorsize van moderne Advanced Format hardeschijven.

Echter, heb je 4 schijven in RAID-Z dan moet die 128KB verdeeld worden over 3 schijven. Dat wordt 42.7KB per schijf. Dit betekent dat je net wat minder opslagruimte hebt omdat je het verschil tussen 42.7K en 43.0K niet kunt gebruiken (slack) maar nog belangrijker is 43K niet een veelvoud van de 4K sector size die moderne Advanced Format hardeschijven hebben.

Laatstgenoemde configuratie is dus niet optimaal wat zorgt voor tragere writes. De performancedegradatie is afhankelijk van platform en hoe goed/snel de firmware van je hardeschijven sectoren kunnen emuleren. Zo zijn nieuwere type WD EARS schijven veel sneller in sector emulatie dan de klassieke 4-platter modellen.

Hoe zit het precies met TLER-disks in combinatie met ZFS?

Voor de meeste Hardware RAID en Windows FakeRAID is TLER verplicht. Dit is een functie van de hardeschijf die de error recovery min of meer uitschakelt, door deze te beperken tot 7 seconden. Dit voorkomt dat de RAID engine de schijf uit de array gooit zodra er bad sectors gevonden worden en je met een kapotte array zit.

Bij ZFS en non-Windows software RAID is dat anders. Daar heb je geen TLER nodig om je data te beschermen. Toch kan het beperken van de timeout wel voordelen bieden door lange wachttijden bij bad sectors te voorkomen. Je videostream zou hierdoor onderbroken kunnen worden en ook Virtual Machines vinden het niet fijn als ze een tijd lang niet met hun disk kunnen communiceren. Echter, wat je met TLER hardwarematig doet, kan je operating system ook softwarematig. Zo kun je onder BSD-platform de timeout instellen, wat hetzelfde effect geeft als TLER. Andere platforms bieden mogelijk vergelijkbare functionaliteit.

TLER kan daarnaast ook heel gevaarlijk zijn. Het schakelt min of meer de 'laatste defensielinie' uit. Stel je hebt een redundante array zoals een RAID1/mirror waarbij één disk helemaal dood is. De overige disk heeft bad sectors. Dan is de recovery-functionaliteit van de hardeschijf de laatste kans om je data helemaal intact te kunnen uitlezen. In zulke gevallen is TLER zeer onwenselijk en kan een gevaar opleveren voor je gegevens. In gevallen waar je nog wel over redundantie beschikt, maakt het voor je data niet uit.

ZFS kan ook mijn SSD gebruiken voor caching en andere versnelling?

Dat klopt, je kunt een SSD gebruiken voor drie dingen:
• Een normale pool met SSDs als disk members, leuk voor systeempool en opslag van VM images en andere zaken waar je random I/O performance voor nodig hebt
• Een HDD pool waar je een SSD (partitie) als L2ARC cache device toevoegt. De SSD zal dan snippertjes data verzamelen die random worden opgevraagd, wat veel sneller is dan de HDDs laten seeken.
• Een HDD pool waar je een SSD (partitie) als SLOG ofwel Dedicated ZIL toevoegt.

SSD in een normale pool gebruiken
Je kunt SSDs prima in een RAID0 pool of een RAID-Z pool gebruiken. Denk aan opslag van VM images, als systeemdisk en andere zaken waarvoor je IOps performance nodig hebt. SSDs hebben minder last van de performancebeperkende eigenschappen van RAID-Z omdat SSDs vooral transfer-capped zijn. Dit betekent dat SSDs in een RAID-Z pool goed zou moeten presteren.

SSDs als L2ARC cache device
Door een SSD (partitie) aan een ZFS pool toe te voegen, zal deze gebruikt worden om bepaalde data op te slaan - te cachen. Wordt bepaalde data herhaaldelijk opgevraagd, dan zal deze voortaan vanuit de SSD geleverd worden in plaats van dat je je hardeschijven laat seeken. Dit werkt ongeveer zoals Intel SRT caching toevoegt op het Windows platform. Belangrijke eigenschappen van caching:
• ZFS L2ARC caching is veilig in gebruik, in tegenstelling tot alternatieven zoals Intel SRT wat corruptie op de SSD niet kan detecteren. ZFS doet dat wel en leest in dat geval van de HDD pool ipv de SSD. L2ARC is dus altijd veilig in gebruik.
• ZFS cached geen grote bestanden die sequentiëel worden opgevraagd; denk aan grote bestanden die van A tot Z worden uitgelezen. Dat kunnen hardeschijven prima en daarvoor zal de cache device niet gebruikt worden! Alleen zogenaamde non-contiguous reads ofwel random reads zullen op de SSD terecht komen. Dit kunnen kleine bestanden zijn, maar ook enorm veel fragmenten in grote bestanden. ZFS cached dus geen bestanden, maar datafragmenten. Dus de cache werkt ook prima op 20GB grote databestanden van je favoriete game, mits dat spel aan random reads doet. Een voorbeeld hiervan is World of Warcraft.
• Caching werkt alleen effectief als je een voorspelbaar gebruikspatroon hebt. Als je werkelijk willekeurig I/O zal doen, zal caching geen of nihil voordeel opleveren. Alleen als je herhaaldelijk dezelfde data raadpleegt, zal caching merkbare winst kunnen opleveren. Dit is vaak wel het geval.
• Caching geldt niet alleen voor de daadwerkelijke data, maar zeker ook voor metadata. Denk bijvoorbeeld aan random reads bij het openen van een grote directory met een heleboel bestanden. Het cachen van metadata wordt vaak over het hoofd gezien, maar telt zeker mee!
• L2ARC cache moet eerst worden opgebouwd; en wordt beperkt door de snelheid waarmee ZFS de SSD 'mag' vullen, dat is namelijk bewust gelimiteerd. Het kan dus een paar weken duren voordat je L2ARC op oorlogssterkte is.

SSD als SLOG device ofwel dedicated ZIL
Bij ZFS is de ZIL ofwel ZFS Intent Log vergelijkbaar met de journaling log van NTFS en Ext3. De ZIL is standaard ingeschakeld voor alle pools ook met een enkele disk en beschermt voornamelijk tegen het recoveren van recente writes vlak voor een stroomstoring of crash. Je hebt een ZIL niet strict nodig; ook zonder ZIL is ZFS consistent. Je zult alleen wel tot enkele minuten data verliezen evenals application consistency; later daarover meer.

Veel mensen zeggen dat ze een 'ZIL' toevoegen aan een pool. Dat is echter technisch incorrect. Je doet juist het tegenovergestelde: je schakelt de ZIL uit die op de pool staat en ook bescherming heeft die de pool zelf heeft, zoals RAID-Z. In plaats daarvan gebruik je een apart apparaat als ZIL, in een mirror configuratie of zonder bescherming. Dat is dus vrijwel altijd een achteruitgang op gebied van bescherming, al stelt dat niet zoveel voor. Maar belangrijk om te beseffen dat elke pool standaard een ZIL heeft inclusief de bescherming die de pool zelf heeft, en dat je met een dedicated ZIL ofwel SLOG (separate LOG device) die bescherming in feite outsourced aan een SSD die daar veel sneller in is. Een ZIL heb je dus normaliter altijd.

In tegenstelling tot L2ARC caching is een dedicated ZIL juist wél gevaarlijk, omdat je zoals gezegd dus een bescherming van de pool zelf uitschakelt. Daar zit hem ook de snelheidswinst: je laat je hardeschijven niet meer de ZIL functie uitvoeren met random writes maar laat een SSD (partitie) die functie uitvoeren. Een ZIL wordt alleen beschreven en nooit gelezen tenzij na een stroomstoring/crash; alleen dan zijn de gegevens nodig.

Kan ik een of meerdere SSD's voor meerdere taken gebruiken?
Jazeker. Je kunt een SSD partitioneren en gebruiken voor alle doeleinden die je wilt:
- systeem pool voor booten en wat niet
- L2ARC cache voor je grote HDD pool
- SLOG voor je grote HDD pool

Met meerdere SSDs wil je alle taken spreiden over alle SSDs. Wat je niet wilt is een SSD helemaal voor SLOG gebruiken en de ander helemaal voor L2ARC. Dan worden ze ongelijkmatig belast en haal je geen performancevoordeel wat je anders wel zou hebben. Je wilt dus juist de taken gelijkmatig verdelen over al je SSDs. L2ARC doe je altijd in striping (RAID0) terwijl SLOG je voor mirroring kunt kiezen.

Hoe groot moet ik de partities dan maken?
Stel je heb twee SSDs van 128GB, dus totaal 256GB. Op je SSD maak je dan partities aan zoals:
- partitie 1 voor systeem/boot pool: 28GiB
- partitie 2 voor L2ARC cache: 60GiB
- partitie 3 voor SLOG: 4GiB
- rest van de ruimte onbenut laten als overprovisioning (let op: de SSD mag niet gebruikt zijn anders gaat deze ruimte verloren! secure erase of TRIM erase gebruikte SSDs alvorens overprovisioning toe te passen).

Doe dit voor beide SSDs en je hebt:
- een systeem/boot pool in mirror configuratie 28GB beschikbare ruimte
- L2ARC caching met twee partities in striping = 2x 60 = 120GB
- SLOG in mirror met twee partities = 4GB

Verder lezen B)

Wikipedia: ZFS
BSD Now - ZFS

Handige tutorials:


Migreren van data binnen dezelfde pool
Upgrade van v28 naar v5000 zonder alle features te activeren
Hoe werken feature flags
ACHI SSD in FreeBSD 9.1
ZFS send/receive van en naar een bestand
Patitioneren van je SSD voor je systeem, SLOG en L2ARC (in ZFSGuru)
ZFS send/receive op een corrupte pool
Draaien op en terugzetten van een ZFS On Root backup
ZFS send/receive tussen pools
ACL + Samba voorbeeld

Aanvullingen? Laat het weten!

Storage showoff topic - 20+ TB storage systems

11-04 15:07 discussie 3.264
GoT storage showoff topic
http://members.multiweb.nl/nan1/got/supermicro.jpg


Welkom!

Dit topic is een afsplitsing van de draad over DIY NAS builds.

Het grote DIY RAID NAS topic deel 3

Dit topic is bedoeld om een overzicht te geven van zeer grote storage builds van GoT users. Deze builds komen niet heel veel voor en hebben andere vereisten dan de doorsnee home (storage) server of werkstation. Dat kan best interessant zijn voor wie gek is op storage.

Dit is geen 'show je Apple computer' draad waarbij je alleen maar foto's mag posten. Discussies over grote storage systemen wordt juist aangemoedigd. Het is aan je eigen inzicht of jouw posts of vragen in dit topic thuis horen of ik het DIY NAS topic.

In dit topic wordt een tabel bijgehouden over de users en hun betreffende builds. De ondergrens om in deze tabel te komen is een netto storage cappaciteit van je storage array van minimaal 20 TB in een enkel systeem.

Een overzicht van alle criteria:
  1. Dedicated server systeem (niet in gebruik als werkstation / game systeem) dus NAS of Virtualisatie server.
  2. Een netto capaciteit van minimaal 20 TB.
  3. Deze storage moet in 1 systeem (chasis) zitten.
  4. Deze storage dient in een prive sfeer te functioneren (lees thuis), en eigendom van de poster.
  5. Toepassing van redundancy, het systeem moet falen van minimaal 1 storage disk kunnen overleven.
  6. Er moet een post zijn met informatie over het systeem. Vertel iets meer over je systeem en waarom je bepaalde keuzes hebt gemaakt. Let op: Je post gebruikt de tabel zoals onderaan deze topic start weergegeven. Dit maakt je topic veel leesbaarder.
  7. Je verteld uitgebreid over je build, niet slechts specs posten. Je behandeld die onderwerpen die jouw build speciaal en interessant maken. Als je geen verhaal hebt, hoor je mogelijk niet in deze lijst. :)
  8. Foto's van binnen en buitenkant zijn vanaf nu 'verplicht'. Pics or it didn't happen. ;)
  9. Foto's moeten in het topic direct zichtbaar zijn, dus niet alleen maar links naar plaatjes.
Indien je niet aan een van de criteria voldoet maar van mening bent dat je toch een hele interessante build hebt gemaakt, leg het gerust voor. De criteria die altijd blijft staan is dat het systeem van jezelf moet zijn en in de privé sfeer gebruikt moet worden.

Opmerkingen
  • Als je 20 x 1TB in RAID 6 draait heb je netto 18 TB capaciteit en haal je de ondergrens niet.
  • Als je 20 x 1TB in JBOD draait heb je geen redundantie.
  • Backup != redundantie.
  • Maak een uitgebreide beschrijving van de hardware en hoe je het systeem hebt ingericht. Meer is beter. Deze builds moeten andere mensen inspireren die zelf ook iets willen maken.
  • Alleen het aantal disks in de array(s) tellen mee. Boot / OS disks niet.
  • Mocht iemand ooit een storage cluster bouwen met individuele systemen die niet de 20TB grens doorbreken, maar wel als cluster de grens doorbreekt: dan kom je toch in aanmerking om in de lijst opgenomen te worden. Dit zijn namelijk heel interessante builds die in de schijnwerpers mogen staan.
Extra toevoeging: de ondergrens is nu 20 TB. Het kan zijn dat we in de toekomst die grens op gaan hogen. 20 TB is tegenwoordig met een disk of 6 in RAID 5 al te realiseren. Deze draad is met de intentie opgezet om bovengemiddeld grote storage platformen in de schijnwerpers te zetten, om er van te genieten en er wat van te leren. Wat nu boven gemiddeld is kan over een jaar gemiddeld zijn. Systemen kunnen dus uit de tabel vallen.

Externe sites

De inspiratie van deze thread komt van [H]ard Forum. Als je echt gigantische builds tot 100 TB+ wilt bewonderen, kijk dan hier eens.

Het is echter niet de bedoeling om continue externe builds te bespreken, de GoT builds staan centraal. Echter, je mag natuurlijk wel linken naar externe voorbeelden als je iets wilt illustreren.

Verder moet in dit topic even worden verwezen naar de BackBlaze storage pod versie 2.0 met 135 TB aan opslag.

2014: Nog een interessant forum over grote opslag:



Overview of GoT 20+ TB storage arrays
UserNetto capacityRAID Level used# of disksPlatformRemarks
cj1 148 TB Geen 74LinuxCustom case | 72! disks.
Goshimaplonker298 145 TB JBOD 50LinuxESXi bak met Storage in Debian Linux VM. 1 centrale server met 2 storage chasis met expanders
BartNL 140 TB RAID 5/6 48Windows 7 prof 64Areca 1882iX-24 in Norco 4224 + 2x Chenbro SAS Expander in 2e Norco 4224 en Ri-Vier RV4324-03A -> 1x RAID6 + 6x RAID5
Freak1120 TBRAID 636 Synology Met Areca 1280ML - Zie ook het nieuwste project. De 120 TB update
Synology DS3611xs + 2 X DX1211
Hakker 102 TB 4 x RAIDZ2 32 ZFSGuru 1x IBM M1015 IT flashed, 2x HP SAS Expanders
Perkouw 90 TBRAID 045 Windows
Gebaseerd op Blackblaze storage pod met sata port multipliers. Windows 2008. Geen redundancy, platform bestaat uit meerdere RAID 0 arrays.
Q78 TBRAIDZ224Linux Met 3 x IBM1015 | Netto capaciteit is 74 TiB met 2x RAIDZ2 VDEVs (1x18 disk en 1x6 disk)
Lampie197974 TBRAID 624Windows Met Areca 1280ML, 2 x RAID6
thalantis54 TBRAID 620 Windows Met 1880ix-24 (RAID 6) in Norco 4224
thalantis50 TBRAID 5/628 WindowsAreca 1882ix-24 in Ri-vier kast RV4324-03A
Pantagruel 48 TB RAID Z2 (2x) 20 ZFSguru
thibautb 44 TB RAIDZ 15FreeNAS 22G RAM, IBM 1015 + SAS Expander, 24 Bay Xcase case.
Intellium 36 TB RAID6 12LinuxInfiniband 10Gbit voor storage verkeer met VMhosts | RAID met 1 hot-spare
Collie36 TBRAID620WindowsOp een Areca 1880ix-24
-venom- 36 TB Storage pools 20 WHS 2011 Norco RPC-4220 met HP SAS Expander Oude setup
DVL-232 TBRAID 5+6 25 Windows 7Areca 1880ix-24 + Lian-Li PC343B kast
zzattack32 TBRAIDZ1*20FreeBSD*ZFS 4 x 5-disk RAIDZ1 fotos hardware
Azerty 29 TBRAIDZ210ZFSGuruEen doodgewone Lian Li case O-)
DJJ28 TBRAID 616Windows Windows Server 2008 R2 + Areca ARC-1680ix-16
Phoenix133728 TBRAID 616Linux Ubuntu + MDADM RAID6
nightwing 28 TB RAID-Z2 16FreeBSD Reguliere tower met 3-in-2 hot-swap HD cases.
brederodekater25 TBRAID 5+6 16 Windows 2k8Areca ARC-1160 + Lian-Li V2100
MrBarBarian 24 TB RAIDZ2 & Mirror 20Centos 7CentOS icm ZFS on Linux. Combinatie met web/mail-server, 3x IBM card, XCase
Aval0ne22 TB RAID 614Windows Windows 7 x64 + Areca ARC-1280
Midas.e22 TBRAID624UbuntuGebaseerd op ARECA 1170 controller + 2 arrays ieder in RAID 6
Kortfragje 20 TB RaidZ2 6Linux (Ubuntu 12.04)KarelDoorman, standaard cooler master tower, hoofd server
B220 TBRAIDZ212 LinuxZFS on Linux, eigen design en build case
tbusquet20 TBRAIDZ113FreeNAS Met LSI SAS 3081E-R controller.
Kortfragje 20 TB RaidZ2 14Linux (CentOS 6.6)MichielDeRuyter, Lian LI PCD8000, backup server
Fauna20 TBRAID 518Windows Windows Server 2008 Enterprise x64 + Areca ARC-1160, twee RAID 5 arrays
Link naar builds kleiner dan 20 TB
Als jouw systeem in aanmerking komt om opgenomen te worden in deze tabel, lever dan zelf de juiste code aan.
code:
1
2
3
[tr]
[td][url=<link naar post met systeem>] <je nickname>[/url][/td][td] <xx> TB[/td][td] <RAID level> [/td][td] <aantal disks>[/td][td]<os>[/td][td]Verwijzing naar wat highlights[/td]
[/tr]

Kijk even goed naar de bestaande lijst als voorbeeld. Lever deze code aan via een DM in 'code' tags.
code:
1
[code] hier de code van de tabel hierboven [/code]

De post zelf moet de info bevatten in deze tabel. Het is triviaal om de tabel over te nemen, quote deze post en copy de tabel code even in een text editor en vul hem in.


Tabel met systeem info

System specifications
ComponentValue
Case
CPU
RAM
Motherboard
Operating systemWindows, Linux, etc.
Controller
Hard driveIndien meerdere types meerdere regels opnemen
RAID array configuration RAID 5 of RAID 6 of RAID 50 of meerdere RAID 5 in JBOD
Netto storage capacity
NetworkStandaard gigabit of anders? (Trunking, Fibrechannel?)
UPSJa/Nee welke?
FilesystemFilesystem wat je gebruikt voor de storage array
Idle power usageGraag aangeven met of zonder spindown.
Extra


Zie mijn eigen systeem even als voorbeeld hoe de tabel kan worden ingevuld.

Verzoekje
Het zou de mensen met een record in de grote lijst sieren als ze een keer de moeite nemen om met terug werkende kracht de tabel bovenaan in hun post op te nemen. Zo zou de kwaliteit van het topic sterk kunnen toenemen.
Waarom hebben jullie in vredesnaam zoveel storage?
Voor opslag van porno, films, muziek, foto's, backup en voor virtualisatie.
Sommige populaire kasten hebben SAS expanders, hoe sluit je die aan?
Lees deze post eens: jacovn in "Storage showoff topic - 10+ TB storage systems"

raid 0 in 2bay nas

07-11-2015 discussie 13
Beste,


Na een half jaar mijn eerste nas (ds115j) in werking gehad te hebben ga ik deze upgraden naar een ds215+.
Na heel wat opzoekwerk op deze site en de fora van synology heb ik een vrij duidelijke kijk gekregen op wat de verschillende soorten raid juist betekenen.

Gezien het risico dat raid 0 met zich meebrengt wordt dit zowat overal afgeraden. Met het risico dom en eigenwijs over te komen denk ik eraan om toch 2 WD red 4Tb schijven in raid 0 te gebruiken in mijn nieuwe nas.

De nas zal voornamelijk gebruikt worden als media-server en als nvr voor mijn beveiligingscameras.

Ik vind het verschil in opslagcapaciteit tussen een 1 bay en een 2bay te klein met raid 1 om de investering te verantwoorden. Ook is de data niet super belangrijk en kan ik in nood wel even zonder nas verder.

Omdat raid toch niet als backup beschouwd mag worden had ik als backup oplossing aan hetvolgende gedacht:

Mijn ds115j met een "goedkope" seagate 8 Tb drive uitsluitend gebruiken als periodieke backup van de primaire nas en tevens via externe hdd en op mijn desktop van de belangrijkste data nog een extra versie bewaren. Daarenboven familiefoto's op onedrive zetten als off-site backup.

Graag advies en jullie gedacht over deze keuze.

Alvast bedankt.

2x goedkopere 128gb SSD's in RAID 0 VS. 1x goede 256GB SSD

20-10-2015 discussie 24
Voor een systeem ben ik aan het kijken naar een SSD voor opslag (i5 2400, 8gb RAM, zal 67/68 serie chipset mobo worden). Nu kwam ik op het idee dat ik misschien wel een RAID 0 setup kan nemen in de vorm van 2x128gb ipv 1x256gb :9 Het is echter voor een budgetsysteempje en de winst in dagelijkse handelingen is beperkt. Daarom mag de RAID 0 opstelling niet veel meer kosten dan de 256gb opstelling.

Daarmee sluit je eigenlijk direct het gebruik van de betere SSD's in een RAID 0 opstelling uit; een 120gb Evo 850 is 67 euro en 256gb is 90 euro. Daarmee zou de RAID 0 opstelling 44 euro duurder zijn. En zelfs dan nog echt niet de dubbele performance geven in meerdere situaties. Want ik ben erachter dat <128gb toch wel een grote performance penalty geeft binnen dezelfde serie. Dan blijven de goedkopere SSD's over, dan kun je voor een 100-105 euro ofzo klaar zijn. Maar als ik kijk naar snelheden dan laten die al te wensen over tov de betere 128gb SSD's, laat staan tov de betere 256gb SSD's die ook sneller zijn omdat ze groter zijn (parallelism). Dus eigenlijk kom ik tot de conclusie dat de performance winst in veel/meeste gevallen beperkt tot niet aanwezig is in het geval van 2x budget 128gb SSD in RAID 0 vs 1x 256GB van een goed merk. Volgens mij ga je zelfs in sommige situaties er op achteruit.

Tot nu toe is dit mijn conclusie maar ik vroeg mij af of ik wellicht nog iets over het hoofd zie waardoor mijn conclusies niet juist zijn?

Harddisk kapot in Raid 0 striped en nu?

17-10-2015 discussie 38
Hoi,

Ik heb een NAS draaien waarvan 1 hardeschijf kapot is. In mijn onwetendheid heeft de NAS toen ik hem had aangeschaft de schijven in RAID 0 striped geïnstalleerd. Nu kom ik er dus achter dat als dan 1 schijf er mee ophoud het wel redelijk over is. De hardeschijf in kwestie maakt een "tik" geluid en doet dit een paar keer waarna hij eigenlijk stopt en niks meer doet. Ik heb de schijf open gemaakt en in een 3,5 Dock gezet. Wat ik zie is dat de "reader" naar het binnenste van de schijf gaat en daarna weer terug. De reader lijkt dus gewoon te bewegen, weet iemand of hier iets aan te doen is?

Ik heb geprobeerd om op internet wat te vinden maar ben niet bekend met de onderdelen en de namen daarvan dus buiten de standaard 'mijn-hardeschijf-is-kapot-wat-nu-pagina's' kom ik niet.

Alvast dank

Thematopic: Backups

08-09-2015 discussie 728
Omdat we in OM steeds meer mensen zien die hun data kwijt zijn geraakt door een (achteraf blijkende) slechte backup zijn er steeds meer mensen die naar datarecovery mogelijkheden moeten grijpen om belangrijke data terug te halen.

Daarom in dit topic een aantal regels en wetenswaardigheden waarmee de kans op dataverlies aanzienlijk wordt verkleind.

Maak backups!
Het klinkt voor de hand liggend, maar er moet natuurlijk wel een backup gemaakt worden. Dit kun je handmatig doen, of door het gebruik van backupprogramma's die in het OS zijn ingebouwd of vaak worden meegeleverd met brandprogramma's voor je CD/DVDbrander.

Controleer je backups
Nadat je de backup hebt gemaakt, controleer of deze klopt. Staan alle bestanden erin (let op aantal bestanden en de grootte ervan). Als je gebruikt maakt van compressiemethodes heb je vaak de mogelijkheid om deze bestanden te testen. Winrar heeft een eenvoudige testmogelijkheid die controleert of het archief nog in orde is. Een andere methode is het werken met MD5 hashes, dit kan makkelijk met Hashtab.

Zorg ervoor dat je backup de backup is en niet het origineel
Veel mensen maken een backup van de data en verwijderen vervolgens de data vanaf de originele locatie. In dit geval is het dus zo dat de gemaakte backup het origineel wordt. In dit geval is het zo dat als de backup beschadigt raakt, de bestanden alsnog kwijt zijn. Zorg er daarom voor dat als er een backup gemaakt wordt, het origineel op zijn plek blijft staan.

Test de backups regelmatig
Op het moment dat je gebruik maakt van CD's of DVD's om data op te slaan is het verstandig te controleren of deze nog goed zijn. Als deze schijfjes namelijk niet op een goede manier bewaard blijven (bij voorkeur in een donkere droge omgeving) dan kan een schijfje onleesbaar worden. Ook disk rot komt voor, waarbij het schijfje onbruikbaar wordt na verloop van tijd. Zodra je twijfelt over de backup, maak een nieuwe backup.
Ook bij harde schijven kun je na verloop van tijd dataverlies gaan merken, al duurt dit in de meeste gevallen tientallen jaren.

RAID
Een veelvoorkomend misverstand is dat RAID automatisch zorgt voor backups. Dit is zeker niet het geval. RAID biedt enkel redundancy vanaf RAID 1 of hoger. Op het moment dat de controller problemen geeft is de kans groot dat er corrupte data wordt weggeschreven. RAID is een aardige beveiliging tegen het falen van 1 of meerdere schijven, maar biedt geen beveiliging tegen fouten van bijvoorbeeld de controller of het falen van meer schijven in 1 keer dan waar de pariteit rekening mee houdt.
RAID is prima om te gebruiken, maar zorg wel voor een bijhorend backupplan.

Backupstrategiën
Er zijn verschillende niveau's waarop backups weg te zetten zijn, deze staan in grote lijnen hieronder, varierend van onveilig tot zeer veilig.

• kopieren van bestanden naar eenzelfde schijf.
Dit is amper een backup te noemen. Het zorgt er enkel voor dat je niet per ongeluk een bestand overschrijft. Op deze manier ben je verder beschermt tegen andere vormen van data verlies.

• kopieren van bestanden naar een andere schijf in dezelfde computer
Hoewel het iets meer veiligheid geeft dan het vorige niveau is het nog steeds onveilig. Als de pc zelf stuk gaat en daarmee de schijven beschadigt dan heb je nog steeds een probleem.

• kopieren van bestanden naar een schijf in een andere computer of een externe schijf op dezelfde locatie.
Deze optie zorgt ervoor dat je hardwarefalen van een computer/schijf kunt ondervangen omdat je de data nog op een andere plek hebt staan. Je bent echter niet beschermt tegen zaken als brand, overstromingen, stroompieken en allerlei andere ellende die meerdere computers/schijven in 1 keer om zeep kan helpen.

• kopieren van bestanden naar een schijf in een andere computer of een externe schijf op een andere locatie.
Dit biedt een vrij goede backup. Doordat bestanden op een andere locatie staan ben je beschermt tegen brand en dergelijke op 1 locatie. Dit is ook de reden dat veel ICTwerknemers de backuptapes van hun werk meenemen naar huis.

Voor alle niveau's geldt dat hoe vaker je het doet hoe veiliger je bent. Op het moment dat je je data naar 10 schijven kopieert is de kans dat ze alle 10 stuk gaan een stuk kleiner als dat er 1 schijf problemen geeft. Maar uiteindelijk moet je zelf beslissen in welke mate je dit moet doen.

Wat te backuppen
In principe is het vrij simpel. Hoe belangrijker je data hoe beter de backup moet zijn.
Zaken als eigen foto's, documenten, e-mails zijn voor het grootste deel onvervangbaar. Een vakantie kun je niet opnieuw beleven, je kind zie je niet voor een 2e keer opgroeien etc. Aan te raden is dus om hier meerdere backups van te hebben. Zet hele belangrijke dingen op meerdere schijven en zorg ervoor dat je deze niet allemaal thuis hebt liggen, maar geef er eentje aan een goede vriend of familie mee.

Zaken als savegames, gedownloade plaatjes, films etc zijn van veel minder belang. Dit is data die min of meer vervangbaar is, of waarvan het niet erg is als je deze niet meer hebt.

Het hangt er dus maar net vanaf hoe belangrijk je je data vindt. Hoe moeilijker (of onmogelijk) het is om deze te vervangen bepaalt dus voor een groot deel de mate van backup die je moet aanhouden.

Combineer backupmogelijkheden
In de loop der jaren zijn er veel backupmogelijkheden geweest die het lang niet allemaal overleeft hebben. Denk aan diverse tapestreamers, de zip, jazz, dittodrives. Flopticals, LS120 disks en magnetische optische disks.
Als je ervoor kiest om hier je backup op te zetten, zorg er in dat geval voor dat je een 2e apparaat hebt voor als de eerste stuk gaat. Nu zal een gemiddelde thuisgebruiker voor gangbaarder spul kiezen, maar de wat professionelere backupmogelijkheden willen soms nog wel eens aparte hardware gebruiken. Als je apparaat stuk gaat en er is geen 2e meer te krijgen dan kun je wel netjes backups hebben, maar gaat het zeer lastig worden om ze terug te krijgen.
Voor een thuisgebruiker is het dan ook aan te raden backups te maken op CDs, DVDs of een (externe) schijf, die gemakkelijk op een ander systeem in te lezen is.

Beschadigde backup
Mocht een backup toch beschadigt raken, probeer dan eerst een 1:1 kopie te maken van wat je nog hebt om daarmee te gaan experimenteren.
En mocht datarecovery nodig zijn, neem dan hier eens een kijkje: [DATArecovery] ervaringen, tips en trucs.

[raid] Server boot niet meer na extra HDD in raid1/5 arrays

19-03-2015 discussie 8
edit: Inmiddels is duidelijk dat initrd faalt omdat mdadm de raid1 voor / niet assembled, en dat het root device daarom niet bestaat. Zie ook 3 posts lager.

Mijn server (Debian Wheezy amd64), met hiervoor 3x 1.5TB WD Green, heeft een upgrade gekregen met een extra 2TB WD Green.

Ik heb met
code:
1
sfdisk -d /dev/sda | sfdisk /dev/sdc

de partitietable gekloond van één van de bestaande disks naar de nieuwe (de nieuwe was sdc). Hierna de partitietable gecontroleerd, dit werkte prima. 500GB ongebruikte ruimte achteraan natuurlijk, maar dat is geen probleem.

Het root filesystem is raid1, klein volume van zo'n 5GB. Ik heb de corresponderende partitie toegevoegd aan de array:
code:
1
mdadm /dev/md0 -a /dev/sdc1

Dit was natuurlijk snel klaar (cat /proc/mdstat)

Vervolgens heb ik de tweede, grote, partitie toegevoegd aan md1, voor /home:
code:
1
mdadm /dev/md1 -a /dev/sdc2

Dit duurde heel lang zoals te verwachten, maar zag er goed uit aan het eind:
code:
1
2
3
4
5
6
7
databeest:/# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda2[0] sdc2[3] sdd2[2] sdb2[1]
      4368153600 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid1 sda1[0] sdc1[3] sdd1[2] sdb1[1]
      7815488 blocks [4/4] [UUUU]

Een blik in dmesg leverde echter het volgende op (melding over inodes):
code:
1
2
3
4
5
6
7
8
9
10
11
databeest:/# dmesg | tail -n 10
[  232.492222] md: using 128k window, over a total of 1456051200k.
[107933.179643] md: md1: reshape done.
[107934.397273] RAID conf printout:
[107934.397277]  --- level:5 rd:4 wd:4
[107934.397280]  disk 0, o:1, dev:sda2
[107934.397282]  disk 1, o:1, dev:sdb2
[107934.397283]  disk 2, o:1, dev:sdd2
[107934.397285]  disk 3, o:1, dev:sdc2
[107934.397292] md1: detected capacity change from 2981992857600 to 4472989286400
[107934.678997] VFS: busy inodes on changed media or resized disk md1

Omdat ik de nieuwe grootte ook niet terug zag met df -h:
code:
1
2
3
4
5
6
7
8
9
databeest:/# df -h
Filesystem                                              Size  Used Avail Use% Mounted on
rootfs                                                  7.4G  4.1G  2.9G  59% /
udev                                                     10M     0   10M   0% /dev
tmpfs                                                   176M  456K  176M   1% /run
/dev/disk/by-uuid/125d7c8c-0ae8-4955-b78d-f69778e45a22  7.4G  4.1G  2.9G  59% /
tmpfs                                                   5.0M     0  5.0M   0% /run/lock
tmpfs                                                   1.1G     0  1.1G   0% /run/shm
/dev/md1                                                2.7T  2.6T   77G  98% /home

heb ik toen voor de zekerheid gereboot. Toen bleek dat ik niet meer kon booten. initrd faalt met de melding dat de device voor het root filesystem niet gevonden kan worden:
code:
1
2
3
Gave up waiting for root device. Common problems:
-knip-
ALERT! /dev/disk/by-uuid/125d7c8c-0ae8-4955-b78d-f69778e45a22 does not exist. Dropping to shell!

Een snelle test laat inderdaad zien dat hij niet liegt:
code:
1
2
ls /dev/disk/by-uuid
674aaa..... d4668...... aa2799.....

Deze symlinks verwijzen naar /dev/sda3, /dev/sdb3, /dev/sdd3, wat de swap partities zijn. /dev/sdc mist hier dus. Dit suggereert dat een update-initramfs / update-grub nodig is?

Deze machine staat voor mij op afstand, en ik probeer hem nu te repareren met iemand op locatie die weinig van Linux af weet. Iemand ideeën om uit te vinden wat hier aan de hand is?

edit: Als ik nu naar de output van df -h kijk, vraag ik me ook af waarom niet /dev/md0 als / gemount is, maar dat UUID? Dat heeft vast iets te maken met manier van assembly van de mdadm arrays op boot, maar is de raid1 dan wel correct functioneel?

2 SSD's in RAID 0 zetten

05-01-2015 discussie 20
Goedenmiddag,

Ik heb een MSI GP60 2PE, de versie met een SSD (1) en een HDD. De SSD (1) is me eigenlijk te klein, en ik heb nog een SSD (2) liggen. Dan zou ik met de 120 GB ingebouwde SSD (1) en de extra SSD (2) van 240 gb op 360 GB SSD komen. Echter zou ik dit niet als 2 schijven willen lezen, maar als 1. Dus zeg maar alleen een C: schijf (SSD (1 + 2)) en een D: schijf (HDD). Hiervoor wil ik in Minitool Partition Wizard een striped volume maken tussen de 2 SSD's. Kan hiervoor al data op de SSD (1) staan die er al in zit? Of moet ik dan eerst even deze klonen naar de HDD, dan de partitie op de SSD (1) verwijderen, om daarna een striped volume te maken, en dan de partitie die oorspronkelijk op de SSD (1) stond, weer te klonen op de SSD's? Ik hoop dat het verhaal een beetje duidelijk is... XD

Groeten,
Sander

Vragen over twee verschillende SSD's in RAID 0

16-07-2014 discussie 9
Hallo allemaal,

ik heb het volgende systeem:

#ProductPrijsSubtotaal
1AMD FX-8320 Black Edition€ 116,55€ 116,55
1Gigabyte GA-990FXA-UD3€ 102,95€ 102,95
1XFX R9 280X Black Edition€ 265,99€ 265,99
1Toshiba DT01ACA200, 2TB€ 63,50€ 63,50
1Cooler Master N300 (KKN1, closed)€ 31,04€ 31,04
1Gelid Solutions Tranquillo Rev.2€ 26,-€ 26,-
1Cooler Master Silent Fan 120 SI1, 120mm€ 3,62€ 3,62
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 60,-€ 60,-
1XFX Pro 650W XXX Edition€ 81,97€ 81,97
1Crucial M500 2,5" 120GB€ 57,50€ 57,50
1Konig CMP-CARDRW43€ 6,50€ 6,50
Bekijk collectie
Importeer producten
Totaal€ 815,62


Als het goed is komt deze week een bijna nieuwe pricewatch: Sandisk Solid State Drive 128GB binnen.

Nu heb ik het idee opgevat om de twee SSD's in RAID 0 te zetten, want de snelheid waarmee Windows bestanden kan laden is volgens mij nog steeds de grootste bottleneck.

Tot nu toe denk ik dit begrepen te hebben, maar ik ben er niet zeker over:

- Het zal op de snelheid van de traagste SSD lopen
- De grootte van het volume zal 248 GB zijn
- Het is onveilig

Mijn data sla ik echter op op een 2TB HDD die ik regelmatig backup. Belangrijke data komt niet op de SSD, de Windows-installatie is te vervangen. Dat heb ik dus ingecalculeerd.

Ik zie echter door de bomen het bos niet meer ( en door outdated informatie op het Internet, van toen SSD's nog nieuw waren en er veel mythes ontstonden) en wilde graag wat vragen stellen. Bij deze:

- Gaat dit volume nu sneller of langzamer zijn dan mijn M500 m.b.t. random reads en acces times? Sequentiele snelheden interesseren me niet zo heel veel, dat zijn geen bottlenecks.
- Hardware of software RAID? Ik ga voor nu uit van hardware.
- Hoe groot word mijn volume nu? 120GB, 128GB, of 248GB?
- Werkt TRIM nu wel of niet in RAID 0? Wat zijn andere negatieve effecten op de SSD's door de RAID 0?
- Hoe nuttig is het nu echt om twee SSD's in RAID 0 te hebben? Als het meer gedoe is dan het oplevert dan zet ik de SSD er wel gewoon "los" in.
- Kan ik mijn oude installatie met bijvoorbeeld Samsung Magician klonen naar mijn nieuwe RAID-configuratie?

Jullie hulp en expertise word gewaardeerd :) Ik ben uiteraard ook bereid om me in te lezen, dus als er basics zijn of andere belangrijke artikelen, gooi vooral linkjes neer. Ik hou ervan om de in& outs te weten van wat ik doe.

Backup oplossing klein videoproductie bedrijf

10-09-2013 discussie 25
Ik ben momenteel bezig om met een beperkt budget een (zeer basic) nood backup oplossing te implementeren voor een klein (relatief jong) videoproductie bedrijf. Wat ik moet gaan implementeren is niet een volledig redundant backup systeem (daar is momenteel geen budget voor), maar in ieder geval een eerste stap zodat op zijn minst de data van lopende projecten die momenteel aanwezig zijn in ieder geval ook nog op een tweede schijf komen te staan en regelmatig worden bijgewerkt. Want momenteel is nergens een kopie van.
  • Budget: ¤700 - ¤800
  • Data: 6TB á 8TB
  • Doel: eerste stap naar on-site nood backup bij het uitvallen van een schijf, zodat de data niet direct verloren gaat.
  • Doel is niet: om terug in de tijd te kunnen, om per ongeluk verwijderde bestanden terug te halen etc.
  • Regelmaat: dagelijks een kopie van de changes van verschillende externe schijven met materiaal erop
  • Medewerkers: 2 (waarvan één eigenlijk vooral met de videobestanden etc. werkt vanaf een iMac met een aantal externe schijven)
  • Technisch niveau: laag, het moet geen omgeving worden waar van alles mis kan gaan waardoor er allerlei settings en troubleshooting moet plaatsvinden. Kant-en-klare achtige oplossing heeft de voorkeur.
Huidige idee
Wegens het beperkte budget zit ik op dit moment erover te denken om bijvoorbeeld een Qnap NAS aan te schaffen met 2x4TB schijven erin. Deze in een 1Gbit netwerk te hangen samen met de iMac, en via backup software een schedule maken om elke avond de data (changes) op de schijven met videomateriaal naar de Qnap te mirroren.

Andere mogelijkheden of suggesties?
Mijn vraag is of jullie misschien betere mogelijkheden of suggesties hebben. Ik ben bekend met de simpele huis tuin en keuken oplossingen, en wellicht dat er wel een slimmere oplossing is die binnen het beperkte budget past.

Raid voor 2x HDD's, maar die ene AHCI voor SSD dan?

01-07-2013 discussie 24
Hallo, mijn situatie is als volgt:
Ik heb 1 SSD die aangesloten is op SATA1 met in het EFI/BIOS ingesteld AHCI.. nu wou ik daar gisteren 2 hdd's van elk 1 terra op aansluiten en ze op RAID0 zetten...

Maar als ik de Storage Controller veranderd op RAID dan wilt m'n Windows niet meer booten... gelukkig heb ik overal backup's dus heb maar vlug Windows 7 erop geinstalleerd. Raid werkte, deze geinstalleerd maar als ik dan vervolgens AS SSD liet benchmarken dan las ik leestijden van slechts 290mb terwijl het vroeger minstens aan 412mb/s vooruitging ... als ik Raid uitzet zoals oorspronkelijk dan heb ik normale schijf en leestijden

Nu is m'n vraag hoe ik AHCI en RAID combineer?

Ik heb een Asrock 970extreme4 moederbord met sata 600 poorten

Groeten!

[Backups] De beste oplossing?

27-05-2013 discussie 16
Hallo allemaal,

Voor de pc van mijn moeder ben ik aan het kijken wat een goede oplossing is voor het veilig stellen van haar belangrijkste data. De computer draait op een Windows 7 x64 installatie van een maand oud en bevat 2 sata schijven van 250GB. De eerste is opgesplit in 3 partities (1 voor windows, 1 voor prive en 1 voor werk). De tweede schijf is nog helemaal leeg, en kan gebruikt worden voor een backup solution.

Het idee is dat er van haar bestanden regelmatig backups worden gemaakt. Met haar vorige computer is er een keer een schijf defect geraakt met veel dataverlies tot gevolg. Dit willen we nu voorkomen.

Mijn eerste idee was om van de twee schijven een RAID-1 opstelling te maken. Echter is de computer nu net volledig op orde met alle instellingen en software naar haar wens, en is het dus niet echt een oplossing omdat je voor een RAID-1 setup eerst beide schijven moet wissen om hem aan te kunnen maken (correct me if i'm wrong please). Bovendien is er met RAID-1 niet echt een bescherming tegen virussen, aangezien alles wat op de ene schijf gebeurt ook op de andere gedaan wordt.

Een andere oplossing zou kunnen zijn dat er een software programma geinstalleerd wordt wat een in de zovel dagen automatisch een backup maakt van haar bestanden. Ik weet niet of dit een betere oplossing is, en of hier goede software voor is, dus ik hoor graag jullie ideeen.

Specs:
Moederbord: Asus P5K
Processor: C2D e8400
Geheugen: 4GB Kingston 667MHz
Schijven: 2x WD2500AAKS

Ik ben benieuwd wat jullie denken over hoe ik dit het beste aan kan pakken. Ik hoor graag jullie meningen.
Alvast bedankt:)

1x SSD geïnstalleerd, 2x HDD in RAID0 erbij?

11-04-2013 discussie 9
Beste forumleden,

Ik heb momenteel mijn PC incl. Windows 7 geïnstalleerd staan op een SSD (AHCI mode), en wil daar graag een array van 2x 1TB HDD's aanhangen in RAID0. Nu ontstaan daarbij voor mij een aantal vragen waarvan ik de oplossing niet kan vinden na een geruime tijd zoeken.

- Wat is de beste manier? W7 Software RAID, of on-board hardware RAID. Ik heb op verschillende plekken gevonden dat ze alle 2 voor- en nadelen met zich meebrengen (OS stuk probleem vs. performance etc.) Ik wil de schrijven graag gebruiken voor video/fotobewerking, games en overige opslag.
- Is er een manier om deze RAID0 op te zetten zonder de data van mijn SSD te wissen, ook aangezien de SSD opslagmethode momenteel AHCI is i.p.v. RAID?

Huidige situatie:
SSD + W7 installatie werkend
2x HDD's geïnstalleerd in PC

Mobo: ASUS P8Z77-I Deluxe , incl. HD7950 (dus geen slots over voor extra RAID kaart)

Verdere evt. relevante specs:
i5 3570K
HDD's: 2x Seagate Barracuda 7200.14 (1TB)
SSD: 1x Samsung 830 SSD (256GB)

Hopelijk kunnen jullie mij mijn antwoorden geven (of deze linken waar ik ze niet kon vinden).

Alvast bedankt!

herinstallatie windows7 - schijven niet herkend

11-11-2012 discussie 7
Hoi, wie kan mij helpen met het volgende (waarschijnlijk zelf gecreëerde probleem, as always huh)

Mijn extra schijven worden niet herkend door windows.
Hier staan uiteraard al mijn zeer belangrijke documenten op.

Oude setup:
c:\\ met windows(kapot) en program files (ssd 128gb)
d:\\my documents en wat andere zooi (raid 0 WD 2x2TB)

Windows was stuk dus ik besloot voor een frisse installatie te gaan. Voor de zekerheid een nieuwe ssd gekocht zodat ik niet per ongeluk toch belangrijke data zou wissen, daarnaast was de 128gb toch wat te klein.

Vervolg:
- Nieuwe ssd(265gb) erin,
- d:\\ docs uitgeplugd.
- win7 (profesional, lol) geinstaleerd

nieuwste drivers etc geinstaleerd jatilatida.........

Okee tijd om de d:'s weer in te pluggen....
D; schijven worden nu wel door de bios gezien, maar niet in windows7. Ik kan er dus niet bij.

Iemand een idee wat ik mis heb gedaan? en hoe los ik dit op, zonder de bestanden op de D schijven te wissen?

Een andere vraag is(als amateur dus ja) wat heb ik eigenlijk aan die raid0? wat als 1 schijf stuk gaat? hoe weet ik dat?
Hoe kan ik eigenlijk zien of de schijven wel gespiegeld worden?
En staan ze eigenlijk nog wel in raid, met de nieuwe win7 installatie(of was dit niet een moederbord actie maar een windows oplossing, dat weet ik zelf eigenlijk niet meer)

Verdere systeem info:
mobo asus p8z68
cpu i7 2600k
graka sapphire HD 6XXXX

edit:
lijkt erop dat windows de schiven wel ziet maar ze niet snapt, ofzo. zie schijfbeheer screenshotje
http://www.uploadarchief.net/files/download/scrsht1.png
B.v.d.
Capt.

[RAID] Hardware RAID1 ingebouwd in MOBO?

25-09-2012 discussie 3
Ik wil in mijn server in RAID gaan draaien, echter ben ik vrij onbekend op dit gebied.
Mijn moederbord M4A78LT-M ondersteund RAID 0, 1 en 10.
Houdt dit ook meteen in dat er een RAID controller is ingebouwd? Of moet ik alsnog een RAID controller aanschaffen?
Als die is ingebouwd in het moederbord, hoe krijg je dan melding als een schijf corrupt is geworden en vervangen moet worden?

RAID 5 als 1 volume weergeven?

20-09-2012 discussie 15
Hoi allemaal,

ik ben nieuw in het hele RAID gebeuren, en heb veel gelezen en gezocht, en met allerlei tutorials en programmatjes het eindelijk voor elkaar (denk ik) dat ik een werkend RAID 5 array heb.

Ik heb een 256GB SSD als opstartschijf

en 3 3TB HDD's en een MSI Z77 GD65 bordje. Heb daar aangevinkt dat het RAID indeling moet zijn ipv AHCI. Daarna via CTRL-1 een RAID volume ingesteld op RAID 5 en 32bits datablokken.

nu zie ik in windows 2 schijven terug, waardoor ik aanneem dat het gelukt is, want anders hadden er nu 3 schijven gestaan. Maar nu is mijn vraag: is het ook mogelijk om 1 schijf van 5,xGB te zien in plaats van 2 schijven van 2.7 GB?

Raid 0 instellen van 2x ssd lukt mij niet

13-09-2012 discussie 7
Ik heb twee solide state disk gekocht en wil deze gaan d.m.v. Raid 0 koppelen om de opslag en leessnelheid te vergroten.
ik heb deze geprobeerd in het bios in te stellen maar dit lukt niet goed :(
je kan ze namelijk wel als raid instellen maar er wordt nergens om het raid nummer (soort raid) gevraagd.

het systeem bestaat uit:
twee maal Corsair 120GB SSD SATA600 Force GT
Moederboard Asus P8H77-V iH77 SATA600 RAID USB3,0

kan iemand mij helpen met mijn probleem :?

Wat zijn de beste raid schijven

12-09-2012 discussie 2
Een van mijn 6, Samsung HE103UJ, heeft het begeven en natuurlijk is deze schijf niet meer te bestellen. Welke merk en type is nu de beste om te bestellen?

Mdadm & Raid 5

10-09-2012 discussie 49
Hoi tweakers,

Ik sta op het punt om een raid5 array aan te maken met 4x2tb.

Er is alleen nog wat onduidelijkheid.

Volgens dit is het simpelweg mdadm --assemble met parameters.

Alleen toen kwam ik het volgende tegen: klik

Waarin dus staat dat ik de betreffende HD's dus eerst uit mijn fstab moet halen.

Wat is wijsheid?

Alvast bedankt :)

[ubuntu] Spook raid array

04-09-2012 discussie 5
Sinds een bijna een jaar gebruik ik Ubuntu, draait op een SSD met een Raid0 array als extra storage. Waarschijnlijk door mijn onervarenheid toen, had ik een ongebruikte /dev/md0, en een /dev/md127 die daadwerkelijk gebruikt wordt.
Gisteren was m'n array er ineens mee gestopt, En probeer ik alles recht te brijen via de disk manager:
http://tweakers.net/ext/f/S5XUQiSiiGMzXQdOOD8bumKh/full.png
Maar als ik nu 1 van de array start, start af en toe de andere ook mee, soms pakken beide arrays elk 1 disk, of willen helemaal niet starten.
fstab is heeft geen regels staan over deze disks, evenals mdadm.conf.

Nu vraag ik me af waar disk-manager zijn informatie vandaan haalt, omdat dat niet hetzelfde is als wat mdadm aangeeft.

Hmm, m'n logs zien er niet zo best uit...
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Sep  2 11:26:28 Panoramix kernel: [762849.667135] ata3.00: status: { DRDY }
Sep  2 11:26:28 Panoramix kernel: [762849.667142] ata3: hard resetting link
Sep  2 11:26:28 Panoramix kernel: [762849.983431] ata3: SATA link up 1.5 Gbps (SStatus 113 SControl 310)
Sep  2 11:26:28 Panoramix kernel: [762849.985787] ata3.00: configured for UDMA/133
Sep  2 11:26:28 Panoramix kernel: [762849.999378] ata3: EH complete
Sep  2 11:26:28 Panoramix kernel: [762849.999783] ata3.00: exception Emask 0x10 SAct 0x7 SErr 0x400100 action 0x6 frozen
Sep  2 11:26:28 Panoramix kernel: [762849.999785] ata3.00: irq_stat 0x08000000, interface fatal error
Sep  2 11:26:28 Panoramix kernel: [762849.999787] ata3: SError: { UnrecovData Handshk }
Sep  2 11:26:28 Panoramix kernel: [762849.999789] ata3.00: failed command: WRITE FPDMA QUEUED
Sep  2 11:26:28 Panoramix kernel: [762849.999792] ata3.00: cmd 61/00:00:00:af:65/04:00:34:00:00/40 tag 0 ncq 524288 out
Sep  2 11:26:28 Panoramix kernel: [762849.999793]          res 40/00:10:00:b7:65/00:00:34:00:00/40 Emask 0x10 (ATA bus error)
Sep  2 11:26:28 Panoramix kernel: [762849.999795] ata3.00: status: { DRDY }
Sep  2 11:26:28 Panoramix kernel: [762849.999796] ata3.00: failed command: WRITE FPDMA QUEUED
Sep  2 11:26:28 Panoramix kernel: [762849.999799] ata3.00: cmd 61/00:08:00:b3:65/04:00:34:00:00/40 tag 1 ncq 524288 out
Sep  2 11:26:28 Panoramix kernel: [762849.999799]          res 40/00:10:00:b7:65/00:00:34:00:00/40 Emask 0x10 (ATA bus error

Wijziging HDD's RAID0 van Intel 3Gb/s naar Marvell 6Gb/s

31-08-2012 discussie 5
Heren, het volgende:

Wijziging HDD dataschijven RAID0 van Intel 3Gb/s port naar Marvell 6Gb/s ports

Hardware configuratie:
Asus Maximus IV Extreme (B3)
4xSATA 3Gb/s + 2xSATA 6Gb/s Intel en 2xSATA 6Gb/s Marvell 9182
Intel Int Core i7-2600 3400 1155 BOX FC-LGA4, "Sandy Bridge"
Kingston HyperX Genesis 8GB 1600 CL9 Kit2
1 x OCZ Vertex 3 - 90GB - 2.5inch SATA 3 / SATA 6GBps op Intel 6Gb/s port
1 x HDD WD 80 GB op Intel 3Gb/s port
2 x HDD WD Black Caviar 500GB sata II op Intel 3Gb/s ports in RAID0
ASUS VGA PCIe ATI HD7950-DC2T-3GD5-V2
ASUS ROG Xonar Phoebus Asus Xonar Phoebus ROG R incl. externe headset control box
Antec TruePower Quattro 850W ATX22 TPQ-850-EC
In een
Antec Eleven Hundred Midi-Tower

Software configuratie
1 x win7 64bit op OZC Vertex 3 (gaming)
1 x win7 64bit op HDD 80GB (school/werk)
2 x HDD Data schijven in RAID0
Intel raid drivers geinstalleerd bij 2 x OS install, geen Marvell drivers
Beide OS schijven hebben bootmanager, basis OS schijf wordt bepaald door bios
Definitieve OS schijf wordt via keuze bij opstart win7 bepaald.
Werkt goed.

Had voor mijn eigen werkPC 2 data schijven nodig, heb 2 x HDD WD 500GB Caviar Black Sata III aangeschaft, deze wil ik in bovenstaande configuratie plaatsten en huidige 2 x HDD WD 500 SATA II in eigen werkPC gebruiken.
Ik moet dus de SATA 6Gb/s ports van Marvell gebruiken voor de RAID0 configuratie.
Is het voldoende om alsnog de Marvell drivers te installeren om deze dataschijven in RAID0 te plaatsen of moet het installeren van de Marvell drivers echt voor installatie van het OS
plaatsvinden ?

Wie weet raad?
_/-\o_

Combinatie SSD (S-ATA) en HDD (IDE) in RAID zinvol?

25-08-2012 discussie 9
Zoals het topic al redelijk samenvat.

Ik heb een OCZ SSD schijf in bruikleen gekregen (om te testen en omdat de gene die hem te leen gaf hem momenteel niet kan gebruiken), maar juist omdat het bruikleen is (en de eigenaar deze op een bepaald moment weer terug zal verwachten) zat ik erover te denken om deze in RAID 1 te zetten met een andere schijf (zodat ik de SSD in het geval dat nodig is snel kan terug geven zonder dan hals over kop alles te moeten backuppen en uiteraard ook ter bescherming van mijn data). Helaas heb ik van een vergelijkbaar (net iets groter) formaat alleen nog een oude IDE schijf liggen.

Nu is dus mijn vraag of dit nog zinvol is, of dat ik door deze opstelling het snelheidsvoordeel van de SSD verlies.

Kort samengevat:
OCZ Agility 3 S-ATA SSD 120GB
Maxtor DiamondMax Plus 9 IDE HDD 200GB
RAID 1 zinvol?

Raid met verschillende groottes hdd`s

14-08-2012 discussie 3
Hallo,

Ik heb op het moment zeer veel hdd`s in mijn pc. Alles zonder raid. Ik ben van plan om alles in een server te bouwen zodat iedereen lokaal er toegang tot heeft. Nou wil ik het toch wel aardig veilig hebben dus ben ik van plan om alles in raid te zetten. Het enige probleem is dat het niet allemaal dezelfde hdd`s zijn. Ik wil graag betrouwbaarheid en snelheid. Ik ben al even aan het googlen gewesst maar kom er zelf niet uit. Welke raid kan ik het beste kiezen?

Schijven:

4x 1TB
2x 250 GB
1x 500 GB
Resultaten per pagina: 25 | 50 | 100
1 2 3 ... 17


Samsung Galaxy S7 edge Athom Homey Apple iPhone SE Raspberry Pi 3 Apple iPad Pro Wi-Fi (2016) HTC 10 Hitman (2016) LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True