Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

FreeBSD

6 producten en 6 uitvoeringen

Datumbereik

Categorieën

AND

Onderwerpen

AND

Subforum

Topicstarter

Topicstatus

50 topics - Pagina 1 van 2

Het grote welk OS ( bijvoorbeeld linux distro) topic deel 7

06-02 19:00 discussie 4305


In dit topic kan je, als je na het lezen van de startpost nog vragen hebt, vragen welke distro wij geschikt voor jou vinden. Om een goed advies te geven hebben we uiteraard wat informatie van je nodig:

• Om wat voor systeem gaat het? Wat voor cpu, hoeveel geheugen, hardeschijf ruimte. Meld ook bijzonderheden zoals draadloze netwerkkaarten, scsi, raid, etcetera.
• Wat ben je van plan met het systeem? Wil je een desktop pc voor je moeder, een thuisservertje of moet het misschien een dedicated router worden.
• Wil je iets wat out-of-the-box/klik-klik-klaar goed werkt, of wil je je graag verdiepen in de werking van het systeem en alles zelf tot in de puntjes instellen?

Voordat je een distro uitkiest:

Het is goed om te weten wat een distro nou eigenlijk is en hoe die aan zijn specifieke eigenschappen komt. Alle linux distro's zijn gebaseerd op dezelfde kernel en dezelfde GNU tools. Ook voor veel applicaties geld dat er één (of soms een paar) redelijk de standaard is en door vrijwel alle distro's gebruikt worden. (Denk aan de Apache webserver of de officesuite OpenOffice.org.)

De verschillen zitten wel in de doelgroep waarvoor of de intentie waarmee een distro gemaakt word. Dit uit zich met name in de installer en de manier waarop nieuwe software in principe geinstalleerd moet worden. Ook configuratiefiles gaat de ene distro anders mee om dan de andere. De ene zal een grafische front-end hebben voor het maken van instellingen, of heel veel dingen standaard voor je invullen. Een ander zal het veel meer aan jezelf overlaten.

Hoe je het tenslotte echter wend of keert, uiteindelijk zal je met de meeste distro's vrijwel hetzelfde kunnen.


De bekendste distributies/OS-en zijn:

Fedora, Mandriva, Ubuntu, SUSE:
Deze distro's zijn gericht op de desktop, en zijn eenvoudig te installeren voor mensen zonder linux ervaring. Na de standaard installatie krijg je een grafische werkomgeving. Om deze distro's lekker te draaien heb je een gemiddeld systeem nodig.
Fedora is het proeftuintje van Redhat Enterprise Linux. Mandriva is het resultaat van het samengaan van Mandrake en Connectiva. Ubuntu is een wat nieuwere distro, gebaseerd op Debian. SUSE is tegenwoordig van Novell, en de gratis versie functioneerd net als bij Redhat als proeftuintje voor de Enterprise Linux producten.

Debian en Slackware:
Deze distro's -de klassiekers in de wereld der linux distro's- zijn veel meer basic. Deze installers zijn text gebaseerd (zonder GUI), en je moet veel hardware zelf configureren. Na de standaard installatie kom je op een commandline terecht. Deze distro's hebben dan ook lage(re) hardware eisen.

Gentoo:
Lijkt veel op Debian en Slackware, maar omdat je met deze distributie alles zelf compileert is het logischer om deze distro alleen op de wat krachtigere processoren te gebruiken.

FreeBSD, NetBSD, OpenBSD:
Zijn geen linux distro, maar wel open source en lid van de unix familie. Qua moeilijkheid en systeemeisen lijken ze op Debian en Slackware. De *BSD's hebben en degelijke reputatie qua stabiliteit en veiligheid. NetBSD draait op extreem veel architecturen, OpenBSD is erop gericht om standaard heel veilig te zijn. FreeBSD is wat algemener, met name gericht op snelle, stabiele en veilige servers.

FreeSCO, Smoothwall:
Zijn puur gericht op het routeren. FreeSCO draait vanaf een floppy, en doet het al op een 386 met 8 mb ram. Smoothwall moet vanaf cd op de hdd geinstalleerd worden en en kan vervolgens bediend worden met een grafische web interface.

Knoppix, Damn Small Linux:
Zijn live-cd's, wat wil zeggen dat ze vanaf een cd draaien zonder dat ze op je harde schijf geinstalleerd hoeven te worden. Hierdoor zijn ze heel geschikt om linux eens uit te proberen of als resque-cd. Knoppix staat bekend vanwege de goede hardwareondersteuning en de grote hoeveelheid software, die on-the-fly gedecomprimeerd word vanaf de cd. Inmiddels is er ook een dvd versie van. Damn Small Linux is een heel compacte live-cd, die als doel heeft om binnen 50 mb een bruikbare desktop te maken. Hierdoor past het op een businesscard cd. Dams Small Linux is ook geschikt om vanaf usb-stick te draaien.

Voor meer distro's zie distrowatch.com.

• Het bemachtigen van je distibutie naar keuze:

Mocht je een keuze gemaakt hebben, dan kun je gaan downloaden. De meeste distro's die in dit topic aangeraden worden zijn te downloaden vanaf de website van de distro, of via een mirror zoals bijvoorbeeld http://distro.ibiblio.org/pub/linux/distributions/. Vergeet niet nadat je de iso van je keuze hebt gedownload, de zogenaamde MD5SUM te controleren. Voor uitleg van het branden van een .iso bestand kun je hier terecht.

Sommigen (In ieder geval Debian en SuSE) kennen ook een netinstall. Dat houdt in dat je van een kleine cdrom opstart, en de benodigde software vervolgens van een mirror downloadt.

Het is ook mogelijk om een cd te bestellen met daarop de linux distro die je uitgekozen hebt. Dit is afkomstig uit de tijd dat breedbandaansluitingen en cd-branders schaars waren, en datalimieten laag.
Dit kan je doen bij bijvoorbeeld Kooplinux.nl of Munnikes.nl. Van Ubuntu kan je je de cd's zelfs gratis toe laten sturen.

Mocht je tegen problemen aanlopen tijdens de installatie: Op de site's waar naar gelinked wordt vanuit deze posting zijn vaak handboeken of installatiehandleidingen te vinden. Ook zijn we (inmiddels een tijdje geleden) bezig geweest in Non-Windows Operating Systems om van een aantal distributies de installatie uit te leggen in begrijpbaar nederlands. Deze kun je hier vinden.

Mocht je er toch niet uitkomen, open dan een nieuw topic, dit topic is puur voor de 'Welke OS vragen', niet voor de problemen die daarop volgen!

• Vorige delen:

Welke Linux distro moet ik nemen?
Welk OS (bv. Linux distro) moet ik nemen? Part 2
Welk OS (bv. Linux distro) moet ik nemen? Part 3
Welk OS (bv. Linux distro) moet ik nemen? Part 4
Het grote welk OS (bijvoorbeeld linux distro) topic deel 5
Het grote welk OS (bijvoorbeeld linux distro) topic deel 6


Voor de de mensen die meer willen weten over Ubuntu:
Het Grote Ubuntu Topic Deel 3


offtopic:
Met dank aan mezelf voor het kopieren van een groot deel uit Jesse's post (zie beneden) en Jesse ook bedankt voor het typen Daarom bedankt Touchdomex webfreakz.nl voor de vorige startpost

Het grote ZFS topic

06-02 15:17 discussie 16741
Het grote ZFS topicZFS; wat is dat?
ZFS ofwel Zettabyte FileSystem is een nieuw soort filesystem om bestanden mee op te slaan. ZFS verschilt enorm van andere filesystems, omdat het naast filesystem ook de functies van LVM en RAID engine verzorgt. We noemen ZFS daarom een hybride filesystem.

Vrijwel alle bestaande filesystems werken op één storage device zoals een hardeschijf. Ze zijn niet gemaakt om meerdere hardeschijven aan te spreken. Daarvoor is een aparte RAID layer nodig die van meerdere schijven één schijf maakt en er vervolgens een filesystem op wordt geplaatst. Het filesystem is zich hierbij niet bewust van het feit dat zijn data op meerdere disks staat; die twee werelden zijn strict gescheiden.

ZFS werkt heel anders; het spreekt direct meerdere schijven aan en integreert de functionaliteit van RAID, LVM en filesystem in één pakket. Dat heeft veel voordelen, voornamelijk op het gebied van betrouwbaarheid, maar zeker ook prestaties.

Zo zo... en wat zijn die 'voordelen' van ZFS dan?
ZFS is een 'next-gen' filesystem en heeft alleen Btrfs en ReFS als concurrenten. Btrfs is nog sterk in ontwikkeling en door de GPL licentie beperkt tot de Linux kernel. ReFS is het antwoord van Microsoft op de tekortkomingen van inmiddels behoorlijk gedateerde filesystems die we gebruiken, we noemen ze daarom legacy filesystems omdat deze eigenlijk gemaakt zijn voor een ander tijdperk. Alle platforms (Windows, Linux en UNIX) hebben dus hun eigen next-gen filesystem in de koker, maar ZFS is op dit moment het meest stabiel en volwassen en volledig production ready op meerdere besturingssystemen.

Een overzicht van enkele voordelen van ZFS versus legacy filesystems:Checksums waken over de integriteit van je bestanden, en in het geval dat er toch corruptie plaatsvindt zie je precies welke bestanden dit treft. Nooit meer 'silent corruption' dus! Intelligente afhandeling van onleesbare sectoren (bad sectors) - deze worden automatisch gecorrigeerd door deze te overschrijven met redundante data indien beschikbaar. Met ZFS ben je vrijwel immuun voor het probleem van bad sectors wat steeds groter wordt met de stijgende datadichtheid. Self Healing; het on-the-fly automatisch repareren van corruptie en bad sectors, mits er voldoende redundancy beschikbaar is zoals in een mirror of RAID-Z configuratie. Dynamische stripesizes betekent dat ZFS niet kwetsbaar is voor de zogenaamde 'write hole'; ZFS kent geen read-modify-write. Dit is een technisch belangrijk voordeel van RAID-Z boven RAID5 wat grote voordelen heeft op gebied van betrouwbaarheid én random write prestaties. ZFS bewaakt de consistency van zijn filesystem en application data door transaction groups en ZFS Intent Log (ZIL); onverwachte stroomstoringen zouden nooit ZFS mogen beschadigen. ZFS kan één of meerdere SSDs inzetten als intelligente caching (L2ARC) wat vergeleken kan worden met de Smart Response Technology (SRT) van Intel, wat je ook in staat stelt om een HDD te cachen met een SSD. Het verschil is dat ZFS dit kan doen zonder de betrouwbaarheid aan te tasten; als je SSD corrupt raakt wordt dit opgemerkt en wordt er van de HDD RAID array gelezen, Intel SRT en andere oplossingen kunnen dit niet en dus is deze feature niet helemaal veilig, in tegenstelling tot ZFS waar L2ARC geen risico toevoegt. Snapshots zijn een verademing voor backups. Maak een snapshot en je kunt vrij rommelen, niet goed dan doe je een rollback. Het concept van een snapshot is al heel oud, maar de manier hoe het werkt bij ZFS maakt dat het gebruik ervan zeer flexibel werkt en heel economisch is met opslagruimte; alleen wijzigingen - de 'delta' - kosten opslagruimte.Zelf zou ik een aantal andere meer praktische argumenten aanvoeren:ZFS geeft je een betrouwbare RAID layer en zorgt dus dat je de foutgevoelige ouderwetse RAID layers volledig uitschakelt. Het filesystem zit 'direct' aan de disks en samen met checksums geeft dit je veel meer bescherming voor je bestanden. ZFS bespaart je kosten omdat je geen dure TLER-schijven hoeft te kopen, geen hardware RAID en UPS/BBU. Gewone desktopschijven werken prima met ZFS op een gewone non-RAID controller. ZFS kun je uitstekend als backup combineren. De snapshots zijn heel krachtig om incremental backups te maken. Het idee is dat je terug in de tijd kunt bladeren en zien hoe je bestanden toen waren. Dat is een krachtige feature om perongeluk deleted files of een virus die aan je bestanden knaagt af te dekken. ZFS laat je lekker flexibel met data omgaan en data erop pleuren en 'vergeten'; je hoeft er niet meer naar om te kijken. ZFS is heel onderhoudsarm dankzij de self-healing. Op een moment dat ZFS filesystemschade tegenkomt, repareert het dit vanzelf.Zijn er ook nadelen?ZFS draait niet onder Windows. Alleen onder Solaris/IllumOS en FreeBSD kun je spreken van eerste klasse implementaties die bewezen stabiel zijn en goed ondersteund worden met actieve ontwikkelaars. De Linux implementatie is erg goed op weg, maar is nog niet zo bewezen als bijvoorbeeld de FreeBSD implementatie. Daarnaast is ZFS makkelijk toegankelijk middels speciale 'NAS' operating systems - waarover later meer. ZFS is erg hongerig naar geheugen, je kunt het vanaf 512MB RAM gebruiken, maar dan knijp je ZFS wel enorm. Pas boven de 4 gigabyte dus praktisch 6-8GiB wordt ZFS in alle glorie ondersteund met standaard prefetching enabled. Dit is overigens specifiek voor FreeBSD. Bij Solaris geldt dat ZFS hier beter werkt op systemen met weinig geheugen zoals 2GB. Deze bron meldt als Rule of Thumb 1GB per schijf plus wat je nodig hebt voor applicaties voor het Solaris platform. Je kan bij ZFS een bestaande RAID-Z (1/2/3) vdev niet uitbreiden met één of meer disks. Simpel gezegd: heb je een 4-disk RAID-Z dan kun je niet zomaar een disk bijpleuren en het een 5-disk RAID-Z maken - iets wat met traditioneel RAID wél kan: Online Capacity Expansion (OCE). Bij ZFS is het wel mogelijk om nieuwe vdev's toe te voegen. Nadeel is dus wel, dat je (vaak) in een keer een flink aantal disks moet kopen als je RAID-Z gebruikt. Bij mirrorring heb je dat probleem niet omdat je hier wel van een enkele disk een mirror kunt maken en andersom.Maar ondersteunt ZFS nou RAID?
ZFS ondersteunt diverse opslagmethoden die erg vergelijkbaar zijn met RAID. Echter, geen enkele traditionele RAID engine kan nadoen wat ZFS doet, dus in die zin is het geen echt 'RAID'.

De volgende schema's zijn beschikbaar:
• RAID0 - striping: maximale performance, geen (extra) bescherming
• RAID1 - mirroring: twee schijven met identieke data
• RAID10 - striping+mirroring: een combinatie van hierboven (min. 4 schijven)
• RAIDZ - enkelvoudige parity: vergelijkbaar met RAID5
• RAIDZ2 - tweevoudige parity: vergelijkbaar met RAID6
• RAIDZ3 - drievoudige parity: dit bestaat bij traditioneel RAID niet of nauwelijks

En wat is dat RAID-Z dan?
RAID-Z is een verbeterde vorm van RAID5 die alleen mogelijk is als RAID en filesystem niet gescheiden zijn, zoals normaliter het geval is. Omdat ZFS die twee combineert, kan een aantal belangrijke tekortkomingen van RAID5 worden voorkomen. Hierbij gaat het bijvoorbeeld om de RAID5 'write hole', en die komt weer door non-atomic read-modify-write cycles die nodig zijn als je naar RAID5 schrijft met een grootte anders dan de optimale full block size; veelal random writes dus. RAID-Z kent echter geen read-modify-write cycles omdat alle disks in elke write I/O worden betrokken. Dit kan alleen maar met een dynamische stripesize, en dat is dus een van de slimme voordelen van RAID-Z boven RAID5.

RAID-Z is dus anders dan RAID5, maar het deelt wel de basis eigenschappen:
• één disk mag uitvallen zonder gegevensverlies, twee disks betekent alles kwijt
• de beschikbare opslagruimte is gelijk aan het aantal schijven minus parity schijven maal de grootte van de kleinste disk. Dus 4 schijven van 2TB in RAID-Z = 6TB bruikbare ruimte.

RAID-Z2 is dan hetzelfde maar met twee parity disks, dus vergelijkbaar met RAID6. RAID-Z3 gebruikt zelfs drie parity disks voor extra veiligheid, wat in thuisomgevingen zeldzaam is. Het is vaak handiger om meerdere RAID-Z2's in een enkele pool te draaien dan één grote RAID-Z3.

Dus ZFS is software RAID? Is Hardware RAID niet beter?
ZFS is inderdaad softwarematige RAID, en dat heeft diverse voordelen. Veel mensen denken dat het veel aanslag pleegt op je CPU, maar zelfs een Atom CPU kan meer dan een gigabyte aan XOR instructies verwerken. XOR geldt als een makkelijke instructie en wordt in de praktijk beperkt door geheugenbandbreedte wat op moderne systemen tussen de 4 en 20 gigabyte per seconde ligt. Mensen die denken dat een XOR-engine nodig is voor goede performance, hebben teveel geluisterd naar de doctrine van de controllerfabrikanten.

De voordelen van software RAID:Geen dure Hardware RAID controller nodig* Geen Battery Backup Unit nodig (mits je filesystem een afdoende natuurlijke bescherming heeft zoals een journal of soft updates) Geen dure TLER-schijven nodig, zoals de WD RE series, die stukken duurder zijn alleen voor meer garantie en firmware die TLER mogelijk maakt. Door goedkope schijven te gebruiken kun je er meer van kopen dus meer storage en meer performance. (Wikipedia: Time-Limited Error Recovery). * - Zie uitleg een stuk terug bij voordelen ZFS Onafhankelijk van de controller. Gaat je controller stuk met software RAID dan koppel je je disks aan een andere controller en je bent zo weer online. Gebruik van meerdere controllers. Je onboard SATA poorten zijn de best mogelijke poorten die je kan hebben, dus waarom die niet gebruiken? Je hebt er vaak max 6 en dus kun je zowel disks op je onboard controller als op een add-on controller aansluiten, en in dezelfde pool integreren. Zolang je controllers voldoende bandbreedte hebben is hier geen enkel bezwaar tegen qua performance. Hardware RAID weet eigenlijk niet of een block corrupt is, het kan alleen constateren dat een block niet in sync is. Vrijwel alle controllers gaan ervan uit dat de parity fout is en de originele data goed is, en corrigeren de parity in dat geval. Dit kan voor corruptie zorgen die niet gedetecteerd of gecorrigeerd wordt door traditioneel RAID; silent corruption. Software RAID zoals in ZFS kan dus dingen die hardware RAID nooit zou kunnen nabootsen, met cruciale verschillen tot gevolg.Zo, nou ik ben overtuigd hoor! Waar kan ik dat ZFS krijgen?
Geen Windows, vanzelfsprekend.

Er zijn drie platforms waar ZFS op draait:
• Solaris (eerst van Sun, nu in de klauwen ehh handen van Oracle)
• FreeBSD (opensource UNIX)
• Linux

Solaris:
Solaris is een heel degelijk UNIX besturingssysteem en ook de thuisbasis van ZFS. Sun was namelijk eigenaar van Solaris en ZFS voordat het werd overgenomen door Oracle. Oracle heeft aangegeven ZFS verder te zullen ontwikkelen, maar het originele team achter ZFS is verdwenen met de overname.

Beschikbare varianten:
• Nexenta (Stor); een op (Open-) Solaris (/Illumos?) gebaseerde distributie speciaal ontwikkelt voor NAS/SAN gebruik. Gratis versie is gelimiteerd tot 18TB.
• napp-it; een uitgebreide web-interface voor Illumos.
• EON ZFS Storage - embedded distributie
• OpenIndiana Enterprise oplossing met ZFS.

FreeBSD:
FreeBSD is een veelal onbekend maar toch zeer geavanceerd besturingssysteem. FreeBSD heeft dankzij zijn licentie geen enkel probleem met ZFS integratie, en heeft het al vrij vroeg, sinds FreeBSD 7.0 geïntegreerd. Die versies waren nog expeirmenteel en instabiel. Vandaag de dag zitten we met een goed stabiele ZFS v15 en de nieuwe v28 code is al draaide op FreeBSD 9 (en intussen al ZFS v5000 via FreeBSD 9.2 / 10.0). Het grote voordeel van FreeBSD is dat je meer zekerheid hebt over de toekomst van ZFS op dit platform. Ook heeft FreeBSD een aantal beperkingen van het Solaris platform niet, en is de hardwaresupport beter, maar nog steeds minder goed dan Linux.

Beschikbare varianten:
• mfsBSD - een simpele LiveCD voor FreeBSD waarmee je ook direct op ZFS kunt installeren.
• FreeNAS - een uitgebreid NAS besturingssysteem. De oude versie 0.7.x heeft wel oudere ZFS support en valt af te raden, maar de nieuwe 0.8.x versie beschikt wel over een stabiele en moderne ZFS versie.
• ZFSguru - een nieuwe variant helemaal op ZFS gericht, nog erg in ontwikkeling maar heeft als grote voordeel dat er een volledige FreeBSD installatie achter zit, zonder dingen weggesnoeid zoals bij FreeNAS. Dit maakt het installeren van extra software makkelijker, wat bij FreeNAS toch een stuk lastiger is. Voor de nog ontbrekende features moet je terugvallen op de text shell, iets wat steeds minder nodig zal zijn naarmate ZFSguru zich verder ontwikkelt. CiPHER ontwikkelt sinds november 2011 mee aan dit project. ZFSguru kan beschouwd worden als gemakkelijkste all-in-one ZFS oplossing.
• NAS4Free Het open-source broertje van FreeNas die gemaakt is nadat FreeNas in de handen van ixSystems is gekomen. Bijna dezelfde functionaliteit, maar niet meer gebaseerd op nanoBSD, en dat kan in de toekomst nog wel eens voordelen opleveren.

Linux:
Linux is een uitstekend allround besturingssysteem, maar de GPL-licentie is helaas slecht cq. niet verenigbaar met de licentie van ZFS, de CDDL. Dit heeft tot gevolg dat ZFS alleen via een omweg beschikbaar is op het Linux platform. In de praktijk is het op veel besturingssystemen intussen erg gemakkelijk geworden om het te installeren, voor systemen als Ubuntu zijn er al PPA's om ZFS te installeren, en Gentoo levert bijvoorbeeld de sourcecode gewoon mee in de ISO.

Beschikbaar zijn:
• ZFS-on-Fuse (Userland Fuse implementatie)
• ZFSonLinux (Kernel implementatie)
• Debian GNU/kFreeBSD - zeg maar linux zonder linux kernel, pervers nietwaar?

Allemaal mooi en aardig, maar ik gebruik Windows!
Het idee is dat je een aparte computer (NAS) bouwt waar ZFS op draait, en dit via Samba, NFS of iSCSI exporteert naar je Windows, Apple of Linux desktop pc. Windows zelf heeft geen idee van ZFS, maar kan bestanden wel opslaan via CIFS (Samba) en/of andere protocollen.

Gevolg is wel dat je een aparte dedicated computer bouwt alleen voor ZFS opslag. Je kunt het ingewikkelder doen door met virtualisatie te gaan werken, maar dat zou ik alleen doen als je daar bekend mee bent. Vragen over ZFS icm een specifiek virtualisatie pakket kan je beter stellen in het topic voor het desbetreffende virtualisatie pakket, dat zorgt ervoor dat dit topic minder vervuild.

En hoe bouw ik zo'n ZFS NAS dan?
Met je handen. Nee serieus: het is heel makkelijk. Je kunt in Het grote DIY RAID NAS topic deel 3 je eigen build bediscussiëren of een eigen topic aanmaken als je een uitgebreide build wilt bespreken met veel vragen.

Om je wel een idee te geven wat er mogelijk is, worden hier twee builds gepresenteerd. Eentje die best te overwegen is - de Instap NAS - en een dure luxe build waar we van dromen - in elk geval de hoeveelheid disks. In de praktijk zal jouw build dus tussen deze twee uitersten liggen.

Instap ZFS NAS
Processor: Elke moderne Celeron (G1610 / G1820) of Pentium (G3220 etc) voldoet voor ZFS. Oudere Atom's (op de Avoton na) zijn niet aan te raden, die kunnen maar 4GB geheugen aanspreken, en dat is een veel gevallen te krap. Het kan wel, maar dan moet je goed weten wat je doet, en wat ZFS tuning toepassen. CurlyMo heeft ZFS aan de praat op een miniscuul x86 bordje, met maar een beperkte hoeveelheid RAM.
Geheugen: Minimaal 4GB is aan te raden. Wil je 1Gb Ethernet continu blijven halen, is 8GB aan te raden.
Moederbord: Maakt weinig uit, zoek in de reviews naar een zuinig bord met een leuke AHCI controller. In het DIY RAID NAS topic komen legio bordjes langs die lekker zuinig en modern zijn.

Wat misschien nog wel de belangrijkste tip is: Kijk of bijvoorbeeld elk budget onderdeel (zoals de netwerkkaart) ondersteund is in het OS dat je wil gebruiken. Zo zijn FreeNAS en ZFSguru (beide gebaseerd op FreeBSD) wat kieskeuriger qua hardware dan Linux.

Krachtige ZFS NAS
Processor: Een sterke i5 of Xeon. Socket 1150 of 2011(-3). Voor ECC support moet je even goed opletten.
Moederbord: Een Supermicro of gelijkwaardig bord dat ECC support.
Geheugen: ECC! (Let op dat Registered geheugen alleen werkt op Socket 2011(-3), en dat je voor Socket 2011-3 DDR4 geheugen nodig hebt. Qua hoeveelheid ligt het een beetje aan je pool, maar als je echt een krachtige server wil is 16 of 32GB aan te raden. Als je ZFS gaat combineren met ESXi een een flink aantal VM's, wil je al snel richting 32GB gaan.
Controller: Er zijn SuperMicro borden met onboard LSI2308 controller. Mooie aanrader! Wil je een losse HBA, kan je voor bijvoorbeeld een IBM M1015, Dell H200, of een LSI 9201-16i gaan. Voordat je iets koopt, check even in de topics of deze controllers op het moment nog steeds gangbaar zijn. Er veranderd nog wel eens wat in storage land, en ook wij kunnen niet continu de startpost blijven updaten.

Schijven: Western Digital Green of Red zijn momenteel erg populair. De nieuwste Seagate series zijn ook veel in gebruik.
Let op dat je goed moet kiezen tussen TLER of non-TLER schijven. Beide hebben hun voor- en nadelen.
Hitachi maakt volgens velen technisch de beste schijven, maar er zijn vooral 7200RPM schijven van Hitachi, dus zit je qua stroomverbruik al snel hoog met Hitachi.

Kan ik met ZFS mijn array uitbreiden zoals met RAID5 veelal kan?
Nee, dit is een belangrijke beperking van ZFS die voor thuisgebruikers vaak als hinderlijk wordt aangemerkt. ZFS kun je echter wel uitbreiden, maar dat werkt heel anders. Dit heeft echter ook voordelen die RAID5 weer niet heeft, dus lees dit even goed:

Als je een RAID-Z hebt van 5 disks, kun je die niet zomaar met een paar disks uitbreiden naar een 7-disk RAID-Z bijvoorbeeld. Een RAID-Z heeft dus een vast aantal schijven wat je niet kunt veranderen.

Wat kan wel?Bij mirroring (RAID1) kun je altijd schijven toevoegen en weer verwijderen uit een mirror vdev. Voeg je een schijf toe aan een 2-disk mirror, dan wordt het een 3-disk mirror waarbij alle drie de disks dezelfde data opslaan. Verwijder je een disk van een 2-disk mirror, dan wordt de resterende 'mirror' disk een normale enkele disk. Die kun je vervolgens weer tot mirror omtoveren door een schijf toe te voegen. Mirrors kunnen dus wat RAID-Z niet kan. De gebruikelijke manier van uitbreiden is dat je een nieuwe vdev ofwel array naast de al bestaande RAID-Z vdev plaatst. Dus bijvoorbeeld weer een 5-disk RAID-Z erbij plaatsen. De beschikbare ruimte van alle vdevs is als één eenheid beschikbaar binnen een ZFS pool. In de praktijk betekent dit dat je schijven in groepjes toevoegt in plaats van elke keer één schijf erbij. Ook betekent dit dat je elke keer een extra schijf aan parity protection kwijt bent, maar dat heeft wel als voordeel dat je bescherming op peil blijft naarmate je uitbreidt en niet steeds minder wordt. ZFS kan weer dingen die traditioneel RAID niet kan. Zoals: je kunt in de nieuwe RAID-Z vdev die je gaat toevoegen, schijven met een andere grootte gebruiken, een ander aantal of ander RAID-level dan de eerste array. Zo kun je nu beginnen met 2TB schijven en later 3TB en weer later 4TB gebruiken en zit je dus niet vast aan een bepaalde grootte. Alle vdevs in een pool worden gestriped, zeg maar RAID0. Maar omdat het geen echt RAID is, kan ZFS leuke trucjes toepassen. Stel je eerste array doet 200MB/s maar je nieuwe array met modernere schijven doet 400MB/s, dan zou je bij traditioneel RAID 2x200 = 400MB/s krijgen. ZFS doet echter aan load balancing en laat elke vdev lopen op de snelheid die hij aankan door simpelweg meer data te schrijven naar die vdev. Veelal geldt hoe groter de opslagruimte des te hoger de performance dus dit gaat ook mooi op met het feit dat ZFS meer data schrijft naar de snellere (en verondersteld grotere) array.Praktisch is:Je begint met een 5-disk 2TB in RAID-Z, je breidt die later uit met nog eens 5 schijven maar dan 3TB ook in RAID-Z. De beschikbare ruimte is 4*2TB=8 + 4*3TB=12 is samen dus 8+12=20 terabyte. Je bent dus 2TB+3TB=5TB kwijt aan parity. Je begint met een 6-disk 3TB RAID-Z2 met goede bescherming, maar wilt later nog wat extra ruimte. Je kunt dan bijvoorbeeld 3 disks 4TB in RAID-Z plaatsen voor 8TB extra opslagruimte. Je kiest voor mirroring en kunt altijd een schijfje bijprikken. In groepjes van twee of zelfs één schijf en later die tot mirror promoveren. Bedenk wel dat je hele pool stuk is als één mirror vdev stuk is. Dus draaien met een enkele schijf is wel een risico.Verder moet je weten dat ZFS niet direct de data herverdeelt wanneer je je pool uitbreidt met een nieuwe RAID-Z array/vdev bijvoorbeeld. De data blijft staan waar hij staat. Alleen nieuwe data die geschreven wordt, wordt over alle vdevs verdeeld dus ook de nieuwe. Je kunt dit voor bestaande data forceren door de directory een andere naam te geven en dan te kopiëren naar de originele naam. Doordat je de data opnieuw schrijft, wordt deze over alle vdevs verdeeld en krijgt het dus extra snelheid van de nieuwe vdev als je dat nodig acht.

Ik heb gehoord dat je ZFS moet optimaliseren voor 4K Advanced Format hardeschijven?
Dat klopt, voor moderne Advanced Format hardeschijven die 4K sectoren hebben, wil je het liefst ook dat ZFS met deze eenheden werkt. Echter, omdat dergelijke hardeschijven doen alsof ze normale 512-byte sector schijven zijn door hun sectorsize te emuleren, ziet ZFS niet dat je dergelijke schijven hebt. Dit zul je dit wel moeten forceren middels de ashift setting. Dit is een vdev property maar geldt pool-wide. Dat betekent dat een bestaande pool nooit meer van ashift instelling kan veranderen. Ashift=9 wil zeggen dat de pool optimaal is voor 2^9= 512 bytes sectoren. Ashift=12 wil zeggen 2^12= 4K sectoren geoptimaliseerd.

Optimale configuraties voor 4K sector Advanced Format hardeschijven:
RAID-Z: 3, 5 en 9 disks
RAID-Z2: 4, 6 en 10 disks
RAID-Z3: 5, 7 en 11 disks

De gedachte hierachter is dat het aantal 'dataschijven' een macht van 2 is, dus 2, 4, 8, 16. Waarom? Omdat je dan een 'schoon' getal krijgt wanneer de 128KiB recordsize wordt gedeeld door het aantal schijven.

Voorbeeld: RAID-Z met 3 schijven betekent dat er twee dataschijven zijn en één parityschijf. Met een 128KiB recordsize krijgen de schijven dan 64KiB te verwerken en dat is optimaal omdat dit een veelvoud is van 4 kilobyte - de sectorsize van moderne Advanced Format hardeschijven.

Echter, heb je 4 schijven in RAID-Z dan moet die 128KB verdeeld worden over 3 schijven. Dat wordt 42.7KB per schijf. Dit betekent dat je net wat minder opslagruimte hebt omdat je het verschil tussen 42.7K en 43.0K niet kunt gebruiken (slack) maar nog belangrijker is 43K niet een veelvoud van de 4K sector size die moderne Advanced Format hardeschijven hebben.

Laatstgenoemde configuratie is dus niet optimaal wat zorgt voor tragere writes. De performancedegradatie is afhankelijk van platform en hoe goed/snel de firmware van je hardeschijven sectoren kunnen emuleren. Zo zijn nieuwere type WD EARS schijven veel sneller in sector emulatie dan de klassieke 4-platter modellen.

Hoe zit het precies met TLER-disks in combinatie met ZFS?
Voor de meeste Hardware RAID en Windows FakeRAID is TLER verplicht. Dit is een functie van de hardeschijf die de error recovery min of meer uitschakelt, door deze te beperken tot 7 seconden. Dit voorkomt dat de RAID engine de schijf uit de array gooit zodra er bad sectors gevonden worden en je met een kapotte array zit.

Bij ZFS en non-Windows software RAID is dat anders. Daar heb je geen TLER nodig om je data te beschermen. Toch kan het beperken van de timeout wel voordelen bieden door lange wachttijden bij bad sectors te voorkomen. Je videostream zou hierdoor onderbroken kunnen worden en ook Virtual Machines vinden het niet fijn als ze een tijd lang niet met hun disk kunnen communiceren. Echter, wat je met TLER hardwarematig doet, kan je operating system ook softwarematig. Zo kun je onder BSD-platform de timeout instellen, wat hetzelfde effect geeft als TLER. Andere platforms bieden mogelijk vergelijkbare functionaliteit.

TLER kan daarnaast ook heel gevaarlijk zijn. Het schakelt min of meer de 'laatste defensielinie' uit. Stel je hebt een redundante array zoals een RAID1/mirror waarbij één disk helemaal dood is. De overige disk heeft bad sectors. Dan is de recovery-functionaliteit van de hardeschijf de laatste kans om je data helemaal intact te kunnen uitlezen. In zulke gevallen is TLER zeer onwenselijk en kan een gevaar opleveren voor je gegevens. In gevallen waar je nog wel over redundantie beschikt, maakt het voor je data niet uit.

ZFS kan ook mijn SSD gebruiken voor caching en andere versnelling?
Dat klopt, je kunt een SSD gebruiken voor drie dingen:
• Een normale pool met SSDs als disk members, leuk voor systeempool en opslag van VM images en andere zaken waar je random I/O performance voor nodig hebt
• Een HDD pool waar je een SSD (partitie) als L2ARC cache device toevoegt. De SSD zal dan snippertjes data verzamelen die random worden opgevraagd, wat veel sneller is dan de HDDs laten seeken.
• Een HDD pool waar je een SSD (partitie) als SLOG ofwel Dedicated ZIL toevoegt.

SSD in een normale pool gebruiken
Je kunt SSDs prima in een RAID0 pool of een RAID-Z pool gebruiken. Denk aan opslag van VM images, als systeemdisk en andere zaken waarvoor je IOps performance nodig hebt. SSDs hebben minder last van de performancebeperkende eigenschappen van RAID-Z omdat SSDs vooral transfer-capped zijn. Dit betekent dat SSDs in een RAID-Z pool goed zou moeten presteren.

SSDs als L2ARC cache device
Door een SSD (partitie) aan een ZFS pool toe te voegen, zal deze gebruikt worden om bepaalde data op te slaan - te cachen. Wordt bepaalde data herhaaldelijk opgevraagd, dan zal deze voortaan vanuit de SSD geleverd worden in plaats van dat je je hardeschijven laat seeken. Dit werkt ongeveer zoals Intel SRT caching toevoegt op het Windows platform. Belangrijke eigenschappen van caching:
• ZFS L2ARC caching is veilig in gebruik, in tegenstelling tot alternatieven zoals Intel SRT wat corruptie op de SSD niet kan detecteren. ZFS doet dat wel en leest in dat geval van de HDD pool ipv de SSD. L2ARC is dus altijd veilig in gebruik.
• ZFS cached geen grote bestanden die sequentiëel worden opgevraagd; denk aan grote bestanden die van A tot Z worden uitgelezen. Dat kunnen hardeschijven prima en daarvoor zal de cache device niet gebruikt worden! Alleen zogenaamde non-contiguous reads ofwel random reads zullen op de SSD terecht komen. Dit kunnen kleine bestanden zijn, maar ook enorm veel fragmenten in grote bestanden. ZFS cached dus geen bestanden, maar datafragmenten. Dus de cache werkt ook prima op 20GB grote databestanden van je favoriete game, mits dat spel aan random reads doet. Een voorbeeld hiervan is World of Warcraft.
• Caching werkt alleen effectief als je een voorspelbaar gebruikspatroon hebt. Als je werkelijk willekeurig I/O zal doen, zal caching geen of nihil voordeel opleveren. Alleen als je herhaaldelijk dezelfde data raadpleegt, zal caching merkbare winst kunnen opleveren. Dit is vaak wel het geval.
• Caching geldt niet alleen voor de daadwerkelijke data, maar zeker ook voor metadata. Denk bijvoorbeeld aan random reads bij het openen van een grote directory met een heleboel bestanden. Het cachen van metadata wordt vaak over het hoofd gezien, maar telt zeker mee!
• L2ARC cache moet eerst worden opgebouwd; en wordt beperkt door de snelheid waarmee ZFS de SSD 'mag' vullen, dat is namelijk bewust gelimiteerd. Het kan dus een paar weken duren voordat je L2ARC op oorlogssterkte is.

SSD als SLOG device ofwel dedicated ZIL
Bij ZFS is de ZIL ofwel ZFS Intent Log vergelijkbaar met de journaling log van NTFS en Ext3. De ZIL is standaard ingeschakeld voor alle pools ook met een enkele disk en beschermt voornamelijk tegen het recoveren van recente writes vlak voor een stroomstoring of crash. Je hebt een ZIL niet strict nodig; ook zonder ZIL is ZFS consistent. Je zult alleen wel tot enkele minuten data verliezen evenals application consistency; later daarover meer.

Veel mensen zeggen dat ze een 'ZIL' toevoegen aan een pool. Dat is echter technisch incorrect. Je doet juist het tegenovergestelde: je schakelt de ZIL uit die op de pool staat en ook bescherming heeft die de pool zelf heeft, zoals RAID-Z. In plaats daarvan gebruik je een apart apparaat als ZIL, in een mirror configuratie of zonder bescherming. Dat is dus vrijwel altijd een achteruitgang op gebied van bescherming, al stelt dat niet zoveel voor. Maar belangrijk om te beseffen dat elke pool standaard een ZIL heeft inclusief de bescherming die de pool zelf heeft, en dat je met een dedicated ZIL ofwel SLOG (separate LOG device) die bescherming in feite outsourced aan een SSD die daar veel sneller in is. Een ZIL heb je dus normaliter altijd.

In tegenstelling tot L2ARC caching is een dedicated ZIL juist wél gevaarlijk, omdat je zoals gezegd dus een bescherming van de pool zelf uitschakelt. Daar zit hem ook de snelheidswinst: je laat je hardeschijven niet meer de ZIL functie uitvoeren met random writes maar laat een SSD (partitie) die functie uitvoeren. Een ZIL wordt alleen beschreven en nooit gelezen tenzij na een stroomstoring/crash; alleen dan zijn de gegevens nodig.

Kan ik een of meerdere SSD's voor meerdere taken gebruiken?
Jazeker. Je kunt een SSD partitioneren en gebruiken voor alle doeleinden die je wilt:
- systeem pool voor booten en wat niet
- L2ARC cache voor je grote HDD pool
- SLOG voor je grote HDD pool

Met meerdere SSDs wil je alle taken spreiden over alle SSDs. Wat je niet wilt is een SSD helemaal voor SLOG gebruiken en de ander helemaal voor L2ARC. Dan worden ze ongelijkmatig belast en haal je geen performancevoordeel wat je anders wel zou hebben. Je wilt dus juist de taken gelijkmatig verdelen over al je SSDs. L2ARC doe je altijd in striping (RAID0) terwijl SLOG je voor mirroring kunt kiezen.

Hoe groot moet ik de partities dan maken?
Stel je heb twee SSDs van 128GB, dus totaal 256GB. Op je SSD maak je dan partities aan zoals:
- partitie 1 voor systeem/boot pool: 28GiB
- partitie 2 voor L2ARC cache: 60GiB
- partitie 3 voor SLOG: 4GiB
- rest van de ruimte onbenut laten als overprovisioning (let op: de SSD mag niet gebruikt zijn anders gaat deze ruimte verloren! secure erase of TRIM erase gebruikte SSDs alvorens overprovisioning toe te passen).

Doe dit voor beide SSDs en je hebt:
- een systeem/boot pool in mirror configuratie 28GB beschikbare ruimte
- L2ARC caching met twee partities in striping = 2x 60 = 120GB
- SLOG in mirror met twee partities = 4GB

Verder lezen
• Wikipedia: ZFS
• BSD Now - ZFS

Handige tutorials:

Migreren van data binnen dezelfde pool
Upgrade van v28 naar v5000 zonder alle features te activeren
Hoe werken feature flags
ACHI SSD in FreeBSD 9.1
ZFS send/receive van en naar een bestand
Patitioneren van je SSD voor je systeem, SLOG en L2ARC (in ZFSGuru)
ZFS send/receive op een corrupte pool
Draaien op en terugzetten van een ZFS On Root backup
ZFS send/receive tussen pools
ACL + Samba voorbeeld

Aanvullingen? Laat het weten!

[FreeBSD] Compileren php56-curl tegen OpenSSL uit ports

15-09-2015 discussie 11
Ik heb een probleem met het werkend krijgen van de PHP-module 'curl' tegen de huidige versie van OpenSSL op mijn FreeBSD systeem (jail op FreeNAS).

In de ports heb ik openssl gecompiled, net als nginx, libcurl en php56. Als ik echter php56-curl compile, gaat dat goed, maar ik zie in phpinfo:quote:SSL Version OpenSSL/0.9.8zIk begrijp niet hoe hij aan deze versie blijft komen, want als ik bijvoorbeeld curl -V doe in /usr/local/bin dan komt er wel de juiste versie te staan:quote:curl 7.44.0 (amd64-portbld-freebsd9.3) libcurl/7.44.0 OpenSSL/1.0.2d zlib/1.2.8In de makefile heb ik keurig verwezen dat hij bij compilen OpenSSL uit de ports moet gebruiken.

/etc/make.conf:
code:
1 WITH_OPENSSL_PORT=yes
Als ik gewoon openssl version intyp krijg ik ook 'OpenSSL 1.0.2d 9 Jul 2015'.

Kortom, alles lijkt gewoon goed. Overal op mijn systeem staat alleen nog OpenSSL 1.0.2d maar toch weet die vervelende php56-curl module nog een oude OpenSSL versie te vinden. Hoe krijg ik hem daar vanaf?

[FreeBSD] diskless NFS, stale filehandles

14-09-2015 discussie 0
Op een FreeBSD server probeer ik diskless te werken met jails.

Elke jail heeft een NFS mount waarop deze werkt, deze bevat alle logs, bestanden, binaries, etc.

Ik krijg hier regelmatig errors:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 20723 (bash) Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 20722 (screen) Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 20723 (bash) Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 20722 (screen) Sep 14 11:48:55 host004 kernel: pid 20722 (screen), uid 0: exited on signal 11 Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 90156 (bash) Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 90152 (sshd) Sep 14 11:48:55 host004 kernel: pid 90152 (sshd), uid 0: exited on signal 11 Sep 14 11:48:55 host004 kernel: nfs_getpages: error 70 Sep 14 11:48:55 host004 kernel: vm_fault: pager read error, pid 90156 (bash) Sep 14 11:48:55 host004 kernel: pid 90156 (bash), uid 10005: exited on signal 11 (core dumped) Sep 14 11:48:55 host004 kernel: pid 20723 (bash), uid 10003: exited on signal 11 (core dumped)
De specifieke mount wordt door 1 server gebruikt. Ik kom er niet aan uit waardoor deze stale filehandles ontstaan, hierdoor ontstaat crashende applicaties.

Heeft iemand een clue waar dit in kan zitten?

m1015 ziet 2 TB schijven niet in freebsd

02-08-2015 discussie 3
Gister nieuwe M1015 binnen gekregen. Hiermee mijn highpoint 2320 vervangen.

Nu ziet hij al mijn WD Red 3 TB schijven wel, maar mijn WD Red 2 TB schijven niet.
Op het moment dat ik een 3 TB schijf vervang voor een 2 TB krijg ik deze error msg in freeBSD.

" (probe0:mps0:0:3:0): INQUIRY. CDB: 12 00 00 00 24 00 length 36 SMID 197 terminated ioc 804b scsi 0 state c xfer 0"

Kabels zijn gewoon goed. Ik heb vervolgens nog de M1015 naar LSI9211-IT mode geflashed, maar ook hier pakt hij de 2 TB schijven niet.

2 TB schijven werken wel gewoon op oude raidcontroller of via het moederbord.

Iemand enig idee waarom en hoe dit op te lossen?

[FreeNAS] Distributed computing op FreeNAS

02-06-2015 discussie 2
Ik had deze vraag ook al gesteld op het DpC forum, maar het lijkt er op dat dat toch niet helemaal de juiste plek is voor mijn vraag.

Ik zet mijn PC al een tijdje af en aan in voor folding@home voor DpC. Nu ben ik voor het eerst aan het spelen met FreeNAS en zou de tijd dat de fileserver uit zijn neus staat te eten weer voor DC willen inzetten. Ik heb geprobeerd de handleiding van FaH voor FreeBSD te volgen, maar krijg de installatie niet voor elkaar (ben ook nog een Linux noob).

Heeft er iemand een FreeNAS (of freeBSD) server ingezet voor distributed computing?
Welke projecten werken het beste?
En hoe zorg ik er voor dat de CPU cycles het beste gebruikt kunnen worden?

[FreeBSD] toepassen wlan driver revision

31-05-2015 discussie 5
Laat ik beginnen met te zeggen dat ik niet heel erg thuis ben in de Unix / Linux wereld. Dus wellicht gaat er wel iets heel triviaals fout.

Maar uit nieuwschierigheid heb ik met de hulp van onder andere deze tutorial (niet helemaal strikt gevolgd) pas geleden FreeBSD geïnstalleerd.

Omdat de prestaties van mijn RTL8188EU wlan adapter zwaar onder de maat zijn ben ik even een dagje flink gaan googlen en daarom probeer ik nu deze revision toe te passen.

De bestanden van de revision heb ik gekopieerd naar /usr/src/sys/dev/usb/wlan. In de terminal navigeer ik daarna naar /usr/src/sys/modules/usb/urtwn en geef ik het commando 'make install'.

Maar dit resulteert in de volgende foutmelding:quote:install -o root -g wheel -m 555 if_urtwn.ko /boot/kernel
install: if_urtwn.ko: No such file or directory
*** Error code 71

Stop.
make: stopped in /usr/src/sys/modules/usb/urtwnWaar gaat het, of wat doe ik, fout? Ik ben inmiddels wel een beetje uit gegoogled.

Waarschijnlijk een gevalletje 'so close and yet so far'

Distributed computing op FreeNAS

26-05-2015 discussie 0
Ik zet mijn PC al een tijdje af en aan in voor folding@home voor DpC. Nu ben ik voor het eerst aan het spelen met FreeNAS en zou de tijd dat de fileserver uit zijn neus staat te eten weer voor DC willen inzetten. Ik heb geprobeerd de handleiding van FaH voor FreeBSD te volgen, maar krijg de installatie niet voor elkaar (ben ook nog een Linux noob).

Heeft er iemand een FreeNAS (of freeBSD) server ingezet voor distributed computing?
Welke projecten werken het beste?
En hoe zorg ik er voor dat de CPU cycles het beste gebruikt kunnen worden?

FreeBSD: NTFS-3g mount ntfs schijf niet.

29-03-2015 discussie 3
Ik kan op het moment een ntfs schijf niet mounten op mijn freebsd systeem. Ik krijg de volgende error:
code:
1 2 3 ntfs-3g /dev/da0s1 /mnt/ntfs -o rw mount_fusefs: /dev/fuse0 on /mnt/ntfs: Operation not supported fuse: failed to mount file system: No such file or directory
Wat heb ik zelf geprobeerd:

1. mount -t ntfs ==> werkt maar is read only
2. kldstat ==> fuse.ko geladen
3. /mnt/ntfs bestaat als directory, maar ook directory /mnt geprobeerd, maakt allemaal niet uit.
4. fuse is de laatste versie
5. -o Force ==> maakt geen verschil
6. run as root ==> maakt verder niets uit, zelfde problemen.

Ik heb verder rond gekeken, maar niemand heeft precies dit probleem. Vaak ziet men dit als er een rechten issue is (i.e. als je geen super user bent), maar dat is hier niet het geval.

Iemand enig idee?

[NAS4Free] Samba shares na reboot ontoegankelijk

17-02-2013 discussie 2
Na reboot van mijn NAS4Free virtuele machine onder ESXi (na 50 dagen uptime) kan ik niet meer verbinden met de Samba shares vanaf Windows, Linux en OSX.

Wanneer ik de share via OSX wil benaderen krijg ik de melding dat "Het originele onderdeel van 'X' onvindbaar is.". Windows geeft een soort gelijke melding.

smbd[4820]: canonicalize_connect_path failed for service <sharenaam>, path <pad> smbd[4820]: [2013/02/16 18:24:08.403256, 0] smbd/service.c:1055(make_connection_snum)

Ik heb al wat Google werk verricht daaruit komen 2 oorzaken:
1. iets met rechten op de mappen, kan kloppen. Via de Filemanager kan ik de shares ook niet meer onder /mnt/* zien.
2. iets wat te maken heeft met het toevoegen van ./ en ../ om door de mappen te navigeren.

Wanneer ik via de Shell naar de /mnt/* map navigeer kan ik wel de datasets zien, maar niet de shares zelf. Hoewel de harddiskruimte op het dashboard onveranderd is, kan ik de data zelf niet zien omdat deze op de shares staan.

Ik heb al geprobeerd nas4free te updaten naar de laatste versie, dat mocht niet helpen. Daarnaast heb ik de Shares ook al eens geprobeerd aan te passen door geust access aan te zetten. Ook meermaals de service en de server opnieuw gestart, mocht allemaal niet baten, service start gewoon op, maar de shares blijven ontoegankelijk/weg. Ook wanneer ik deze bekijk via de shell. Ik heb ook al gekeken of de virtuele of harddisk vol zat, dat is niet het geval. Ook zijn de logfiles van "normale" grootte. Als ik de datasets controleer op fouten zie ik geen errors staan, SMART status is normaal en via de shell kan ik op de betreffende dataset gewoon een map maken, daar wat in zetten en weer verwijderen.

Ik hoop dat iemand mij hiermee kan helpen. Het is nogal een vervelend probleem, welke ik graag snel opgelost zie.

[FreeBSD/UNIX] Feedback omtrent opzetten van shares

11-01-2013 discussie 20
Ik heb al een tijdje naar alle tevredenheid een NAS draaien op basis van ZFSguru... So far so good, ik ben er ondertussen wat bekend mee en hij draait "in productie".

Het enige nadeel op dit moment is het feit dat mijn shares niet zo goed zijn afgeschermd. In die zin dat shares publiekelijk/anonymous toegankelijk zijn... Ondertussen mijn kennis van UNIX permissies weer wat opgepoetst, te weten gekomen dat voor een folder te accessen je ook +x moet hebben enz...

Nu had ik graag het volgende "principe" opgezet:

2 entiteiten: Bart en "de rest".

De rest zijn gezinsleden, zoals mijn vriendin of vader of broer.

Het komt er op neer dat ik altijd en overal toegang moet tot hebben en nergens door gehinderd wil worden. De groep "rest" wil ik op bepaalde shares dezelfde rechten als mezelf geven, en op andere shares alleen lees en op nog andere shares geen toegang... Wel wil ik, dat alle files, door wie dan ook aangemaakt, dit schema ook volgen... Dwz, ook al maakt root een file of map aan, ik wil dat deze de bovenstaande constraints in acht neemt. Hoe ik dit doe op fileniveau heb ik nog niet door. Hoe ik dit bewerkstellig via Samba denk ik wel, en dat zou dan met het Samba create mask zijn...

Ik heb me ondertussen wat ingelezen in de sticky bit/GUID/SUID (begrijp ze nog niet volkomen, maar ik ben wel zover dat ik dit volgens mij niet nodig heb).

Nu zie ik eigenlijk door de bomen het bos niet meer en vroeg me af wat ik nu moet configureren:

Umask? sticky bit? Create mask? Security mask?

Of ik heb enkele principes niet door en haal dus nu alles door mekaar of ik ken de componenten nog niet goed genoeg om tot een oplossing te komen, in ieder geval had ik graag jullie oerduidelijk Nederlandse uitleg gehad en hierover een discussie gestart waarom ik voor een bepaald iets moet kiezen of net niet...

C/GTK/FreeBSD - waar vind ik de locatie van de te openen dir

22-12-2012 discussie 3
Hallo,

Ik ben aan het knoeien met een stuk software uit de FreeBSD ports: x11/libfm. Dit is de ondersteunende library van de PCmanfm filemanager.
Een leuke eigenschap van PCmanfm is dat ie ook in "desktop-mode" kan draaien, dwz hij kan de X.org/openbox desktop hetzelfde behandelen als een folder. Je kan bestanden en directories slepen of aanmaken en er is een programmeerbaar right-click menu.
Wat ik nu wil (het is vergezocht maar ik doe een poging) is die PCmanfm blijven gebruiken maar alleen voor die desktop-mode. De filemanager x11-fm/xfe moet de normale vensters gaan verzorgen.

Het probleem is dus dat PCmanfm zelf xfe moet opstarten als er op een desktop directory wordt geklikt. Oorspronkelijk startte hij een fork van zichzelf op in een nieuw venster met de betreffende directory.

In de libfm source heb ik het stukje code daarvoor gevonden:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 // deel van bestand fm-file-launcher.c if(folders) { folders = g_list_reverse(folders); if(launcher->open_folder) { launcher->open_folder(ctx, folders, user_data, &err); if(err) { if(launcher->error) launcher->error(ctx, err, user_data); g_error_free(err); err = NULL; } } g_list_free(folders); } return TRUE;
Hier wordt een nieuw pcmanfm venster gestart in de directory die waarschijnlijk in de "folders" parameter zit bij de aanroep launcher->open_folder(ctx, folders, user_data, &err);
Met de g_debug() functie kan ik tussentijdse info naar stdout sturen en met system() kan ik xfe opstarten vanuit een C-programma.

Eerste aanpassing:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 if(folders) { folders = g_list_reverse(folders); if(launcher->open_folder) { // we hebben hier dus de die directory locatie nodig. Xfe opent zo altijd // in de directory van waaruit X.org is gestart. // call naar pcmanfm alvast vervangen met kaal shellcommando voor xfe // launcher->open_folder(ctx, folders, user_data, &err); system ("/usr/local/bin/xfe"); // proberen met g_debug de benodigde info op stdout te krijgen (tevergeefs, dit is niet leesbaar): g_debug("ctx: %s", ctx); g_debug("folders: %s", folders); g_debug("user_data: %s", user_data); if(err) { if(launcher->error) launcher->error(ctx, err, user_data); g_error_free(err); err = NULL; } } g_list_free(folders); } return TRUE;
De console output daarvan na een run:
(onderaan de g_debug output, die missende icons zijn niet van belang.)
code:
1 2 3 4 5 6 7 ** (pcmanfm:11606): DEBUG: adding new FmBackgroundCache for /usr/MBSD/wallpapers/freebsd.jpg ** (pcmanfm:11606): DEBUG: unable to load icon . GThemedIcon text-plain gnome-mime-text-plain text-x-generic application-x-executable ** (pcmanfm:11606): DEBUG: unable to load icon . GThemedIcon folder inode-directory gnome-mime-inode-directory inode-x-generic ** (pcmanfm:11606): DEBUG: unable to load icon . GThemedIcon folder inode-directory gnome-mime-inode-directory inode-x-generic ** (pcmanfm:11606): DEBUG: ctx: ** (pcmanfm:11606): DEBUG: folders: \xb0\xe0D\u0007\u0008 ** (pcmanfm:11606): DEBUG: user_data: \xa0\x80G\u0007\u0008
Wat ik nou niet voor elkaar krijg is die directorynaam leesbaar maken. De bedoeling is dat die system() aanroep een string krijgt als "/usr/local/bin/xfe <pad>"
Greppen naar "launcher" en "open_folders" in andere libfm source bestanden levert een hoop hits op, maar ik kan er niet achter komen hoe die data in (volgens mij) de "folders" parameter eruit ziet om dat vervolgens in een normale string te krijgen.
Ergens heb ik het idee dat ik een goeie C-GUI nodig heb die types en structs e.d. automatisch erbij zoekt. Tot nu toe ben ik alleen in terminals bezig. Heeft er iemand goeie raad m.b.t. hoe nu verder te gaan?

[FreeBSD] FireFly svn-1696 en iTunes 10.5.1+

07-11-2012 discussie 6
Beste tweakers,

Sinds gisteren probeer ik mt-daapd (FireFly svn-1696) op FreeBSD te laten werken met iTunes 10.7.3. FireFly zou officieel sinds iTunes 10.5.1 niet meer werken naar behoren, met symptomen zoals "het blijven laden" van de share. Toch zijn er een aantal patches beschikbaar, o.a. voor FreeBSD, die FireFly wel weer functioneel zouden krijgen: FreeBSD Forum.

Op het FreeBSD forum (bovenstaande link) wordt er vermeld dat de patch reeds is opgenomen in de FireFly port. Dat verklaart dan ook waarom het niet lukte de patch uit te voeren; het bestand $/plugins/out-daap.c
was namelijk nergens te bespeuren.

Als de patch reeds is toegepast, waarom werkt het dan nog steeds niet vanaf iTunes 10.5.1 (10.7.3 huidig)?
Met versie 10.4.1 (virtuele machine) kon ik de FireFly server zonder problemen benaderen, wat er dus op wijst dat er niets mis is met mijn configuratie.

Als ik in de logboeken kijk, dan zie ik volgende foutmelding steeds opnieuw verschijnen (zonder enige onderbreking vanaf de server operationeel is). Het lijkt wel alsof FireFly er niet in slaagt gegevens uit de database op te halen (select).
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 2012-10-19 20:27:32 (48b335ab): timeout in select 2012-10-19 20:27:32 (57e51b74): timeout in select 2012-10-19 20:27:33 (48b335ab): timeout in select 2012-10-19 20:27:33 (57e51b74): timeout in select 2012-10-19 20:27:34 (48b335ab): timeout in select 2012-10-19 20:27:34 (57e51b74): timeout in select 2012-10-19 20:27:35 (48b335ab): timeout in select 2012-10-19 20:27:35 (57e51b74): timeout in select 2012-10-19 20:27:36 (48b335ab): timeout in select 2012-10-19 20:27:36 (48b335ab): Thread 1173: could not read: Operation timed out 2012-10-19 20:27:36 (57e51b74): timeout in select 2012-10-19 20:27:37 (57e51b74): timeout in select 2012-10-19 20:27:38 (57e51b74): timeout in select 2012-10-19 20:27:39 (57e51b74): timeout in select
FreeNAS, de afgeslankte NAS versie van FreeBSD, heeft sinds versie 8.2 een pluginsysteem met o.a. FireFly. Deze werkte echter wel met mijn huidige versie van iTunes.

[Apache 2.2] Error: verification of user id not configured

06-11-2012 discussie 1
Beste tweakers,

Al een aantal dagen heb ik problemen bij het configureren van basis authenticatie voor Apache 2.2 op FreeBSD 9.0. Het venster dat vraagt om authenticatie komt op het scherm, maar daar blijft het dan ook bij. Wat ik ook doe, ik krijg steeds de volgende foutmelding (in debug mode): "[Mon Nov 05 16:57:05 2012] [error] [client 192.168.1.1] access to / failed, reason: verification of user id 'admin' not configured".

Ik heb sterk het vermoeden dat de server het htpasswd bestand niet kan vinden of lezen, ook al heb ik deze chmodded naar 777. Het probleem doet zich voor bij zowel het gebruik van .htaccess als bij het gebruik van <directory> of <location> in httpd.conf. Mijn httpd.conf is als volgt:https://www.dropbox.com/s/e4a6s9bz7wnjq1v/httpd.conf

(Ik weet dat dit niet de veiligste configuratie is, maar het gaat immers over een eenvoudige testopstelling)

Het htpasswd bestand is aangemaakt met het htpasswd commando van Apache:
code:
1 htpasswd -c /usr/local/etc/apache22/htpasswd admin
Update: Indien ik Apache installeer zonder extensies (PHP, MySQL...) dan lijkt alles normaal te werken. Vervolgens heb ik op dezelfde virtuele machine de opstelling van mijn server gereproduceerd en tot mijn verbazing kwam dezelfde foutmelding weer opduiken.

Daarom lijkt het me verstandig om even alle informatie over de geënstalleerde software op een rijtje te zetten (alles is geinstalleerd via de ports collectie):

MySQL55-server & MySQL55-Client
=> default opties

Apache 2.2AUTHN_DBD DBD MYSQL SUEXECPHP 5.2.17APACHE CGI CLI FASTCGI MULTIBYTE PATHINFO SUHOSINPHP ExtensionsBZ2 CTYPE CURL DBA DOM FILEINFO FILTER FRIBIDI FTP GD GMP HASH ICONV JSON LDAP MBSTRING MYCRYPT MYSQL OPENSSL PCRE PDO PDO_SQLITE PDO_MYSQL POSIX SESSION SIMPLEXML SOCKETS SPL SQLITE TOKENIZER XML XMLREADER XMLWRITER ZIP

[PHP - FreeBSD] WebGUI met shutdown pagina

31-10-2012 discussie 5
Beste tweakers

Ik heb voor FreeBSD en soort van "mini" GUI ontwikkeld waarvan het systeem o.a. uitgeschakeld of gereboot kan worden. Met JavaScript heb ik een event listener gezet op de buttons in kwestie. Als er op geklikt wordt, dan komt een venster tevoorschijn die vraagt om confirmatie. Indien ja, zal er een nieuwe webpagina geopend worden die een paragraaf weergeeft "System - Shutdown" of "System - Reboot".

Het systeem op deze manier afsluiten of heropstarten is op zich geen probleem, maar wel het laden van de pagina zelf. Omdat het shutdown & reboot commando via PHP uitgevoerd wordt in de body van het HTML document, kan de rest niet meer geladen worden. Aanroepen vanaf een extern script heeft ook niet veel zien aangezien de pagina zal wachten tot het script uitgevoerd is.

[FreeBSD 9.0] Sudo & Apache22

31-10-2012 discussie 4
Beste tweakers

Op mijn FreeBSD server heb ik een webserver (Apache22) draaien die moet fungeren als een soort van GUI. Het is de bedoeling dat ik bepaalde harde schijven in standby kan zetten, de server kan uitschakelen of rebooten en bepaalde services kan aan- of uitzetten.

Om de www gebruiker, waar de child processen van Apache immers onder draaien, rechten te geven tot de nodige commando's gebruik ik Sudo met behulp van de PHP functie shell_exec();.

Het eigenaardige aan de zaak is dat initieel bij het opstarten van de FreeBSD, Sudo niet wil werken onder de www gebruiker. Ook niet de commando's die gelinkt zijn aan geïnstalleerde ports zoals Ataidle of Smartmontools. Echter nadat ik Apache herstart (/usr/local/etc/rc.d/apache22 restart), dan lijken Sudo en de andere commando's wel te werken.

Hoe is dit mogelijk? Uiteindelijk maakt het toch geen verschil of Apache opgestart wordt bij het booten of manueel? Ik kan natuurlijk permanent een script schrijven zodat steeds Apache herstart, maar dat lijkt me niet echt de bedoeling en eerder omslachtig.

[ProFTPd] FTP op FreeBSD jail onbereikbaar via internet

13-10-2012 discussie 6
Beste tweakers,

Op mijn FreeBSD (thuis)server heb ik een jail draaien die een aantal "publieke services" moet verzorgen, namelijk een webserver (Apache) en een FTP server (ProFTPd). Lokaal kan ik beiden zonder problemen bereiken, maar wanneer ik de FTP server van buitenaf wil bereiken dan loopt het mis.

Het ligt alleszins niet aan mijn port forwarding; de webserver is perfect bereikbaar buiten het lokale net. Het is ook zeker dat de poort niet reeds in gebruik is (2124), aangezien het met andere poorten ook niet lijkt te werken. De DNS instellingen van de jail zijn ook niet de boosdoener want het is mogelijk om te verbinden met de FTP server van FreeBSD zelf (packages/ports).

De (anonieme) ProFTPd configuratie is reeds werkend getest op het host systeem:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 # # *** ProFTPd Anonymous FTP Configuration *** # ServerName "CP17 Mainserver Anonymous FTP" ServerType standalone DefaultServer on Port 2124 PassivePorts 2123 2125 UseIPv6 on MaxInstances 30 MaxClients 50 MaxConnectionsPerHost 5 MaxLoginAttempts 3 TimeoutIdle 600 TimeoutLogin 300 TimeoutNoTransfer 300 TimeoutStalled 3600 DefaultTransferMode ascii SyslogFacility ftp DeferWelcome off MultilineRFC2228 off IdentLookups off UseReverseDNS off AllowOverride off <Limit LOGIN> AllowAll </Limit> <Global> RequireValidShell off DefaultRoot ~ !wheel AllowOverwrite on AllowRetrieveRestart on AllowStoreRestart on DeleteAbortedStores off TimesGMT off </Global> <Anonymous /mnt/public_files> User ftp Group ftp UserAlias anonymous ftp <Directory /mnt/public_files> <Limit WRITE> DenyAll </Limit> </Directory> <Directory /mnt/public_files/Media> <Limit WRITE> DenyAll </Limit> </Directory> <Directory /mnt/public_files/Public> <Limit WRITE> AllowAll </Limit> </Directory> <Directory "/mnt/public_files/Shared Files"> <Limit WRITE> DenyAll </Limit> </Directory> <Directory /mnt/public_files/Software> <Limit WRITE> DenyAll </Limit> </Directory> <Limit LOGIN> AllowAll </Limit> </Anonymous> <IfModule mod_ban.c> BanEngine off BanControlsACLs all allow group wheel BanLog /var/log/proftpd/ban.log BanMessage Host %a has been banned BanTable /var/run/proftpd/ban.tab </IfModule> <IfModule mod_delay.c> DelayEngine on DelayTable "/var/run/proftpd/proftpd.delay" </IfModule> <IfModule mod_wrap.c> TCPAccessFiles /etc/hosts.allow /etc/hosts.allow TCPAccessSyslogLevels info warn TCPServiceName ftpd </IfModule> <IfModule mod_auth_pam.c> AuthPAM off </IfModule>
Ik weet dat jails extra ingebouwde beveiligingen hebben waardoor de toegang tot de FTP server eventueel geblokkeerd zou kunnen worden, maar de vraag is dan waarom de webserver dan wel toegang krijgt.

Mijn netwerkinstellingen van de host zijn als volgt:
code:
1 2 3 4 5 6 7 8 9 re0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500 options=389b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,WOL_UCAST,WOL_MCAST,WOL_MAGIC> ether 6c:62:6d:e6:13:12 inet 192.168.1.30 netmask 0xffffff00 broadcast 192.168.1.255 inet6 fe80::6e62:6dff:fee6:1312%re0 prefixlen 64 scopeid 0x2 inet 192.168.1.31 netmask 0xffffffff broadcast 192.168.1.31 nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL> media: Ethernet autoselect (1000baseT <full-duplex>) status: active
En van de jail:
code:
1 2 3 4 5 6 7 re0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500 options=389b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,VLAN_HWCSUM,WOL_UCAST,WOL_MCAST,WOL_MAGIC> ether 6c:62:6d:e6:13:12 inet 192.168.1.31 netmask 0xffffffff broadcast 192.168.1.31 ifconfig: socket(AF_INET6, SOCK_DGRAM): Protocol not supported media: Ethernet autoselect (1000baseT <full-duplex>) status: active
Beiden zitten dus op dezelfde interface en op hetzelfde netwerk (192.168.1.0/24).

[ProFTPd] 530 Login Incorrect bij anonieme authenticatie

10-10-2012 discussie 6
Beste tweakers,

Gisteren heb ik een aantal FreeBSD jails aangemaakt die dienst moeten doen voor bepaalde zaken zoals Apache, MySQL, PHP en FTP. Hierbij heb ik helaas een aantal problemen bij opstellen van ProFTPd.

Als ik anoniem probeer in te loggen via FileZilla krijg ik steeds "530 Login incorrect" en bij gelijk welke browser komt er een scherm tevoorschijn dat vraagt om authenticatie. Ik weet dat voor anonieme authenticatie een specifieke gebruiker en groep gedefinieerd moet worden en in mijn geval is dat logischerwijze ftp en ftp. Deze staan dan ook vermeld in mijn proftpd.conf bestand:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 # # *** ProFTPd Public FTP Configuration *** # ServerName "Mainserver Public FTP Server" ServerType standalone DefaultServer on Port 2124 PassivePorts 2123 2125 UseIPv6 on AllowForeignAddress on TimeoutIdle 600 TimeoutLogin 300 TimeoutNoTransfer 300 TimeoutStalled 3600 MaxInstances 30 MaxClients 50 MaxConnectionsPerHost 5 MaxLoginAttempts 3 DefaultTransferMode ascii AllowOverwrite on AllowRetrieveRestart on AllowStoreRestart on DeleteAbortedStores off RequireValidShell off <Anonymous /mnt/public_files> User ftp Group ftp UserAlias anonymous ftp <Directory /mnt/public_files/Media> <Limit WRITE> DenyAll </Limit> </Directory> <Directory /mnt/public_files/Public> <Limit WRITE> AllowAll </Limit> </Directory> <Directory "/mnt/public_files/Shared Files"> <Limit WRITE> DenyAll </Limit> </Directory> <Directory /mnt/public_files/Software> <Limit WRITE> DenyAll </Limit> </Directory> <Limit LOGIN> AllowAll </Limit> </Anonymous>
De melding van FileZilla:
code:
1 2 3 4 5 6 7 8 9 Status: Verbinden met 192.168.1.32:2124... Status: Verbinding aangemaakt, welkomstbericht afwachten... Antwoord: 220 ProFTPD 1.3.4b Server (Mainserver Public FTP Server) [192.168.1.32] Commando: USER anonymous Antwoord: 331 Anonymous login ok, send your complete email address as your password Commando: PASS ************** Antwoord: 530 Login incorrect. Fout: Fatale fout Fout: Kan niet verbinden met server
Een probleem i.v.m. permissies kan het alleszins al niet zijn; voor de zekerheid is /mnt/public_files op rwxrwxrwx (777) ingesteld. De gebruiker ftp zit ook niet in het /etc/ftpusers bestand, dus dat kan het probleem ook niet zijn.

Wat ik me wel afvraag (en nergens kan terugvinden) is of ik voor ftp een wachtwoord moet specificeren zoals gebruiker@domein.tld. Wat me ook onduidelijk is, is of er ergens in FreeBSD een e-mail adres gekoppeld moet worden aan de server (om FTP anoniem te laten inloggen).

[FreeNAS 7] SFTP met Ban Module mogelijk?

04-10-2012 discussie 0
Ik heb een SFTP server die FreeNAS 7 draait.
Bij FTP is het mogelijk om in het FTP configuratiescherm de Ban Module te gebruiken en hierdoor een trigger te configureren zodanig dat een gebruiker na een specifiek aantal verkeerde inlogpogingen gebanned wordt.

SFTP (FTP over SSH) heeft deze configuratie mogelijkheden niet op het SSH scherm staan.

Mijn vraag:
Is het mogelijk om de BAN Module te gebruiken als gebruik wordt gemaakt van SFTP ipv FTP?
Of is het op een andere wijze mogelijk om na een specifiek aantal foutieve logins van een gebruiker, deze gebruiker te bannen?

Ik heb reeds gezocht met google en op forums gelezen, maar ik kan hier weinig over vinden, te meer ik een oudere versie van FreeNAS gebruik.

[FreeNAS] Mount point verschijnt weer na reboot

29-08-2012 discussie 2
Ik draai FreeNAS versie 0.7.2 Sabanda (revision 8191)

In de loop van de tijd heb ik het mount point veranderd op de server.
Nu wil ik de oude mount point verwijderen, met de commando's:

umount /mnt/ftp
rmdir /mnt/ftp

Hiermee is het mount point verdwenen zoals verwacht en gewenst.

Maar als ik FreeNAS reboot, dan is het mount point /mnt/ftp er opeens weer.

Mijn vraag:
Hoe zorg ik er voor dat een verwijderd mount point niet meer opnieuw wordt aangemaakt na een reboot van het systeem?

@Allen: Dank voor de replies.

Oplossing:
Het mount point kwam na iedere reboot terug omdat een van de gebruikers op de server nog als Homedir "/mnt/ftp" had.
Na deze een ander mount point gegeven te hebben en dan het commando rmdir /mnt/ftp uit te voeren, loste het probleem op.

@Mod: Topic kan op slot.

[FreeNAS] Waarden Proftpd.conf word overruled

25-08-2012 discussie 2
Ik draai een FTP server met FreeNAS versie 0.7.2 Sabanda (revision 8191)
Hierbij gebruik ik FTP over SSL (Explicit verbinding)

Cerificaat aanmaken is gelukt met OpenSSL.

Echter als ik inlog met een FileZilla Client krijg ik de volgende foutmelding:

425 Unable to build data connection: Operation not permitted

Na veel googlen en forum berichten lezen is het toevoegen van de volgende optie aan de TLSOptions Parameter in het proftpd.conf bestand, de oplossing voor dit probleem:

TLSOptions NoSessionReuseRequired

Echter als ik deze optie toevoeg aan mijn proftpd.conf bestand, wordt deze wel opgeslagen (zie ik na een reboot ook aan de modification date \ time.

Maar als ik het bestand weer via de ingebouwde file editor van FreeNAS open zie ik de TLSOptions weer op de default waardes staan.

Dit bovenstaande heb ik ook geprobeerd via de Auxiliary parameters edit box op het FTP Service invoerscherm.
Resultaat is hetzelfde.

Zoals gezegd, lijkt het proftpd bestand wel opgeslagen te worden gezien de gewijzigde modification date \ time.

En vermoed ik dat er een ander proftpd bestand is dat tijdens booten geladen worden en waaruit proftpd zijn instellingen weer uit overneemt. (en hierbij de veranderde waardes overruled.)

Mijn vragen zijn:

1. Is een van jullie bekend met dit probleem bij FreeNAS 0.7.2?
2. Klopt mijn vermoeden dat proftpd.conf wordt opgebouwd met instellingen uit een ander proftpd bestand?
3. Welk bestand moet ik editen om de parameter TLSOptions NoSessionReuseRequired actief te krijgen elke keer dat FreeNAS boot?

Edit:
@Brahiewahiewa: Bedankt voor je suggestie, ik ga het meteen proberen, ik ben al blij dat ik weer een aanknopingspunt heb om mee door te experimenteren

@johnkeates: Ook bedankt voor je reply, ik ben begonnen met SSH over FTP (SFTP) maar hier liep ik tegen het probleem aan dat het voor mij erg tijdrovend was om CHROOT voor users goed geconfigureerd te krijgen. De permissies lagen niet goed en hierdoor was inloggen onmogelijk.

pfSense - Netbook op Internet via Access Point -> pfSense?

08-08-2012 discussie 2
Doel:
-------------------------------------------------------------------------------------------------------------------------------------
Via mijn netbook -> access point -> router -> modem op internet komen.

Probleem:
-------------------------------------------------------------------------------------------------------------------------------------
Netbook komt niet via de pfsense router op Internet.

Netwerk topologie:
-------------------------------------------------------------------------------------------------------------------------------------
Internet -> Modem -> Router -> WAN Interface (IP via DHCP van ISP)
-> LAN Interface (192.168.1.1) -> Switch -> PC (192.168.1.3)
-> DMZ Interface (192.168.2.1) -> FTP (192.168.2.2)
-> WIFI Interface (192.168.3.1) -> Access Point (192.168.3.2) met Gateway 192.168.3.1 -> Netbookje (192.168.3.3) met gateway 192.168.3.2

Hardware:
-------------------------------------------------------------------------------------------------------------------------------------
Wyse Winterm Thin Client, met een Sun Microsystems Quad NIC
3COM Office Connect Access Point

Software:
-------------------------------------------------------------------------------------------------------------------------------------
Router (pfSense 2.0.1 RELEASE i386)
Firewall Rule ingesteld op de WIFI Interface: (WIFI dataverkeer mogelijk maken van en naar elk subnetwerk)

ID Proto Source Port Destination Port Gateway Queue Schedule Description
* * * * * * none Anti-Lockout Rule

Wat gaat wel:
-------------------------------------------------------------------------------------------------------------------------------------
1. vanaf mijn netbook kan ik pingen naar mijn access point
2. Mijn netbook maakt probleemloos connectie met de access point
3. Ik zie mijn netbook netjes verschijnen in de ARP tabel in de pfSense router.
4. WAN, LAN en DMZ werken naar behoren.
5. Pingen vanaf pfsense router naar www.google.nl

Wat gaat niet:
-------------------------------------------------------------------------------------------------------------------------------------
1. pingen naar mijn pfsense router
2. pingen vanaf mijn netbook naar www.google.com
3. pingen van mijn PC op het LAN netwerk naar mijn netbook in het WIFI netwerk.
4. pingen van pfsense router naar netbook
5. pingen van pfsense router naar access point

Wat heb ik zelf al geprobeerd:
-------------------------------------------------------------------------------------------------------------------------------------
1. Veel gegoogled naar soortgelijke opstellingen, routes en firewall rules.
2. Het pfSense Cookbook doorgenomen.
3. Heel veel geexperimenteerd met verschillende instellingen op zowel de router als de access point.
4. Op de site van pfsense forums bezocht en instructie filmpjes gekeken.

Opmerkelijk:
-------------------------------------------------------------------------------------------------------------------------------------
1. Mijn netbook krijgt wel een ip van de pfsense router, maar ik kan vanaf mijn netbook niet mijn router pingen (terwijl mijn netbook wel in de ARP tabel zichtbaar wordt.)

Vraag:
-------------------------------------------------------------------------------------------------------------------------------------
Wie weet wat ik moet doen om mijn netbookje via mijn access point die aangesloten is op mijn pfsense router op internet te laten komen?

Update:

Ik heb de network setup omgezet naar static IP's
En na enkele tests blijkt, dat ik wel draadloze verbinding heb naar de Access Point.
En ik kan vanaf mijn pfsense router naar www.google.nl pingen.

Het probleem zit echt in de data overdracht tussen het access point en de router interface (tussen 192.168.3.2 en 192.168.3.1)

Update:
Na veel experimenteren, bleek dat een extra static route leggen tussen mijn access point en de router de oplossing was.
Ik heb het topic geupdate, met als doel dat anderen ook wat met deze oplossing kunnen.
Let hierbij wel goed op dat je de rules van je firewall aanpast en niet zoals hierboven vermeld al het netwerkverkeer toelaat.

Bedankt voor de suggesties.
Dit topic kan op slot.

Computer hangt in post scherm na FreeBSD install

18-02-2012 discussie 17
Vandaag heb ik FreeBSD 9.0 op mijn Western Digital WD2000JB geïnstalleerd via de memstick image op computer 1. Dat ging helemaal goed maar na de reboot bleef de computer hangen in het post scherm waarin je op del of F11 kan drukken voor oa je bios. De computer reageert echter totaal niet op de del of F11 toets.

Na alle kabels en kaarten gecontroleerd te hebben en ook ander kabels geprobeerd te hebben, bleef de fout bestaan. Vandaar switchte ik naar computer 2 en daar boot FreeBSD als een zonnetje van dezelfde HD!

Computer 1 komt wel door het post scherm als ik de HD voeding loskoppel. Dan eindige hij met de melding dat hij geen besturingssysteem kan vinden, zoals het hoort.

Computer 1:
- MSI K8N Neo4 Platinum
- 2 x 515 MB

Computer 2:
- MSI K7T Turbo
- 2 x 256 MB

Kan computer 1 niet overweg met de FreeBSD partition table? Klinkt deze wazige foutmelding bekend? En wat kan ik er aan doen?

RAID configuratie herstellen (FreeNAS)

19-12-2011 discussie 1
Ik heb dezelfde vraag gesteld op het FreeNAS forum, maar krijg geen reactie meer: https://sourceforge.net/apps/phpbb/freenas/viewtopic.php?f=65&t=12363
Ik heb het even in het nederlands gezet en hoop dat er een tweaker mij kan helpen.
De afbeeldingen heb ik aangepast volgens de tweakers faq, klikken op de afbeelding om een grotere leesbare versie te zien.

Hallo,

Ik heb wat problemen met de RAID configuratie van mijn NAS server (FreeNAS) na het vervangen van het moederbord.
Het moederbord (Intel DG45FC) was nog in garantie, dus ik heb het vervangen door exact hetzelfde model, Ik heb alles dan ook op exact dezelfde wijze aangesloten, FreeNAS is geïnstalleerd op een USB stick. Het eerst wat ik gedaan heb is het aanpassen van datum en tijd in de bios en de opstartinstellingen naar USB gezet. edit:
Daar ben ik wel in de fout gegaan, de bios ging uit van een engelse notatie (mm/dd/yyy), dat is verholpen maar de problemen blijven hetzelfde
FreeNAS start mooi op, herkent de schijven maar kan ze niet meer lezen (4 disks, 2 x Samsung Spinpoint 2TB (RAID 1), 2 x Samsung Spinpoint 500GB (RAID1)), ik begrijp niet wat er aan de hand is.
Zo ziet het eruit:

Status->System


Disks->Management

Alle schijven zijn 'ONLINE'

Disks->Software-Raid->Management


Disks->Software-Raid->Info


Disks->Software-Raid->Tools

Ik kan ad5 en ad7 selecteren voor 'Disk'


Ik kan ad4 en ad6 selecteren voor 'Disk'

Iemand vroeg me te zoeken naar een txt bestand met de configuratie, dit is mijn antwoord:

Ik kon geen txt bestand vinden, wel dit: config.xml
Dit is een stuk uit dat bestand met de configuratie van de schijven (lijkt in orde voor mij):
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 <disks> <disk> <uuid>7f6e55f7-8afb-4f85-b300-aaf7a9267e3b</uuid> <name>ad4</name> <devicespecialfile>/dev/ad4</devicespecialfile> <harddiskstandby>30</harddiskstandby> <acoustic>0</acoustic> <fstype>softraid</fstype> <apm>0</apm> <transfermode>auto</transfermode> <type>IDE</type> <desc>Samsung Spinpoint 2TB</desc> <size>1907730MB</size> <smart> <extraoptions/> </smart> </disk> <disk> <uuid>19426739-4b30-49db-bca7-8c91238cc3a3</uuid> <name>ad5</name> <devicespecialfile>/dev/ad5</devicespecialfile> <harddiskstandby>30</harddiskstandby> <acoustic>0</acoustic> <fstype>softraid</fstype> <apm>0</apm> <transfermode>auto</transfermode> <type>IDE</type> <desc>SAMSUNG HD501LJ/CR100-10</desc> <size>476941MB</size> <smart> <extraoptions/> </smart> </disk> <disk> <uuid>45692a11-59a8-4382-9d1e-4b5372aea30c</uuid> <name>ad6</name> <devicespecialfile>/dev/ad6</devicespecialfile> <harddiskstandby>30</harddiskstandby> <acoustic>0</acoustic> <fstype>softraid</fstype> <apm>0</apm> <transfermode>auto</transfermode> <type>IDE</type> <desc>Samsung Spinpoint 2TB</desc> <size>1907730MB</size> <smart> <extraoptions/> </smart> </disk> <disk> <uuid>de47046c-18f4-4d1f-a75b-f3dccf36c5c9</uuid> <name>ad7</name> <devicespecialfile>/dev/ad7</devicespecialfile> <harddiskstandby>30</harddiskstandby> <acoustic>0</acoustic> <fstype>softraid</fstype> <apm>0</apm> <transfermode>auto</transfermode> <type>IDE</type> <desc>SAMSUNG HD501LJ/CR100-10</desc> <size>476941MB</size> <smart> <extraoptions/> </smart> </disk> </disks> <gvinum/> <gmirror> <vdisk> <uuid>fb6e910e-4036-4bce-acbd-781107f6b5e5</uuid> <name>RAID1</name> <balance>round-robin</balance> <type>1</type> <device>/dev/ad4</device> <device>/dev/ad6</device> <desc>Software gmirror RAID 1</desc> <devicespecialfile>/dev/mirror/RAID1</devicespecialfile> <fstype>ufsgpt</fstype> </vdisk> <vdisk> <uuid>9577b840-f8b9-4495-b8f7-3d9e23ee749f</uuid> <name>RAID1500GB</name> <balance>round-robin</balance> <type>1</type> <device>/dev/ad5</device> <device>/dev/ad7</device> <desc>Software gmirror RAID 1</desc> <devicespecialfile>/dev/mirror/RAID1500GB</devicespecialfile> <fstype>ufsgpt</fstype> </vdisk> </gmirror>
De RAID configuratie lijkt juist, maar om één of andere reden weet FreeNAS niet waar de gegevens moeten gelezen worden. Kan iemand mij verder helpen?

Alvast bedankt.

Raid configuratie in de war na vervangen moederbord

12-12-2011 discussie 2
Artexanis in "RAID configuratie herstellen (FreeNAS)"
Resultaten per pagina: 25 | 50 | 100


Huawei Nexus 6P Apple iPad Pro WiFi FIFA 16 Samsung Galaxy S7 Fallout 4 Apple iPhone 6C Athom Homey LG G5

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True