Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 314 reacties

Een handige hobbyist heeft een eigen nas gebouwd waarin ruimte is voor acht sata-schijven, goed voor maximaal 16TB aan bruto opslag. De Black Dwarf zou dankzij een raid-controller leessnelheden tot 266MBps kunnen behalen.

De zelfbouw-nas is een creatie van Will Urbina, een videohobbyist die gezien zijn vakgebied de nodige opslagcapaciteit kan gebruiken. Als basis koos Urbina voor een compact Quanmax KEEX-2030-moederbord dat is voorzien van een 1,6GHz Intel Atom N270-processor en tevens beschikt over een pci-express x4-slot. In dit vrije slot plaatste hij een HighPoint Rocket RAID 2680-controller met acht sata-aansluitingen. Verder gebruikte hij de twee vrije sata-aansluitingen op het moederbord voor de koppeling van twee 2,5"-schijven die hij voor bittorrent-downloads wil inzetten. Ook voorzag hij zijn Black Dwarf-nas van 2GB ddr2-geheugen, een lcd-display voor het tonen van statusinformatie en een extra psu om alle schijven te kunnen voeden.

Black Dwarf Black Dwarf Black Dwarf

Bij de bouw van de nas-behuizing, die hij vastlegde via timelapse-video, gebruikte Urbina staal, aluminium en Lexan-plastic voor de transparante bovenkant. Om de schijven te koelen, is de Black Dwarf aan de achterzijde voorzien van een uitsparing voor een 120mm-fan. In de nas plaatste de hobbyist uiteindelijk acht 2TB sata-schijven met elk een toerental van 5400rpm. De schijven werden geconfigureerd als een raid 5-array, goed voor een netto opslagcapaciteit van 12,7TB. De nas verbruikt 90W als deze wordt belast. Volgens Urbina weet zijn creatie leessnelheden tot 266MBps te behalen en schrijfsnelheden tot 88MBps.

Moderatie-faq Wijzig weergave

Reacties (314)

1 2 3 ... 12
Jezus, hoeveel apparaten kun je kwijt in een garage?!
Volgens mij moet ik dit maar niet gaan proberen, het enige wat ik heb liggen in de schuur is een dremel, wat schroevendraaiers en een boormachine en hij was al 200 uur kwijt met al die tools.

Toch wat design flaws:
- Schijven hangen schuin, is nooit goed voor de lagers
- Schijven zitten HEEL dicht op elkaar, worden te warm (ja niet in de garage waar het 15C is...)
- Waar haalt hij nou de stroom voor de HD's vandaan? Is dit de PSU??! (http://www.willudesign.com/Black_Dwarf/psu.jpg) die gaat het niet lang volhouden volgens mij. (Jaja, specs zeggen 6A peak load; maar zie alle schijven tegelijk aangaan)
- Design had mooier gekund, zo'n diskettebak....

Wel gaaf gedaan, maar te tijd rovend voor menig werkend persoon.
PSU is niet hetgene wat hij in de voorgrond vast heeft maar wat op de achtergrond ligt denk ik dan ;). Hij gaat zeker met een externe psu gewerkt hebben. Wat betreft ontwerp enzo zal dat wel meevallen dat de disken zo dicht op elkaar zitten.
Zoals op die eerste foto te zien is gebruikte hij 8 WD caviar green schijven. Dat zijn niet echt de snelste in zijn soort, maar het maakt dit grapje natuurlijk wel een stuk betaalbaarder. Het ziet er trouwens wel goed uit voor een zelfbouw project.
Anders wordt het lastig, ze zijn energiezuinig en dus ook koeler, daar 7200 toeren schijven inzetten heeft totaal geen nut gezien de bottleneck sowieso al niet gaat zitten in de schijven en het anders veel te warm zou worden.
Ook zijn die WD's als enige nieuwe schijven voorzien van nieuwe technologie die bestanden wegschrijft in blocks van 4096Kb wat meer data veiligheid en iets meer snelheid met zich meebrengt en hebben ze 64MB cache wat burst snelheid behoorlijk hoog maakt. Daarnaast wat zou sneller zijn: 1TB op 7200RPM of op de zelfde oppervlakte 2TB op 5400RPM? Deze schijven zijn nog steeds supersnel voor data schijven.

Verder: erg vet filmpje en leuke nummers staan er onder.
Grotere blocks is minder overhead en 'meer' data dat je kunt opslaan
Áls je grote bestanden hebt. Heb jij allemaal kleine bestanden, dan kan je beter kleine blocks gebruiken.
Nee. Vrijwel alle filesystems werken met clusters van 4096 bytes. Dus voor de slackruimte maakt het niet uit wat de sectorsize van de schijf is, zolang het maar niet groter wordt dan 4096.
grotere blocks heeft niet echt met veiligheid te maken.
Bovendien gebruikt hij deze schijven voor opslag van zijn grote bestanden, dus het lijkt mij niet dat hij hier constant van hoge snelheden wil genieten: een prima oplossing dus :)!
Hoe verhouden deze snelheden zich tot een professionele NAS?
(tis leuk dat iemand het zelf bouwt, maar ik mis de point)

[Reactie gewijzigd door rvtk op 9 mei 2010 15:20]

Ik heb op mijn werk diverse Buffalo Terastations meegemaakt. Die trekken nauwelijks 30-40 MB/s. Ik heb thuis een tweetal zelfbouw NASjes staan die Gbit met gemak voltrekken. Een set goede netwerkkaarten (€35) en je komt een heel eind. Dus tja. Puur op performance is een zelfbouw NAS denk ik stukken beter. Vergelijkbare performance in een commercieel produkt is stukken duurder.
Die commerciele produkten zijn meestal opgebouwd rond een ARM platform. Ik heb zelf een NAS/router gebouwd met een Globalscale Sheevaplug, een plugcomputer met 1.2GHz ARM CPU, 512MB geheugen en Gbit LAN. Dat ding haalt iets van 350Mbit met iperf.
Synology gebruikt naar ik meen PowerPC, maar in elk geval geen ARM. Helaas heb ik geen cijfers bij de hand liggen om prestaties te vergelijken.
Volgens mij is het niet zo handig je hd's er schuin in te hangen. Verder een mooi ding.
volgens mij maakt dit niks uit, zolang je ze maar niet bijvoorbeeld eerst een periode schuin gebruikt en dan opeens weer vlak. dit is volgens mij niet zo goed voor de hardeschijven.

wel een erg mooi dingetje, het is dat ik er het gereedschap, geld en handigheid niet voor heb....

edit deze reactie kwam ik op het internet tegen

'Klopt, maar een HD heeft een lagering, zoals veel snel ronddraaiende onderdelen. Die lagering slijt in de positie waarin de HD zich langere tijd bevindt.
Ga je vervolgens zo'n schijf in een andere positie gebruiken, dan wordt het lager anders belast, waardoor de positie van de kop een fractie kan veranderen. Vandaar dat fabrikanten in zo'n geval aanraden de schijf altijd opnieuw te formatteren'

[Reactie gewijzigd door Chilco op 9 mei 2010 15:36]

Het gaat veder dan ff opnieuw formatteren. De lagers raken gewend aan die positie en slijt ook anders dan in een horizontalen houding. Die slijtage werk je niet weg, dus het blijft geen goed idee de harddisk na een tijdje in een andere positie te plaatsen.
Formatteren fixed je versleten lagers niet hoor ;)
Slijtage van lagers is bij harddisks al tijden niet meer aan de orde, die dingen hebben tegenwoordig vloeistoflagers. Oudere disks hadden hier nog wel last van, vergelijk maar eens een moderne schijf met eentje van 10 jaar terug, die van 10 jaar terug heeft een vervelende snerptoon die destijds heel normaal was voor een harddisk.
Is de atom hier nou de limiterende factor ? Ik vind 266MB/s eigenlijk nog wel tegenvallen...

(Voor een NAS is het natuurlijk altijd nog bloedjesnel... Zijn er ook eSata mogelijkheden ?)

[Reactie gewijzigd door Prosje op 9 mei 2010 15:21]

Is de atom hier nou de limiterende factor ? Ik vind 266MB/s eigenlijk nog wel tegenvallen...
vaak is op raicontrollers (dit is gewoon een grote) de cpu de beperkende factors ja. Ook met de MSA1500 van HP zie je nog wel eens dat de CPU van de controller eigelijk te slap is om volpot te gaan.

Een andere beperkende factor is RAID-5 in dit verhaal. Dat is wel heel betrouwbaar en safe, maar dat gaat ten koste van rauwe performance.
Overschat de betrouwbaarheid van het RAID5 niet: zodra een eerste schijf is uitgevallen betekent het uitvallen van een willekeurige volgende schijf het verlies van al je data. Dit in tegenstelling tot bijvoorbeeld RAID10, waar je na het verlies van je eerste schijf, naast de nu ongespiegelde partner van je verloren schijf, nog twee schijven hebt waar je er van kan missen.

RAID5 is technisch zeker sexy en relatief goedkoop in schijfruimte maar zowel voor zowel snelheid als betrouwbaarheid zijn er betere oplossingen. Met de huidige gigabyteprijzen zijn die ook zeker interessant om te bekijken.
Bij het gebruik van een RAID5-array is het verstandig om een 'spare disk' mee te laten draaien. In het geval dat een schijf stuk gaat, neemt deze extra schijf de uitgevallen schijf automatisch over. Er gaat dan een alarm af of er wordt een email gestuurd, waarna je de schijf die stuk is online wisselt voor een nieuwe.

HighPoint heeft prachtige management software voor de controllers die ze verkopen, die je via een webinterface kan bedienen. Functies als hot swapping, Online Capacity Expansion / Online RAID Level Migration, Hot Spare, Automatic RAID Rebuilding worden bij bijna alle kaarten gebruikt.
Inderdaad moet je de betrouwbaarheid van RAID 5 niet overschatten maar zo dramatisch als jij het hier stelt is het niet.

In een array van 3 mag 1 uitvallen.
In een array van 5 mogen er al 2 uitvallen.
In een array van 8 mogen er toch zeker 3 disken stuk gaan...

En extra functies als: Online Capacity Expansion moet je zeker niet overschatten, het lijkt mooi maar je performance is tijdens deze operatie zoe goed als 0 en op een array van enkele terrabytes zou ik me nog maar eens bedenken. Kijk niet raar op als hij ongeveer 15 min. per gigabyte (gerekend over de bruto totale capaciteit van je nieuwe array grote) bezig is om deze operatie uit te voeren.
Hij moet immers alle parity over alle disken opnieuw berekenen.

[Reactie gewijzigd door Plopeye op 9 mei 2010 20:40]

Oh, leg dat eens uit dan? Volgens mij kan je bij een RAID5 array met 66 disks nog steeds maar 1 disk kapot gaan voordat een volgende disk die het begeeft tot dataverlies leidt.
Als er 2 disks in een array van 5 disks uitvallen, moeten dat niet de disks naast elkaar zijn en dan kan de data nog gewoon gereconstrueerd worden. Hieronder snel nog een ascii-art van 5 disks gemaakt waar block A en B en de Parity (A xor B) staan. Als disk 3 en disk 5 uitvallen gaat alles nog prima. Met disk 1 en 2 stuk ben je gewoon 60% van je data kwijt en succes met het terug puzzelen!

1 2 3 4 5
A B P A B
P A B P A
B P A B P
Als het een echte RAID 5 was geweest, wat het niet is zoals je al uit de comments kunt opmaken, dan had je met 5 disks niet maar 2 blokken gehad maar maarliefst 4: A, B, C en D. En deze staan als volgt verdeeld over de 5 schijven:

1 2 3 4 5
A B C D P
B C D P A
C D P A B
D P A B C

Waarbij P = A xor B xor C xor D. Als er een disk uitvalt dan kun je op elke rij de missende letter herconstrueren. Als er twee disks uitvallen kan het niet meer en ben je de sjaak.

Overigens klopt je hele post niet. Als 3 en 5 in jouw voorbeeld uitvallen ben je alsnog data kwijt. Kijk maar naar de allerlaatste A B P, daar vallen zowel de A als de P weg. A kun je niet louter uit B herconstrueren. En een dergelijk voorbeeld is te bedenken bij elke combinatie van 2 disks die uitvallen, ergo, je statement is onjuist of je uitleg klopt niet.

[Reactie gewijzigd door .oisyn op 10 mei 2010 02:55]

Kijk maar naar de allerlaatste A B P, daar vallen zowel de A als de P weg. A kun je niet louter uit B herconstrueren.
Hier was de RAID al uit elkaar aan het vallen O-)
En toch klopt dit niet bij RAID5 mag er altijd maar 1 disk uitvallen ongeacht de hoeveelheid hardeschijfen in de array, lees de FAQ's in het subforum OM er maar eens op na. :)
Dat ligt aan je RAID controller en niet aan het RAID concept zelf. Daar hoef ik niks voor te lezen
Waar jij op doelt is bepaalde concepten waarbij er 4 of 5 disken in RAID 5 gebruikt worden en de eerstvolgende 4 of 5 disken ook weer in een aparte RAID 5 set gezet worden. Dan nog is het nog steeds zo dat er per RAID 5 set maar 1 disk uit mag vallen maar over beide RAID 5 sets 2 disken in totaal kunnen uitvallen in het meest gunstige geval zonder dataverlies.

RAID 5 is een aantal disken waarbij 1 van de n disken voor parity gebruikt wordt. Hierbij kan er 1 disk uitvallen zonder dataverlies.
RAID 6 is een aantal disken waarbij 2 van de n disken voor parity gebruikt worden. Hierbij kunnen er 2 disken uitvallen zonder dataverlies.

Al het andere wat jij beschrijft is geen pure RAID 5 en zal dus ook niet zo genoemd moeten worden.

Edit: Inderdaad RAID 5 heeft niet een aparte parity disk... Was laat gisteravond denk ik :z

[Reactie gewijzigd door Gé Brander op 10 mei 2010 08:11]

Het is niet zo dat raid5 een aparte parity disk heeft. Data wordt gewoon over de disks in de array verdeelt. In principe is het dus wel degelijk zo dat als de tweede schijf die kapot gaat niet direct naast de eerste schijf die kapot ging zit je nog steeds je data kan reconstrueren. Net zoals bij raid 10 heb je dus een kans op dataverlies als er twee schijven kapot gaan maar is dat zeker niet altijd het geval. Oftewel. De ASCII art hierboven is gewoon correct
Het is niet zo dat raid5 een aparte parity disk heeft.
Nee, dat is RAID-3. Iets wat niet meer gebruikt wordt omdat die parity disk de performance in de gootsteen gooit. De parity verspreiden over de andere disks is veel beter omdat je dan de performance van drie disks hebt ipv 1.
Data wordt gewoon over de disks in de array verdeelt. In principe is het dus wel degelijk zo dat als de tweede schijf die kapot gaat niet direct naast de eerste schijf die kapot ging zit je nog steeds je data kan reconstrueren. Net zoals bij raid 10 heb je dus een kans op dataverlies als er twee schijven kapot gaan maar is dat zeker niet altijd het geval. Oftewel. De ASCII art hierboven is gewoon correct
Nee, daar klopt geen zak van. Dat is een combinatie van 2x RAID-1 en daarover dan een RAID-5 genomen. RAID-15 zou je 't kunnen noemen. De correcte ascii-art voor vijf disks is als volgt:

1 2 3 4 5
A B C D P
A B C P D
A B P C D
A P B C D
P A B C D

M.a.w. er mag nog steeds maar een enkele schijf uitvallen, al heb je 120 disks in raid 5 staan. Iemand die je iets anders vertelt, praat simpelweg poep. Twee disks kapot bij RAID-5 == data kwijt.

[Reactie gewijzigd door CyBeR op 10 mei 2010 02:50]

Tsssss, jij wil Raid5 vergelijken met RAID10? :S.

Bij RAID5 mag er gewoon NOOIT meer dan 1 disk tegelijk stuk gaan, KLAAR.

In alle gevallen waarin beweerd wordt dat dat wel mag, heb je het over RAID50. Ja, DAN mag je het vergelijken met raid10... |:(
Nee, bij RAID5 mag daadwerkelijk maar 1 disk uitvallen, ongeacht het aantal hardeschijfen in de array. Zie: RAID FAQ
Bij Raid 10 lijd het verlies van een disk samen met het verlies van de mirror partner tot verlies van data! als wel is het zo dat er uit iedere mirror set 1 disk kan uitvallen, dus het aantal disken dat kan uitvallen is even hoog als het aantal disken in de stripe.
Zoals The_Greater hieronder schrijft is raid 6 een veel betere optie.

[Reactie gewijzigd door erwinb op 9 mei 2010 19:43]

Tsja... datzelfde geldt (dat zeg je zelf ook al indirect) ook voor RAID5. Hoewel: Bij RAID5 mag er echt maar 1 disk stuk gaan. Bij RAID10 heb je altijd nog een kans van 2 op 3 dat de volgende disk die tegelijk uitvalt in de andere RAID1 set zit.

En bij 8 disken is de kans dat een tweede het begeeft voor je de eerste defecte schijf hebt ontdekt en vervangen best aanwezig.

Dus dan beter RAID6 idd :).

En tsja, de doorvoersnelheid: Ik denk dat je het niet veel sneller gaat krijgen. Parity over 8 disken berekenen, pffff... ga er maar aan staan :).
En tsja, de doorvoersnelheid: Ik denk dat je het niet veel sneller gaat krijgen. Parity over 8 disken berekenen, pffff... ga er maar aan staan
Het berekenen zelf is niet lastig, gewoon een XOR-operatie, dat is niet zo spannend.

Probleem is dat als een disk in een array stuk gaat, de overgebleven disks extra zwaar belast worden (want in plaats van de ene disk te lezen, moeten nu alle overige disks gelezen worden, wat in jouw voorbeeld dus een 7x zo zware belasting is).

Dat maakt een RAID-5 array toch iets kwetsbaarder: 1 disk stuk, soit, in theorie heb je de data nog. Maar om deze data te ontsluiten, bijvoorbeeld bij een rebuild als de disk vervangen is, moeten de overige disks een stuk zwaarder belast gaan worden, wat de kans op nog een kapotte disk groter maakt.
Volgens mij blijft de belasting min of meer of hetzelfde, harddisks kunnen doorgaans niet harder werken dan hun specificaties lijkt me. Buiten dat, zijn berekening klopt ook niet, als elke van die zeven disk ook steeds in actie moet komen voor die kapotte disk, komt er 1 taak bij, bovenop elke taak zie ze al hadden; immers alle acht disks krijgen telkens 1 taak te doen; gevolg; volgens zijn theorie worden de overige disks dan dubbel belast en niet 7x.

Verder is het slim de RAID-5 array niet te groot te maken, een raid-5 array met 40 disks daarin is niet handig; het word onveiliger en het maakt voor de max transferspeed ook al niet uit, die zit allang op zijn max. Bovendien creeer je meer en meer latency.

[Reactie gewijzigd door Madrox op 10 mei 2010 14:35]

Weet niet of je weet hoe Raid-controllers werken, maar er valt niks te ontdekken; je kan in 1 oogopslag zien welk disk er is uitgevallen. Natuurlijk weet je welke disk aan welke kabel hangt, dat is wel zo slim.
Euhm, ik niet weten hoe raid controllers werken? 8)7

Dus jij wil beweren dat ZODRA 1 disk het begeven heeft, je (bv. 's nachts) in 5 minuten een alert hebt gekregen, een nieuwe disk EN naar het rekencentrum / whatever place waar je server hangt bent gereden en vervangen? :P
Man, als het zo belangrijk is zorg je dat er zowiezo hotspares aanwezig zijn, zodra er eentje het begeeft kickt de software in en begint met rebuilden met de reseverdisk.
Nou.. neuh: als 1 schijf uitgevallen is, dan:
RAID-5: draait al "depleted"; tweede schijf uitval is GEEN optie
RAID-6: draait normaal (als RAID-5), tweede schijf uitval is vergelijkbaar met RAID-5 depleted.
RAID-10 (of 01): geen enkel probleem, mits het maar niet de mirror van de eerste uitval is.

RAID5 (of derivaten als RAID6, RAID50, RAID60) is altijd een gevaarlijker optie.

The Van is lid van BAARF :)
Als 1 schijf kapot gaat bij RAID5 moet je gewoon z.s.m. (hot spare?) een nieuwe schijf erin proppen. Als je dat gewoon doet is het prima betrouwbaar.

Persoonlijk heb ik echter toch liever RAID1, RAID0 of RAID10.
Je wilt betrouwbaarheid maar je hebt toch liever RAID-0? Huh?
Liever =! beter...
RAID0 voor snelheid, RAID1 voor betrouwbaarheid, RAID10 voor beide.
RAID 6 is ook een goede optie.
Maardan nog, RAID is geen back-up.

[Reactie gewijzigd door The_Greater op 9 mei 2010 21:28]

Raid geen backup??? En raid 1 dan? :?
RAID is zeker geen alternatief voor backup. Als je server in vlammen opgaat, of wat misschien vaker voorkomt: de beheerder per ongeluk de verkeerde schijf formatteert heb je aan je RAID 1 helemaal niks...
De meest voorkomende fout is nog steeds gewoon het per ongeluk verwijderen van een bestand of map. In RAID wordt die ook direct gewist van alle mirrors.

Dus: RAID is geen backup, slechts redundancy.
of als de controller de fout in gaat, of malware zijn slag slaat, of een gebruiker per abuis een bestand wist...
of blikseminslag (ergens in de buurt, die via je kabel/adsl-modem over je netwerk komt en huishoudt.)

Of een array met hot spare die bij uitval van een schijft gaat rebuilden en daarbij zoveel load veroorzaakt dat een tweede schijf het begeeft. Juist als je array critical raakt gaan rebuilden is gewoon niet slim.
Ja, je kan natuurlijk ook je backuptape per ongeluk formateren of naast een magneet leggen.
Weet niet wat voor beheerder dat is (@Home?) maar die mag nooit meer aan mijn SAN komen (of m'n NAS thuis)
Als je je backuptape formateerd heb je nog steeds je origineel, ergo een backup.
Je hebt een backup wanneer je twee volledig onafhankelijke kopieën hebt na het nemen van de backup.
Dat houdt in:
als de ene stuk gaat heeft dit niet tot gevolg dat de andere mogelijk ook stuk gaat (wat wel is bij raid, denk aan een brand),
als je aan de ene iets fout doet (formatteren bvb) gaat de andere niet automatisch mee de mist in (ook dit is bij raid wel het geval).
Raid is geen backup. :)

Backup is iets dat je netjes offsite op kant kan zetten, zodat als de boel affikt je niet alles kwijt bent. ;)
raid is een backup tegen het falen van je schijven, niet je omgeving, behuizing, controller, ...
ok dat klopt, raid is een 'backup tegen het falen van je schijven'.
Dat is echter niet hetzelfde als zeggen raid is een 'backup'.
Bij 'backup' zonder meer ga je er normaal van uit dat je een 'backup tegen het verliezen van je data' hebt .
Zoiets heet redundancy, niet backup.
of gebruikers! Een bestandje deleten is net zo makkelijk ;-)
Als jij een file op je RAID-1 overschrijft is het origineel toch echt verloren hoor.
Raid -1 heb gebruikt men normaal gesproken voor redundantie van de hdd's, zodat je door kunt werken als er een hdd defect raakt tegen brand, waterschade en atoombom zal het niet helpen. Alleen wat dat laatste betreft denk ik niet dat er ook maar 1 back-up methode is die zal helpen, laat staan dat het daarna nog belangrijk is.
backup is een fysieke scheiding van je data. Ofwel je backup op je werk en thuis je originele data.
Met raid zijn invloeden als brand, water, diefstal en stroom een kwetsbare factor.
Vergelijk het met je reservesleutel, die houd je ook niet aan je sleutelbos!!!
probeer jij maar eens een bestand van 3, 4 of 10 versies daarvoor terug te halen met een raid 1 config. (zonder gebruik te maken van een vsc achtige oplossing)

datarecovery en databeschikbaarheid zijn 2 totaal verschillende zaken en als je roept dat raid1 wel backup is dan haal je die 2 toch echt door elkaar.

[Reactie gewijzigd door robb_nl op 9 mei 2010 21:49]

Nee geen enkel RAID level is als backup te gebruiken. Een backup beschermt je data ook tegen corruptie van de RAID array, virussen en het verwijderen (door een persoon) van data. Wanneer jij bijvoorbeeld zelf per ongelijk een bestand op een RAID1 array verwijderd is dezse ookecht weg.

Een backup staat ook nooit op hetzelfde systeem als de orginiele data, een backup is ook niet het verplaatsen van data naar b.v. een externe hardeschijf waarbij het orginieel wordt gewist. De data op de externe hardeschijf wordt dan automatisch het orginieel en heb je nogaltijd geen backup (sommige mensen denken wel dat dit een backup is getuigen de regelmatig voorkomende topic's met "help, mijn extern HDD doet niets meer waar mijn backup op stond".
het wordt nu een beetje filosofisch, wat is een backup...

een backup is een kopie van je data op een bepaald punt in de tijd.
Backups kun je maken op de enige schijf die je hebt ;-), maar ook op tape. En alles wat daar tussen zit. Maar de meesten zullen natuurlijk extra eisen stellen, zoals:

1. fysieke scheiding, zodat je spul ook een disk crash overleeft
2. off site mogelijkheden, zodat je datacenter niet langer je spof is.
3. meerdere generaties (zodat je 1, 2,... dagen terug kunt). Vooral om data inconsistentie te repareren.

Elk van deze eisen kun je met disk(array)s zowel als met tapes oplossen. Door de toegenomen data density op disks ten opzichte van de prijs en door de snelheid zie je steeds meer tape oplossingen vervangen worden door disks arrays (off site). Of D2D2T, zodat het aantal tape backups dat je maakt omlaag kan (en bijvoorbeeld je backup tijd voor je database omlaag gaat).
Het feit dat elk fatsoenlijk filesysteem/volume manager tegenwoordig snapshotting en zo ondersteund helpt daar natuurlijk ook bij

[Reactie gewijzigd door loetje6 op 9 mei 2010 23:50]

Als jij (al dan niet pergongeluk) een file verwijdert op een RAID1, is ie op beide schijven weg.
Of RAID5 met hotspare. Dat is in essentie hetzelfde als RAID6, afaik.
Nope, niet hetzelfde. Als de hotspare in gebruik genomen wordt, moet er tijdens het herbouwen van de raid array er niet nog 1 disk uitfikken. Met RAID6 kun je wel ten alle tijden 2 disks in een raid array verliezen. Qua betrouwbaarheid is RAID6 eigenlijk nog betrouwbaarder (niet sneller!!) dan RAID1+0 (RAID10). Als je met RAID10 een disk verliest moet je ook niet nog eens de disk welke de mirror vormde verliezen.
Je hebt helemaal gelijk, echter wat je helaas ziet is dat zo'n homebuild oplossingen veel meer points of failure hebben.

-Voeding enkel uitgevoerd, kappotte voeding neemt het heleapparaat mee in zijn ondergang.
- Drive failure wordt niet goed gedetecteerd waardoor je een half werkende drive hebt.
-1 drive gaat kapot maar software lukt het niet een rebuild te doen. (waarom? geen idee)
Het is niet slim om draaiende schijven schuin te plaatsen. hierdoor kunnen ze crashe sneller :(
waarom zouden ze dan sneller kunnen crashen?
ikz ie het niet.
Dit komt door centrifugale krachten. De lagers zijn voornamelijk gemaakt voor het opereren in een horizon- of vertikaal vlak en niet onder een hoek, waardoor sneller slijtage optreed.

Daarom snap ik ook die wazig laptop stands ook nooit waarin de laptop onder een hoek geplaatst wordt waardoor het scherm hoger komt te staan en je een losse muis en keyboard kunt gebruiken.

[Reactie gewijzigd door _Dune_ op 9 mei 2010 23:44]

Hoe de lagers zijn gemaakt lees je terug in de specificaties van de harde schijf. Daar staat althans in genoemd onder welke hoek en in welke positie hij gebruikt mag worden. Dat kan inderdaad beperkt zijn. Vooral de documentatie van Hitachi is uitstekend. Lees er maar eens wat van, of kijk eens of er van de schijven die hier gebruikt worden (WD?) dergelijke specs te vinden zijn. Zonder kennis daarvan is er geen algemene uitspraak op te betrekken, zeker niet omdat er zoveel lagerconstructies mogelijk zijn (vaak ook op vloeistof gebaseerd).

[Reactie gewijzigd door mae-t.net op 10 mei 2010 01:07]

maar waar het op neerkomt, sinds we liquid bearings hebben sinds een jaar of 10 kunnen we de disks in iedere orientatie houden wat we maar willen, zolang de boel maar stevig vast zit...
Toch zakt de zware drab naar beneden (er is immers altijd wel enige slijtage of inhomogeniteit wegens temperatuurverschil). En als de boel niet recht zit, hoopt het zich in een 'hoek' op.

Afgezien daarvan heb je 'aannloopverschijnselen': Bij het in/uitschakelen rust het lager wel op de behuizing. Dus het lijkt me een slecht plan.
Veronderstellingen dat het in elke orientatie kan, of juist niet, blijven veronderstellingen, tot je ze bevestigt of weerlegt.

In de gegevens van WD over de hier gebruikte schijven, wordt er helaas in alle talen over gezwegen, zie http://www.wdc.com/wdprod...Sheet/ENG/2879-701229.pdf

Als ik op pagina 37 kijk van dit document van Hitachi GST, dan trek ik de conclusie dat het tegenwoordig niet veel meer zal uitmaken (vroeger kwam je nog wel eens beperkingen tegen in datasheets, herinner ik me): http://www.hitachigst.com...K2000_1TB_OEMspec_1.0.pdf
Wie gaat hem dat vertellen :P
Ik denk wel met zo´n `zware` raid opstelling dat de Atom een beperkende factor is. Maar als je het zo klein wilt houden, dan is er geen ontkomen aan, helaas!
Ik denk dat het zo klein houden juist een probleem gaat vormen met de warmte.
Die schijven zitten vrijwel op elkaar en alleen aan de zijkant gaat er lucht langs.
Dan kunnen dit nog wel eco-green schijven zijn, maar dan nog heb je zo'n 5 * 8 = 40 Watt aan warmte die zich vrijwel geheel concentreert in het midden.

Hij gaat in de video trouwens ook al niet echt voorzichtig om met de schijven.
Veel minder hoor? Een hardeschijf zet energie om in beweging + warmte.
En die beweging wordt weer helemaal in warmte omgezet. (afgezien van wat trillingen die via de behuizing doorgegeven worden aan de omgeving)
Zolang de schijf niet stopt en vrijwel geen wrijving heeft zal deze energie theoretisch alleen in de beweging blijven zitten en zal er dus geen warmte ontstaan.

In de praktijk zal het iets minder gunstig zijn maar ik verwacht niet dat alle energie op zal gaan in warmte. En de warmte die hierdoor ontstaat zal imo goed afgevoerd worden door die fan.
Zolang de schijf niet stopt en vrijwel geen wrijving heeft zal deze energie theoretisch alleen in de beweging blijven zitten en zal er dus geen warmte ontstaan.
Dat is alleen de energie die verbruikt wordt bij het opspinnen. De energie die verbruikt wordt als de schijf stationair draait wordt in warmte omgezet. Uiteindelijk wordt ook de opspin-energie in warmte omgezet bij het uitzetten, want er wordt geen energie teruggeleverd bij 't uitzetten.
Hij vervangt de schijven aan het einde van de video. Hij heeft kleine of defecte schijven gebruikt voor de constructie.
Ik dacht al, met die hele vonkenregen die die op de schijven laat regenen.
Die die ook op die in mijn ogen dure videocamera doet neer komen.
Ik hoop dat hij er een goedkoop uv-filtertje voor heeft :?

Wel een vet filmpje trouwens
Op een aantal shots zie je een soort plasticen hoes over de lens heen zitten. Denk dat hij daar best wel over nagedacht heeft :)
De schijven die in de NAS zitten gebruikt hij pas op het eind, de andere zijn mock-up schijven.

Maar ik wil de garage van die man :D
Hij is lekker aan het slijpen met die auto op de achtergrond --> allemaal bruine puntjes in de lak |:(
Als je de hele video kijkt zie je dat hij later nieuwe schijven installeert.
Rekening houdens met dat het 5400RPM schijven zijn :)

En dan ook nog eens de 'green' versies.. Dus die zullen wel een pak minder verbruik/warmte produceren dan de doordedaagse 7200RPM schijven :)

Maar! warm zal het wel worden :)
Heb precies dezelfde raidcontroller met 6 WD640 Blue's in RAID-5 en ik kom ook zo tegen
de 300MB. Dat heeft alles te maken met de controller, die het "in software" doet en ook dat er geen dedicated cache opzit.

Leuke knutselbox, toch enkele kanttekeningen:
-Diagonaal geplaatste harddisk is niet zo'n goed idee.
-De harddisk zitten erg dicht op elkaar, vraag me af of die ene fan dat wel fatsoenlijk
kan koelen.
De disk zijn "non swappeble"ingebouwd. Word dus lastig als die alsnog een disk wil wisselen. Nee,. dat had ik toch net ff anders gedaan.

Niettemin petje af, hij heeft het toch helemaal van "scratch" af opgebouwd. Niet normaal trouwens, als je ziet wat voor tools die gasten hebben in hun "garage" :+

[Reactie gewijzigd door Madrox op 10 mei 2010 00:40]

Hoezo non-swappable? Je kan ze gewoon verwijderen door 4 schroefjes los te halen.
Waarom zijn diagonaal gesplaatste harddisks geen goed idee?

Toch, ik ben het eens met het dicht-op-elkaar argument, naast het feit dat ze HDD's afgeschermd lijken te zijn. (doorzichtige kap, plaat aan achterkant/onderkant die de HDD's van de koeling lijkt te scheiden)

Persoonlijk had ik het gewoon een simpel vierkant blok gemaakt waarin de HDD's allemaal op z'n kant staan met het moederbord eronder. Roostertjes aan de voorkant en een fan aan de achterkant.

Verder zou ik ook alle HDD's dempen met rubbertjes die daarvoor gemaakt zijn om niet een rammelend blok metaal te hebben.

edit.:
Na wat denken zie ik dat 6 HDD's toch wat meer ruimte inneemt dan verwacht. Ik denk dat ik ze gewoon plat zal ophangen in 2 stapeltjes van 3, naast elkaar of achter elkaar.

[Reactie gewijzigd door Gamebuster op 10 mei 2010 01:45]

vier schroeven losmaken kan je amper swappeble noemen, of moet ik expliciet zeggen "hot-swappeble" ;)

Ik doel natuurlijk op een slee-systeem, waar je hdd gewoon inschuift, connectie maakt et voila. Schroefloos dus.

Diagonaal plaatsen van een harddisk word door geen enkele harddiskfabrikant aangeraden, of er moet het laatste tijd iets veranderd zijn.

Een overzichtje, gemaakt door iemand die de harddisk fabrikanten rechtstreeks benaderd heeft:

Manufacturer Contact method Response
------- --------------------- --------------------------------------------------
WD Tech support, email 90 degrees.
Hitachi Hitachi documentation 90 degrees.
Samsung Tech support, phone 90 degrees.
Fujitsu Tech support, chat 90 degrees +-5.
Seagate Tech support, email 90 degrees preferred, but diagonal OK.
Maxtor Tech support, phone 90 degeres preferred, but in real world, whatever.

Voor de duidelijkheid, 90 graden betekent zes mogelijke posities.

Het antwoord van Maxtor duid op "straatkennis" en getuigt niet van een aanbevolen setting.
Er zijn altijd mensen die tegendraads zijn en ermee doen wat ze willen, wat niet betekent dat die harddisk net zolang meegaan als een harddisk die normaal gepositioneerd is. Zelf zou ik nooit een 2de hands diks kopen, wetende dat die in een vreemde hoek heeft gedraait.

[Reactie gewijzigd door Madrox op 10 mei 2010 07:03]

Hot swapping and hot plugging are terms used to describe the functions of replacing system components without shutting down the system

zelfs al heb je 10 schroeven een een slijptol nodig, dan kan het nog hot swappeble zijn ;).
Hij had het over "swappable", niet "hot swappable". [/mierenwipper]
Inderdaad slechte koeling.
Zou eenvoudig op te lossen zijn door de schijven een ietsje uit elkaar te zetten, en dan nog 2 grote fans onder de schijven te plaatsen. (met een open/verhoogde bodem).
Diagonale schijven leiden dan de warmte naar de achterste fan.

Dan zou zelfs een veel lager toerental (dus minder geluid) een betere koeling moeten geven.
Het "grappige" is dat iedereen er van uit gaat dat deze 266MB/s kloppen.

Ik mis een aantal noodzakelijke zaken zoals het OS dat gebruikt wordt via welk protocol met de NAS gepraat wordt?
En grafieken waar duidelijk wordt of dit een burst snelheid was of dat die langere tijd volgehouden wordt.

Over opbouw.
Als je zoiets bouwt maak je het toch sowieso mogelijk om de disks te swappen zonder dat je deze moet los schroeven.
Ik betwijfel het of je de disks wel onder deze hoek mag monteren?
Het OS doet er niet zozeer toe als je de array door de controller laat draaien ipv. software-raid via het OS. De cijfers kloppen wel, de 26** serie is redelijk budget en het is bekend dat
de snelheid zo tegen de 300MB max loopt.
Mee eens, mijn software raid5 van 5TB haalt 355MBps read 165MBps write. De RAID kaart lijkt mij snel genoeg, dus de proc zal wel niet meer bitjes uitpoepen. Mijn NAS trekt ook 90W, maar 266MBps voor zo'n klein ding is nog altijd netjes.
266MB/s*8bit/Byte=2000Mbit/s=2Gbit/s lezen.
Wat voor interface gebruikt ie om zoveel data weg te sluizen ?
Dat rare ronde dingetje aan de zijkant denk; zal wel iets van coax-achtig iets zijn, wat hoge snelheden kan halen, of zit ik er nu compleet naast?

[Reactie gewijzigd door Gamebuster op 10 mei 2010 22:18]

Met 266MB/s (dat is ruwweg zo'n 2Gbps) gaat je netwerk de bottleneck worden gezien de prijs van 10Gbps apparatuur. Netjes! _/-\o_
je zou 2 poorten kunnen pakken en dan gebruik maken van link aggregation, dat is relatief goedkoop, kost je alleen een extra gbit netwerkkaartje en een extra poort op je switch.

Overigens petje af voor deze handige harry, geweldig mooi gemaakt :)
Wat kort door de bocht en voor de meesten zal dit niet werken, er zitten namelijk wat haken en ogen aan:
De meeste onboard netwerkkaartjes die mensen gebruiken zijn Realtek kaartjes en meestal is dat er maar ééntje. (Er zijn moederborden met twee keer een realtek erop die wel aggregation mogelijk maken, mijn, inmiddels hopeloos verouderde, EP45-DS3R van Gigabyte kan dit.) Wil je het de hardware laten opknappen dan kun je voor (bijvoorbeeld) twee keer een Intel kaartje kiezen. Deze hebben een optie doorgaans de optie om aan aggregation te doen van twee Intel (!) kaarten. Als alternatief kun je je toevlucht nemen tot aggregation vanuit je OS. FreeBSD kan dit, Linux vast ook, maar Windows?
Volgende hobbel is de switch, deze moet wel met aggregation (/trunking) overweg kunnen. Dat gaat op voor managed switches en opnieuw hebben de meeste gebruikers een unmanaged switch.

Persoonlijk heb ik bewust voor een unmanaged switch gekozen, het is het mij simpelweg niet waard. Desnoods neem ik mijn toevlucht tot twee crosscables en verbind ik de twee computers direct. In mijn geval is er maar één pc die werkelijk interessant is om op maximale snelheid te verbinden, dus vind ik de extra kosten (en energieverbruik!) het niet waard.
Voor de menigte zal toch wel opgaan dat een twee gigabit (of meer) connectie leuk is, maar niet meer dan dat. (Per slot van rekening moet je vooralsnog aan beide kanten een RAID array draaien, of je moet een SSD inzetten.) De bottleneck waar sommigen tegenaan lopen kun je misschien juist efficiënter omzeilen door de NAS te voorzien van twee of meer Gigabit kaartjes en de clients uit te splitsen naar de verschillende netwerkkaarten (/een ander IP adres). Op deze manier kun je toch een blu-ray film naar de woonkamer streamen en tegelijk bandbreedte overlaten voor een tweede stream naar een andere kamer (of deze te reserveren voor alle backups in het huis).
(In het verlengde betrap ook ik mijzelf erop te vaak simpelweg te grijpen naar zwaardere hardware dan voor slimmere inzet van de huidige hardware te gaan. Heb je nu echt weer een nieuwe CPU nodig, of zijn er slimmere codecs beschikbaar of software beschikbaar waardoor de CPU minder wordt belast of dat je ook de GPU kunt laten meewerken?)
Natuurlijk is het een keuze, maar veel hardware kan het. Zeker in zakelijke omgevingen is het een mooie oplossing om redundancy te krijgen. Voor thuis vraag ik het me inderdaad af maar zelfs netgear biedt geschikte switches voor een paar honderd euro. Als je het puur voor performance van 1 machine doet zou je ook naar een 10gbit kaartje en een SPF+ in de swich kunnen kijken. Simpeler en niet duurder dan het prijsverschil tussen een unmanaged en managed gbit switch van een a-merk.

Splitsen in meerdere netwerksegmenten vind ik niet slim. Geeft alleen maar extra problemen en organisatie. Als je functies of afdelingen wil scheiden maak je meerdere netwerksegmenten (liefst via vlans al gaat dat weer niet via unmanaged switches) en stop je services in verschillende servers. Thuis wil je vaak iedereen op hetzelfde netwerk en dus geen splitsing. Als je geen BR kijkt wil je namelijk niet dat je "tweede" stream of backup beperkt wordt. Alles in hetzelfde netwerk garandeert een optimaal gebruik van je netwerk en maximale doorvoer. Desnoods nadat je wat aanpassingen gemaakt hebt aan de QoS.
is het dan niet mogelijk om met 3 netwerk kaartje 3 verschillende ip adressen binnen het netwerk te krijgen en dus de bestanden via 3 x 1Gbps kunt aanspreken? zolang het niet hetzelfde bestand is?
Wat voor switch heb jij dan?

In theorie zou dan 1 10 Gbps switch volstaan....
nou ja ik heb niet zo'n switch maar ik denk dat in de situatie dat 1Gbps niet voldoende is om je nas volledig te benutten dat ook een 1Gbps switch toch wel voldoende is?
maar dat je dan je computer en de nas met beide 3 kabels(dus ook 3 netwerkkabels) aan die switch verbind zodat je theoretisch 3Gbps kun versturen zonder 10Gbps apparatuur.

maar ik denk dat ik het zelf fout heb zo'n 1Gbps switch kan zeker maar in totaal 1Gbps verzenden? want ik dacht zelf dat dat gewoon 1Gbps per aansluiting was maar misschien dat ik fout zit
Met een 1Gbit switch kan je max. 1Gbit benutten. Als je 2 computers aansluit die evenveel verbruiken krijgen ze dus elk 500Mbit toegewezen.
Dat ligt natuurlijk wel een beetje aan de coolheid van je switch. De netwerkjongens hier weten dat vast nauwkeuriger maar in de hogere prijssegmenten wordt over het algemeen wel ontworpen op iets meer dan 1 Gb/s.
Je hebt je doorvoersnelheid (die zal dus altijd 1Gb blijven) en je hebt je backplane, dat is de totale hoeveelheid dataverkeer dat je switch aankan. Die is bij een beetje kwaliteit switch de doorvoersnelheid x je aantal poorten + enige reserve.

Je kan op 2 1Gbit lijnen weldegelijk meer als 1Gbit halen, dat heet "AdapterTeaming" of " Link Aggregation". Kan je zien als een soort raid-0 met netwerkkaarten. Je hebt daar wel een L2 managable switch voor nodig.

[Reactie gewijzigd door plankton123 op 10 mei 2010 09:01]

Volgens mij is dat te kort door de bocht. Vaak staat de maximale doorvoer cap. van een switch vermeld, dacht ik. Pas als dat maximum bereikt wordt zal de switch moeten gaan delen.
Er wordt verwart met interne switch capaciteit en lijn capaciteit.
Kijken we naar de NAS, dan is het is maar 1gbit... dus je zou heel flauw gezien, elk bijkomende verzoek is gewoon een deling van maximale lijn capaciteit.

Maar naar een switch zelf gekeken naar wat er totaal aan traffic door een switch kan, Is dit inderdaad een zeer foute aanname van Petervanakelyen.

[Reactie gewijzigd door Swordlord op 9 mei 2010 21:46]

Tenzij je switch intern op 10Gbit werkt, wat niet heel zeldzaam is voor niet-consumenten switches :)
Dat is juist wel vrij zeldzaam tegenwoordig. Alle fixed-configuration switches hebben niet zozeer een backplane en alle modular switches hebben backplanes van 40 of 100gbps. Backplanes van 10gbit vind je alleen nog in oudere apparatuur terug.
Dat hangt van de totale doorvier snelheid van je switch af. Alle fatsoenlijke GBit switches kunnen op alle poorten tegelijk 1Gbit in en 1Gbit uit doen. Dus een totale doorvoer van aantal poorten * 2Gb per seconde.
Dat is zoals 7laurens7 al aangeeft erg kort door de bocht en is ook niet wat er gevraagd wordt. Er wordt gevraagd naar het bundelen van meerdere fysieke kanalen naar 1 logisch kanaal. Daarnaast is de bandbreedte verdeling niet statisch.

Dus om de vraag van nlvmark te beantwoorden: Ja dit is mogelijk; dat noemen ze Link Aggregation en is op netwerk gebied een standaard tool om juist dit soort beperkingen te overkomen. Google anders maar eens op IEEE 802.1AX-2008 of IEEE 802.3ad.
Of wiki er gewoon naar :)
dank dank weer geleerd vandaag :)
Onzin de meeste gbit switches hebben een backplane die alle poorten van 1gbit kan voorzien. Stop je er 3 netwerkkaarten in heb je dus 3gbit bandbreedte en als je poorten gaat truncken kan dat zelfs via 1 ip adres.
Met een 8-poorts 1gbit switch kun je 16gbps heen en weer slingeren (8x1gbps full-duplex). Dit soort apparaartjes heeft geen backplane meer. Je praat gewoon direct tegen de crossbar switch in de chipset en die is non-blocking oftwel er is geen (haalbare) limiet aan hoeveel bandbreedte eroverheen kan.
Als je je een 10Gbps switch kan permiteren, ga je niet met zo'n doosje zitten te freubelen, maar koop je direct een SAN/NAS bij IBM...
Als je handen jeuken ... !
Waarom naar IBM? Je krijgt dan een blackbox en een maandelijkse/jaarlijkse rekening voor alle problemen..
Dit ziet er bijna hetzelfde uit als mijn Diskette-opbergdoos. :+ Vet retro en vet mooi gedaan. _/-\o_
Ik zou hem graag naast mijn PC willen hebben staan, ziet er erg mooi uit.
Vind het echt wel knap hoe sommige mensen alles zelf maken en dat pakt MEESTAl erg stijlvol uit!
jammer dat de behuizing migmag gelast is.
eigenlijk zou tig lassen veel mooier zijn. Dan sluit je het helemaal af door de elementen in elkaar te laten versmelten.
Alleen wel oppassen voor krom trekkende platen.
Met een beetje passen en meten krijg je in zo'n Diskette-doos volgens mij wel een stel SSD-tjes. Helaas heb ik geen sponsors zoals deze man, morgen maar eens bellen naar de genoemde sponsoren :+
Daar dacht ik ook meteen aan :).
Volgens mij is er toch niet zo'n goede airflow doorheen alle schijven? ze gaan toch wel elkaar een beetje opwarmen (op de plaatsten waar de fan niet aan kan, dus tussen de verschillende schijven)
Voor de rest heel mooi gemaakt en respect voor het filmen en de montage van het filmpje! Echt aangenaam om naar te kijken :)
HDD's worden niet heel erg warm, dus als er een klein briesje is dan worden de HDD's al genoeg gekoeld. In veel Retail PC's (HP, Asus enz) worden de HDD's een niet gekoeld dus ik denk niet dat de HDD's te warm worden
Als je goed naar het filmpje gekeken had, had je gezien dat de fan enkel het moederbord koelt, de schijven zitten in een apart compartiment. Hier kan je het duidelijk zien: http://www.willudesign.com/Black_Dwarf/smallhddmounted.jpg

Volgens zijn tekst op de website blijven ze wel koel, maar daar heb ik toch mijn twijfels over. Alu koelt wel, maar 8 schijven die continue aanstaan, onder plexiglas, zonder verluchting moeten volgens mij wel opwarmen...

[Reactie gewijzigd door ChristopheC op 9 mei 2010 15:50]

Als je goed kijkt op de foto, zie je dat er wel een open gleuf is aan de onderkant tegen het mobo aan zeg maar, dus er is toch wel enige koeling toch?
Schijven op die manier inbouwen is inderdaad vragen om problemen. Op die manier is zo'n NAS snel kapot. In het verhaal staat dat het verbruik 90W is. Het meeste daarvan zal in de harddisks worden gedissipeerd. Overigens had een echte tweaker een paar sata interfaces erbij geprikt en een software RAID met Linux gebouwd.
Ga je daar dezelfde performance uit krijgen?
Zolang je er maar voor zorgt dat je genoeg data over de bus kunt transporteren. Op een RAID controller zit lang niet zoveel CPU power als in een Atom processor. Alle data moet zowieso door de CPU heen om het in netwerkpakketjes te verpakken.

Bovendien heb ik het gevoel dat de gebruikte kaart (HighPoint Rocket RAID 2680) een software RAID systeem betreft vanwege de beperkte OS ondersteuning, noodzakelijke drivers en geen mogelijkheid om nieuwe firmware in de kaart te downloaden.
Nou ja, je kan je 1Gbit ermee dichttrekken met gemak dus tegenvallen: Nee.
ja, dat is ook zo.. Het is inderdaad wel een NAS.
Nou ja dit is wel sterk afhankelijk van voor NIC er op het ATOM bord zit.

Ik heb even het bord nagezocht en denk dat het dichttrekken van die GBit zwaar gaat worden aangezien het om een Realtek 8111C NIC gaat.
Was het nou een Intel PRO 1000 geweest dan was dit geen probleem.
Deze man klust heel graag, of hij is gigantisch gesponsord. Wat een gereedschap...

* CodeCaster jaloers is op die garage
Viel me ook al op, hij heeft echt enorm veel (duur) gereedschap en het meeste ervan is van Ridgid. Dus misschien wordt 'ie inderdaad wel gesponsord.

Maar de fotos deden me heel erg denken aan die oude plastic dingen waar floppies in gingen. Ik zou het zelf anders gedaan hebben (smaken verschillen), maar het is heel mooi afgewerkt.
Als je even naar de YouTube pagina was gegaan, had je gezien dat dit hele ding volledig gesponsord is.

Leuk, als je dat voor elkaar kunt krijgen!
1 2 3 ... 12

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True