Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 70, views: 24.649 •

Space Monkey, de Amerikaanse start-up die 1TB cloudopslag voor 10 dollar per maand aan wil bieden, is op 17 april een kickstarter gestart om 100.000 dollar op te halen voor het project. Inmiddels is al het dubbele bedrag opgehaald.

Space Monkey maakt gebruik van een lokale netwerkschijf en het bittorrentprotocol. Abonnees van het bedrijf ontvangen een 2TB-netwerkschijf, waarvan er 1TB toegankelijk is. Opgeslagen data op de harde schijf wordt in 40 stukjes gebroken en via bittorrent gekopieerd naar andere Space Monkey-schijven. De stukjes bestaan uit twintig parity pieces en twintig erasure coded pieces, die op veertig verschillende plekken opgeslagen worden, meldt Gizmodo. Op die manier heeft Space Monkey geen datacenter nodig om de cloudopslag aan te bieden. Bovendien garandeert de verspreiding van de datablokken de veiligheid van de gegevens. Mochten er meerdere Space Monkey-netwerkschijven defect raken, dan zijn twintig datablokken genoeg om alle data weer te herstellen.

Om de snelheid van de cloud-opslag te garanderen, wil Space Monkey dat de data zoveel mogelijk binnen het netwerk van dezelfde isp gedeeld wordt, daardoor zou niet alleen de snelheid hoger zijn, maar ook de kosten lager uitvallen. De data kan binnen het thuisnetwerk via het smb- en dlna-protocol benaderd worden. Voor smartphones is er een Android-app beschikbaar en er zou ook een iOS-app in de maak zijn. Een webinterface moet zorgen voor toegang van buiten het eigen netwerk.

Space Monkey werkt al sinds 2012 aan het project, maar het lijkt erop dat het bedrijf de netwerkschijven nu echt zal gaan leveren. Mensen die het Kickstarter-project met 99 dollar of meer steunen, krijgen hun netwerkschijf in juli 2013 thuisgestuurd.

Space Monkey Space Monkey Space Monkey Space Monkey Space Monkey

Reacties (70)

er zit tegenwoordig een knopje feedback onder de titel.

ontopic:
Mooi idee dit op het eerste gezicht! Opslag in de cloud terwijl je wel de snelheid hebt van een lokale schijf. En gaat het mis dan is het vervangen van je disk voldoende om je data terug te krijgen. Klinkt erg goed :)
Wel de snelheid van een lokale schijf. De snelheid is de cloud is mede afhankelijk van de upload snelheid van de gebruiker waar jou data staat. M.a.w als je een 2-5 mpbs upload hebt en je wil via de cloud downloaden is die snelheid meteen jou beperking.

Een cloud in een datacenter werkt met toch iets andere snelheden.
Maar als ik het goed begrijp word jouw data verdeelt over meerdere mensen. Aangezien het op p2p werkt kun jij dus 1 bestand in meerdere blokken verdelen en dit parallel aan elkaar binnen slurpen. Hierdoor haal je dus toch meer dat alleen de upload van 1 user maar b.v. 5 users als je bestand bij 5 users gehost is.
Ik moet wel een beetje aan de Borg denken met zo'n collectief geheugen. Zou het ze geïnspireerd hebben?

Voorlopig wil ik nog geen cloud opslag, het is voor mij fijn om het gewoon op een eigen HD te hebben thuis, en een backup op een tweede HD. En mocht je huis dan echt affikken... Dat is dan maar zo, het is misschien ook wel eens fijn om alles kwijt te raken.
Voorlopig wil ik nog geen cloud opslag, het is voor mij fijn om het gewoon op een eigen HD te hebben thuis, en een backup op een tweede HD.
Ik zou graag een backup willen van data bij een vriend/kennis.
Uiteraard wel versleuteld.
Dan stap je in geval van calamiteit op de fiets en haalt de hdd op.
Nu verdelen ze het over zo'n 40-tal andere gebruikers, dus in geval van restore krijg je het met 40x de gemiddelde upload van die anderen weer binnen. Dat komt al aardig in de buurt van de bandbreedte van een fietstochtje :) (mits je eigen download snel zat is)

Maar ik krijg een beetje het gevoel van een piramide-spel.
Je de optimale aantallen die genoemd worden kunnen alleen maar werken wanneer de hdd's gemiddeld gesproken maximaal half vol zitten.
Dan heb je dus minder redundantie wanneer je gemiddeld over de helft heen zit en bij redelijk wat uitval zal je uiteindelijk zelf ook niet meer alles kunnen restoren in geval van calamiteit.
Bij redelijk wat uitval heb je dus je pars waarmee je verlies kunt herstellen.

Het bekendste voorbeeld hiervan zijn de nieuwsgroepen. Als je daar vanwege retentie een aantal mb's aan data mist, en dus niet meer kan downloaden, gaat je client ook achteraf met de pars bezig om je data weer terug te rekenen.

Van dit zelfde principe maakt space monkey dus gebruik.

Zie het bedrijf als een slimme combinatie p2p, bittorrent, nieuws groepen, cloud storage, local network storage. Van alles hebben ze de sterke punten gepakt, en dat gaan ze nu combineren.

Ik zie er wel toekomst in. Het is alleen jammer dat de voorkeur voor opslag naar dezelfde isp uit gaat. Gezien je toch die lokale opslag al hebt, had ik mijn backup liever geografische verdeeld zien worden.
Nieuwsgroepen zullen niet echt een inspiratie geweest zijn, het gebruik van parity (pars) is al lang een standaard voor data-opslag, en bijvoorbeeld een belangrijk onderdeel van RAID3 en hoger.
Een paar issues, zelfs met een 100Mbit verbinding ben je nog ruim 22 uur bezig om een TB binnen te halen. Maar ik verwacht eerder dat je 30+ uur bezig bent, zo niet langer... Dat fiets tochtje ziet er toch heel wat interessanter uit. Dan moet je nog eens je data terug halen vanuit de parities, mijn RAID6 setup is wel een paar dagen bezig om de Parity van ~15TB te berekenen en dat is dan een redlijk prijzige NAS, ben benieuwd hoe dit apparaatje dat doet. Zelfs als het je PC gebruikt voor de berekeningen zal het nog wel even duren (HD zal dan de limiet wezen waarschijnlijk.

Ik zou eerlijk gezegd nooit voor deze optie gaan, het zou of een extra HD zijn als backup (of NAS) of backup via andere wegen (Dropbox of CrashPlan nl). Ik zou zelfs eerder overwegen om een NAS in een Rack bij een hosting partij te plaatsen, veel meer controle over wie en waar je data staat.
daar hangt dan ook een compleet ander prijs plaatje aan, zelfs dropbox is al vele malen duurder. laat staan dat je zelf een nas gaat hosten in een data center!

ik denk dat dit voor veel mensen een goede en relatief goedkope oplossing kan bieden om alle data veilig te stellen.
Ik weet niet hoe het in Nederland zit maar in België denk ik niet dat er één provider is die toelaat dat je één TB gaat binnenhalen, ik zit bij Telenet en na 250-300GB vlieg ik met het duurste abbonnement op smallband die totaal niet werkbaar is, dus ik doe er 4 maand over om mijn data terug te krijgen...
Ik zit bij een Nederlandse glasvezel ISP, dus met een FUP. En ik weet zeker dat ik die TB grens per maand wel eens overschreden heb, helemaal indien je upload ook mee rekent...
Geen probleem van gemaakt door de provider.

Uiteraard zal dit een ander verhaal kunnen worden indien dit je gebruikelijke gedrag is maar dan nog heb ik twijfels of ze er erg op letten indien de capaciteit van het netwerk niet in het geding is en YMMV ofc.
Dan wordt het toch eens tijd dat je providers gaat vergelijken, Scarlet heeft geen limiet of FUP en dat is al zeker 3 jaar zo.

De uploadsnelheid gaat in België de bottleneck zijn, imo, glasvezel tot in huis zullen we wellicht nooit krijgen.
Ik weet niet hoe het in Nederland zit maar in België denk ik niet dat er één provider is die toelaat dat je één TB gaat binnenhalen
scarlet (BE) is effectief onbeperkt. Al meermaals bij wijze van test ongeveer 1.5TB op een maand gedownload en geen opmerkingen of dichtknijpen ervaren. En dat is het gewone VDSL2 abonnement.

EDPNet doet dit geloof ik ook.
...ik zit bij Telenet ...
En daar loopt het fout. Ik kan over telenet geen geen enkele positieve ervaring delen. Maar dat is voer voor een andere discussie.

[Reactie gewijzigd door besluitloos op 21 april 2013 13:01]

met Crashplan kan dat gratis. misschien een optie?
Zo'n personal 7 of 9 voor een tientje per maand zeg ik geen nee tegen :+


edit..
was een response op Ohmarinus
zaterdag 20 april 2013 10:10
Ik moet wel een beetje aan de Borg denken met zo'n collectief geheugen. Zou het ze geïnspireerd hebben?

[Reactie gewijzigd door Thrashie op 20 april 2013 12:20]

Leuk.. maar even uitgaand van een initiele USA release mis ik even hoe ze denken dat ze fatsoenlijke snelheid gaan krijgen. Het is niet alsof de internet infra voor consumenten daar zo geweldig is.
Ze bedoelen waarschijnlijk dat de snelheid hoog is omdat de schijf op je lokale netwerk zit. Het vervolgens backuppen van je data naar de andere devices over het internet duurt wel lang maar daar heb je geen last van.
Maar als ik 1 TB data op 40 andere plekken opsla dan heb ik toch VEEL te weinig ruimte om de data van iedere user op 40 plekken op te kunnen slaan ? Of zie ik hier iets over het hoofd ?

En hoe zit het met de veiligheid van mijn data ?
Kan een user op het afgeschermde gedeelte komen en hoe is dit dan beveiligd, met encryptie maar welke vorm van encryptie want ik kan me nog wel enkele tests van tweakers herinneren met encrypte usb sticks welke binnen no time alles prijs gaven !
Het staat allemaal op de Kickstarter pagina.

Ze gebruiken dus de Advanced Encryption Standard op de losse stukjes van je data die verspreid worden.

Verder vind ik het wel een gaaf idee, alleen niet heel schaalbaar qua grootte. Stel dat over 10 jaar 1TB de 100GB van nu is, dan moeten ze toch weer alle clients een grotere variant aan gaan bieden om de markt bij te houden, lijkt mij.
Het is juist heel erg schaalbaar, je geeft de helft van je harde schijf weg aan anderen. Als jij dus een 10TB schijf hebt betekend dat ook dan jij weer 5TB van anderen opslaat. Zo is er weer ruimte bij 200 (omdat je harde schijf 5 keer zo groot is) mensen om jouw harde schijf veilig te stellen.

[Reactie gewijzigd door lukjah op 20 april 2013 11:13]

Zo schaalbaar is het niet. Als de andere gebruikers kleinere schijven hebben zijn er meer nodig om jouw 5TB veilig te stellen. Jij kunt aan de andere kant ruimte bieden aan meer anderen met een 2TB schijf... tot zover schaalt het wel, het nadeel is alleen dat het aantal verbindingen dat je nodig hebt stijgt, en dat is niet oneindig schaalbaar, op een gegeven moment zal bijvoorbeeld je router gaan protesteren.
ik heb nog niet genoeg antwoorden op hun webpagina gezien. AES is mooi, maar daar is nog niet alles mee gezegd. Dat je via de webportal toegang kan krijgen tot je bestanden laat bij mij alle alarmbellen rinkelen: dan denk ik dat Space Monkey op hun servers je sleutel heeft!

Overigens zie ik in heel veel van hun marketingverhaal dat het zo energiezuinig en voordelig is omdat er geen datacentre nodig is. Ze hebben dus wel degelijk een datacentre, al zal het stukken kleiner zijn dan bij andere diensten maar toch personeel nodig hebben. Datacentres hebben volgens mij juist wel een schaalvoordeel en kunnen de hitte tegenwoordig gebruiken voor b.v. verwarming van kassen.

Ik wacht liever op een open source oplossing.
Volgens mij is de gedachte eigenlijk heel simpel.

Je krijgt gewoon pools van 40 stuks (je geeft ook volgens mij "slechts" 25,6GB (1TB/40=25,6GB) aan elke persoon).

Elke pool communiceert onderling met elkaar.
Om de snelheid hoog te houden is het handig om veel bijelkaar te hebben. Dan heb je minder wachttijden namelijk.
Tja, doe mij maar gewoon mijn externe harde schijf in combinatie met Truecrypt.. Eventueel 2 externe harde schijven en je bent 100% veilig!
1 powersurge en allebei je schijven zijn dood. Dus alle data kwijt.
Geef mij maar een leuke cloud oplossing, mogen ze aan de andere kant zich druk maken over redundantie.
Ik gebruik al jaren Crashplan, wat prima werkt! Maar dit initiatief ziet er ook wel ok uit, mits de mensen bij wie je data staat een beetje prettige uload snelheid hebben.

[Reactie gewijzigd door bas-r op 20 april 2013 10:26]

dat is onzin, want je gebruikt je externe schijven als backup.
Totdat er brand uitbreekt of diefstal plaats vind.

Om die reden gebruik ik ook een cloud oplossing (Crashplan)
@bh1967
Als die externe schijven niet gekoppeld zijn is het gen probleem inderdaad, Maar als ze gekoppeld zijn enje krijgt een power surge ben je alles kwijt.
Tot je huis afbrandt.
Daarvoor bestaat offsite backup. Gewoon je HDD'tje op je werk bewaren is meer dan voldoende.
Dit product implementeert ook offsite backup, maar dan met altijd up-to-date data en niet telkens je harddisks (waarvan je er maar 1 nodig hebt) hoeven rouleren tussen locaties.
Dit product implementeert enkel cloud storage, dat is nog geen backup. Stel dat er door een fout in het algoritme of een virus alle data verloren gaat op het systeem, dan ben je de data kwijt.

Enkel als je de data volledig lokaal hebt staan en die data dupliceert naar Space Monkey kan je spreken over offsite backup. Die duplicatie zal zelden realtime gebeuren, backups gebruik je uiteindelijk ook om menselijke fouten te voorkomen en dan is een realtime backup niet echt aangewezen.

Nu het rekensommetje... stel dat ik bij mijn huidige ISP (up 2,5Mbps) een full backup zou maken van 1TB op space monkey dan is mijn timeframe voor 1 backup in theorie meer dan 38 dagen.

1TB over USB 3.0 heb je gebackupt in 29 minuten. Dan nog een rit naar mijn werk (dat eigenlijk geen verloren tijd is, ma soit) van een uurtje met het OV en we hebben 1TB gebackupt op 1u en 30 minuten.

Ik kan echter makkelijk 3 HDD's meenemen van 3TB dus ik kan makkelijk 9 TB offiste backupen in een dikke 5u. Als ik echter met de wagen ga dan doe ik er maar 20 min over mijn rit en kan ik véél meer nemen. Omdat een HDD best vrij zwaar is beperken we ons voor het gemak tot 10 HDD's van 3TB. Die heb ik offiste op mijn werk in een dikke 15u.

Dus puur naar efficiëntie is mijn klassieke offsite backup een pak beter dan Space Monkey en dan hebben we het nog niet gehad over de ecologische kant (een verkoopsargument van Space Monkey), om 1TB op te slaan heb ik maar 1 HDD nodig en geen 40. Ik verbruik maar een 30 tal minuten stroom en geen 38 dagen. Het enige is de rit, maar dat gebeurt met het OV en die moet ik in principe sowieso maken. Kosten 1TB voor ¤65, 30 min stroom, de rit naar mijn werk is gratis.

Space Monkey is zeker een mooi en goedkoop product voor cloud strorage, maar niet voor backup.

[Reactie gewijzigd door IStealYourGun op 20 april 2013 11:58]

Dan ga je wel uit van je eigen (archaïsche) verbinding. Ik heb hier 100/100 en dan wordt het rekensommetje natuurlijk een stuk anders. Vooral omdat veel mensen alleen een paar gig aan documenten en foto's op hoeven te slaan. Mijn medialibrary van 7TB is mooi, maar dat is niet echt cruciale data, en die heeft wel genoeg aan de redundantie die RAID5 biedt. Uiteraard heeft niet iedereen toegang tot 100mbit upload, maar als ik hier in Nijmegen om me heen kijk tijdens het fietsen kan ik wel zeggen dat de verglazing de laatste tijd een hoge vlucht heeft genomen.

Daarnaast ben ik het er overigens wel mee eens dat SpaceMonkey geen product is voor backup, maar online backup kan zeker wel een goede optie zijn voor veel mensen. De 'bandbreedte' die je haalt door met een auto vol met harde schijven te gaan rijden is natuurlijk nooit te evenaren (voor normale consumenten) met een kabeltje. Je hebt dan overigens wel het risico op auto ongelukken.
De meerderheid werkt anders nog met zo een archaïsche verbinding ;). Dat je zelf bij de gelukkige bent die wel toegang heeft tot een nette 100/100 lijn maakt alle andere nog niet archaïsch :).
Persoonlijk is het ook dat wat mij tegenhoud om op cloud storage over te stappen, mijn uploadlimiet (3,5Mbps). In België maken de providers dan ook nog schone schijn met steeds snellere downloadsnelheden maar de upload blijft op een zeer laag pijl staan. Glasvezel rollen ze hier ook niet uit. Belgacom gaat volgend jaar met vectoring nog wat extra uit zijn netwerk proberen knijpen maar stelt de uitrol van FTTH steeds verder uit (omdat ze het dan moeten openzetten voor andere providers en dat zien ze niet zitten).

Het heeft eigenlijk hetzelfde verloop dan vroeger, de providers lopen hier weer achter op de ontwikkelingen. Jaren geleden kreeg streamen een dikke boost maar je was er niks mee door de harde datalimieten en dure extra pakketten. Na jaren klagen zijn ze daar wel af gestapt en hebben de meeste providers nu unlimited, maar het volgende fenomeen staat voor de deur en ze zijn weer helemaal niet mee (in België dan toch).

Qua data-veiligheid spreekt het mij wel aan wat ze hier doen, de data staat online maar wel gesplitst over meerdere gebruikers. En met encryptie. Het is dus gelukkig niet zo dat iemand zomaar aan je data kan. Ik vraag me af hoe het zit met providers die P2P verkeer toeknijpen, is het verkeer tussen de schijven ook voorzien van encryptie of enkel de data? En valt geen hogere snelheid en veiligheid te halen als ze gebruik maken van nog meer blokken?
Hetzelfde geldt voor andere cloud-services zoals Crashplan, Dropbox en dergelijke. Het ligt er vooral aan wat soort internetverbinding je hebt en hoeveel data je online wilt back-uppen.

Een doorsnee digitale muziekcollectie of foto-album van jpeg's zijn mooie voorbeelden. Iemand met exclusief lossless FLAC's of (hobby-)fotografen met RAW-bestanden kunnen echter al heel wat gigabytes verzamelen die minder praktisch zijn voor cloud-opslag. Filmcollecties van MKV's en dergelijke kan je al helemaal vergeten.

In die gevallen is het beter 2 externe schijven te voorzien waarvan je 1 schijf (versleuteld) bij een familielid achterlaat. Zo ben je verzekerd bij brand of powersurges en dergelijke. Desnoods haal je een brandkastje in huis waar je je schijf in dumpt :)

[Reactie gewijzigd door Terrestraeon op 20 april 2013 12:59]

Ik vraag mij af of je inderdaad meteen 1TB vol hebt. Maar als je eenmaal die 1TB hebt geupload hoef je alleen nog maar nieuwe en gewijzigde bestanden te uploaden.
$10 dollar per maand vind ik alleen wel duur. Na 5 jaar heb je 460euro weggedragen. Daar kun je ook 2 leuke Nas systemen voor aanschaffen.

Ik gebruik offsite backup nu ook via mijn Nas. Bij een vriend staat ook een Nas en die syncen geëncrepteerde mappen met elkaar. Uiteindelijk zijn het vooral foto's en documenten die offsite backup nodig hebben. De Hobbit.xvid oid kun je altijd wel weer terugvinden op het web.
Offsite backup beschermt je tegen diefstal, spanningspieken (bliksem) die je elektronica slopen en brand. Nu steeds minder foto's worden afgedrukt is het wel een prettig idee dat die niet zomaar weg zijn als één van die dingen je overkomt.

[Reactie gewijzigd door JanJeen op 20 april 2013 14:32]

0,079% kans dat je huis in brand gaat per jaar (6000 huisbranden per jaar op 16.696.000 inwoners met een gemiddelde huishoudensgrootte van 2,2).
Dat wil nog niet zeggen dat je NAS in de gangkast dan mee brandt. Voor je foto's gewoon iets als picasa gebruiken, de rest van je data is denk ik je minste zorg wanneer je door de as heen loopt van waar je huis ooit stond.
Als m'n huis afbrand is m'n data wel het laatste waar ik me zorgen over maak.
Jij misschien niet, maar ik heb zo'n 800 GB aan originele data (muziek, schrijfsels, software en foto's door mijzelf gecreëerd), die ik toch liever veilig heb. Sommige van die data is 15 jaar oud. Een heel klein deel zelfs 25 jaar.
Ik zie niet direct het verband tussen de creatiedatum van bestanden en de mate van belangrijkheid van het maken van een backup. Het gaat dus om sentimentele waarde. Dan nog staat een mensenleven bovenaan (mag ik hopen) wanneer er brand uitbreekt. De data clonen en extern bewaren is in dat geval voldoende. Bij een cloudbackup is het meer van belang dat 'werkbestanden' gebackupt worden en niet bestanden die lange tijd niet gewijzigd worden.

ontopic: Wat gebeurt er als ik 's nachts mijn bestanden terug wil halen en meer dan de helft van 'mijn' parity schijven staan uit? Moet er dan gewacht worden totdat alles weer beschikbaar is? Als het grootste gedeelte bij dezelfde provider draait zie ik dit wel gebeuren. Hier in NL zetten veel mensen al hun spullen uit wanneer deze niet in gebruik zijn. Niet echt het idee van p2p dus..
viel mij ook op; klopt dat bedrag wel? denk dat ze 100.000 bedoelen.

[Reactie gewijzigd door bh1967 op 20 april 2013 10:25]

Dit is ook niet voor mensen met een datalimiet. Er staat niet bij hoeveel data hij gemiddeld gaat genereren. Wel dat het bij voorkeur in het zelfde netwerksegment beter is voor de snelheid, maar verder is het me niet echt duidelijk.
lijkt me helemaal niks.. het is niet alleen weinig voor duur. het kost ook nog 10 dollar per maand.
terwijl zij geen eens servers draaien.
Voordeel is dus wel dat de prijzen sneller kunnen dalen (op productie en R&D kosten na zijn ze dus eigenlijk niet kwijt), zeggen ze zelf (zie Kickstarter). Of dat het daar ook van komt is een tweede.

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Smartphones Beheer en beveiliging Google Apple Sony Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013