Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties

Het it-budget dat in de Benelux wordt besteed aan backup- en recoverysoftware en -hardware blijft achter bij het Europese gemiddelde. Meer dan een kwart van de bedrijven zou het gevoel hebben hierin onvoldoende te investeren.

Dat meldt EMC naar aanleiding van een door onderzoeksbureau Vanson Bourne uitgevoerd disaster recovery-onderzoek, waarbij 1750 Europese bedrijven zijn ondervraagd. Volgens de cijfers geven bedrijven in de Benelux circa 8 procent van het beschikbare it-budget uit aan backup-producten die nodig zijn voor disaster recovery. Daarmee blijft de Benelux achter bij het Europese gemiddelde van 9,1 procent en is het hekkensluiter als wordt gekeken naar de doorsnee-investering: 4,2 miljoen euro tegenover een Europees gemiddelde van 6,7 miljoen euro.

Uit het EMC-onderzoek blijkt verder dat driekwart van de Europese bedrijven niet zeker is dat zij hun systemen en data kunnen herstellen mocht rampspoed hen ten deel vallen. Zeker de helft van de ondervraagden in de Benelux geeft aan dat zij in 2010 data hebben verloren; het Europese gemiddelde ligt op 20 procent. In de Benelux zou per incident 547GB verloren gaan, tegenover 387GB gemiddeld.

Als belangrijkste oorzaken van dataverlies en downtime wijzen de ondervraagden naar disfunctioneren van de hardware, gevolgd door uitvallen van stroom en softwarefalen. Downtime heeft logischerwijs gevolgen voor de productiviteit en kan leiden tot omzetverlies en vertraging in productontwikkeling. Het voornaamste probleem zou echter het verlies aan productiviteit van werknemers zijn.

Het onderzoek stelt verder dat nog circa 40 procent van de bedrijven tape gebruikt als backupmedium. Dit backupproces zou jaarlijks gemiddeld 74.000 euro kosten. Een grote meerderheid zou echter zoeken naar andere backupmogelijkheden, omdat het herstellen van data op tapes veel tijd kost en het een weinig milieuvriendelijke oplossing is.

Moderatie-faq Wijzig weergave

Reacties (54)

Waarom ze toch maar blijven schrijven dat tape traag is snap ik niet. Iedereen die niet alleen de PDF's leest maar ook weet hoe de technieken werken weet dat het echt bullshit is welke door vooral de Deduplicatie fabrikanten de markt in word gegooid. Terwijl hun eigen interne documenten her onderstaande glashard reflecteren.

Alles heeft zijn plek in de backup wereld, disk en tape. En binnen disk traditionele disk opslag, staging en deduplicatie.

Het traagste om te restoren zijn juist de nieuwe vormen van Deduplicatie. Sterker nog, dit is het inherente nadeel van de techniek. By Design. Disk en Tape spant erom, en ligt aan de installatie, gebruikte hardware en configuratie. Veelal gesproken zal het tape medium het snelste zijn.

Helaas bestaan er veel misverstanden. Enkele jaren geleden kwamen disks in opkomst als tussen medium tussen de originele data en de tape backup. Het zogenaamde diskstaging. Dit is ingevoerd omdat de tapes drives TE SNEL zijn geworden en de data niet meer snel genoeg aangeleverd kan worden.

Een moderne LTO5 drive doet 140MB/sec native met een step down tot 50MB/sec native. Als we dan met 1,5:1 compressie rekenen (niet eens 2:1)komen we op 210MB/sec en 75MB/sec. Dat betekend dat je de tape drive ten alle tijden met minimaal 75MB/sec (Voor de Backup Exec gebruikers 4500MB/min) aan data moet voeden wil deze niet gaan stop/starten en hiermee je performance verlagen, je drive slopen en je tapes slopen.

Dus tape traag noemen zegt 1 ding, je hebt het niet begrepen. Een tape drive is trager in seeks. Maar, met een juiste configuratie kosten deze maximaal 5 minuten. Een LTO drive kan in 5 minuten helemaal naar achteren en weer terug naar voren spoelen.

Verder is tape ook *veel* milieu vriendelijker dan wat er dan ook anders gebruikt kan worden aangezien het een statisch medium is. Dat betekend dat een tape welke geschreven is geen stroom meer kost en ook geen hitte meer genegeerd. Kijk je daarbij naar wat een grote robot (720 slots bijvoorbeeld) aan stroom verbruikt en wat deze kan opslaan, wat je hier tegenover aan disken zou moeten neerzetten (Dedup of niet) dan kom je op een aanzienlijke milieu besparing uit.

Alles heeft z'n plek. Tegenwoordig is het veelal Disk to Disk to Tape, of een vorm van Deduplicatie.

Wat regels:
Disk = Duur voor opslag
Tape = Goedkoop
Disk kan tegen tragere transfer rates en kun je gemakkelijk meerdere streams mee realiseren, tape niet. Maar, als het eenmaal juist op disk staat (pas op voor fragmentatie en tracht seeks te voorkomen) kun je het wel SNEL lezen omdat het in klare brokken klaar staat. 200MB/sec is geen enkel probleem met simpele hardware.

Tape is dan weer goedkoop per GB en makkelijk qua opslag en snel.

Een goede oplossing is het volgende. Stel je Full ingest is 10TB. Dan heb je minimaal 10TB (+ wat slack space vanwege disk config) nodig + 4x INC/Diff. Laten we daar 20% voor nemen. Om 1 week op disk te bewaren heb je minimaal 18TB nodig. Maar 20TB (10 disks) is beter. Over het algemeen begin je dan met 12x2TB welke je verdeelt in 4x3 disks in R0. Om zo parallelle backup streams te realiseren.

Goed, dan dedup. Wederom enkele belangrijke zaken. 1 backup kopie op dedup = geen. Er hoeft maar iets te gebeuren en je backup is weg. Dedup is gevoelig. Bij tape, als er een tape valt, is die tape stuk, prima, pak je een eerdere backup. Bij Dedup, gaat de DB stuk, verdwijnt er een file, filesystem corruption, whatever en AL je backup kopieŽn zijn weg. Dus bij deduplicatie moet je minimaal uitgaan van 2 kopieŽn. Daarbij is deduplicatie wel weer handig aangezien de lijn bandbreedte naar een tweede locatie niet al te hoog hoeft te zijn vanwege de data reductie. De investering daarin tegen is initieel vele malen hogen (gemiddeld factor 4x a 5x vergeleken met een configuratie zoals hierboven).

Dan performance wise. Disk en tape backuppen en restoren evensnel en zijn calculeerbaar. Deduplicatie heeft als voordeel dat je er zeer snel mee kunt backuppen, maar de restore daar in tegen ERG traag is. In een Enterprise omgeving is 1000MB/sec (Ja, ~1GB/sec of wel 1000 MegaByte) backup geen probleem. Maar de restore snelheid kan zomaar 40MB/sec zijn. Dat klinkt wellicht niet als weinig, maar is het wel afhankelijk van de dataset en in vergelijking met tape.

Dedup + Tape = Error. Een dedup store haalt over het algemeen niet de minimale snelheid van de tape drive en vormt dus een slechte mix.

Wat is het beste? Dat is er niet. Ga naar een backup specialist en bespreek samen wat er voor jou bedrijf en omgeving belangrijk is. Welk budget is er? Etc.
Toch is backuppen op tape niet eens zo'n gek idee. Het is bij een goede procedure heel zeker, goedkoop per GB en makkelijk te vervoeren naar een offsite lokatie. Daarnaast veroudert het medium goed, beter dan CD's of DVD's, en is het erg stevig en kan tegen wat warmte.

Maar goed, het vereist wel het fysiek werken met tapes. Dat is bij een online backup niet het geval, maar daar moet je uplink goed genoeg zijn, en als je eens wat moet terughalen, je downlink ook goed genoeg.

Elke strategie heeft zijn voor- en nadelen.
Tape heeft zijn plaats, maar niet meer als primair backup medium. Veel bedrijven vragen een restore performance (Recovery Time Objective) die met fysieke tapes niet haalbaar is. Ook is off-site handling van tapes een drama voor personeel en security.

Wat veel gedaan wordt is voor de backup (dus informatie die teruggehaald moet kunnen worden om er weer aan verder te werken) een disk of VTL toe te passen. Hiermee kan veel sneller ge-restored worden. Door de-duplicatie in te bouwen kan dat ook nog eens heel efficient. Groot voordeel van deduplicatie is dat je een off-site kopie kunt maken (bijv voor disaster recovery) door de data over een relatief dun lijntje naar een andere site te sturen. No more tape handling.

Waar fysieke tape dan wel goed voor is, is long-term archief. Dat is data met historische waarde die zo nu en dan nog geraadpleegd wordt, en waar mogelijk vanwege compliency regels nog een aantal jaar (7, 10 of 30 jaar is geen uitzondering) naar gevraagd kan worden. Die data hoeft niet snel opvraagbaar te zijn, maar moet met minimale kosten bewaard blijven. Niets kan tippen aan de kosten per TB van tape. Het is nog groen ook, want tapes verbruiken geen energie.
Overdrijven is ook een vak.
Tape wordt nog volop gebruikt in bedrijven van klein tot groot als primair backup medium.
Het is ook nogal kort door de bocht om zondermeer te roepen dat de restore performance van een tape niet zou voldoen.
In geval van een calamiteit praat je over bulk restores en in tegenstelling tot de restore van een aantal files wordt het verschil in performance tussen disken en een tape ineens een heel ander verhaal.
Een LTO5 doet native 140MB/s en met wat compressie erbij kan dat nog een stuk omhoog schieten.

Wat is overigens het drama voor personeel en security bij off-site handling van tapes?
Off-site handling van tapes is een drama voor security maar off-site data via een lijntje is geen drama voor security?

Verder klinkt het allemaal leuk om de data over een 'relatief dun' lijntje naar een andere site te sturen maar de kosten die daarmee gemoeid zijn zijn niet misselijk en veel bedrijven die daar over denken en hun prive internet lijntje in gedachten hebben schrikken zich rot als ze de prijs voor een lijn horen en dan zijn de kosten voor de tweede locatie nog niet eens aan bod geweest.
Zoals sanderr al schrijft heeft elke strategie zijn voor- en nadelen. Echter moet ik wel aanmerken dat Tape vooralsnog wel als primair backup medium dient bij het grootste gedeelte van onze klanten.

De vraag van de klant is altijd om een optimale RPO/RTO te behalen, die kan je haast niet anders waarmaken dan met snapshot technologie. Hier wordt dan ook flink in geÔnvesteerd, hardware en licenties zijn immers alles behalve goedkoop. Aangezien de retentie van deze snapshots over het algemeen relatief kort is (bijv. 2 weken), vanwege de hoge kosten van bijv. fibre channel disks opslag, merk ik deze niet aan als een volwaardig back-up. Als het volume namelijk corrupt raakt of verwijderd wordt kan je deze niet meer uit je snapshot herstellen (deze bevinden zich namelijk over het algemeen binnen het volume op je SAN).

In mijn optiek staan snapshots dus garant voor een optimale RPO/RTO en kan je terugvallen op een tape als laatste hulpmiddel. Op het moment dat je een database moet gaan herstellen van 2 weken en/of ouder dan is er echt wel veel stront aan de knikker, het heeft immers 2 weken geduurd voordat het opviel dat deze restore nodig was. Alles binnen de 2 weken kan je meestal binnen enkele minuten uit een snapshot herstellen.

En ja, als je zo'n volume moet herstellen vanaf Tape ben je wel even bezig.. maar dat zijn uitzonderlijke situaties die in de praktijk (bijna) niet voorkomen.
... omdat het herstellen van data op tapes veel tijd kost en het een weinig milieuvriendelijke oplossing is.
Ik vind geen bron in het artikel, maar iemand die weet waarom tapes "weinig milieuvriendelijk" zijn? Ik was net van het omgekeerde overtuigd. Een tape verbruikt bv geen stroom, waar een disk-based storage typisch altijd online is en dat weer wel doet.
EMC is een storage leverancier, dus natuurlijk gaan ze op zoek naar een of ander onzinargument om een belangrijke concurrerende techniek in een kwaad daglicht te plaatsen :)

Ik denk dat de toekomst zit in een mix van (asynchrone) replicatie naar disk voor disaster recovery en tapes voor historie en lange termijn archivering. Dat is in ieder geval de beweging die wij gaan maken.
Het maken van de tape op zich is nu niet echt een toonbeeld van milieuvriendelijkheid.
Is dat voor een HDD wel het geval?
Dit was ook direct mijn eerste gedachte.
Er zijn vast wel redenen zijn te bedenken waarom tapes minder milieuvriendelijk zouden zijn maar het wil er bij mij echt niet in dat er ook maar ťťn bedrijf om die reden de tapes de deur uit zou doen. Het enige wat voor bedrijven geldt is kosten (en recovery time).
Ik denk ook dat veel bedrijven zich niet realiseren (of willen realiseren) dat het de verantwoordelijkheid van het bedrijf zelf is. Veel data wordt op een server gezet en als de netwerkbeheerder een externe partij is wordt er vaak gemakshalve maar vanuit gegaan dat deze partij het wel regelt.

Nog altijd profiteren veel bedrijven niet van de IT, maar zien deze afdeling als een last. En dat terwijl veel backup-schema's helemaal niet zo zenuwslopend traag of tergend duur hoeven te zijn.

Backups maken gaat trouwens verder dan "de documentjes op een aparte schijf zetten". Ik denk dat veel bedrijven zich dit ook niet realiseren.
Wat is er mis met tape als backupmedium ? Tape is een algemeen geaccepteerd medium in bedrijven die veel data op moeten slaan. De huidige generatie LTO tapes kunnen al zodanig veel data aan dat de prijs / GB heel erg laag ligt. B.v. een LTO4 tape kan 800GB tot 1,6TB data aan en kost ongeveer 35 euro.

Maar ik snap EMC wel, ze leveren zelf natuurlijk ook mooie backup oplossingen dus komt dit onderzoek meer over als een "Wij van WC-Eend" verhaal.

Edit: typo

[Reactie gewijzigd door Deurdouwer op 23 november 2011 17:40]

Dus een bedrijf wat backup-oplossingen verkoopt vindt dat we in de Benelux te weinig geld aan backup-oplossingen uitgeven. Juist...
De reden dat EMC dit publiceert is natuurlijk om de DataDomain appliance of de Avamar Data Store aan de man te brengen:
http://www.datadomain.com/
http://netherlands.emc.co...r-data-store-solution.htm
Daarnaast hebben ze natuurlijk ook nog Networker voorheen Legato.
En zo hebben ze een aardige portefeuille bij elkaar gekocht :)

Zelf heb ik ervaring met de DD880 en DD890 boxen van EMC en tot nu toe (ongeveer 1 jaar) behoorlijk tevreden. Wij gebruiken ze als VTL's in onze CommVault back-up omgevingen, maar je kunt ook CIFS of NFS shares aanmaken en daar je back-up data heen sturen.
Probleem, zoals Quindor hieronder aangeeft, is vaak de restore snelheid bij deduplicatie configuraties omdat de data gefragmenteerd op het storage systeem staat. Al zijn deze DD boxen tot behoorlijk wat in staat en hebben we tot nu toe nog vaker de bottleneck aan de server kant zitten. Zodra SSD disks groter en goedkoper worden zal dat probleem ook opgelost zijn en zie ik een mooie toekomst voor dit soort appliances.

Daarnaast is client side deduplication momenteel natuurlijk helemaal hot, waardoor je alleen maar de blokken overhaalt van de server naar je dedup oplossing die je nog niet hebt ipv alles overhalen en weggooien wat je niet nodig hebt. Hierdoor neemt de benodigde bandbreedte van alle backups af (gemiddeld zo tussen de 80 a 90 procent na dedup en compressie!). Ook leuk om VM's mee te back-uppen waar de NIC van bijvoorbeeld de ESX host meestal de bottleneck is.

Overigens gebruiken wij ook nog steeds tapes voor specifieke zaken zoals data met een lange bewaartermijn of het back-uppen van Netapp filers die wel in staat zijn om een LTO 4/5 drive maximaal te laten presteren. En dat zal voorlopig ook nog wel zo blijven.
Ah, kijk! Mijn ervaring van alle Dedup (software + hardware) komt datadomain inderdaad ook als de beste uit. Dat is ook niet altijd geweldig geweest (praat ik over 2 a 3 jaar terug) maar inmiddels hebben ze een erg solide product waarin de nadelen zoals ik vernoemd heb nog aanwezig zijn, maar zo klein mogelijk zijn geworden. Inherent nadeel blijft nadeel. En zoals je al schrijft, zal dat niet verdwijnen totdat SSD's betaalbaar zijn als storage.

Grootste nadeel blijft wel en dat is de prijs. ;) Maar als je dat er voor over hebt, zijn het inderdaad erg mooie apparaten en zeker aan te raden! Al helemaal als je toevallig al 2 vestigingen hebt met een data lijn er tussen.

Client side dedup is inderdaad ook leuk, maar kan weer niet in combi met een datadomain. Wel vele software Deduplicatie (Symantec, etc.) en daarin werkt het goed en snel!

VM's heb ik nog wel een tip voor. Gebruik vStorage. Op die manier kun je rechtstreeks vanaf je SAN backuppen, dus over je FC of iSCSI connectie.

vStorage in combinatie met Software Dedup van Symantec (Netbackup) heb ik bij klanten met 800MB/sec - 1000Mb/sec zien lopen met 1 media server (2x 4Gbit FC connectie)! Restores daar in tegen zitten dan weer rond de 40MB/sec - 60MB/sec. En file restores duren ook erg lang in vergelijking met traditioneel disk of zelfs tape!

Dedup blijft nog steeds kostbaar voor lange retentie en is lastig wanneer het vol is, je kunt niet eventjes meer tapes kopen maar bent eigenlijk verplicht de grotere versie te kopen of je data minder lang te gaan bewaren. Disks erbij schalen kan tegenwoordig, maar is erg inefficiŽnt.

Maar als ik je reactie zo lees heb je het principe "Zet de juiste techniek in voor de juiste oplossing" erg goed begrepen! Altijd mooi om te zien/lezen! :D
Prijs is inderdaad niet mals, maar een serieuze tape library gevuld met een aantal LTO 4/5 drives kost ook een paar knaken. Bovendien heb je geen tape handling, problemen met mechanica (gripper of tapes die vast zitten) en veel minder ruimte nodig. Daarentegen verstoken ze wel weer aardig wat stroom.

Client side dedup is zeker wel mogelijk met DataDomain. Kijk maar eens naar DD Boost:
http://www.datadomain.com/products/dd-boost.html
Avamar Data Store is onderwater volgens mij ook een soort DD box in combinatie met de Avamar software waarmee client side dedup zeker mogelijk is.
Of je kan de DD box via CIFS/NFS aanspreken en daarop je disk/magnetic library zetten.

vStorage gebruiken we ook en voorheen ook met VCB gewerkt, maar ook dat heeft weer zijn nadelen en voordelen. Complexiteit en een extra proxy server benodigd om 2 nadelen te noemen. Maar daarom sluit ik mij ook volledig aan bij jouw uitspraak: "de juiste techniek voor de juiste oplossing".
Wij van WC-eend...
De bedrijven waar ik voor werk regelen altijd goed de back-up. 1x in de week dag de wijzigen en 2x per jaar een volledige back-up.

Ook raad ik mijn klanten altijd aan om back-up's intern en extern op te slaan in geval van brand oid.

[Reactie gewijzigd door iloran op 23 november 2011 17:21]

1x in de week de wijzigingen? Goed? Sorry, daar kan ik het niet mee eens zijn. Elke dag incrementals, of full back-ups. Je wil toch geen week aan werk kwijt zijn?
Als dat zo belangrijk is de data dat je elke dag moet back-uppen, dan heb je toch wel lvl3 redundante systemen staan, anders ben je niet goed bezig.
1x per week zou genoeg moeten zijn, anders level van redundantie aanpassen zou ik zeggen.
Bij tweakers doe ik het ook met redundantie; Als eerste wordt er elke nacht een volledige backup gemaakt, die backup gaat ook elke dag offsite. Vervolgens heb ik ook een (async) replica draaien op een andere server, en als het nodig is kunnen we met behulp van de binlogs en een backup tot een week oud tot op de seconde zo'n beetje de data weer restoren. En dat restoren test ik ook elke nacht automatisch (backups maken zonder ooit een restore getest te hebben = je hebt gaan backups).

De storage doe ik elke 5 minuten een backup van, die vervolgens mbv snapshots en offsite backups ook tot een jaar lang bewaard worden.
Kees, helemaal mee eens met je verhaal. Jammer genoeg gaat het, in reactie op Ghoztmaster, niet op. Jij hebt het over redundante backup systemen/procedures.

Ghoztmaster doelt op 3 lagen van redundantie binnen je draaiende systeem zodat je genoeg hebt aan 1 keer per week een backup. Nou dan kan ik hem uit de droom helpen: dat is in verreweg de meeste gevallen niet genoeg.

Een backup moet gewoon offsite en offline gaan. Stel dat je een virusinfectie hebt die je systemen infiltreert? Wat heb je dan aan je 3 lagen van redundancy als alle systemen worden geÔnfiltreerd...? Of een 747 die zich in je datacenter boort? Dan heb je al een redundant datacenter nodig... Of zoiets stompzinnig als corrupte data welke zich repliceert over je SAN...

Ofwel: hoeveel lagen van redundantie je ook hebt: een backup heb je altijd nodig. En dan wil je niet een backup van een week terugzetten als al je redundante systemen falen (in de meeste gevallen dan).
Backup is een onderdeel van ICT beveiliging dat is duidelijk. En ook een belangrijk onderdeel.

De oplossing is om een integrale databeschermingsstrategie toe te passen. En dat is geen makkelijke opgaaf.

Eigenlijk zou je database bestanden in een backup extern aan een screening / verbands controle moeten onderwerpen om corrupte data z.s.m. te herkennen en actie te kunnen ondernemen.

Ik heb eens gelezen dat 90% van de bedrijven die hun bestanden geheel kwijt raken ook geheel failliet gaan.

[Reactie gewijzigd door E_E_F op 24 november 2011 09:22]

voor de meesten gaat het over websites, en die draaien gelukkig voor t merendeel op linux.. dus weinig kans op virii.. maar veel kans (vooral de laatste tijd) op hackertjes..
dus een hids als ossec , een nids zoals snort of suricata en fail2ban (simpel maar erg effectief ) met een regelmatige backup zijn dan niet uit den boze..

Hier draai ik 3x per week een incremental, 1x een full (dus 4 verschillende backups), en 1x per maand een rsync naar een andere hosting provider (andere datacenter), 1x per jaar alles lokaal op disk pleuren. en dat zal hoogst waarschijnlijk in 99.9% voldoen, maar zeker kunnen we nooit zijn.

gebruikt er iemand hier svn voor z'n backups? (heb je alle wijzigingen opgeslagen, en neemt dus minder ruimte in dan meerdere backups, maar wel mirroren op een andere server, voor eventuele boeings die uit de lucht vallen :P ), ik ga 't in ieder geval testen..
Ben heel benieuwd hoe redundantie jou gaat helpen bij de beheerder danwel gebruiker die een blunder maakt en belangrijke data weg gooit.
En wat te denken van corruptie die zich vrolijk gaat verspreiden over je redundante systemen.
1x per week wijzigen lijkt me nog steeds erg weinig.

Ikzelf backup all wijzigingen elk uur, en dat ik 'vroeger' de back-up regelde bij een scheepswerf werd de back-up 4 maal per dag uitgevoerd.

Zeker met tape backup (tot een bepaalde grote) hoeft dit helemaal niet erg duur te zijn. Het is alleen even een kwestie van opzetten en blijven testen.
En als er geen brand is, wat moeten ze dan doen? ;)
En is je backup methode ook getest?

Want er zijn er wel veel die backups hebben draaien, maar als ze het nodig hebben blijkt het toch niet te werken.
Of ... ah den backup had een error bij 't aanmaken.
1x per week de wijzigingen ? Dus dan zijn ze in ergste geval dus een week werk kwijt? Dat noem ik niet echt goed...
Bedoeld 1x per dag
Hangt helemaal van de situatie af natuurlijk. De impact vh verlies tov de kosten en duur van de backup.
Ik maak hier sinds kort gebruik van Jungledisk op de server. Supermakkelijk op te zetten, goedkoop en doet zijn werk zeer goed.
Nu ken ik Jungle disk niet maar vergeet niet dat het voor bedrijven erg belangrijk is dat je ook een back-up van gisteren, of eergisteren of vorige week moet kunnen terug halen.

Ik ben geen bekende in online-backup systemen, maar als grand-father-son type back-ups niet mogelijk zijn, waarbij je dus op verschillende dagen/weken/maanden back-ups kan terug halen dan is een dergelijk back-up systeem zo goed als niet bruikbaar.

BV: Wat als je AutoCAD crasht en net dat ene bestandje is corrupt? Dan staat dat corrupte bestandje ook in je online backup, en als je dan alleen die versie kan terug halen dan ben je alsnog de pineut!
Je kan zelf kiezen hoelang versies van bestanden (die aangepast of verwijderd zijn) bijgehouden moeten worden. Ik kan me wel voorstellen dat het voor grote bedrijven interessanter is om te investeren in goed materiaal maar voor ons bedrijfje (2 computers en een server) is zo'n online backup toepassing wel handig.

Je data is trouwens versleuteld met een zelfgekozen key dus ik vertrouw er ook op dat mijn data daar veilig staat.
Is er ook nog onderzoek gedaan naar Nederland, BelgiŽ en Luxemburg alleen? Ik kan me voorstellen dat het in Nederland juist meer (of minder) gebeurt dan in BelgiŽ.

Verder zou het kunnen dat we hier gewoon meer hebben opgeslagen, waardoor er ook meer verloren gaat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True