Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: Information Week, submitter: Woudloper

Microsoft heeft bekendgemaakt het backupsoftwarepakket System Center Data Protection Manager (DPM) te hebben uitgebracht. Met de software worden momentopnames van data gemaakt die op Windows-servers staat. Dit gebeurt op gezette tijden met een maximum van acht keer per dag, waarmee het een semi-continue oplossing is in vergelijking met het vorige maand uitgekomen Tivoli-pakket van IBM, dat continu backups maakt. Voor Microsofts DPM is Windows Server 2003 nodig. Het pakket is verkrijgbaar vanaf 950 dollar; daarvoor mag het op één server worden geïnstalleerd en kunnen backups worden gemaakt van maximaal drie servers.

HDU-klok Volgens Microsoft kan de software bedrijven helpen bij de transitie van decennia-oude tape-backupsystemen naar moderne schijfgebaseerde systemen. Dit heeft als voordeel dat er geen gespecialiseerd personeel nodig is maar dat eindgebruikers de data zelf kunnen backuppen en terughalen. Een ander voordeel is dat het backup-proces niet altijd hele bestanden hoeft te verplaatsen zoals bij tape-backups nodig is; vooral bij grote bestanden zoals databases zou erg veel tijd te winnen zijn. Microsoft is momenteel zelf bezig zijn oude tapesystemen te vervangen en verwacht in twee jaar tijd 2,7 miljoen dollar te besparen door het gebruik van het DPM-pakket in 130 kantoren. Het bedrijf meldt de backuptijd van 300GB aan data in een van die kantoren te hebben teruggebracht van acht uur tot tien minuten.

Moderatie-faq Wijzig weergave

Reacties (43)

"Dit heeft als voordeel dat er geen gespecialiseerd personeel nodig is maar dat eindgebruikers de data zelf kunnen backuppen en terughalen"

OMG. Dus in plaats van 2 of 3 ITers met opleiding mag ik de restore overlaten aan 10000 gebruikers zonder opleiding en besef dat ook Terabyte schijven vol kunnen raken. Thommie gaat een RFC voor verviervoudiging van de SAN capaciteit inschieten.
Je hebt helemaal geen IT-ers nodig om een backup van een bestand terug te zetten als de backup on-line staat. Op het netwerk home account van de gebruiker staat dan een 'snaphot' map met daarin mappen als 'hourly' 'daily' 'weekly' etc waar de gebruiker zelf in kan kijken. Dit voor het geval zo'n gebruiker een bestandje heeft weggegooid wat niet weg moest. Of dat hij een vorige versie terug wil zien. Hij kan dan zelf de betreffende versie terugvinden.

Hoe vaak komt het niet voor dat je een hele trits tapes moet terugzetten/lezen om dat ene bestandje van die onhandige gebruiker terug te krijgen?? Met de nieuwste backup systemen hoeft dat niet meer en scheelt het een hoop dom werk op de IT afdeling.

Voor terugzetten van bv hele images of databases heb je natuurlijk wel een kundige IT-er nodig ja.
De gemiddelde gebruiker heeft geen idee hoe bestanden met elkaar samenhangen. Als het te gemakkelijk is dan is het risico dat ze 'per ongeluk' een oude versie terugzetten (sleur-en-pleur) wel heel groot. Waarna ze bij jou komen vragen waar hun laatste weken werk gebleven is..

Als jij een hele rij tapes nodig hebt om een bestandje terug te zetten, dan heb je je zaakjes niet goed voor elkaar. Bij een goed ingericht backup systeem heb je maximaal twee tapes nodig (laatste 'full', laatste 'diff'). Alleen als je handmatig backups maakt met de brain-dead backup utility van Windows dan moet je zelf bijhouden waar dingen staan. Een echte backup oplossing heeft een index waar precies in staat welke tapes er nodig zijn. Doe er nog een tape library bij en alles gaat automatisch. Die dingen kosten tegenwoordig bijna niets meer..
Een library kost niets meer???

Een 30tape dual drive LTO2 library kost gewoon 20000 euro hoor en dan hebben we het nog niet eens over de eventuele backup2disk tussenoplossing en de backup software.
OMG. Dus in plaats van 2 of 3 ITers met opleiding mag ik de restore overlaten aan 10000 gebruikers zonder opleiding en besef dat ook Terabyte schijven vol kunnen raken.
Het feit dat iets zo simpel is dat iedereen het kan betekent niet direct dat je iedereen ook de rechten ervoor moet toekennen.
Er wordt hier een, naar mijn mening, iets te rooskleuring verhaal geschetst.
Het is, naar mijn weten, overigens nog steeds niet zo dat tape's helemaal niet meer nodig zijn.
Een backup heeft als functie: Het kunnen terugzetten van gegevens in geval van een calamiteit.
Backup's moeten daarom offsite gebracht worden om een van de ergste calamiteiten: brand in de server ruimte, het hoofd te kunnen bieden.
Bij uitsluitend backup2disk wordt er niets offsite gezet.
Natuurlijk is dit op te lossen door via een snelle glasverbinding in een nabijgelegen gebouw je backup's te maken, maar dit lukt niet voor het meerdendeel van de bedrijven.
Er wordt dus eerst een backup naar disk gemaakt en dan vandaar naar tape's.
Ook zijn tape's iets makkelijker te archiveren.

Wat wel zou kunnen is dat men ipv tapes SATA schijven gebruikt.
Er wordt dan eerst een backup naar snelle SCSI of Fibre schijven gemaakt en daarna naar removable SATA schijven. Het nadeel is echter dat hier geen robots voor zijn die barcodes kunnen lezen en dat je dus nooit weet welke schijf je nodig hebt om een restore uit te voeren.
Microsoft geeft ook duidelijk aan dat je de DPM backup als staging kan gebruiken om vervolgens naar tape te schrijven (Disk-to-Disk-to-Tape strategie), zie http://www.microsoft.com/.../evaluation/overview.mspx
De tijd dat het kost om een server te backuppen wordt daarmee drastisch verminderd (want dit is Disk-to-Disk) en kan je tijdens normale werktijden gewoon doorgaan met het schrijven naar tape (backup van de DPM server).
Voor offsite backup hoeven je drives niet perse removable te zijn hoor. Je kunt het ook over internet trekken.
Over wat voor internet aansluiting en omgeving praat jij hier eigenlijk.

Een middelgroot bedrijf of gemeente met ongeveer 1000 gebruikers heeft al snel een SAN met een kleine 2 tot 4 TB aan opslag. Vaak hebben ze twee SAN's met enkele geografische clusters, zodat er een uitwijkmogelijkheid is.
Hiertussen zit meestal alleen voor de SAN replicatie een dedicated 2GB glasverbinding en dan is er voor het normale IP verkeer nog een 2GB verbinding.
Als de omgeving nog iets groter is, dan zijn deze verbindingen soms zelfs 8GB.
De omgevingen zoals hierboven omschreven, zijn de omgevingen waar MS op doeld.

Internet is voor dit soort omgevingen niet geschikt om data off-site te zetten.
Ik blijf zelf toch liever bij een oplossing zoals Acronis TrueImage 8.0 Server for Windows ($699, ook voor Linux verkrijgbaar), zodat niet alleen de data veilig is, maar ook het volledige systeem (voor $200 meer kan je de Enterprise editie krijgen met remote ondersteuning).

Waar ik wel op aan het wachten ben als admin is de Vista backup ondersteuning van Images, waarbij een patch kan worden aangebracht op de mirror, wat enorm veel tijd scheelt.
Ik heb gisteren al kunnen werken met Livestate Recovery 6.0. Vooral de Livestate Recovery Restore Anywhere add-on is vet. Van een DELL raid-5 bak naar een IBM SATA bakkie (of anderom) je image terug zetten.. of nog vetter, naar een VM-Ware disk zodat je in Disaster Recovery niet meer afhankelijk bent van beschikbare hardware!
Met de Livestate Recovery Manager 6.0 kan je het gehele desktop/server park voorzien van alle benodige software en jobs.
http://sea.symantec.com/content/product.cfm?productid=23
Dat zijn image copies, waarbij je telkens een snapshot van het complete systeem maakt. Dit MS pakket is een slap aftreksel van Tivoli wat ervoor zorgt dat je data met grote regelmaat (bij MS 8x per dag, bij Tivoli eigenlijk zo vaak de performance toelaat) wordt gebackupped, zodat je zo min mogelijk achterloopt op je data na een systeemcrash.
Daarbij is dit met een dergelijke prijs vooral bedoeld voor bedrijven, waar de data vaak een oneindigheid meer waardevol is dan een OS installatie.
Een image copy is handig als je snel je server online wilt hebben en je het niet erg vind dat je data een dag of meer achterloopt, als je daar bovenop nog een dergelijke databackup kan restoren loop je, in MS's geval, hoogstens een paar uur achter; dat verschil kan voor bedrijven vele duizenden euro's en de reputatie bij hun klanten schelen.
Het systeem maakt snapshots naar backup en daar gebruikt ie Volume Shadow Copy voor. Dus alleen de gewijzigde bestanden en alleen de gewijzigde bitjes: Dus niet de gehele file.
De vraag is hoe ver kun je terug gaan met je backup terugzetten in de tijd, want welk medium wil dit backup pakket gebruiken. En hoe handelbaar is dat, daarmee bedoel ik het off-site plaatsen van de backup tapes/disks, voor natuurramp, terrorist aanval (zoals bij Twin Towers), diefstal en brand natuurlijk en al wat ik nog vergeten ben.
Voor de rest is het natuurlijk tegenwoordig steeds belangrijker om een continue backup systeem te hebben, want dan verlies je het minste data bij een disaster. En wat ook zeer belangrijk is hoe snel bén ik weer online na een disaster?
even voor de techneuten hier...
je kan tegenwoordig waanzinnige grote data-sets (meerdere TB's) over een simpele DSL verbinding laten backuppen.
Voor de eerste backup moet alles gekopieerd worden. dus dan is het wellicht handiger om het backup medium onsite te hebben. De rest van de backups zijn gewoon snapshots. En als je die vaak genoeg maakt gaat er maar weinig data over de lijn.
Ik beheer meerdere netapp systemen die hier gebruik van maken. Databasement is een bedrijf wat de hierboven aangegeven backup oplossing aanbiedt.
tape is verleden tijd.... de markt heeft het alleen nog niet helemaal door.
Je vermeld echter niks over het kosten plaatje en het gebruikers gemak.

Als er een server volledig crashed zal je naar dat bedrijf moeten afreizen om je backup af te halen. Over een dsl of fiber lijntje zou de downtime te hoog oplopen. Geen optie voor klein en midden bedrijven die zich geen backup to disk opstellingen kunnen veroorloven. Om het maar niet te hebben over het feit dat ik huiver bij het idee een ander bedrijf de verantwoording over de backup voorziening te geven. Als zij het weten te verkloten zoals hierboven al vermeld wordt. Ben jij als hoofd van de ICT afdeling verantwoordelijk.
Nog meer food-for-thought:
- Jouw data staat (zonder dat je het weet) op een systeem waar ook data van andere bedrijven op staat. Eén lek in de beveiliging en je bedrijfsdata ligt op straat.
- Als je ooit wilt overschakelen, probeer jij dan je data daar maar van het systeem af te krijgen..
- Als Data Basement in andere handen valt of ooit in financiele problemen komt wordt hun mooie NetApp met jouw data er op geveild of verkocht. Ben jij de hoogste bieder?!?
Hmmm, eens zien,

Het bedrijfspand brand tot de grond toe af, ik heb noodketen gehuurd, hoe lang zou het duren voor KPN (of ieder andere willekeurige telecomprovider) mijn DSL verbinding online heeft zodat ik bij mijn backup kan?

Ik ben een bank/verzekeringskantoor en wettelijk gezien moet ik mijn backups bewaren voor de duur van mijn langstlopende contracten (gemiddeld 30 jaar) dat gaat gigantisch veel opslagruimte vergen bij het off-site storage bedrijf. Om niet te spreken van zeer zware SLA's in verband met de vertrouwelijkheid van de data (en nee, niet iedere bank of verzekeringskantoor is zo groot dat het zelf een dergelijke constructie kan creëren).

Tape is niet dood. De functie van tape backup is alleen veranderd. Voor de duur van een opslag en de mobilitieit van de data is tape opslag nog altijd beter dan disk opslag (of die nu onsite of off-site is).

Disk to disk to tape is vooralsnog de opslossing voor het merendeel van de bedrijven. Zelfs opslaggiganten als EMC staan deze methode voor omdat disk opslag gewoon nog niet volwassen genoeg is om de bovengenoemde scenario's te ondervangen.
Ik ben een bank/verzekeringskantoor en wettelijk gezien moet ik mijn backups bewaren voor de duur van mijn langstlopende contracten (gemiddeld 30 jaar) dat gaat gigantisch veel opslagruimte vergen bij het off-site storage bedrijf.
Zo groot zijn contracten toch ook weer niet?
Zo groot zijn contracten toch ook weer niet?
De contracten zelf niet maar de dossier vorming wel.
Het bedrijfspand brand tot de grond toe af, ik heb noodketen gehuurd, hoe lang zou het duren voor KPN (of ieder andere willekeurige telecomprovider) mijn DSL verbinding online heeft zodat ik bij mijn backup kan?
Ik heb eens zo'n contract geregeld met Aspect Telecom. Bij brand zorgen zij voor een keet voor de deur, ze bellen een KPN monteur uit bed die aan het graven slaat en de kabels direkt aansluit. In de keet zitten servers, werkstations en een telefooncentrale (het is immers Aspect) - het getroffen bedrijf kan dus erg snel weer aan de bak.

Je kunt het natuurlijk ook op de officiele manier doen: vergunninkje aanvragen etc. Maar dan is het getroffen bedrijf vast al failliet wanneer je eindelijk de benodigde vergunningen binnen hebt.
maar helaas... DataBaement is niet een bedrijf om over naar huis te schrijven. Beetje slechte servise als ze zelf niet weten wat er aan de hand is sturen ze 1 of andere duister man die na 4 uur weer weggaat en probleem dan nog niet verholpen is :S

maar het systeem dat ze aanbieden is erg geschikt mits het goedwerkt.

Het laten backuppen van data door gebruikers lijkt mij niet echt handig maar toegang krijgen tot de laatste snapshots zou erg handig zijn. scheelt veel werk voor de netwerkbeheerders. tetvens als men om het uur een snapshot maken dan kan iedreen min 1 uur terug dus voor de uitval van de maschine kan hij nog terug... bespaard een hoop werk
is 10 minuten voor het backuppen van 300Gb niet extreem weinig ? Ik veronderstel dat het hier dan toch enkel gaat over data die veranderd is sinds vorige backup.
is 10 minuten voor het backuppen van 300Gb niet extreem weinig ? Ik veronderstel dat het hier dan toch enkel gaat over data die veranderd is sinds vorige backup.
Dat is ook de meest logische oplossing en wordt dus ook gemeld in het bericht:
[...]Een ander voordeel is dat het backup-proces niet altijd hele bestanden hoeft te verplaatsen zoals bij tape-backups nodig is; vooral bij grote bestanden zoals databases zou erg veel tijd te winnen zijn.[...]
Rsync is ook op dat idee gebaseerd. Deze kopiert ook alleen de gewijzigde bestanden. En is dus ook ideaal om te backuppen.
Het kan nog efficienter door alleen die delen van het bestand die veranderd zijn te kopieren. Heel handig als het om grote bestanden gaat die iedere keer een klein beetje veranderen zoals databases en mailbestanden.

Double-Take van NSI software (nsisoftware.com) kan dat voor Windows, realtime. Zo heb ik een tijdlang een standbye MS SQL server synchroon gehouden via een 64k huurlijn die ook nog voor andere dingen werd gebruikt.

Dat zou ik graag in Rsync terug zien en dan hoeft het niet eens realtime.
Die backupt zeker heeeeeeeeeeeeeel het bestand als deze 1 bitje gewijzigd is? Dat doet DPM niet.
Je leest de comments niet en je klikt niet op de rsync link waar je meteen op de eerste regel "incremental file transfer" ziet staan.
K'vraag me af hoe je aan +2 inzichtvol komt :P
Nasbackup ook niet en dat kost je geen rib uit je lijf.
is een computer ooit te snel?
is een video kaart ooit te snel?
is een internet verbinding ooit te snel?
is geheugen ooit te veel?
is een hardschijf ooit te groot?
en staat er ooit te veel pron op die schijf?

tuurlijk niet :+
Je praat dan over een doorvoersnelheid van 512MB/sec wat in theorie natuurlijk best haalbaar is als je maar genoeg schijven in een RAID opstelling hebt draaien. Dat dit met een tape moeilijker gaat lijkt me duidelijk, tenzij je die tapes ook in RAID gaat zetten (maar dan heb je er zoveel van nodig :+ )
Ander verhaal voor de techneuten:

het zijn NIET de gewijzigde bestanden die worden gebackupt. Het zijn de - laat ik het zo noemen - de File Allocation Tables die worden opgeslagen.

Elk bestand wordt ZODRA het wordt gewijzigd opnieuw opgeslagen, zodat in een oude FAT (ja ja, ik weet het, dit is niet de correcte naam, maar het is wel duidelijk) het oorspronkelijke bestand kan worden opgezocht.

Dit heet versie-beheer, en is al heel lang bekend bij andere backupsystemen. Microsoft gebruikt dezelfde techniek ook in zijn Volume Shadow Copy.

Gezien het feit dat de FAT's veel minder informatie bevat is 300 Gig in 10 minuten zelfs erg langzaam imo.
Als je alleen de FAT opslaat, valt er weinig terug te halen...

Als je in een bestand wat, zeg, 20 KB groot is (5 clusters standaard) iets wijzigt en je slaat het op en de grootte blijft 20 KB, overschrijft hij gewoon de oude clusters.

Je vorige versie is dan weg.
Daarom sla je het bestand ook niet op, maar OPNIEUW op!

met andere woorden: er staan dus 2 versies...

nu moet je er alleen voor zorgen dat je terug kan naar die vorige versie en daar komt dus die gebackupte FAT om de hoek kijken..
Als systeembeheerder zou ik heel erg alert zijn op het feit dat gebruikers zelf met restoren bezig zouden kunnen houden.

En ik vraag me ook af waarom microsoft nou weer eigen backup software moet (erbij) maken terwijl er al een redelijk aantal bedrijven zijn die ook al goede oplossingen bieden. Die worden hier niet blij van want het is té makkelijk om zo die software makkelijker te slijten omdat je al het OS bij ze gekocht hebt.
Zelf zeggen ze:
But more than half of our customers tell us they don’t feel their existing backup solutions meet their needs.
Maar waarom dan ook niet dit systeem voor oudere versies servers uitbrengen? Er draait nog zat van.
Doe me dan die IBM versie dan, die heeft niet van die beperkingen en werkt ook nog op andere OS'en.

Dus ik geloof dat die bewering van microsoft een leugentje om eigen bestwil is. Er is zat goede backupsoftware te vinden en die nieuwe versie van microsoft komt bij mij over als een snel in elkaar gehackte versie om zo ook een graantje mee te pikken met deze lucratieve markt. Wat dat betreft heb ik nl. teveel 1.0 versies van microsoft meegemaakt.
But more than half of our customers tell us they don’t feel their existing backup solutions meet their needs.
Ik heb zo het idee dat dit vooral gebruikers zijn die de standaard windows backup tool gebruiken... }>
De reden waarom wij snachts backupppen is het gevaar op tablelocking. Als ik 8 keer per dag een "snelle disk2disk"- backup wil ga maken, ben ik bang dat het backupproces toch een aantal tabellen lockt en ik geloof niet dat ze op kantoor daar blij mee zijn.....
Dit product is gebaseerd op Volume Shadow Copy wat geen last heeft van tablelocking, idealiter gebruik je dit naast een tapebackup.

Echter, jouw dagelijkse tape gaat niet helpen op het moment dat iemand om 4:00 een bestand delete/verziekt, met dit product kan de user zelf de laatste versie weer terughalen zonder dat jij toeren hoeft uit te halen met tapes om het bestand te vinden.

Ik zou het zelf eerder naast een tape backup gebruiken als in plaats van zeker met het oog op off site opslag en veilig stelling van data.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True