Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 48 reacties
Bron: Reuters

De kans dat een bedrijfskritisch systeem één keer per jaar gedurende meer dan twee uur uitvalt is één op twee, volgens een artikel van Reuters. Het risico dat daarbij ook belangrijke data voorgoed verloren gaat is echter een stuk kleiner, aldus veiligheidsexperts van Ernst & Young. De aanslagen op het WTC en het Pentagon in 2001 hebben bedrijven veel bewuster gemaakt van de kwetsbaarheid van hun systemen. Overigens neemt terrorisme als oorzaak voor systeemuitval ongeveer de laatste plaats in. Als belangrijkste oorzaken noemt Ernst & Young slecht functionerende hardware, telecommunicatie en software. Opmerkelijk genoeg komen virusuitbraken als veroorzaker van systeemuitval pas daarna in het rijtje. Volgens het Amerikaanse bedrijf Veritas Software, dat software voor opslagmanagement maakt, heeft zeventien procent van de bedrijven ook na 11 september 2001 nog geen rampenscenario klaar. Een kwart van de bedrijven die wel zo'n plan hebben liggen, heeft dat nog nooit getest met zijn systemen.

Data recovery pc uitvalDe belangrijkste punten die in zo'n plan van een grote onderneming moeten staan, zijn aanwijzingen voor de beperking van de effecten van systeemuitval en voor het omgaan met de pers. Volgens het onderzoek van Ernst & Young zijn veel bedrijven banger voor imagoverlies dan voor dataverlies. Terwijl bij veel grote ondernemingen de gegevens vaak nog wel ergens op een computer of op papier terug te vinden zijn, blijkt dat bij kleine ondernemingen het dataverlies meestal onherstelbaar is. Volgens veiligheidsdeskundige Lisa Hansford-Smith zou elk bedrijf eens moeten nagaan of het zin heeft om dure faciliteiten voor opslagmanagement aan te schaffen. Zij voegt daar wel aan toe, dat zelfs de duurste vormen daarvan natuurlijk geen garantie bieden tegen het uitvallen van een systeem:

Crash test (klein)British Airways said it had a power outage for two hours last month, bringing down worldwide check-in and baggage systems. Eleven flights from London's Heathrow Airport were canceled and others were delayed, despite the existence of recovery plans.
Moderatie-faq Wijzig weergave

Reacties (48)

lijkt alsof hardware de laatste tijd een veel kortere leeftijd haalt, oude 468 pc'tjes draaien nog altijd best (nou jah niet overal) maar een amd 1 gigaherz haalt nog geen 2 jaar..
Komt omdat je van een nieuwe pc veel meer eist dan wat ie aankan, terwijl je je bij een oudje erbij neerlegt dat ie weinig aankan :)

Voor beveiligingen als hierboven geldt eigenlijk precies hetzelfde: Mensen zijn vaak geneigd te denken dat hoe verder de technologie gaat, hoe minder er fout kan gaan. Uiteraard is niks minder waar: Hoe meer je kan, hoe meer er fout kan gaan!!
Komt omdat je van een nieuwe pc veel meer eist dan wat ie aankan, terwijl je je bij een oudje erbij neerlegt dat ie weinig aankan
Met alle respect ... wat een onzin.

Een 486 was ook ooit eens top-of-the-line (wat nu de P4/Xeon 3.2 GHz is). Toen werd er van de 486 toch ook niet meer geeist dan nu van de 3.2 GHz Xeon?

Persoonlijk ga ik meer voor de uitleg van Stephan Oudmaijer: door de warmte leven de componenten korter.
Met alle respect ... wat een onzin.
Met alle respect ... wat een onzin.

Een 486 DX (jawel) was ooit top of the line, maar dan praten we wel over een tijd dat IT in het algemeen nog een stuk kleiner was. Internet was nog voorbehouden aan de happy few op de universiteit en werd voornamelijk voor email gebruikt. Bedrijfsnetwerken waren meestal 10Mb coax (tokenring als je pech had). Je documenten pasten allemaal nog op een 1.44 Mb floppy.
Als je echt zware dingen moest doen, had je een mainframe met terminals.

Nu moet een server webserven, AD hosten, printserven, file serven (hoeveel MP3's staan er bij jullie op het netwerk?), mail serven, databases hosten, virtuele machines hosten, ftp-serven, web proxy-en en nog liefst tegelijk ook.

Ik denk dat je dus wel kunt stellen dat een huidige machine het relatief zwaarder heeft dan een 486 in zijn toptijd.

@rbs (hieronder): Ik heb het alleen over servers, want daar gaat het artikel over... Ik zou een computer waar jij je vakantiefoto's op photoshopped niet als belangrijk bestempelen. :)
@egeltje:
JIj hebt het hier puur en alleen over een server die het zo druk heeft. Je hebt gelijk dat die druk is. Maar hij had het 5 jaar geleden ook al druk. Toen had je ook file en printservers. High-speed Internet verkeer wordt door een router geregeld, daar heeft de PC-based server weinig mee te maken.

mol heeft groot gelijk dat de CPU usage momenteel veel lager is dan 5 jaar terug. 5 jaar terug moest je nog ff wachten als je een photoshop filter over je vakantiefoto's heengooide of als Word de TOC moest uitrekenen. Die p4 2.0 die ik hier op mijn werk heb kijk daar niet van op, die is op een dag 99% idle of meer. Al dat internetten en documenten van het net plukken doet daar niks aan af.

edit: type-o

* 786562 rbs
Komt omdat je van een nieuwe pc veel meer eist dan wat ie aankan, terwijl je je bij een oudje erbij neerlegt dat ie weinig aankan
Da's natuurlijk wel waar als je gaat kijken naar de hoeveelheid absoluut werk dat de computer verricht. Maar ga je kijken naar de relatieve belasting, dan had een computer het vroeger een stuk 'drukker'.
Onder Windows staan bijvoorbeeld CPU's nu een groot gedeelte van de tijd in de 'idle' mode. Dan krijgen ze bewust de instructie om een tijdje niks te doen. Onder Windows 3.1, maar zeker daarvoor (DOS) bestond dat nog helemaal niet. De processor was ofwel continu bezig met het verwerken van data, of was heel druk bezig met te kijken of je geen toets in drukt. De relatieve processorbelasting lag een stuk hoger.
Er zijn naar ik dacht wel OS'en die de CPU op idle zetten i.p.v. het uitvoeren van NOP's (No OPeration). In dat geval is niets doen echt niets doen. Ik weet helaas niet precies welke OS'en dit doen.
Ah maar niets doen is ook iets doen. Idle is pas idle als de PC in powersaving gaat of uit staat.
processoren en hardware werken veel sneller en worden veel heter, daarbij kosten ze minder.

eigenlijk niet gek dat de uitval hoger is :)
Niet helemaal waar, als je een oude 486 oc'd dan heeft die net zoveel kans om te overlijden als een nieuwe processor.

Het klopt dat mainframe servers vaker en erger crashen daar dit wel het meest gebruikte systeem is, daarom is het bij ons in het bedrijf ook verantwoord om toch cker 1 a 2 keer per week de server te herstarten en hier onderhoud aan te verrichten.
De meeste crashes worden nog steeds veroorzaakt door cash flow en temporary file stack die te groot wordt, ook vaak is het normale geheugen verbruik te hoog en is het dus ook aan te raden dit te vergroten.

Windows server 2003 lost redelijk wat van deze problemen op maar zorgt ook weer voor andere problemen, onnodige system crashes wanneer er een tape streamer wordt gebruikt (met de huidige updates van eergister is dit echter wel opgelost)
Ik vind het niet gek, elektronica heeft tegenwoordig een kortere levensduur. Als je de mobieltjes van vroeger zag, die dingen waren niet kapot te krijgen en nu 1x vallen en alles ligt in 2en. Zelfde als met software, vroeger was het simpel maar degelijk, nu ingewikkeld en teveel opties > crashgevoelig.
sja, ik ben al meer dan twee jaar op T.net aant met mijn 1Ghz, en hij doet het nog steeds goed hoor :)

[onnozele modus]
ik vraag me af of ze ook crash test dummies gebruiken bij de crash tests :+
[/onnozele modus]
oude 468 pc'tjes draaien nog altijd best

Wat heeft dat nou weer met het plat gaan van bedrijfssystemen te maken?

En als de stroom uitvalt falen zowel de nieuwe als de oude hardeware. Het ligt aan je plannen hoe je dat opvangt. En daar kun je

[RECLAME]
ERNST & JONG voor benaderen
[eide reclame]
bedrijfs kritische machines zijn vaak grote UNIX systemen, nee geen LINUX, zoals HP-UX en of Solaris machines. Daarnaast is en blijft het good old mainframe nog steeds de onbetwiste kampioen.

Al moet gezegd worden dat de mainframes niet zo stabiel zijn als iedereen zomaar aanneemt. Vaak zijn hele processen niet beschikbaar, en moet een partitie opnieuw worden geactiveerd. Vaak is het ook zo dat het merendeel van de processen in batch draaien. Hierdoor is het risico van een crash minder, omdat de software bij het laden opnieuw wordt "ververst".
bedrijfs kritische machines zijn vaak grote UNIX systemen, nee geen LINUX, zoals HP-UX en of Solaris machines. Daarnaast is en blijft het good old mainframe nog steeds de onbetwiste kampioen.
Gnu/Linux en * BSD machines behoren hier NET zo goed bij..
Of was je vergeten dat Credit Suisse het transactionele systeem gemigreerd heeft van Mainframe naar Gnu/Linux cluster?

Ik ken overigens ook zat ziekenhuizen die hun productiesystem op Linux hebben draaien

edit: hahaha ik ben gewoon "overbodig" gemod.
dat slaat ook nergens op!!!
reaktie op saintnightmare :

Qua OS ben ik het met je eens, maar vergeet niet de hardware waar o.a. Solaris op draait...meerdere hotswappable moederborden, foutdetectie systemen die ervoor zorgen dat bij een kapot onderdeel storingsdiensten gewaarschuwd worden en tevens zorgen dat de machine doordraait...
Die machines zijn wel heel anders uitgerust dan de intel based machines...hoewel een clustertje natuurlijk ook de risiko's verminderd...

Ikkezelf ben ook een linux / bsd fan....draai er zowat alles op thuis, maar er is wel degelijk een verschil tussen dergelijke grote systemen en linux/bsd systemen...beiden hebben hun sterke gebieden en daar moet je ze ook voor inzetten...
Boner is waarschijnlijk een vastgeroeste UNIX / Mainframe man, compleet met geitenharen wollen sokken en koffie-beker met "AT&T" of "IBM" er op.
Iemand die Linux etc. een bedreiging vind voor z'n vastgeroeste wereldje en maar niet kan of wil geloven dat Linux en BSD ook enorm stabiele OS'sen zijn en dat veel bedrijfskritische functionaliteiten op Linux of BSD draaien.

* 786562 saintnightmare
Waarschijnlijk geen IBM mok. IBM heeft tegenwoordig voor bijna elke systeem een linux implementatie.

Veel opvallender is dat het woord windows niet in boner zijn verhaal voorkomt. Misschien dat tie niet eens van het bestaan weet. Ik benijd hem ;)
Hmm Sun lijtk redelijk stabiel als ik nar de uptime kijk van deze dozen
kronos% uptime
1:39pm up 728 day(s), 1:46, 28 users, load average: 0.18, 0.29, 0.32
kronos%
hupnos%uptime
1:42pm up 1161 day(s), 13 min(s), 10 users, load average: 0.09, 0.11, 0.12
sun2%
Ik denk dat veel bedrijven overigens gewoon geen Disaster recovery plan hebben omdat de kans dat er iets gebeurd zodanig klein is dat je hier desnoods een commercieel risico kan nemen. Bovendien kan je je ook verzekeren voor de gevolgen van restschade na een disaster. Als de premie lager is dan het up to date hebben van een backup tja ik wete het ook niet. Tuurlijk is de schade bij een disaster moeilijk in alleen gel duit te drukken maar toch
Ik heb zelf ook ondervonden dat hardware sneller sterft dan software. Ik heb al heel wat -- voornamelijk IDE -- schijven weten sterven. Tweede in mijn rijtje staan voedingen. Nu ja, eigenlijk staan fans helemaal bovenaan, maar dat is maar een klein verwaarloosbaar probleempje dat snel verholpen is :). (Je moet er natuurlijk wel voor zorgen dat je cpu's niet beginnen bakken, airconditioning op 6°C doet wonderen).

Overigens .. wat oude hardware betreft heb je gelijk. Heb hier een heel aantal oude machines (van 8088 tot P90's) staan die allen nog in "top" conditie zijn met alle originele hardware (behalve hier een daar een geïmplodeerd scherm dan). 'k weet ook niet hoe het komt, maar misschien was het "vroeger" echt wel beter..
Toch wel -- waar het echt niet anders kan :9 -- misschien moest ik maar eens meer geld uitgeven aan hardware :Y).
Al moet gezegd worden dat de mainframes niet zo stabiel zijn als iedereen zomaar aanneemt. Vaak zijn hele processen niet beschikbaar, en moet een partitie opnieuw worden geactiveerd. Vaak is het ook zo dat het merendeel van de processen in batch draaien. Hierdoor is het risico van een crash minder, omdat de software bij het laden opnieuw wordt "ververst".
Zoals ik zei HP NONSTOP SERVER! Die's wel stabiel en draaien geen batchprocessen op :D
Ben jij een verkoper ofzo? Denk je nu echt dat hp de enige is die deze oplossingen kan leveren?

Heb trouwers meer dan eens meegemaakt dat redundant hp systemen waarin een kapot stuk hardware het andere meetrok zodat de boel alsnog plat kwam te liggen. En dan die dat-doet-tie-anders-nooit-hoor koppen van die hp mannetjes.

Dat dit meer dan eens voorkwam (ik bespaar je de verhalen) was bv voor GE IS (nu gxs) een paar jaar geleden o.a. reden genoeg om van hp af te stappen. Al de wereldwijde supercentres zijn gefaseerd overgestapt op SUN. Die hebben hun zaakjes in die high-end markt een stuk beter (zo niet het best) voor elkaar.

En een supercentre is zo'n zaal met rijen mini's en mainframe systemen die je vast wel van foto's kent. ;)
In de hp tijd was er per 12 (hp) mainframes een dertiende 'hot-spare'. En die systemen waren zelf al in alles redundant. En toch gebeurde het dat de boel niet werkte. En nee, er zaten daar geen windows-beheerdertjes. Ze wisten daan echt waar ze mee bezig waren.

Dus zo'n nonstop servertje kan ook echt wel plat komen te liggen. Het kan altijd gebeuren dat er meer dan een component de geest geeft of dat deelsystemen toch niet zo volledig ontkoppeld zijn als je zou denken. En van dat laatste heeft hp nog al last.

Wel bedankt voor de tip dat je geen batchprocessen op zo'n server kan draaien. Kunnen we opzoek naar een ander merk voor batch taken :)
Een goed backup systeem lijkt me zeer wenselijk binnen een bedrijf, of in ieder geval duidelijkheid voor de gebruikers op een netwerk welke risico's hun data loopt. Of liever, hoe weinig risico de data loopt spoorloos te verdwijnen als deze op de netwerk-schijf of alternatief is opgeslagen.

Maar in het geval van het WTC, een backup systeem is mooi, maar ik denk dat de tapes (of drives) waar de backups op staan die crash ook niet overleefd hebben... of dien je die naar de (data)-bank te brengen aan het einde van de week? Zou daar ook een bank voor zijn / komen? (ik zie een gat in de markt :P)
Bij het maken en beheren van backups geldt een belangrijke regel: bewaar de backups op een andere fysieke plaats.

In het geval van het WTC is dit dus buiten het WTC.
Yup, ik leg mijn backups ook altijd in m'n tuinhuisje. :D
WOW tweakerbee heeft dus een tuinhuisje met klimaat beheersing }>

Tja tapes mogen bij opslag niet warmer worden dan 32 graden of kouder dan 16 enne ook niet te vochtig... Dus doe mij ook zo tuinhuisje? Kost dat?? mischien wat voor me werk?? :7

(exacte waarden verschillen natuurlijk per type/merk tape... om te voorkomen dat hele trhead onstaat over 0,001 graad :+ )
Als je het goed aanpakt bewaar je de back-up tapes zowiezo in een ander pand als waar de servers staan. Anders ben je met bv brand nog alles kwijt.
Beetje hard, maar als je zo iets krijgt als het WTC dan mag je heeeel blij zijn als jij daar niet ook onder ligt en je collega's ook niet.
Want wat heb je aan een back-up als je werk er niet is? (ala enige overlevende) |:(

Maar als ik het zo lees, zou je eigenlijk een hele stapel hardware als reserve moeten hebben, dan ergens een back-up. :?
Ik denk dat niet zo zeer de hardware of het os het hoofd probleem zijn omdat deze in een kritische situatie toch wel redundant uitgerust zijn.

Tegen een stroomstoring doe je weinig, ook al krijg je alles gemaneged uitgezet wil niet zeggen dat ze meteen fris opstarten.

Of wat denk je als je main router eruit ligt of een netwerkkabel (denk WAN).

Om maar niet te spreken van een overbelaste DB. Deze beestjes maken hele rare sprongen als ze geen RAM of diskruimte grbruiken. Of simpelweg corrupt raken....
Grote centres hebben daarom generatoren op het dak staan. ups'en zijn dan alleen een buffer voordat de generatoren beginnen te draaien (paar seconden) en de stroomvoorziening over nemen. Wel regelmatig de generatoren testen en zorgen dat de benzinetanken vol zitten. :)

Dus een stroomstoring kan ook overwonnen worden maar er zit wel een prijskaartje aan.
Kijk, en dat is dan ook meteen de reden waarom echt grote bedrijven geen windows e.d. voor hun servers gebruiken.
Veel grotere bedrijven hebben daarom ook mainframes en mini's staan.
Deze zijn vaak voorzien van hotswapable processorborden, netwerkkaarten en geheugenkaarten.
Dus als er een van de processoren kapot gaat blijft alles gewoon draaien.
Ook wordt de beschikbaarheid van dit soort systemen gegarandeerd tot 99,99% ofzo.
Dat betekent dat ie in het jaar max. 4 uur voor onderhoud en updates plat ligt.
Vergelijk dat eens met de gemiddelde windows server die minstens elke 2 tot 3 weken opnieuw opgestart moet worden omdat ie instabiel wordt.
bij een keer 2 uur down per jaar is je uptime terug naar 99,977%


De meeste kleinere bedrijven zullen echter systemen hebben die nieteens voor een 99,95% uptime gegarandeerd zijn, die systemen zijn namelijk vaak duurder dan het inkomen dat zo een bedrijf misloopt door een paar uur downtime
Of gewoon een HP NonStop server neerzetten :D
Tuurlijk joh, dat is echt heel bijzonder dat HP NonStop, voor HP dan. Die dingen stoppen namelijk heel vaak. :) En wat zet je er op? Raad je me windows aan :)
De kans dat een bedrijfskritisch systeem één keer per jaar gedurende meer dan twee uur uitvalt is één op twee
[mierenneukmode]
/m vraagt zich af hoe een systeem kritisch op een bedrijf kan zijn.. volgens mij moet het bedrijfskritiek zijn

[/mierenneukmode]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True