Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Stroomstoring Amsterdam leidt tot problemen bij TransIP

Door , 262 reacties, submitter: Lau1406

Een omvangrijke stroomstoring in Amsterdam heeft tot problemen bij het datacenter van TransIP geleid, waardoor diensten en sites van klanten tijdelijk offline waren. Ook de sites van onder andere de Telegraaf en Hardware.info hadden te maken met downtime.

In de nacht van maandag op dinsdag werden de regio's Amsterdam, Zaandam en Landsmeer getroffen door een grote stroomstoring waardoor 360.000 huishoudens zonder stroom kwamen te zitten. Ook bedrijven kregen met de gevolgen te maken, waaronder TransIP.

Een systeemstoring in combinatie met de weigering van een back-upgenerator zorgde voor problemen in het datacenter van TransIP. Meerdere van de TransIP-diensten, waaronder de website van het bedrijf, waren tijdelijk onbereikbaar. Verschillende hostingklanten kregen eveneens met downtime te maken. Vanaf ongeveer 06.00 was de stroom hersteld en TransIP werkt eraan alle diensten weer online te krijgen. It- en cloud-aanbieder Interned Services maakt van hetzelfde datacenter als TransIP gebruik en ondervindt dus hinder. Het datacenter draait op noodaggregaten.

Diverse websites waren offline door de stroomstoring. Onder andere sites van uitgever TMG, waaronder Telegraaf.nl, waren offline. De storing had ook impact op de site van Hardware.info, na de storing wilde een webserver niet herstarten.

Reacties (262)

Wijzig sortering
Toch onbegrijpelijk dat die backup generator niet werkt. Dat test je toch op maandelijkse basis??
Het daadwerkelijk testen van een backup generator en alle lijntjes (de hele keten) kan maar op 1 manier: daadwerkelijk de stekker eruit trekken en bidden maar.

De meeste klanten zijn daar niet bijzonder happig op.

Dus wat doe je? Je test of de generator aanslaat als de stroom er afslaat. Of de stroom van de generator over het goede stroomnetwerk loopt. Wat de pieken zijn. Of de UPS begint af te tellen. Enz enz enz. Allemaal stapjes.

Maar uiteindelijk kan je niet elke maand de stroom er af trekken. Zelfs bij dubbel uitgevoerde spullen zijn de meeste mensen niet erg happig om een pootje te verliezen of op noodstroom te draaien, elke maand weer, als test.

En dat kan betekenen dat elk individueel component werkt, maar de keten het laat afweten.

[Reactie gewijzigd door JCE op 17 januari 2017 08:15]

Het datacenter waar wij zaten (regio Breda) deed dat maandelijks. Een maand een 'passieve' test; de aggregaten opstarten en mee laten draaien. De maand erop 'door het donker' dus echt buiten de stroom er keihard afhalen. Uiteraard gecontroleerd, de UPSsen vangen het op initieel en als de aggregaten niet aanslaan is er altijd nog voldoende tijd om de netstroom weer aan te zetten.
Onlangs zijn we verhuisd naar een ander datacenter, in het westen van NoordBrabant, en die testen op dezelfde manier, echter iets minder vaak.

Uiteraard kan er tijdens deze test ook iets stuk gaan, maar wat mij betreft hoort dit erbij; je redundancy tetsen.

Wat ik niet kan snappen is dat zo'n datacenter van TransIP blijkbaar geen N+1 is. Als EEN aggregaat niet wil opstarten moeten andere aggregaten dat opvangen. Een aggregaat is niet genoeg. Single point of failure.
N+1 in de noodstroom voorziening is ook niet echt een goede oplossing. Je "moet" altijd kiezen voor een N+2 oplossing. Als er dan 1 noodstroom generator in onderhoud is (Wat natuurlijk regelmatig gebeurd voor de reguliere check) hou nog altijd een N+1 opstelling over.
Dit is ook het geval bij de meeste Tier III Datacentra en altijd bij de Tier III+ Datacentra. Tier IV Data Centra zitten op een tweede hoogspanning grid aangesloten, maar dat is in Nederland niet mogelijk. zie wikipedia voor meer info.
Red Brick Tilburg.(voormalig Interpolis)
Dubbele spanning aansluiting, gescheiden netten. verschillende zijdes van gebouw naar binnen.
Dubbele diesel generatoren die individueel autonoom het gehele gebouw in de lucht kunnen houden, met enkele duizenden liters diesel op voorraad.
Dus ja, ze zijn er wel.
SED,

Red Brick heeft geen Up Time Certificaat en is dus geen Tier IV Datacenter.
Het KPN Datacenter in Eindhoven is wel een Tier IV Datacenter, dank J0mcd :)
Ik heb wel begrepen dat NTT Communications een nieuw Datacenter gaat bouwen in Nederland. NTT Communications heeft meerdere Tier IV Nexcenters (Zoals de datacenters van NTT worden genoemd) in Duitsland en het Verenigd Koninkrijk. Dit nieuwe Datacenter wordt mogelijk ook Tier IV.
Verwarrend als je dit leest tier 3 of 4?
http://cloudworks.nu/2014...or-amsterdams-datacenter/

Daarnaast is het hebben van een certificaat als er zaken optreden zoals in dit topic besproken natuurlijk niet zo zinvol. Certificering kost daarnaast veel geld wat beter in goede voorzieningen en procedures gestopt kan worden.
Certificaten zijn vooral zinvol voor klantenwerving.

edit.
De Tier III-certificering van het Uptime Institute geeft aan dat datacenterbeheerders van KPN gepland onderhoud kunnen uitvoeren zonder dat dit impact heeft op andere apparatuur in het datacenter. Dit is mogelijk door een zeer hoge mate van redundantie. De kans op onderbreking van de dienstverlening wordt hierdoor tot een minimum beperkt.
Dus veel gedl voor een test protocol dat ieder fatsoenlijk datacenter reeds zou moeten hebben

[Reactie gewijzigd door SED op 17 januari 2017 12:15]

Als ik dit lees, Tier III voor de locatie Paalbergweg. maar dat is al even geleden. Het Datacenter in Eindhoven heeft daarna een Tier IV certificaat gekregen.

En Certificaten zijn wel zinvol. Het geeft aan dat een externe partij ook goed naar de infrastructuur en vooral de procedures heeft gekeken. Dit resultaat is langs een gestandaardiseerde normering gelegd en daaruit komt de behaalde Tier.

Als een bedrijf het alleen doet voor kantenwerving is dat geen goed vertrekpunt.
Wij hebben klanten over de hele wereld en sommige klanten eisen Tier IV vanuit hun risk management. Dit soort klanten accepteert dan geen Tier III of Tier III+.
Zeker zijn internationaal erkende certificaten zinvol. maar een certificaat van een uiteindelijk gewoon commercieel bedrijf zoals de 541group lijkt te zijn maakt op mij geen indruk.
Het kopen van indrukwekkende certificaten is een vrij lucratieve internationale handel waar dit een fraai voorbeeld van lijkt te zijn.
Er zijn voldoende zinvolle ISO certificeringen voor datacenters. Daar hoort het uptime institute m.i. niet bij.

Ik weet overigens dat uptime institute de tier indeling claimt. Maar de certififering is een sterk commercieel verhaal.

Toegevoegd.. tiering
Tier 1 = Non-redundant capacity components (single uplink and servers).
Tier 2 = Tier 1 + Redundant capacity components.
Tier 3 = Tier 1 + Tier 2 + Dual-powered equipments and multiple uplinks.
Tier 4 = Tier 1 + Tier 2 + Tier 3 + all components are fully fault-tolerant including uplinks, storage, chillers, HVAC systems, servers etc. Everything is dual-powered.
Data Center Availability According To Tiers

The levels also describes the availability of data from the hardware at a location as follows:

Tier 1: Guaranteeing 99.671% availability.
Tier 2: Guaranteeing 99.741% availability.
Tier 3: Guaranteeing 99.982% availability.
Tier 4: Guaranteeing 99.995% availability.
Let dus op: een enkele server plaatsen in een tier4 datacenter is dus een stap terug naar tier 3.
Dus ook daar is de naamgeving van een datacenter vooral een commercieel verhaal. Wil je tier 4 dan zul je eigenlijk mee moeten liften op de server en storage dienst van het datacenter. Of alles zelf redundant uitvoeren Zo niet: geen tier 4.

[Reactie gewijzigd door SED op 17 januari 2017 18:53]

Dit is alleen een papiertje.. Zodat de klant weet dat wat hij zegt ook echt waar is. Deze DC's rekenen ook wat meer per maand voor hun hosting diensten. Wat hun goed recht is.

Daarnaast kan je afvragen of het zinvol is voor de normale klant? Een Missie Kritisch systeem zou je in zon DC willen plaatsen. Maar web winkeltje van de timmerman op de hoek heeft daar weinig aan.
Klopt, maar voor een core applicatie van een bank lijkt het wel zinvol. Grote gebruikers hebben twee van dergelijke Datacentra op een afstand van rond de 30 km van elkaar in gebruik.
Ook applicatie farm's waar 10.000den gebruikers afhankelijk van zijn gebruiken wel eens Tier IV Datacentra.
In de toekomst zie ik het gebruik wel wat afnemen van dergelijk Datacentra. Als er meer en meer applicaties ontwikkeld worden als cloud native, dan kan je eenvoudig het uitvallen van een server, rack of zelfs een heet Datacenter overleven. Dan zie je ook bedrijven die 10+ locatoes over de hele wereld gebruiken voor de dienstverlening.
Zoals erwinb al zegt zijn die certificeringen noodzakelijk om diensten te kunnen verlenen aan bepaalde klanten, die een vereiste hebben daarvoor.

De plaatsing van je servers in een Tier IV datacenter zal jou als eindgebruiker ook vast iets meer kosten dan plaatsen in een Trier III. Op die manier kan een uitbater van een datacenter die kosten terugverdienen, daarnaast kan iedereen wel mooie systemen bedenken, maar een certificering betekend dat je je houd aan standaarden, waar je klanten op kunnen rekenen in plaats van een bullshit verhaaltje over uptime garantie, waarbij je dan vervolgens zegt, behalve als een netwerkleverancier geen connectiviteit levert of als de stroom niet binnenkomt.
Red brick is tier III, de dubbele spanningsaansluiting loopt wel via 1 onderstation en valt dus beiden uit bij een grote stroomstoring.
Dit is (helaas) vaak/meestal het geval. Voor Tier IV hoef je overigens geen 2 energieaansluitingen te hebben. Bij Tier IV zijn je generatoren primair, die moeten volledig aan de Tier IV normering voldoen (en dus de gehele spanningsverdeling). Dat je daarnaast ook een normale net-aansluiting hebt is mooi maar het Uptime Institute ziet dat slechts als 'te gebruiken voor economische redenen' oftewel: een kWh uit het net is goedkoper dan een kWh uit een dieselgenerator.

Hier is in het verleden veel verwarring om geweest, kwam er zelf ook pas achter na contact te hebben gehad met het Uptime Institute voor een certificeringstraject.
Naar mijn weten zijn je generatoren niet zozeer primair, maar zolang jij 2N+1 hebt, met netstroom en/of met generatoren, kan je inderdaad je tier IV certificering krijgen.
Wat ik bedoel met primair: Je mag gewoon op het net draaien maar het Uptime Institute ziet dat als secundaire stroomtoevoer (omdat je hier geen controle over hebt). 2N+1 is inderdaad key voor Tier IV.
Tier 4 is zeker wel mogelijk in nederland, er bestaat er zelfs al eentje! KPN heeft er eentje in eindhoven.
J0mcd,
je hebt gelijk, KPN heeft een Tier IV certificaat van het Up Time Instituut.
Van wat ik ervan meegekregen heb lopen de A en de B lijn via verschillende onderstations. Wanneer er dus een grote stroomstoring is wordt de netstroom behouden. Op deze manier hebben ze om het 'verschillende netwerken' probleem gewerkt.
Ik had altijd begrepen dat alleen schiphol is aangesloten op meerdere hoogspannings grids en dat het voor "gewone" bedrijven niet mogelijk zou zijn.
In grensgebieden is dit natuurlijk mogelijk met wat lief kijken en een hele grote bak geld.

De mogelijkheden voor dergelijke constructies zijn natuurlijk ook altijd afhankelijk van de locatie. Ze zijn in Nederland schaars vanwege de kosten en het relatieve gebrek aan noodzaak, aangezien de kwaliteit van ons stroomnet zeer hoog is, er is relatief weinig sprake van grote storingen, waardoor de infrastructuur ook minder gericht is op het bieden van die mogelijkheden.

Ik denk overigens dat de kwaliteit van ons stroomnet een achilleshiel is voor onze datacentra, de aandacht is minder gericht daarop omdat er soms gewoon wat teveel vertrouwd wordt op de netbeheerders.
Het is zeker mogelijk, alleen wel voor eigen kosten. En dat kan een flinke investering zijn.

De stroom komt nu vanaf het hoogspanningsnetwerk naar 2 verschillende onderstations, Vanaf daar is er een rechtstreekse 50kV verbinding naar zowel de A als de B lijn. met aan het einde daarvan Transformators.

Vanaf het onderstation is alles nieuw aangelegd. pittig duur.
Moet ook wel.

1 Schiphol is één van de belangrijkste economische sector van Nederland.
2 Schiphol is dus danig groot dat het wel noodzakelijk is om deze aan meerdere grids te hangen. Echter de Grids zelf zijn binnen het domain schiphol wel fysiek van elkaar gescheiden.
en als de energievoorziening van schiphol uitvalt kunnen er potentieel heel veel doden vallen. Dan wil niemand op zijn geweten hebben
Het is mogelijk in Eemshaven, door aan te sluiten op het Duitse stroomnet.
Het laatste klopt niet, Tier 4 heeft niets met 2 stroomgrids te maken. Tier ziet een generator als primare stroombron en het stroomnet als een bijkomend voordeel.
Verder zeg je N+2 oplossing, maar je bedoelt natuurlijk 2N (2 actieve gensets met beide 100% capaciteit). Een N+2 oplossing zal (bijna) nooit gekozen worden, een 2N+1 (TierIV) ligt meer voor de hand.
Een Tier DC moet altijd een N+1 opstelling hebben (dus niet meestal), het moet immmers een "concurrently maintainable Site Infrastructure" bevatten. Dus je moet onderhoud kunnen uitvoeren zonder service impact.
Tier 3+ bestaat overigens formeel niet. Heb je Tier 3 met wat extra's, dan blijft het Tier 3
Je hebt gelijk voor het Tier 3 deel. Voor de generatoren echter niet.
Als een Datacenter wordt gedesigned voor 10Mw zet je b.v. 5 generatoren neer van 2 MW. dan zet je er nog twee bij voor de benodigde redundantie. (7 stuks)
Ik jouw voorbeeld kom je uit op (2N+1) 11 stuks.
De moderne Datacentra die de generatoren permanent aan hebben staan voor de energie voorziening hebben ook een "Energiebedrijf" licentie en mogen dan ook energie terugleveren aan het netwerk.
E-Shelter in Frankfurt is er zo één
voor Tier 3 heb je gelijk, maar voor Tier 4 ga je toch voor 2N?
Een aggregaat is niet genoeg. Single point of failure.
For the record: het aggregaat wordt pas ingeschakeld zodra de A- en B-lijnen, die by protocol bij andere stroomleveranciers worden afgenomen, structureel falen. Het is dus al de third point of failure waar je het over hebt, niks geen single point. Als van een 3-disk RAID1 de derde disk dood gaat ben je ook al je data kwijt.

Dus hoe dan ook een extreem uitzonderlijke situatie, niet echt vergelijkbaar met een jaar of 10 terug het grote Redbusdrama waar eerst de A-leiding regulier klapte, de B-leiding vervolgens direct mee ging op de piek van 10000 reboots omdat de distributie daarvan faalde, en vervolgens de generators gewoon geen diesel bleken te hebben. Dat was ongetest broddelwerk op alle niveaus. Dit vandaag is een klein stuk van het noodsysteem dat het begeeft, geen exces.
Het nederlandse stroomnetwerk is een Grid en het heeft dus geen zin om verschillende stroomleveranciers te gebruiken. Zoland je A en B lijn aangesloten zijn op 1 onderstation (wat alle datacenters in nederland zijn, op 1 na) ga je gewoon op zwart met de rest van de stad.

Als 1 backupgenerator minder dit niet kan opvangen, is dit dus wel een single point of failure.
  • Stroomnet
  • Een backupgenerator
Ik kom met tellen tot 2, niet 1 :9
Haha ja oke, helemaal gelijk!
Bij mijn weten is er maar een volledig redundant power grid station in Nederland en dat is de dataport eemshaven. Dat ligt echter weer in aardbevingsgebied en is dus alleen daarom al een kwetsbare keus.
Daarnaast zijn er datacentra die via bijv Windenergie netten een redundancy creeren en dus feitleijk ook twee gridtoegangen hebben.
In het totale grid is alles met elkaar verbonden en als je geen unieke eigen extra aansluiting naar een stoomleverancier ( zoals centrale of windpark) hebt dan ben je altijd aangesloten op hetzelfde grid.
redundant power grid.....leuk en duur en voor een Tier 4 classificatie helemaal niet nodig
Eemshaven is de enige plek waar je op 1 onderstation toch redundantie hebt. Op andere locaties in nederland moet je dus op 2 onderstations aansluiten. Dit is gedaan in het Tier 4 datacenter van KPN op de hi-tech campus eindhoven.

Windenergie kan gebruikt worden als besparing maar kan denk ik niet gezien worden als redundantie, aangezien de stroomopbrengst variabel is aan weersomstandigheden.
Hoe krijg jij het voor elkaar om een A- en B-lijn bij een andere stroomleverancier(?) af te nemen?
Volgens mij heb je een A- en B-lijn die niet hetzelfde tracé hebben vanaf het onderstation bij dezelfde netbeheerder. Als het onderstation plat gaat, waar in dit geval sprake van lijkt te zijn, dan doen je A- en B-lijn beide niks.
Daar doelde ik op ja, te kort door de bocht opgeschreven.
Offtopic - een 3-disk RAID-1? Hoe werkt die :9

Maar ik snap wat je bedoeld, maar dan nog ben ik het er niet mee eens. Je moet het in lagen zien. Er is een laag stroomnet, daar heb je niet alles over te zeggen. Maar dan kom je binnen je datacenter, en daar is een laag UPS, en een laag aggregaat. Beide setups dienen afzonderlijk van elkaar redundant te zijn in mijn ogen.
Offtopic - een 3-disk RAID-1? Hoe werkt die
Gewoon, net als een 2-disk RAID-1: mirroren. Je kunt theoretisch gewoon 100 disks in mirror zitten, dan heb je een fault tolerance van 99 schijven. Het is je controller die dat normaal niet toestaat, maar een beetje enterprise controller kan gewoon 3 of 4 disks in RAID-1 zetten. Zie ook http://superuser.com/a/489805

Verder ja natuurlijk, redundancy op zo hoog mogelijk niveau. Maarr je hebt het hier al over redundancy layer 5 of zo die faalt. Het houdt ergens een keer op.

[Reactie gewijzigd door curry684 op 17 januari 2017 10:47]

Als het bij het juist uitvoeren van stroom bij uitval al ophoudt... dan ga ik er niet naar toe migreren. Maargoed. Ieder zn ding.

Qua raid; ik zit aardig in de storage met HP EVA, MSA systemen en NetApp, maar kende geen RAID 1 systemen met oneven aantal disken ((hot) spares daargelaten).
Qua raid; ik zit aardig in de storage maar kende geen RAID 1 systemen met oneven aantal disken
Toevoeging:
Ik heb het in een thuissituatie met Windows 8.1 en Storage Spaces. Drie disks via ReFS in een raid1.
Het is je controller die dat normaal niet toestaat,
Gelukkig kun je met Linux software raid probleemloos 100 schijven in RAID1 zetten. Ik *denk* dat de limiet op 256 ligt. in dat geval. Maar als je hoger wilt kun je nog cascaderen,
3disk raid1 is gewoon mirroring, dat kan je met 2 of meer disken doen, dus ook met 3 ;)


ontopic: het doel van een aggregaat, is stroomuitval opvangen. Blijkbaar werkt dat niet ==> prutsers!
3 disk RAID 1 kan toch 2 disks failen voor data-loss ?
RAID 1 is inderdaad gewoon mirroring (Wat op disc 1 staat zal ook op disc 2 staan etc...)

Misschien bedoelde hij RAID 01 (RAID 0+1) in een https://upload.wikimedia....ommons/d/d2/RAID_01-3.svg hybrid configuratie; maar ook daar maar het niet uit of de 3e uitvalt of niet (Wel als 1 of 2 uitvalt) dus ik vind het inderdaad een rare analogie.
Ik werk bij een installateur. Bij een kantoortoren werd de NSA netjes getest. Toen wouden we een full test doen door de hoofdschakelaar om te schakelen.
Ging de NSA toch mooi door de knieën en de bank in de toren was niet blij (al was het in het weekend)! Bleek later dat een andere installateur iets bij had gemaakt wat teveel vroeg zonder goed door te geven aan ons.
Wat ik wil zeggen, als mensen niet goed vertellen wat ze doen in je gebouw er toch dingen mis kan gaan. Nu weet ik niet hoe precies is geregeld in een DC maar het kan om de stomste dingen verkeerd gaan.
Als de NSA door de knieën gaat omdat er teveel power wordt gevraagd (let ook op piekspanning, vast zitten schakelactoren etc etc) dan gaat je backup NSA ook door de knieën.
Natuurlijk. Er kan van alles mis gaan en vaak is het ook de wet van Murphy, waardoor er 'natuurlijk' allerlei dingen heel lullig tegelijk mis gaan. Maar als je voorzieningen überhaupt niet minimaal N+1 zijn, doe je in de basis al iets fout en kan de kleinste fout al grote problemen veroorzaken. Mits je dat verkoopt aan je klanten. En dat doet transip. Op https://www.transip.nl/vps/ staat heel groot notabene 99.99% uptime garantie. Dat is nog iets anders als 99.99% uptime te hebben gehad, TransIP geeft garantie. Dan kan je je niks anders veroorloven dan N+1 of zoals erwinb hierboven zegt zelfs N+2. Anders lieg je je klanten voor en zet je hun business zwaar op het spel.

[Reactie gewijzigd door Rataplan_ op 17 januari 2017 09:39]

Je klinkt wat boos maar is dit wel terecht? Heb je de voorwaarden gelezen?

(ze bieden 99.99%, dat is 4,5min per maand of 52min per jaar)


In hun voorwaarden staat dit;
Voor VPSdiensten geldt een 99,99% Uptime garantie. Indien er in een
gegeven kalendermaand 0,01% of langer geen Uptime is op
VPSdiensten die Gebruiker afneemt, is Gebruiker gerechtigd tot
compensatie
in de vorm van een creditering van de betaalde kosten voor
de tijd waarin de Uptime niet is gehaald, in minuten (naar beneden
afgerond), maal 100 (honderd). Voor deze creditering geldt een
maximum van alle betaalde kosten
met betrekking tot de VPSdiensten
voor de gegeven kalendermaand waarin de Uptime garantie niet is
gehaald, en daarbij de voorwaarde dat de onmogelijkheid tot het
herstellen van de Uptime niet is veroorzaakt door overmacht (artikel 24)
of enig doen of nalaten van Gebruiker


Even nog het kopje overmacht erbij;
Onder overmacht wordt onder meer begrepen ziekte van werknemers
en/of afwezigheid van voor de levering van Diensten cruciale
medewerkers, onderbrekingen van de toelevering van elektriciteit
voorzover deze niet door de back-up capaciteit kan worden
opgevangen
, stakingen, oproer, overheidsmaatregelen, brand,
natuurrampen, overstromingen, tekortkomingen van toeleveranciers van
TransIP, storingen in verbinding met internet, hardwarestoringen,
storingen in (telecommunicatie)netwerken en andere onvoorziene
omstandigheden
.


Gezien die leveringsvoorwaarden en specifiek het kopje overmacht vraag ik me af in welk geval je dan eigenlijk nog wel recht hebt op schadeherstel bij de uptime garantie.
Nee hoor, ik ben niet boos. Ik heb overigens geen last gehad van hun storing. Maar waar ik niet goed tegenkan is dat men zich profileert met 99.99% uptime garantie en vervolgens de voorzieningen niet op orde heeft. Dat je compensatie krijgt is peanuts als je bedrijf plat ilgt. Beter zorg je ervoor dat je bedrijf niet plat gaat.

Als je dit soort garantie afgeeft moet je er ook naar streven dat te halen, en dat doe je niet door N+0 uit te voeren. Ik heb zelf een bedrijf in remote-desktop diensten, en onze klanten verwachten van ons dat we de zaken op orde hebben, ook met betrekking tot redundancy. We hebben echter ook de voorzieningen die hetgeen wat we verkopen waar kunnen maken. Dat lukt ook niet altijd, en natuurlijk is er altijd wel een oorzaak of ophoping daarvan, ook bij ons. Maar het uberhaupt niet redundant uitvoeren en wel hoge uptime garanderen strookt niet.

[Reactie gewijzigd door Rataplan_ op 17 januari 2017 10:38]

Zelf heb ik meerdere VPS'en bij TransIP en de meerderheid daarvan heeft geen downtime gehad vannacht. Hoe het precies in elkaar zit kun je niet herleiden op basis van uitval tijdens een stroomstoring. Waar is jou conclusie op gebaseerd?
in een jaar zitten 8760 uur of te wel 525600 minuten. Ze mogen dus per jaar 53 minuten plat liggen. Ik heb een 150 domeinnamen en een 12tal virtuele servers bij ze en heb er niets van gemerkt. (gelukkig storing buiten kantoortijden).
Maar ik zie de compensatie graag tegemoet.
Wel slim 'voorzover deze niet door de back-up capaciteit kan worden opgevangen'.

Oftewel, als wij onze back-up capaciteit totaal niet op orde hebben en er gebeurd iets met de stroomtoevoer, dan vervallen alle garanties naar de klanten toe. Idem als Jan of Piet ziek een weekje ziek thuis is en er vindt een voorval plaats. Best gunstige voorwaarden voor de leverancier dus.
Ze hebben de backup capaciteit wel, alleen door falen was maar 50% beschikbaar. Zoals ik het lees valt dat niet onder hun overmacht uitzondering.
Oh jawel hoor. Want het kwam door een onderbreking in de toevoer van electriciteit, en die kon niet door de backup opgevangen worden. Er wordt geen enkele uitzonderlijke reden gegeven waarom die dan niet door de backup opgevangen kon worden, dus overmacht.
Zo te horen eigenlijk nooit. Alles valt onder overmacht behalve dan gepland onderhoud, waarbij ze bewust een server uitschakelen.

Ik denk dat vaak wel duidelijk is dat uptime garanties flauwekul is. Het is meer een inzet verplichting om overlast van onderhoud te beperken. Dat neemt niet weg dat het in de indruk wekt dat met deze 'garantie' overmacht zaken beter geregeld zijn dan bij eigen beheer, maar zo valt dat toch best wel tegen.

Ik heb een klein VPSje bij Transip voor prive gebruik, en deze was vorige week nog langer plat geweest (alles bij elkaar 4-5 uur) vanwege backend problemen. Vannacht dus weer 2-3 uur. Toevallig allemaal binnen 8 dagen tijd. Alles bij elkaar komen ze deze maand niet verder dan 99.0% uptime in mijn geval, maar dan moet de tweede helft van de maand wel probleemvrij zijn (wat ze normaal gesproken ook zijn/waren).

[Reactie gewijzigd door Hans1990 op 17 januari 2017 11:03]

Ik was net even hetzelfde aan het denken. Uptime garantie is met name van waarde als je praat over internetconnectiviteit en stroomvoorziening. Die afhankelijkheden erinzetten als overmacht betekend dat je effectief geen uptime garantie meer bied.
Dit is gewoon misleiding.
onderbrekingen van de toelevering van elektriciteit
voorzover deze niet door de back-up capaciteit kan worden opgevangen
Als je onvoldoende back-up mogelijkheden hebt, dan zit je snel aan je pieken van overmacht. Lekker makkelijk dan om achter zo'n artikel te schuilen. Stort wat centjes terug als er iemand naar kraait - en klaar is kees... |:(
Paar maanden terug was op 1 avond een paar keer (heb er zelf ongeveer 10 minuten last van gehad) de netwerk verbinding met m'n VPS kwijt. De gele maand is toen gecrediteerd uit service.
De bank in de toren zou nog minder blij zijn geweest als dit naar boven zou zijn gekomen wanneer het op een niet gepland moment zou zijn gebeurd. Dit was in het weekend, en ik hoop dat er gecommuniceerd was dat er een test zou gaan gebeuren. Dan zit daar inderdaad een risico aan, maar zoals gezegd: daar hou je dan rekening mee. En als het risico te groot is moet je kernsystemen nog beter beveiligen zodat een (korte) onderbreking opgevangen kan worden.

Ja, mensen zijn altijd boos bij een storing, ook als die door een geplande actie komt. Maar bekijk ook wat de schade zou zijn door een niet geplande actie. Juist het helemaal lostrekken van de stroom heeft ervoor gezorgd dat dit probleem naar boven kwam - anders was dat waarschijnlijk niet gebeurd!
In theorie kan je het gevraagde vermogen zien wat het NSA moet overnemen.
Als dat minder is dan wat het ding kan leveren zou het goed moeten gaan.
Testen kan al jaren zonder door het donker te gaan. NSA start op synchroniseert
met het net en de belasting schakelt om.
Ik heb drie VPS'en bij transip, waarvan er ééntje kwijt was. Ik zou dus vermoeden aan de hand daarvan dat ze er twee hebben, elk op één feed.
Maar de machines die jouw VPSsen hosten hebben hopelijk wel meer als een enkele PSU op een enkele feed.
Nee het is gemakkelijk roepen maar dit is gewoon pruts van TransIP. Dat een aggregaat faalt dat kan, maar dan moet er een ander zijn. Als ze servers hosten die met alle (of enkele) voeding op maar een enkele feed zit, dan verkoop je echt bagger. Anderzijds is daar de prijs misschien ook naar, dat weet ik niet, maar dan moet dat ook terugkomen in de SLA. 'Wij verkopen u systemen met maar een voeding erin. Stroom weg? Pech.' Maar dat hoor ik hier niemand zeggen...
Voor zover mij bekend heb ik als colo klant geen keuze in feeds. Alles komt van 1 managed stekker blok. Wel kan ik natuurlijk 2 stekkers erin steken in het geval van een kapotte voeding.
Wordt het dan misschien niet eens tijd om verder te zoeken? Ken meerdere partijen waarbij je als colo klant gewoon een dubbele stroomfeed geleverd krijgt in het rack.
Leuk als je een dubvle feed hebt. Echter als er 1 feed weg valt krijgt de overgebleven feed alle load. En daar zit vaak het probleem. Een feed mag je nooit zwaarder belasten dan 40-45% van zijn max cap. Als inmmers de ander feed weg valt kan de ene overgebleven feed het boeltje nog draaiende houden. Dit geld overigens voor alle power feeds.
JUIST als colo klant moet je die keuze hebben. Alle datacenter waar mijn bedrijf zit of gezeten heeft biedt (soms als optie) de mogelijkheid om twee aparte feeds te krijgen welke dan ook geschiden paden hebben. Als je 'twee feeds op een stekkerdoos' hebt, heb je dus maar een feed. Het enige wat je dan wellicht uitsluit is het defect gaan van een van je voedingen wanneer je systemen hebt met meer voedingen. Echter uitval van de feed zelf betekent in dat geval dat je systeem compleet uitvalt. En dat moet nooit de bedoeling zijn.
Het was inderdaad een specifiek deel . Van de 12 VPS'en die ik daar heb draaien was er 1 down gegaan.
Volgens TransIP was dit het probleem:
One of the back-up generators we have for these occasions failed to kick in
http://www.transnoc.nl/
Ik mag toch hopen dat ze meer dan 1 genset hebben. Daarnaast is het starten van een genset geen enkel probleem terwijl je hele datacenter gewoon aan het net hangt. Ook dan kun je ze gewoon starten en kijken of ze goed starten en goed draaien. Start motoren en start accu's zijn vaak een probleem.

Daarnaast weet ik niet of TransIP op een statische of een roterende UPS draait, maar bij een statische UPS heb je altijd nog batterij power voor minuten. In die tussentijd hadden ze de gensets met gemak met de hand kunnen starten.

Op de website van TransIP staat ook:
Redundantie
Alle racks in ons datacentrum zijn voorzien van redundante netwerkpoorten. Een Uninterruptible Power Supply (UPS) en twee SDMO NSA dieselgeneratoren zorgen ervoor dat zelfs bij stroomuitval het datacentrum volledig operationeel blijft.
Dit lijkt erop dat ze slechts 1 UPS hebben en 2 gensets. Ik ken datacenters wel een beetje, maar datacenters die slechts op 2 gensets kunnen draaien heb ik nog nooit gezien. Ik verwacht dus dat beide gensets nodig zijn om het hele datacenter van stroom te voorzien. Indien er dan 1 faalt, tja, dan haalt die ander het ook niet. Je moet hier minimaal een N + 1 situatie hebben. Maar ze zeggen ook een Tier 3 installatie te hebben, wat N + 1 betekend.

Ik vind het behoorlijk amateuristisch, dit is niet de eerste keer dat ze door een stroomstoring plat gaan.

[Reactie gewijzigd door Timo002 op 17 januari 2017 09:03]

NSA's zijn tot grote vermogens te verkrijgen. Zeker als je je datacenter indeelt in verschillende losse installaties kun je makkelijk op 1 NSA per sectie/installatie draaien. Uiteraard een 2e of swing-generator erbij om in te vallen bij eventuele verstoringen.
NSA's zijn inderdaad tot grote vermogens te krijgen, maar SMDO levert (zover ik op de website kan zien) tot 2800KVA.

Ik weet dat bij het datacenter in Eemshaven, waar Google draait, 21 roterende UPS'n staan (Nederlandse makelij) en nog eens 6 gensets. En daar is nr 21 niet de N+1, Daar zit veel meer redundantie in.
Klopt, het formaat van een Eemshaven is echter niet te vergelijken met bijvoorbeeld een TDCG AMS. 2800kVA kun je een hoop servers mee voorzien van energie.
Zijn ze ook gecertificeerd Tier III ? Iets bouwen volgens richtlijnen en daadwerkelijk gecertificeerd zijn is iets dat helaas nogal vaak als hetzelfde vermeld wordt.
Pyramid testing doe je in een respectabel DC elke paar jaar met black building tests elke maand/om de maand. Via je SLA dwing je af dat klanten het niet kunnen weigeren.
Als je niet zelf de stroom eraf durft te halen kan je net zo goed geen installatie hebben.
Stroom problemen mogen natuurlijk nooit tot uitval leiden, ookal is het maar 1 poot.
Nou, ik zit nu in een groot datacenter en hier doen we elke maand een generator test op alle generatoren hoor. Gewoon om te zien of het goed gaat mocht het echt mis gaan.
Je kunt de connectie toch dubbel uitvoeren met een testbelasting? Een generator hangt los aan het net (niet in een keten o.i.d.) , het zou geen probleem mogen zijn dit te kunnen testen. Hetzelfde zie je vaak bij ziekenhuizen gebeuren, diep, diep triest. Vanuit elektrotechnisch standpunt (ja ik heb het gestudeerd), is er geen enkele reden om geen realistische test te kunnen uitvoeren. Alleen wegens economische redenen wordt vaak van grondig testen afgezien.
Er is maar 1 goede manier en dat is de stroom er gewoon af. Als je dat niet doet, verplaats je het "bidden" naar een situatie wanneer je er geen controle over hebt: namelijk wanneer er daadwerkelijk een stroomstoring is. In alle datacentra waar ik aanwezig ben geweest werd er "live" getest door de stroom eraf te halen. Wanneer men dat niet deed deden wij geen zaken met dat datacenter.

Dit soort problemen is in het verleden vaker gebeurd, bijv. bij LeaseWeb. En ja, er komt natuurlijk meer bij kijken als je helemaal 'echt' wilt testen, aan de andere kant: je slaapt volgens mij een stuk rustiger.
Wij hebben hier zelf een generator staan voor onze serverruimte en we draaien elke maand een loaded test. We maken gebruik van het testcircuit van de schakelapparatuur, maar we gaan echt over naar de generator, voor minstens 2 uur. Je maakt de schakeling (bij ons een sleutel schakeling in de serverruimte) die het testcircuit start en daarna is het alsof er een echte stroomuitval is, inclusief tijdelijk op UPSsen terug vallen en uitvallende verlichting en airco's. Die laatste worden overigens ook door de generator gevoed zodra de ruimte up generator stroom geschakeld wordt.

Sowieso is dat ook beter voor de generator. Op die manier vervuilt de dynamo namelijk ook niet. Daarnaast weet je zo ook zeker dat het werkt als er echt iets mis gaat, zoals we hier vorige week op het industrieterrein hadden.

Aan de andere kant, het kan gewoon misgaan bij een datacenter. We hadden het een paar jaar geleden met het datacenter waar onze website stond. Door een ontploffende trafo werd er een piekspanning de noodstroomsystemen ingestuurd die daardoor volledig op tilt gingen. Gevolg was dat dat hele datacenter een aantal uur offline was.
En voor een echte test moet je ook de stroom voor de hele wijk afsluiten voor een 100% realistisch scenario. Als je meerdere hoofdschakelaars hebt dan kan je al niet meer een stroomuitval op alle exact tegelijk simuleren.

Te grondig testen hebben we ook Chernobyl aan te danken.
Vziw was Chernobyl een combinatie van de grenzen opzoeken in een test, eerdere fouten/problemen die dag en een team wat niet durfde te weigeren ondanks dat ze wisten dat de risico's te groot werden...
Hier is het een kwestie van elke maand even testen of een generator, niet een kernreactor, gewoon aan gaat en betrouwbaar stroom kan leveren in combinatie met de schakelaars en alle andere apparatuur in die keten mocht de netstroom eraf gaan. Ergste geval gaat sloop je de generator en heb je x tijd om je netstroom weer te gebruiken voordat de UPS leeg raakt, niet echt vergelijkbaar met de grenzen van een kernreactor opzoeken die dezelfde dag nog problemen gaf...
Dat is natuurlijk onzin.
De hele wijk hoeft er niet af, zodra de hoofdaansluitingen naar je DC eraf zijn dan weet je zeker dat de generators in moeten springen.

Tsjernobyl was een opeenstapeling van (menselijke) fouten en niet omdat er te grondig getest werd naar mijn weten.
De testen waren gewoon procedure alleen doordat andere factoren voor afwijkingen zorgden die niet juist werden begrepen ging het fout.

[Reactie gewijzigd door GeeMoney op 17 januari 2017 09:24]

Das nou echt onzin, bij ons op de zaak testen de generatoren toch echt elke week, starten draaien en dan ff op de aggregaat laten draaien, na 30 min terugzetten en de volgende...
Wij testen de on-brake en NSA's elke 4 weken, samen met alle andere beveiliging en preventie zaken.
Bij de stroom test, wordt dan ook heel bot de hoofdspanning afgeschakeld, door de trafoos uit te zetten.
Nu is deze niet afgegaan om stroom te voorzien. Kan je uiteindelijk de leverancier aanklagen of geld eisen omdat je boze klanten hebt of klanten die weggaan hoe zit dat.
Dat zou je wel moeten doen aangezien je er vanuit moet gaan dat het werkt.
Zonder dit soort dingen te testen kan je het datacenter toch niet opleveren?
Het lijkt mij dat je daar je proces op kan inrichten. Je kunt cruciale processen op hun eigen noodstroomvoorziening zetten. Bovendien met een grote ups (met batterijen dus) tussen net en belasting kun je wel degelijk de boel afschakelen zonder een rimpel. Daarnaast zijn diagnosesystemen van ups-en tegenwoordig aardig geavanceerd. Nu is het wel zo dat zo'n ups niet uren kan draaien natuurlijk. Maar als het cruciaal is, dan is een ups met daarvoor een generatorset een eerste oplossing. Ik zou, als de processen écht niet onderbroken mogen worden, een contract afsluiten met een generatorboer dat deze binnen x-tijd een set neerzet. Het kan dus allemaal wel maar de vraag is hoeveel geld je daarvoor wilt uitgeven. Ik vraag me af of in de toekomst stroomuitval vaker zou kunnen voorkomen gezien de stijgende belasting (elektrieke auto's, bussen, geen aardgas meer et cetera).
Zo zou het anders wel moeten, je kan de hele keten testen maar het is veel beter om daadwerkelijk te switchen naar BU power en dus ook alles te belasten.
Wij doen het elke maand in onze DC en zo worden die mooie RR V8 Diesels ook nog eens een keer echt lekkker warm :) Met Static Tranfer Switches ertussen kan je A en B feed ook schakelen zonder dat er maar iets hoeft uit te vallen.
Vandaag hadden we het allemaal nodig in Amsterdam en we hebben 6 uurtjes feilloos op de generator gedraaid en weer terug naar netspanning zonder een hik.
Hierbij nog even de reactie van TransIP die gisteravond verzonden is:
Beste klant,
Zoals beloofd willen we je hierbij graag inlichten over de toedracht en oorzaak van de stroomstoring van gisterochtend. Vanaf 04:19 werden Amsterdam, Zaandam en Landsmeer opgeschrikt door een ongekende stroomstoring. Helaas heeft deze stroomstoring, ondanks onze maatregelen, gevolgen gehad voor een aantal van onze klanten.

Ons datacenter, dat wij huren van DCG, is uitgerust met diverse noodstroommaatregelen zoals UPS-batterijen en meerdere noodstroomaggregaten. Deze noodvoorzieningen worden onderworpen aan een zeer strak onderhoudsregime: maandelijks wordt op correcte werking getest. De falende generator in kwestie had slechts 3 weken geleden nog een volledig geslaagde test gehad. Inmiddels blijkt dat na deze test een onderdeel is stukgegaan: een aansturingsspoel haperde waardoor de generator niet startte.

De racks waarin jouw VPS’en en websites draaien zijn uitgerust met redundante powerbars en busbars. De racks zijn vervolgens aangesloten op één van de vier stroomfeeds. Iedere feed is voorzien van een UPS-noodvoorziening die wordt aangedreven door netstroom (met een dubbele aansluiting), die wordt ondersteund door een back-up generator. Ondanks herhaalde pogingen ging deze generator niet aan door de kapotte spoel. Toen vervolgens de UPS-batterijen om 04:31 uitgeput raakten, een kwartier na het uitvallen van de stroomtoevoer, vielen de racks die op deze specifieke feed zijn aangesloten uit.

Onmiddellijk na het constateren van de stroomonderbreking zijn wij met volledige inspanning uitgerukt om alles direct te herstellen. Om 05.49 herstelde DCG onze stroomtoevoer en hebben wij met man en macht gewerkt om alle diensten zo snel mogelijk weer bereikbaar te maken. Helaas heeft dit langer geduurd door de omvang van de stroomstoring; mobiele netwerken waren onbereikbaar, en een deel van ons personeel kon het datacenter niet bereiken door het volledig stilvallen van de treinen en alle gevolgen van dien.

Omstreeks acht uur waren vrijwel alle getroffen klanten weer online. Enkele services die op dat moment niet automatisch herstelden hebben wij handmatig opgestart, waarna ook die klanten weer online waren. Vervolgens is er onmiddellijk gestart met het repareren van de generator. De aansturingsspoel is gistermiddag vervangen. Gisteravond heeft er een belaste test plaatsgevonden. Deze test is succesvol verlopen.

De aaneenschakeling van de grote stroomuitval, de impact op de gehele stad, mobiele netwerken en landelijke infrastructuur heeft gezorgd voor een complex probleem dat trager is opgelost dan je van ons gewend bent. Uiteraard hebben wij hieruit lering getrokken. Zo hebben wij het besluit genomen om gratis voor onze VPS en Webhosting-klanten de systemen met nog een extra powerfeed uit te rusten.
We betreuren dat een regionaal probleem heeft geleid tot deze stroomonderbreking en bieden hiervoor onze oprechte excuses aan. Mocht je nog vragen hebben, aarzel dan niet om contact met ons op te nemen.

[Reactie gewijzigd door eborn op 19 januari 2017 09:16]

Het datacentrum van KPN nabij de RAI heeft die euvel ook een keer gehad. Als ik me goed herinner in een paar maanden tijd waren daar twee storingen en hebben ze naar aanleiding daarvan de boel vervangen. Sindsdien nooit meer last gehad.
Kennelijk is testen van stroomstoring scenario's zo makkelijk nog niet.
Bij dat DC hebben ze iig ooit in het DC problemen gehad met de zekeringen. Iets met een 600A zekering die gesprongen was, maar die ze niet zomaar konden vervangen omdat het open maken van de kast de rest van de zekeringen er ook uit zou halen. Oplossing was een gat in de kast maken :P
Laatste wat je wil doen met een scharenbak, mm de verkeerde kant op en je ramt alle fases tegelijk tegen elkaar. :)
Kun je dit gedetailleerder uitleggen? Het interesseert me.
Ik denk dat ze de generators een paar keer starten om te kijken of hij aan springt.

Maar ik vraag me af of ze dat met de volle "load" doen, lijkt me niet dat ze al die servers gebruiken voor een test.
Denk zelf dat het daar vaak mis gaat.
Een diesel zal met dit weer een stuk minder makkelijk aanspringen dan onder normale weersomstandigheden ;).
De vraag is eerder hoe de generator wordt getest.

Iedere maand kijken of hij start is vrij nutteloos. Eigenlijk zouden ze moeten testen of het gevraagde vermogen ook daadwerkelijk geleverd kan worden (met een load bank).
Een load bank hoeft nog niet eens.
Wanneer je de generator parallel met het net laat draaien kan je langzaam de load van de generator opvoeren totdat er geen vermogen meer van het net wordt gevraagd.
Dit is redelijk veilig aangezien wanneer de noodgenerator zijn load niet kan halen wordt dit altijd nog door het net geleverd. Dit is dan een indicatie dan deze aan een onderhoudsbeurt onderhevig is.
Blijft hoe dan ook geen realistisch scenario, bij calamiteiten krijgt een generator de volledige belasting voor z'n kiezen.
Een load bank hoeft nog niet eens.
Wanneer je de generator parallel met het net laat draaien kan je langzaam de load van de generator opvoeren totdat er geen vermogen meer van het net wordt gevraagd.
Dit is redelijk veilig aangezien wanneer de noodgenerator zijn load niet kan halen wordt dit altijd nog door het net geleverd. Dit is dan een indicatie dan deze aan een onderhoudsbeurt onderhevig is.
wat je dan test is of de generator, na te zijn opgewarmd, de max load aan kan, niet of hij koud de boel over kan nemen zonder eruit te klappen. natuurlijk heb je UPS'en die daarin nog iets verlichting kunnen geven maar veel is dat ook niet. als het fout gaat is het ook N+1 fail.
natuurlijk heb je UPS'en die daarin nog iets verlichting kunnen geven maar veel is dat ook nie
Hoezo? Een generator heeft altijd een startup time, en die wordt door UPS'en prima overbrugt. Je kan dus een hele mooie overgang regelen van UPS naar generator.
Inderdaad, de volledige belasting zal nooit "instant"op de generator (kunnen) worden gezet. dit zal altijd een transitie zijn vanuit de UPS'en (in het geval van een blackout). Anders zakt de motor in en krijg je alsnog een blackout.
Een beetje generator word warm gehouden en kan meteen vermogen leveren na de start hoor. UPS dient feitelijk alleen om de dip op te vangen, zodra de generator draait kan de UPS weer beginnen met oploaden. Onze Autonomy is een 30min op UPS maar hij hoeft het maar een paar seconden te trekken voordat de diesels draaien.
Een loadbank is gebruikelijk voor het testen van UPS batterijen, niet zozeer voor een generator.

[Reactie gewijzigd door Clubbtraxx op 17 januari 2017 17:15]

Zo ongeveer alles wat energie levert kan worden getest met een load bank (van computervoeding tot generator).

Dit is er eentje van 4 Megawatt, meer dan voldoende om een typische generator van een datacenter te testen.

Of wat dacht je van 10 MW? Gewoon van Alibaba.
Klopt inderdaad wat je zegt, een load bank kan ook voor een generator test gebruikt worden maar voor batterijtest is het redelijk gangbaar en voor generator minder. Althans in mijn werkervaring dan toch.
Dat testen sluit helaas niet alles uit, misschien treed er door die test net een mankement waar je de volgende run last van hebt.
Eens, maar toch is nou net dit een van de 'primaire' taken van het bedrijf. Maargoed zelf hebben wij een mirror draaien in Frankfurt puur voor dit soort problemen.
Primaire taak of niet, ik ga naar een chirurg en een van zijn primaire taken is mij in leven houden, toch sterven er jaarlijks genoeg mensen op de operatietafel. Ik wil maar zeggen je kunt niet alles voorzien en fouten worden gemaakt ... ALS je site echt zo belangrijk is dan heb je die in 2 dc's gemirrored.. het feit dat TMG (toch een aanzienlijke partij) te gierig is voor een fatsoenlijke infra is wat mij betreft 'schokkender **' dan het feit dat er eens iets is misgegaan bij transip...


** natuurlijk is het helemaal niet schokkend; het is zelfs goed dat er eens een ochtendje niet van die pulp te lezen valt door argeloze telegraaflezerds ik hoorde immers laats dat de politiek 'nepnieuws' een enorm probleem vindt.
Ja de AD, NRC en de Volkskrant zijn zo accuraat, betrouwbaar en ongekleurd.
In dat rijtje zou ik het AD weglaten.
Je kunt wel een mirror locatie hebben, maar dan moet je alsnog zorgen dat de hele routering ook (alleen) naar het andere datacenter gaat. Dat is best nog complex (zeker met alle cashes op DNS en in routers).
Tenzij je op locatie A een load balancer neerzet en op locatie B & C je data dan heb je al dat gezeur met caches van een DNS niet.
Dan heb je toch weer een SPOF op locatie A.
Ja die zal je altijd hebben. Ergens in de link zal een SPOF zitten. Naar mijn mening kan je beter zorgen dat je een SPOF heb die makkelijk op te vangen is. DNS ligt vaak buiten je eigen invloed een Load Balancer vaak niet.
Als die locatie waar de loadbalancer staat zonder stroom komt, heb je weer gewoon hetzelfde dns probleem hoor. Het lost dus helemaal niets op. Wil je echt redundant zijn, heb je ook je eigen AS nodig.
Het is altijd de eigenschap van dit soort apparatuur om het af te laten weten net op het moment dat je het "echt" nodig hebt. Hoe vaak ik al wel niet dat soort dingen meegemaakt heb.

Laatste voorbeeld was dat ik bij een klant kwam om een oude, (lees OUD!) server te migreren omdat de hardware op zijn laatste benen liep. Halverwege het klonen van de schijf stopte ie ermee...
Gelukkig zijn sindsdien de backup procedures iets aangescherpt to say the least :X
Het is altijd de eigenschap van dit soort apparatuur om het af te laten weten net op het moment dat je het "echt" nodig hebt.
Dat is een waarheid als een koe ja. Vrijwel alle zaken gaan kapot tijdens gebruik, niet in opslag. Daarnaast al gaan ze kapot in opslag, dan nog kom je er vaak pas achter als je ze wilt gebruiken.
Ookal worden systemen gechecked het kan altijd zijn dat apperatuur wat om de generator heen hangt niet werkt/verouderd is/opstart problemen heeft.
Dat niet alleen.. je zou verwachten dat bepaalde sites op twee locaties worden gehost.. als de ene uitvalt kunnen ze nog door op de andere.
uhm ou het niet kunnen zijn dat het datacentre kan wel online was maar er tussenstations geen stroom hadden buiten het datacentre?
Zelf meegemaakt dat ondanks maandelijks testen het toch fout ging. Het ging uren goed maar uiteindelijk ging de backup-generator stuk voor het oorspronkelijke probleem was opgelost. In theorie zou je dan nog een tweede en een derde backup neer kunnen zetten maar het houdt een keer op . Als je uptime zó belangrijk is dan zijn er betere manieren om de beschikbaarheid te garanderen (bv twee fysiek gescheiden locaties).
Het daadwerkelijk "off-grid" gaan als test, blijft een hachelijke zaak.
Er lopen honderden Ampères over die kabels en schakelaars en het afschakelen daarvan is levensgevaarlijk.
Ik heb een tijdje zo'n gesmolten/ontplofte schakelaar in de vensterbank gehad. :X
En de mensen van het elektriciteitsbedrijf dragen niet voor niets dezelfde kleding als bij de EOD bij zo'n test!
Het uitvallen van de stroom kan meestal nog goed gaan, omdat er niet geschakeld wordt.
Dan neemt de UPS het over en uiteindelijk starten de diesels.
Het overhalen van die netschakelaar is het gevaarlijke bij zo'n test.
We zijn in ons land behoorlijk verwend als het aankomt op een stabiele stroomvoorziening. Gevolg is dat we er eigenlijk niet veel mee te maken hebben, het 'volledig' testen niet plaatsvind in verband met de risico's van een test en als er dan werkelijk iets gebeurd wil het helaas vaak voorkomen dat er een van de vele schakels niet of niet op tijd werkt.

Er hangt nogal wat aan elkaar vast. Je hebt het reguliere stroom netwerk, UPS voor de tijdelijke backup en daarachter generatoren. Op het moment dat de vaste net er uit knalt, moeten de UPS acuut de stroomvoorziening overnemen tot het moment dat generatoren draaien.

Als UPS het niet goed overneemt, slechte accu heeft e.d. gaat het direct al mis. Dan moet vervolgens ook nog de generator goed aanslaan, anders ga je toch nog plat. En dan hebben we het nog niet over het hele systeem dat een juiste spanning/stroom moet regulieren.

In de landen waar het reguliere stroom netwerk van mindere kwaliteit is, krijgen dit soort systemen regelmatig (vaak dagelijks) een live 'test' te verwerken. Bij ons durven we de stekker er niet echt uit te trekken, want hoe leg jij aan je klanten uit dat je bewust de stekker eruit hebt getrokken.
Inderdaad. In een ziekenhuis staat normaal 150% capaciteit (150% vd preferente groepen) aan aggregaten geïnstalleerd, verdeeld over 3 units. Er mag er dus minstens één weigeren. Die systemen worden maandelijks getest door ze parallel te starten. Jaarlijks wordt een "door het donker test" uitgevoerd, waarbij de netbeheerder de hoofdschakelaar omzet. Daar kan wat misgaan, maar beter dat er bij een test wat misgaat dan in het echt,want dan ben je voorbereid en heb je je technici al in huis.
ID onbegrijpelijk Iedereen schreeuwt altijd TIER bla bla maar als je naar de TIA rating kijkt blijken er altijd lose ends te zijn bij TIER. al eens van CM gehoord ? Daarnaast hoort er bij een TIA rated 4 datacenter 2 generatoren te zijn en automatisch geschakeld te wezen dmv ATS switches enz. Zelfs als 1 pad uitvalt zijn er altijd nog 2 paden actief.

Vaak is het een bewuste keuze (geld) om dingen niet uit te laten voeren, daarnaast kloppen vaak de TIER ratings niet en zijn veel DC's designed as TIER 1,2,3, of 4 maar niet daad werkelijk gebouwd volgens deze standaard. Omdat er tijdens het project vaak het e.a. wijzigt omdat er verkeerd begroot is enz.
"TransIP werkt er aan alle diensten weer online te krijgen."

Heb er verder geen verstand van maar is dit niet gewoon je systemen weer opstarten en alles moet weer werken?
Helaas reageren systemen altijd vervelend om een overwachte reboot. Of sowieso een reboot in het algemeen. Vaak is het zo als het draait zit er dan maar niet aan. Dan blijft in ieder geval alles goed draaien.

Bij een reboot is het vaak zo dat sommige applicaties in een bepaalde volgorde opgestart moeten worden zodat alles goed gaat.
Als je systeem een reboot niet overleefd is er toch serieus wat mis met je systeem...
Onverwachte stroomonderbreking zoals dit, is wat anders.
En applicaties in een bepaalde volgorde starten kan al jaren, elk OS ondersteund dat... Een voorbeeld onder Linux
http://serverfault.com/qu...rvices-startup-boot-order

Don't fix what ain't broken ben ik het mee eens (tot op zekere hoogte want refactoring valt ook vaak onder fixing what ain't broken en heeft toch zeker wel nut), maar niet (op een normale manier) kunnen rebooten van een machine zou ik toch wel onder broken willen scharen. Stroomstoringen gebeuren vaak genoeg waardoor het gewoon af en toe moet.

[Reactie gewijzigd door jozuf op 17 januari 2017 10:04]

Los daarvan moet je ook bij Linux gewoon periodiek herstarten als er een kritieke kernel fix is doorgevoerd. Dan is het wel prettig dat je dit gewoon veilig tijdens maintenance windows kunt doen, en niet naderhand nog eens alle services na moet lopen om te kijken of het wel goed up is gekomen.
En zelfs dat hoeft ook bijna niet meer sinds versie 4 van de linux kernel ;)
https://www.google.nl/amp...ching-comes-to-linux-4-0/

Maar ik gok dat als je voor lief neemt dat je systeem zo werkt bij een reboot, dat je je ook niet druk maakt om zoiets "onzinnigs" (kuch kuch) als kritieke kernel patches :)

[Reactie gewijzigd door jozuf op 17 januari 2017 10:01]

Bij plotseling verlies van stroom zal er data verloren zijn die nog niet weggeschreven was. Dat resulteert meestal in diskchecks en mogelijke andere integriteit checks die het opstarten vertragen. In een aantal gevallen zullen dit soort checks de aandacht van een engineer vereisen.
Niet heel plotseling, ze hebben wss nogsteeds een ups tussen de servers en de aggregaat
Ja, maar dat is nog steeds plotseling op hoor. Dit is niet een situatie zoals op ene kantoortje waar je een server + ups hebt en dat de server dan netjes uitschakelt als de ups doorgeeft dat 'ie leeg raakt. Dit is ontworpen om 100% uptime te bieden dus die link tussen de UPS en de (overigens honderden tot duizenden) servers is er niet.
Misschien wel, maar je systemen opnieuw starten is geen zaak van 30 seconden ;)
Als je server met iets belangrijks bezig is en je trekt de stekker eruit kan er van alles fout gaan,
inclusief hardware problemen.
Helaas is dit niet zo simpel.Meeste cloud omgevingen zijn met enige overbooking ingericht, als een VM opstart vraagt deze over het algemeen alle beschikbare resources. 1 of 2 VM's is niet zo een probleem, echter een geheel platform trekt zichzelf net zo snel weer onderuit. Een Cloud platform is over het algemeen simpelweg niet ingericht om volledig down te gaan.

Dan heb je nog het issue als een complete vloer down gaat. Als een systeem opstart vraagt deze meer ampere, meeste kasten zijn algemeen net onder de max ampere ingericht als alle systemen al draaien. Als een rack dan volledig opstart trekt deze de stop er uit. Als je dit op grotere schaal van een gehele datacenter vloer trekt, kan je inzien dat dit nogal wat issues geeft.

Lang verhaal kort, datacenters zijn niet ingericht om alles in 1 keer op te laten starten.
klopt wij moesten een keer alle servers opnieuw opstarten dat duurde 6 uur. En dan laat ik alle narigheid die er van komt nog er buiten
Vooralsnog kan ik niet bij mijn blade-VPS komen bij TransIP...
Hier 1 van de 5 blade's ook nog offline.
Ik heb zojuist middels een handmatige reset weer wat VPS-en online gekregen (monitoring zei dat ze OK waren, console werkte niet). Dus wellicht helpt het om ze handmatig te resetten, ik denk dat de engineers van TransIP dat nu ook aan het doen zijn..
Koning! _/-\o_ :D

Na een reset vanuit de beheeromgeving is mijn VPS direct weer beschikbaar gekomen!
Zelfde verhaal hier idd. Vraag je je toch af wat 't punt van die monitoring van ze dan is…
Hier hetzelfde verhaal inderdaad. Twee offline en willen beide niet starten.

Gek genoeg is de tweede pas vanmorgen om half 8 uitgevallen. De ander wel eerder vannacht.

[Reactie gewijzigd door Tralapo op 17 januari 2017 08:26]

[...]

Gek genoeg is de tweede pas vanmorgen om half 8 uitgevallen. De ander wel eerder vannacht.
Domino effect vermoed ik. Dan is de helft online, door alle pieken valt het e.e.a weg.
Ik heb ongeveer 60 BladeVPS-en onder mijn beheer bij TransIP. Ze komen geleidelijk 1 voor 1 weer online. Kwestie van geduld dus.
Ik heb weinig last gehad, de timing had beroerder gekund ;)
Bij ons lag er ook het een en ander uit, net een minuut geleden weer online gekomen. Volgens transnoc.nl:
Update 07:48

Inmiddels is een groot deel van de getroffen diensten gecontroleerd online gebracht. Ook de stroom in Amsterdam lijkt weer hersteld.
Dus het kan nog even duren ;)
Dito. Ik kreeg allemaal meldingen van Uptime Robot. 8 diensten liggen er bij mij uit, kan het controle paneel niet benaderen en SSH blijft eveneens hangen.

Beetje zuur dit.
Datacenter waar de stroom uitvalt. Zou als bedrijf zijnde snel naar een echt datacenter op zoek gaan die minimaal 2 backup generatoren heeft wat toch echt de standaard is bij de datacenters waar ik mee te maken heb. Ga je je toch ook afvragen wanneer de generator voor het laatst getest is.
Wat een onzin...

Problemen kunnen iedereen overkomen - ook al test je nog zo vaak, het blijven dry-runs en soms desktop-oefeningen. Of zou jij het fijn vinden dat -om de ups te testen- elke maand iemand de hoofdschakelaar omgooit om te zien wat er gebeurt? En dat als het dan mis gaat je daar niet over moet zeiken omdat het nu als het echt nodig is het tenminste werkt?

Daarbij heb je waarschijnlijk geen gedetailleerd inzicht in het design van dat datacenter en zomaar stellen dat een tweede generator dit op zou lossen is uit de lucht gegrepen.
Hoezo onzin. Ik heb in mijn functies in het verleden meerdere keren in datacenter selectie procedures gezeten en vele datacenters bezocht. Wij hadden altijd als eis dat er verschillende backup voorzieningen mbt stroom ingericht waren. Dit betekende meerder generatoren en verschillende energie leveranciers die binnen komen in het datacenter. Ook moest er 1x per maand een power test gedaan worden en wilden we hier het bewijs van hebben.

Als een datacenter zulke basale zaken niet heeft ingeregeld was deze snel out-of-scope.
Dit betekende meerder generatoren en verschillende energie leveranciers die binnen komen in het datacenter.
Kan dat? Je hebt toch altijd dezelfde netbeheerder? Dan maakt de leverancier toch geen verschil?
Ja, dat kan. Maar zoals je zegt is de beheerder en de lijn hetzelfde, dus het maakt geen fluitekruit uit. :P

Je kan hoogstens in NL eisen dat er twee entry-points zijn voor de stroom, zodat als een malloot het ene kabeltje raakt tijdens het opgraven van een leiding, je nog via de andere stroom krijgt. Maar een algehele storing bij de beheerder doe je niks tegen.
Ja dat zou ik willen en verwachten als klant (de hoofdschakelaar omzetten maandelijks). Gewoon je kerntaak op orde hebben. Ik zou zelfs als het dan mis gaat daar meer begrip voor kunnen opbrengen, dan bij een echte storing.
Ha - uit die goede oude doos een verhaal van een consultant die de klant wilde laten zien hoe goed z'n data redundant was opgeslagen. Trok een schijf uit de RAID set. "Zie je wel - alles draait door!" 't Apparaat was nog tijden van slag om de boel weer te synchroniseren.

Wat ik bedoel te zeggen is dat disaster-recovery tests altijd tests blijven. Op het moment dat je een disaster probeert te simuleren dan is er een gerede kans dat je klanten daar last van hebben. Dus test je anders: je laat je generator maandelijks draaien, controleert de accu conditie van je UPS - maar ik zou niet graag mijn grote klanten moeten bellen met het verhaal dat de zaal plat ging omdat we wilden kijken of een en ander prettig werkte...
Ja. Onze datacenters doen dat periodiek. De ene keer met de netstroom er nog op, en de volgende keer daadwerkelijk door de netstroom weg te halen. Ondanks dat onze datacenters WEL meerdere aggregaten hebben en N+1 zijn, ben ik blij dat ze dat doen.
Onderdeel van een SLA die 99.99% oid uptime garandeerd houdt in dat je je eigen spullen ook test. In een N+1 setup moet dat overigens ook gewoon kunnen.

Wij hebben enkel DNS diensten bij TransIP maar dit is evengoed geen goede beurt voor ze. Een aggregaat is single point of failure, dat kan niet meer anno 2017. Anno 2007 overigens al niet meer.

[Reactie gewijzigd door Rataplan_ op 17 januari 2017 08:41]

Voor veel klanten is 1 of geen generator voldoende om de kosten laag te houden. Het is maar wat je nodig hebt...
Klopt. De standaard klein bedrijf of particulier met een kleine website of webshop hoeft geen dure oplossing. Maar een pers bedrijf die afhankelijk is voor het verspreiden van nieuws via internet.... een heel ander verhaal.
Klopt.
Ik had ook gehoopt dat de NS hun systemen sneller online zouden hebben. Dat zal een leuke post mortum worden ;)
Een beetje bedrijf zet zijn servers niet allemaal op dezelfde locatie.
Dus je kan jezelf als bedrijf wel afhankelijk maken van die ene hoster zjn backup generatoren, maar dan ben je zelf ook schuldig als de boel down gaat bij de hoster en jij als bedrijf niet verder kan.
Overal kunnen problemen optreden, een 100% garantie is gewoonweg niet mogelijk. Zoals je zelf weet, alles kan kapot gaan op de verkeerde momenten, daarom zit je ook liever bij zo'n bedrijf die dat zo goed mogelijk voor jou probeert te regelen ipv het zelf te doen..
Tja, ik kan wel een scenario bedenken, waar alles dubbel is en het toch super mis kan gaan.
Wat een negativiteit hier zeg. Mag TransIP na al die jaren ook een keer één storing hebben? Vooralsnog doen ze het beter dan Google en Amazon.
Voor ons is dit de tweede grote storing in een maand, en de derde grote storing in een jaar. De vorige keer was onze Big Storage uitgevallen, omdat er meerdere harde schijven 'tegelijk' kapot gingen. Data terug laten zetten duurde meerdere dagen(!)

Ook nu duurt het erg lang.
Ondanks dat er om 10 uur al op de status-pagina stond: "Al onze systemen zijn weer volledig bereikbaar." is dit voor ons systeem nog niet het geval. Via support komen we niet verder dan: "Op dit moment hebben wij helaas nog geen tijdsindicatie wanneer jouw server weer online komt."

Dan is enige negativiteit niet zo gek

Edit: het blijft natuurlijk zo dat je een serieuze site op meerdere locaties / servers moet hosten. Voor kleinere bedrijven en webshops (waarvoor een beetje downtime geen ramp is, en dus niet op meerdere locaties hosten) is dit dan wel weer heel vervelend.

update: om 12:00 is onze server weer online gekomen. 6 uur nadat de stroom hersteld was. Fijn dat alles in elk geval weer werkt.

[Reactie gewijzigd door svane op 17 januari 2017 12:05]

waaruit maak jij op dat ze het beter doen dan Google & Amazon heb je een bron ?

Verder is het een heel simpel verhaal, als TransIP voldoet aan haar contract is er niets aan de hand, maar zoals ik het nu op maak (ik ken de contracten echter niet tot in detail) is er een serieus probleem met de stroom voorziening en dat kan een Datacenter zich hedentendage niet meer permitteren.

Kortom ik vind de kritiek (zoals jij het verwoord negativiteit) volkomen terecht, een datacenter moet zijn stroom voorziening gewoon volledig op orde hebben en een volledige black out van het stroom net op kunnen vangen, en niet onderuit gaan omdat een noodgenerator niet werkt.

Alle datacenterers waar ik mee werk kunnen meer dan een week volledig autonoom draaien.
Beter is een mening, daar kun je geen echte bron voor hebben he?
Ik gebruik zowel AWS, Google, Azure en Transip veel voor klanten. Dit is bij mijn weten de eerste keer dat TransIP zo'n grootschalige storing heeft. Alle grote partijen hebben weleens last gehad van grootschalige storingen op datacentrum niveau, behalve TransIP tot nu toe. Op individueel server niveau kan dat natuurlijk verschillen per geval.
Hoe dan ook, als iemands server zo belangrijk was, had die ergens redundancy of een dikke SLA met TransIP moeten regelen.
Ik laat de taalkundige discussie even achterwege, op mijn komt jou initiële betoog over alsof je dat wist.
Echter is jouw ervaring blijkbaar niet negatief, en neem je aan dat alle grote partijen (geen idee wie of wat je daarmee bedoelt) last hebben gehad van grootschalige storingen op datacenter niveau (weer geen idee wat je daar precies mee bedoelt).

Maar jouw gevoel en aannames zijn positief over TransIP prima en heel fijn voor je.

De feiten echter, dat ze dus door een simpele black out met een datacenter locatie compleet onderuit gaan zoals vandaag gebleken is pleiten echter niet om daar zeer positief over te zijn.

Als ik ze vergelijk met een Equinix welke zolang wij zaken met ze doen nog nooit onderuit gegaan zijn, of beter nog mijn eigen serverruimtes ( voorzien van eigen noodaggregaat welke iedere maand vol belast test draait en we dus iedere maand "door het donker" gaan om zo onze UPS en en noodstroom voorziening te testen) welke ook ruim 3 jaar een 100% uptime heeft vind ik de negatieve reacties (die jij niet helemaal kan plaatsen) eigenlijk niets anders dan logisch.

Onderuit gaan tijdens een black-out kun je als je als datacenter serieus genomen wilt worden botweg niet verkopen, dan heb je je zaken niet op orde. Dat zijn de feiten.

[Reactie gewijzigd door cyclone op 17 januari 2017 12:22]

Hun shared webhosting is echter al jaren niet bruikbaar voor een simpele Wordpress website met een Avada theme. Veel te langzaam die hosting daar, totaal niet werkbaar, dus elders ondergebracht.
22 maart: 2016 Storing bij TransIP en 9 juni 2016: Storing bij TransIP (bron: allestoringen.nl)
Je kunt ook de infrastructuur/netwerk niet gaan vergelijken met Google/Amazon die zijn zo enorm groot daar komen dagelijks containers aan met nieuwe servers.
Onvoorstelbaar dat dit niet afgevangen is door een generator, of iig een oplossing die had opgetreden.
Die zijn er meestal om te zorgen dat er tijdelijk stroom is om alle apparatuur netjes te kunnen afsluiten. Niet als vervanging van het stroomnet.
Dan snap je er niks van. Aggregaten zijn JUIST voor vervanging van het stroomnet. UPSsen zoals PolarBear al aangeeft om de tijd op te vangen die de aggregaten nodig hebben om op te starten.
Juist. En bij een beetje datacenter gaat het niet om 1 of 2 van deze aggregaten, maar makkelijk een stuk of 10 (vermogens van 1...4 MVA zijn geen uitzondering), of een veelvoud daarvan. Zoals nu bv. in de Eemshaven wordt gebouwd bij Google.
Ehm een beetje datacenter heeft na de UPS (die bedoelt zijn voor overbrugging) gewoon een set generatoren staan die de stroomvoorziening kunnen overnemen.
onbegrijpelijk op deze schaal mag dat gewoon niet voorkomen. je host voor 1000en bedrijven en particulieren. Equinix gelukkig geen last.
Vraag is natuurlijk of Equinix wel in het gebied van de stroomstoring zit.
ze hebben er 8 in Amsterdam, best kans van.
Tsja, HWI heeft een bewuste keuze gemaakt om de boel erg gevoelig te maken voor SPOFs, en dit is dan het gevolg.
Ik heb genoeg discussies daarover met ze gehad, maar ze vonden het allemaal te lastig.
Nouja, nu ze overgenomen zijn zal er wel een vergadering komen en de boel netjes in 2 datacenters geplaatst worden. Iets met een gedempt kalf enzo.
Hoe belangrijk is het dat HWI altijd online is? Het lijkt mij helemaal geen probleem indien zo'n site incidenteel een paar uurtjes down is. Er hangen geen mensenlevens vanaf, er wordt geen kerncentrale mee aangestuurd dus een paar uur downtime kan helemaal geen kwaad.
Precies mijn idee. Waarom zou je een bak geld uitgeven aan iets wat misschien maximaal een keer per jaar gebeurd? Dubbel uitgevoerde systemen zijn ook weer onderheving aan complexer onderhoud en eigen storingen vanwege die complexiteit. Uiteraard lopen er genoeg sysadmins rond die dat 'varkentje wel even wassen' en die dat allemaal 'appeltj eitje' vinden. Maar alles tegen een prijs.
Bak geld valt erg mee, en een hot standby regelen is doodeenvoudig.
Als je een provider hebt met een nette DNS, en dat is ook geen rocketscience, of slimme switches, ben je weer in de lucht met een kwartiertje downtime en gefixed vanuit huis.
HWI moet direct op pad met een doosje schroevendraaiers en allemaal hardware omdat ze geen idee hebben wat er precies stuk is gegaan.
Ik zie een volledig dubbel uitgevoerde omgeving, met alle bijkomende kosten zoals eigen hardware of inkoop VPS'en, bijbehorende SLA's en opgeleid personeel wel als een bak geld. En dan ook nog de extra tijd om elke maand de failovers goed te testen, inclusief een nette database failover waar de eindgebruiker geen last van mag hebben.

Stel dat je een uur offline bent en het omschakelen kost je al 15 minuten. Dan is dat toch geheel niet interessant? Dan zou ik liever een uur offline zijn met een veel simpelere setup dan een half uur rommelen vanuit huis, terwijl het eigenlijk al weer draait tegen de tijd dat je klaar bent.

Je kunt het ook overdrijven.
Ik denk dat je de web omgeving van HWI enorm overschat.
Imagoschade is duurder. En bij stroomstoringen kan het zomaar zijn dat een voeding en/of harde schijven de klap niet overleven. De downtime stapelt zich dan wel erg op.
Bieden ze dan 100% Uptime? 99,9 % up is 10 minuten down per week, 8,5 uur per jaar
oh oh wat erg dat een site als HWI of telegraaf er voor een paar uurtjes uit ligt.. Ik zou ook niet kiezen voor een 'duurder' alternatief om 100% uptime te hebben, scheelt vaak toch een hoop geld. Als het nou een kritieksysteem zou zijn, zou het een ander verhaal wezen..
Tegenwoordig is internet voor veel bedrijven hun core business. TMG heeft iets van 70 sites waaronder bijv. gaspedaal.nl waarvoor gewoon geldt dat geen site == geen inkomsten.
Is dat een kritiek systeem? Vast niet na een uurtje, maar na een halve dag gaat het vast jeuken in de directiekamer.
Dan is het nog afwegen, 1 keer in de paar jaar een paar uur plat en zo op langere termijn dus veel geld besparen, of nooit plat, maar ook dan heb je geen garantie dat je nooit plat gaat, dat kan namelijk GEEN provider bieden.
Niet zo zwart/wit denken.
De opmerking die ik initieel maakte was specifiek over HWI en hun hardware platform is zo klein dat 'veel geld besparen' niet correct is.
Voor veel bedrijven geldt dat bij dubbel uitvoeren, dmv hot standby, enkel de hardware en zaalkosten verdubbelen maar dat dat daar eigenlijk nooit extra personeel voor nodig is.
Je beperkt daarmee je kans op langdurige downtime aanzienlijk en de kosten zijn erg overzichtelijk. Je kunt de schaduw omgeving zelfs met afgeschreven hardware draaien.
Wat jij doet is 'jamaaren' om het 'jamaaren'.

Het gaat niet om garanties, het gaat om risico analyse.
Waar ik het over heb is ook risico analyse samen met kosten, zelfs op afgeschreven hardware dubbel uitvoeren kost nog steeds geld.
Wat ik kan opmaken uit het artikel, is dat nl.hardware.info alweer up zou moeten zijn, maar voor mij is de website op het moment nog steeds niet te bereiken.

Verklaart dat ook waarom 9292 het niet doet? :(

[Reactie gewijzigd door AnonymousWP op 17 januari 2017 08:11]

Haha precies, had er vanochtend ook last van!
Ik zit met samengeknepen billen te hopen dat onze servers in AMS3 en 4 dit bespaard blijft.
Dat is Telecity toch?
Heb je wel eens gekeken hoe de back-up- stroomvoorziening er daar uit ziet? Ik acht de kans op een dergelijke storing bij Telecity minimaal.
Heb daar bijna 6 jaar lang een aantal racks in beheer gehad. Enige downtime die ik heb meegemaakt in de racks was toen we zelf (aangekondigd) de complete networklaag gingen vervangen. De monitoring die we daarop hadden staan gaf aan dat werkelijk alles nog geen minuut offline is geweest (afgezien dus van ons Eigen geplande onderhoud).

Onderhoud door Telecity op het network gebeurd altijd gesplitst, Eerst ring 1, is dat goed gegaan, gaat ring 2 een week later.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*