Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 177 reacties

Het datacenter van Easynet op Schiphol ligt deels plat door een stroomstoring. Het is nog niet duidelijk waardoor de storing wordt veroorzaakt, maar veel bedrijven en websites hebben er last van, waaronder hostingprovider Argeweb.

easynetOp moment van schrijven zijn veel bij Easynet gehoste websites en diensten nog steeds niet bereikbaar. Zo heeft hostingprovider Argeweb zijn website vervangen door een foutmeldingspagina. Normaliter horen datacenters bij stroomproblemen terug te vallen op ups-systemen en noodaggregaten. "Noodstroomvoorziening van Easynet werkt blijkbaar niet", schrijft de directeur van Argeweb op Twitter. "Onbegrijpelijk. Echt onbegrijpelijk." Ook het betalen van een parkeerplaats via Parkmobile is op dit moment niet mogelijk, waarschijnlijk vanwege dezelfde storing.

Het is niet duidelijk waardoor de storing wordt veroorzaakt en hoe groot de impact is. Een klant van Easynet schrijft op Twitter dat een gedeelte van het datacenter er uit ligt. Het is mogelijk dat enkel een deel van het netwerk er volledig uitligt, en dat de servers zelf gewoon doordraaien. Woordvoerders van Easynet waren niet bereikbaar voor commentaar.

Moderatie-faq Wijzig weergave

Reacties (177)

1 2 3 ... 7
In ons Data Center te Schipholrijk heeft zich een (gedeeltelijke) stroomstoring voorgedaan om 10:33AM. Dit is een geïsoleerd en ongewoon voorval, welke we volledig onderzoeken. Dit was een gedeeltelijke uitval en niet alle Easynet klanten in het data center werden getroffen, echter sommige hebben een tijdelijke onderbreking van hun diensten ervaren. We zijn ons terdege bewust van de impact die dit incident heeft op onze klanten en op hun beurt op de klanten van onze klanten.

Easynet heeft een goed track record in het leveren van robuuste en betrouwbare connectiviteit en data center services vanaf deze locatie, en kan bevestigen dat onze standaard escalatie, crisis management en leverancier escalatie processen onmiddellijk in werking traden toen het incident zich voordeed. We passen alle gangbare “best practices” toe bij het uitvoeren van regelmatige routine-onderhoud en het testen van de gehele faciliteit.

Ingenieurs van Easynet, samen met de ingenieurs van onze leveranciers, waren aanwezig op de faciliteit zoals het standaard proces voorschrijft en hebben het probleem geïsoleerd. Sinds vanmiddag werden diensten op een gecontroleerde manier weer actief en dit werd bevestigd door de getroffen klanten. Alle partijen (Easynet ingenieurs leveranciers ingenieurs) zijn aan de slag om zo snel mogelijk de service volledig te herstellen. Hoewel veel diensten reeds actief zijn kunnen we niet aangegeven wanneer de resterende diensten volledig hersteld zullen zijn, gezien het feit dat wij voorzichtig te werk moeten gaan in een “live”-omgeving.

Volledige analyse naar de oorzaak van het probleem zal worden verstrekt aan de getroffen klanten volgens onze normale proces, alsmede gegevens over eventuele corrigerende maatregelen die moeten worden uitgevoerd om het incident dat vandaag is ontstaan naar de toekomst toe uit te sluiten.

Easynet biedt zijn excuses voor het ongemak dat dit aan onze klanten en hun klanten heeft veroorzaakt en danken hen voor hun geduld tijdens de periode dat deze situatie wordt/is rechtgezet.

Cathy van de Garde, Easynet
Er gaat dus van alles mis, dat je om 18:38 nog steeds niet kan aangeven, in samenspraak met jullie "Ingenieurs van Easynet en van jullie leveranciers" wanneer de services volledig zijn hersteld is ronduit triest te noemen. Deze manier van handelen is uiterst onprofessioneel en jullie hebben blijkbaar niet door hoe belangrijk deze servers voor bedrijven zijn, ongeacht of het bedrijf zelf continuïteits maatregelen heeft getroffen.

Zoals hieronder ook wordt aangegeven overkomt het de beste, maar een downtime van bijna 12 uur is onacceptabel in mijn optiek en vele delen deze mening.
Beste klant,

Op dit moment ondervinden wij problemen in het datacenter waardoor uw server momenteel niet bereikbaar kan zijn.
Er lijkt een probleem te zijn met de stroom.
Onze engineers onderzoeken het probleem momenteel.

De getroffen ranges betreffen:
109.70.0.0/24
109.70.1.0/24
109.70.2.0/24
109.70.3.0/24
109.70.4.0/24
109.70.5.0/24
109.70.6.0/24
109.70.7.0/24
46.17.0.0/24
46.17.1.0/24
46.17.2.0/24
46.17.3.0/24
46.17.4.0/24
46.17.6.0/24
46.17.7.0/24
128.140.217.0/24
128.140.218.0/24
128.140.219.0/24
62.84.240.0/24
62.84.241.0/24
62.84.242.0/24
185.27.140.0/24
85.17.41.0/24

Het is op dat moment niet nodig om een ticket in te sturen of de helpdesk te bellen.
Onze excuses voor het ongemak.

UPDATE 17:08
Easynet DC heeft aangegeven dat het stroomprobleem bijna is opgelost en dat onze ruimte snel weer online zal komen. Er volgt later op deze pagina een uitgebreide uitleg over deze storing.

UPDATE 16:40
Er is weer netwerk connectie in onze ruimte in Easynet DC. Wij verwachten rond 17:30uur een nieuwe update te kunnen geven.

UPDATE: 15:45
Electrical engineers werken momenteel aan de transformaters om zo snel mogelijk weer stroom te krijgen.

UPDATE: 13:15
Nog steeds is het probleem niet opgelost.
Honderduizenden website's in Nederland zijn momenteel offline ivm de stroomstoring in het Easynet datacenter.
Lees ook de nieuwsberichten:
http://webwereld.nl/datac...r-van-easynet-op-schiphol
nieuws: Datacenter Easynet ligt deels plat door stroomstoring

UPDATE: 12:30uur
Het probleem met de stroomstoring is helaas nog niet opgelost.

UPDATE: 11:20uur
Het stroom probleem is nog niet opgelost, er wordt momenteel hard gewerkt om dit probleem zo snel mogelijk op te lossen.

UPDATE: 10:45uur
Het stroom probleem is nog niet opgelost, er wordt momenteel hard gewerkt om dit probleem zo snel mogelijk op te lossen.

UPDATE: 10:30uur
Onze telefooncentrale die is verbonden met het datacenter heeft momenteel hierdoor ook problemen.
Hierdoor kunt u ons telefonisch niet bereiken.
Onze engineers zijn nog steeds bezig het probleem op te lossen.
en daar hebben ze dan aggregraten etc voor... mooi adverteren met hun 'hypermoderne' datacenter. :X
Datacenterbeheerders "vergeten" heel vaak dat noodstroomvoorzieningen regelmatig getest moeten worden. Zeker de aggregaten! Dieselgeneratoren zijn prachtige machines maar kunnen wat nukkig worden als ze een jaar of langer stil staan: condensvorming in leidingen en brandstof, rubber pakkingen die uitdrogen, startaccu's die overleden zijn etc. etc.
Mijn eigen noodaggregaten draaien gemiddeld een keer per maand een half uur en hebben daardoor nog nooit (onverwachte) problemen gegeven.
Ook de netwachters, tegenwoordig steeds vaker softwarematig, moeten af en toe een keer getest worden.
Ik weet het, dit soort testen kosten tijd en dus geld. Maar ja.....nu staat het blijkbaar stil terwijl het heel hard nodig is!
Datacenterbeheerders "vergeten" heel vaak dat noodstroomvoorzieningen regelmatig getest moeten worden. Zeker de aggregaten
als je als datacenter wilt voldoen aan certificering dan hoort daar een gecontroleerd contunuiteitspaln bij waarbij de agregaten wekelijks getest worden en maandelijks een cyclus doorlopen.
Neem dus altijd een datacenter met iso certificering of een die daarmee bezig is.
Alle aandere "datacenters" zijn veredelde dataschuren waar je goedkoop zaken kunt opslaan met de wetenschap da thet vroeg of laat een keer fout gaat.

Kijk binv hier voor een opsomming:
http://www.telecitygroup....daarden-accreditaties.htm
Maa rin da tkade ris dit wel aardig.. woorden zijn dus geduldig ;)

http://www.easynetzakelij...hosting/cloud-colocation/
Ik heb niet het idee dat veel datacentra "vergeten" hun noodstroom te testen. Wel wordt het stukje van testen onder belasting veel minder vaak gedaan, omdat dat meer risico's met zich meebrengt.

Daarnaast kun je testen wat je wilt, statisch gezien zal er een keer iets niet werken, hoe goed je alles ook bijhoudt (want dat het gisteren nog werkte, betekend niet dat het vandaag ook nog werkt).
Onze PAC houdt elke maand een test, de even maanden onbelast, de oneven maanden belast.

Tot drie jaar geleden was de belaste test 20 minuten, en ging elke keer perfect.
Tot er een keer een stroomuitval was, en die duurde 3 uur.

Toen werd duidelijk dat een onderdeel niet bestand was tegen langdurig belasten, en schakelde over naar zijn backupunit .. deze was lager ingeschaald "omdat het toch nooit voorkwam, dat het zo lang zou duren"

ergo, één voor één gingen onze systemen plat, tot op het einde we alleen nog maar "lifesupport" hadden ( verlichting en deuren )
Best lastig, als je een 24u service hebt naar klanten toe, en alles valt uit midden op de dag.

Na de onderzoeken en inschattingen kwam omhoog dat er beter een nieuwe generator kwam ook, EN 2 stroomomvormers/backups + extra 3e UPS voor 'the last mile'

Een stroomstoring van 3,5 uur heeft uiteindelijk bijna 3 miljoen gekost, ondanks de regelmatige testsessie's en ondersteuning door "professionals"
( die we daarna ook nooit meer gezien hebben :+ )
Precies, ik verwacht ook niet dat er nooit een probleem zal zijn.
Je kunt dit soort dingen proberen uit te sluiten, maar wanneer je daar te ver in door schiet geeft dat ook weer problemen. Ik heb namelijk vaak genoeg problemen meegemaakt met netwerkapparatuur die juist door redundancy werden veroorzaakt.

De kunst is het risico laag te houden en de reactie zo optimaal mogelijk wanneer er toch iets fout gaat. In dit geval gaat het om een powerfeed, wanneer dan de UPS en aggregaat de boel niet overnemen doordat daar ook ergens een probleem is ontstaan, los je dat niet zo makkelijk op. Het gaat hier niet om een paar ampere, maar waarschijnlijk om vermogens waar je een stadje op kunt laten draaien.

Nu is het dus wachten op een nieuwe trafo of de backup power. Aan beide zal zeker gewerkt worden momenteel.
Zo'n grote ramp is het ook weer niet overigens, wat is een paar uur downtime op een mensenleven als je de boel even probeert te relativeren?
Is het niet de transformator achter de UPS etc dan? Dat het de laatste transformator is om hoog spanning terug te brengen op 230V. Dan heeft het weinig nut behalve GEBRUIK maken van 2 feeds. Ze zijn er niets voor niets!
Bijkomend probleem is dat als je het echt goed wilt testen er mogelijk downtime ontstaat mocht het fout gaan. "Vroeger" kon dit soort testen nog wel tijden "low traffic hours" doen maar die zijn er praktisch niet meer. Het risico dat er iemand getroffen wordt tijdens een mislukte test is dus aanwezig. En dan is de keuze regelmatig outages door storingen of 1 keer een onvoorziene storing is dan gauw gemaakt.
En dat was dus ook meteen mijn reactie. Wat blijkt dus na een telefoontje met Leaseweb(die o.a.a. hun servers onderbrengen bij Easynet) Dat de servers hier wel op draaien maar de switches niet?? Werkelijk onbegrijpelijk dit mag en kan gewoon niet in mijn optiek.

Ik heb zelf 2 productie servers draaien in de 85.17.32.0/19 reeks. Eentje is alweer bereikbaar sinds 11:30. De andere is nog afwachten.

Zelf status updates volgen kan hier:
http://www.leasewebnoc.co...eb-nl-easynet-power-issue

Update: Oct 1 12:40:00 CEST
Data-center Electrical engineers are working on the broken Transformer.
At this moment there is 1 feed not working and the customer with only 1 feed, we are swapping them over to the second feed when possible.

Update: Oct 1 14:20:00 CEST
Third party engineers of Liander (Dutch power company) are investigating the problems.
We are still switching customer from a to b feed when possible.

Net leaseweb gebeld en hun geven aan dat er dus niet meer van A naar B wordt gepatched omdat feed B al op zijn limiet draait

Woordvoerder gesproken van Easynet, wordt hard gewerkt aan een oplossing!!!!! Al vanaf 10 uur vannochtend jongens jongens jongens Easynet draait zichzelf een faillisement in

Update: Oct 1 15:30:00 CEST
Electrical engineers are still working on the Transformers at Easynet DC.
There is unfortunately no ETR, we will of-course pass this information on a.s.a.p.
Sorry for the inconvenience caused.

Update: Oct 1 16:40:00 CEST
Although mentioned earlier we are not switching customers between feeds to prevent further problems.
We expect to have an update at around 17h30.

Update: Oct 1 17:15:00 CEST
We see on our monitoring system that the racks are coming back online One-by-One.

Update: Oct 1 17:30:00 CEST (revised)
Please be advised that we have team of Support Engineers on-site to bring all systems online 1 by 1, at the moment only one of our two suites is coming back online (2A).
Suite 1D is still not fully powered up yet.
We will update you as we get further information.

Update: Oct 1 18:40:00 CEST
We are having some issue with hardware, one switch is broken and needs replacing.
Easynet has also some broken circuit breakers that needs replacing.
Suite 2A & 1D are still not fully powered up yet.
We will update you as we get further information.

Update: Oct 1 19:30:00 CEST
All power in suite 2A is now back online. We are still working on getting suite 1D online.
We will update you as we get further information.

Mocht je server niet automatisch aangaan als die weer van stroom wordt voorzien, neem dan contact op met je service provider

20:48 Mijn servers zijn weer online :)!

[Reactie gewijzigd door Snors op 1 oktober 2013 20:53]

Onzin uiteraard. Alles in een DC zit achter een UPS en NSA.

Hier zal ergens iets fout zijn gegaan in de distributie systemen binnen het DC waardoor het uit valt.

Lijkt me een behoorlijk lastige klus om uit te zoeken waar dit zit.
Het zit hem dus in een uitgevallen transformator zoals aangeven door Leaseweb. Wat dus ook verklaart waarom het netwerk deels is uitgevallen. Betekent dus wel dat we er van uit kunnen gaan dat niet alleen switches zijn uitgevallen maar ook servers.

Lijkt me overigens wel handig om er niet standaard van uit te gaan dat alles wel goed zit in een DC. I.p.v. het handmatig overzetten van servers / switches van de ene transformator naar de andere zou dit normaliter automatisch moeten gaan.

[Reactie gewijzigd door Snors op 1 oktober 2013 13:13]

Als ze 2 feeds op 1 transformator hebben zitten dan is het hoe dan ook fout aangesloten. De 2 feeds moeten helemaal los van elkaar kunnen draaien. En daarachter moet de ups staan om eventueel 1 van de 2 feeds op te kunnen vangen of zelfs alles op te kunnen vangen.
Update: Oct 1 16:40:00 CEST
Although mentioned earlier we are not switching customers between feeds to prevent further problems.
We expect to have an update at around 17h30.
Update: Oct 1 17:15:00 CEST
We see on our monitoring system that the racks are coming back online One for One.

[Reactie gewijzigd door Barryvdh op 1 oktober 2013 17:36]

Slechte reclame voor een datacenter.

Hier moeten ze een andere oplossing voor gaan laten aanlegen. anders gaat het klanten kosten ben ik bang.
Ach meestal valt dat wel mee met die weglopende klanten, dit is niet de eerste grote blunder bij Easynet.

Paar jaar geleden stond een hele zaal zonder stroom op zondag dankzij het lager afgezekerd zijn van die zaal dan wat men verkocht, op een gegeven moment wordt er dan zoveel stroom verbruikt dat de zekering eruit knalt. Op dat moment kon men niet 123 een monteur regelen die dergelijke zekeringen mocht vervangen en hebben we er ruim 5 uur zonder stroom gezeten.

Een twee jaar later begaf de koeling het (heeft nog op tweakers gestaan) waardoor de temp in bepaalde ruimtes zo hoog werd dat servers automatisch uitschakelden, tenminste in het geval van de gelukkigen. Hele dozen harddisken zijn daar in een klap overleden.

Klanten gaan dan soms wel weg maar voor je het weet zijn die racks toch weer vol met nieuwe slachtoffers. Eigenlijk onbegrijpelijk aangezien de prijs echt niet zo scherp is, zoals in veel dc's in Amsterdam, en het service nivo en kwaliteit belabberd.
Dat is inderdaad helaas meestal wel het geval.
Wat op zich vrij jammer is, als nou een keertje 1 bedrijf hard onderuit gaat worden de andere allemaal ook in eens wakker geschut en worden de problemen hopelijk wel een stuk minder. Omdat de andere aanbieders ook in eens na denken over hun oplossingen.
Zou je dat ook graag willen als er bij jouw werkgever een keer een grote fuck up is en klanten lopen massaal weg?
Als je als datacenter dat een paar keer achter elkaar lukt zie het bericht van mxcreep een paar berichten terug dan vind ik wel dat je inderdaad een keertje ermee mag stoppen.

1 keer een fout maken op staan sorry zeggen en vervolgens met concrette plannen komen dan zeg ik je bent goed bezig.
Als je als datacenter dat een paar keer achter elkaar lukt zie het bericht van mxcreep een paar berichten terug dan vind ik wel dat je inderdaad een keertje ermee mag stoppen.

1 keer een fout maken op staan sorry zeggen en vervolgens met concrette plannen komen dan zeg ik je bent goed bezig.
In een ideale wereld zou dat inderdaad zo zijn, ja.
Maar helaas hebben we een rubbertegel gemeenschap, en wil idereen voor het spreekwoordelijke dubbeltje op de eerste rang zitten.

Kwaliteit kost geld, en zelfs de glimlach van een receptioniste is tegenwoordig te duur om te krijgen.
Dus een partij die bij bedrijven zoals Easynet zijn diensten heeft, zal dat blijven doen, totdat het een keer echt fout gaat.
alleen maar omdat het goedkoper is, dan de buurman.

Net als telefoonabonnementen, iedereen roept "opzeggen" omdat er iets veranderde, maar stuk voor stuk blijft 90% bij het oude, en slikken ze de aanpassingen.
Toch niet verkeerd om enige publieke 'awareness' te creëeren ten aanzien van onze afhankelijkheid van IT-voorzieningen anno 2013.
Dat zeker niet, zou mooi zijn als alle datacenters nu hun backup systeem nog eens na lopen en testen om te voorkomen dat ze in het zelfde schuitje zitten.

Maar ben bang dat er een hoop zullen zijn die alleen denken wij hebben het beter geregeld en vervolgens niks testen.
Ik ben het hier zeker mee eens. Dat je een 2e server hebt om eventuele uitval te voorkomen wordt bij sommige bedrijven in hetzelfde datacenter gehost...

Als ik de reactie lees van @Sharpe. verbaas ik mij dan ook dat er geen backup in een andere omgeving staat. Synchronisatie en klaar
Maar dat kan je dan wel voor van alles gaan doen. Dus af en toe de supermarkten een week niet bevoorraden, gas afsluiten etc.
Maar dat kan je dan wel voor van alles gaan doen. Dus af en toe de supermarkten een week niet bevoorraden, gas afsluiten etc.
Sommige zaken moet je ook zelf in de gaten houden.
Ik ben geen survival / end of the world freak, maar in de voorraadkast en vriezer ligt wel voldoende om een weekje te kunnen 'overleven'
Zelfs een gasfles & gasstelletje in de schuur, en best een zooi aan flessenwater / frisdrank.
Onvoorziene problemen kunnen zich altijd en overal voor doen, het is gewoon onmogelijk om 100% uptime te garanderen..
Cordaan (waar ik werk) heeft er last van. Alle locaties Amsterdam kunnen niet op het netwerk. Echt intens naar ivm bestellen medicatie patienten, dossiers patienten benaderen, onderlinge communicatie...
Vervelend dat zoiets zoveel last veroorzaakt maar aan de andere kant zijn dit dingen waar jou bedrijf over na had moeten denken. Het is gewoon een zekerheid dat je ooit te maken zult hebben met uitval, de vraag is of je dit ziet als een keer overlast of dat je dusdanige problemen krijgt dat dit koste wat het kost voorkomen moet worden. Is het laatste het geval dan zou ik in elk geval minimaal kiezen voor een kwalitatief hoogwaardiger datacenter dan Easynet en het liefst de boel draaien over twee lokaties.
hear hear.

Maar vertel een zorgbedrijf maar dat ze een dure host moeten nemen... terwijl er bij de thuiszorg divisie 50% in het personeel wordt gesneden. Die managers in de toplaag gaan dan liever voor de el cheapo optie en laten de werkerbijen de ellende dan papiermatig oplossen wanneer het in de soep loopt.

Het interessante is dat we nu volledig overgaan op een ECD (electronisch clienten dossier). Denk dat ze zich wel even achter de oren mogen krabben
Uiteindelijk gaat het allemaal om risico's afwegen.

Easynet biedt waarschijnlijk SLA's aan met een bepaald uptime percentage. Dit betekend dat een bedrijf die zo'n SLA afneemt voor het stukje downtime dat daaruit kan volgen, iets moet bedenken. Dat kan van simpelweg het werk tijdelijk stilleggen (of met papier werken, oid) tot geografische failover. Hangt er een beetje vanaf hoe belangrijk de ICT infra voor je.

Dat is overigens de theorie... in de praktijk zie je wat jij beschrijft: managers die de risico's niet snappen en/of negeren. Dan moet je een keer goed op je bek gaan om hopelijk iets te veranderen.
Ook een dure host kan een probleem krijgen. Dat je dan vaak aanspraak op geld kunt maken, neemt niet weg dat je er in dat geval nog steeds last van ondervindt.

Mensen die zoiets 'ongelofelijk' vinden of 'onbegrijpelijk', dit is nou realiteit.
Shit happens, het enige dat je eraan kunt doen is er zo goed mogelijk mee om proberen te gaan wanneer het zich voordoet.
hear hear.

Maar vertel een zorgbedrijf maar dat ze een dure host moeten nemen... terwijl er bij de thuiszorg divisie 50% in het personeel wordt gesneden. Die managers in de toplaag gaan dan liever voor de el cheapo optie en laten de werkerbijen de ellende dan papiermatig oplossen wanneer het in de soep loopt.

Het interessante is dat we nu volledig overgaan op een ECD (electronisch clienten dossier). Denk dat ze zich wel even achter de oren mogen krabben
Ik heb bij zo'n instelling mijn diensten gelopen.
hun voorbereiding van uitval van het netwerk ( 2000 - 2005 ) uitprinten van excelsheets, met daarop invulstaten voor de afdelingen.

als het netwerk ( productie bedrijf ) eruit viel, moesten de vloer-leiders naar mijn portocabin komen, en moest ik ze een setje mee-geven waarop ze hun aantallen in konden vullen.
einde dienst bij mij inleveren, en de receptioniste mocht ze de volgende dag handmatig overtypen in de database-applicatie

Super, ik hoop dat ze daar vanaf gestapt zijn ( de productie is verdubbeld, hun netwerkafhankelijkheid zelfs 3x hoger, ivm robot en aanvoer extern )
Geen idee welk type noodstroomvoorziening dat bedrijf heeft. "Sloeg niet aan" staat er, maar dat zegt niet zoveel. Voor een dergelijke voorzienig slaat dit niet aan, omdat je geen spanningsloze pauze wilt. Bij zulke installaties zal een UPS hier dan ook meestal in voorzien. En dan niet een relatief kleine, maar eentje die minimaal uren kan voorzien. Een UPS draait continu, van overnemen is geen sprake, de hele voorziening draait permanent op de UPS.
Ondertussen is er ruimschoots de tijd om een diesel- of gasaggregaat op te starten dat voor onbeperkt langere tijd de accubatterij op peil kan houden.

Maar ja, zo'n voorziening is nogal kostbaar, dus is de onvermijdelijke vraag die rijst, hoe de heren economen van dit bedrijf dit zullen hebben overwogen. M.a.w. Hoe erg vindt men zo'n calamiteit eens in de zoveel jaar tegenover een enorme kostenpost om hierin te voorzien?
Versta me goed, best mogelijk dat dit allemaal wel in orde was en desondanks iets onvoorziens is gebeurd. Maar bij menigeen komen die gedachten wel meteen op.
Qua UPS heb je niet helemaal gelijk, er zijn opstellingen waar alle power altijd door de UPS systemen heen loopt, dit is qua verbruik iets minder efficient maar wel het meest safe. In het andere geval wordt de boel pas via UPS geleid op het moment dat er een faillure is. Voor zover ik weet heeft Easynet die laatste versie.
Het hoeft niet dat een UPS altijd meedraait, je hebt ook die inschakelen zodra spanning wegvalt en dit snel genoeg kunnen dat de apparatuur afgezien van een kleine dip niets merken en doordraaien.

Datacenter UPS systemen kunnen bij een volle zaal zelden uren lang op de UPS draaien, meestal is de runtime uit te drukken in minuten. Wat in het algemeen ruim voldoende is om de tijd te overbruggen die de generatoren nodig hebben om te starten en stroom te leveren.
Dude, een flink datacenter trekt in de megawatts -- enig idee hoeveel accus het kost om zo'n ding uren online te houden? Die iedere drie jaar moeten worden vervangen?

Standard practice is voor dit soort grotere systemen semi-online UPS, dwz dat ie continu draait maar dat hij geen vermogen levert, en vrijwel onmiddelijk kan inschakelen, en zelden meer dan 10-15 minuten runtime. Dat hoort ruim voldoende te zijn voor de dieselgeneratoren.

De tijd dat grote UPS systemen volledig online draaiden is al wel enige tijd achter ons.
Ik zit zelf bij FXW, helaas hetzelfde verhaal.
Alleen de VPS bij hun toch? Heb er enkele dedicated servers staan die wel werken.
VPS is offline.
Dat kan kloppen, niet alle stroom is uitgevallen.
Ik heb daar inderdaad een VPS. Het gaat om bepaalde ranges is te lezen op hun storingspagina: http://helpdesk.flexwebho...ws&_a=viewnews&newsid=200 Ik weet niet of deze ranges alleen voorbehouden zijn aan VPS'en.

Zie overigens net ook dat de oorzaak van het probleem bekend is geworden. Hopelijk duurt het niet meer lang voor we allemaal weer up zijn ;).
Ik heb een dedicated server staan bij FXW die ook niet meer bereikbaar is op het moment. Maar het lijkt af te hangen van de feed waar de servers op aangesloten zijn.
Wij hebben ook een dedicated server bij FXW. Al sinds 10:00 uur offline: www.scientias.nl
Ik denk dat dit een mooi moment is om te constateren waarom de ene provider goedkoper is dan de andere. Kwaliteit die je niet direct terug ziet maar uiteindelijk komt de aap toch uit de mouw.
Problemen kunnen overal ontstaan, we leven nu eenmaal in een "het kan altijd goedkoper" wereldje.
Het kan de beste overkomen, erg vervelend maar om hierdoor over te stappen...
Dit heeft niks met provider te maken, de helft van het datacenter ligt plat! Meerdere providers zijn de dupe ;)
Het hangt er maar helemaal vanaf hoe je je eigen netwerk hebt ingericht. Wij staan zelf ook in easynet met een volledig redundant ingericht netwerk en zijn gewoon online. De kosten hiervan zijn hoger, maar uiteindelijk betaald het zich wel terug.

Bij ons functioneerd de A-feed wel en is de B-feed uitgevallen.
Best wel enigzins kletskoek om nu zo op je borst te kloppen dat jij wel online bent, jij hebt nog 1 feed online en dus stroom. Als ze er allebei uitliggen ligt jou pracht netwerk ook op zijn gat, of heb je ook je eigen aggregaat in de ruimte ?
een fatsoenlijk datacenter heeft op zijn eigen feeds agregaten staan. Dus ook als er een trafo uitligt start het agregaat en je bent weer in de lucht. In de korte tussentijd loopt de UPS door.
Als ik het zo lees en combineer met mijn bronnen. Heb jij in dit geval geluk gehad, andere racks zijn namelijk wel de A en B feed uit gevallen.

Als jou Rack hier tussen zat, waren ook jouw spullen plat gegaan.

Dit gezegt hebben, is het idd wel van belang dat je, je rack goed inricht hebt. Dus niet 2 maal een A feed of B feed, maar een A en B feed.
Je netwerk spul netjes verdelen over deze 2, of $$ instekken, zodat je 1 switch in 2 feed kan stoppen.

Maar dan ben je beschermd tegen een uitval vcan 1 feed. En nog niet bij het uitvallen van beide feeds. Of het uitvallen van de uplinks, van het betreffende DC.

MultiDC oplossing is helemaal niet zogek voor bepaalde bedrijven. En niet meer je parkeerkaart kunnen gebruiken omdat een DC plat ligt *ROFL* dat is triest.
Flexwebhosting en andere diensten nog steeds down. Hele hardnekkige netwerkstoring? Zouden ze serieus nu op spares wachten of is er gewoon config weg? #argh
Er is 'simpelweg' geen stroom op een van beide feeds. Ben er vanmiddag zelf geweest om bij een server een feed om te leggen (was dubbel uitgevoerd, maar daar heb je weinig aan als allebei de stekkers dezelfde feed in gaan...) en om een juniper een andere feed in te leggen. Bij ons gelukkig snel voorbij, andere partijen zullen afhankelijk van hun setup en mogelijkheden een stuk langer bezig zijn.
Het was er in elk geval stervensdruk vanmiddag en werd door iedereen hard gewerkt, zag ook de nodige FXW busjes staan.

[Reactie gewijzigd door vistu op 1 oktober 2013 16:25]

En hoe kwam het dat de stekkers in dezelfde feed zaten? Zelf verkeerd aangesloten, of door EasyNet als "redundant" geleverd, maar eigenlijk toch ergens aan dezelfde feed gehangen?
Nee, hebben we zelf een keer verkeerd gedaan, die server was verder niet bedrijfskritisch. Ging er vooral om de juniper weer up te krijgen (dat is dus een tweede bestellen en onze uitwijklocatie op orde krijgen). Al met al was de impact bij ons en onze klanten gelukkig minimaal.
Bij mij werkt mijn VPS van FXW alweer sinds half 7.
Dat gaat een hoop geld en goodwill kosten ben ik bang.
Onzin, dit is nu even vervelend, maar over 2 weken is bijna iedereen het weer vergeten..
Fouten gebeuren nu eenmaal. Overal en dat zal ook nooit veranderen. Als de dienst volgens SLA wordt geleverd is er niets aan de hand.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True