'Stroomstoring InterConnect-datacenter oorzaak van ns.nl-problemen' - update 2

Een brand bij een aggregaat van InterConnect zou voor een stroomstoring bij het datacenter hebben gezorgd. Als gevolg hiervan zouden meerdere grote websites, zoals die van de Nederlandse Spoorwegen, met downtime te maken hebben gehad.

De storing van de stroomvoorziening bij InterConnect duurde van 14.32 tot 15.07. Volgens het bedrijf was er geen brand in het datacenter zelf en ook facilitaire voorzieningen zouden niet door brand getroffen zijn. Onduidelijk is wat de stroomstoring dan veroorzaakt heeft, maar meerdere bronnen maken melding van een brandende aggregaat.

Sites als CheapCargo, CheapTickets en Mijnwebwinkel hadden te maken met downtime door de storing bij InterConnect. Ook het offline gaan van ns.nl zou ermee te maken hebben. Die site is inmiddels weer bereikbaar. "CheapCargo.com is weer volledig bereikbaar per e-mail en telefoon. Ook CheapTickets, Mijnwebwinkel.nl en NS draaien weer", meldt CheapCargo bijvoorbeeld via Twitter.

"Wij zijn ons ervan bewust dat nog niet iedere dienst beschikbaar is. Onze engineers zijn alles aan het nalopen", verzekert InterConnect. De website van het bedrijf is op moment van schrijven wel down.

Update maandag 11.00: InterConnect ontkent tegenover Tweakers.net dat een brand de oorzaak was en ook zou Ns.nl niet draaien in het datacenter van het bedrijf, al zouden wel sites van onderdelen van de Nederlandse Spoorwegen in het datacenter gehuisvest zijn. Maandagmiddag komt InterConnect met een verklaring waarin details over de storing geopenbaard worden.

Update 2 dinsdag, 15.00: InterConnect heeft een chronologisch overzicht gegeven van de gebeurtenissen van vrijdag. Na een test van het noodstroomaggregaat ontstond er kortsluiting waarbij de spanning geheel wegviel, ook die van de transfomator. 20 minuten daarna is ook de ups-voorziening volledig ontladen waarmee de stroomfeeds zijn uitgevallen. "Vanwege ernstige twijfels met betrekking tot de stabiliteit van het noodstroomaggregaat wordt besloten handmatig en gecontroleerd over te schakelen op netstroom. Dit zorgde voor een onderbreking van circa 2 minuten in de stroomvoorziening van de A (DC1) feed, omdat de betreffende UPS nog niet op niveau was. Dit had hoofdzakelijk impact voor klanten zonder redundante stroomfeed in DC1. Tevens is door deze abrupte onderbreking enige rookontwikkeling in het noodstroomaggregaat ontstaan. Hierop is gereageerd door preventief brandblusmiddelen paraat te houden", aldus InterConnect. Om 24.00 zou een vervangend noodstroomaggregaat zijn aangesloten.

Door Olaf van Miltenburg

Nieuwscoördinator

17-12-2010 • 18:26

118

Reacties (118)

118
111
83
4
0
1
Wijzig sortering
Officiële technieuws:

Om 14.32u vanmiddag is er een stroomstoring ontstaan aan de bron van onze stroomvoorzieningen. Na ingrijpen van onze engineers is de stroomvoorziening om 15.07u hersteld. Omdat het probleem gelocaliseerd was vòòr de noodstroomgenerator, heeft deze de onderbreking niet op kunnen vangen (en duurde deze te lang om volledig opgevangen te kunnen worden door de UPS systemen).

Onze engineers controleren momenteel alle diensten op correcte werking. E-mail is opgevangen en zal met enige vertraging alsnog worden afgeleverd.

Omdat wij nog niets willen uitsluiten, wordt op dit moment tevens een extra noodstroomgenerator geplaatst.

Wij zullen zo spoedig mogelijk met een uitgebreidere berichtgeving komen omtrent deze storing. Wel willen wij alvast benadrukken dat er, ondanks berichtgeving op niet-officiële kanalen, GEEN sprake is geweest van brand in of rondom ons datacenter. Geruchten hieromtrent zijn mogelijk ontstaan vanwege preventieve maatregelen die werden genomen op het bedrijventerrein.
Dit kan alleen maar wanneer de aggregaten en ups'en onder gedimensioneerd zijn. Er kunnen storingen plaatsvinden op drie plaatsen.

1. Voor het aggraat (netspanning)
In dit geval neemt UPS het direct over (inline) waarna het aggregraat zal starten, meestal is er ongeveer 1 tot 2 minuten nodig voor aggregaat voldoende vermogen kan leveren. Hierna gaat stroomvoorziening over op aggregraat waarna de UPS'en ook weer opgeladen worden.
2. Tussen aggregaat en ups
Dit is gewoon vette pech. Echter kan dit opgelost worden door twee stroomaanvoeren te hebben (aggregaat bypass). Is wat duurder om aan te leggen, maar wel zo effectief. Natuurlijk met een ander pad het pand in, want je wilt niet dat een graafmachine beide stroomaanvoeren dood maken.
3. Na de ups
In dit soort rekencetra is ieder rack dubbel aangesloten (links en rechts) en heeft ieder systeem een redundante powersupply. Daarnaast is de stroom in ieder rack dus separaat afgezekerd. Dus per aansluitrail een zekering. Bij storing zal er dus nooit meer dan maximaal een half rack zonder stroom zitten wat weer wordt opgevangen door de tweede powersupply in ieder systeem.

Bij voldoende diesel zal een rekencentrum nooit zonder stroom komen te zitten. Hier was dus iets totaal anders aan de hand.
Een moderne generator is binnen 20 sec helemaal opgestart en kan vol vermogen leveren. Attans die van ons wel.

Aggregaat bypass zou inderdaad moeten net als een UPS bypass. Volgens mij heeft Interconnect dit ook.

Waarschijnlijk is de schakeling tussen UPS en generator niet goed gegaan. Zoals wel vaker gebeurd bij datacenters.

Deze setups moet je echt goed testen voordat je ze in gebruik neemt.
Daarom doen wij altijd een maandelijkse test. Starten aggregaat en switchen daarna de spanning af vanaf het net. Hier ongeveer 15-20 seconden, maar leverancier zegt dat 1 minuut een richtlijn is. Bovendien testen we per half jaar een totale powerdown van het net. En 1 keer per jaar een powerdown van het totale rekencentrum.
Ja 1 minuut is hij wat warmer is wat beter voor dat ding. Maar 20 seconden kan makkelijk.

Wij testen zelfs elke maand. Netstroom er af en gaan :9~
Deze setups moet je echt goed testen voordat je ze in gebruik neemt.
Volgens het reclamemateriaal van Interconnect testen ze dat iedere maand door hun kantooromgeving (dus niet het datacenter zelf) over te schakelen op noodstroom. Dat heeft dus blijkbaar niet kunnen voorkomen dat toen het echt noodzakelijk was het niet werkte.

Al met al met een slechte zaak hoor en ik neem aan dat hier ook nog niet het laatste woord over gezegd is. Zowel de A als de B feed lagen er blijkbaar uit en dat mag toch eigenlijk niet gebeuren. Die moeten toch totaal gescheiden zijn met idealiter ook aparte leveranciers. Interconnect durft 50 euro per ampere per maand te vragen, dan mag je ook wel verwachten dat ze de power op orde hebben.

Eerlijk gezegd heb ik de noodstroomvoorziening altijd al wat fragile gevonden: een enkele generator in een zeecontainer op de parkeerplaats.
Dat kantoor van ze doet maar een paar Ampere. Is totaal geen testen vergeleken met een datacenter waar je 2x 16 Ampere per rack kan krijgen. (misschien nog wel meer)

Bij veel datacenters staat de generatir op de parkeerplaats in een container. Ik had toch wel verwacht dat Interconnect meerdere generators heeft (minimaal 2).

[Reactie gewijzigd door xares op 22 juli 2024 23:21]

Anoniem: 360178 17 december 2010 19:54
Ben vanmiddag bij InterConnect geweest tijdens de stroomstoring. De stroom is 2 keer uitgevallen. Bij de eerste uitval draaide de generator helemaal niet. Na ongeveer een half uur draaide het datacenter weer op de generator. Een half uur later viel de stroom weer uit, waarna de mensen van InterConnect met brandblussers naar de generator rende. 5 minuten later draaide alles weer op de netstroom. De stroomuitval is in eerste instantie dus niet veroorzaakt door de brand in de generator
Zelf vind ik dat z'n grote en belangrijke website minimaal in 2 datacenters gehost moet worden. Eigenlijk zelfs 2 datacenters die totaal onafhankelijk zijn van elkaar zijn.

Ik snap dat dit erg duur is e.d. maar de website van de NS is voor groot belang voor veel mensen die te trein reizen, zoiets 'mag' eigenlijk niet offline gaan. Al weet ik dat dit niet mogelijk is, maar als je 2 groepjes servers had in 2 datacenters heb je in ieder geval in vrijwel elke gevallen je website online :)

[Reactie gewijzigd door ObAt op 22 juli 2024 23:21]

Zoveel extra kan dat nooit kosten, gewoon een 2e servertje en daar de 3e backup-nameserver op. Dan hoeft het niet eens een volledig up-to-date website te zijn maar in ieder geval een site met de bleangrijkste informatie.
Uhu. Gewoon een 2e servertje. Hoeveel kan dat nou kosten.

- Datacentrum met zelfde capaciteit als de 1e.
- Huur van een extra pand/grond.
- Personeel.
- Facilitaire voorzieningen.
- Water/Gas/Licht.

En dat allemaal zodat er in het geval van een downtime van 2 uur een back-up site online kan. Als het echt zo goedkoop was dan zou NS het allang gedaan hebben. Zo'n bedrijf weegt echt wel kosten tegen baat af.
Anoniem: 321216 @Bilel17 december 2010 18:51
Met het verdwijnen van het spoorboekje moeten mensen kunnen vertrouwen op de website voor het plannen van een reis.
Je mag dan ook verwachten dat deze functionaliteit ten alle tijden bereikbaar is.

Het kan ook minder kosten dan het eerste datacenter.
A) Alleen de NS hoeft uit te wijken naar dat specifieke center, dus het kan kleiner zijn, plus de NS huurt niet het gehele datacenter, maar alleen die ene server, dus nee in feite hoeft het niet duurder te zijn dan een extra server.

B) Niet de hele site, maar alleen een planningssite (met alleen de reisplanner) hoeft online te zijn voor dit soort noodgevallen. De bezoekers krijgen een melding te zien dat de gewone site tijdelijk onbereikbaar is, maar het wel mogelijk is om reisplanningen te doen.
Als jij denkt dat de site van de NS op 1 server draait, dan heb je het denk wel beetje mis. :O

En het mag dan wel zo wezen dat alleen de planningssite op de backupserver hoeft te draaien, hij moet wel up-to-date zijn.

Bovendien, hoe wil je bezoekers naar de backupsite toe sturen als de server waarmee je dat zou moeten doen geen stroomtoevoer heeft :?
Je kunt bijvoorbeeld gebruik maken van Akamai. Dat kan zelfs alleen op DNS basis. Zij monitoren jouw websites en als eentje uitvalt gooien zij de route om.

Adobe, Microsoft, Oracle, etc maken allemaal gebruik van de services van Akamai.

Maar je kunt je ook afvragen waarom een complete hosting straat afhankelijk is van een enkele aggregaat? Meestal staan er meerdere aggregaten op een 'grid' welke gezamenlijk voor de stroomvoorziening zorgen.

Laat ik het anders zeggen: Wat heb je uiteindelijk aan een A en B rail als beide aangesloten worden aan dezelfde bron?

Maar dit is een probleem waar ik regelmatig tegenaan loop. Je moet als bedrijf namelijk veel geld uitgeven aan iets wat je nooit hoopt te gebruiken. En als op een project een slechte manager zit en het budget wat krap is (geworden), dan bezuinigd men al snel op zaken als backup, hosting locatie, minder machines, etc..
De NS heeft dusdanig veel vaker storing op het spoor, dat een redundante website weinig uitmaakt.
wat dacht je van een of twee blades in een of twee gehuurde rack units in een of ander bestaand datacenter? voor een bedrijf als de ns is dat echt niets, ik als student kan me dat zelfs veroorloven (alleen niet rechtvaardigen, gezien ik er geen toepassing voor heb :+ )
Je hebt er niets aan als op het moment dat het nodig is die tweede server niet groot genoeg blijkt voor het verkeer en onderuit gaat, dan zit je alsnog met een storing. Eigenlijk moet een backup net zo'n capaciteit hebben als het origineel, dus kost het de ns grofweg 2x zo veel geld.
met wat caching en loadbalancing magic en een een zeer minimale backup site (dus gewoon alleen de reisplanner zonder bakken afbeeldingen) moeten 2 stevige blades het echt wel kunnen afhandelen hoor. en ookal waren het er 4. dan investeer je even 10k in 2 blades... om miljoenen schadeclaims te voorkomen.
in the cloud, dude, in the cloud ;)
Uhu. Gewoon een 2e servertje. Hoeveel kan dat nou kosten.
Lijkt me dat de kosten daarvoor met clouddiensten wel mee zullen vallen, die hebben (meestal?) meerdere datacentra. Het overzetten van je site-image van de ene naar de andere zou zo gebeurd moeten zijn - en zou automatisch al gedaan zijn, zelfs.
Klinkt leuk maar met een paar gb aan data ben je mer bij de ns of cheaptickets niets. Je zal alles via een aprte glasvezel naar een ander datacenter moeten overschrijven en zeg dat je 1 tb aan data moet overpompen kost dat aardig wat tijd.
De website zelf is een frontend. Misschien 100 mb voor plaatjes. De achterliggende db is al triple redundant en die hoef je dus niet over te pompen.
Ach, die ene keer dat de site er uit ligt. Het ligt er eigenlijk nooit uit!
Anoniem: 261379 @Bilel18 december 2010 00:52
In mijn werk hebben we momenteel ook hosting met een dergelijke oplossing bij TRUE, waar Tweakers ook zit, en daar hebben ze standaard al meerdere fallback locaties.

Als wij het kunnen, dan kan de NS het nog 10x zo goed met hun budget!

Dus bedrijven die dit niet goed geregeld hebben falen wat bij betreft compleet.
Kom op zeg we zitten in 2010....

[Reactie gewijzigd door Anoniem: 261379 op 22 juli 2024 23:21]

Wij hebben bij ons op het werk op dit moment 4 fall-back locaties waar ons complete inhouse-datacenter exact gemirrord staat. slechts 1 van de 4 locaties hoeven we voor te betalen. 2 van de 4 hosten we zelf op andere locaties van ons bedrijf
de overblijvende locatie hebben we bij de lokale gemeente staan, zoals de gemeente ook een kopie van hun datacenter bij ons heeft staan.
Je hoeft helemaal geen datacenter te beginnen om er een website te hebben draaien hoor.

In het geval redundantie huur je dus in gewoon in een datacenter op een andere locatie ruimte voor de ander servers en dat kan dus allemaal met hetzelfde personeel.
Maar je beheerd in eens 2 keer de hoeveelheid servers. Dus je moet er dus meer kosten voor personeel voor maken. Je moet iets inplace hebben om de data in sync te houden. Kost ook weer extra.
Dat zijn allemaal standaardproblemen met standaardoplossingen. Het achterliggende Prorailsysteem is nu al triple redundant.
Heb al bij enkele grote bedrijven Akamai naar binnen gefietst. Ideaaal! Je website wordt dan door tig Europese datacenters gehost en elke 5 minuten gesynced. En dat alles met een kleine DNS wijziging. Het meeste werk zit 'm in alle applicaties dubbel checken mbt gebruikte hostnamen en ipnummers.
Denk je nu echt dat de ns website of cheaptickets op 1 serverjte draait. Als er ineens 20.000 mensen die server benaderen oeps loopt de boel vast.

Sits als deze werken eerder met een cluster aan server en waarschijnlijk aparte database servers.

Wil je dan in 2 datacenters actief zijn moet je dus 2 clusters hebben draaien met identieke gegevens. d.w.z dat je dus een glasvezelverbinding moet hebben tussen beide datacenters zodat de hoofdserver alles ook naar de backup kan schrijven.

Je hebt dan weer als je het nog mooier wil doen een sever nodig in een ander datacenter die verwijst naar 1 van de 2. Probleem in dan alleen als die server down is de beide anderen ook niet te benaderen zijn. Uiteindelijk heb je altijd ergens een mogelijkheid waar het fout kan lopen. Maar neemt niet weg dat je als ns of cheaptickets ook rekenning moet houden dat een datacenter uitbrand en je dan in een ander meteen weer actief bent.

Gezien hun datavolumes kost dan dan wel aardig wat om die infrastructuur als backup te hebben.
een tweede servertje ???? volgens mij heb jij niet echt in de gaten hoeveel mensen er dagelijks op de ns site bekijken.
Daar heb je echt niet genoeg aan een servertje.
Ik schat eerder dat het een rackservers is met daar aan gekoppelde flinkje database Server. belangrijkste stukje lijkt me namelijk de trein tijden
Als je binnen 100ms een route door heel NL kunt berekenen, voor het wegen net. En het spoornet significant minder complex is... wat zou er dan niet schalen ;)
Anoniem: 296748 @Skinkie17 december 2010 21:24
Je hoeft niet (per se) de HELE site dubbel uit te voeren. Eventueel zou de backup server gewoon een overzichtje van vertraagde treinen kunnen bevatten (simpel html dingetje dus). Dan heb je aan 1 extra servertje genoeg!

(al zou het wel zo net zijn alles minstens dubbel uit te voeren)

Wat ik niet snap is dat het datacenter offline gaat door onderbroken stroomvoorziening... Ik ben in een servercentrum van KPN geweest, en daar hadden ze vrolijk twee lijnen naar twee centrales (dan kan er een de lucht in gaan en trek je vrolijk stroom van de ander), plus een rotlading accu's en generatoren... Dan moet dat uurtje toch wel uit kunnen zingen!
Dat hebben ze bij InterConnect ook allemaal, alleen ging er dus iets fout met de generatoren, waardoor alleen de UPS beschikbaar was, en die kan niet voor langere tijd een heel datacenter overeind houden.
wat je dan vergeet is dat er pieken moeten worden ondersteund. dus er moet op ze minst een dikke datalijn aan hangen.
Daaarbij is jouw lijstje kul want zo n lijst moet dan voor iedere trein van iedere station weer gegeven worden. Het gaat in dit geval niet om werk aan het spoor, maar om uitgevallen treinen om vele trajecten.

Daarbij als ik iets met mijn abo wil doen aanvragen verlengen weet ik veel, heb ik niets aan die dubbele uitvoering. want die zegt me alleen maar iets wat ik of la weet of niet nodig heb.
En dat 1000 keer per minuut.
Even een paar dingen, een datacenter is net iets anders van een servertje... Een website als ns.nl krijgt zoveel aanvragen binnen dat een serverTJE dat nooit aankan.
Van de andere kant, als je een 2e server/datacenter hebt met een spiegel van je website is die ook up to date... (heet niet voor niets spiegelen/mirror).
Als je een 2e datacenter nodig hebt kost dat dus wel klauwen met geld.
Ja, tuurlijk...en de NS site draait op 1 servertje. Dream on...
Zoveel extra kan dat nooit kosten, gewoon een 2e servertje en daar de 3e backup-nameserver op. Dan hoeft het niet eens een volledig up-to-date website te zijn maar in ieder geval een site met de bleangrijkste informatie.
Waardoor een op de drie bezoekers de verkeerde site voorgeschoteld krijgt.

Als je niet weet waar de klepel hangt, moet je niet dit soort uitspraken doen.
Pfff, Facebook was gisteren ook een tijdje niet bereikbaar, terwijl dat wel redundant is uitgevoerd en over de hele wereld datacenters etc.
Anoniem: 44174 @ObAt18 december 2010 05:23
in 2 datacenters maar? dergelijke grote sites moeten op minimaal 4 centers staan, of nee op 10 stuks, dan moet het wel heel gek gaan voordat het plat gaat.
Om dat allemaal te betalen verhogen we de belastingen en de prijs van de kaartjes.
redundancy is slecht voor het mileu :+
de site zal nu ongetwijfeld weer berijkbaar zijn en dat is ook zo,
waar ik me over verbaas in dat de meeste rekencentra, de servers redudant maken,of een backup hebben,maar niet in de stroomvoorziening.
als die uitvalt valt alles uit.
zo'n idee krijg ik thans wel.

een goed voorbeeld hoe het wel moet is van strato,
zij hebben hun hele stroomvoorziening beschermed met accu's voor kleine dalen in het lichtnet,
en grote dieselaggregaten mocht er langdurig stroom uitvallen.

[Reactie gewijzigd door mrc4nl op 22 juli 2024 23:21]

Ik weet van 1 Datacenter, dit nog nooit maar dan ook nog nooit een stroom storing heeft gehad en dat is DCG in Amsterdam, zo verre en ook strato hebben allemaal al een keer een stroom storing gehad, blijkbaar is het nog heel moeilijk om een bijna "perfecte" setup neer te zetten voor stroom voorziening.
Het is absoluut niet moeilijk. Het is echter WEL duur. En daar zit hem het probleem. Het perfecte datacenter kan jaren zonder stroomtoevoer, op eindeloze aggregaten met tientallen verschillende glasvezels die binnenkomen.

Echter, dan zou 1u daar per maand een kleine 50.000 euro gaan kosten. En er zijn niet zo veel mensen en bedrijven die dat per maand over hebben ;)
Dat heeft vrijwel ieder datacenter. Echter werkt het niet altijd.
SKdragon doelt erop dat de vorige NS storing ook veroorzaakt was door een brand, hoewel dit uitbrak in een pand van de verkeersleiding van NS zelf.

In dit geval ligt de verantwoordelijk dus totaal niet bij NS, maar het bedrijf dat de NS sites host. Alleen treurig dat het vandaag, met alle gevallen en voorspelde sneeuw met treinvertragingen tengevolge, niet echt uitkomt.

Het grootste punt van kritiek op NS' afgelopen blunder was toch het uitblijven van informatie voor reizigers, iets was dit keer dus weer mis gaat door het falen van de NS site.

Waarschijnlijk zal de krant dezer dagen weer bomvol NS-falen inclusief Kamer-vragen...
Volgens mij is verkeersleiding toch in handen van Prorail. Ik denk dat ns niet verantwoordelijk was voor het gebouw van de verkeersleiding. Dat ze direct afhankelijk zijn van Prorail is volgens mij tegenwoordig het grootste probleem.
NS betoont zich keer op keer een techno-fobisch bedrijf.
Van NS zie je reacties als:
  • .. we hebben er alles aan gedaan
  • .. we zijn helemaal 'winterklaar' .. (= deel van het achterstallig onderhoud is gedaan)
  • .. preventief onderhoud .. interessante gedachte?
  • .. redundantie.. wat is dat ..?
Ik snap niet hoe een aggregaat op zichzelf voor storing kan zorgen. Ik zie niets staan over een stroomstoring waardoor de ups(-sen) de stroom leverden waardoor het aggregaat moest starten. Er zitten dus twee schakels tussen de servers cq het netwerk en het aggregaat.
Ik vermoed dat er niet eens gebruik wordt gemaakt van UPS maar gewoon van een no-break aggegraat en een vliegwiel.
Ik vermoed dat er niet eens gebruik wordt gemaakt van UPS maar gewoon van een no-break aggegraat en een vliegwiel.
Datacentra zijn over 't algemeen wel uitgerust met UPS'en (op batterijen) om de tijd tussen stroomuitval en het opgestart zijn van de aggregaten te overbruggen. Dat kost niet meer dan een paar minuutjes.
Anoniem: 44174 @CyBeR18 december 2010 05:25
een paar minuten om een aggregaat op te starten?? dat is meer iets van ca. 30 seconden en dan is ie vol in bedrijf, als het vaak al niet sneller is.
30 seconden zonder stroom is toch echt heel erg veel. Dan heb je toch een machtige UPS nodig om 30 seconden een heel datacenter up and running te houden.
Dat valt wel mee hoor.

Je moet er vanuit gaan dat je 5 minuten liefst 10min op UPS kan draaien.

Vliegwiel kan ook, is eigelijk hetzelfde als een UPS. Alleen dan zonder accus.
Wordt tegewoordig ook veel gebruikt, schijnt betrouwbaarder te zijn als een UPS.

Wij zelf hebben UPSen van Newave. Mocht 1 UPS falen gooit hij hem direct in Bypass en schakelt hij de andere UPS bij. Dit gebeurd zo snel dat er geen onderbreking is.
Om 'm op te starten kost idd seconden, maar het ding moet daarna altijd even stabiliseren. Dát maakt het totaal een minuut of anderhalf a twee.
Bizar, ze garanderen een gescheiden stroomvoorziening. Ik snap dat er 1 pad volledig uit kan vallen, maar het 2de pad ook is echt bizar. Da zou niet moeten en mogen kunnen. Ik vraag me dan ook af waarom klanten betalen voor de zogenaamde B-feed en dure ATS'en als de boel bljkbaar tegelijk uitvalt of de 2de feed niet toereikend blijkt. Ik vind dat wel heel apart.

Waar ik me minder aan stoor is de communicatie, mensen daar hebben echt wel nuttigere dingen te doen dan met zijn allen Twitteren. Kan me ook voorstellen dat dat van de baas nit direct mag, je moet mt een juiste en eenduidie communicatie naar buiten komen. Als elke medewerker maar iets gaat Tweeten dan wordt het een bende en kan het InterConnect een hele boel centen kosten omdt ze er juridisch op afgerekend worden.
Er zou wel extern een site geplaatst kunnen worden voor dit soort dingen, als datacenters dat gezamelijk oppakken dan hoeft het niets te kosten.
Waar ik me minder aan stoor is de communicatie, mensen daar hebben echt wel nuttigere dingen te doen dan met zijn allen Twitteren. Kan me ook voorstellen dat dat van de baas nit direct mag, je moet mt een juiste en eenduidie communicatie naar buiten komen.
Nou een SMS'je naar de contactpersonen / pashouders van de klanten zou wel handig zijn. Dan weet je in ieder geval iets. Er werken bij Interconnect aardig wat mensen en er is vast wel iemand die daar. ook onder deze omstandigheden, wel tijd voor heeft (lees: moet maken).
Deels mee eens. Maar even doorgedacht, hoe ga je sms'en naar je klanten zonder stroom? Ik neem niet aan dat de directeur het mobiele nummer van alle klanten in zijn telefoon heeft :) Getuige hun eigen site hebben ze alles in het werk gesteld om eerst de boel voor de klanten weer on-air te krijgen, ook niet onbelangrijk denk ik.

Het lijkt erop of het zo gegaan is:
1. Stroom gaat eraf, reden onbekend
2. Engineers fixen de zooi, stroom er weer op
3. Controle van de basisdingen, datacentra's weer aanzetten
4. Telefoon opnemen en zo veel mogelijk in de lucht helpen
5. Klanten technieuws sturen
6. Eigen site fixen

En ansich was dat wel een goede volgorde, het duurde alleen even voor ze bij optie 5 waren.

Ik blijf erbij dat ze gewoon bij Leaseweb ofzo ff een pagina reserveren zodat je daar iets op kan gooien en de klanten daar kunnen kijken.
Tja, redundantie kost dubbel zoveel geld als je het goed wilt doen.
Je hebt dan eigenlijk een exacte kopie van al je servers nodig in het 2e datacentrum.
Dus het is puur een kwestie van geld.
Loadbalancer als front-end en klaar ben je.
Wat betekenen deze kosten, vergeleken met de maatschappelijke en economische kosten van platleggen van openbaar vervoer (meer mensen reizen met OV dan met de auto, gelukkig)
even off-topic: check deze track : http://tinyurl.com/tick-tock-track

on topic: Zo'n belangrijk website als ns.nl mag gewoon niet offline gaan, hoeveel mensen kijken wel niet op de site om hun treinreis te plannen?
En ondertussen is de website alweer in de lucht, zonder dat er een ramp heeft plaatsgevonden. Roepen dat een website niet uit de lucht "mag" gaan heeft weinig tot geen zin.
Op webhostingtalk.nl zegt InterConnect zelf dat er GEEN brand was. -> http://www.webhostingtalk...sneeuw-2.html#post1179602

Verder zijn ze helaas heel summier over hoe of wat.

[Reactie gewijzigd door Iken374 op 22 juli 2024 23:21]

Anoniem: 388271 @Iken37419 december 2010 12:38
Dat kenmerkt interconnect wel. Als er iets is, hoor je niets van ze.

Tevens is dit niet de eerste keer dat er iets goed mis gaat bij Interconnect. Tevens heb ik gehoord dat ze een test uitvoerde door de stekker er uit te trekken en dan te testen of het overgaat op de noodstroom.

Maar dat was dus niet het geval.

Ik vind het goed dat er getest word, maar doe dat niet overag.

Op dit item kan niet meer gereageerd worden.