Herstel na brand in NorthC-datacenter duurt nog zeker drie dagen

Het gaat nog zeker drie dagen duren voordat alle klanten van het NorthC-datacenter weer operationeel kunnen worden, voorspelt het bedrijf. NorthC zegt dat de herstelwerkzaamheden na de brand op donderdag nog 72 uur kunnen duren.

NorthC heeft de eerste bevindingen gepubliceerd van een technisch onderzoek. "De werkzaamheden om de stroomvoorziening te installeren en de klantapparatuur gefaseerd weer van stroom en koeling te voorzien, nemen naar verwachting 72 uur in beslag. Het plaatsen van een groot aantal generatoren, UPS-systemen en verdelers, alsmede het trekken van ruim een kilometer kabel is een complexe operatie", schrijft het bedrijf.

Op vrijdagochtend liet het bedrijf al weten dat 'de rookontwikkeling op de zalen beperkt is gebleven'. NorthC wist toen echter nog niet wat de impact was.

Op donderdagochtend brak er een ernstige brand uit bij het datacenter van NorthC in Almere. Dat is een van de grotere datacenters van Nederland. Veel bedrijven en instanties, waaronder de Universiteit Utrecht en de Kamer van Koophandel, hadden last van die brand, omdat bepaalde systemen daardoor niet of slechter bereikbaar waren.

datacenter Almere. Bron: NorthC

Door Tijs Hofmans

Nieuwscoördinator

08-05-2026 • 16:14

28

Submitter: Xieoxer

Reacties (28)

Sorteer op:

Weergave:

Dit soort dingen moeten helaas gebeuren om er wijzer van te worden; Bedrijven doen er goed aan om hun systemen redundant uit te voeren over meerdere datacentra (daar moet dan dus meer geld naartoe) en North-C zou misschien kunnen overwegen om dit soort technische ruimtes dubbel uit te gaan voeren, want dan kan je ze geheel afkoppelen tijdens onderhoud en calamiteiten. Bouwtechnisch in ieder geval knap dat de schade beperkt is gebleven tot deze ruimte. Kudo's voor de mensen die dit weekend met man en macht aan de werk gaan om alles weer in de lucht te krijgen!
Is dat zo? Dit is echt een 'freak accident' en de kans dat het nog een keer gaat gebeuren is minimaal. Er draaien duizenden DC's wereldwijd en alleen in NL al honderden.

Impact is groot, maar kans is héél erg klein. Kosten zijn enorm voor alles redundant over twee DC's uit te voeren. Vaak niet x2, maar eerder x4 als je alle testing van failovers ook goed wil doen.

Nee, ik zie niet snel gebeuren dat iedereen nu massaal alles dubbel gaat uitvoeren.
We weten niets over de oorzaak helaas, dus daarmee kunnen we ook niet concluderen of dit een uitzondering gaat zijn of dat er een ontwerpfout in de technische ruimte heeft gezeten waarmee wellicht ook andere datacentra een risico lopen. Een minimaal risico is tenslotte ook een risico die je in overweging moet nemen.

Mijn insteek was slechts het redundant uitvoeren van de technische ruimte, niet het compleet dubbel uitvoeren van een datacentrum, want die keuze is aan de klant.
We weten nog niks over de exacte oorzaak en eventuele ontwerp fouten. Een helft van mijn redundant uitgevoerde server setup staat hier ook en dat deel is de hele tijd online gebleven. Dus niet het hele dc is geraakt door een zeer grote brand in de technische ruimtes. En deel van het ontwerp lijkt in ieder geval wel naar behoren te werken dus.

Meer redundantie op DC level kost ook weer meer geld, terwijl eralsnogveel risico's boven zoals dat de brand wel was overgeslagen naar andere ruimtes op dezelfde locatie. De betere oplossing is toch echt je servers over meerdere geografisch gescheiden DCs verdelen.
Nee, ik zie niet snel gebeuren dat iedereen nu massaal alles dubbel gaat uitvoeren.
In bijvoorbeeld de Azure cloud kun je gewoon aanclicken dat de storage 3 online kopieen heeft in evenzoveel gebouwen. En dat kan je dan weer offline (maar wel streaming) laten repliceren naar nog eens 3 kopieen in een andere regio/land. Storage is ook niet de grootste kostenpost (dat zijn de CPUs). De CPUs hoeven niet dubbel, die zet je pas elders aan als het nodig is. Dus valt allemaal best mee. Wel het draaiboek regelmatig goed oefenen voor het beste resultaat!
Maar je hebt een enkele leverancier en als die een probleem hebben zoals wel eens is gebeurd bij aws, dan ben je ook weer niet klaar met die oplossing. Echte redundantie is een hoop werk.
Ik hoop vooral dat de druk nu niet terechtkomt bij de mensen die met man en macht werken aan het herstel van de dienstverlening, of bij de medewerkers die hinder ondervinden van de uitval. De echte discussie zou moeten gaan over de (financiële en strategische) keuzes die eerder zijn gemaakt rondom redundantie, fail-over en geo-redundante voorzieningen — of het bewust niet afnemen daarvan als dienst.
Inderdaad. Het is inmiddels een kwart eeuw geleden dat ik bij grote bedrijven werkte, maar "in mijn tijd" was een uitwijkplan standaard voor bedrijfskritische toepassingen. Ik leef inmiddels van de overuren die ik heb kunnen declareren bij de weekend testen van het rampenplan. Opa volgt dit nieuws met verbazing.
ben benieuwd of het echt binnen die tijd geregeld kan zijn, de blusoperatie is relatief lang geweest en er zal een hoop 'gesloopt' zijn om goed te kunnen blussen. wel goed om te lezen dat de afscheiding tussen de zalen goed gewerkt lijkt te hebben en de brand (schade) dan hopelijk ook tot 1 sectie beperkt kan zijn.
Wat ik begrijp is het datacenter zelf eigenlijk onaangetast. Het gaat alleen om de NSA ruimte (noodstroom).

Met een beetje goede wil en een stapel aggregaten van Bredenoord moet je dit relatief eenvoudig moeten kunnen fixen.
Ben wel benieuwd hoeveel kVA zo'n DC trekt in het licht van de dieselprijzen van tegenwoordig.
het is noodvoorzieningen. zolang de netspanning er op blijft maakt de brandstof prijs niet veel uit.
Daar maak je een aanname "zolang de netspanning er op blijft". De vraag is of deze aansluiting snel te herstellen is. Misschien eerst aggregaten om de dienstverlening op gang te krijgen, om vervolgens de primaire aansluiting te fixen.
ja dat moge duidelijk zijn, dan is de tijdelijke oplossing best wel recht toe recht aan, nu spelletje blame game voor wie de schade mag betalen, want de verzekeraar zal er vast geen zin in hebben.
Zuur natuurlijk, maar shit happens en gelukkig niemand gewond.

Mochten ze ergens vanaf willen vanwege rookschade dan sta ik wel open om het op te halen hoor.
Kunnen ze gewoon reinigen met "water" vandaag de dag :)
Godzijdank is er geen schade aan klantapparatuur op zaal. De Fortigates die wij daar hebben staan zijn nog net zo wit als voor de brand. Hopelijk is m'n HA cluster weer netjes in sync maandagochtend. :)
Was er geen foto van de schade?
Beelden (foto en video) vind je in dit artikel van de NOS.
dit zou in dit artikel ook erbij moeten staan. (site hopping zou niet nodig hoeven zijn ) :)
Gisteren nog discussie wat ze wel en niet moeten posten.. Van een techsite vind ik dat ze dit soort nieuws direct wel mogen posten met updates als live blog. En dan zie je zo'n nieuwsbericht als vandaag weer met oude content dan denk ik wel oke.. ze willen dus ook niet anders. En als je dan geen rechten hebt voor die afbeelding, dan stuur je er een iemand heen met live camera's en zet een livestream op of maakt zelf een foto.. En dit soort ramptechnieuws vinden we ergens ook wel weer mooi om te lezen, ook voornamelijk hoe snel ze reageren en de stroom weer kunnen herstellen etc..
edit:
En misschien zijn er wel medetweakers die wel fotos/videos hebben.. Vraag of benader die dan.. Nu krijgt de NOS weer een link waar vervolgens nog meer info te vinden is..

[Reactie gewijzigd door moonlander op 8 mei 2026 17:01]

Kees woont daar om de hoek dat stond in het vorige artikel..
Dus het leek mij niet echt heel veel gevraagd.
Deze stock foto vind ik echt een beetje vreemd gekozen, vooral omdat het om een brand gaat en je ziet hier een prachtig mooi nieuw en brandschoon gebouw.
Daarnaast was ik zelf gewoon erg benieuwd hoe het gebouw er nu uit zag, ook omdat ze stellen dat er geen data verloren is gegaan.
Sommige DC's hebben in de voorwaarden staan dat je niet mag fotograferen, als je bezoekt staat het ook vaak nog extra in de bezoekersvoorwaarden. Dus Kees mag dat mogelijk niet doen of voelde zich daar misschien nog aan gehouden (geen idee, maar las ergens dat tweakers direct/indirect iets deed met northc). Daarom zie je ook soms in sommige foto's die mensen maken in datacentra dat ze omgeving 'uitgummen' om te voorkomen dat racks/cages/etc. van andere partijen in beeld zijn. Waarschijnlijk mag dat ook eigenlijk niet, maar zo ver ik weet is nog nooit iemand daarop aangesproken.

N.B. weet niet meer wat er in de voorwaarden staat die opgaan voor nortch dc's.
Je mag gewoon fotos maken van dat pand, zolang je het maar niet vanaf hun prive terrein doet.
NOS heeft wel actueel foto,s van de situatie.

Vrij simpel de backup feed gebouw is afgebrand, kennelijk heeft het de main feed ook geraakt wat erg slecht geregeld is voor een datacenter en niet zou verwachten.

Er zijn geruchten dat een gedeelte van het datacenter online is gebleven.

Wil je actueel info dan zijn kanalen als Facebook/Twitter vaak sneller helaas.

[Reactie gewijzigd door mr_evil08 op 8 mei 2026 17:49]

Nee de power ging er gewoon vanaf.

Om te kunnen reageren moet je ingelogd zijn