Brand bij datacenter Almere geeft IT-problemen bij Universiteit Utrecht en KVK

De zeer grote brand bij het datacenter van NorthC in Almere levert problemen op bij diverse bedrijven en organisaties. De Universiteit Utrecht en de Kamer van Koophandel hebben IT-problemen door de brand en het kantoornetwerk van de gemeente Amsterdam zou er ook last van hebben.

De Universiteit Utrecht meldt problemen met zijn onlinesystemen en brengt die in kaart, meldt RTV Utrecht. Volgens een woordvoerder van de UU heeft dit 'onder andere gevolgen voor studenten en medewerkers die willen inloggen op onze website of apps'. Verder is de website van het digitale nieuwsblad van de UU onbereikbaar.

De Nederlandse KVK stelt in een melding op zijn website dat de dienstverlening 'momenteel niet beschikbaar' is door een storing. "Ook zijn wij tijdelijk niet bereikbaar via telefoon en chat." Aanvankelijk gaf de organisatie daarbij aan dat dit kwam door 'een storing in het datacenter'. Dat detail is echter verwijderd.

Niet alle klanten geraakt

Verder bereiken Tweakers berichten dat het kantoornetwerk van de gemeente Amsterdam plat zou liggen als gevolg van de brand in het datacenter van NorthC. Niet alle klanten van de hostingaanbieder lijden onder de vanmorgen uitgebroken brand, weet Tweakers. Beheerders van nog draaiende servers in de Almeerse locatie van NorthC krijgen wel het advies om de temperaturen van hun systemen goed in de gaten te houden.

De oorzaak van de brand is nog onbekend. De brand brak donderdagochtend uit om 8.45 uur, meldt onder meer Omroep Flevoland. Het vuur zorgt voor flinke rookontwikkeling die zichtbaar is boven de stad. De brandweer is opgeschaald naar een GRIP1-situatie. Daarbij wordt er gecoördineerd met andere hulpdiensten, zoals de politie en ambulances. Voor zover bekend zijn er geen gewonden, meldt NorthC in een persverklaring.

Het bedrijf stelt dat het 'klanten die direct gevolgen ondervinden van dit incident' op de hoogte houdt via de reguliere kanalen en het klantenportaal. "Het customerserviceteam draait op volle sterkte om vragen van klanten te beantwoorden en onderhoudt de directe contacten." Het bedrijf 'zal verdere updates verstrekken zodra er meer geverifieerde informatie beschikbaar is over de situatie en over de impact op de datacenteroperaties'.

datacenter Almere. Bron: NorthC
Datacenter Almere. Bron: NorthC

Door Jasper Bakker

Nieuwsredacteur

07-05-2026 • 11:49

86

Submitter: akaryan

Reacties (86)

Sorteer op:

Weergave:

Hoe kan je er eigenlijk last van hebben? Je moet ten alle tijde kunnen uitwijken naar een andere locatie. Ons bedrijf voert ieder jaar daarvoor een uitwijktest. Tuurlijk, je bent even uit de lucht maar daarna zou je gewoon verder moeten kunnen werken.
Zoals anderen al zeggen, kosten vs baten. Volgens mij zou je uit een business contingency plan (wat veel breder gaat dan IT) op zijn minst een disaster recovery locatie beschikbaar willen hebben. Het beschikbare budget is dan de driver om een locatie volledig redundant, HA of disaster recovery (mag een dag duren om op te starten) te maken.

Er zijn veel organisatie waar een dag downtime niet zal opwegen tegen de kosten van volledige redundantie, iedereen naar huis sturen en IT een dag laten werken aan opbouwen op 2de locatie op basis van backups is niet per definitie een slecht plan.
Helemaal mee eens - zoals altijd iets met stuurlui die aan wal staan.

Neemt niet weg dat het weer een moment gaat zijn waarop een aantal (getroffen) organisaties (kunnen) gaan evalueren: hoe zijn de recovery scenario's in de parktijk gelopen, zijn ze voldoende, etc. Een "what if" scenario is "o dear" geworden, en dan kijk je er anders naar.

Zoals ergens begin jaren 2000 een klant tegen me zei "O, mail mag er gerust een dag of wat uitliggen, we gebruiken het niet zo vaak" en er een half jaar later achter kwam dat 1 van z'n kritische bedrijfsprocessen een afhankelijkheid van mail had...
De brandstofleverancier die een mailtje krijgt als de noodstroom gestart is....
Ik denk dat ze de uitwijktest een tijdje niet hebben uitgevoerd.
Die test is in Dronten met hun mailservers in iedergeval gelukt.
Dat is helaas niet voor iedereen haalbaar qua kosten en beheer.
Een uitwijk locatie kost geld. Je kan gewoon een inschatting maken. Het kost X per dag dat je plat ligt en de kans erop is Y, maar een uitwijk locatie kost Z. Als Z heel veel groter is dan X*Y, dan gooi je alleen maar geld weg.

Natuurlijk is het dan zuur als Y wel optreed, maar dat is dan een bewust risico dat je neemt.
Ik mag dan wel hopen dat ze minstens hun backups op een volledig andere locatie staan hebben.

De backups van mijn zaak gaan constant mee naar mij thuis, zit een 20km tussen, als zowel mijn winkel als mijn huis tegelijk verdwijnen, dan zal eerlijk gezegd de backups mij worst wezen :) want dan is ofwel Poetin daar, ofwel een global killer asteroide :)

Als ze natuurlijk hun backups ergens zitten hebben in hetzelfde datacenter dat nu in brand staat , tja :)
Of je uberhaupt een compleet uitwijkscenario hebt hangt van meerdere dingen af, om maar eens te beginnen met geld. Het blijft een risico afweging in hoeverre je op dit soort dingen voorbereid wil zijn. Dan is nog de vraag in hoeveel tijd je weer up & running wil zijn. Het kan een prima keuze zijn om - al dan niet voor een deel van je diensten - ervoor te kiezen om geen uitwijk te hebben en het restrisico te accepteren.
Heb jij ook twee telefoons met twee verschillende netwerken, twee laptops. Twee autos etc etc. Het is een kosten baten afweging. Ik vind er vanuit gaan dat je ten alle tijden kunt verplaatsen niet echt "fair". Dat is namelijk soms gewoon niet haalbaar kosten technisch.
Als bij jou het huis afbrand, heb je dan een tweede backup locatie?
Omdat dat waarschijnlijk heel veel extra kost en daardoor voor genoeg bedrijven mogelijk niet betaalbaar is.
Voor wat wij weten, alles wat er draaide aan de linkerzijde/zalen (vanaf de voorzijde gezien, de brand foto's zijn merendeel aan de achterzijde genomen en dus de rechterzijde daar) is stroomloos/down.
Aan de achterkant van het gebouw, vanaf de hoofdingang gezien links, staat een satelliet/bijgebouw/trafohuis in brand. Op Maps is dat de pukkel noordwest van het DC.
Dat is niet meer te redden volgens de brandweer, ze concentreren zich op het behouden van de rest en op het voorkomen van het ontbranden van de dieseltanks voor de noodagregaten.
Alarm is gegeven om 08:32, onze servers waren tot 9:07 te bereiken en daarna is de stroom op die vloer uitgezet/uitgevallen. Nu is het afwachten of de hardware nog intact is na de brand.
Zelfde signaal hier, afwachten of de HW en infra lijnen nog intact zijn. Wordt maar weer pijnlijk duidelijk dat Geo Redundancy belangrijk is.
Niet alle klanten van de hostingaanbieder lijden onder de vanmorgen uitgebroken brand, weet Tweakers.
Zover als ik weet van bronnen is wel heel DC Almere ontruimd en afgesloten, ik denk niet dat daar nog servers aan staan? Andere NorthC locaties zijn natuurlijk wel nog operationeel
Er staan nog servers aan; Ik kreeg net nog een mail van onze voormalige hoster:
Wij ondervinden op dit moment geen enkele impact. Onze hardware bevindt zich op een andere locatie in het getroffen pand. Alle systemen zijn operationeel.
Dus wel het getroffen pand, maar de servers draaien nog.
Zoals nu bekend is er brand in een van de ruimtes die het DC van stroom voorziet en waar ook de UPS'en staan. Op de foto's zijn echter ook werkzaamheden te zien, waaronder een externe UPS, dus wellicht is er iets mis gegaan met die werkzaamheden.

De servers staan er verder natuurlijk wel nog, in welke staat is echter een andere vraag 😉
Bij ons (grote ZBO) is iedereen (behalve IT beheerders) naar huis gestuurd. Ons primaire datacenter is uitgeschakeld door de brandweer (stroom eraf). Ons secundaire datacenter is maar zeer beperkt operationeel. Ik voorzie een aantal overuren in de nabije toekomst.
Lekker geo-redundant!
Zonder meer informatie is dat lastig te concluderen. Als er - voor dit soort situaties - een secundair datacenter bedacht is met beperkte (hoognodige) capaciteit kan het he,lemaal volgens de gekozen gedachte functioneren.

Een volledig redundant DC met voldoende capaciteit om "naadloos" alles te kunnen blijven doen is niet goedkoop, niet elke organisatie heeft daar de middelen voor of de behoefte aan.
@Techno Overlord zegt "een grote ZBO". Daar hebben we er nogal wat van, maar ik verwacht toch wel dat ze allemaal hun IT landschap netjes op orde hebben.
Een "grote ZBO" hoeft ook geen mega budget te hebben hoor.

Nogmaals: verwar niet "beperkt operationeel" met "werkt niet zoals bedoelt is". Risico afdekken kost geld; datacentra staan niet wekelijks in brand, het risico daarop is beperkt. Dus kan het een ingecalculeerd risico zijn waarbij een volledig of beperkte dienstverlening voor lief genomen wordt. Daarom zeg ik ook dat alleen op basis van een uitspraak het lastig is om conclusies te trekken.

Overigens om wat reacties voor te zijn: ja, ik ben me er van bewust dat er in veel organisaties veel te licht gedacht wordt over het niet beschikbaar zijn van bepaalde ICT middelen ("dan doen we het toch een dagje zonder") terwijl op het moment dat het gebeurd er moord en brand geschreeuwd wordt.
Niet alle klanten willen redunantie, althans, niet als ze er voor moeten betalen.
Toen ik nog bij MinEZK werkte was het redudante datacenter constant een punt van discussie, want het snoepte wel veel kosten op.

Tot een keer het primaire datacenter een paar dagen onderuit ging, alle kosten waren ineens wel verantwoord.
Ik ben ook werkzaam bij een ZBO (ook een vrij grote) en ook ik mocht inpakken en van het zonnetje gaan genieten. Het was zelfs de vraag of we morgen wel weer up zouden zijn.
Wat is een ZBO? Een "Zeer Bijzondere Onderneming"?
Directe berichtgeving vanuit NorthC aan ons als klant van dit data center meldt dat de oorzaak werkzaamheden zijn.
Wij willen u informeren dat er tijdens werkzaamheden een brand is ontstaan. Hierdoor is het mogelijk dat er op dit moment geen stroomvoorziening aanwezig is.

[Reactie gewijzigd door Godjira op 7 mei 2026 11:56]

De foto's van Omroep Flevoland lijken dat te bevestigen. Toch wel opvallend hoe vaak werkzaamheden tot brand leiden. Ik snap dat het risico dan opeens vele malen groter wordt (dankzij dingen als las- of dakdek-klussen?), maar er zijn juist dan toch ook strenge voorzorgsmaatregelen, neem ik tenminste aan...
In verreweg de meeste gevallen leiden werkzaamheden niet tot brand. Verder is het compleet onduidelijk welke werkzaamheden de brand hebben veroorzaakt. Het kan zijn dat er kortsluiting is ontstaan, het kan ook zijn ontstaan als gevolg van slijpen of lassen. Maar ook mogelijk is dat bepaalde apparatuur oververhit is geraakt wegens onvoldoende koeling.

Dit voorval blijft een mooi voorbeeld van wat er mis kan gaan met heel grote gevolgen: YouTube: Een jaar na de grote stroomstoring: hierdoor ging het compleet mis | Omroep Flevoland
Als het lang genoeg goed gaat worden mensen altijd laks.

Ik vraag mij wel af of bij hun nieuwe nood aggregaten sprinklers komen.
zou je denken DC's tegenwoordig heeft top notch Fire Suppression System, volgens de datasheet van NorthC maken ze gebruik van OxyReduct blussing met dubbele waarschuwing aspiratiesysteem en toch gaat ie als een matchsticks de brand uit :p
Ik heb begrepen dat de brand is ontstaan in de noodstroomgeneratoren.
Zo zie je maar, al die marketing bs kan het blijkbaar niet voorkomen.
Die systemen zijn vaak tijdelijk uitgeschakeld bij onderhoud in de betreffende ruimte omdat die anders zware impact hebben op de personen die aan het werk zijn in de ruimte.
Ik huur een rack in dit DC. Om 09:09 uur ging de hele boel plat en raakte ik de connectie kwijt. NorthC heeft aangegeven dat de brand is ontstaan tijdens werkzaamheden. Hoop oprecht voor mezelf, en alle andere systeem- & netwerkbeheerders die getroffen zijn door deze ramp dat de schade aan apparatuur op de vloer beperkt is gebleven.
Ik hoop eerder op goede offsite backups 😉
Heb je de pricewatch gezien? In deze tijden een heel rack moeten vervangen, ai.
Qua brand zal het misschien mee kunnen vallen maar rook en roet incombinatie met computer apparaat betekend eigenlijk altijd dat alles vervangen moeten worden.

Helaas 2 weken geleden brand hier gehad op het aanliggende pand bij ons kantoor en eigenlijk moeten alles vervangen worden omdat in rook zuur zit wat alles aantast. Ook al werkt alles nu nog kan het maar zo over een jaar klaar zijn.
Als een koelingsprobleem in een serverruimte ontstaat, dan kunnen er al snel gevaarlijke temperaturen ontstaan. Ik heb al vaak gesmolten kabels gezien. Een scenario waarbij stroomkabels smelten, kortsluiting maken en vervolgens brand lijkt me heel plausibel.
Toch zou je verwachten dat er een leuke blusgasinstallatie staat. Regelmatig kom ik in ruimtes die daarmee zijn uitgerust. Lijkt me dat een professioneel datacenter over dit soort dingen heeft nagedacht.
Nu ken ik dit specifieke NorthC datacenter niet, maar andere datacenters van hun hebben wel fancy blussystemen.
oh, die staan er ook. Gegarandeerd. (in alle andere NorthC's ook).

dus de vraag is dan: waarom heeft 't niet of niet voldoende gewerkt?
Misschien stond het raam open? ;) Of de brand kwam binnen via een externe route en was de blusgasinstallatie niet effectief. Er zijn wat opties, maar het is niet best.
Als je sterk oxiderend materiaal hebt en er komt een oxidator bij dan zal het razendsnel oxideren, en dat interpreteren wij als vuur!
Er staat een UPS naast van https://luminussolutions.be/nl/technologie/mobiele-ups/ dus ze zullen met stroom bezig geweest zijn binnen?

Je ziet stijgers en trappen en houten afdichting bij de ventilatie / airco vents, dus daar kan natuurlijk ook iets ontstaan zijn.

Om te kunnen reageren moet je ingelogd zijn