Azure en andere Microsoft-diensten wereldwijd getroffen door storing - Update

Azure en andere Microsoft-diensten worden wereldwijd getroffen door een storing. Dat hebben gebruikers op sociale media opgemerkt en is intussen bevestigd door Microsoft. Het is niet duidelijk wat er exact mis is of hoeveel gebruikers getroffen zijn.

Gebruikers in Europa melden op sociale media dat de Azure-portal niet laadt. In andere delen van de wereld zeggen gebruikers hetzelfde. Behalve met Azure zijn er meldingen van problemen met PowerApps, Entra en Intune. Er worden problemen gemeld met toegang tot portals, zoals portal.azure.com, entra.microsoft.com, intune.microsoft.com en admin.powerplatform.microsoft.com. Daarnaast ervaren sommige gebruikers time-outs bij het openen van learn.microsoft.com.

Microsoft heeft intussen een verklaring afgegeven. "We onderzoeken meldingen van verbindingsproblemen met Microsoft-services in Europa. Meer informatie volgt zodra deze beschikbaar is", zegt het bedrijf. Om 15.13 uur Nederlandse tijd paste Microsoft de verklaring aan. De problemen doen zich volgens het bedrijf wereldwijd voor. Microsoft zoekt naar een oplossing voor de storing.

Update, 15.25 uur - Microsoft zegt dat de storing zich wereldwijd voordoet. Dit en meldingen van gebruikers buiten Europa zijn aan het artikel toegevoegd.

Door Andrei Stiru

Redacteur

30-07-2024 • 14:56

200

Submitter: Bark_At_The_Cat

Reacties (200)

200
197
74
3
0
29
Wijzig sortering
Storing is verholpen zie voor meer informatie: https://azure.status.microsoft/nl-nl/status/history/ tracerings-id: KTY1-HW8.
While the initial trigger event was a Distributed Denial-of-Service (DDoS) attack, which activated our DDoS protection mechanisms, initial investigations suggest that an error in the implementation of our defenses amplified the impact of the attack rather than mitigating it.

Dat is nogal een grote boo boo iyam :)
Meer dan 7 uur storing best wel lang toch?
Lijkt erop dat alles wat achter Azure FrontDoor zit niet werkt. Onze services die geen gebruik maken van frontdoor werken nog wel...
Same here. Alles wat achter Front Door zit is niet bereikbaar, de rest wel. Ook sommige applicaties die daardoor er deels uit liggen, omdat Web API's dan achter Front Door hangen en andere delen niet. En aangezien Front Door een global service is ligt het wereldwijd eruit. In elk geval al een van de meer impactvolle storingen van de laatste tijd.
Hier hetzelfde. Onze Dev omgeving functioneert, maar productie, wat achter Azure Frontdoor hangt, werkt niet meer.

Vandaar waarschijnlijk ook die networking infrastructure outage melding. Network Infrastructure - Issues accessing a subset of Microsoft services
Niet helemaal. Hier aantal apps die achter Frontdoor zitten en die doen het wonderbaarlijk wel.
Verder doet o.a. AzureCDN op enkele sites hier het niet. Veel mensen kunnen niet op portal.azure.com al zijn er mensen die dit om een of andere reden wel erop kunnen. EntraId portal doet het niet.
Gelukkig is het heel rustig waardoor weinig mensen er iets van merken, behalve dat we nu sommige dingen niet of lastig kunnen beheren.
Hier ook. We hebben diverse zaken zoals SSO apps, Traffic manager connections, Graph Explorer, etc getest maar daarin zien we (gelukkig) geen onderbrekingen. Azure MFA werkt ook. Voor onze organisatie gelukkig (nog) geen hinder tot op heden.

Kan alleen even niet verder in EndPoint met ons Zerotouch project. Dan maar even wat onsite zaken op gaan pakken :)

Update: 16:20
Azure en EndPoint portal zijn weer bereikbaar voor ons. Soms nog wat trager maar lijken weer te functioneren :)

[Reactie gewijzigd door nextware op 30 juli 2024 16:21]

Je had 100% gelijk :-)

Network Infrastructure - Issues accessing a subset of Microsoft services

Impact statement: Starting approximately at 11:45 UTC on 30 July 2024, a subset of customers may have experienced issues connecting to Microsoft services globally.

Current Status: An unexpected usage spike resulted in Azure Front Door (AFD) components performing below acceptable thresholds, leading to intermittent errors, timeout, and latency spikes. We have implemented network configuration changes and have performed failovers to provide alternate network paths for relief. Our monitoring telemetry shows improvement in service availability from approximately 14:10 UTC onwards, but we are investigating reports of specific services and regions that are still experiencing intermittent errors. We will provide an update on our continued mitigation efforts by 18:00 UTC, or sooner if we have progress to share.

This message was last updated at 16:42 UTC on 30 July 2024
Klinkt als een DDoS aanval, niet?
Ja, maar dat zeggen ze niet. Maar wel heel erg verdacht.

Ook raar dit dit het nieuws niet haalt, maar de impact mogelijk groter is dan de crowdstrike mishap.
Ik probeer nu Azure te connecten vanuit een Virtuele server in India, maar ook vanuit daar lukt het niet. Gaat lekker. 😒
Exact dat alle verschillende azure services draaien gewoon alleen frontdoor niet .
Voor het bedrag dat wij en onze klanten betalen voor Azure is een storing van deze omvang echt onacceptabel.

Ook intune als dienst en federatie met Entra ID als IdP doen het niet goed. Klanten kunnen gewoon niet in hun andere systemen inloggen als SSO wordt gebruikt via Entra ID en MDM-apparaten kunnen gewoon niet worden beheerd of uitgegeven nu.

Het enige wat Azure Support doet is meldingen uitpompen dat ze ermee bezig zijn en vooral ontkennen dat bepaalde diensten het gewoon niet doen. Echt niet ok.
Mjah dat risico kies je voor wanneer je je spullen in die ellendige cloud stopt... Je bent niet meer in control; gaat er wat mis dan is het enige wat je kan doen is wachten en hopen dat ze het snel oplossen.
Even zelf naar je datacenter rijden om te troubleshooten is er dan niet meer bij...
Alsof bij een standalone setup je dit soort zaken niet hebt. Dan zijn de risico's veel groter
Lezen! ;)

Natuurlijk kun je ze dan ook hebben, maar dan kun je ze over het algemeen ook zelf oplossen. Nu ben je volledig overgeleverd aan een externe partij, met geen idee of en hoe snel zij de issue in hun overgecompliceerde platform hebben gevonden en opgelost.
Microsoft heeft een heel leger aan dev's die dit veel sneller kunnen oplossen dan wij. Daarnaast is het voor jezelf ook wel fijn dat je tegen je baas kunt zeggen dat het niet aan jou ligt maar een externe partij. Geloof me, dat is ook heel wat waard. ;)
Dat Microsoft een heel leger aan devs heeft, daar heb je gelijk in.

Zijn deze allemaal werkzaam in de Azure ontwikkelketen? Nee. Diegenen die wel werkzaam zijn in Azure, daarvan is alleen veilig aan te te nemen dat zij beter/meer toegang hebben tot de Azure software. Normaal gesproken houdt dat in dat zij de mogelijkheid hebben om sneller achter problemen in hun omgeving te komen.

Of dat altijd een snellere oplossing oplevert, daarover valt twisten. Zeker met de huidige lichting aan beschikbare devs. Daarnaast moet je ook beseffen dat jij/jouw bedrijf niet de grootste klant is van Microsoft. Dus sta er vooral niet van te kijken als jouw Azure oplossing een flink wat lagere prioriteit heeft dan van andere klanten.

In theorie heb je gelijk. Praktijk blijkt nu dus wat weerbarstiger dan dat.

Verloren productie/inkomsten bij een enorm aantal bedrijven globaal gezien, dat zullen serieuze getallen zijn nu.
Er valt voor beide zaken wat te zeggen. On prem houd in dat je zelf naar het DC mag en kan inderdaad. En dan kom je erachter dat het probleem erg diep zit. Het is vakantie periode, de mensen met de meeste kennis zijn op vakantie en daar sta je dan. Nu hoef je alleen maar te wachten en je weet dat er genoeg mensen zijn bij Microsoft die het probleem op kunnen lossen.

Het heeft allemaal zijn voor en tegens. Ik hou ook erg van on prem BTW. Maar soms denk je ook wel eens, het zou toch fijn zijn als ik het bij een ander kan beleggen.
De kosten ook, dus uiteindelijk komen we toch weer terecht bij Clouddiensten, want bedrijven willen nooit veel betalen en dan hoort er dus af en toe een storinkje bij 🤷🏻‍♀️
Ik denk dat je de uptime van cloud diensten vergeleken met traditionele hosting zwaar onderschat. Alsof bij cloud een storingje erbij hoort en bij self hosting de uptime 100% is
Waar hoor je mij zeggen dat de uptime bij self hosting 100% is? Ik reageer er toch juist op dat dat niet zo is?😂
Eens, maar zie mijn eerdere reactie dat dit geldt voor als je het op individuele schaal beschouwd.

Als je vanuit maatschappelijke impact kijkt, lopen we met de cloud wel degelijk een groot risico. Er hoeft maar bij één van de grote dienstverleners echt iets mis te gaan, en onze hele maatschappij raakt in de problemen.
Wat dat betreft stelde Crowdstrike weinig voor. Als ik zag hoeveel media-aandacht dat kleine incidentje kreeg, ben ik benieuwd naar de reacties als Microsoft, Amazon of Google een keer een langdurige storing met serieuze impact heeft......
Soms is 'gewoon wachten' een betere optie dan dat je zelf moet gaan uitvinden wat er loos is. Misschien dat je het sneller opgelost krijgt, maar misschien ook niet of heb je de spullen of capaciteiten niet in huis om het euvel snel op te kunnen lossen.
Tja misschien...
Voor mij gevoelsmatig in ieder geval niet... Ik heb over het algemeen de problemen in systemen en netwerken altijd prima zelf kunnen oplossen.
Het feit dat ik me vanuit mijn functie verantwoordelijk voel voor het draaien en functioneren van de systemen van m'n werkgever, maar tegelijkertijd er veel te veel buiten mijn eigen invloed is komen te liggen, wordt ik erg onrustig van.
Ik wil helemaal niet mijn schouders ophalen en zeggen "niet mijn probleem"... Ik wil het gewoon zelf onderzoeken en oplossen, zoals ik dat altijd heb gedaan de afgelopen 25 jaar...
Dat is ook helemaal prima toch? Zelf lijkt het mij juist erg vervelend om daarvoor naar een dc te moeten rijden, overwerken etc, hopen dat je leverancier maar snel een kapot onderdeel wat je zelf niet in huis hebt kan versturen.

Nee dan wacht ik liever rustig af tot mijn cloud leverancier klaar is.
Tja, het nieuwe Nederlandse arbeidsethos, waarom zelf verantwoordelijk zijn als iemand anders het ook kan zijn.
Als jij gelukkig wordt van onnodig overwerken enz, nogmaals - prima dan toch?
Het is niet alsof je met een On-premise of private omgeving dit soort risico's niet loopt hé. Beetje kortzichtige reactie.
Wat schrijf ik dan? "Even zelf naar je datacenter rijden om te troubleshooten is er dan niet meer bij... "
Dat impliceert toch duidelijk genoeg dat ik prima weet dat je dan ook issues kunt hebben, maar in tegenstelling tot het onderbrengen bij een externe partij, ben je dan wél zelf in control voor het oplossen van je probleem.
Vraag is in hoeverre je dan ook daadwerkelijk in staat bent om het even snel of zelfs sneller op te lossen dan nu (afhankelijk van de omvang).
Gezien de complexiteit van een azure / cloudomgeving en alles wat daarbij hoort durf ik em wel aan; een private omgeving is sneller te fixen dan zo’n wereldwijde storing, alleen al gezien het feit dat je zelf de kennis hebt over je private omgeving (als het goed is:))
Mja, 'als het goed is'. Hoeveel bedrijven besteden de volledige ICT niet uit tegenwoordig? Ik denk dat zeker na COVID bedrijven nog meer op de cloud gericht zijn dan (semi)-lokale servers.
Van de ene kant tuurlijk. Van de andere kant als je core switches dan vastlopen, in een boot loop komen na een firmware rollback, en derdelijns support vanuit de vendor moet komen zoals Cisco TAC engineers en het wordt een uur stil aan de andere kant omdat het zo een puzzel blijkt wat er mis is gegaan, dan heb je met meer services meer downtime te pakken.
Het blijft een spelletje van kleine kans en grote impact als het jou net treft. Met firewall clusters idem, 99% van de tijd gaat het allemaal goed. En soms gaat het onverklaarbaar rottig fout dat de ene node niet wil op komen en de andere juist volgens de procedure in shutdown moet, sta je dan met je cluster. Zelfs meegemaakt met dezelfde config op dezelfde apparatuur, typenummers en geheugegrootte identiek en al, geen problemen bij de test upgrade van de productie configs, maar dus wel in productie. Tijdelijk dan maar heel het netwerk op de test units gedraaid, paar dagen later weer omgewisseld, bleek sneller dan productie vlot te trekken.
Zoiets stel ik me voor kan Microsoft en elke andere cloud provider en hoster ook eens hebben, dat alles wat maar mis kan gaan, hoe onredelijk en onverwachts ook, tegelijkertijd mis lijkt te gaan.

[Reactie gewijzigd door OruBLMsFrl op 30 juli 2024 18:13]

It depends. :P Over de complexiteit heb mogelijk gelijk, maar op een Azure schaal wordt ook weer tooling ingezet om die complexiteit in toom te houden.

En als ik het goed begrijp is dit issue getriggered door een DDOS aanval, en is door een misconfiguratie de boel stuk gegaan. Dat 2e deel kan zeker aan door de complexiteit van Azure veroorzaakt worden: niet altijd te overzien wat wijzigingen doen. Maar een DDOS afwenden met eigen infra geef ik je te doen. Dus ja, je kunt cloud diensten gebruiken om je daarbij te helpen. Maar zelf alles doen is tegenwoordig best ambitieus, simpelweg omdat de kennis schaars is en geconcentreerd bij de grote bedrijven.
Ja en tegelijk heb je de afspraak met hen dat zij een uptime hebben van 99,99 %?
Dus ook een paar uur per jaar er uit liggen kan en mag. Hoe niet leuk je dat ook vind, en hoe slecht het NU uitkomt.

En ook het voordeel is dat jij met een x aantal collega's het oplost en zij het 10-100 voudige kunnen inzetten.
Nee 99,99% uptime=
24 * 365 * ( 1-0,9999 ) = 0,876 uur per jaar.

Ik dus.geld.terug.gaan vragen.
Best kans dat als je de SLA goed doorleest, dat je bij overschrijden van de downtime recht hebt op compensatie. Hoe hoog die is? Waarschijnlijk het aantal gemiste uren * je gemiddelde Azure uurverbruik. Je daadwerkelijke schade krijg je niet
Als je een SLA van 99.99% uptime hebt mag er (contractueel gezien) maximaal ~52 minuten aan downtime zijn per jaar, niet een paar uur ;)
Als de datacenter waar je spullen staan connectiviteit problemen heeft, wat hier dus het geval is want het is een netwerk probleem blijkt, dan kan je daarheen rijden wat je wilt, maar je kan het niet oplossen. Je servers/software is niet het probleem, maar het netwerk. Dus inderdaad een beetje kortzichtige opmerking.

Bij ons is helaas één van de onderdelen in de keten onbereikbaar, maar de rest van de services werken wel. Azure portal openen is wel redelijk dramatisch en traag.
De Azure portal openen is toch altijd traag? Ik heb het gevoel dat ik per dag gewoon 1 uur zit te wachten op ladende/hangende/inloggende verschillende Microsoft portals. Alleen alle verschillende portals al.. 8)7

Gewoon met z'n allen terug naar good old OnPrem 8-)
Ik heb bij interne systemen ook downtime gehad van uren en soms dagen met grote impact.
Terwijl we met de leverancier aan het troubleshooten waren.
Dat is ook niet wat hij zegt. On-premise is zeker vatbar voor outages, en de meeste on-prem omgevingen zullen minder robuust zijn dan Azure. Maar áls het plat ligt, weet je meestal wel wat en kan je (of je techneuten) erop uit het te fixen, en je klanten of gebruikers gericht informeren. Nu bellen klanten ons en het enige wat je kan is met je armen achterover leunen en zeggen 'tja, de cloud, we moeten wachten tot MS het heeft gefixt'. En als techneut is dat waarom ik nog steeds liever on prem heb voor bepaalde zaken, meer in control áls er eens wat is.

[Reactie gewijzigd door Rataplan_ op 30 juli 2024 20:14]

Hangt natuurlijk van het probleem af. Aangezien dit een netwerk storing is denk ik dat je weinig kan fixen als je mensen daarheen stuurt.

Als techneut/ontwikkelaar heb ik liever de cloud, maar iedereen heeft zo zijn voorkeuren ;)
Netwerk bestaat ook uit hardware met daar op soft-/firmware he? Kun je in het datacenter ook gewoon een consolekabel in je switch of firewall steken om te troubleshooten. En ligt de issue wel bij de connectivity van je datacenter, dan bel je daar de dienstdoende engineer om mee te schakelen. Het mobiele nummer van de Azure netwerk engineer kon ik vanmiddag even niet vinden...
Amen! Me too! OnPrem werkt alleen al veel sneller! Ik kan tal van voorbeelden opnoemen wat daarmee sneller gaat... (Intune - GPO: kuch kuch) |:(
Als je dit als individuele organisaties bekijkt heb je gelijk. Of je nu on premise zit of in de cloud, storingen kunnen in beide gevallen voorkomen. En ik denk dat er on premise vaker storingen zijn dan bij gebruik van clouddiensten.

Echter, de hele grote MAAR zit 'm in het feit dat je dit ook op grotere schaal moet beschouwen. Omdat de halve wereld van slechts enkele wereldwijde dienstverleners gebruikt maakt, is de maatschappelijke impact van een storing bij zo'n dienstverlener ook veel groter. Crowdstrike was slechts een speldenprikje. Het veroorzaakte wat overlast maar niet meer dan dat. Het is een kwestie van tijd totdat er een grote langdurige wereldwijde storing komt die wel serieuze maatschappelijke impact heeft. Ik kan de reacties die daarop gaan volgen al voorspellen. Experts waarschuwen er al lang genoeg voor, maar daar wordt tot op heden onvoldoende mee gedaan.

Daarnaast maakt het je veel kwetsbaarder voor gespuis met verkeerde bedoelingen. Als je kwaad in de zin hebt, hoef je alleen schade bij één van de grote dienstverleners aan te richten. Als iedereen - zoals 15 jaar geleden - de boel on premise had staan, moet je als aanvaller bij honderduizenden organisaties tegelijk zijn. Iets dat een grootschalige aanval met forse maatschappelijke impact vrijwel onmogelijk maakt.
Met dit weer wijs ik liever iemand anders aan dan dat ik in het datacenter ga zitten klooien :+
Ik vind het juist wel lekker koel daar, als je tenminste aan de voorkant van de servers gaat zitten.

Bij mij op het werk hebben ze te veel klimaatgeneuzel en ze weigeren de AC kouder te zetten dan 27 graden wat veel te heet is om je te kunnen concentreren. Dan ga ik vaak ff in het datacenter zitten om af te koelen want daar is het wel koeler natuurlijk.
Ik begrijp je. Jaren lang in amsterdam rond gehangen in enkele van onze datacenters.
Vaak was het vechten wie er wat hardware bij mocht hangen of alle tapes wou gaan halen.
Dan was je weg van kantoor en weg van de mensen :P
Ja gelukkig is dat vrij standaard tegenwoordig met al het thuiswerken. Als is het kantoor nu zo afschuwelijk geworden met alle flexplekken en je spullen in een lockertje moeten zetten en je laptop op slot enz. Het lijkt wel een kleuterschool. En naast domme brallende sales pakken moeten zitten in plaats van gewoon een verdieping voor de IT afdeling die wel begrijpen dat je je soms moet concentreren.

Ik heb vele kantoorgeneraties meegemaakt, van eind jaren '90 toen iedereen nog een eigen kantoortje had (zelfs ik als stagiair), van de "cubicles" naar de open tuinen die steeds verschrikkelijker werden als werkomgeving. Herrie, rommel en teveel mensen op elkaar gepakt. Maar ik heb nog nooit zo'n diepe haat voor het kantoor en mijn collega's (met name die van andere afdelingen) gehad als nu na de pandemie.

Helaas moet ik af en toe nog naar kantoor en die dagen zijn echt afschuwelijk, zenuwslopend en 100% onproduktief.

[Reactie gewijzigd door Llopigat op 30 juli 2024 16:56]

Toch ook eens naar een ander bedrijf kijken, het kan ook echt anders. Jouw verhaal kan ik niet matchen met de mooie (IT) bedrijven waar ik kom. Mooie kantoren, veel groen, mooie materialen, er wordt thuisgewerkt dus nooit heel druk - ook bij ons is kantoor juist de gezellige plek en wordt er leuk samengewerkt en dus productieverhogend.
Ja nouja ik ben ook gewoon nogal geen "team player". Ik heb wel heel hoog technisch vermogen dus ik word meestal op projecten gezet die andere mensen liever niet aanpakken. En gelukkig meestal in mijn eentje (of op zijn minst mijn taken alleen voor mijzelf). Dus samenwerken is niet echt iets waar ik waarde aan hecht en ik doe dat ook veel liever niet. Vooral omdat sommige collega's nogal traag van begrip zijn zodat ik kromme tenen krijg als ik alles moet uitleggen. Geef me gewoon wat lastigs te doen en het komt voor elkaar en het wordt ook netjes gedocumenteerd voor de support enzo (en val me vooral niet lastig met van die 'agile' methodiek onzin).

Toen ik vroeger mijn eigen plek had met collega's om me heen die me kenden ging het wel, al werkte ik toen vaak ook heel laat (tot ik om 10 uur 's avonds het kantoor uit gesmeten werd door de beveiliging) omdat ik me dan pas kon concentreren. Maar nu is het op kantoor echt helemaal onwerkbaar voor me.

Maar veel groen kan ik me niet in herkennen nee, mooie materialen nouja bij ons is er veel lichthout en veel leeghoofdig PR materiaal met foto's van blije mensen. Ik denk dat je ons kantoor ook wel zou waarderen (behalve dat groen). Maar mensen verschillen en voor mij is het niet meer te doen.

[Reactie gewijzigd door Llopigat op 30 juli 2024 18:03]

Ik kan het verhaal helaas wel matchen, maar dan meer met de collegas waarvoor ik gewaarschuwd wordt als ik ergens binnen kom.

Inmiddels al een paar jaar als IT manager aan de slag en ik kom vaker mensen tegen die leven bij dat ene stukje software of dat specifieke stukje knowledge waarmee ze zich deze houding kunnen permitteren.

Last van geluid van je collegas? Hier heb je budget voor een setje noise canceling headphones/earbuds etc.
Agile is kut, ja klopt omdat mensen dan de inhoud van hun werk en hun planning voor de dag uit moeten leggen tijdens een standup. Daar kunnen soms nog wel eens collegas met andere ideeën of opties komen en dat moet je niet willen natuurlijk.

Tijdje terug nog zo'n koning applicatiebeheerder onttroond. Die ging de directie wel even uitleggen hoe ze de hut moesten runnen zodat het mooi in zijn zelf geknutselde stukje bedrijfsrisico paste. Na de bewuste vergadering kreeg ik per direct opdracht om die man onschadelijk te maken en al zijn hobby geknutsel op te ruimen. Het moment dat we daarmee klaar waren kon de beheerder in kwestie naar het UWV.
Ik neem aan dat dat over mij gaat. Ik ben helemaal geen 'koning' van iets, ik ben juist een manusje van alles :) Ik word vaak ingezet om in iets nieuws te duiken en het uit te mappen voordat het in produktie wordt genomen. Als het dan uitgekristalliseerd is wordt het in produktie genomen (en eigen gemaakt door de operationele teams) en ga ik weer wat anders aanpakken. En ik word uitstekend gewaardeerd en heb verschillende werk 'onderscheidingen' gekregen. Er zijn juist weinig mensen die zichzelf heel snel iets nieuws eigen kunnen maken en ze hebben vaak begeleiding nodig.

Niet iedereen ligt het om in een team te werken. Het probleem is nu alleen met het lokale personeelszaken beleid die per se konten in stoelen willen zien. Mijn manager geeft er niet om of ik naar kantoor kom of niet (hij zit niet eens in hetzelfde land) maar hij is helaas nogal gevoelig voor het gezeur van de HR dames. Helaas want mijn vorige gaf ze gewoon een dikke middelvinger terug. Maar mijn punt was dat de kantoren van tegenwoordig (flexplek, sinds de pandemie) eigenlijk alleen maar goed zijn voor erg extroverte mensen. Voor mensen als ik is het een gruwel geworden.

Maar standups doen we sowieso niet. Het enige dat bij ze bij ons onder "agile" verstaan is uren invoeren in Jira. Misschien dat ik er daarom zo'n hekel aan heb want het is gewoon onzin zo.

[Reactie gewijzigd door Llopigat op 30 juli 2024 22:49]

Alleen wel oordoppen mee.
Mja maar wat heeft het voor zin als je op kantoor moet zitten en jezelf helemaal moet isoleren?

Dan kan je beter gewoon thuis zitten en hoef je ook geen kleffe oordoppen in.
Of gewoon je datacenter echt on-premise hebben zodat je er gewoon naartoe kan lopen <3
Noem 1 platform dat NOOIT problemen heeft ... dat lukt je niet.

Je had ook gewoon alles on-prem kunnen houden met alle gerelateerde kosten en problemen erbij. Denk je dat dat beter of goedkoper was geweest? Ik niet.

En weet je wat voor mij het voordeel is? Als mijn werkdag eropzit, kan MS gewoon doorwerken aan het probleem. Als het mijn eigen infra was geweest, dan was het doorwerken tot het is opgelost.
On prem kan zeker ook stuk. Maar, je hebt wel zelf in de hand wat dan als eerste weer werkt.

Ik zit zelf in de manufacturing en wij houden de ERP systemen > aansturing van de fabrieken gewoon inhouse.

Tuurlijk maken we ook gebruik van cloud diensten. Maar een dag de fabriek stil is becijferd op anderhalf miljoen dus mocht wat kosten om een full redundant set up over meerdere panden uit te rollen(2 serverruimtes).

Sowieso ben je meer in controle als het gaat om performance en availability doordat je letterlijk zelf de spullen en de sleutels daartoe in handen hebt.

Klant gezien die SAP in de cloud had zitten, performde voor geen meter maar die lui gaan voor een simpel bedrijf uit NL niet ff servers bijprikken, waar als dit gebeurt bij on-prem de directie prima kan besluiten een paar extra hosts neer te hangen.

Geen van beide is heilig, maar het gevoel van machteloosheid bij een grote cloud outage is iets wat ik wel snap.
Eigen beheer heeft zeker voordelen, maar ik heb ook SAN en netwerk issues gehad tussen dual datacenters, firewalls die issues hadden, glas verbindingen die storingen gaven.

Een nadeel van "meer in eigen control", we hadden hier even een server van 64CPU's en 700Gb memory nodig. In cloud zo geregeld, onprem had ik dit nooit kunnen regelen.

Terwijl ik het in Azure zonder enige complexiteit in elkaar knoopt.

Beide hebben inderdaad voor en nadelen. Soms groot en soms klein.
Voordeel is, nu kon ik gewoon mijn laptop dicht klappen vandaag.
CPUs of vCPUS. Want in het geval van het laatste heb je zat aan een host met 2 of 4 xeons en die bestaan gewoon. Volgens mij heeft Linus al eens een hobby projectje gedaan met 1TB aan ram.

En natuurlijk is dat niet zo makkelijk in te zetten als in een cloud omgeving. Maar het kan prima. Cloud is goed in het snel reageren op grote volume toename. Maar bij fabrieken etc speelt dat minder.

Overigens liggen de glasverbindingen hier dubbel redundant and path separated over het eigen terrein heen dus daar tot nu toe nog geen issues mee gehad.

Begrijp me niet verkeerd, de set up die het bedrijf waar ik werk draai is zeker niet voor iedereen bedoeld en betaalbaar maar we moeten niet doen alsof de cloud dingen kan die on-prem niet kunnen tenslotte ben je in je cloud omgeving gewoon bij Microsoft on-prem in het geval van Azure.

Het gebrek aan complexiteit bij het in elkaar zetten van cloud omgevingen zie ik deels als een nadeel, dit omdat de daadwerkelijke skills en het diepe begrip waar iemand mee bezig is verloren gaat en dit geconcentreerd wordt bij een aantal marktpartijen.
Welk ERP systeem hebben jullie? :)
Sterkte. Als ik een bedrijfscultuur haat is het die van hen wel. Ze wantrouwen hun klanten als de pest en proberen je expres in een hoekje te verven zodat je de licentievoorwaarden overschrijdt, waarna ze je dan keihard aan kunnen pakken. Hun hele business draait op het aanklagen van klanten die van hun legacy spul afhankelijk zijn. Het zijn echt het soort mensen die aan tafel zitten als vijand.

Wij hebben gelukkig SAP tegenwoordig. Die zijn een stuk amicabeler. Net als Microsoft, al proberen die je wel altijd dieper in hun plakkerige spinnenweb te krijgen door alles van elkaar afhankelijk te maken. Maar als je ergens overheen gaat dan is het geen probleem en verrekenen ze dat gewoon.

[Reactie gewijzigd door Llopigat op 30 juli 2024 22:56]

Idd, onze kritische diensten failover nu naar aws.
Masr hebben we net dat crowdstrike opgelost (500 laptops, 300 azure en 300 aws servers), nu dit weer.

Onprem had ik vroeger gezeik met aggregaten, koelingen, san ellende omg. En dat tot 4 uur s’nachts. Azure draait vanaf 2017 tot vandaag als een zonnetje….
Toch wel sterk dat ondanks het feit dat het nagenoeg nooit faalt je werkgever blijkbaar wel heeft geinvesteerd in een failover - precies voor die ene zwarte dag eind Juli. Ik denk dat er vandaag heel veel mensen in paniek zijn omdat ze de centjes liever uitgaven aan leukere dingen en dus 100% afhankelijk zijn van Azure.
Klopt, zijn maar paar diensten die over schakelen. Zoveel investering is dat niet voor ons. Heeft oa met safety te maken, daar wordt niet op bezuinigd.
Toch wel sterk dat ondanks het feit dat het nagenoeg nooit faalt je werkgever blijkbaar wel heeft geinvesteerd in een failover
Als je failover regelmatig moet inzetten omdat er problemen zijn denk ik dat je eerder je huidige omgeving anders moet opzetten :D. Failover is vergelijkbaar met de brandalarm, brandslang, nooduitgangen, backups enz. Je hoopt het nooit nodig te hebben maar als het moet, dan kan het. Afhankelijk van je inrichting is een directe failover zeer kostbaar, dus je moet echt kijken wat wel en wat niet noodzakelijk is. Als het acceptabel is dat je bij een dergelijke storing een halve dag eruit ligt dan is een directe failover (dubbel uitgevoerd ) een beetje overkill.
MS-DOS (6.22)
Draaien nog veel CNC snijmachines op haha

(Sarcasm)
Echt? Da's dan best aardig voor een keer een artikel hier, oude systemen die nog steeds draaien. Zoals die C64 in de garage maar dan nog andere mooie retro systemen die nog actief gebruikt worden.
haha, al die develloppers die denlken dat nieuw beter is en alles wat je "as a service"bij een ander kunt wegleggen alleen maar voordelen heeft...omdat dat in het boek van Microsoft staat.
Overal is een tijd en een plaats voor:
SaaS email...prima moet je doen, maar in de werkplaats waar 30 jaar oude machines als fonkelnieuw worden gezien (met RS232 en een moxa), daar gelden heel andere regels.
Microsoft heeft een batterij aan Techneuten beschikbaar dus zal wel loslopen dan. Ik heb zelf een on-prem Exchange server gehad. Wat een ellende met de kwetsbaarheden. Ons doen overstappen was uiteindelijk door een corrupte mailbox database. Zelfs de back-up terugzetten was de database ook corrupt.

Offtopic: slechte planning dit de storing. Vanmiddag worden de kwartaalcijfers van Microsoft bekend gemaakt.

[Reactie gewijzigd door zonderbloem op 30 juli 2024 16:19]

Onze Digital Open VMS cluster had toch een availability waar Windows (Cloud) maar kan van dromen hoor ;-)
Windows (cloud)?? ik weet niet wat je bedoeld met de availability van windows (cloud) :?
Nou die lag er de voorbije weken toch al een paar keer uit voor heel wat gebruikers...
Mijn vraag ging eigenlijk over Windows cloud, het merendeel van de Microsoft Cloud draait op Linux. Vandaar mijn verwarring.
Het gaat me over de stabiliteit van het geheel dat wel heel complex lijkt te zijn waardoor nogal onstabiel met meerdere onderbrekingen tot gevolg de laatste tijd. DUIDELIJK geen 99,9999 uptime dus...
99.9999 uptime, ofwel 31 seconden down per jaar. Heb jij ergens een SLA van een partij met een dergelijke garantie voor een dienst en die dat ook haalt? Ik ken er namelijk maar weinig met dergelijke cijfers, dus ik ben benieuwd waar jij dat krijgt.
Dat haalden wij vroeger met een OpenVMS cluster hoor (met een Uptime van 8jaar).

De W365 Cloud heeft het heel lastig de laaste tijd (al 3 major incidents) al dan niet hun fout, maar het resultaat is toch niet om naar huis te schrijven mijn inziens.

[Reactie gewijzigd door LadyGiga op 7 augustus 2024 16:59]

Er staat me een verhaal bij dat een aantal nodes van een VMS cluster in de Twin Towers stond. De rest stond elders. Downtime van het cluster op 9/11: nul.
Voor het bedrag dat wij en onze klanten betalen voor Azure is een storing van deze omvang echt onacceptabel.
Probeer dat eens uit te leggen. Microsoft garandeert helemaal nergens dat er nooit een storing is én jij hebt hun voorwaarden geaccepteerd. En nu is er een storing en vindt je het ineens onacceptabel? Dat is een raar verhaal.

Grootste verschil tussen je eigen DC en een cloud, is de schaal. Wanneer je zelf een storing in je eigen DC veroorzaakt, lees je dat in veel gevallen niet terug in de krant. Storingen met Azure, AWS of GCP lees je wél terug in de krant. Komt bij dat je zelf niet van de daken gaat schreeuwen dat je zelf een fout hebt gemaakt waardoor je DC offline is gegaan. Maar wijzen naar (in dit geval) Microsoft, dat is toch het mooiste dat er is. Beetje sneu
Probeer dat eens uit te leggen. Microsoft garandeert helemaal nergens dat er nooit een storing is én jij hebt hun voorwaarden geaccepteerd. En nu is er een storing en vindt je het ineens onacceptabel? Dat is een raar verhaal.
Je hebt helemaal gelijk dat MS redelijk duidelijk is wat je krijgt en wat je kan verwachten. Iedereen kan weten waar ze aan toe zijn. Dat maakt het echter nog niet (automatisch) acceptabel.

De realiteit is ook dat je moelijk om MS heen kan als bedrijf. Veel bedrijven hebben het gevoel dat ze geen echte keuze hebben maar min of meer verplicht zijn om Windows en Office te gebruiken en alles wat daar bij komt kijken. Tegenwoordig kom je dan al heel snel bij online producten als O365 & Azure uit.
De grootste bedrijven kunnen onderhandelen over contracten op maat maar kleine bedrijven niet, die moeten het doen met standaardlicenties & bundels. Dan kan het zijn dat je heel veel moet betalen zonder echt te krijgen wat je nodig hebt.


In mijn ervaring is de storing zelf vaak niet het grootste probleem maar de communicatie er over wel. Als mensen weten dat ze die ochtend niet meer kunnen werken omdat de server in brand staat dan accepteren ze dat en zoeken ze een oplossing of gaan lekker in het zonnetje zitten. Het eerste wat iedereen wil weten is "wanneer werkt het weer?" en horen liever "pas over drie dagen" dan "misschien vanmiddag".

Het voordeel van dingen in eigen beheer hebben (al dan niet in je eigen DC) is dat je korte communicatielijnen hebt en zelf prioriteiten kan stellen.
Maar als je het in eigen beheer hebt en ook totaal geen idee hebt waar het probleem in zit dan kun je het toch ook niet goed communiceren?
Front Door (het stuk dat kapot lijkt te zijn gegaan) garandeert een SLA van 99,99%, aldus Microsoft's announcement.

Edit: ik moet niet rekenen om vijf uur, dat is 1% niet 0,01 procent. 53 minuten downtime per jaar is een stuk makkelijker.

Die 0,01% storing die ze tolereren is 3,7 dagen downtime per jaar. Als de boel overmorgen pas weer werkt, en de rest van het jaar up blijft, doet het het dus prima.

Als dit onacceptabel is, had men beter naar een dienst kunnen kijken die meer negens aan redundatie bieden. Kost een flinke duit extra (zelfs vergeleken met Azure) maar dat heeft ook een goede reden.

[Reactie gewijzigd door GertMenkel op 30 juli 2024 18:37]

Front Door (het stuk dat kapot lijkt te zijn gegaan) garandeert een SLA van 99,99%, aldus Microsoft's announcement.

Die 0,01% storing die ze tolereren is 3,7 dagen downtime per jaar.
[…]
3,7 dagen is 1% van een jaar. 0,01% is 53 minuten per jaar.
Het is maar een paar minuten, 53 om precies te zijn. Maar dat ze dit garanderen, wil niet zeggen dat het niet kan gebeuren dat het langer duurt. Je krijgt alleen stok/stokje om mee te slaan. Jouw TV heeft ook een garantie van X jaar. Dat wil niet zeggen dat de TV niet binnen die X jaar kapot gaat, het zegt alleen dat je dan bepaalde rechten hebt.
Gek genoeg vind ik het wel acceptabel. Wij zijn maar een kleine speler met zo'n 100k aan Azure kosten per maand, maar als we alles op eigen servers hadden gehad (Active Directory ipv Entra, GPO ipv Intune, MFA ipv Conditional Access, fysieke servers in plaats van diensten) dan was het verschrikkelijk duur geweest om dezelfde uptime en dezelfde beveiliging te hebben. Jaarlijks is er wel een grote Azure storing, zo'n niveau van beschikbaarheid is met eigen servers ook mogelijk maar kost je gewoon erg veel geld.
waarom zet je ze dan ook in de cloud, wat is jullie motivatie daarvoor?
on-prem is toch prima. zet het systeem op en klaar.
"en klaar"

Ah ja, want on-prem heeft geen onderhoud nodig en er gaat nooit iets fout.
Veel bedrijven zien op tegen de kosten van infrastructuur en personeel om dit te beheren. De kost van cloud is op dat vlak "duidelijker". Je geeft uiteraard wel alle controle af, dat vergeet men vaak.
Ik ben goedkoper met een DELL server 512GB gold CPU. in combinatie met een SAN oplossing voor onze 75 medewerkers in combinatie met aanschaf van laptops etc. Dan met Azure.

Helaas is de CEO ingetrapt in een verkooppraatje van de Azure tak.
Je gaat ook op vakantie. Je werkt een uur of 40 in de week en geen 168 uur. Als je uitvalt dan is er geen vervanger. Als de server stuk gaat dan heb je niks meer. Met maar één server heb je geen teststraat.

Opbouwen van redundantie wordt te vaak over het hoofd gezien en dat is een fors bedrijfsrisico.
heb je ook je eigen salaris meegenomen in het kostenplaatje? ;). Ik neem aan dat iemand dat allemaal wel moet beheren en die kosten moet je ook meenemen, niet alleen de "hardware" en "software" kosten.
Aan de andere kant : het salaris van de interne accountmanager die inter-face moet zijn met MS.
Pick your poison
1 server, is geen server. Bij een stoom storing ligt waarschijnlijk alles plat.

Maar alle staat op 1 locatie, achter 1 energie leverancier, met 1 internet provider, met 1 airco en beheerd door 1 beheerder?
Wij staan in twee datacenters hebben 10 fysieke servers staan per datacenter.
Allemaal top notch, voor elke instantie, devs, admins, operations, accouting alles heeft zijn eigen opstelling.

Nee ik beheer dat allemaal met 2 personen mij inbegrepen.
Jouw fout, slecht advies
Je geeft uiteraard wel alle controle af, dat vergeet men vaak.
Is gewoon een keuze om die controle af te geven.
]Vaak willen bedrijven die verantwoordelijkheid niet meer. Het is veel makkelijker om externen onder druk te zetten bij problemen dan je eigen werknemers.
Bij externen kun je gaan dreigen met SLA's, contracten etc.

[Reactie gewijzigd door Hoover op 30 juli 2024 15:49]

Microsoft onder druk zetten is nagenoeg onmogelijk. Je hebt een SLA en daarmee uit
is niet mijn ervaring. Bij een prio 1 heb je wel degelijk iets te zeggen en zijn daar duidelijke afspraken over gemaakt. Ik heb al vaak genoeg account managers gehad bij MS die contact opnemen met je als het oplossen te lang duurt. Ik heb ook restitutie gekregen voor te hoge kosten van een resource door een update van een service die hogere kosten betekenden voor ons, wat niet de bedoeling was. De SLA is de basis en de rest is niet "wachten" op de oplossing hoor.
Laten we zeggen dat ik niet die ervaring heb.
Mijn ticket van begin dit jaar ivm powerapps onprem gateway, daarvoor zijn ze ook nog steeds op zoek naar een support engineer die er wat van kent 🙄.
Tip, probeer het naar de productgroup te escaleren. Dan krijg je een engineer die dicht bij het vuur staat.
Kan zijn dat ze in een andere tijdzone zitten, maar dan krijg je wel antwoord.
Zeker bij complexe vraagstukken.

Gaat het om een productiestoring en je hebt een goed support contract, maak Telefonisch een nieuwe ticket met prio A aan. Dan word het ook serieus genomen. Niet de bestaande ticket verhogen naar A, dan blijft het binnen de supportgroep hangen waar je nu al in zit.

Edit:
Geen idee wat precies het probleem is met powerapps en de gateway, maar als het verbinding issues zijn. Afhankelijk of je de kosten kan verantwoorden, maak een private network in azure aan, maak daar een vpn gateway aan (goedkoopste v2 variant is prima). MAak dan een VPN tunnel tussen onpremise en azure.
Zorg ervoor dat data gerouteerd kan worden van azure naar lokaal.
(evt testen met een VM die in het private network hangt om te kijken of je bij de onprem resources kan)
Als dat allemaal werkt, kun je powerapps via de environment, verbinding laten maken met de VPN gateway.

Dit is wellicht een duurdere oplossing dan de onprem gateway, maar veel stabieler en onderhoudsvriendelijker dan de onprem gateway.

[Reactie gewijzigd door Hoover op 31 juli 2024 09:00]

Dat klopt niet
Als je de standaard support bij Azure kiest, zullen ze minder snel reageren of proberen je problemen op te lossen, maar als je de duurdere varianten of bijvoorbeeld unified support hebt, dan echt niet.


Bij unified support heb je ook recht op architecten/engineers die je ondersteuning of advies op locatie kunnen geven. Ook is een incident manager gekoppeld aan ons bedrijf die tickets in de gaten houd en teams onder hun kont schopt als acties/reacties niet uitgevoerd worden.
Wel moeten ze elke subscription koppelen aan het contract anders krijg je zonder te weten nog steeds basis support... learnt that the hard way :P

Maar net als bij andere enterprise producten...betaal je meer voor het servicecontract, helpen ze je ook sneller.
Omdat we handen te kort komen en het de toekomst is. We hebben niet de kennis, kunde en vooral capaciteit om naast het ontwikkelen ook de gehele infrastructuur te beheren en te onderhouden een klant wil hier al helemaal niet voor betalen. Kijk alleen al naar zoiets simpel als Application Insights je klikt het zo in elkaar en krijgt zeer gedetailleerde rapportages om te troubleshooten zowel in fouten als in performance.
De vraag is natuurlijk of je al die “geweldige features” nodig hebt voor een correcte bedrijfsvoering. 🤷🏻‍♂️
Alsof je met een eigen setup of lokaal datacenter wel 100% uptime hebt.
Ga er maar van uit dat het je nog veel meer kost als je denk om het voortaan maar in eigen beheer te gaan doen. Dan komt er nog veel meer bij kijken en veel meer expertise benodigd.
Dit kan bij elke cloudprovider gebeuren, maar ga er maar van uit dat zoiets bij kleinere providers juist vaker zal gebeuren en dan ook vaak veel langer duurt om het op te lossen.
Is het leuk? Nee, dat zeker niet. Maar niemand, NIEMAND, kan 100% uptime garanderen, NIEMAND.
Uptime is niet zo moeilijk, microsoft verkoopt gewoon erg veel verschillende diensten en biedt ze als een snoepwinkel aan. Developers kiezen er maar op los waar je vroeger gewoon zei, dit is er en daar zul je het mee moeten doen, Die diversiteit is iets wat je als bedrijf absoluut niet kan bieden, … eerlijk gezegd vind ik dit niet zo’n goede ontwikkeling, al helemaal niet als je kiest voor services die enkel door Microsoft aangeboden worden.

[Reactie gewijzigd door klakkie.57th op 30 juli 2024 19:35]

Helemaal mee eens, helemaal als er een globale outtage is in een geo-redundante dienst als Azure Front door, daar wordt een 99,99% uptime op belooft..
De outage is niet alleen bezig in Europe het lijkt erop dat het andere landen ook getroffen zijn. Azure is erg laat met de status doorgeven.
Wij merkten de storing binnen de paar minuten op en er stond toen meteen al een melding op https://azure.status.microsoft/
Wij zagen rond 12:48 al problemen verschijnen maar konden intern niks vinden.
Ik kwam terug van lunch rond 13:00 en had er direct last van.
Inderdaad. In het gelinkte Reddit-draadje zie ik ook meldingen vanuit o.a. de VS. cc @Andrei Stiru
Jep, hier nog een ander reddit draadje. Same story, all over the place https://www.reddit.com/r/...efrhq8/azure_portal_down/
Dit kunnen alsnog 2 aparte issue’s zijn.

Europe - infrastructure frontdoor
Us- east/west Azure admin portal issue.
iedere minuut dat ze de status niet doorgeven is een minuut niet SLA's uitbetalen :D
Ik hoop dat je er blij mee bent. je krijgt een paar tientjes terug maar bent wel een halve dag "dead in the water"
Kortom, het geld dat je terug krijgt (tientjes) staat op geen enkle manier in verhouding tot de schade (tienduizenden euro's) die je hebt omdat er tientallen mensen aan het pingpongen zijn ipv werken.

[Reactie gewijzigd door Vogel666 op 30 juli 2024 16:26]

Tja, dat is het risico dat ze zelf zijn aan gegaan. Je kan alles ook in je eigen datacenter zetten, dan ben je niet afhankelijk van derde partijen, maar dan zijn wel weer alle kosten voor jezelf.
Ik denk dat de meeste bedrijven de afweging hebben gemaakt dat een halve dag zonder productie goedkoper is dan alles in eigen beheer hebben.
Ik ben bang dat ze die afweging nooit gemaakt hebben. Hoeveel verbaasde reacties ik twee weken geleden over de wereldeijde storing na het patch incident heb gezien is onvoorstelbaar groot. Men beseft nauwelijks de afhankelijk van derde partijen na de volledig cloud migratie.
Ik denk dat je ergens gelijk hebt.
Ik denk dat heel veel mensen zich niet realiseren hoe super afhankelijk ze zijn van het internet.
Of nog erger van elektriciteit.
Het is in Nederland nu nog héél goed gesteld met de energie voorziening.
Maar gezien de behoefte steeds meer stijgt en de diverse "groene" partijen en organisaties alle zinnige ontwikkelingen op dat gebied tegenhouden zullen we in de niet zo lange toekomst zeker tegen problemen aan gaan lopen wat dat betreft zodra Duitsland bijvoorbeeld niet meer extra bruinkolen centrales bij kan schakelen omdat ze ze allemaal al aan gezet hebben omdat die idioten de spiksplinternieuwe hypermoderne en super schone gas centrale in de Eemshaven niet in gebruik laten nemen.
Dat is natuurlijk geheel afhankelijk van de grootte van je bedrijf en de aard van je werkzaamheden.
Momenteel zit ik op een plaats waar stilstand 58.000 euro per uur kost.
Een etmaal stilstand kost waarschijnlijk meer dan het hele IT-infra jaarbudget.

En er is is ook serieuse aandacht voor "zo lang er stroom is moeten we kunnen kunnen draaien", maar door scopecreep en oneigelijk gebruik van software ontstaan er toch al gauw weer dependencies op externe diensten.
Gelukkig is er nog een andere die nog wel werkt:

https://azure.status.microsoft/nl-nl/status
https://allestoringen.nl/ geeft in mijn ervaring ook een goed beeld van de omvang van een storing, hoewel details daar niet zichtbaar zijn.
Ik vond het al zo vreemd dat de Minecraft/Xbox authentication servers het niet meer deden. Dat zal hier dan wel mee te maken hebben.
Ja idd. dacht ik ga wel naar huis toe want kan toch niets meer doen vandaag.
Moet nog wat documentatie bijwerken en screenshots hebben uit de Azure portal net voor mijn vakantie.
Maar helaas...

Toen zag ik dat xbox er ook eruit lag... dus dan blijf ik wel op kantoor in de airco en ga op tweakers zitten :P
Yep, net nu ik op een vrije dag aan mijn minecraft-server wilde gaan sleutelen. :+
Hopelijk snel opgelost.
Azure Portal lijkt weer te werken. Althans hier bij ons. :)
Je kunt inloggen, maar functionaliteit lijkt nog te moeten herstellen. Ik mis nogal wat resources <.<

[ed.] 10 minuutjes later, ik kan in ieder geval mijn Kubernetes clusters weer zien :-)

[Reactie gewijzigd door Keypunchie op 30 juli 2024 16:15]

Zo zie je dat een grote afhankelijkheid van het Azure portaal toch risico's kan hebben. Daarom geloof ik ook niet zo in end-to-end low code oplossingen en oplossingen die geheel als PowerApps worden gebouwd. Het heeft gewoon een te grote afhankelijkheid op een GUI die in de cloud wordt gehost. Ja, alle handmatige acties die via het portaal gedaan worden, zijn ook beschikbaar via de Azure CLI. Dus in theorie zou men ook die PowerApps in de lucht kunnen houden via de CLI, maar handig is het zeker niet.

Op het werk hebben bouwen wij geen low-code maar traditionele software. De Azure resources waar onze software op draait, zijn gewoon te beheren via de Azure CLI. Natuurlijk vind ik het wel vervelend dat het Azure portaal eruit ligt (want dit is vaak handiger dan CLI), maar in principe is mijn workflow niet verhinderd.
Eas niet alleen de portaal, ook intune.
Zelf heb ik sinds ongeveer 1 uur (kwam terug van lunch) moeite met inloggen op verschillende diensten van Microsoft. Ik heb vooral last bij het inloggen op Dynamics 365/Dataverse/Power Platform. Op één omgeving blijft mijn sessie overigens wel werken nadat ik een tabblad heb laten laden. Na verloop van tijd kwam ik toch binnen.
Je kan ze ook volgen op X: https://x.com/AzureSupport
en hun status page: https://azure.status.microsoft/status

[Reactie gewijzigd door r.and.r op 30 juli 2024 15:17]

Op dit item kan niet meer gereageerd worden.