Microsoft brengt Azure Local voor lokale cloudomgevingen uit

Microsoft kondigt Azure Local aan, een gratis upgrade van Azure Stack HCI waarmee het mogelijk is om een lokale of hybride cloudinfrastructuur te gebruiken op basis van de Azure-software. Gebruikers kunnen via de Azure-portal en -api's eigen infrastructuur met de dienst combineren.

Volgens Microsoft ondersteunt de vernieuwde dienst onder het overkoepelende Azure Arc lokale compute, networking, opslag en applicatieservices. Het voordeel hiervan is dat bedrijven eigen hardware kunnen gebruiken in combinatie met de clouddienst van Microsoft. Het bedrijf schrijft dat het met andere woorden mogelijk wordt om 'fysieke machines te gebruiken als cloudsystemen'. Klanten kunnen met Azure Local de gebruikelijke virtualisatiefunctionaliteiten van Stack HCI zoals Azure Virtual Desktop blijven gebruiken. Microsoft belooft wel verbeterde beveiliging voor gedistribueerde locaties, onder meer met nieuwe beveiligingsinstellingen die standaard ingeschakeld zijn.

Verder noemt het bedrijf 'deployment, configuratie, het uitrollen van updates en het monitoren van aangesloten systemen' als voorbeelden van functionaliteiten die voortaan in een 'lokale cloudomgeving' uitgevoerd kunnen worden. Dit kan bijvoorbeeld nuttig zijn wanneer een traditionele cloudconfiguratie op een afgelegen fysieke locatie niet mogelijk is of wanneer het om een tijdelijk locatie gaat. Het bedrijf claimt dat deze oplossing de vereiste wegneemt van lokale werknemers op en aparte managementtools voor dergelijke locaties ten gunste van een gecentraliseerd IT-systeem.

Verder biedt Microsoft via de previewversie van Azure Migrate een manier aan waarop gebruikers bestaande virtuele machines kunnen migreren naar een nieuwe Azure Local-omgeving. Het bedrijf noemt nadrukkelijk het overstappen van VMware, omdat dat bedrijf sinds de overname door Broadcomm een aangepast prijs- en licentiebeleid voert. Microsoft zou alleen metadata over deze virtuele machines verwerken om de migratie mogelijk te maken.

Microsoft Azure LocalMicrosoft Azure LocalMicrosoft Azure Local

Door Yannick Spinner

Redacteur

21-11-2024 • 21:25

34

Submitter: Mapje

Reacties (34)

34
34
12
5
0
16
Wijzig sortering
@YannickSpinner de volgende titel past echt veel beter bij dit artikel “Microsoft hernoemt Azure Stack naar Azure Local, met verschillende verbeteringen”.

Nu klinkt het alsof ze iets nieuws uitbrengen, maar eigenlijk is het grootste nieuws dat het een andere naam krijgt
Ik snap je suggestie, maar wanneer is een nieuwe naam met verschillende verbeteringen een nieuw product? Daarom licht ik dat gelijk in de eerst zin toe!
Omdat dat minder (potentiële) lezers en/of bezoekers trekt? Het is zo dat journalistiek alang niet meer bestaat binnen de "grote" mediabedrijven. Een enkele uitzondering daargelaten. Dit moet je bij de onafhankelijke "media" zoeken met het risico op eenzijdig belichten van de situaties.
Dit kan al een tijdje en heette gewoon al Azure HCI stack. Je kon dit al op eigen servers en storage installeren.
Ze hebben het nu alleen hernoemd naar Azure local, en ja er zitten wel wat meer features bij en nog meer hardware op de hcl geplaatst.
Bijna goed, het was Azure Stack HCI.

Storage Spaces Direct ---> S2DRN---- > Azure Stack HCI ----> Azure Local
S2D is alleen het software defined storage dat onderdeel uitmaakt van Azure Stack HCI (Azure Local).

Het was (volgens mij) Azure Pack --> Azure Stack--> Azure Stack [HCI | Hub | edge] --> AZure local
Oftewel: we gaan weer servers onprem zetten? :+
Azure is in de praktijk echt veel meer dan "someone else's server". De toegevoegde waarde van tools zoals Application Insights, Service Bus of Azure Functions is in een on-prem situatie niet makkelijk of goedkoop op te zetten. Dat je dit nu makkelijker kunt uitrollen op je eigen hardware maakt wel duidelijk dat cloud computing niet enkel en alleen een computing resource is maar veel meer dan dat te bieden heeft.
Niet gemakkelijk of goedkoop. Dat is nogal een drogreden natuurlijk.

Bedrijven hebben bewust gekozen het personeel dat het beheer uitvoert lost te laten of elders in te zetten. Dat komt met het risico van afhankelijkheid, maar niks is eenvoudig. Ook het ontwikkelen van een correcte applicatie met je juiste metrics is een kunst. En laten we wel wezen, wat is je application insights meer dan bijvoorbeeld een prometheus stack met de juiste dashboards?

Ja microsoft heeft het gemakkelijk gemaakt voor 80-90% van alle zaken en die bieden ze redelijk goedkoop aan. Ik ben bijvoorbeeld bezig geweest om SOC/SIEM functionaliteit uit te zoeken, best betaalbaar voor de standaard zaken. Totdat je ineens een custom log wilt ingesten. Dan is ineens die laatste 5% verantwoordelijk voor 50% van de rekening.

IT is nooit gemakkelijk of goedkoop. Het is gewoon verplaatsen van kostenposten en de bijbehorende gevolgen (lees: de rekening) accepteren.
heb je al eens naar Wazuh gekeken?
Zeker en Wazuh is nog steeds een generieke XDR oplossing, De XDR zorgt voor de afhandeling op de host en rapporteert dat aan Wazuh. Dat is namelijk wat Azure ook doet en dat is rete goedkoop en werkt zelfs op Linux. Wazuh is in dat opzicht niks anders dat Azure of een default Prometheus, het waren slechts voorbeelden.

Maar alsnog een custom HAProxy logfile en daar AI detectie op doen van afwijkende patronen, dat gaat niet zomaar lukken. Ook Wazuh of elastic of welk product dan ook gaat gewoonweg tijd en geld kosten. Het is nooit gemakkelijk of goedkoop.

Ik haalde specifiek Azure aan omdat die echt schandalig duur worden zodra je custom dingen gaat doen.
Inderdaad steek je snel heel veel tijd in het goed werkend krijgen en houden. Zeker na een update was mijn wazuh cluster nogal eens stuk en kon ik weer een snapshot of backup terugzetten. Tijd die je niet kunt gebruiken om de gegevens en logs te analyseren.

Ik heb laatst de training van ze gevolgd en ook daar gezien hoe krachtig het is.
De Microsoft SIEM oplossing leek me ook wat wat maar vooraf willen we graag weten wat dit zou gaan kosten. Dan kun je pas weten als je weet hoe groot je logs zijn. En dat weet je pas als je alles gaat loggen en er dan achter komt wát je allemaal kunt en wilt loggen.

Dan is Wazuh voor ons een goede oplossing die wel veel tijd kost en een hoge leercurve heeft
Met Azure knoop je jezelf helemaal op en ben je overgeleverd aan de grillen van Microsoft. Leuk als het werkt maar als het fout gaat dan heb je een probleem. De configuratie is complex en foutgevoelig. Er wordt geklaagd over de Temu app maar realiseren mensen zich wel wat je uitwisselt met Microsoft?
Dit is een dooddoener. Het maakt niet uit welke stack je kiest, Azure, Kubernetes, onprem, andere cloud aanbieder of je eigen meterkast, iedere keuze die je maakt, is jezelf vastknopen in die keuze. Ook als je kiest voor opensource software, want daar ben je ook gewoon overgeleverd aan de grillen van een community en de kartrekkers binnen die community.

Want je stack ergens deployen betekent ook gewoon dat je infra-as-code daar aan hangt, je applicaties vast zitten aan specifieke libraries/abstracties en je software op een bepaalde manier draait.

Allemaal keuzes die de dag-tot-dag operaties beïnvloeden. Zolang de keuze die je maakt weloverwogen is en je begrijpt welke tradeoffs je keuzes met zich mee brengen is het allemaal geen probleem.

Azure is een pracht product, Microsoft over het algemeen een betrouwbare partner* en ondanks dat een cloud platform duurder is dan zelf hosten, is een keuze voor Azure voor veel ondernemingen prima.

* Er zijn vast situaties te vinden/bedenken waar Microsoft zich van haar minder goede kant liet zien.
Dit is een dooddoener. Het maakt niet uit welke stack je kiest, Azure, Kubernetes, onprem, andere cloud aanbieder of je eigen meterkast, iedere keuze die je maakt, is jezelf vastknopen in die keuze. Ook als je kiest voor opensource software, want daar ben je ook gewoon overgeleverd aan de grillen van een community en de kartrekkers binnen die community.

Want je stack ergens deployen betekent ook gewoon dat je infra-as-code daar aan hangt, je applicaties vast zitten aan specifieke libraries/abstracties en je software op een bepaalde manier draait.

Allemaal keuzes die de dag-tot-dag operaties beïnvloeden. Zolang de keuze die je maakt weloverwogen is en je begrijpt welke tradeoffs je keuzes met zich mee brengen is het allemaal geen probleem.

Azure is een pracht product, Microsoft over het algemeen een betrouwbare partner* en ondanks dat een cloud platform duurder is dan zelf hosten, is een keuze voor Azure voor veel ondernemingen prima.

* Er zijn vast situaties te vinden/bedenken waar Microsoft zich van haar minder goede kant liet zien.
Ben het met je opmerking over Open Source deels niet eens. Een bedrijf als Microsoft kan van de één op de andere dag besluiten om functionaliteit uit te zetten. Beruchter is Google, maar alle grote jongens kunnen er wat van. Met een eigen implementatie heb je hogere onderhoudskosten dan met een public cloud, dus niet voor iedereen te dragen. Maar met Open Source worden die (ontwikkel)kosten toch weer gedeeld. En wanneer de leiders/kartrekkers in de stack een bepaalde richting op gaan (dit gaat al democratischer dan gewoon de the will of a company zoals Microsoft), heb je altijd nog de keuze om te forken en in je eentje of een gelijkgestemde groep verder te gaan met dus een afsplitsing.
Er bestaan niet voor niets meerdere Open Source cloud oplossingen.
Vergelijkbaar met de meeste cloud oplossingen toch? Onpremise heb je alleen iets meer personeel nodig maar ook weer niet zo heel veel
Dat zou ik niet zeggen. Het hangt zoals het artikel aangeeft af voor welke usecases bepaalde workloads wilt draaien. Voor usecases waarbij je dus op edge/on prem locaties wilt zitten door connectiviteit, compliancy, ... enz, is dit handig. En natuurlijk als je al Azure klant bent, je gewoon alles in één omgeving kunt managen. AWS heeft ook zoiets gelijkaardigs.

[Reactie gewijzigd door SilkensJ op 21 november 2024 21:40]

Ben zelf begonnen met omachakelen naar Proxmox. Daar nu ook software voor gevonden die VMs en containers automatisch in- of uitschakelen, indien deze te lang 'stationair draaien'. Wat te lng is, kun je zelf instellen. En als VM's containers te lang te hoog worden belast, worden er automatisch nieuwe instances gestart om de te hoge belasting af te vangen.

Zo'n beetje alle "goodness" van de cloud, maar dan on-prem.

Nu ben ik ook bijna klaar met alle Windows servers om te zetten naar Linux servers, waar dat ook maar enigzins mogelijk was. Apart netwerk aangelegd om alle Proxmox nodes aan PBS te hangen. Automatisch maken/ terugspoelen van containers, VMs, templates en datagaat nu behoorlijk rap, zonder het normale netwerk of diensten te verstoren. Iets waar ik nu achter ben dat ik dat al veel eerder had moeten doen.

En omdat bijna alles nu naar Linux is omgezet, is de tijd benodigd voor onderhoud ook behoorlijk omlaag gegaan. Ja, zonder slag of stoot is het zeker niet gedaan, maar nu ben ik wel een stuk wijzer en dat beschouw ik toch echt als een 'core functie' welke dus niet uitbesteed hoeft te worden.

Zal maar ophouden voor ik helemaal ga zitten "ranten" en eindigen met: Latency van on-prem is mij te lief.
Zo'n beetje alle "goodness" van de cloud, maar dan on-prem.
Geen waardeoordeel over je setup en plannen (want daar is geen oordeel over te vellen gezien iedere use case anders is) maar je benoemt vooral de "goodness" van containerization en/of hyperscaling. "Goodness" van cloud zit hem (naar mijn mening) vooral in de globale infrastructuur, simpele scalability (als in hardware) en outsourcing van 24/7 monitoring et cetera (zoals een NOC).
Microsoft probeert zo nog meer in het gat te springen dat Broadcom achterlaat met hun overname van VMware. Het is verder een rebrand van Azure HCI stack, maar dat is Microsoft die hun Azure producten moet en zal blijven hernoemen totdat niemand het meer begrijpt. :P
Maar in dit geval is het wel een goede omdat Azure HCI behoorlijk niks zeggend was voor velen.

Uiteindelijk past dit allemaal bij waar Microsoft mee bezig is. Ze zijn namelijk stap voor stap bezig om het oude AD en de geassocieerde on prem tooling, te vervangen voor Azure gebaseerde tooling. Dat gaat ook al jaren verder dan alles en iedereen in de Azure cloud krijgen voor al hun workloads, opslag etc. Daarmee spelen ze gewoon in op de markt. Want er zijn per business case, valide redenen te geven om on prem te blijven, hybride te gaan of volledig naar cloud oplossingen te gaan. En zo kan Microsoft een platform bouwen waarmee je dit allemaal kan. Dit naast de hele M365 omgeving met je Intune, Entra ID, Purview, Defender XDR etc.
Kan je hiermee ook makkelijk lokaal LDAP draaien als je verder alleen Azure AD/Entra gebruikt?
Wat houd je tegen om een Linux vm er op te zetten en daar LDAP op te installeren?
Doet me een beetje denken - al is het niet geheel gelijk eraan - aan AWS Outposts, maar dan dat je het op eigen hardware draait.
Hahaha en terug naar af :)
Het meerendeel van DDoS en brute-force attempts komt van o.a. Azure en AWS servers. Blokkeer er dagelijks (naast automatisch) handmatig behoorlijk wat. Ondertussen ook complete ranges. Ze laten echt iedereen toe op hun servers bij die partijen. Ach ja...
Denk dat organisaties die gerubriceerde informatie verwerken, een on prem cloud wel kunnen gebruiken.
Vraag mij dan alleen af hoeveel meer of minder werk het is, in vergelijken met een eigen on prem datacenter. Hoe zit het met support? Moet je zelf disks gaan vervangen?

[Reactie gewijzigd door narimantos op 22 november 2024 03:09]

De hardware onderhoud je nog steeds zelf, de software beheer je via azure.
Weet iemand wat/hoe de kosten hiervoor ongeveer zijn? Als de kosten hiervoor lager zijn dan die van Broadcom dan lijkt me dit best handig voor die klanten die volledig naar de cloud kunnen op een paar kleine VM's na die nog lokaal moeten draaien.
https://azure.microsoft.c...cing/details/azure-local/

Oftewel, het kan al voor de kost van een Windows server licentie met software assurance die je misschien nog hebt.
Maar dan had je al Azure Arc waarmee je een eigen beheerde server (of VM) aan Azure kunt koppelen. Dat kost zoveel als de software installeren en opzetten.

Op dit item kan niet meer gereageerd worden.