Bijna. Paar kleine kanttekeningen. Wat je een AZ noemt is eigenlijk een Region. En een Region is weer onderverdeeld in losse AZ's. Heel simpel gezegd is een Region een DC of groep DC's dicht bij elkaar met razendsnelle interconnects (fiber van de operator zelf). Ieder AZ heeft vaak eigen stroom en networking/core-routers, en kan dus onafhankelijk van andere AZ's falen.
Bijvoorbeeld bij Google Cloud Platform heb je de Region eu-west4 (NL/Groningen) En daar zijn 3 AZ's: eu-west4-
a, eu-west4-
b, eu-west4-
c. Deze terminologie word ook bij Azure en AWS zo gebruikt. Een Region is overigens niet beperkt tot 3 AZ's. Bijvoorbeeld eu-west1 (BE/St. Ghislain) heeft 4 AZ's, dus ook een eu-west1-
d.
In de regel is het verstandig om je servers dus te verdelen onder de verschillende AZ's van een Region. Netwerk verkeer
binnen een Region is vaak erg goedkoop of zelfs gratis. Zo kan je meerdere servers clusteren zonder voor verkeer binnen je cluster te hoeven betalen. In principe zou je op die manier veilig moeten zijn voor dingen als brand en stukke uplinks.
Een multi-region setup is vaak moeielijker en complexer. Daar komen dingen als latency om de hoek kijken wat niet ideaal is in veel situaties.
Als ik het bericht van Micro$oft goed lees gaat het hier om stukke interconnect(s?) tussen verschillende AZ's binnen de West Europe Region. Dan is het vaak het best om de workload in de geisoleerde AZ uit te schakelen, zodat de andere twee AZ's door kunnen zonder blok aan het been. Echter, het bericht van MS is erg beknopt... Niet helemaal duidelijk welke lijnen/AZ's er nu precies stuk zijn..
AWS:
https://docs.aws.amazon.c...s-availability-zones.html
GCP:
https://cloud.google.com/compute/docs/regions-zones
Azure:
https://learn.microsoft.c...ailability-zones-overview