Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 136 reacties
Submitter: ventilatorr

Tal van Microsofts Azure-diensten hebben vrijdag te maken met een grote storing in grote delen van Europa. Microsoft heeft de storing weten te herleiden tot netwerkproblemen en aanpassingen doorgevoerd die verbeteringen moeten brengen.

Microsoft AzureDe storingen concentreren zich in West-Europa, maar ook zijn sommige Azure-diensten in Noord-Europa niet bereikbaar. Het gaat volgens de statuspagina in West-Europa om SQL Database, Visual Studio Team Services, Web Apps, Virtual Machines, Cloud Services, HD Insight, Redis Cache, Service Bus, Azure Search en Document DB. In Noord-Europa zijn het Web Apps, Cloud Services, SQL Database en Virtual Machines die niet, of slecht bereikbaar zijn.

Andere onderdelen van Azure, zoals die voor netwerken, opslag en mobiel, zijn niet getroffen door de problemen. De ontwikkelaars van Microsoft hebben configuratiewijzigingen doorgevoerd om de netwerkproblemen op te lossen en volgens het bedrijf is er verbetering zichtbaar, maar wanneer de Azure-problemen volledig verholpen zijn, meldt het bedrijf nog niet.

Enkele diensten van andere bedrijven zijn onbereikbaar door de Azure-storing. Onder andere kunnen gebruikers van T-Mobiles Knippr-tv-dienst niet inloggen omdat die dienst op Azure draait.

Update, 21.40: De storing is vrijwel verholpen, volgens de statuspagina. Alleen Visual Studio Team Services lijkt nog hinder te ondervinden.

Moderatie-faq Wijzig weergave

Reacties (136)

Sinds circa 20:20 zou er een work-around moeten zijn waardoor het weer werkt, voor iig de meeste diensten:
We have validated that the issues experienced by customers using App Service \ Web Apps, Visual Studio Team Services, Virtual Machines, SQL Database, Service Bus, Redis Cache, Media Services, HDInsight, DocumentDB, Data Catalog, Cloud Services, Azure Search and Automation in North Europe and West Europe are mitigated. <Call to Action>. Our Engineering teams are working to gather additional details on the preliminary root cause before this incident is resolved. An update will be provided within 30 minutes.
Zie de statuspainga: https://azure.microsoft.com/nl-nl/status/

Edit: mijn eigen servers, die ook problemen hadden, lijken het idd weerr te doen, heowel de data-throughput nog wel minder is dan gebruikelijk, is de functionaliteit er wel weer.

[Reactie gewijzigd door wildhagen op 9 september 2016 20:31]

De storing was op mijn werk rond 19:00 alweer opgelost. Uiteindelijk dik 2 uur lang een storing gehad. Aantal RDS-servers hadden nog een storing, maar dat gefixed met een reboot (ook het advies van het Microsoft Azure Technical Support Team )
The Azure Status web page indicates that the issue has been identified and a change has been put in place that has started to provide relief. If you are still experiencing the issue we recommend restarting the services, this will fix the problem. If you are still experiencing the issue please let us know.
Niemand zich er van bewust dat Azure alleen redundantie garandeert als je server minimaal uit een 2-node cluster bestaat?

Lees maar eens in de voorwaardes van Azure.

https://azure.microsoft.c...dows-manage-availability/

[Reactie gewijzigd door marcackema op 9 september 2016 20:47]

Klopt, maar als je.webapp redundant in north en west europe stond , had je kans dat ze beide down waren.
Was bij ons idd het geval.
Een aantal producten waren echt down, maar meeste producten hadden last van zeer tijdelijke interne connectie issues. Dus App service naar SQL of Redis bijvoorbeeld.

Van buiten waren alle producten wel nog gewoon bereikbaar alleen met veel foutmeldingen.

[Reactie gewijzigd door master.fean op 10 september 2016 15:48]

Tja de cloud... fancy naam voor een (virtuele) server in een datacenter.

Toen men 10 jaar geleden met "de cloud" op de proppen kwam had ik toch eerder een beeld van een dienst waarbij je data wereldwijd gedecenstraliseerd wordt en er complete redundancy / failover voorzien is. Dat zijn de meeste cloud diensten niet.
Je moet appels niet met peren vergelijken, Azure, aws, Google cloud zijn echt wel meer dan een virtuele server (zoals bij versio, strato etc.). Je kunt load balancen, machine schaalsets, redundantie onbeperkt schalen etc.

Alleen zoals polarbear al zegt je moet het wel goed implementeren anders werkt het niet naar behoren nee.

Edit auto correct

[Reactie gewijzigd door Sander_Aerts op 9 september 2016 21:46]

Azure, aws, Google cloud zijn echt wel meer dan een virtuele server (zoals bij versio, strato etc.). Je kunt load balancen, machine schaalsets, redundantie onbeperkt schalen etc.
En ondanks hoe geweldig het is ligt het er nogsteeds soms uit. En dan niet n of twee servers van n klant, maar gewoon duizenden servers die in gebruik zijn door heel veel klanten.

Ik zie exht wel heartbreaker nut hier van in, maar het is niet de heilige graal. Als al die klanten zelf servers hadden draaien waren ze nooit allemaal tegelijk getroffen. Of je dienst er nu uit ligt bij jezelf of bij microsoft, eind resultaat is hetzelfde.
Onzin, heeft gewoon met configuratie te maken als jij redundantie uitvoert met primary Europa en secondary bijvoorbeeld usa moeten er wel hele vreemde dingen gebeuren wil je plat gaan.

In jou voorbeeld kan het ook mis gaan, als je namelijk eigen servers hebt en maar n internet toegangs provider (bijvoorbeeld van je colo boer) en die maakt een configuratie fout of slopen per ongeluk iets is ook alles plat. En inderdaad kun je redundant maken door meerdere backbone providers etc. Maar dat gaat aardig in de papieren lopen.
Exact dit. Het kost alleen wat meer knaken, maar blijkbaar is het echt heel erg belangrijk om altijd, letterlijk altijd, bereikbaar te zijn. Want wat als er een bom valt ergens? Dan gaat men niet zomaar dat datacentre "repareren" in een uurtje.

Daarbij is er gewoon een SLA voor hen die het belangrijk achten. De normale variant is hiermee niet verbroken en voor de dure variant van bijna letterlijk 100% zorgt er al voor dat je georedundant bent en dit probleem niet had.

Dus baal je hiervan of heb je schade geleden, dan had je van tevoren maar een betere SLA moeren afsluiten. Zo niet, dan zal het zo belangrijk niet zijn. Let wel dat dit nu nog steeds een beetje bemoeilijkt kan worden in geval van het "verlaten" van data buiten de EU...
Een grotere SLA maakt techniek niet stabieler, het opent hoogstens een telefoonnummer voor extra support en vergoed wat kosten bij downtime...
"wat kosten" kan bij bedrijven oplopen tot tienduizenden euro's per uur :+
En welk bedrijf wacht er op een schadevergoeding?

Je wilt 'gewoon' dat de IT omgeving lekker draait, en daar heb je als bedrijf een som geld voor over. Wanneer deze down is, is een schadevergoeding het laatste waar je als bedrijf aan denkt.

Dat is ook het grote probleem bij SLA's, je krijgt vaak exact waar je voor betaald. 4 uur response SLA? krijg je na 3,5 uur een belletje dat men 'er mee bezig is'..

Ik denk dat je beter af bent met een partij die de zaak serieus neemt op basis van Best Effort, dan bij een partij die van alles belooft en bij een storing een bedrag(je) terugstort. (KPN, ik kijk naar jou!)
Maar bij een SLA met boetes gaat de leverancier wel zijn systeem opbouwen op een manier om downtime te voorkomen op welke manier dan ook, als er geen SLA is met boetes kunnen ze doen wat ze willen want er zijn toch geen gevolgen

Bij mij op het werk ook, wil de klant 99,5%+ uptime en 99,5%+ scangarantie RFID? Ok maar dan word je opstelling een stuk duurder want we gaan voor alles een backup failsafe inbouwen
Cloud is wel veel meer als een "server in een datacenter".
Ja je kan er gewoon virtuele servers draaien maar ook veel meer.

Een SQL Server beheren komt veel bij kijken. En een gemiddelde developer kan dit echt niet zelf en dan bied Azure SQL (of hoe het ook noemt) hier een oplossing voor.

Ook web apps e.d. zorgen ervoor dat je eenvoudig cross region kan draaiien zonder dat je hier veel van servers moet kennen.
Dat kan, maar de meeste mensen willen niet betalen voor zoveel redundantie. Toch hebben diensten als S3 dat waar gemaakt, in ieder geval voor object storage, voor een heel schappelijke prijs. Hopelijk zullen ontwikkelingen als containerization en 'serverless' computing ons dichter bij dit ideaal brengen.
Wereldwijd is voor veel bedrijven sowieso geen optie. Die willen of mogen data helemaal niet zomaar ergens ter wereld hebben staan.
Tja, jij hebt het niet begrepen. Cloud is niet een virtuele server in een datacenter. Het kan het zijn. Maar het kan ook een wereldwijd redundante oplossing zijn. Het is alleen geen magic bullet. Net zoals multi-cores niet automatisch programma's sneller maken, daarvoor moet je programma's goed programmeren. Zo is het met cloud oplossingen net zo.
Het ligt er maar net aan hoe je het configureert, bij azure heb je de mogelijkheid om een dienst af te nemen zonder redundancy, maar ook de keuze om het zo reduntant als je zelf wilt in te stellen. Het ligt dus maar net aan de eisen, en eventueel de kennis van de programmeur.
Al mijn Azure servers zijn gewoon bereikbaar, ook niet offline geweest. Staan ook in West Europa, heb ik geluk denk :)
In het licht van dit bericht lijkt het logo net een wolk met een thermometer in zijn kont haha :)
Handig hoor de cloud.... Local storage helemaal zo gek nog niet :P
Alsof local storage nooit problemen heeft?

Elk stuk techniek heeft wel eens problemen. Cloud is geen wondermiddel, maar local storage is dat evenmin.

We moeten het wel even in perspectief blijven zien, het is niet alsof door deze storing het einder der tijden nabij is oid.
het verschil is dat je als je zelf een server draait er zelf ( alles ) aan kan doen !!!

probeer maar eens iemand te bellen als je wat geks heb met azure ....
het verschil is dat je als je zelf een server draait er zelf ( alles ) aan kan doen !!!
Ook maar tot op zekere hoogte. Je hebt dan nog altijd afhankelijkheden van 3e partijen (hardware-ondersteuning door leveranciers, ISP's, energie-leveranciers etc).

En je bent met local storage aanzienlijk minder flexibel dan met een cloud oplossing (of dat nu Azure of een andere partij is).
probeer maar eens iemand te bellen als je wat geks heb met azure ....
Dat kan gewoon prima hoor, Azure heeft ook prima support. Zie https://azure.microsoft.com/nl-nl/support/plans/

Uiteraard is een en ander wel afhankelijk van het type contract dat je met ze hebt, maar ook dat heb je bij local hosting net zo goed (denk aan SBD vs NBD, SLA vs Best Effort etc).

[Reactie gewijzigd door wildhagen op 9 september 2016 20:13]

ik bouw mijn servers zelf, ik rol ze uit .

en een HDD er bij of migreren naar grotere zijn dingen die ik allemaal in eigen beheer kan doen. VM is een migratie naar een nieuwe server een fluitje van een cent

moet je zien wat je betaald per maand is toch hoger wat ict bedrijven vragen.

en ik zit er toch al dus waarom anderen betalen terwijl ik het zelf kan. wat ik wel merk dat bedrijven zich rijk rekenen door ict FTE te halveren maar dan is er niemand die echt gedegen beslissingen kan nemen, en krijgt iemand van de staf die wel een printertje kan installeren het in de mik geschoven.


mijn spul gaat alleen plat als langere tijd de stroom uitvalt. .
en jij kan morgen van 2 servers naar 10? En de week daarna terug naar 4? Wat ga je dan doen met je zelf gebouwde servers? Ben je dan nog goedkoper uit?

Jij hebt dit misschien niet nodig, maar anderen wel.
als ik dat zou moeten wat een bizar scenario is , dan verwacht ik dat ik ook het nodige budget krijg en ook wat tijd. en geen enkel normaal functionerend bedrijf doet dat, als er uitgebreid word of een ander bedrijf over genomen ga je toch eerst daar kijken voor je maar iets doet. en dan kan je wel tegen je directie vertellen wat realistisch is en wat niet

maar goed een beetje beheerder wil toch zelf de touwtjes in de hand houden ?
Ik werk voor een bedrijf waar we een hybride oplossing hebben, de Azure omgeving is gewoon onderdeel van het interne bedrijfsnetwerk. Goed, dat vereist investeren in dedicated lines vanuit je bedrijf, maar het is een kostenafweging; hierdoor kun je af van een lokale Hyper-V omgeving. Zoiets vervangen / opschalen kost ook wat meer dan een paar duizend euro.

Voor testdoeleinden heb ik m'n VMs nu dus voornamelijk in Azure en je kunt er leuke dingen mee doen. Even nieuwe hardware onder je VM schuiven bijvoorbeeld om te kijken wat het effect van hardware op bepaalde SQL / ETL stukken is....wat doet 2 vs. 4 vs 8 cores? Wat doe SSD vs HDD? En maakt processor speed nog uit (hierin wat beperktere mogelijkheden, 2.4 GHz vs 3.2 GHz)?

Daarnaast heb ik voor bepaalde testen soms op korte termijn 3-5 servers nodig, vaak voor een paar dagen. Dan is de flexibiliteit die Azure en soortgelijke platformen bieden echt nuttig.

Je moet natuurlijk wel nadenken over de core systems...helemaal niets lokaal is wellicht goedkoop, maar als je provider of de cloud provider er uit ligt, kan niemand meer wat en dat kost ook geld.

Aan de andere kant is het voor een gemiddeld bedrijf niet te doen om web-diensten aan klanten te leveren vanaf zelf gehoste / lokale servers en daarnaast is het doorgaans vele malen minder betrouwbaar dan die servers in de cloud te parkeren. Op zulke servers zet je geo-replication aan en dat betekent dan dat de cloud provider er voor zorgt dat de backups van zo'n server op 3 continenten staan (en per continent in 3 data-centers). Zo'n mate van bedrijfszekerheid kan het gemiddelde bedrijf nooit bieden.
Je hebt gelijk maar zoals het gemiddelde bedrijf on-premise niet aan georeplicatie doet, doen ze dat ook niet in de cloud.
En hoe je het nu ook draait of keert door deze panne heeft mijn eigen DC dus een hogere uptime dan Azure in de EU.
Wij draaien alles in een private virtual cloud binnen ons bedrijf (+-50 SAAS servers op verschillende continenten). De cloud is echt een verademing. Binnen een aantal minuten heb ik een server online of offline bij bv. Rackspace of Amazon. Moet er niet aan denken dat ik zelf moet gaan bouwen & onderhouden. Onmogelijk om dit global te doen, en het is zeer zeker niet voordeliger.
tsja,

weet niet welk platform je gebruikt, maar dit is op eigen/gehuurde HW net zo / snel te realiseren.

je moet de cloud gebruiken waar het goed voor is :
schaalbaarheid, test omgeving etc

vanaf het moment dat je meer dan 20.000 euro p/m uitgeeft aan een cloud solution, dan kun je zelf / dan wel kopen, dan wel huren ( CAPEX/OPEX) hetzelfde realiseren.

waar cloud dan wel weer handig voor is , is om verantwoordelijkheid af te schuiven, en helaas word dit door het gemiddelde middle management maar al te graag gedaan.
Kijk naar Apple die een nieuwe iPhone uitbrengt, piek load eerste dagen, daarna zakt het af.

In de cloud koop je in op minimale inzet en schaalt op wanneer nodig. Dit kan door de dag heen. Jij moet inkopen op piekbelasting, de rest van de tijd is idle, maar wel afschrijving.

Er zijn heel veel scenario's waardoor cloud of hybrid dan goedkoper is.
ik vraag of goedkoper altijd te prefereren is.

je legt de kern van je bedrijf in handen van derden, we weten allemaal hoe Amerikaanse bedrijven omgaan met privacy vooral die van ons.

en laten ze dan mensen de keuze geven een azure cloud editie en een klassieke sbs.

cloud is handig voor bepaalde oplossingen maar niet een alles bedekkend verhaal.
hoor en zie toch bedrijven toch weer de cloud uit gaan omdat het toch duurder bleek dan voorgeschoteld.
als ik dat zou moeten wat een bizar scenario is
Waarom vind je dat een bizar scenario?

Als ik een reclame-campagne lanceer voor n of twee weken die extra load genereert, wil ik alleen die twee weken extra capaciteit.

Zelfde voor bijvoorbeeld een iPhone lancering bij telecom providers, dit genereert korte tijd heel veel load op de shops, maar je wil niet het hele jaar voor die capaciteit betalen.

En zo kan ik nog wel een aantal voorbeelden bedenken (ook zaken die buiten je macht liggen bijvoorbeeld).

Dus nee, dit zijn zeker geen bizarre scenario's en ja, normale bedrijven hebben dit soort situaties heel vaak.

Vergeet niet dat in de cloud alles wordt afgerekend op daadwerkelijk gebruik.

Dat is nu juist n van de voordelen van cloud: alleen betalen wat je gebruikt en flexibele capaciteit. Uiteraard kun je dat ook on-premise inregelen, maar daar wordt het niet per s goedkoper of betrouwbaarder van.
Ik ben het helemaal met je eens. Natuurlijk is cloud best wel geschikt voor sommige zaken maar het is en blijft gedeelte infrastructuur waar je totaal geen controle over hebt.
Dit is het grootste no argument wat er gebruikt wordt. Hoeveel bedrijven hebben daadwerkelijk usecases waarbij je enkele dagen / uren een flink aantal servers nodig hebt, en deze toch weer zo generiek zijn dat de/een cloud een oplossing kan bieden.

Zo heeft bijna elke cloud omgeving belabberde IO, waardoor voor zaken als rendering en compiling locale servers zich alsnog snel terugverdienen.

Het tweede vaak aangedragen punt is beheer. Terwijl je nog steeds een evengrote stapel machines beheerd....
Hoeveel bedrijven hebben daadwerkelijk usecases waarbij je enkele dagen / uren een flink aantal servers nodig hebt, en deze toch weer zo generiek zijn dat de/een cloud een oplossing kan bieden.
Ik heb dit als developer toch meer dan regelmatig gezien, met name dat je in de piekuren 's avonds misschien 4 servers draait en de rest van de dag 2. Extreemste voorbeeld wat ik in praktijk heb ervaren is de hele week met 2 micro-servers draaien en 2 uur per week tijdens uitzending van de TV-show draaien er 20 met hogere capaciteit, direct na de show weer terug.
Zo heeft bijna elke cloud omgeving belabberde IO, waardoor voor zaken als rendering en compiling locale servers zich alsnog snel terugverdienen.
Dan ben je denk ik niet op de hoogte wat er in cloud allemaal verkrijgbaar is denk ik ;)
Nee, bedrijven nemen allemaal een kortzichtig besluit en betalen veel te veel, gewoon omdat het kan.

Voor veel MKB is het gewoon niet rendabel om personeel aan te nemen voor een paar servers. Cloud is dan veel goedkoper.
Jep, dat kan jij allemaal vast prima doen... totdat jij wegvalt, en wat heeft de klant dan nog? Azure, AWS, etc, biedt de omgeving die (nagenoeg) altijd draait, wordt onderhouden, etc. En ik durf te verwedden dat de downtime op jaarbasis bij zulke diensten lager is dan bij de gemiddelde IT service aanbieder.
als ik op vakantie ben of ziek, heb ik een bedrijf onder de knop die me grotendeels kan vervangen, heb de boel gedocumenteerd.

die clouds kunnen best een goede uptime hebben maar ik zo zie hoe vaak landelijk internet eruit ligt, kan je cloud niet in.
maar op de zaak kunnen ze rustig de administratie blijven doen, en dingen die al binnen zijn verwerken, en als internet het weer doet word alles verstuurd en ontvangen
maar ik zo zie hoe vaak landelijk internet eruit ligt, kan je cloud niet in
Hoevaak is dat dan precies volgens jou? En daarmee stopt lokale software toch niet ineens met draaien? Of ga je er nu vanuit dat iemand die AWS gebruikt 100% cloud services gebruikt voor _alles_ binnen z'n bedrijf? Appels met peren in dat geval ;)
Zodra je in Azure, AWS, etc zit heb je geen beheerders meer nodig?
prima is een groot woord.. wij hebben Premier Support en moeten vaak een dag wachten op antwoord, waarbij ze ook vaak het ticket sluiten zonder enige reden op te geven.
Premier support hierzo en na een week nog geen afdoend antwoord over ern certificaat issue.
On prem was dit na 2minuten opgelost geweest :(
Apart, ik krijg meestal of dezelfde dag en anders de volgende ochtend uiterlijk afhankelijk van tijdstip van ticket altijd direct antwoord. Bij O365 wordt ik zelfs altijd gebeld bij moeilijke vraagstukken.
Microsoft biedt genoeg opties om je spullenboel redundant te hebben/houden, maar je moet daarvoor wel hogere kosten over hebben (die best te overzien zijn). Public Cloud is geen heilige graal. Sommige bedrijven die ik ken lijken dat wel zo te zien... tja, dom! Het is mooi spul (al vind ik Amazon persoonlijk beter), maar ook daar kunnen ze geen 100% up-time garanderen. Dat kan niemand... Google niet, Microsoft niet, Amazon niet...

Techniek kent zo nu en dan storingen. Ook met infrastructure as code kun je het niet voorkomen, wel verminderen (mits je het goed doet natuurlijk ;) ).
De opties die microsoft biedt, namelijk multi region, hadden je niet gered. Diensten in zowel euro west als north hadden problemen.

Ik denk dat ze wat uit te leggen hebben....
Dat sowieso, en ik snap dat het in dit geval niet had geholpen. Echter is het niet zo dat storingen altijd voor down time zullen zorgen :). Ze hebben zeker wat uit te leggen, maar ik verwacht dat ze dat ook wel zullen doen. Mogelijk zelfs een kleine vergoeding.
Ja, en 100% uptime garanderen ze sowieso niet.
Een multi vendor strategie is zo gek nog niet. Alhoewel dat wel lastiger wordt naarmate je meer cloud services gebruikt. Zowel microsoft als amazon doen hard hun best je een vendor lock in te zuigen.

In elk geval is het easy om in elk geval je backup bij twee vendors te hebben staan. S3 en Ms blob storage.
Met Windows Server 2016 is het mogelijk een hybride oplossing met Azure op te zetten, waarbij local het kan overnemen wanneer cloud er uit ligt en vice versa. Geen goedkope oplossing, maar dat is Azure en Amazon naast elkaar waarschijnlijk ook niet.
Maar windows2016 is er vooralsnog nog niet. Hopelijk komt er nu gauw een release
Je kan gewoon Microsoft bellen op dat punt.
En jij doet het gratis, vrijdagavond om halft acht
Hangt er van af, ben jij goedkoper wanneer je aan de telefoon hangt dan wanneer je een server repareert? Ik niet...
Voor onze klant is het gratis ja.... Voor mijn werkgever verre van ;-)
Dan bel je met je service manager 😊
Wij hebben alles in azure draaien en ik heb niets voor het oplossen van dit probleem hoeven doen. Als er hardware stuk gaat zal ik het ook niet eens merken en hoef niet eens na te denken over backups.
Daarom zijn er SLA's dan weet je het wel en ik moet zeggen dat Microsoft heel netjes omgaat met service requests
Dat werkt ook omgekeerd. Azure heeft vele experts in dienst voor elk deel van hun infrastructuur, in meerdere tijdzones. Daar kan ik in mijn eentje niet tegenop. Al helemaal niet als mijn productie-omgeving raar doet terwijl ik in een tentje op de camping lig.
Maar je snapt toch ook wel dat niet ieder bedrijf specialisten in dienst kan nemen hiervoor. Met als gevolg dat iemand met een abonnement op een PC tijdschrift tot ICT-er wordt benoemd....

[Reactie gewijzigd door GJvdZ op 9 september 2016 21:59]

Wat een onzin is dit... Jij denkt over meer kennis en kunde te beschikken dan een heel team van Microsoft engineers? Ik weet verder niet hoe bedrijfskritisch die server van jou is, maar als je ziek bent / op vakantie bent / tegen een boom aan rijdt, wie neemt dan van jou het stokje over?
een beetje bedrijf heeft natuurlijk een IT departement en overeenkomsten met externe consultants in geval van calamiteiten.

eerst gaat de laptop tas in de auto , en vervolgens vrouw en kinderen ( in die volgorde )
Vakantie als ITer heb je vooralsnog gewoon niet. :)

[Reactie gewijzigd door klakkie.57th op 9 september 2016 23:20]

De vraag is natuurlijk even wat een 'beetje bedrijf' is. Is dat vanaf 10 man? 25 man of 100 man? Ik heb bij bedrijven gewerkt met 20 man personeel en snap nog steeds niet wat die systeembeheerder de hele dag had te doen. Hij was vooral bezig met 'druk doen'.
Vanaf 250 personeelsleden ben je een beetje bedrijf. Als onder de 250 is een KMO :)
Ik heb misschien niet meer kennis dan een MS team in het algemeen. Wel heb ik een stuk meer kennis van de business waar wij in zitten, en de infrastructuur die daar voor nodig is.

Zo weet ik dat er diensten zijn die bij een storing asap weer in de lucht moeten zijn, en andere diensten kunnen wachten. Hier kan ik op acteren, en een Microsoft niet.

(Daarnaast zal het beheren van een global cloud ietswat lastiger zijn dan een HA omgeving over een tweetal datacenters, wat ik nu onder mijn hoede heb)
Dit soort engineers heeft natuurlijk niet NT4 bedacht, evenals W2k en W2k3...
de zelfde engineers die ooit NT4 bedachten en W2k en W2k3 en kan me 2012 SBS voor servicepack 1 ook wel herinneren.
De laatste SBS versie is 2011 en daarna is SBS een stille dood gestorven.
je heb ook een 2012 sbs was niet echt geweldig pas na servicepacks en dan nog moet je dealen met die win 8.x interface en dat op een server...
Geef eens een link, want ik geloof er niets van.
Err, local storage bedoelt hij wellicht gewoon in je eigen bedrijf mee en ben ik het mee eens.

Heb zelf een volledig HA en redundant cluster draaien welke echt al 4 jaar niet plat ging, dat over meerdere locaties replicated... en ik ben zeker meer in de wolken dan een cloudservice :)
Mag ik vragen waarom HA (ik neem aan MSSQL)? Ik kom HA niet veel tegen in onze klantenkring, heb er op het werk ook geen noodzaak voor, maar heb het al een tijdje virtueel draaien "voor het geval dat" en om er ervaring mee op te doen.

Ik bedoel het dus meer als in, zijn je databases dan zo belangrijk dat ze echt absoluut ten alle tijden beschikbaar moeten zijn? Of gebruik je het ook als performance verbetering door de reads over de servers te spreiden.

Want dat kost nogal wat natuurlijk om dat overal en nergens te repliceren & de SQL licenties zijn ook niet gratis. En weinig databasebeheerders zullen er echt goed mee uit de voeten kunnen gok ik?

[Reactie gewijzigd door Michaelr1 op 9 september 2016 20:45]

Ik bedoel het dus meer als in, zijn je databases dan zo belangrijk dat ze echt absoluut ten alle tijden beschikbaar moeten zijn?
Voor ons is gemak een belangrijke reden. Omdat het HA is kunnen we individuele nodes patchen en rebooten zonder dat we downtime hoeven te coordineren met andere afdelingen. Zonder HA zouden we veel meer systemen buiten kantooruren moeten onderhouden en veel meer rekening moeten houden met anderen.
Onze systemen zijn misschien niet 24/7 kritiek maar de gebruikers hebben nooit zin in down time. Als het aan hun ligt zouden we nooit patchen of op z'n best om 4 uur 's nachts.
's Nachts werken kan, maar dat is ook duur. Dan maken we liever een extra VM'tje aan dat we overdag kunnen onderhouden als we fris en scherp zijn.
Goed argument. We doen momenteel om die reden eigenlijk te weinig updates.
Als we dat doen, gebeurd dat inderdaad midden in de nacht en dat kost natuurlijk ook allemaal geld.

Maar eens een rekensommetje op loslaten, misschien dat HA dan toch wel haalbaar is..
Dan zit je niet bij Enterprise klanten denk ik.
Ik zie namelijk niets anders als HA oplossingen. Op zowel front-end als back-end kant.
Overigens wil HA niet zeggen dat je nooit down gaat hoor,
maar dan wel gepland.
Klopt, voornamelijk databases voor opslag en niet zo zeer om uit te lezen (gebeurd wel veel, maar als dat een uurtje niet werkt is geen ramp). Ik ben intern de rol van DBA gaan spelen en ben me gaan verdiepen in mogelijkheden etc. Vandaar de vraag, uit interesse in welke soort klantenkring zoiets interessant is. HA word bij ons gezien als veel te duur voor wat het oplevert..
Zonder databases stop praktisch alles hier. Zowel business systemen als infrastructure is volkomen afhankelijk van databases. Uitval van de databases is hier qua impact vergelijkbaar met uitval van de AD, hypervisor, storage of core networking services.
Alles, web, sql, mx, imap, streaming, proxies, cache, noem het maar op.

Kost geen drol en all FOSS :D
Hoeveel kost dat? inc. het personeel dat het draaiende houd...
Net alsof je geen personeel meer moet hebben indien je servers in de cloud draaien. Eigenlijk vind ik dit zo bedroevend. Ook developers in mijn "buurt" zomaar alles in de cloud zonder nog Kritische vragen te stellen.
Het is niet omdat er microsoft, google of amazon op plakt dat ze alles correct uitvoeren of dat het niet beter kan.
Als je hun voorwaarden erop naleest zijn ze haast nooit verantwoordelijk indien er wat fout loopt.
Nee, ik doel op beheerders die de hardware en VM laag beheren/upgraden. Ik doel op redundant uitgevoerde servers, met spare parts, VM licenses, netwerk en aardige netwerk verbinding.

Veel MKBs besteden hun IT juist uit om goedkoper uit te zijn, dan is een ITer die regelmatig langs moet komen om op verschillende locaties de server hardware te onderhouden een koste post waar ze ook niet op zitten te wachten. Veel klanten hebben ook eigenlijk geen servers in de cloud meer nodig, veel, zo niet alles kan worden afgenomen op dienst basis (Office 365, Sharepoint Online, Salesforce, etc.). Je kan wel third party applicaties op eigen servers gaan draaien, maar zeker vanuit support perspectief is het in bijna alle gevallen goedkoper om dat bij de leverancier zelf te laten draaien. Via een webinterface of via een RDS bij de leverancier. SSO kan je prima regelen met Azure en zoals al vaker aangegeven kan je dat redundant uitvoeren.
t' ja kan best natuurlijk maar de tijd dat je als it-er slechts 1 ding deed zijn natuurlijk allang voorbij.

Mijn collega, doet zowat alles van networking, firewalls, IDs, storage fiberchannel etc ...

Ik doe bv eerder exchange, backup, sql, web

Andere collega IPTel, videoconferencing

Nog een collega alles mbt sccm, scom, desktop management , software packaging, antivirus

En dan heeft ieder van ons nog zijn gebruikelijke projecten, En je moet over alles en nog wat tijdig rapporteren en de jaarlijkse audits met remediation plan

We hebben allemaal een lekker gevuld bakje :)
Niet zoveel, je hebt ook datacenters zoals OVH met directe verbindinging naar AMS, wat tevens ook in eigen beheer van het datacenter is. Zo heb je meerdere partijen met eigen lijnen. Een stukje redundante hardware huren en gaan..

Nu ga ik ervan uit dat Azure ook wel redundant is, dus er speelt vast iets meer in de configs.. Private Cloud of niet, storingen komen altijd wel een keer voor, in dit geval is het gelijk public en wordt alles gelijk gepubliceerd. Local storage lijkt mij niet echt gerelateerd aan dit issue.
Hoeveel kost het als 250 man duimen zitten te draaien en je klanten niet kunt helpen omdat het 'systeem' down is ? Deadlines worden niet gehaald, wellicht mensen over laten werken, producten kunnen niet verstuurd worden, etc, etc.

Het hangt er volgens mij dus heel erg vanaf wat voor soort bedrijf en hoe kritische je data is voor de dagelijkse gang van zaken en welke risico's je wilt lopen.

Elk bedrijf moet zelf een analyse, risico berekening maken of het 'verstandig' is om je data / services op iemand anders zijn computer op te slaan.
Als uptime belangrijk voor je is, dan kan je vrij makkelijk redundancy over meerdere regio's gooien. Je kan het zelfs redelijk goedkoop doen. Servers uit en alleen storage (storage is super goedkoop in Azure) en dan betaal je pas als je de servers aanzet. Je kan dat zelfs scripten. Dat kan niet zo goedkoop en makkelijk als je dat zelf doet. In een datacenter is nu niet bepaald 'local storage'...

De kracht van bv. Azure is dat je heel makkelijk kan up en down graden, dat kan heel lastig met eigen hardware.
Dan had je deze storing nog voor je kiezen gekregen... Heel europa lag er uit :-)
Onzin, niet alles lag er uit. Office 365 en Sharepoint hebben de hele dag gedraaid. Ook lagen er niet alle Azure servers/diensten uit, anders had ik VEEL meer belletjes gehad vrijdag.
Dat valt reuze mee. Wij hebben ook een storage oplossing in de cloud. Goed voor zo'n 10 TB aan data. Goede uptime, backups zijn bovendien snel te restoren. En het kost geen drol als je het goed aanpakt.
Sorry dat is nonsens.
Cloud is niet goedkoop in tegendeel.
Bouw maar eens een SQL AlwaysOn cluster met 4 Nodes , 48 cores elk 512 GB geheugen een Terrabytes aan Flash. Dan hebben we het nog niet over de dedicated multigigabit links.

En als je dan nog eens gaat benchmarken, on-prem vs cloud , tja cloud is en blijft toch een shared environment


Cloud is enkel goedkoop als je niets speciaals wil eens je wat meer eisen stelt wordt het snel erg duur.
Cloud is enkel goedkoop als je niets speciaals wil eens je wat meer eisen stelt wordt het snel erg duur.
Mee eens, ik wil dat alleen corrigeren naar "Als je niet iets HEEL speciaals wil". Niet heel veel oplossingen hebben een eigen SQL AlwaysOn cluster met 4 Nodes , 48 cores elk 512 GB geheugen een Terrabytes aan Flash nodig... ;-)
Bah .... Zo speciaal is dat nu ook weer niet. Hoeveel bedrijven hebben er geen eigen erp (SAP/Oracle) implementatie en dan wil je toch uptime en performance.

Een SQL AlwaysOn cluster is trouwens de Microsoft "preferred way".

[Reactie gewijzigd door klakkie.57th op 9 september 2016 23:15]

Bah .... Zo speciaal is dat nu ook weer niet. Hoeveel bedrijven hebben er geen eigen erp (SAP/Oracle) implementatie en dan wil je toch uptime en performance.
Hoeveel besteden dat juist uit aan derden en hoeveel stappen over op een compleet webbased pakket of iets dat je afneemt via een RDP sessie bij de leverancier?
Een SQL AlwaysOn cluster is trouwens de Microsoft "preferred way".
Er zijn zat MS preffered ways die niet werken of niet relevant zijn in de 'cloud' (in dit geval Azure). Hoeveel werk je wel niet heb aan klassieke systeembeheerders op een andere manier te laten denken... Of wat je wel allemaal niet hoort van MS Azure experts, zaken die afwijken van wat je gewend bent te bouwen bij een lokale omgeving...

Je kan zeker in Azure hele leuke dingen doen met scripting, availability and resources. Want heb je die enorme cluster wel 24/7 nodig? Buiten kantoor tijden niet nodig, zet servers uit of schaal ze flink terug. Bepaalde periodes in de week/maand veel resources nodig, schaal ze op voor alleen die periodes. Je kan voor bijna 1% van de maand prijs een werk dag in de maand je servers flink uitbreiden als er bv. rapportages gedraaid moeten worden, batches moeten worden gemaakt, etc.
Wederom case by case.

Een HA cluster voert 's nachts natuurlijk maintenance taken uit, die best resource intensief zijn , daarenboven wat is 's nachts in een 24x7 allways on wereld ?
Sql alwaysOn cluster ga je echt niet zomaar up en down scalen, laat staan nodes uit dienst nemen. Ook zijn er vele bedrijfstakken waar Privacy met stip op de eerste plaats staat en dan ga je echt geen servers delen met derden, (lees shared cloud services afnemen. )
Ook zijn er vele bedrijfstakken waar Privacy met stip op de eerste plaats staat en dan ga je echt geen servers delen met derden, (lees shared cloud services afnemen. )
Mee eens, maar dat zijn veel minder bedrijfstakken dan velen preken. Ik denk aan advocaten kantoren die klanten hebben die bepaalde staten (zoals de VS) heel graag willen hebben. Of bepaalde sectoren die onderzoek doen waarbij bepaalde staten niet moeilijk doen over bedrijfsspionage voor hun staats bedrijven (weer VS), dan ga je natuurlijk geen MS Azure/Office365 gebruiken. Maar in de Benelux zijn dat bijzonder weinig bedrijven. De rest denkt alleen maar belangrijk genoeg te zijn en als ze willen betalen voor dergelijke 'secure' lokale oplossingen, be my guest, maar dat gaan ze vanzelf wel voelen als de concurrentie niet die kosten maakt.

Je kan je omgeving nog zo secure inrichten, het enige wat je doet is de drempel verhogen voor aanvallers, het zwakste punt blijven toch nog altijd je gebruikers. Zodra je servers aangesloten zitten op het internet ben je net zo onveilig als een grote dienst van MS of Amazon.
Uit eigen ervaring weet ik dat Nederland en de scandinavische landen veel soepeler zijn dan bv Belgi, luxemburg, zwitserland, Duitsland, en Rusland. Als je een multinational bent dan heb je rekening te houden met al de verschillende wetgevingen van al die landen.

Dus bv je gebruikers in Rusland , mogen niet in Azure maar de Engelse gebruikers wel dan heb je meteen al hybride oplossingen.
Locatie van backup kun je ook al niet centraleseren, verschillende legale bewaartermijnen 5,7,10 of zelfs 30j.

[Reactie gewijzigd door klakkie.57th op 10 september 2016 14:04]

De Cloud is natuurlijk ook niet een oplossing die voor iedereen is weggelegd. De door jou geschetste configuratie is dat evenmin: er zijn onderaan de streep meer partijen die baat hebben bij de cloud, dan dat er partijen zijn die baat hebben bij de door jou geschetste oplossing.

Anders geformuleerd: sommige mensen hebben voldoende aan een gezinsauto. Jij kunt niet zonder vrachtwagen.
Ik run dat in mijn uppie, met backup als nodig, goede documentatie is all (en af en toe een chitchat ;))

En... all FOSS dus cheap as it is :D

[Reactie gewijzigd door RutgerM op 9 september 2016 22:21]

Sinds ons bedrijf voor een deel op Azure draait hebben we meer storingen dan voorheen.

Overigens, al onze servers op Azure zijn gewoon up gelukkig :)
Maar ligt dat aan Azure of is men er "head first" ingedoken en nog niet boven water gekomen?

Al het begin is moeilijk, het duurt toch altijd even voor het allemaal stabiel draait en men er weer aan gewend is.
Aan Azure. VM's die ineens uit het niets herstarten, Ineens niet meer bereikbaar zijn en zo storing als nu gebeurd ook een paar keer per jaar.

Exchange Online heeft helemaal veel storingen. Patches die niet goed getest zijn worden altijd daar als eerste uitgerold en ben je als klant te dupe van.
Zo was de zoek functie van outlook in online shared mailboxes van 16 augustus t/m 6 september niet functioneel. Echt top.
Buiten dat krijg je wel veel waar voor je geld met Office 365, zonder twijfel. Voor dat geld ga je het lokaal niet reden.

Ik ben verder niet zo'n fan meer van de Cloud. Lokaal draait veel stabieler en goedkoper. Want voor Azure betaal je nog een hoop geld ook.
Nu wordt er altijd wel aangehaald dat je makkelijk kan schalen in resources, maar in de praktijk doe je dat nauwelijks.
Office 365 heeft wel vaak storingen, maar als je naar de impact kijkt valt het vaak mee. De shared mailboxen is echter wel een goed voorbeeld van een storing met grote impact.

Maar goed de prijs/kwaliteit verhouding is wel erg goed van Office 365, zeker als je ziet wat voor mailbox grootte je krijgt, welke features er allemaal zijn en de snelheid van de ontwikkelingen. Er zullen hier (gezien de doelgroep) genoeg goede Exchange beheerders zijn die het onpremise ook allemaal prima in orde hebben maar ik heb bij veel (ook grote) organisaties hele brakke Exchange implementaties gezien. Hoelang het wel niet duurder voordat TSL goed aanstond, mailboxen groter waren dan 100 Mb etc.
Wij draaien sinds 2009 volledig in de cloud. Volgens de statistieken van Google met een uptime van 99,978%. Daar kan ik prima mee leven. Het trackrecord van Microsoft is op dit punt beduidend slechter.
Op dat laatste kan ik wel reageren. In de meeste gevallen hoef je inderdaad niet zoveel te schalen. Maar er zijn wel degelijk gevallen. Denk aan een uni met een digitale toetsomgeving die maar 1x per kwartaal wordt gebruikt, misschien zelfs 1x per jaar. Of een stream van een olympische spelen, maar ook bij het bedrijf waar ik werk hebben we een piek van 1x per jaar en de rest van het jaar wordt het wel gebruikt maar stukken minder. Daarvoor gaan we geen groot aantal servers aanschaffen en ik t rack laten staan. Dan is de cloudoplossing ineens niet zo duur meer.
Sinds ons bedrijf voor een deel op Azure draait hebben we meer storingen dan voorheen.
Dat is herkenbaar. We zijn om die reden overstapt naar Amazon en Digital Ocean.
Het probleem met 'Cloud' is dat het lijkt alsof je applicatie dusdanig ergens dtaat dat het geheel redundant is.
Je zou verwachten van de grote platformen dat als er ergens een storing is dat ze je applicatie ergens ander neerzetten, en dat doen zie niet globaal, mischien wel tussen machines binnen de DC, maar niet van europa naar US of andersom.
Dat zou je verwachten van een cloud, maar dat gebeurt niet.
De cloud zorg ervoor dat je dat soort functionaliteit (relatief) eenvoudig kan realiseren. Het is geen magische oplossing.
Data zomaar even verplaatsen van Europa naar US is een juridische slangenkuil en zal alleen al om die reden niet zomaar even gebeuren. Van een cloud verwacht je dat dus juist niet tenzij dat zo explicuet afgesproken is.
Elk stuk techniek heeft wel eens problemen. Cloud is geen wondermiddel, maar local storage is dat evenmin.
Maar als er een cloud plat ligt heeft in een keer heel Europa er last van. Dan is lokaal met een off-site backup zo gek nog niet.
En als je isp dan een storing heeft?
Wij hebben twee lijnen. En lijn via Ziggo en n lijn via KPN. De kosten van deze twee gezamelijke lijnen gecombineerd met een cloud oplossing liggen nog steeds lager dan de kosten van een on premise oplossing.
De availability van services bij mij op het werk is een stuk groter geworden sinds we externe cloud computing gebruiken.

En PS: cloud is veel meer dan storage. Maar wellicht ben je gebrainwasht door marketeers....
Ben benieuwd hoelang ze nu down zijn geweest.
Afgaande op het bericht van Tweakers + de daarop volgende update ongeveer een uur of twee.
Okay Thx,
Dat valt nog te overzien.
In mijn bedrijf hebben we nogal wat .Net ontwikkelaars zitten op onze on-premise TFS build straat. En als we naar Azure gaan is het goed om te weten om de daadwerkelijke downtime goed in de gaten te houden.
Zou energieleveren.nl ook van deze dienst gebruikmaken? Krijg een wit scherm. |:(
Stroomrekening niet betaald ?? :+
Nee, :) , ik MOET blijkbaar opgeven dat ik zonnepanelen heb.
Ze willen tegenwoordig ook alles van je weten :o

[Reactie gewijzigd door RutgerM op 9 september 2016 22:17]

Onze applicatie is ook getroffen. Maar zolang je een backup voorziening hebt is het leed te overzien.
Zag dat battle net ook ineens bepaalde zaken niet kon laden, gerelateerd?

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True