Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 39, views: 12.975 •

Amazon heeft het boetekleed aangetrokken nadat vermoedelijk een menselijke fout een langdurige storing veroorzaakte. De cloudaanbieder belooft aanpassingen in zijn upgradesysteem door te voeren om de kans op dergelijke fouten te verkleinen.

Amazon Web ServicesVorige week werden de clouddiensten van Amazon getroffen door een ernstige storing. Hierdoor waren een aantal grote websites dagenlang moeilijk of geheel niet bereikbaar. Amazon heeft inmiddels een post-mortem-rapportage vrijgegeven, waarin meer informatie wordt gegeven over de oorzaken van de grootschalige storing.

De problemen bij het Elastic Compute Cloud-platform van Amazon zouden zijn ontstaan door een foutieve upgrade-procedure, vermoedelijk het gevolg van een menselijke fout. Tijdens het uitvoeren van de upgrade werd het dataverkeer tijdelijk via een andere router gebruikt, maar deze bleek niet in staat om de datastroom af te handelen.

Nadat de router was gecrasht, raakten diverse onderdelen van het Elastic Block Store-opslagsysteem van slag. De instances probeerden steeds nieuwe spiegelbestanden aan te maken met een re-mirroring storm tot gevolg. EC2-systeembeheerders hadden vervolgens dagen nodig om de cloudsystemen weer onder controle te krijgen.

Amazon heeft zijn excuses aangeboden aan zijn klanten. Ook belooft het bedrijf dat klanten die door de storing zijn getroffen compensatie krijgen: zij kunnen tien dagen kosteloos gebruik maken van Amazons clouddiensten. Daarnaast stelt het bedrijf dat het zijn update-procedures verder zal automatiseren, waardoor de kans op menselijke fouten verkleind moet worden. Verder moet de EC2-infrastructuur beter bestand worden gemaakt tegen storingen.

De grootschalige storing bij Amazon laat volgens sommige analisten zien hoe kwetsbaar clouddiensten kunnen zijn. Toch zouden deels ook websitebeheerders fouten hebben gemaakt doordat een deel van hen geen draaiboeken hadden klaarliggen mocht hun cloudaanbieder in de problemen komen.

Reacties (39)

De grootschalige storing bij Amazon laat volgens sommige analisten zien hoe kwetsbaar clouddiensten kunnen zijn.
Er zullen altijd critici zijn ;)

Hoewel dit een voorbeeld is van de zwaktes van clouddiensten, betekent dit niet dat het ook in de toekomst hetzelfde zal zijn. Want zoals je ziet wordt er hard gewerkt aan verbeteringen aan de betrouwbaarheid van het platform.
Alles is kwetsbaar maar ik denk juist dat de Cloud het minst kwetsbaar is.
Grootschalige uitwijk naar andere delen van de wereld is niet te betalen door iets anders dan een grote cloud aanbieder. Zij zijn de enige die dat level-of-safety aan kunnen bieden tegen een leuke prijs.

Dus ook al heb je een single-point-of-human-failure, "The benefits outway the riscs"
Een groot aantal websites waren dagenlang niet bereikbaar, dat noem ik toch behoorlijk kwetsbaar. Bovendien gaat het hier om vele websites die in de problemen kwamen. Het grote nadeel aan een cloud service is dat je alle controle uit handen geeft en je volledig overgeeft aan de cloud beheerder, als die het verprutsen heb je pech.
Dat klopt, maar als je het alternatief neemt - het geheel in eigen hand nemen - heb je immers evenveel kans op menselijk falen en het daaruitvolgende niet beschikbaar zijn van je website. Dus wat is het alternatief? Er is niks of niemand die 100% uptime kan garanderen.
Dagen downtime is wel erg veel hoor en er zijn een heleboel instanties die best 99,99% uptime vereisen.

Gewoon Epic Fail voor de Amazon Clouddiensten, ze kunnen net zo goed het bedrijf stopzetten want wie vertrouwd er nu nog een bedrijf dat dagen nodig heeft om zo een probleem op te lossen.

[Reactie gewijzigd door klakkie.57th op 1 mei 2011 17:47]

Dagen downtime is veel, maar als je de boel goed inricht, met failover in andere regio's, dan was je website gewoon blijven werken. En als je het hebt over websites die 99,99% uptime vereisen, dan moet je die kosten ook maken en de moeite nemen. Zo niet, dan heb jij (als beheerder) gefaald, of als bedrijf de risico's genomen.

Wat deze storing liet zien, was juist dat je gewoon door kon draaien. Zie Netflix en het principe van de Chaos Monkey.
die 99,99% verwacht je juist te krijgen als je 'in de cloud' host.
In de cloud hosten betekent niet dat je data op 1 plek staat, die kan op vele plekken staan. De cloud is gemaakt om nooit plat te gaan. Als je als beheerder dus in de cloud laat hosten (of als bedrijf deze keuze maakt) dan faal je niet als de cloud plat gaat, nee dan faalt de aanbieder van de cloud.
Kan - hoeft niet...

Er zijn veel IT oplossingen die vandaag de dag de term "cloud" dragen (het is een hype, dus wildgroei), en heel veel van die oplossingen komen gewoon neer op het virtualiseren van een server. Je krijgt een VMware-gehoste guest 'ergens' (het is cloud - dus je weet niet waar). Wat je verder met die guest doet, zal de hoster in principe de spreekwoordelijke worst zijn. Redundantie moet je veelal dan ook zelf regelen.

Uiteraard kan een cloud service ook veel meer zijn. De grote hosting providers bieden dan inderdaad redundantie aan in andere IDC's, het naadloos migreren van guests naar andere hosts, snapshots van je guests, etc. Alles tegen een prijs uiteraard.

Volgens mij valt de Amazon Cloud dienst meer in de goedkopere categorie dan in de dure. Een echte semi-consumenten dienst die je met een creditcard afsluit en binnen minuten aan de praat hebt. Wellicht met een goede uptime, maar zonder garanties.
@ Tukkertje-RaH:
Misschien als afnemer weet je niet waar, de beheerder weet uiteraard wel. En het is natuurlijk vast te leggen waar je service wordt gehost, in welke regio('s), stel dat je het niet in de VS region gehost wilt hebben.

Ik snap niet dat de services naar een andere region zijn overgegaan. Ze hebben er zes.

Zie hier ook het gevaar van een scenario die ik vorig jaar aan de hand heb gehad: prospect met twee locaties met daar tussen darkfiber, wilde van de tweede locatie gebruik gaan maken door de datacenter te verdelen over de twee locaties. In eerste instantie een active/active san aangeboden. Dus de data repliceerde continue tussen de twee locaties.

Echter de darkfiber ligt op publiek terrein. Dus als er iemand de glasvezels kapot graaft, krijgen de twee sites van elkaar geen status info en denken ze dat de ander down is en nemen dan de master status aan. In het geval van VMware FT (Fault Tolerance), zijn er dan verschillende vm's met daarop draaiende applicaties die dus op twee sites tegelijk draaien, maar dan met wijzigingen die gaan verschillen van de andere site. Bij VMware HA (High Availability) moet bij een host die down gaat de daarop draaiende HA vm over gaan (met Vmotion) naar een andere "up" zijn host. Vcenter kan in dit geval de andere host niet vinden en de applicatie valt uit.

We hebben er voor gekozen een primary san in te zetten en deze regelmatig te laten repliceren naar een secondary. Zo is het veel makkelijker in het geval van calamiteiten de omgeving te beheren en is het eventueel terugzetten van data makkelijker.

[Reactie gewijzigd door PcDealer op 2 mei 2011 08:43]

Alles is kwetsbaar maar ik denk juist dat de Cloud het minst kwetsbaar is.
"De Cloud" bestaat niet, er bestaan alleen specifieke implementaties van cloud services, en deze van Amazon is duidelijk wel kwetsbaar.
Nogal offtopic, maar het juiste woord is "outweigh" ;)
maar als een cloudprovider iets fout doet is de impact vele male groter ;) Met een klein beetje pech trek ik mijn complete klantenbestand offline.

Ik vind het wel raar dat hun antwoord hierop is dat ze verder gaan automatiseren, of het kan zijn dat we niet alle informatie / hoe en waaroms hier lezen. Maar als je kijkt naar wat er precies gebeurt is: een menselijke fout (over de foute router omrouteren) wordt volledig geescaleerd door een automatisch proces (re-mirroring storm). Het is een beetje moeilijk oordelen natuurlijk als je niet weet hoe het ter plekke werkt, maar me dunkt dat je voor een dergelijke infrastructuur toch gewoon dedicated backup routers gebruikt en dat het je netwerkbeheerder is die die route gaat omzetten (die man die zijn eth infrastructuur kan dromen).
Verbeteren ok, maar het probleem blijft dat je cloud een SPOF (single point of failure) is geworden als je geen draaiboeken klaar hebt liggen om snel om te schakelen als je cloudprovider problemen heeft. Is het geen menselijke fout (Amazon) dan is het wel een hacker (PSN) die voor problemen zorgt. M.a.w. leuk zo'n cloud maar voor bedrijfskritische zaken blijft het behelpen (wat als een aantal glasvezels naar de US eruit knallen en al het verkeer over Japan gerouteerd moet worden: ja het werkt, maar is traag als dikke str*nt en voor je klanten onacceptabel).
En hier zien we plotseling de grote zwakte van clouddiensten... Ik blijf altijd fysieke dragers behouden die bij mij thuis liggen.

Storingen, hacks e.d. moet ik niet met m'n persoonlijke data
Sure; storingen en hacks kan je niet bij je eigen pc'tje hebben... droom maar lekker verder.

Vrijwel alle data is bovendien bewaard gebleven; je enige probleem is dus dat je er even niet bij kan... voor particulieren is dat meestal niet zo'n ramp.

OT; jammer dat het nou net bij een van de grootste is gebeurd. Amazon geeft meestal namelijk gewoon een prachtige service, en ik ben er nooit echte problemen tegengekomen.
Sure; storingen en hacks kan je niet bij je eigen pc'tje hebben... droom maar lekker verder.
Lekker blijven lezen wat er niet staat.
Vrijwel alle data is bovendien bewaard gebleven; je enige probleem is dus dat je er even niet bij kan... voor particulieren is dat meestal niet zo'n ramp.
laten de meeste klanten nou net bedrijven zijn.
Bij clouddiensten worden potentiŽle aanschaf kosten verdeeld onder vele gebruikers/afnemers, maar het risico of storingen neemt evenredig toe met het aantal gebruikers.

Een clouddienst levert dus gewoon lagere kosten in ruil voor een verhoogt risico.
In ruil voor een verlaagt risico (want met een groter aantal gebruikers word het niveau van de systeem beheerders ook hoger), MAAR een verlaging van de controle en een machteloosheid als het mis gaat (wat erg frustrerend kan zijn voor bedrijven). Niettemin heb je een grotere kans op een storing als een klein bedrijf dan wat je hebt met iets als amazons toepassingen.
een hoger niveau systeembeheerders wil niet betekenen dat de kans op storingen minder wordt. Hardwarestoringen, bugs, netwerkstoringen, automatiseringsprocessen die doordraaien ed. spelen meer mee en de kans daarop neemt toe naarmate je meer systemen bij elkaar zet.

Zie het zoals bij een raid5 opstelling: hoe meer schijven ik erin frot, hoe meer kans dat ik een schijf heb die over een tijdje uitvalt met een defect.
Ik ben het helemaal eens! Veel mensen denken vaak dat je kunt technisch kunt wapenen tegen falen of catastrofe. Hierdoor ontstaan vaak over complexe oplossingen die nog meer risicos met zich meebrengen en vaak zware financiele gevolgen hebben.

ha... Je kunt je nog zo goed verzekeren, maar dat neemt jouw risico net weg! :-)

Ik ben meer voor: houd het lekker simpel maar heb een rampenscenario klaarstaan.
Je zal altijd met een uitval mogelijkheden hebben. De kans is groter dat ik stroom uitval heb of dat mijn beide internet verbindingen eruit liggen dan dat bv. Google Apps eruit ligt.

Wat jaartjes geleden op kantoor meegemaakt dat de hele dag de stroom eruit lag omdat er tijdens wegwerkzaamheden in de buurt de verkeerde lijn was geraakt. Een hoop bedrijven hebben dan nood plannen om op een andere locatie verder te kunnen werken, maar die uitwijk locatie is over het algemeen niet in een paar uur opgezet.
En bij brand (of andere calamiteiten) zijn die fysieke dragers weg - de grote zwakte van fysieke dragers. Je kunt niks vertrouwen, en het in eigen beheer hebben is slechts schijnveiligheid.
en het in eigen beheer hebben is slechts schijnveiligheid.
Nee, ik vertrouw mezelf meer dan een externe dienst wiens gezicht ik nog nooit gezien heb. Niet met de vertrouwelijke data die ik heb. De bedrijfsrisico's zijn domweg te groot.

Als ik zelf een fout maak, prima, dan weet ik naar wie ik moet kijken. Maar amazon gaat echt niet wakker liggen van boze klanten. "Dit is waarvoor je betaald". SLA's zijn ook maar een wassen neus.
Cloudstoring. Gaan ze een weerman inhuren?
Dan hoop ik wel dat het er eentje van het KNMI is... :P
Blijkbaar hebben de mensen van tweakers en de meesten die hier reageren het gehele artikel niet gelezen, aangezien dit niet de kwetsbaarheid van de clouddiensten aantoont, maar het gebrekkige infrastructurele ontwerp van de klanten die plat gingen. Zoals in het artikel te lezen staat is de EU cloud van amazon niet down geweest, alleen moet je dan je applicatie wel zo inrichten dat hij van meerdere regions gebruik maakt. Iets dat wat extra denkwerk met zich meebrengt bij het inrichten van je applicatie, maar onmisbaar wanneer je 5 9's in je uptime percentage wil terug zien.
Amen.
Je zou van tweakers.net toch beter verwachten..
Ik geef toe ik ken niet de Cloud diensten van Amazon, maar als je 99,999 uptime nodig hebt doe je het toch gewoon lekker zelf want dan is geld volgens mij geen issue.

Nuja ik geef toe ik ben een gigantisch tegenstander van clouddiensten hosten bij een derde partij met niets meer dan een SLA die enkel op papier bestaat.

Wat je zelf doet, doe je beter en dat zou het motto van iedere sysAdmin moeten zijn.
Ik geef toe ik ken niet de Cloud diensten van Amazon, maar als je 99,999 uptime nodig hebt doe je het toch gewoon lekker zelf want dan is geld volgens mij geen issue.
Er zijn vele situaties denkbaar waarbij de kosten juist aanzienlijk dalen. Daarnaast moet je niet vergissen dat in enkele situaties bedrijven niet zitten te wachten op aanschafkosten die niet misselijk zijn in een grote omgeving.
Volgens mij kost dergelijke reduntie ook gewoon geld bij Amazon.
aangezien dit niet de kwetsbaarheid van de clouddiensten aantoont, maar het gebrekkige infrastructurele ontwerp van de klanten die plat gingen. Zoals in het artikel te lezen staat is de EU cloud van amazon niet down geweest, alleen moet je dan je applicatie wel zo inrichten dat hij van meerdere regions gebruik maakt
Maar de hele hype achter het cloud-gedachtengoed was toch juist dat programmeurs hier niet meer over na hoefden te denken? Immers zou de cloud toch een abstracte blob zijn waar je simpelweg data naar toe gooide?
Nee. Het gaat veel meer om schaalbaarheid dan om redundancy.
"Cloud computing refers to the provision of computational resources on demand via a computer network, such as applications, databases, file services, email, etc"
Bron Wikipedia
Nee het gaat om overtollige CPU cycles ten gelde te maken (iig bij partijen als Amazon). Dat was het begin van de cloud-hype: een logsche stap om overcapaciteit en virtualisatie te koppelen. Uiteraard onder de SOA hype gegoten et voila: een nieuwe melkkoe voor consultants (jaja, ben een tikje cynisch :+ )
Re-mirroring storm, wat een awesome begrip!

Maar goed, je zou er maar gebruik van maken.
En iedereen was zo onwijs bezig om deze dienst de hemel in de prijzen ( lees paarse broeken wouden er een slaatje uit slaan).

hmz nu heeft een best grote speler een storing. :o
Het feit dat 1 partij een menselijke fout maakt die voor hoge downtime zorgt, zegt toch niets over het product? Kijk naar high-availability omgevingen met VMWare, Xen. Daar zitten echt prachtige omgevingen tussen die het verschil maken in 99,9% en 99,99% uptime. Indien je een menselijke fout maakt, kun je nog steeds alles offline krijgen. Ik gebruik VMWare ESXi met alle plezier en het is heel goed mogelijk om een extreem high-uptime omgeving te creŽren die vrijwel alleen nog afhankelijk is van de uptime van de netwerkprovider. In het geval van een kleine omgeving zijn fouten in design waardoor de infrastructuur kan vallen, natuurlijk veel makkelijker te herstellen.

Persoonlijk begrijp ik nog steeds uit dit bericht niet of afnemers er zelf voor hadden zorgen dat ze online gebleven waren. Elke hoster promoot tegenwoordig het afnemen van virtuele hosting of cloud-hosting, zodat zij de infastructuur kunnen inrichten en verantwoordelijk zijn voor het beheer, uptime hiervan. Dat lijkt me bij Amazon hetzelfde.
- Hoe kun je dan zeggen dat individuele klanten zelf schuldig zijn?
- Was het mogelijk om jezelf online te houden in de cloud
- Hoeveel % was nu down en hoe lang?
(Zal straks ook nog even op Google naar meer informatie zoeken)

De Amazon Cloud is de grootste cloud-service ter wereld. Ik vind deze storingen van enkele dagen toch enorm schokkend en ook hier zet je dan je vragen bij de fail-over van cloud-hosting. Indien deze reus van een provider die honderden miljoen kan investeren in zijn infrastructuur, blijkbaar toch niet in staat is om betrouwbare, effectieve, praktische redundancy in te bouwen in zijn omgeving, dan weet ik niet bij welke provider ik mijn cloud moet afnemen... de kleine hostertjes met 500 klanten en €10.000 jaar omzet? de reuzen als Amazon? het wordt wel lastig kiezen.

Jammer, ik had het gevoel dat ze een mooi product hadden en zou het graag uitgeprobeerd hebben, maar reserve-switches die moeite hebben met het overnemen van de capaciteit e.d..... :X
Ik ben geen specialist maar in bijna elke omgeving is een echte crash de enige keer dat back-up systemen getest kunnen worden. Ik situaties waarbij complete configuraties zijn getest en getest. Maar toch, op de dag van de waarheid blijkt een onvoorziene externe factor roet in het eten te gooien. Je kan testen wat je wilt maar de praktijk is altijd weerbarstiger.
De enige zekere conclusie is dat Amazon het geld heeft om deze fout grondig te analyseren en programmatuur maar vooral (bedrijfs)protocollen te verbeteren.
Dit zouden de klanten van Amazon ook moeten doen.
Heldere geesten als Murphy http://nl.wikipedia.org/wiki/Wet_van_Murphy hebben het geprobeerd om de wetmatigheid van falen zo simple mogelijk te formuleren opdat iedereen het makkelijk kan onthouden (en er rekening mee kan houden).

.. wake-up call guys!
Toepasselijke termen allemaal. Een re-mirroring storm in de cloud. Ik zie de wolken en bliksemschichten al voor me...

Het hele cloud-gebeuren is natuurlijk allemaal nog vrij nieuw, het is niet zo vreemd dat er nog "bugs" in zitten (zowel in de software en hardware als in de procedures die mensen moeten volgen). Hopelijk wordt het door het oplossen van dit probleem weer een stukje robuuster en betrouwbaarder.

[Reactie gewijzigd door jj71 op 2 mei 2011 08:41]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013