Twitch heeft last van grote storing - update

Streamdienst Twitch heeft te maken met een grote storing. Dat laat de dienst weten op de eigen statuspagina. Het is onbekend wat er aan de hand is, hoe lang het kan gaan duren en of alle gebruikers er last van hebben.

Volgens AlleStoringen begonnen de meldingen na zeven uur op dinsdagavond. De statuspagina van Twitch vermeldt een 'major outage' bij veel van de functies van de dienst. Chat en aankopen werken volgens de dienst wel, maar onder meer inloggen, de webinterface, streamen en streams kijken zou slecht werken. Twitch zegt te werken aan een oplossing. Het is onduidelijk hoe lang dat kan duren.

Update, 21:04: De storing lijkt opgelost.

Twitch, down in januari 2023
Twitch, down in januari 2023

Door Arnoud Wokke

Redacteur Tweakers

03-01-2023 • 20:22

31

Submitter: Clemens123

Reacties (31)

31
31
18
2
0
9
Wijzig sortering
Om 20:23 (1 minuut na dit nieuwsbericht) geeft Twitch aan alle diensten hersteld te hebben.

Bron: https://status.twitch.tv/
Als je paar keer refreshed zeg hij wel weer major outage
Beetje onhandige pagina voor een A/B test }>
En voor hen die niet weten wat daar aan de hand is: caching.

Dynamische pagina's waarvan de inhoud grotendeel statisch is worden niet voor elke bezoeker gegenereerd, maar wanneer die wordt opgevraagd wordt die vanop een caching server geladen. Dat gaat sneller en vereist veel minder rekenkracht dan die pagina telkens opnieuw op te bouwen.

Maar als je ook nog eens meerdere cachingservers hebt en die gaat loadbalancen, dan kan je dus als bezoeker soms het effect zien van 2 verschillende pagina's te krijgen, afhankelijk van de refresh die je doet omdat de ene server al de oude informatie vervangen heeft door de nieuwe, terwijl de andere server nog niet aan de time-out zit waarop het die informatie moet verversen.
En voor hen die niet weten wat daar aan de hand is: caching.
Beetje dom gemaakt van de devs van die storingen website dan, want caching zou je juist niet verwachten op paginas die een actuele momentopname weergegeven.

En het is gewoon uit te zetten.
Nee, die page wordt giga hard geladen tijdens eens storing. Dat is juist een pagina waar je een cache op wil hebben. Het neven effect is dat als mensen daar kijken ze niet allemaal tegelijk naar je net opgestarte services gaan, dus dat helpt in het gradueel opstarten.
Die actuele momentopname mag near realtime, maar hoeft niet op de nanoseconde te kloppen.

Vandaar dat regional caching via CDN helemaal prima is.

Een pagina als dit wordt hoogstens per minuut bijgewerkt. En aangezien er toch geen harde SLA afspraken zijn met affiliates en zelfs niet met Partners boeit het ook niet als het per 5 minuten loopt.

Het scheelt ontzettend veel verkeer naar je services toe door dit via CDN met caching te doen. 1 bevraging per minuut om 1 miljoen requests af te handelen is gewoon echt de moeite waard.
Bij werkt alles op dit moment prima. Was stream aan het kijken toen in dit bericht zag.
Ik kon ook gewoon een stream kijken tijdens de storing. Wel werd de linker kolom (met onder andere 'gevolgde kanalen') getoond zonder data. De homepage werkte bij mij ook niet goed. Deze was vrij leeg en er werden slechts een handjevol kanalen getoond.

Nu lijkt alles inderdaad weer goed te werken.
Update was n kleine storing alles doet het weer ;)
Twitch werkte allang weer

Aan mijn kant :)
In elk geval geen deployment op Vrijdag einde middag :-)
Ik snap het sentiment, maar als je van te voren alles goed test en automatisch kan deployen, is de kans dat er met deploy iets omvalt natuurlijk ook al een heel stuk kleiner. Valt er dan toch nog iets om, heb je dus niet goed getest en heb je dus iets aan de (geautomatiseerde) tests toe te voegen.
En toch ga ik de mensen die in het weekend monitoring dienst moeten draaien geen extra werk opzadelen. Wat je op Vrijdag kunt doen dat kun je ook op Maandag doen.
We maken regelmatig mee dat iemand iets in een release stopt en doodleuk op vakantie is.
En wij nog waarschuwen, tegelijkertijd maken we er grappen over (fijne vakantie, we bellen je wel hahaha), en ja hoor, het gaat gigantisch mis.

Nou daar leren we dus van....niet dus...Groundhog Day all over the place.
helaas vaak de realiteit, en we zijn waarschijnlijk allebei de piet op vakantie wel eens geweest. echter, code reviews, unit tests, sonarqube, tldr de cultuur maakt het mogelijk dat je _nu_ kunt deployen ook na de vrijdagmiddagborrel zolang je de knop kunt raken.
Twitch (en facebook, google, amazon, microsoft, etc, etc) zijn zulke grote bedrijven, die vaak met continious delivery werken. Ze releasen vaak tientallen keren op een dag. Ik schat dan ook zo maar dat dit een "standaard" bugje was. Ik hoop dat ze een post mortum schrijven. Die van cloudflare zijn vaak wel interessant om te lezen.
Ja, wij vloeken er ook wel eens op, maar aan de andere kant, waarom ook niet? Wat moet men anders doen? Iets dat men nog afwerkt voor de vakantie zomaar enkele weken laten liggen? Het gaat echt niet ineens mirakuleus beter werken na die vakantie, en de persoon die de change gemaakt heeft zal vlak na zijn/haar vakantie ook terug tijd nodig hebben om er in te komen.
Je kan ook zeggen dat er dan nog iets niet helemaal klopt met de infrastructuur/prces en/of er missen testen.

Ik kan prima iets leveren op vrijdag middag, dan wordt er eerst een build met alleen mijn wijzigingen gedaan, en unit testen gedraaid. Lukt die dan volgt er een integratie build + testen, en pas als die lukt wordt er doorgeleverd. Ben ik op vakantie, dan kan iemand anders in mijn team mijn branch oppakken en fixen.
Dat is natuurlijk ook zo. En ik ben heel jaloers op jouw omgeving.

Wij hebben die perfecte omgeving niet helaas. Testomgevingen zijn niet representatief bij ons. Test automation is sowieso ernstig lastig (na 35 jaar in het vak, het nog nooit zien werken. Daar heb je dedicated personeel voor nodig, en die bezuinigen we op enig moment weg). En als een rode vlag valt, dan zetten we die toch gewoon uit............
Unit tests worden vaak voor de vorm gemaakt (en uitgezet als het even tegenzit). Het maken van zinvolle unittests is een vak apart. Ik zie zelden zinvolle unittests.

(als je denkt, dan moet je dat allemaal eerst goed inregelen, dan heb je werkelijk geen idee in wat voor omgeving ik werk -- ik zie code van < jaar 2000 af en toe .... om even een idee te geven -- en nee, daar is niet per se iets mis mee, maar daar even test automation en unit tests op maken..........tja)
Ik vind dit zo jammer om te horen. En ja ook ik zit al zo'n 30 jaar in het vak, en het heeft wat tijd gekost maar werkt nu behoorlijk goed.

Vooral die rode vlag mentaliteit, dat is gewoon begin van einde van een product.
En ik zou het zeker terugkoppelen in de organistate, en wordt er niet geluisterd dan zou ik denk ik vertrekken (ik zou nooit meer in zo'n omgeving willen werken als ze niet vooruit willen)

Al met al klinkt het niet alsof er een goede mindset is. Unit testen zouden makkelijk moeten zijn (als je maar op laag genoeg nivo begint met testen). En mijn ervaring, het schrijven van een paar testjes is dan sneller dan een paar jaar later code (van iemand anders) te gaan moeten debuggen.

Hoe dan ook, sterkte en op voor een beter 2023 :)
Haha werken wij in hetzelfde team?! ;)
Toch gebeurt het vaak genoeg. Weet nog dat een aantal jaar geleden iedereen er heilig van overtuigd was dat Motorola geen Android-upgrade zou uitrollen in de laatste week van het jaar, en wat denk je? Precies op Kerstmis of Oud en Nieuw (het was een van die twee) begonnen ze de uitrol. Als er wat was misgegaan, dan had de weekend-/vakantiedienst er mee gezeten…
Welk weldenkend mens gaat op de 'update' knop drukken van z'n telefoon op zo'n kritiek moment? Die melding staat er na het weekend ook nog gewoon, het is niet dat het opeens gebeurt. En al wordt het automatisch op de achtergrond geïnstalleerd, dan nog moet je herstarten om het actief te maken. Tot die tijd is er echt helemaal niets aan de hand en werkt je telefoon nog gewoon zoals daarvoor.
Gewoon de ontwikkelaars zelf verantwoordelijk maken voor monitoring. Dat is in vele grote agile bedrijven de standaard, code ownership wordt het ook wel genoemd.
Dat is de theorie en klinkt zo ontzettend logisch, maar ik werk bij een heel groot bedrijf momenteel, met verschillende suppliers, met veel applicaties en codebases waaraan door heel, heel veel teams wordt gewerkt. Met allerlei afdelingen waarvan hun processen door al die applicaties en codebases gaan...
En bij alle andere bedrijven waar ik heb gewerkt is het niet veel anders.

Probleem is, heel veel teams zijn verantwoordelijk voor dezelfde applicaties en codebases. En gedeelde verantwoordelijkheid is het al gauw: geen verantwoordelijkheid (beetje gechargeerd, de intenties zijn prima van iedereen, maar het nou eenmaal een natuurlijk verschijnsel).
Heeft vast last van een zenuwtrekking.
Zou het iets te maken hebben met de pdc darts finale, Van Gerwen tegen Smith. Die hoort achter een paywall, viaplay te zitten maar via twitch ook te bekijken.
Jammer genoeg zijn het allemaal gare Duitse twitch streams die het toernooi uitzenden, van constant boeren en vapen op de achtergrond naar 'thx for following' muziek elke 3sec met een afbeelding middenin je beeld. Wat een drama.

Wel grappig om te zien wat Viaplay heeft gedaan idd, zie vrijwel enkel alleen maar Nederlandse twitch nicknames in 2k+ twitch viewerlists.

[Reactie gewijzigd door xtrmx op 23 juli 2024 16:56]

Gewoon via VTM Go kunnen kijken hier in Nederland.
Zit je dan klaar in je hot tub..

Op dit item kan niet meer gereageerd worden.