WhatsApp heeft een storing - update

Nederlandse, Belgische en andere gebruikers van WhatsApp melden dat de messagingdienst last heeft van een storing. Het is de tweede keer deze maand dat WhatsApp met een omvangrijke storing te maken heeft.

Op AlleStoringen stromen de meldingen over de storing bij WhatsApp binnen. De storing lijkt iets na 19.00 begonnen te zijn. Op Downdetector valt op te maken dat verreweg de meeste meldingen in Nederland gedaan worden, maar ook in andere landen verschijnen vergelijkbare meldingen, waaronder uit België, Duitsland en landen buiten Europa.

Op 3 november had WhatsApp ook al met een grote storing te maken. Toen verschenen meldingen in meerdere Europese landen.

Update 20.25: de problemen lijken voorbij.

WhatsApp downdetector 30-11-2018

Door Olaf van Miltenburg

Nieuwscoördinator

30-11-2017 • 20:12

147

Submitter: AertSt

Reacties (147)

147
132
81
5
0
21
Wijzig sortering
Whatsapp mag dan wel het meest gebruikte app zijn om te communiceren, maar downtime kan je niet voorkomen. Sterker nog, je kan een uptime van 100% nooit garanderen.

Dit zijn de SLA's voor de verschillende up/downtimes
99% staat gelijk aan:
Daily: 14m 24.0s
Weekly: 1h 40m 48.0s
Monthly: 7h 18m 17.5s
Yearly: 3d 15h 39m 29.5s

99.9% staat gelijk aan:
Daily: 1m 26.4s
Weekly: 10m 4.8s
Monthly: 43m 49.7s
Yearly: 8h 45m 57.0s

99.99% staat gelijk aan:
Daily: 8.6s
Weekly: 1m 0.5s
Monthly: 4m 23.0s
Yearly: 52m 35.7s

Dus waar maken we nou zo druk om? Wat zou er gebeuren als heel de internet uitvalt? Of GPS? Mensen kunnen wel boos zijn dat dienst x of y niet werkt, maar als zij tig data moeten verwerken, dan kan het ook wel een keer fout gaan. Het kan ook net zo goed zijn dat er een update op de serverside heeft plaatsgevonden, of dat er een glasvezel kabel defect is geraakt.

Geef de mensen de tijd om het uit te zoeken, we worden immers ook niet blij van als iedereen in onze nek loopt te hijgen omdat alles snel moet werken.

Bron: https://uptime.is/
Specificeer 100%! Als ik twee datacenters heb die allebei de capaciteit hebben beide actief zijn en beide ook redundant HA-GEO zijn dan mag 1 datacenter uitvallen en blijft de service gewoon draaien. Als ik dit combineer met wereldwijde infra in vier of 5 regios dan kan je best stellen dat de service altijd 100% beschikbaar blijft. Wij geven deze garantie namelijk aan klanten. 100% uptime in minimaal 1 datacenter van de 3 verdeeld over EMEA / NAM / APAC.
Hoe kun je nu 100% uptime garanderen als jij niet alle schakels zelf in beheer hebt (tot aan bijvoorbeeld de onderzeese kabels). Ik neem aan dat daar een clausule is ingebouwd in het contract. De kans is heel klein dat er iets gebeurt, maar 100% klinkt niet slim. Maar ja, ondernemen is risico nemen, dus misschien willen jullie dit kleine risico lopen.
Onderzeese kabels is ook niet jouw probleem maar van de provider van je klanten. Je garandeert dan ook 100% uptime tot aan het internet, niet het pad verder. Als Ziggo bij mij er uit ligt dan heb ik 0% uptime maar ik denk niet dat ik aanspraak kan maken op de SLA van een hostingprovider.

Verder zijn er dankzij routing protocollen genoeg routes beschikbaar om niet afhankelijk te zijn van 1 kabel

[Reactie gewijzigd door GrooV op 22 juli 2024 15:23]

100% uptime tot aan het internet is al wat anders dan 100% uptime.
Je kan ook SLA’s met je provider afsluiten. Niet elke provider en soms kóst het wel wat, maar als je groot genoeg bent als bedrijf kan dat vaak wel.
Denk dat je het nog anders moet zien.

Het in de grote van whatsapp niet mogelijk 100% te hebben.
Voor kleinere organisatie kun je alles naar een 2de server zetten die dan 99,99% van het jaar niets staat te doen.

Stel je eens voor dat de infrastructuur van google, facebook ms, kompleet ergens 99,99% van de tijd niets staat te doen. Dat kost te veel geld.

Natuurlijk heeft men servers die zaken kunnen opvangen maar als 1 datacenter er uit gaat moeten de andere ook genoeg capaciteit hebben om dat op te vangen. Als die overbelast raken ligt er nog veel meer uit. Dus krijg je gewoon beperkte overdracht tot het probleem is opgelost.
Het is zeker wel mogelijk :) Die redundant uitgevoerde infrastructuren van grote bedrijven staan echt niet 99.99% van de tijd niets te doen. Die worden gewoon gebruikt voor load balancing of om een endpoint aan te bieden die dichterbij de eindgebruiker ligt voor een snellere applicatie. Mocht er dan één wegvallen, dan zal de rest van de infrastructuur een klap krijgen maar hoe meer je het verdeelt, hoe minder hard die klap aankomt.

Voor een bedrijf als facebook met een gigantisch aantal resources beschikbaar zou deze vorm van redundancy geen probleem moeten zijn om op te zetten.
Je vergelijking is denk ik krom, om meerdere redenen:

- Voor een kleinere organisatie is die 2e server die niets doet zo mogelijk in verhouding duurder dan een partij als Google die een heel serverpark standby heeft staan.

- Redundante infrastructuur hoeft niet niets te doen. Je kunt ook prima active/active draaien waarbij beide locaties online zijn.

Bij 2 locaties is het dan theoretisch correct dat je 50% spare capacity moet hebben, maar zodra je het aantal locaties opschaalt hoef je steeds minder redundancy te hebben. Bij 2 is dat 50%, bij 3 is dat 30%, bij 4 is dat 25%, etc, etc.

Met name om deze reden is het hebben van een redundante omgeving goedkoper naarmate je meer schaalgrote hebt, ookal gaat het in absolute getallen om veel meer geld.
Klopt, probleem is alleen en dat heeft het verleden laten zien dat het steeds complexer gaat worden naarmate het groter is. Kleine fout en je kan een kaartenhuis effect krijgen
Ja, maar jij had het over geld. Overigens is ook dat naarmate je meer schaalgrote hebt beter te behappen dan als kleine organisatie.
In de meeste SLA's gaat de garantie over de daadwerkelijke eigen diensten. Dus 100 % uptime voor Internet, zul je op die manier niet in een SLA vinden. Wel b.v. 100 % uptime van de eigen diensten tot aan punt x (waar de volgende dienst het dan weer overneemt).

Overigens kun je, voor de juiste prijs, natuurlijk alles garanderen. Ik kan b.v. best 100 % uptime garanderen incl internet, alleen hangt daar een superstevig prijskaartje van een paar miljard aan (dan wil ik best mijn eigen kabels leggen en infra inrichten hoor). Alleen zullen klanten daar in de regel niet echt gebruik van maken :)
Wij hebben 2 datacenters. In onze contracten staat 99.9% uptime. 100% is een droom / fabeltje. Je houdt jezelf voor de gek als je denkt dat je 100% kan garanderen.
voor sommige architecturen geldt dat ja maar voor andere niet ook hangt het af van wat je 100% vindt. Doe maar eens een rondje op internet. Er zin genoeg service providers die 100% bieden dus zo raar is die droom niet.
ER zijn er genoeg die dat bieden, maar dat lukt nooit. Als een exchangeserver failovered naar een database ben je 30 secs uit de lucht soms kwa mail. en ja lokale kopie enz. maar 30 secs is ook geen 100%

onderhoud kan je ook nooit goed uitvoeren etc.

Zelfs office 365 heeft weleens storingen enz. Mensen die 100% garanderen houden zichzelf voor de gek. Werk bij een vrij grote hostingspartij en beheer zelf de firewalls, mailservers en delen van het datacenter. 100% bestaat gewoon niet.
Een SLA is gewoon een managementterm die managers het gevoel geeft dat ze meetellen en dat ze iets vatbaars onder ogen krijgen waar ze een beslissing over kunnen nemen. En voor bedrijven een marketing term om aandacht te trekken tov je concurrenten. Je doet een bewering en vervolgens zwak je 'm af. Tuurlijk kan je 100% roepen want een SLA wordt doorgaans berekend en afgegeven per maand/jaar. Je kan ook een nieuwe trend volgen. Dan geef je een percentage voor de service en vervolgens staffel je lagere percentages met korting. Ik zou dus kunnen zeggen "ik heb een 100% beschikbaarheid". Als de beschikbaarheid echter tussen de 100 en 99,9% uitkomt krijg je 10% korting. Als ik al weet dat ik 99,9 makkelijk haal en daar mijn eigen prijs op baseer (dus dat de prijs bij 10% korting de norm is) kan ik in de maanden dat ik wel 100% gescoord heb extra verdienen en extra winst maken. Het is maar net hoe je het specificeert. SLA's is een juridisch document tussen twee bedrijven en daar staan altijd kleine lettertjes in.

Dit document dekt de lading wel in deze discussie:

Some even offer unachievable levels of service in a bid to gain leverage in a crowded market place. They offer 100 percent SLAs, knowing that they won’t achieve them, but on the basis that it will be cheaper to pay compensation for missing the SLA on the occasions that they do, rather than miss out on the deal altogether.

[Reactie gewijzigd door InsanelyHack op 22 juli 2024 15:23]

Ik begrijp wel hoe dat werkt, alleen het type klanten dat wij hebben die hebben liever dat je eerlijk bent en de 99,9 kan garanderen dan smoesjes en 100% aanbieden.

Dit wordt vaak onderschat. Eerlijkheid en openheid richting klanten
Klopt maar waar leg je de grens met je eerlijkheid? In een bid waar 3 bedrijven concurreren is het knap lullig als je een deal verliest als je er 0,005% langs zit. Een beetje manager neemt het risico wel om er 0,01% boven te gaan zitten en zo zijn mensen aan het werk te houden.
Nee, een SLA is niet gewoon een managementterm. Een SLA is meer een overeenkomst op basis waarvan je precies weet wat je van elkaar kunt verwachten.
Het is een keuzemoment (in dit geval verwachtte uptime vs kosten).

B.v. ik heb in een bedrijf gewerkt waar altijd gezeur was met de printers.
Bijna wekelijks kreeg ik vanuit management en directie een lading negativiteit op mijn dak, want printer x en y deden het weer niet en er moest NU wat aan gedaan worden.

Vaak hing ik met de leverancier in de clinch om ervoor te zorgen dat er een monteur langs kwam en was ik redelijk gepikeerd als er dan na 6 uur 's 1 kwam kijken die me vervolgens de boodschap gaf dat er een onderdeel besteld moest worden en dat dat 3 weken zou duren.

Op een gegeven moment liep het de spuigaten uit en heb ik de SLA opgevraagd bij het management. Wat bleek? We hadden het goedkoopste onderhoudscontract, waarbij in de SLA alleen was opgenomen dat 'er binnen 8 uur een monteur langs zou komen'. Dus niets over binnen max. 8 uur gemaakt, niets over vervangende printers, levertijden onderdelen, etc etc.

Vanaf dat moment kon ik dus mijn directie en management met die SLA om de oren gaan slaan, iedere keer als zij weer zaten te zeuren over die printers, kon ik aangeven dat de leverancier precies deed wat in de SLA stond, omdat zij ooit op zo'n goedkoop mogelijke manier een contract af hebben gesloten en als ze dat anders wilden, ze dan toch echt een andere overeenkomst moesten gaan sluiten met de leverancier.

Een SLA legt de verantwoordelijkheden van de partijen uit en maakt de grenzen duidelijk.
Printers zijn sowieso het werk van satan
Van de gelinkte website:
We guarantee that network access to your servers and services shall be available 100% of the time, excluding emergency and scheduled maintenance.
Dat is dus geen 100%.

[Reactie gewijzigd door Ghost Dog op 22 juli 2024 15:23]

precies... zoals al 10 keer gezegd het is maar net hoe je het specificeert.
Hier nog één... maar ook "if you manage it properly".

[Reactie gewijzigd door InsanelyHack op 22 juli 2024 15:23]

"'100% uptime, excluding all the downtime'. Zo, opgelost!" Je kan niet zomaar woorden herdefiniëren in je eigen voordeel. Dat de marketing-/clickbaitwereld zo werkt houdt niet in dat ze gelijk hebben.
100% uptime garanderen is niets anders dan marketing bullshit. Geen enkel bedrijf kan dat garanderen. Een service delivery manager die dit in een SLA heeft gezet deugt niet.
https://www.hitachivantar...vailability-solutions.pdf
https://www.theregister.c...s_availability_guarantee/
https://accudatasystems.c...ability-winning-trifecta/

Eens maar nogmaals het hangt af hoe je het specificeert en wat je delta t is. Ook kan je een deviatie compenseren met een korting en de beschikbaar periode markeren als 100%.
100% uptime garanderen is technisch gezien onmogelijk. Bij uitval van een datacenter zal een ander datacenter met een schaduwkopie dit over moeten nemen. Echter hier zit altijd enige tijd tussen, hoewel deze tijd wel gerekend kan worden in seconden. De schakel van het ene datacenter naar een ander datacenter is niet instant.

Zelfs de overheid kan dit niet en zij werken met best wel gevoelige data die ALTIJD beschikbaar moet zijn ;)
Mooi verhaal, maar je hebt alleen wat rommel geografisch gescheiden. De praktijk leert echter dat er ook nog zoiets is als menselijk falen of redundancy systemen die niet goed werken.

Daarnaast heb je, zoals al wordt aangekaart, niet alle kaarten in hand. Het kan dus best zijn dat een failover niet goed gaat omdat iets 'half stuk' is. Dan komt een bezoeker nog wel uit op een locatie die misschien niet meer volledig online is.

100% is onhaalbaar. Je kunt het uiteraard best als garantie opnemen in een contract. Alleen zul je dan financieel moeten compenseren wanneer je dat niet haalt.
99,99% is ook niet gespecificeerd incl. menselijk falen. Recentelijk is dit nog bij Amazon S3 gebeurd.

Een mooi voorbeeld is b.v. S3 object storage van Amazon. Als jij je data in Ierland bewaard en je data niet repliceert dan is de SLA hierop een 99,9 geloof ik. Als je het zelf repliceert naar Amerika en naar Azie dan kan je een SLA afspreken die veel hoger is. Je kan specificeren "S3 with 100% availaility beeing available in one or more regions". Maar heb je daar wat aan als klant aan die bewering? Ik denk dat consistency veel belangrijker is dan de uptime.

Amazon hanteert al staffels. Ze geven een SLA af van 99,9 maar als het tussen 99,9 en 99,8 zit krijg je korting. Ik zou als service provider 100% kunnen bieden en daarna kunnen zeggen tussen 100% en 99,9 krijg je 10% korting. De prijs bij 10% korting is mijn service prijs. De maanden dat ik 100% haal maak ik meer winst. It's all how you specify it.
dat is dan een infra/DC uptime
100% op de dienst is lastig, dus incl. middleware en applicatie; dit zijn 2 andere componenten om de dienst beschikbaar te houden.

Je ziet ook wel dat het soms een combi van infra & logische fouten op app of middleware ervoor zorgen dat de boel plat gaat bij cloudproviders, alsin dat de dienst niet beschikbaar is.
Fatale bug in Windows waardoor je na de update in een bootloop komt? Er zit een bug in jullie service waardoor een aanvaller communicatie blokkeert? Daar gaat jullie 100% uptime claim, en jullie hebben zojuist contractbreuk gepleegd. Voor 1% minder had je ruim 3 dagen de tijd gehad om dat op te lossen.
Een service die zo van Windows afhankelijk is en of zo is opgezet of beheert zou ik niet graag in mijn service meenemen. Vandaag de dag ... cloud scaling / clusters / cluster aware updates / snapshots / checkpoints ... om maar wat technieken te noemen... maar dat is niet echt de discussie.

De 1% lagere SLA zoals je aangeeft, dan had ik de klant nooit gehad, nu wel en geef ik gewoon korting omdat ik mijn 100% niet gehaald heb.
Ondanks dat dit de discussie niet was is zelfs daar ook iets voor te bedenken. Je kan je service bouwen op Linux en Windows tegelijk waarbij je de load via load-balancers verdeeld. Treed er een OS bug op dan is het door de verdeling niet op beide OS-en gelijktijdig het geval en kan ik in een cloud aware omgeving tijdelijk bv extra Linux instances opschalen en de bug in windows oplossen of andersom.

Ik zie nu iOS en Android staan... Ik mag aannemen dat als er een bug in je mobiele apparaat zit je deze niet reflecteert of meetelt tav een service die je bv publiekelijk aanbiedt?

[Reactie gewijzigd door InsanelyHack op 22 juli 2024 15:23]

Er is geen reden waarom je in theorie geen service of Android of iOS kan hosten (die laatste is mss lastiger, Android is mogelijk en zijn zelfs apps voor om tijdelijk te kunnen doen).
100% uptime garanderen kan je niet omdat er ook ergens anders op het traject storing kan optreden waar je dus zelf geen invloed op hebt.
Ik was een paar jaar geleden in het datacenter van een grote bank. Daar werd gezegd dat als hun services 15 minuten niet werken dat de hele bank failliet is. Die garanderen dus ook 100% uptime. Dat zal af en toe wel een uitdaging zijn met software updates en is ook tevens de reden dat ze op sommige vlakken nog erg achter lopen qua recente software versies.

Enfin er zijn 2 datacenters die beide elkaars werk kunnen overnemen, de datacenters liggen 50 km uit elkaar en zijn met 2 glasvezelkabels aan elkaar verbonden. De 2 glasvezelkabels liggen ook totaal ergens anders dus als er 1 kapot gaat dan werkt de andere nog. In de kelder staat een grote diesel generator die een complete stroomuitval kan opvangen.

Dit was overigens zo’n 10 jaar geleden, ik kan me voorstellen dat ze nu nog meer maatregelen hebben genomen om de 100% uptime te behouden.
Daar geloof ik niets van, in 15 minuten ben je echt niet failliet. Als iemand 15 minuten niet bij zijn geld kan dan is de hele bank echt niet failliet, daar is echt wel meer voor nodig. Hoe moet die bank dat failliet gaan? Omdat er 15 minuten lang geen nieuwe rekeningen kunnen worden geopend?

Ik heb ooit een presentatie van de IT manager van Transavia gezien en die zei dat als hun site er een dag uit is dat ze dan failliet zijn omdat er geen boekingen meer binnenkomen en mensen naar de concurrent gaan. Lijkt mij vrij sterk allemaal.
Nou is het waarschijnlijk wel even appels en peren vergelijken, maar dit artikel geeft aan dat het binnen een uur flink mis kan gaan. Een bedrijf ging failliet in 45 minuten door een foute deployment. Oorzaak is anders, maar dat maakt voor het resultaat weinig uit

https://dougseven.com/201...a-devops-cautionary-tale/
Een foute deployment zorgde voor verkeerde transacties e.d.

Bij een downtime ben je niet bereikbaar en ligt alles "gewoon" stil. Dan vliegt je vermogen niet de deur uit door een fout in het systeem.

Zo heeft Vodafone er jaren geleden ook ruim een dag uit gelegen door brand, die zijn daardoor echt niet failliet gegaan.

[Reactie gewijzigd door jongetje op 22 juli 2024 15:23]

Let niet teveel op het thema van het artikel. Zoals ik zei, het is appels en peren vergelijken. Maar het artikel geeft aan dat doordat het systeem niet goed werkt, ze veel verlies hebben geleden.

Een les dat je hier uit zou kunnen halen is dat je schade krijgt als je bedrijf plat komt te liggen (om wat voor reden dan ook) . Afhankelijk van je bedrijfstak en je omvang kan dit catastrofaal zijn. Een bank met misschien wel (ik zeg maar wat..) honderdduizenden/miljoenen gebruikers is daar geen uitzondering in.

Ik denk dat je de (potentiële) omvang van dit soort taferelen niet helemaal beseft
Je zegt twee dingen tegelijk. Eerst zeg je dat een bedrijf failliet gaat door down time en dan geef je een voorbeeld van een bedrijf dat failliet is gegaan door een fout in de software na een deployment.

Je kan niet failliet gaan door 15 min down time. En een bank al helemaal niet.

[Reactie gewijzigd door defixje op 22 juli 2024 15:23]

Kan me wel voorstellen dat als het een puur zakelijke bank is de klant starre SLA's heeft afgesloten en schadevergoedingen kan gaan eisen. Als je kijkt naar bijvoorbeeld de aandelenmarkten waar heel goed op latency gelet wordt, dus secondenwerk de norm is voor het doorvoeren van opdrachten dan is 10 minuten plat liggen gelijk aan het missen van deals die veel waard kunnen zijn. Of juist niet kunnen verkopen van een dalend aandeel).

Maar moet wel zeggen dat zo'n instelling tegenwoordig niet meer 2 dc's zou hebben en al helemaal niet meer in 1 land maar intercontinentaal zou gaan spreiden.

En de bank zal niet binnen 15 minuten omvallen maar pas jaren later door alle schadeclaims...
Anoniem: 890159 @cazzer221 december 2017 10:56
Welnee, banken vallen niet om, dan neemt de staatsschuld gewoon weer toe.
dat zou ook inhouden dat je met een ddos attack iemand falliet kan laten gaan. dus ik denk dat dat eerder uitzondering is dan in de algemene zin
Als iemand 15 minuten niet bij zijn geld kan dan is de hele bank echt niet failliet, daar is echt wel meer voor nodig. Hoe moet die bank dat failliet gaan?
3 woorden: High Frequency Trading.
Jullie kunnen nog meer woorden noemen, maar failliet is echt iets anders dan (heel) veel verlies draaien.
Ik zie ook niet in hoe High Frequency Trading tot verlies kan leiden bij een kwartier downtime. Je verliest een deel van de tijd waarin je transacties kan doen. Maar zijn er verplichtingen met een grote hefboom waarin binnen een kwartier aan moet voldoen?
HFT is er op gebaseerd dat je in heel korte tijd heel veel risico neemt.
Als je dan geld uit hebt staan in bv een vreemde valuta, en je maakt niet op tijd een beweging terug naar je startvaluta (om een simpel voorbeeld te geven) dan kan dat geld opeens omslaan in een enorm verlies.
Je hebt dan binnen een paar seconden een verlies dat vele malen groter is dan wat je er aan waarde ingestopt had.
Maar zijn er verplichtingen met een grote hefboom waarin binnen een kwartier aan moet voldoen?
Met HFT gaat het soms om microseconden, dus ja.
En dan hoeft de hefboon niet erg groot te zijn.
Zou zelfs zonder hefboom kunnen. Dan heb je welliswaar niet veel schulden achteraf maar je bent wel je hele inzet kwijt.
Ik ben nog niet overtuigd. Stel je hebt 100 miljoen aan Euro's en wisselt die om in dollars, met de bedoeling die binnen 10 seconden terug om te ruilen. En je krijgt een storing waardoor je een uur offline bent. Dan zit je gedurende dat uur met dollars opgescheept. Na een uur kan je die dollars eindelijk omruilen in Euro's. Ik zie niet in hoe in dit scenario per definitie grote verliezen maakt. Bij HFT gaat het weliswaar om microseconden om van 0.1% koersverandering te kunnen profiteren. Maar het is niet zo dat na een uur de koers met 1000*1000*60*60*0.1% is veranderd.
Ik heb bij meerdere banken gewerkt, en die hebben echt geen 100% uptime garantie.
Tenzij je bedoelt dat het hele systeem uitvalt. Echter vaak valt er een gedeelte uit waardoor je toch al niet meer 100% kan beloven.

Wat wel zo is, is een 99,9% uptime garantie, maar ook daar zitten ze soms onder
Ik heb het inderdaad erover dat als alles uitvalt, dus als er totaal geen transacties gedaan kunnen worden, geen beurshandel bij de bank kan plaatsvinden etc. De meeste denken dat een bank alleen het geld beheert van mensen maar dat is niet hetgeen waarop een bank failliet zou gaan. Ik denk eerder aan grote (internationale) transacties die mislukken en de beurshandel die bij die bank dan plat ligt.

Hoe het precies zat weet ik niet meer maar ik heb wel onthouden dat als 1 locatie volledig uitvalt ivm een atoombom oid dat de andere locatie dan “alles” kan overnemen.

Nogmaals dit was de situatie van zo’n 10 jaar geleden. Natuurlijk valt er wel eens een server uit die misschien enkele dagen eruit ligt zonder dat het (grote) gevolgen heeft. Maar als alles eruit ligt dan is het wel iets ernstiger.
Op 9/11 viel er wel meer dan server uit. Maar toch overleefden de meesten banken het wel.
Nou als dat zo was dan waren alle grote Nederlandse banken al 100x failliet. Hoe vaak die rommel er wel niet uit ligt...
Je hebt gelijk hoor. Daar wil ik niets van wegnemen. Toch is het zo dat ik met Telegram, wat ik veel meer gebruik, nog nooit een storing heb meegemaakt.
Dat komt waarschijnlijk ook omdat Telegram heel veel minder gebruikers heeft (100 miljoen ten opzichte van 1,3 miljard voor Whatsapp).
Mijn huisserver heeft 2 gebruikers, maar de uptime is een stuk lager dan 99%. Ik zie de door jou geïnsinueerde relatie dan ook helemaal niet.
Maar gebruikers, grotere infra verspreid over veel meer landen, veel meer kans op storingen.

[Reactie gewijzigd door EnigmaNL op 22 juli 2024 15:23]

Ik heb met Telegram ook wel 's een storing meegemaakt, maar in de +/- 4 jaar dat ik het gebruik is het echt maar zelden voorgekomen. @EnigmaNL Dat cijfer stamt nog uit begin 2016. Een huidige cijfer is er (helaas) niet. In februari 2015 zat het nog op ~50 miljoen. Een jaar later op 100 miljoen. En de groei is redelijk constant. Het zou me dan ook niet verbazen als Telegram inmiddels ergens tussen de 150 en 200 miljoen gebruikers zit. Best knap gezien de concurrentie. Voor mij persoonlijk is het overigens wel echt superieur aan WhatsApp, alleen al vanwege de véél betere ondersteuning wat betreft het versturen van (grote) bestanden en de heerlijke desktopclient.
100 miljoen of 200 miljoen, het blijft slechts een fractie van de aantallen van WhatsApp.
De internet? Ouch. :P

Ik snap heel eerlijk niet zozeer waarom dit nieuws is. Kan mij zomaar voorstellen dat iedere dienst wel eens geplande danwel ongeplande outages heeft. Shit happens. En als iets dan x minuten niet beschikbaar is, soit. Het enige verschil met andere diensten is misschien het aantal gebruikers. Heb je een uur of wat geen appjes. Is nu ook niet het einde van de wereld lijkt mij.

Is er overigens een soort "planned maintenance" overzicht op een website m.b.t. Whatsapp? Of is alles zo redundant uitgevoerd er alleen sprake is van unplanned outages? Eigenlijk vreemd dat iets wat zo veelvuldig gebruikt wordt, zo weinig transparant is naar verhouding.
‘Het internet’ is een gedistribueerd netwerk. DNS kan uitvallen, maar ‘het internet’ blijft altijd ergens werken. Het gevaarlijke aan Whatsapp is dat we een gecentraliseerde partij zo machtig hebben laten worden. Met e-mail kan dit nooit gebeuren.
Je vergeet voor het gemak dat er hordes mensen zijn die WhatsApp voor serieuze zaken gebruiken. Hoe beter de uptime, hoe minder men verwacht dat er downtime optreed. Het net zoals met Windows 9x. Op een gegeven moment verwacht je gewoon dat-ie plat gaat. Zoals die legendarische quotes van "mijn Windows 9x draait al een week!" even later, poof BSOD :+
Anoniem: 636203 @Jerie1 december 2017 07:55
Windows 9x is ook gewoon een speelgoed OS. Pas bij XP werd het stabiel genoeg voor desktop gebruik. Nu hoor je zelden nog mensen klagen over klappen van Windows, ook al komt het nog steeds voor.
100% is minder nauwkeurig dan 99.9%

100% uptime is dus makkelijker te realiseren dan 99.9%

Iets om over na te denken ;-)
Niemand maakte zich druk, het is alleen ter informatie dit.
ik denkt dat jij de gene bent die zich het drukste maakt hier :P.

dat long post though _/-\o_
Opzich is er wel weer een botnet in ontwikkeling met de capaciteit om een deel van het internet offline te halen zoals toen met Mirai; Reaper wordt het genoemd.

https://krebsonsecurity.c...e-the-iot-security-storm/
https://krebsonsecurity.c...reaper-or-reaper-madness/
Natuurlijk heeft ieder bedrijf wel eens een storing.
Op nummer 2 na mijn bank vindt ik WhatsApp het vervelendst, dit komt vooral omdat ik daar met collega's een groepsapp heb, met scouting, vrienden, familie, etc.

Nu waren we net toevallig in besprekingen over het sinterklaasfeest en alles dat daarbij hoort bij scouting.

Daarom vindt ik het vaak vreemd dat een tamelijk onschuldige app zoals whatsapp hun storingen meestal sneller verwerkt hebben dan een bank.

En daarbij komt de vraag: waarom gaat alles plat, vanwege een hack, te veel gebruikers in een keer waardoor de servers eruit klappen, een antwoord komt vrijwel nooit naar buiten.
WhatsApp heeft er heel veel baat bij snel weer online te komen, een bank heeft dat nét iets minder (mensen slikken een uurtje of wat downtime wel en proberen t later wel opnieuw) maar zijn ook een stuk complexer om op te lossen.

De meeste storingen ontstaan als WhatsApp een update uitrolt aan de serverkant, veelal voor nieuwe features of bugfixes. Als niet de gehele fleet meewerkt kan dat problemen geven of als ze het in stages doen en het wordt opeens drukker dan verwacht op de overgebleven servers dan krijg je gelazer tot het terug opschaalt. Het is redelijk zeldzaam, maar gebeurt. Daarnaast is overbelasting een factor, zou alleen niet weten wat dat vandaag zou moeten veroorzaken gezien ze over t algemeen zelfs met oud & nieuw de boel nog online weten te houden. Een DDoS is wat minder vanzelfsprekend als oorzaak gezien de zeer hoge capaciteit van FBCDN en de carriers van WhatsApp.
Vandaag de dag in een cloud omgeving zijn dit wat mij betreft geen valide argumenten om dit goed te praten. Je kan gewoon tijdelijk capaciteit bijschalen om bv de oude omgeving nog wat tijd te geven. Dan kan je je main productie omgeving upgraden of patchen waarna je de extra capaciteit weer kan afschalen.
Of CAU bv met clusters Cluster Aware Updates?
Het ligt eraan. WhatsApp maakt voor de normale functionaliteit voor zover ik weet geen gebruik van de bekende cloud services... “Gewoon even bijschalen” is op eigen hardware lang niet altijd zover mogelijk; al heeft WhatsApp wel een flinke overcapaciteit, spares en redundante hardware beschikbaar uiteraard - daar wordt niet veel op bezuinigd. Maar “onbeperkt” schalen is puur luxe eigenlijk :P Je spullen in eigen beheer houden is voor veel bedrijven, zeker zij die bewust zijn van de veiligheidsaspecten, heel erg belangrijk - en dan lever je wat in op gebruiksgemak en hoe snel je kan reageren op spontane grote problemen.

Uiteraard hebben ze een eigen cluster waar een cloud-like environment op draait. En die is voor zover bekend maar weinig indrukwekkend qua specs, maar bijzonder indrukwekkend qua performance. 2 jaar geleden draaide het voor puur het messaging gedeelte op slechts 150 chatservers + spares. Dat is verrekte weinig voor zo’n grote dienst, maar heel raar is het niet gezien destijds één enkele server (2x2690v2, 64GB RAM) al met gemak minstens 5 miljoen connecties tegelijk kon hebben. (Aangepaste FreeBSD stack en ‘t hele zooitje draait op Erlang) In de tussentijd zal dit wel flink gegroeid zijn, want de userbase en mensen die het dagelijks gebruiken zijn fors gestegen. Plus allerlei extra diensten zoald (video)bellen, etc etc. (Al wordt daar FBCDN voor geleveraged)

Enfin, WhatsApp is niet je default setup maar heeft uiteraard opschalingsmogelijkheden die snel ingezet kunnen worden (en wie weet is dat wat ze vandaag ook gedaan hebben maar duurde het een kwartiertje voordat het klaar was); maar gezien het allemaal bare-metal is kan dat niet zo ver noch per definitie instantly als bij sommige cloud providers waar je even zomaar zelfs 10.000 cores kan bijschakelen zonder probleem als je maar dokt. :+

Dat gezegd hebbende... De “cloud” is natuurlijk niet heilig. Ook bij clouds kunnen storingen optreden. Hardware maar vooral ook software. Als jij iets uitrolt waar blijkt een bug in te zitten die enkel onder heel specifieke situaties triggert: dan kan je nog zoveel capaciteit hebben: dan raakt het boeltje alsnog overbelast en lazert uit. That’s the nature of computer systems. En dan is er ook nog een stukje kosten. Etc. Etc.

Ja zelfs in je meest luxe cloud met een enorme stapel cash kan je hele omgeving offline donderen als domino steentjes. Zo lag heel AWS pas geleden plat. :X
https://www.recode.net/20...n-error-incorrect-command
Door één foutje van een medewerker die aan iets irrelevants werkte ontstond een chaos van jewelste en ging het hele zooitje plat; met als gevolg dat duizenden websites en een aantal hele grote diensten (zoals Netflix) enorme problemen hadden. Zit je dan met je cloud, maar dan kan je dus ook niet “even bijschalen”; en is ook useless want je hele omgeving ligt plat...
Wat dat betreft heeft WhatsApp het zelfs nog goed, want die zijn niet afhankelijk van één third-party dienst maar enkel van zichzelf en in meerdere datacentra.

Cloud kan fijn zijn als je capaciteitsproblemen hebt, maar is niet altijd je redding.
En hoe dan ook: ik dénk niet dat de storing van vandaag een issue was met de capaciteit. :)

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 15:23]

Het is gelukkig ook niet overal in de wereld tegelijk oud & nieuw. Er zullen ongetwijfeld een enorme massa berichten en foto's worden verstuurd op 31 Dec en 1 Jan, maar het is wel netjes verdeelt over de wereld.
Kijk, hier heb ik wat aan.
Dankjewel voor je reactie. ;)

Hiervoor is het reageren via tweakers echt zinvol, je hebt je eigen kant van het verhaal en krijgt toch ook iets zinvols terug waardoor alles een beetje meer begrijpt en op zijn plaats kunt zetten.

Als ik het niet goed geformuleerd zou hebben zou ik een 0 of -1 status krijgen waardoor niemand reageert op de vraag of discussie.

Hier moeten wij wat aan doen: wij zijn er om elkaar te helpen en om dingen misschien in een perfectief te zien die andere tweakers misschien niet doen.
De beste man heet WhatsappHack, wat wil je nog meer ;)
Denk eerder door de rel met Shelly bij Expeditie Robinson. :+
Nee ik denk dat tegen de marginale effecten dat zoiets heeft er geen storing zal worden veroorzaakt bij WhatsApp. :) Tenzij de hele wereld die onzin volgt, maar ik mag toch hopen van niet. :P (Ieder z’n ding trouwens he :D)
Ik heb op Telegram de afgelopen 3 jaar nog nooit een storing gezien.
Uiteraard ben ik het niet oneens met de uitspraak 'Natuurlijk heeft ieder bedrijf wel eens een storing', het is slechts een opmerking ;)
Tel daarbij op, dat omdat jij geen storing gemerkt hebt, dat niet betekend dat ze er niet zijn; zie nieuws: WhatsApp en Telegram kampen met downtime door storing en onverwachte ... bijvoorbeeld. :)

EDIT:
Zie CH4OS in 'nieuws: WhatsApp heeft een storing - update' voor recente Telegram storingen.

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:23]

Ik zie daar 22-02-2014, dus dan klopt die drie jaar van w0nnapl4y wel. :) :)
Punt is meer dat zij ook wel last van storing hebben. ;) Vandaag schijnen de bots bijvoorbeeld problemen te hebben gehad, als ik http://downdetector.com/status/telegram/map/ zo lees. ;)

Op 26 september 2017 is de stroom uitgevallen in het Azië-cluster van Telegram: https://twitter.com/telegram/status/912606311891832832

En op 13 september 2017 is er een storing in Europa geweest aan Telegram: https://twitter.com/telegram/status/908035875187150848

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:23]

Daarom gebruik ik ook voornamelijk Signal :P
Ook Signal kan net zo goed storing hebben, dus ik begrijp even jouw opmerking niet. :)
Ja klopt!, Daarom had ik er ook een smiley achter gezet, goed weekend!
of je gebruikt 2 chatdiensten. dan heb je het probleem vaak niet ;)
Tot er stroomstoring is en je dus geen regulier of 4G internet ter beschikking hebt... ;)
Daarom vindt ik het vaak vreemd dat een tamelijk onschuldige app zoals whatsapp hun storingen meestal sneller verwerkt hebben dan een bank.
Het is ook even een iets makkelijkere dienstverlening. Als jij een app-je blijkt te missen dan a) bestaat de kans dat je het niet eens zal merken/is het overkomelijker b) denk je "ach, appje gemist"

Als de bank een transactie/geld kwijtraakt, dan breekt alle hel los. Dan gaan overheidsorganen en centrale banken boos worden.

Daarnaast: Als je het applicatief bekijkt, een bank is een gelaagd, multi-applicatief systeem. Vrij complex. Whatsapp is een licht schilletje rondom een messaging-bus. Mooi geschaald, maar de basis is eenvoudigr.

[Reactie gewijzigd door Keypunchie op 22 juli 2024 15:23]

Het is ook even een iets makkelijkere dienstverlening.
Ze bieden wellicht een wat bassalere dienst, maar dat betekend niet dat de omgeving waarin de applicatie draait niet complex is! Hoe denk je dat Twitter bijvoorbeeld ingezonden tweets van hun users zo snel mogelijk de wereld rond werkt? Ze verwerken een kleine 6000 tweets per seconde en een aantal gaan in een mum van tijd de hele wereld over. Dat gaat ook niet zomaar.

De statistieken van WhatsApp zijn nog wel een stukje groter. ;)

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:23]

Punt is dat een bank en hun transacties vele malen kritischer en gevoeliger zijn dan een tweet of een whatsapp boodschap. Appelen en peren vergelijken.
Ik vergelijk de diensten niet. Ik zeg dat de infrastructuur en de werking van zelfs een "basale" dienst, zoals versturen van berichten (hetzij via WhatsApp, Telegram, Facebook of Twitter) ook best behoorlijk complex is. Bij banken is dat nog een klap complexer, je hebt immers niet alleen met een grotere gevoeligheid te maken (al wil ik ook niet dat mijn conversaties zouden uitlekken, maar dat terzijde), maar ook met diverse omgevingen, omdat banken onderling ook communiceren, waar dat voor messenger-diensten niet zo is.

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:23]

Bij een bank kan je elke euro maar een keer uitgeven. Alle transacties moeten precies één keer uitgevoerd worden. Dat maakt redundantie een stuk lastiger. Alle systemen moeten van elkaar weten dat een transactie uitgevoerd is. En dat geld niet twee keer betaald wordt. Persoonlijk vermoed ik de meeste redundante systemen minder kritisch zijn. Bij whatsapp wordt impliciet verwacht dat de gebruikers hun berichten nog een keer intypen. Wat als gevolg kan hebben dat de boodschap twee keer kunnen ontvangen. Bij google kan ik me voorstellen dat zoekresultaten afhangen bij welke datacenter je inlogt. Bij netflix kan het gebeuren dat twee servers denken dat dat ze beeld sturen naar dezelfde gebruiker.

Maar als synchronisatie belangrijk is. Dan ontstaan al snel problemen. Vliegticketsystemen, politie, en dus ook banken.

Maar ik denk dat het voornaamste probleem is bij dat er weinig ruimte is om te experimenteren en te leren van fouten bij banken.
Het is maar net hoe je redundantie bekijkt. Op de hardware hebben bankiers wel degelijk redundantie zitten namelijk, daarvoor heeft ING voor hun echte core zelfs HP NonStop apparatuur voor. ;) Maar inderdaad, replicatie e.d. is heel gevoelig bij bankiers, maar ik heb ook nergens beweerd dat het niet zo is; ik heb immers enkel beweerd dat de omgevingen van bankiers complexer zijn dan diensten als WhatsApp, maar dat betekend niet dat WhatsApp geen complexe omgeving kan hebben. Daar wil iedereen snel zijn berichten hebben, moeten video- en spraakgesprekken ook soepel gaan zonder al te veel vertraging, dus ook daar is de omgeving best complex kan ik je vertellen. En veel caching gebruiken voor de tekstberichten, bijvoorbeeld.
Daarom vindt ik het vaak vreemd dat een tamelijk onschuldige app zoals whatsapp hun storingen meestal sneller verwerkt hebben dan een bank.
Voor WhatsApp zijn de berichten die over en weer gaan het verdienmodel, bij de bank ben jij als persoon niet het product, zoals bij WhatsApp wel. ;)
En daarbij komt de vraag: waarom gaat alles plat, vanwege een hack, te veel gebruikers in een keer waardoor de servers eruit klappen, een antwoord komt vrijwel nooit naar buiten.
Waarom kan van alles zijn, van een update, kabelbreuk of netwerkstoring (routing issues bijvoorbeeld) tot een hack. Zelfs een stroomstoring kan deze problemen opleveren. ;) Als iets een storing heeft, betekend dat echt niet direct dat de storing komt door een hack. Teveel gebruikers lijkt mij stug, ik mag hopen dat WhatsApp voldoende middelen heeft om dat af te kunnen vangen! Zou anders best amateuristisch zijn van Facebook / WhatsApp.
“Voor WhatsApp zijn de berichten die over en weer gaan het verdienmodel, bij de bank ben jij als persoon niet het product, zoals bij WhatsApp wel. ;)“

Pas op met wat je zegt. Om meerdere redenen ben je wel degelijk een product voor de bank.
Zeker met PSD2 dat in 2018 ingaat wordt je absoluut een product... En op je transactie gegevens zit geen end-to-end encryptie zodat je het kan verhullen voor de bank kan ik je wel vertellen. ;(

[Reactie gewijzigd door WhatsappHack op 22 juli 2024 15:23]

Daarom allemaal richting de cryptos
Installeer samen dan ook telegram. Deze app kan je goed als backup gebruiken. Doet precies wat Whatsapp ook doet
Vroegah deden we dat gewoon persoonlijk onder het genot van een borreltje wanneer de kinderen op bed lagen... ;)
Zijn en worden we niet veel te veel afhankelijk van internet en alles wat daar bij hoort tegenwoordig ?
Op mijn telefoon komen berichten wel door, maar web.whatsapp.com heeft bij mij wel last van deze storing.
Hier hetzelfde, ik kon maar met moeite inloggen op WhatsApp web. Toen ik had opgegeven, was eindelijk ingelogd. Zag direct daarna het bericht hier, dat verklaart al een hoop.
Je weet dat de berichten voor de web WhatsApp worden gedecrypt door de telefoon? :)

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:23]

Nope wist ik niet, eerlijk gezegd nog nooit echt over nagedacht hoe ze dat nu doen web whatsapp en telefoon app. Mooie is dat op het moment dat ik het verstuur op mijn telefoon (of web) het dan direct zichtbaar is bij de ander. In dat opzicht werkt het ideaal (als er geen storing is... :*) )

Interessant om eens in te duiken inderdaad! Dank voor de tip. ;)
Door de End-to-End encryption die gebruikt wordt en de keys op de telefoon staan. ;)
Tijdens zo'n storing kunnen we in ieder geval veilig de weg op ;)
Of juist niet... Als mensen in paniek achter het stuur gaan troubleshooten heb je een nog grotere afleiding dan enkel een appje sturen. :+
Als je op Twitter kijkt zie je dat het ook voor heel veel mensen uit andere landen stuk is. :)

Hetzelfde is ook te zien op Alle Storingen.

Edit: En blijkbaar weer voorbij! Maar nog niet voor iedereen hoor ik :)

Er is ook een Reddit-topic met meldingen vanover heel de wereld.

[Reactie gewijzigd door JapyDooge op 22 juli 2024 15:23]

Haha weetje, ik kom check tegenwoordig eerst Twitter voor nieuws dan welk ander website ook. Ben niet eens een millennial :P
In België is het ook van dat!
Hier in UAE ook storing. Niet alleen in NL dus :p
Even voor de duidelijkheid: het probleem speelt niet alleen in Nederland, maar overal: http://allestoringen.nl/storing/whatsapp/kaart/
Hij doet het alweer.... Net dan.
WhatsApp heeft een storing in meerdere landen

http://allestoringen.nl/storing/whatsapp/kaart/

(@Anonymoussaurus URL is van hem)

[Reactie gewijzigd door iCore op 22 juli 2024 15:23]

Op dit item kan niet meer gereageerd worden.