Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Telegram kampt met problemen na stroomstoring Amsterdam - update

Telegram kampt zondag met een storing, die het gevolg lijkt te zijn van de stroomstoring in Amsterdam. Onder andere in grote delen van Europa en AziŽ kunnen gebruikers van de berichtendienst geen verbinding maken.

In de nacht van zaterdag op zondag ontstond een grote stroomstoring in Amsterdam, waar ook het vliegverkeer op Schiphol grote hinder van ondervond. Nu blijkt echter ook dat de storing bij Telegram daardoor wordt veroorzaakt. In een bericht op Twitter zegt Telegram dat de stroomstoring in Amsterdam voor verbindingsproblemen in onder meer Europa en AziŽ zorgt.

Volgens Telegram-oprichter Pavel Durov kampt een van de serverclusters van de berichtendienst met oververhitting. Aan reparatie wordt gewerkt, maar het is nog niet bekend wanneer de problemen verholpen kunnen zijn. Telegram belooft zijn gebruikers op de hoogte te houden van de vorderingen.

Telegram heeft wereldwijd ongeveer 200 miljoen gebruikers, en onderscheidt zich met name doordat het de nadruk legt op gebruikersprivacy. Na de recente privacyschandalen op sociale media heeft Telegram er veel gebruikers bijgekregen.

Update 12:02 uur: Telegram heeft laten weten dat de serverclusters weer stroom hebben en het materiaal wordt hersteld. Gebruikers in het storingsgebied krijgen in de komende uren weer verbinding met Telegram.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

29-04-2018 • 11:13

104 Linkedin Google+

Submitter: McBrown

Reacties (104)

Wijzig sortering
Telegram heeft wereldwijd ongeveer 200 miljoen gebruikers, en onderscheidt zich met name doordat het de nadruk legt op gebruikersprivacy. Na de recente privacyschandalen op sociale media heeft Telegram er veel gebruikers bijgekregen.
Ik vind Telegram een heerlijke chatapp maar kan me hier toch echt niet in vinden. Ze noemen het zelf maar het onderscheidt zich er niet door aangezien het niet waar is. Het gebrek aan standaard E2E-encryptie staat daar lijnrecht tegenover - ik ken zelf een hoop mensen die Telegram gebruiken maar niemand die secure chats gebruikt.

Wat Telegram wťl onderscheidt is dat het een echte “cloud”-app is, je hebt naadloze synchronisatie tussen al je apparaten. Alle berichten zijn overal beschikbaar en doorzoekbaar. Zelfs berichten die je nog aan het typen bent kun je op een ander apparaat afmaken. Mega-groepschats met moderators en bots zijn ook duidelijke speerpunten van Telegram. Maar privacy? Nee.
In het begin werd telegram zo uitgelegd aan het publiek.
Het feit dat je geheime berichten kan versturen is natuurlijk een leuke marketingtruc.
Toen Telegram geintroduceerd werd had WhatsApp ook nog geen standaard E2E-encyptie dus deed Telegram het vanuit privacy-oogpunt relatief nog niet zo slecht. Maar inmiddels lopen ze op dat punt wel echt achter de feiten aan.

Alle andere faciliteiten maken wel een hoop goed - in ieder geval voor communities en groepsgesprekken. Voor persoonlijke gesprekken gebruik ik liever wat anders.
Qua privacy heb ik toch liever telegram dan whatsapp.
Uiteraard is Whatsapp beter beveiligd maar het delen van metadata met facebook vind ik toch een kwalijke zaak.
Het veiligste is denk ik signal en matrix maar ik ken niemand die dat gebruikt.
Ik heb het alleen bij m'n dochter van 6 op haar laptop gezet zodat we kunnen beeldbellen.
WhatsApp gebruik ik sowieso niet meer. Mijn familie heb ik overgezet op Wire en met een aantal vrienden gebruik ik Signal. Maar ook een groot deel op Telegram omdat dat veel populairder is, en een veel fijnere messenger (naar onze mening).

Ik vertrouw WhatsApp idd ook niet met de metadata.
Tja, dat is een beetje mijn bezwaar. Ik ken niemand die Telegram of Wire gebruikt. Iedereen en zijn moeder gebruikt Whatsapp en bekenden van jou bekenden ook. Daarnaast lijkt het mij vreselijk om verschillende chatapps te hebben en je moet gaan bijhouden wie je met welke app je wilt contacten.
"Het veiligste is denk ik signal en matrix maar ik ken niemand die dat gebruikt."
nope

matrix:
"The French government will be able to fully control the Riot-based application by using open source code with its own modifications, if needed, and then run it on its own servers"
Also the French government developed this app. nou dan weet je het wel.
https://www.tomshardware....pying-concerns,36898.html

signal:
Why I won’t recommend Signal anymore
https://sandervenema.ch/2...recommend-signal-anymore/

enigste beste voor privacy redenen is: XMPP+Omemo

[Reactie gewijzigd door tweakmember op 30 april 2018 23:44]

Ik vraag me af waar zij hun servers hebben staan. Dat is geen echt DC zou je zeggen..
Waarom zou het geen echt datacenter betreffen? Het is een volkomen legale dienst en alleen Rusland en Iran doen moeilijk. Het kan wel betekenen dat datacenters liever geen Telegram hosten omdat Rusland hele reeksen van IP's blokkeert waarmee ook andere servers onbereikbaar kunnen worden vanuit Rusland.
Een beetje datacenter heeft wel een diesel generator staan.
Zullen ze ongetwijfeld ook hebben, maar helaas kunnen ook die defect raken.

Zie deze forumpost van iemand die daardoor dus ook problemen had, en waarbij het datacenter (van in dit geval Level3) met een defect aan beide dieselaggregaten kampte.

Nu weet ik niet of Telegeam ook bij Level3 staat, maar zoiets kan natuurlijk ook bij een andere hoster gespeeld hebben.
Het feit dat er een NSA ( noodstroomaggregaat ) stuk gaat is al sneu an sich.
Die dingen hoor je eigenlijk elke twee tot drie maanden het liefst belast te testen, ook goed onderhoud bij die dingen is gewoon cruciaal.
Daarnaast is het hebben van maar twee NSAs erg karig te noemen, het liefst heb je er 4 ( twee per stroomvoeding ) maar in veel gevallen heb je er drie ( een per voeding + een swinging generator )

Verder kan ik mij het verhaal van oververhitting goed indenken.
Datacenters hebben hun koelmachines namelijk niet achter de UPS staan die naar de datavloer gaan.
Klinkt misschien krom, maar de reden daarvoor is dat je eigenlijk je ups capaciteit volledig door de wc spoelt als je dat technisch stroomverbruik aan je zaalbelasting gaat hangen.
Je neemt namelijk capaciteit van je UPS in voor je techniek, in plaats van die capaciteit te gebruiken voor apparatuur op de datazaal.
In veel gevallen kan je in een DC zo'n 2-3 minuten zonder koeling zonder noemenswaardige impact, ook afhankelijk wat voor koelmethode je gebruikt.

[Reactie gewijzigd door AeroXbird op 29 april 2018 11:42]

Niet alle datacenters hebben hun zaakjes goed voor elkaar. Wanneer je het netjes doet dan heb je een volledig dubbel uitgevoerde stroomvoorziening. Twee aparte hoogspanningslijnen, twee transformatoren, twee UPS feeds en twee feeds van dieselgeneratoren. In de racks komen de twee aparte feeds binnen. De Diesels test je iedere maand voor een periode van acht uur. Dit is alles bij elkaar erg duur. Hoge investeringskosten, vaste maandelijkse kosten voor brandstof en dubbele uitgaven voor onderhoud. Uit kostenoverwegingen zal er daarom met enige regelmaat voor worden gekozen om dit plaatje niet volledig te volgen en het slechts gedeeltelijk te implementeren. Er zijn daarom de nodige datacenters die in problemen komen op het moment dat er een calamiteit is. Dan maakt het eigenlijk niet uit of er gedurende 1 seconde of 1 dag geen elektriciteit is. Als de noodvoorzieningen niet in orde zijn treed er vaak een dominoeffect op en stort het hele systeem in elkaar. Stel je hebt drie generators nodig en je besluit voor redundancy er een vierde bij te zetten dan scheelt dat een hoop geld tegenover de eigenlijke investering van in totaal zes generators. Het is een gecalculeerd risico dat zijn weerslag heeft up de gegarandeerde uptime. Aangezien veel datacenters concurreren op basis van prijs is het begrijpelijk dat dit gebeurt.
Niet alle datacenters hebben hun zaakjes goed voor elkaar. Wanneer je het netjes doet dan heb je een volledig dubbel uitgevoerde stroomvoorziening. Twee aparte hoogspanningslijnen, twee transformatoren, twee UPS feeds en twee feeds van dieselgeneratoren. In de racks komen de twee aparte feeds binnen. De Diesels test je iedere maand voor een periode van acht uur.
Been there, done that, failed anyway. Als je 8 uur test gaat je systeem na 9 uur stuk :/
Aan alles komt een einde. Hardware meer dan dubbel uitvoeren (binnen 1 systeem) vind ik eigenlijk niet de moeite waard. Als je dergelijke betrouwbaarheid nodig hebt dan kun je beter gaan spreiden over verschillende systemen en/of datacenters. Al is het maar voor het geval er een vliegtuig neerstort op je datacenter want daar kan geen enkele redundante voeding tegenop.
In mijn ervaring is het zo dat als een diesel eenmaal loopt en acht uur heeft gelopen dat die de volgende uren ook nog blijft lopen mits je over voldoende brandstof beschikt. Als je drie generatoren nodig hebt dan zet je er zes neer, heb je tien nodig dan zet je twintig generatoren neer. Het kost twee keer zoveel geld maar dan ben je wel volledig dubbel uitgevoerd. Ik ben het er helemaal mee eens dat meer dan dubbel onzinnig is. Geografische spreiding van live systemen is inderdaad de droomoplossing tegen alle calamiteiten. In de praktijk zijn deze oplossingen in de regel zeer complex en deze complexiteit introduceert doorgaans een vorm van instabiliteit waarbij de oplossing vaak erger is dan de kwaal. Denk bijvoorbeeld aan split-brain situaties. Op zulke momenten werkt een handmatige uitwijk naar mijn mening nog het meest betrouwbaar. De absolute rudimentaire implementatie is het met de hand omschakelen van de DNS records. Dan kun je er meestal van uitgaan dat alle gebruikers binnen een uur toegang hebben tot het uitwijksysteem. Beetje afhankelijk van TTL en dergelijke. Een meer elegante oplossing is natuurlijk een distributed reverse proxy zoals bijvoorbeeld Cloudflare. Met het enige nadeel dat je volledig afhankelijk bent van de betrouwbaarheid van Cloudflare. Die hebben incidenteel ook te kampen met een klein probleempje al doen ze het in de regel erg goed. En anders zullen we gewoon moeten accepteren dat de boel een keer een dag niet beschikbaar is. Een ander punt is recovery. Het weer online brengen van je systemen na een calamiteit. Als de stroomvoorziening plots uitvalt en dit bijvoorbeeld resulteert in het uiteenvallen van een RAID cluster dan zou het nog wel eens heel veel langer dan een dag kunnen duren voordat je weer 'up' bent. Heb daar de nodige horror verhalen over gehoord. Meest extreme geval was van platters die na stroomuitval niet meer konden opspinnen omdat de lagers waren vastgeslagen. Tsja, dan houdt het verhaal inderdaad wel op.
Sorry maar “echte” datacenters hebben dit wel. Ik begrijp waarom je naar ern datacenter overgaat indien ze niet al hun dingen regelen zoals het hoort.

Datacenter dat wij gebruiken heeft bv gewoon 2+1 noodgenerator. En dat zelfs 2 maal , dus 6 noodgenerators voor het hele datacenter.
Het belangrijkste van een diesel is dat hij start. Als het eenmaal loopt blijft het wel doordraaien. Maar je moet zo'n ding wel in de gaten houden. Blijft hij wel warm als hij uitstaat, lekt er geen smeerolie, koelwater, doet de hulpspanning om te starten het wel. Zitten de filters niet dicht, werkt de koelfan etc.
De dieselvoorraad zou genoeg moeten zijn om een langere tijd te overbruggen en op afroep nieuwe te bestellen. Maar ook daar kunnen dingen mis. Water in de tank of vervuiling door dat ze biodiesel bijmengen.
Je moet ook realiseren dat er DC's zijn die zich op de goedkopere klant richten.
Elke investering moet je doorbelasten aan de klant, dus hoe meer "mogelijkheden" en "veiligheid" hoe duurder het geheel wordt.
Je moet ook realiseren dat er DC's zijn die zich op de goedkopere klant richten.
Elke investering moet je doorbelasten aan de klant, dus hoe meer "mogelijkheden" en "veiligheid" hoe duurder het geheel wordt.
Dat realiseer ik me:
Aangezien veel datacenters concurreren op basis van prijs is het begrijpelijk dat dit gebeurt.
Daarom wordt voor koeling vaak ook niet een UPS gebruikt maar een simpele NSA die na een minuut of 2 ingeschakeld wordt. Een NSA is lang niet zo duur als een UPS en heeft geen verliezen als deze niet nodig is (stil staat). Behalve het onderhoud dan natuurlijk.
Maar moet dat NSA dan niet geregeld getest worden? Dat kost toch ook wel wat.
In januari vorig jaar bij die grote stroomstoring in Amsterdam had DCG in Amsterdam hun aggregaten ook al niet op orde.. ťťn van de twee weigerde dienst waardoor de ander overbelast raakte en er ook mee stopte. Het verbaast me dat dit soort systemen zo relatief vaak niet op orde lijken. Al die keren dat het wel goed gaat zie je natuurlijk niet, maar toch...
Is dat het DC waar TransIP de primaire infra heeft? Ik weet nog goed dat zij enorme issues hadden tijdens de grote stroomstoring in Amsterdam.

Ik let er inmiddels wel op dat DC's een black building test doen, minimaal een keer per jaar, waarbij de (redundantie) stroomfeed wordt onderbroken. Best een spektakel om een keer bij te wonen :+
Klopt inderdaad! Ben er zelf ook een keer geweest, maar niet tijdens een test. Ik vind het best opmerkelijk dat TransIP destijds (voor zover ik weet) niet met de schuld ging schuiven, aangezien het in de eerste plaats de taak van de DC beheerder is om te zorgen dat de noodstroomvoorziening in orde is, klanten moeten daarop kunnen vertrouwen. Voor TransIP was het dus overmacht, maar toch gingen ze min of meer door het stof in hun excuusmail.

Anyways, gelukkig bleven ze vandaag wel in de lucht, en bij de stroomstoring in regio Amsterdam in maart dit jaar ook. Blijkbaar heeft DCG er iets van geleerd. :)
Het is, meestal, aan het DC om dit soort zaken te regelen. Echter, het is ook afhankelijk van de opzet van TransIP. Die jongens zullen wel wat meer afhuren dan een single rackje.

Zou mij persoonlijk niet verbazen als het een hele zaal is. En dan kan het zomaar dat TransIP verantwoordelijk is voor het aanleggen van een dubbele feed, afspraken maken NSA, etc.

Voor ťchte mission critical infra maak ik zelf gebruik van meerdere DC. Met een automatische fallback mocht het primaire DC onbereikbaar zijn, om wat voor reden dan ook.

Maar dat zijn natuurlijk maar enkele partijen, die zo'n opstelling wensen. Voor de rest, goede en doordachte keuze DC, infra volledig redundant, etc. Als het dan een keer mis zou gaan, is dat overmacht. Dat neem je in de T&C op.
Ik lees hier nog een aantal klasieke verhalen.
Begrijp me niet verkeerd jeroen, wat je zegt klopt 100% en zou ik vandaag ook zo doen (en zo doe ik ook).

Maar... De wereld van AWS, Azure en GCP komt eraan, niet vandaag, maar ik geef het 2-3 jaar.
Ik lees hier dus niemand die bezig is met die transitie, en dan dus uitwijkt van GCP naar Azure of van Azure naar AWS.

Algemene vraag dus: Is hier iemand mee bezig?
Is er iemand die Active-Active tussen 2 Cloud providers draait?
Ervaringen tot nu toe?
Bij Fukushima zag je het ook: de reactor zelf bleef doen wat hij moest doen en ging automatisch uit, maar de noodaggregaten van de koeling deden het niet (omdat de kelder was ondergelopen).
De servers draaien wel door op de UPS, maar de koeling heeft toch echt de diesel nodig.
Een UPS is om 5 minuten te overbruggen die de generators nodig hebben om op te starten, niet om urenlang op te blijven draaien dat is veels te duur. Anders kon de koeling er net zo goed op draaien als het toch zo goedkoop was.
Die UPS wordt eigenlijk 24/7 gebruikt, alleen ligt het eraan of hij voorzien wordt van stroom.
De datavloer wordt gevoed vanaf die UPS output, en je netstroom/noodstroom vult de UPS eigenlijk constant aan zodat die vol zit.

Moderne generators zijn trouwens binnen 1 minuut gestart en gesynchroniseerd, maar als vuistregel houdt je 15 minuten capaciteit op een UPS aan. Zo kan je in een noodgeval de boel handmatig proberen te starten voordat je UPS leeg is.
Die UPS wordt eigenlijk 24/7 gebruikt, alleen ligt het eraan of hij voorzien wordt van stroom.
Dat kan, word bijvoorbeeld gebruikt in landen waar de stroom niet erg betrouwbaar is (brownouts etc). Probleem is dat je je accu's zwaar belast en ze vaak per 6 maanden moet wisselen. Omdat schakelen naar een andere stroombron tegenwoordig bijzonder snel kan is het zelden nodig 100% van de tijd op de accu's te lopen.
Het gaat dan ook niet zozeer om het schakelen tussen stroomvoorzieningen, maar om het bufferen tegen overspanning en te hoge stromen. Het liefst zet je hier een berg supercaps voor in (die gaan namelijk veel langer mee), maar dat maakt het leven echt enorm duur.
Ik heb voor mijn werk een kleine serverruimte gebouwd (15kVA UPS, 3 racks). Maar man man wat ben ik blij dat het een double conversion UPS is. In Rotterdam heb je ongeveer 5-8 keer per jaar een brownout en alle keren heeft de boel gewoon doorgedraaid onder problemen.

In feite is het not-done om een stand-by UPS te gebruiken als je meer dan een paar kVA gebruikt. Alle datacenters die ik ken gebruiken dan ook gewoon een double conversion UPS, simpelweg omdat die gewoon het meest betrouwbaar zijn. En dat vervangen van accu's valt ook reuze mee, elke jaar worden ze doorgemeten en defecte cellen vervangen. Elke 5 jaar worden alle accu's preventief omgewisseld. Zit gewoon in het (zeer redelijke) onderhoudscontract.
De tijd die een UPS kan draaien verlengen is relatief goedkoop. Gewoon meer accu's gebruiken.
Je koeling aan de UPS hangen betekent meer vermogen. Dan heb je niet alleen meer accu's nodig, maar ook een lader/inverrter met een groter vermogen. En dat is wel een duur grapje.

Een 5 minuten UPS is inderdaad om de opstarttijd van de noodstroomgenerator te overbruggen. Maar kan ook gebruikt worden om apparatuur veilig af te sluiten.
Ik vraag me af of je wel eens een UPS van een datacenter in het echt hebt gezien. De capaciteit daarvan uitbreiden is allerminst goedkoop. Je kunt namelijk helemaal niet zomaar meer accu's aan een UPS hangen. Tevens nemen de accu's nogal wat ruimte in. En ruimte is in de meeste DC's niet echt zomaar voor handen.

Een UPS in een datacenter is er overigens puur om de opstarttijd van het NSA te overbruggen. In een DC gaat er geen enkel signaal naar de servers tijdens spanningsuitval.
Je hebt ook gewoon diesel UPS, die gebruiken kinitische energie om een seconde of 5 te overbruggen. In de tussentijd start de dieselmotor op en heb je een generator. Vervolgens kun je net zo lang draaien in dieselbedrijf totdat de diesel tank leeg is. Vaak toch wel ruim een dag.

Voordeel is dat je geen schuur vol met accu’s hebt staan die je moet conditioneren. Lagere chemische footprint en veel minder grote installatie om veel grotere vermogens te halen.

Een Nederlands bedrijf bouwt deze UPS’n die wereldwijd onder andere veel in datacenters gebruikt worden.
https://hitec-ups.com

[Reactie gewijzigd door Timo002 op 29 april 2018 11:57]

En ook al heb je die, als de stroom in de omgeving uitvalt blijven je servers wellicht draaien maar vallen de verbindingen misschien alsnog weg.
De verbinding is voor 99.9% glas, waarbij de ontvanger ook op ups en generators draait of op een ander continent staat
Ik denk dat je zaken fundamenteler moet aanpakken. Een aggregaat zou echt een allerlaatste redmiddel moeten zijn. Je moet de boel zo ontwerpen dat je een compleet DC kwijt kunt raken zonder impact. Op zich is dat niet onmogelijk. Veel telecomproviders hebben dat al jaren geleden geimplementeerd. Nadeel is dat het erg duur is, en dat de investeringen vanuit een kosten-baten analyse vaak niet te rechtvaardigen zijn (lees: veel klanten willen hier niet voor betalen).
Best practice is doorgaans beide. UPS+NSA zorgt dat je DC niet down gaat. Echter, *als* je DC fout gaat heb je daar ook een oplossing voor (in de vorm van een ander DC).

Alleen als je daar *expliciet* op ontworpen bent in je hele techniek is het spontaan uitvallen van je DC een non-disaster scenario.
Zonder enige kennis van zaken van de daadwerkelijke setup, maar ik heb me laten vertellen dat een spanningsdip soms een stuk vervelender kan zijn dan volledige stroomuitval.

Dat omdat de systemen die het omschakelen naar noodstroom moeten bepalen dan in de war kunnen raken. Is er nou wel of geen stroom beschikbaar? Je zou zeggen: "failsafe en gewoon gaan met die dieselgeneratoren", maar dat zou wel eens een kostbaar geintje kunnen worden.

Overigens, het is hetzelfde als met andere vormen van backups. De enige situatie waarin je echt weet of het allemaal werkt is wanneer het (op een ander vlak) misgaat. Lastig te simuleren. Zelfs al jouw servers doordraaien is er de kans dat je allerlei afhankelijkheden hebt van wel geraakte systemen die je van te voren niet bedacht had.
Je hebt helemaal gelijk.
Spanningsdips zijn ťrg vervelend op het krachtstroomnet, zeker als datacenter heb je een 'netwatcher' die de kwaliteit van de inkomende stroom van het net kwalificeerd.
Een netwatcher is eigenlijk een monitoringssysteem voor je netstroomaansluiting.

Vervelende is, zoals jij al terecht aangeeft, als er een piek of iets dergelijks is op het stroomnet, dat je netwatcher op een gegeven moment de stoppen omzet.
Dit is helemaal vervelend als je een kleine dieselvoorraad hebt, aangezien zo'n noodstroomgagegraat als een bezopen door je diesel heengaat.
Bijkomend probleem is als je noodstroomgagegraten dan niet opstarten voor wat voor reden dan ook, je dan net zo lang hebt tot je UPS systemen leeg zijn, om HANDMATIG terug te schakelen naar netstroom ( moet je schakelbevoegd voor zijn, allemaal papiertjes enz.) of je noodstroomaggregaten een flinke schop te geven.

Overigens hoort een beetje datacenter minimaal elk jaar een 'black building' test te doen, waarbij een stroomstoring gesimuleerd wordt door letterlijk de schakelaar van de transformator om te zetten.
Lijkt me een fout in de logica dan. Als de UPS de zaak draaiend moet houden maar geen spanning ontvangt van de generators binnen een bepaalde (geconfigureerde) tijd zou de logica van de UPS de generators als defect moeten beschouwen, en terug moeten schakelen naar een eventueel niet zo stabiele netspanning. Als je 15 minuten buffer hebt en verwacht dat de generator na 5 minuten spanning levert, kun je na 10 minuten geen spanning aan generatorzijde de inputs weer terug op de netstroom zetten, als een soort van "last ditch to keep it running" scenario.
Of, en dat is ook een veelvoorkomend gebruik, je gebruikt de UPS apparatuur om te bufferen vanaf je netstroom waardoor je wel een stbiele aanvoerlijn krijgt. Zolang je accupacks kunnen laden tegen een fors lagere spanning is het verschil aan de kant waar het wel uitmaakt (de servers) niet zo’n ramp. Die zullen een stabiel signaal krijgen doordat die fysiek stiekem ontkoppelt zijn van netspanning.
Geen spanning is beter dan een niet zo stabiele netspanning.
Ben ik ook benieuwd naar: Ik heb de noc status pagina's bekeken van de meeste noc's in Amsterdam, geen enkele rapporteert outages door stroom uitval (Interxion, Gyro, Global, euNetworks, Databarn, Colt, KPN, Level3, Nikhef, Telecity enzovoorts)
Telecity bestaat niet meer en is 2 jaar geleden overgenomen door Equinix. Equinix heeft in ieder geval geen problemen ondervonden, daar wordt ook niet bespaard op de noodvoorzieningen.
Equinix is ook alweer een jaar geleden gesplit. Zo zijn een paar telecitypanden (Telecity 1 sciencepark en Telecity 4 wenkebachweg) , nu van digital realty . De rest van de Telecity gebouwen is van Equinix
Equinix is niet gesplitst, maar een aantal voormalig Telecity locaties zijn aan DR verkocht om het marktaandeel van Equinix niet te groot te laten worden. Dit was verplicht door de EC om de overname toe te staan. Dat is niet hetzelfde. Feit blijft dat er geen Telecity locaties zijn.

[Reactie gewijzigd door Hann1BaL op 29 april 2018 15:23]

In Amsterdam staat/staan internetknooppunten waar erg veel verkeer overheen gaat, niet alleen voor Nederland maar ook naar andere landen/continenten.
Waarschijnlijk wel hoor, en het hoeft niet eens perse zo te zijn dat die servers in Nederland staan. In Amsterdam heb je een erg groot internetknooppunt (AMS-IX) waar niet alleen dataverkeer vanuit Nederland overheen gaat, maar ook vanuit de rest van de wereld. Het kan goed zijn dat een groot deel van het verkeer naar hun servers via AMS-IX verloopt waardoor er nu misschien door de stroomstoring wat problemen zijn. Noodstroom kan niet altijd alles opvangen, dat was dus ook op Schiphol te merken.
Blijkbaar hebben ze alles op 1 plek staan, uiteraard niet erg verstandig zeker als je 200 miljoen gebruikers hebt. Mag je toch verwachten dat ze minstens 2 DC's gebruiken.
Sja een gratis dienst he .. denk niet dat ze geo redundant zijn. Blijkbaar niet, dat merken we nu.
Wie zegt dat ze alles op ťťn plek hebben staan? Deze storing troft alleen Europa, AziŽ en het CIS. Blijkbaar zijn OceaniŽ, Afrika en Noord/Zuid-Amerika niet geraakt. Die draaien dus vermoedelijk gewoon in een ander datacentrum.
Ga jij er voortaan voor betalen?
Telegram is toch gratis? If you pay with peanuts, you can expect monkeys....
Met een beetje zaag 1 kabel bij Katwijk doorzagen en de halve wereld heeft de eerste week geen internet verbinding (en waarschijnlijk nog wel meer). Amsterdam is een enorm knooppunt in het wereld netwerk. EU, AZ en CiS is dan nog een kleine hoeveelheid. Platleggen van AMS-ix betekent dat heel veel diensten in de VS bijvoorbeeld ook niet meer werken.
Als jij die kabel doorzaagt heeft 99,8% van wereld nog gewoon internet.. misschien is op een kaart kijken hoeveel glas kabels er wel niet lopen inmiddels. Vooral NL heeft een probleem als de AMS-IX plat gaat en sommige internationale bedrijven zullen ook last ondervinden als ze de servers die op NL grond draaien niet meer kunnen bereiken, meer niet.. De rest van de wereld zal er weinig van merken. Alle landen hebben meerdere internet exchanges inmiddels, het is een steeds fijnmaziger wordend netwerk. Het grootste gevaar zit 'm ook niet in het doorklieven van een paar kabels maar in het maken van fouten in de BGP routes. We hebben in het verleden al meerdere malen gezien dat 1 fout kan leiden dat verkeer niet van A naar B loopt maar van A naar X bijv.

Maar mijn punt blijft van kracht. Een dienstverlening voor miljoenen ga je niet afhankelijk maken van 1 DC, dat is amateuristisch!

En Telegram zal heus wel geld verdienen met reclames of sponsoring.

.

[Reactie gewijzigd door Terrestrial op 29 april 2018 21:07]

Amsterdam heeft volgens mij vaker dan gemiddeld in Nedeland last van stroomuitval. In mijn dorpje kan ik niet herinneren wanneer de laatste keer was (in ieder geval langer dan 13 jaar geleden).
Dit betekent dat als je een datacenter in Amsterdam hebt je extra moet investeren in noodstroomvoorzieningen. Hetgeen vandaag weer eens werd bewezen
Amsterdam is waarschijnlijk 100x groter dan jouw dorpje en dus is er 100x meer kans dat er ergens in Amsterdam stroomuitval is...
Een beetje datacentrum is voorbereid op stroomuitval of een dip. Dus wat bedoel je met die extra investering? Dat als ze in je dorp een datacentrum hadden gebouwd ze minder kwijt zouden zijn aan de nodige noodstroomvoorziening, brandstof etc? Dat je de plaatsnaam Amsterdam bij een stroomstoring hoort wil niet zeggen dat je een groter risico hebt als je binnen die plaats een datacentrum hebt. De netten zijn in delen opgebouwd. Het ene deel van amsterdam kan zoals vandaag last hebben van stroomuitval, terwijl alle andere delen daar geen hinder van ondervinden.
https://www.ad.nl/economi...m-is-dat-toeval~a4f3a70a/
"Het begint op te vallen: de stroomstoring bij Schiphol is de zoveelste in enkele jaren tijd. Is er iets mis met de hoofdstedelijke elektriciteitsnetten? Experts spreken van ongelukkig toeval, hoogspanningsbeheerder TenneT verwacht nog dit jaar verbetering."
Als TenneT verbetering verwacht is er dus wel iets aan de hand...

Wat ik overigens bedoelde is dat in Amsterdam er boven gemiddeld vaak een stroomstoring is.
Nu is het voor een datacenter altijd belangrijk om een goede noodstroomvoorziening te hebben, maar is dat in Amsterdam extra belangrijk en dan vind ik het vreemd dat een datacentrum uitvalt door een stroomstoring. Kwestie van slecht riscmanagement.
Ik heb het idee dat de services gedeeltelijk weer werken. Lees hier her en der dat mensen weer kunnen verbinden. Via OSX is alles ook bij mij weer up and running, maar iOS nog niet.
Dat klopt, Telegram meldt in een tweet inmiddels ook dat men bezig is om alles weer online te brengen en dat de boel weer aan het terugkomen is.

Kwestie van tijd dus voordat alles weer geheel hersteld is.
Beetje offtopic: Ik bemerkte afgelopen nacht een hickup in m'n thuisstroomvoorziening te H'sum, de ledlampen dimden een microseconde en m'n UPS sloeg 1 tel aan. Had wellicht te maken met het geintje te A'dam. Toch mooi om te merken dat m'n UPS zijn werk doet, prima zo'n praktijktestje imo.
Bij mij thuis op Texel heeft de UPS vannacht om 0:42 ook ingegrepen. Ik heb sterk het vermoeden dat dit door het grapje in A'dam kwam, zeker gezien de matchende tijd met https://twitter.com/tennettso
Yep, volgens mij was het inderdaad dat tijdtip...
Ohhh dat verklaart, mijn pc kan geen verbinding krijgen, maar mn telefoon (android versie) wel. Zat al te prutsen of ik de client op mn pc moest updaten ofzo :P

Update om 11:35, nu werkt het ook weer op mijn pc

Update om 12:30, het hapert nog wel op mijn pc en nu ook op mijn telefoon, goed stuk die boel.

[Reactie gewijzigd door Troepje op 29 april 2018 13:08]

Ach uit ervaring kan ik zeggen dat het belangrijkste is los van je no breaks etc dat je het ook goed aansluit de belasting bijhoudt etc. IT'ers hebben nogal de neiging ik heb stroom nodig dus stop ik een stekker ergens in. Dit kan heel gemakkelijk fout gaan. Je redundant voeding bijvoorbeeld op een load aansluiten etc. Dus ja als er dan iets uitvalt kan er gemakkelijk een kettingreactie ontstaan. Kortom er zijn vele factoren waardoor het toch mis kan gaan. Meer redundantie helpt dan niet, goed aansluiten belasting goed verdelen etc zijn namelijk net zo belangrijk je hebt tenslotte ook apparatuur die geen twee voedingen hebben.
“Telegram heeft wereldwijd ongeveer 200 miljoen gebruikers, en onderscheidt zich met name doordat het de nadruk legt op gebruikersprivacy.”

Toch raar dat het nieuwsbericht wordt afgesloten met het in de wereld proberen te houden van die marketingonzin. Telegram biedt echt totaal geen privacy, ik vind het erg gevaarlijk en kwalijk om die marketing vanuit Tweakers in stand proberen te houden door het klakkeloos over te nemen alsof het een feit is, zonder enige nuance en zo de illusie wekt bij mensen dat het inderdaad privacyvriendelijk zou zijn.

[Reactie gewijzigd door WhatsappHack op 29 april 2018 12:01]

Als Telegram je (meta)data nou niet deelt met derden dan is het toch privacyvriendelijk?
Jij verwart privacy met beveiliging/encryptie.
Heb je hier onderbouwing voor? Voor zover ik weet is de reputatie van Telegram op dit gebied zo slecht nog niet..?
Ik gebruik het zelf liever ook niet (Signal FTW) maar kan het zelf niet onderbouwen met meer dan "DE RUSSEN" te roepen.
Tja dan is de rest van de wereld er ook achter dat de stroomvoorziening hier niet helemaal is wat het zou moeten zijn. In Amsterdam is het bijna wekelijks raak.
Gebruikers die problemen hebben met Telegram raad ik een alternatieve messenger aan met de naam iGap Messenger de servers staan veilig in Iraq ;-)
Om even met mijn aluhoedje op te reageren.
Wordt Irak niet flink beÔnvloed door Amerika? En staat daarom je data daar ook niet "heel" veilig?

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True