Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties
Submitter: Blokker_1999

Een datacentrum van Google verloor deze week 0,000001 procent van zijn data na een serie blikseminslagen in het lokale elektriciteitsnet. De verloren data was zeer kort voor de inslagen naar 'persistent disks' geschreven van Google Compute Engine of schaalbare virtuele machines.

googleGoogle maakte de ontstane problemen wereldkundig via een statusupdate, die al liep vanaf het moment dat de problemen ontstonden. Van donderdag 13 augustus tot maandag 17 augustus hadden sommige 'standard persistent disks' in de zogenaamde 'europe-west1-b'-zone last van i/o-fouten met de verbonden gce-virtuele machines. In totaal had zo'n vijf procent van de disks in de zone problemen met lees-schrijfhandelingen tijdens de inslagen. Na het uitvoeren van diskhersteloperaties, bleek 0,000001 procent van de ruimte op de gealloceerde disks niet te herstellen.

De BBC meldt dat Google uiteindelijk wel in staat was alle data terug te halen, al meldt de site niet hoe dat dan uitgevoerd zou zijn, behalve dat er 'verschillende back-uptechnologieën' ingezet zouden zijn. De Belgische site HLN meldt dat data 'gerecupereerd' werd dankzij het backupsysteem van Google of via eigen reservekopieën van de klanten.

Google zegt aanpassingen in het systeem te gaan maken om de kans op elektriciteitsonderbrekingen en dataverlies nog verder te verkleinen. Het verschil tussen veel van Googles datacentra en dit datacentrum is dat dit type centrum de data niet verdeelt over verschillende centra op de wereld. Hierdoor zijn deze specifieke GCE-centra met persistent disks kwetsbaarder dan andersoortige datacentra.

Moderatie-faq Wijzig weergave

Reacties (99)

Erm... Er is toch geen sprake van dataverlies als ze alle data hebben kunnen herstellen. Zijn we weer heerlijke klik kopjes aan het maken?
Google zelf heeft dataverlies.
Maar met behulp van andere manieren hebben ze alle data terug.
b.v. bedrijven die opnieuw hun data uploaden of het opnieuw cachen van websites welke gewoon aanwezig zijn.
Dit is wat ik ook begrijp.

Google gefaald,

Dankzij eigen backup van klant, was het mogelijk de dataset weer compleet te krijgen
Dat hoeft niet, stel er was data verloren van Drive gebruikers dan kunnen ze (zonder tussenkomst van de klant) de data die bij hun verloren ging gewoon terug uploaden vanaf de originele schijf. Drive slaat alle bestanden gewoon lokaal op. En zoals hierboven aangegeven, websites (die nog bestaan) kan je ook gewoon opnieuw cachen zonder dat iemand daar iets van merkt. Het begint pas een probleem te worden wanneer de data nergens anders meer te vinden is, en dan zouden ze het kunnen vragen aan bedrijven die dan (als het goed is) handmatig een backup kunnen uploaden.
Drive slaat bestanden lokaal op, als je de google drive tool geinstalleerd hebt staan...
Je hebt dan een offline copy, oftewel een soort van backup (al is een offline copy geen backup).

Samengevat, zonder de input van de klant was het lastiger geworden om de dataset weer compleet te krijgen. En of dit nou stille of actieve input is geweest van de klant laat ik even daarbuiten..
De verloren data gaat totaal niet om Drive, dit gaat om Persistent Disks in Cloud, idem voor de 0,000001 procent, dit gaat om 0,000001 procent van de Persistent Disks in die zone.
Afhankelijk van de keuze die je maakt als klant voor waar Persistent Disks zijn data mag opslaan (in 1 zone of meerdere zones) dan kan de redundantie inderdaad binnen 1 datacenter vallen. Alle andere data werd hersteld.

Als je het originele statusbericht bekijkt op Google Cloud Status dan zie je dat er 4 opeenvolgende blikseminslagen waren op het elektriciteitsnet. Als het al moeilijk is je te verweren tegen 1 blikseminslag, dan is het vrij knap dat ze enkel data verliezen van klanten die ervoor gekozen hebben om data binnen 1 zone/datacenter op te laten slaan.
Na het uitvoeren van diskhersteloperaties, bleef 0,000001 procent van de ruimte op de gealloceerde disks niet te herstellen.
Dat was dus na herstel.
0,000001 procent van de ruimte, dus geen data.
dat zou ik zo niet durven stellen. Ik denk dat het volume wat een google datacentrum huisvest enorm is, maar ook dat de failures niet random gebeuren. In de beschrijving van het incident geven ze aan dat sommige UPS supplies te snel leeg waren als gevolg van repeated battery drain. Dat betekent dus dat als jouw data net op die persistent disks stond, je naar je data kan fluiten en dat je meer dan 1*10^-8 van je data kwijt bent.
Daarom ook dat je data op meerdere fysiek gescheiden locaties bewaart, en men dus met customer back-ups nog een hoop heeft kunnen herstellen. Wat restte was de data die klanten alleen bij Google parkeerden en in een enkel warehouse. 5% van de disks had issues, maar slechts 0.000001% van de data op die disks bestond alleen bij google: De meeste klanten die bij Google hun data opslaan, weten hoe ze met back-ups om moeten gaan. Een hoopvolle gedachte.
De meeste klanten weten misschien wel hoe ze met back-ups om moeten gaan maar maken ze niet juist daarom gebruik van Google?
De meesten zullen denken "Google heeft zoveel opslagruimte, dat gaat nooit stuk en als het stuk gaat weten ze het te fixen".

[Reactie gewijzigd door SiGNe op 21 augustus 2015 01:15]

Vanuit Google gezien klopt dat ook wel, alleen je hebt nog met wetgeving etc te maken die Google's visie verpest.

Op het moment dat NL-overheid (of EU-overheid) zegt dat data niet naar de US mag gaan dan beperk je de mogelijkheden van data-redundantie al, zeg je dat het niet buiten de EU mag gaan dan beperk je het nog meer.

Google's visie (en die van MS en van elke grote cloud-provider) is gewoon heel simpel : Redundantie bouw je in door het meerdere keren op te slaan op verschillende locaties, de verschillende locaties zijn er meer dan genoeg wereldwijd. Oftewel je echte redundantie heb je als je het wereldwijd redundant opslaat zodat er een kernbom op een heel land (inclusief alle datacentra daar) kan gooien en je verliest nog niets omdat het in een ander land op een ander datacentre ook staat.

Alleen tja, je hebt klanten die dat bewust ondermijnen door restricties op te leggen aan de datacentra die gebruikt mogen worden en dan krijg je opeens kansen dat er data verloren gaat
Google kan toch ook verschillende datacenters bouwen in EU? Dat hebben ze al, wat ik begrijp ligt dit echt aan het design van dit specifieke DC.
Groningen komt eraan!
Nee, niet van de ruimte in het algemeen, maar " 0.000001% of the space of allocated persistent disks." Dus ruimte die in gebruik was.
Als we dan toch op alle slakken zout gaan leggen: 'Allocated' betekent niet 'in gebruik'. Dat kan ook betekenen dat het om vrije ruimte ging die toegewezen was aan een bepaalde applicatie/volume om te vullen als nodig.
Lijkt me toch erg vervelend als miljardair om het hoogste cijfertje van je banktegoed te moeten missen....
De Britse staatsomroep meldt dat Google uiteindelijk wel in staat was alle data terug te halen
0.00% data verlies dus.
Afgerond, ja. Maar gezien Google idiote hoeveelheden data in opslag heeft staan, kan dit nog behoorlijk veel data zijn.

In 2008 verwerkte Google 20 Petabyte per dag, wat 20.000.000.000.000.000 bytes is. Als hiervan 0.000001% verloren gaat, hebben we het over 20.000.000.000 bytes, ofwel 20 gigabyte.

Procentueel helemaal niets, maar in de praktijk behoorlijk veel data.

Edit: telfoutje :+

[Reactie gewijzigd door Esumontere op 20 augustus 2015 16:29]

Waar heb je het over? Er staat toch alle data. 0.00% verloren dus. Niet afgerond.
maar daarbij staat dus ook dat dat mogelijk deels was door eigen backups van klanten, - het feit dat er mogelijk zo'n 20 tot 50 gigabyte aan data onherstelbaar beschadigd was en enkel door 'puur' geluk toch terug kon worden gehaald uit externebronnen en dergelijken, betekend dat het opslag redundancy systeem heeft gefaald en dat er gekeken moet worden hoe dit beter af te vangen...

want de volgende keer zit er misschien 10gbyte an databases bij die niet ook elders waren opgeslagen en die of ander bedrijf de kop kost...
Wat veel interessanter is is of het redundancy systeem wel gefaald heeft, of dat wetgeving het redundancy systeem zo gecrippled heeft dat het niet meer kan werken (zonder enig verlies)

Als je als EU zegt dat je data niet naar US mag gaan maar binnen de EU moet blijven, dan beperk je het algemene redundanty systeem.
Maar is dat een probleem van Google (wiens internationale redundancy systeem nog steeds werkt) of van de EU?
Waarom zou die regelgeving de redundantie "crippelen" dan? Die regelgeving weerhoudt niemand ervan om een tweede datacenter te bouwen. Eventueel zelfs op hetzelfde adres, maar de regelgeving die zegt dat je data niet buiten de EU mag worden opgeslagen is absoluut niet de beperkende factor.
bedrijf die zijn database niet back-upt heeft grotere problemen!
Ah, verkeerd gelezen in je eerdere reply. Sorry :+
Google claimed zelf dat er dataverlies is:
In a very small fraction of cases (less than 0.000001% of PD space in europe-west1-b), there was permanent data loss.
Alleen de BBC meldt dat alles te herstellen was maar Google zelf maakt daar geen melding van.
Google has said that lightning did not actually strike the data centre itself, but the local power grid and the BBC understands that customers, through various backup technologies, were able to recover all lost data.
De BBC zegt dus niet eens dat het gaat om alle customers en tot slot zou het theoretisch zo kunnen zijn dat de verloren data van Google zelf is. Aangezien Google hier het meeste te verliezen heeft, neem ik het statement van Google maar voor waar aan.

[Reactie gewijzigd door emnich op 20 augustus 2015 15:00]

Volgens Google:
In a very small fraction of cases (less than 0.000001% of PD space in europe-west1-b), there was permanent data loss.
En:
In almost all cases the data was successfully committed to stable storage, although manual intervention was required in order to restore the systems to their normal serving state. However, in a very few cases, recent writes were unrecoverable, leading to permanent data loss on the Persistent Disk.
Er is wel degelijk sprake van dataverlies. Uit het nieuwsbericht:
In a very small fraction of cases (less than 0.000001% of PD space in europe-west1-b), there was permanent data loss.

[...]

By Monday 17 August, only a very small number of disks remained affected, totalling less than 0.000001% of the space of allocated persistent disks in europe-west1-b. In these cases, full recovery is not possible.

[...]

However, in a very few cases, recent writes were unrecoverable, leading to permanent data loss on the Persistent Disk.
Dat kleine percentage geallokeerde data op persistent disks is dus definitief onherstelbaar.

[Reactie gewijzigd door the_shadow op 20 augustus 2015 15:54]

Ligt eraan welk verhaal je voor waar neemt.
Inderdaad, geen van beiden dan. Als we naar het verleden kijken over hoe er wordt omgegaan met het naar buiten brengen van dit soort zaken, kunnen we ervan uit gaan dat er veel meer data verloren is gegaan.
En iedereen hier gelijk zijn/haar fotos controleren of ze er nog zijn.
Hebben ze geen bliksemafleiders in Belgie ? Maar goed ze hebben alles nog dus valt weer mee...
Zelfs als alleen maar een bliksemafleider op een gebouw geraakt wordt kan de enorme spanning van de bliksem binnen het gebouw elektronica beinvloeden.
Daar is nou net de afleider voor.
En als die zijn werk doet heeft niemand of iets daar last van.
Mogelijk was daar een defect.
Bliksemafleiders dienen om fysieke schade aan het gebouw te voorkomen, ze vormen een kooi rond het gebouw zodat een direct inslag op het gebouw via de kooi naar de grond geleid wordt. Deze geleiders zitten in losse klemmen op het gebouw zodat de grote magnetische krachten de muren niet openscheuren. Met andere woorden het gebouw is niet langer beveiligd tegen een tweede inslag.

Zelfs als de bliksem opgevangen wordt door deze geleiders zijn de inductieve en capacitieve stromen die gegenereerd worden in geleiders nog ruim voldoende om de meest robuuste apparaten te vernietigen.

De bliksemafleiders beschermen tevens niet tegen een directe inslag op geleiders die zich buiten de beschermde zone bevinden, bijvoorbeeld de hoogspanningslijnen.

Om enige bescherming te bieden tegen de 2 laatste scenario's wordt er gebruik gemaakt van bliksembeveiligers in combinatie met overspanningsbeveiligingen. De bliksembeveiligers leiden de bliksemstromen af naar aarde via ultra snelle gasontlading. Zelfs dan loopt de spanning op tot enkele tienduizenden kilovolts. Hier komen de overspanningsbeveiligingen in actie, het is belangrijk dat deze pas na de bliksembeveiligers reageren want deze hebben niet voldoende onderbrekingsvermogen. Dit wordt gerealiseerd door voldoende kabellengte tussen de 2 beveiligingstypes te realiseren (meer inductiviteit). Zelfs dan kan de spanning oplopen tot enkele kilovolts, robuuste apparaten kunnen hier tegen maar gevoelige electronica niet. Daarom zijn er nog extra fijne overspanningsbeveiligingen voor gevoelige apparatuur. Deze worden vaak verkocht in stekkerdozen met 'bliksembeveiliging'. Met andere woorden als je geen bliksemafleiders, bliksembeveiligers of overspanningsbeveiliging hebt is je stekkerdoos met bliksembeveiliging waardeloos.

Het is echter nog steeds zo dat zelfs de duurste bliksembeveiligingsinstallaties, die bescherming bieden tegen 10/350 pieken, slechts effectief zijn voor 98% van de bliksems. En dat voor industriŽle apparatuur die tegen spanningspieken van 2xUn+1000V kan, wat HDDs en zeker SSDs niet zijn.
Als de computers zelf voldoende afgeschermd zijn, moet vooral de voeding tegen 2xUn+1000V kunnen. In de praktijk kan hij dat ook (in elk geval de isolatie tussen primair en secundair/aarde) omdat hij hier anders niet verkocht mag worden, maar in de praktijk is een dergelijke isolatiesterkte niet altijd voldoende. Een van de mogelijke stroompaden is via de voeding naar binnen en via de netwerkkaart naar buiten (of andersom). De minimale gezamenlijke isolatiesterkte daarvan zal ergens tussen 4000 en 6000V zitten (de helft als het niet de spanningsvoerende lijnen van de voeding zijn maar de aarde), maar toch komt die schade regelmatig voor bij computers die in de buurt van een inslag gestaan hebben.

[Reactie gewijzigd door mae-t.net op 20 augustus 2015 17:43]

Als iemand die bij een (Groot) Belgisch elektriciteitsbedrijf werk,
1. Afleiders werken als de stroom daar op inslaat.
2. Hier is de bliksem ingeslagen op een transmissie kabel(hoogspannings kabels) of iets anders dat blootligt. Zo over het stroomnet is het binnengekomen, enkel een /fysieke/ snijding/airgap kan dit stoppen. Dan heb je ook geen stroom natuurlijk.

Op die kabels zitten tussen de posten vaak numerieke relais die de boel in de gaten houden, maar die hebben tijd nodig(We spreken hier in miliseconden maar dan nog is dit lang!), zo ver ik het versta te minsten, ik ben een ITer en geen ingenieur ;)

Geen idee waar het precies is ingeslagen, maar die dag waren er extreem veel incidenten.
De bliksems waren 4 keer na elkaar ingeslagen op het lokaal elektriciteitsnetwerk dat stroom voorziet voor het datacenter.
Het gaat er niet persť om of de bliksem afleider zijn werk doet (nogal lastig voor een passief systeem) maar waar de bliksem zin heeft om in te slaan. Afleiders geven absoluut geen garantie, ze verkleinen alles de kans dat het ergens anders inslaat.
En als er ergens aan het gebouw iets achteloos is geÔnstalleerd, kan het best zijn dat afleiders niet eens helpen

[Reactie gewijzigd door gjmi op 20 augustus 2015 15:20]

Dat is niet per definitie waar. Een bliksemafleider is vooral bedoeld om grote fysieke schade te vermijden. Afhankelijk van hoe de bliksem inslaat kunnen er in de buurt van de bliksemafleider of in de buurt van de inslag altijd inductiestromen ontstaan. Om nog maar niet te spreken van inslagen op het bovengrondse electriciteitsnet (in Belgie hangt bovendien ook nog wat meer laagspanning boven de grond dan hier). Er zijn dus aanvullende maatregelen nodig, en het zou zomaar kunnen dat Google die nu gaat treffen.

[Reactie gewijzigd door mae-t.net op 20 augustus 2015 17:37]

Ze hebben bliksemafleiders, maar dit waren inslagen op het electriciteitsnet, niet op het datacenter van google zelf.
Een goede power omgeving had pieken en dalen toch op moeten vangen. Schneider en Emmerson zijn vast al even op bezoek geweest...
Het is enorm moeilijk om het piekvermogen van een bliksemschicht op te vangen. Als je er een zekering tussen hebt zitten dan brand die wel door, maar de vraag is hoe snel dat gebeurt. Als dat enkele microseconden duurt dan gaat er tot die tijd nog steeds een piekvermogen doorheen die de achterliggende apparatuur kan beschadigen.
Daarom dien je ook ALLE koperkabels die een zoneovergang in je EMC concept maken te beveiligen. Dus OOK de elektriciteitskabels!
Zelfs de beste bliksembeveiligingen bieden slechts solaas voor 98% van de ontladingen.
Ons bedrijf heeft bliksem afleiders over het hele gebouw, en een jaar geleden sloeg hij toch gewoon in op een airco-unit, die verbonden is met de telecom-unit in the server room.

Het is dus niet omdat je de afleiders plaatst dat de bliksem die ook netjes gebruikt.
Er moet een cultuurverandering komen bij bliksems.
Er moet een cultuurverandering komen bij bliksems.
Ik vind dat men zich niet te veel moet laten afleiden en als de bliksem weer aan het herstel moet gaan werken.
De bliksem daarentegen moet zich juist laten afleiden en als dat lukt is het goed koper.
De bliksem daarentegen moet zich juist laten afleiden en als dat lukt is het goed koper.
..als dat lukt is het goedkoper.
Dat is waar
Normaal gesproken kiest zo'n inslag de weg van minste weerstand. Mits de bliksem afleider goed aangesloten is (en goed geaard) zou hij toch de afleider moeten kiezen ipv airco. Maar aangezien zo'n airco unit ook ge-aard is dan zou het wel eens kunnen dat ie die dan raakt.
Inslagen nabij een gebouw kunnen nog steeds spanningen genereren van enkele tienduizenden kilovolts door middel van inductie in verticale geleiders en via de capaciteit van de isolatie tussen de bliksem en je geleider (door de hoge frequenties). Er hoeft dus zelfs geen fysieke verbinding te zijn.
Houden ze dezelfde data niet op meerdere datacentra's bij?
Het verschil tussen veel van Googles datacentra en dit datacentrum is dat dit type centrum de data niet verdeelt over verschillende centra op de wereld.
Ik vraag me sowieso af op hoeveel locaties jouw data worden opgeslagen als je gebruikmaakt van Google of MS cloud. Bij huBic waar ik laatst zat te kijken heb je pas opslag bij 3 centra in Frankrijk als je 50 euro per jaar betaald. Dit is overigens wel voor 10TB dus best goedkoop :).
Bij azure wordt alle data 3 keer opgeslagen in het datacenter en als je geo redundantie aanzet nog eens 3 copies in een ander data center. Voor de EU betekent dat 3 copies in Ierland en 3 copies in Nederland.
Lijkt me een pak beter geregeld dan bij google
Ja, maar je hebt altijd tijd nodig om de data te repliceren. Als je net iets opslaat op het moment dat het fout gaat, gaat het fout. Normaal gaat dat om een verwaarloosbaar kleine kans, maar met de hoeveelheden data die Google verwerkt praat je toch weer over behoorlijk wat.
Inderdaad, goed punt

"In totaal had zo'n vijf procent van de disks in de zone problemen met lees-schrijfhandelingen tijdens de inslagen."

Het lezen/schrijven daarbuiten gaat prima? De data die geschreven werd tijdens het inslaan (waarbij problemen optraden) zouden dus inderdaad kunnen missen.
In totaal had zo'n vijf procent van de disks in de zone problemen met lees-schrijfhandelingen tijdens de inslagen
Volgens google was het 0,05% van de disks.

Aangezien er zo'n groot datacentrum met tienduizenden disk elke dag mogelijk wel enkele disks zullen sneuvelen moet alle data wel redundant opgeslagen zijn in het datacentrum.
Als 0,05% van de disks een probleem heeft dan heb je 0,0005*0,0005% = 0,00000025% kans dat ook de redundante data weg is.
Dat is dicht in de buurt van wat Google meldt dat er echt weg is.
Er is dus blijkbaar ook echt niet meer dan 2 keer redundantie van de data in het betreffende datacentrum.

[Reactie gewijzigd door 80466 op 20 augustus 2015 15:00]

Volgens Google was het " In total, approximately 5% of the Standard Persistent Disks in the zone experienced at least one I/O read or write failure during the course of the incident." ;)

En die kansberekening, die klopt toch niet, hoor. Dat is hier helemaal niet van toepassing, bij zo'n problemen met de stroomtoevoer en blikseminslagen is de kans op I/O-fouten niet gelijk verdeeld onder al die disks, en op alle dingen die te maken hebben met de gegevens die op dat moment binnenkomen.
Van het statusoverzicht van Google:
ug 14, 2015 16:53

At present, less than 0.05% of PD's are experiencing read failures in europe-west1-b. Neither restoring Persistent Disks from snapshots nor creating new Persistent Disks have been affected. If your PD is one of those 0.05% currently affected, you may restore it from a snapshot and continue using it at full availability.
Je zegt verder
En die kansberekening, die klopt toch niet, hoor. Dat is hier helemaal niet van toepassing, bij zo'n problemen met de stroomtoevoer en blikseminslagen is de kans op I/O-fouten niet gelijk verdeeld onder al die disks, en op alle dingen die te maken hebben met de gegevens die op dat moment binnenkomen.
Het klopt dat een blikseminslag geen random verdeling van disk zal verstoren.
Omdat de uitkomst in de orde van grootte ligt van wat google zelf meld is het als indicatie voor het maximale verlies aan data wel redelijk. In werkelijkheid is het gunstiger uitgepakt vermoedelijk omdat de verhouding tussen overleden actuele datadisks en redundante/backup disks juist niet gelijk was.

[Reactie gewijzigd door 80466 op 20 augustus 2015 15:39]

Ok, dan zal ik me even herformuleren.
4 dagen na deze status update is er een nieuwe geplaatst, waarin gezegd werd wat ik net citeerde.

Dan moet ieder maar voor zich uitmaken welk van de twee juister is ;)
Ik zou het wel ernstig vinden als Google tijdens het incident de ernst van dat incident met een factor honderd lager presenteerde dan dat het in werkelijkheid was en 4 dagen later terwijl er geen incident meer is en dus ook veel minder mensen die problemen ondervinden en dus de statuspagina bekijken dat dan Google ineens met heel andere cijfers komt.
Toen ik de kop las dacht ik: dat kŠn helemaal niet als je een klein beetje kennis over de dataopslag van Google hebt. Maar op het einde de verklaring :)

"Het verschil tussen veel van Googles datacentra en dit datacentrum is dat dit type centrum de data niet verdeelt over verschillende centra op de wereld."

[Reactie gewijzigd door SeL4 op 20 augustus 2015 15:07]

Ik had het gezien gevoel toen ik het aan het lezen was. Dan rest bij mij alleen nog de vraag waarom is dit datacenter zo ingericht? Met welke redenen zouden ze dat gedaan hebben?

Na wat zoeken blijkt een GCE een datacenter te zijn waar instances/vm's van klanten draaien. Dit zou wel verklaren waarom er zoveel mogelijk lokaal gehouden wordt. Waarom de data niet alsnog offsite gerepliceerd wordt weet ik dan niet.
Waarom de data niet alsnog offsite gerepliceerd wordt weet ik dan niet.
Goed mogelijk dat klanten dit helemaal niet willen, in verband met lokale wetgevingen. Met andere woorden: als ik data opsla in Belgie, wil ik dat het daar blijft, en niet per ongeluk naar een datacentrum in de VS wordt gerepliceerd.
Ook mijn gedachte, hoewel dit eigenlijk zinloos is omdat Google een Amerikaans bedrijf is en dus (tegen haar zin in) aan de wetgeving moet voldoen: gewoon data overhandigen als de overheid daarom vraagt.
Hoeveel tientallen miljarden dit ondertussen het Amerikaanse IT-bedrijfsleven heeft gekost is slechts speculeren :(
Wie zegt dat dit niet wordt gecompenseerd door de overheid in Amerika.

Ergens weggestopt in de vele niet-openbare budgetposten onder het mom van National Security?


De techgiganten zijn namelijk de laatste tijd opvallend stil nadat ze eerst flink de kont tegen de krib gooiden. Waarom zijn ze gestopt met hun protesten? Willen ze ineens geen geld meer verdienen?
Ik vind het toch altijd wel knap dat het allemaal nog zo goed gaat bij big-data-clouds.
Nu is bij google zelfs 0,000001% nog heel wat Mb's dus ik kan me voorstellen dat elke verloren byte er ťťn teveel is.
Maar de openheid hierover is ook een goede zaak. Er zijn heel wat bedrijven ten onder gegaan waar men dacht dat het beter is dit soort informatie onder de pet te houden.
Behalve als het data van jou is.

Als het bij je thuis gebeurt dan vloek en zucht je een keer. Als het een pay-dienst worden andere standaarden gehanteerd.
He, sh*t, precies mn google wallet leeg ineens.


:+
Dat zal niet gebeuren. Wat wel fout kan gaan is dat een opwaarderingen van je wallet niet lukt doordat de eerste disk waar het op staat precies sneuvelt op het moment dat er gerepliceerd moeten worden. Maar dan zijn er nog altijd de logs om het te herstellen.
Daarom zeg ik ook, elke verloren byte is er ťťn teveel.

Ik denk trouwens dat je er nooit van uit mag gaan dat het nooit mis kan gaan, ook al is dat wel je streven. (Het is gewoonweg niet reeel dat het nooit mis zal gaan.)
En over hoeveel terabyte/gigbyte/megabyte hebben we het hier dan?
Dan vraag ik me af hoeveel TB die 0,000001 procent geweest zal zijn :X
Die 0,000001% verloren data zegt helemaal niet hoeveel informatie er verloren gegaan is, voor hoeveel gebruikers. Je kunt best een klein deel data verliezen waardoor veel meer data onbruikbaar wordt!
Maar die 0,000001 % aan data kan toch best verdeeld zijn over veel % bestanden? Als je alles virtueel opslaat. Of zie ik dat verkeerd?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True