Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 164 reacties

Microsoft is in verlegenheid gebracht door een ernstige servercrash bij zijn dochterbedrijf Danger. Door de crash zijn gebruikers van Sidekick-handhelds vermoedelijk de data die op de systemen van Danger stonden, voorgoed kwijt.

In de VS worden de Sidekick-mobieltjes en bijbehorende abonnementen verkocht door T-Mobile. De apparaatjes met een volwaardig toetsenbord, zijn vooral bij jongeren populair. Afgelopen week hadden Sidekick-gebruikers echter geen toegang meer tot gegevens die stonden opgeslagen bij de firma Danger, een bedrijf dat in handen is van Microsoft. Niet veel later kwamen T-Mobile en Microsoft met de verklaring: de server waarop deze gegevens stonden bleek te zijn gecrasht en Danger zou er alles aan doen om de diensten en de bijbehorende data weer toegankelijk te maken.

Zaterdag kwam echter de mededeling dat Sidekick-gebruikers die data als contactlijsten en foto's op de systemen van Danger hadden gezet, deze vermoedelijk voorgoed kwijt zullen zijn. Opmerkelijk genoeg blijkt er geen backup te bestaan van de data en is er slechts één server gebruikt voor de opslag van Sidekick-data. Microsoft stelt dat er nog pogingen worden ondernomen om alsnog gegevens te redden. De kans hierop wordt echter als zeer gering gezien. Gebruikers die nog gegevens in hun Sidekick hebben staan, wordt aangeraden om het apparaat vooral niet te resetten of uit te schakelen.

Het dataverlies door het dochterbedrijf van Microsoft komt de softwaregigant slecht uit; de firma maakt steeds vaker reclame voor zijn clouddiensten die als alternatief worden neergezet voor bestaande rekencentra. Inmiddels overweegt T-Mobile om getroffen Sidekick-klanten te compenseren, maar het is nog onduidelijk hoe het telecombedrijf dit wil gaan doen.

Moderatie-faq Wijzig weergave

Reacties (164)

Een update van Engadget:
Update: Apparently T-Mobile has paused the sale of new Sidekicks, as all models are now listed as "temporarily out of stock" on the company's site. Additionally, a warning as been added to the post on T-Mobile's forum which reads: "Sidekick customers, during this service disruption, please DO NOT remove your battery, reset your Sidekick, or allow it to lose power." Scary stuff, Sidekickers.
+ een reactie op dat artikel;
T-Mobile already waived the data fee ($20) this month for Sidekick customers.
Edit nog een reactie:
Currently MS is trying to get the devices to sync the data they have back to the service as a form of recovery......It's not a server failure. They were upgrading their SAN, and they outsourced it to a Hitachi consulting firm. There was room for a backup of the data on the SAN, but they didn't do it (some say they started it but didn't wait for it to complete). They upgraded the SAN, screwed it up and lost all the data.....All the apps in the developer store are gone too.....

[Reactie gewijzigd door filenox op 11 oktober 2009 15:10]

There was room for a backup of the data on the SAN
Daar heeft iemand het concept van off-site backups niet begrepen. Als je SAN ook de enige backup heeft, dan ben je bij een uitslaande brand alsnog alles kwijt.
Het SAN kan toch over meerdere locaties zijn verspreid? Als de engineers alle maatregelen om data verlies te voorkomen niet hebben uitgevoerd, kan het migreren van het SAN gewoon over alle locaties data verlies hebben veroorzaakt (als in: de engineers dachten dat alles goed was en hebben de sync tussen de SAN's weer gestart, waarna netjes alles leeg is gesynchroniseerd). Een backup met snapshots op een SAN wordt vaak tijdens een migratie geflushed, het niet maken van de aanbevolen backup is dan dus een grove fout!
In mijn ervaring is het vaak zo, dat backups en redundantie bij dit soort systemen soms over het hoofd worden gezien c.q. niet als afbreukrisico zijn gekenmerkt. En zelfs als dit als afbreukrisico wordt gekenmerkt, dan wordt dit soms door de leidinggevende onvoldoende serieus genomen.

Hoe is dit mogelijk?:
Sommige projecten (want zo beginnen deze systemen vaak) zijn vrij complex (en daardoor lijkt redundantie in deze diensten bijna onuitvoerbaar) en vaak zijn de bijbehorende projectleiders (zij die de risico's beheersen) onvoldoende technisch geschoold. Tevens staan dit soort systemen vaak in 24x7 hosting-lokaties met redundante netwerkverbindingen, aggregaten en all en staat de data op een RAID5/6 configuratie met hot-spares. Dit geeft een gevoel van schijn-veiligheid.
Niets aan de hand, totdat bijv. het geheugen van je RAID-controller corrupt gaat of dat er een ander driver of file-system probleem, een menselijke fout etc. optreedt of onverhoopt er toch problemen ontstaan met de noodstroomvoorziening. Ook heb ik bij klanten gezien dat er mensen aan een backup-schema zitten, welke er onvoldoende verstand van hebben en vervolgens blijkt er bepaalde delen niet meer in de backup te worden meegenomen.

Kortom: Het niet correct uitvoeren van de back-ups, moet duidelijk gekenmerkt worden als afbreuk-risico en
goed functionerende backups, inclusief periodieke (geautomatiseerde) restore-testen (dit doen veel bedrijven niet!!) moeten altijd worden gewaarborgd en uitgevoerd worden door gekwalificeerd personeel. Verder brengt het goed en regelmatig testen van het disaster-recovery- c.q. uitwijkplan, mits dit goed wordt uitgevoerd, ook dit soort zwakke punten aan het licht.

[Reactie gewijzigd door TouroLouco op 11 oktober 2009 16:18]

Persoonlijk vraag ik me af in hoeverre dit soort systemen fatsoenlijk te backuppen zijn. (Let wel ik ben geen ICT'er) maar ik kan me moeilijk voorstellen met de gigantische bergen data die ze verzamelen dat dit nog met tapes bv te behappen is. Kijk bv naar Google waar een kwantiteit aan data-opslag wordt gebruikt als data-loss preventie. Vervalt een systeempje is dat geen probleem. Ik kan me een soort gelijke situatie hier goed inbeelden. Wereldwijd maken talloze mensen gebruik van een Sidekick wat waarschijnlijk een gigantische bulk aan data veroorzaakt wat met een paar servers niet meer te verwerken valt. Of een raid 5/6 in dit geval een schijnveiligheid gevoel geeft, ik denk dat dit de enigste optie is die men heeft dat er vervolgens iets fout kan gaan is dan natuurlijk wel een ander iets. Echter hoevaak lees je dat zoiets voorkomt, de grootschaligheid van dit soort fouten zorgt er dan ook wel voor dat het aan het licht komt. Omgekeerd zijn er talloze services waar bergen data wordt opgeslagen zonder dat men dit door heeft zonder dat er verder iets mis gaat.
Dit soort systemen is uitstekend te back-uppen, zowel op tape als op harde schijf. Harde schijven zijn ridicuul goedkoop per megabyte - en bij dit soort systemen is "megabyte" de goede maat. Contactlijsten en foto's zijn geen gigabytes groot. Als je gemiddeld 250 Megabyte per gebruiker rekent, dan kun je dus circa 2000 gebruikers op een 500GB schijf kwijt, 100.000 op een enkele Sun server, en richting een miljoen op EMC hardware.
Hmmm, gebeurt bij wel meer sites tegenwoordig. PBase (een grote fotohoster) heeft er ook een tijdje uitgelegen, de reden: "power failure". Ze hadden wel een UPS maar geen auto-shutdown dus toen de UPS het opgaf is er nogal wat corrupt geworden. Het heeft ze meer dan een week gekost om alles naar een nieuwe server over te zetten en er zijn nog steeds gebruikers die klagen dat niet alles terug is.

Als ik mijn spullen aan een bedrijf toevertrouw dan reken ik erop dat ze voldoende maatregelen hebben getroffen tegen de meest waarschijnlijke rampen zoals stroomstoringen en hardware crashes. Dat bedrijven zoiets voor de hand liggends niet doen grenst voor mij aan oplichting, ze beloven betrouwbaar te zijn maar dat is duidelijk niet het geval. Lijkt me dat in Amerika dit nog wel eens pittige schadeclaims op kan leveren.

[Reactie gewijzigd door Kurgan op 11 oktober 2009 16:02]

Als ik mijn geld aan een ijslandse bank geef ga ik ervanuit dat ik het nog op kan nemen.... Volgens mij zijn er maar een paar waarheden als je met bedrijven zaken doet:
1) Aandeelhouder is koning
2) Kosten zijn een vies woord
3) Klanten: zo verloren, zo gewonnen

Als je met deze 3 punten zaken doet met bedrijven zullen dit soort stunts je niet meer verbazen.
Pijnlijk...

hoe kom je er op om geen backup te maken van die belangrijke gegevens? Iedereen die met computers werkt weet toch dat af en toe er iets serieus mis gaat en veel gegevens weg zijn.
kan misschien komen door de grote hoeveelheid data.
Grote mediaserver, dus ook zeer grote backupserver nodig

Kostenbesparing dus waarschijnlijk. Wel heel knullig.
Als ze maar 1 server hebben kan dat toch niet zo onmogelijk veel zijn lijkt mij.
onder een server kunnen ze wel een flinke aantal schijven hangen(dmv een slave)
Tweakers heeft bij mijn weten(ff te lui om op te zoeken O-) )ook een heftige server met slave.
Als er alleen data tevoorschijn getoverd hoeft te worden en de snelheid(de mobiel/verbinding is meer een bottleneck) dan kan je met 1 flinke server best af :)
Wel ongelooflijk slecht dat er geen backup is
ach raid hdd's zou ondertussen als standaard zijn bij een beetje hosting. Alleen door een stroompiek kunnen beide hdd's er dan uitknallen.

die stroompiek zou dan voor een crasch zorgen en grote kans dat de data zelf nog op de hdd staat maar alleen de electronica naar de kloten. Ook hiervoor zijn bedrijven die dat weer boven water kunnen halen.

Het niet maken van en backup is een doodzonde zeker als je did soorten diensten aanbied. Het komt wel heel amateuristisch over.
als er een bug in de software zit die de datastructuren om zeep helpt, dan heeft raid ook geen nut. Raid is alleen hardware redundancy, geen backup.
ja..... dar ben ik het mee eens schrijf ik toch ook het niet maken van een backup is een doodzonde.
Raid is alleen hardware redundancy, geen backup.
En een backup is pas een backup als de restore werkt...
nou die restore werkte dus duidelijk niet
Paar writeholes in je RAID-5 set kan anders ook behoorlijk pijnlijk zijn. Hoeft echt niet per se iets van een stroompiek te zijn.

Goedkope RAID meuk heeft vaak ook geen notificatie software waardoor het nog weleens wil voorkomen, zeker met servers in een datacenter die niemand hoort piepen, dat men er pas achter komt dat er al een schijf in de RAID set defect was als de volgende overlijd en het zooitje dus plat ligt.
heb hier al een raidsysteem gehad dat een dikke week fijn verder draaide met kapot ramgeheugen, het is nogal nasty als je ziet wat er met je data gebeurt nadat je het opmerkt :P (grofweg een 75% van de files waren totaal onbruikbaar geworden omdat overwel wel iets van data naar de klote geholpen was).

Waar ik gewerkt heb was dat ook, tig rode lampjes aan het flikkeren van de schijven, maar er flikkeren zoveel lampjes tegenwoordig dat niemand er ook maar enige aandacht aan schenkt nog. Dat wil natuurlijk niet zeggen dat dit zwaar onprofessioneel is, een doodzonde zelfs op beheergebied 'oO Zelfs volkomen onbegrijpelijk hoe dit kan gebeuren, het is nu niet dat backups zoeen duur grapje is, vooral niet als je er een betaalde dienst aan hebt hangen met mensen die maandelijks abbonementsgeld dokken voor de service van die server(s).
Toch zou je een HDD fail al heel snel kunnen opvangen!!

S.M.A.R.T. monitoring. je kan schijven dan vanaf afstand in de gaten houden en bij mogelijke storing al vervangen!! dus op lampjes hoef je dan niet meer te reageren.
raid is nog geen backup, alleen een kleinere kans van falen. Diensten zoals deze hebben een degelijk backup systeem nodig.
Geweldig een Raid systeem.
maarue MS SQL komt niet altijd op na een Power failure. (bv. master db )
zit je dan met je raid. :D
Nou... Zorg er dan in ieder geval voor dat je ' redundant' bent.. Als je dan perse niet wilt backuppen, zorg dan dat je systeem niet zo snel omvalt.

Dit is natuurlijk wel heel erg lullig zo. (Ik moet er wel bijzeggen dat ik zelf ook altijd een backup van mijn data heb, ook al staat het op een dataserver of webdienst)
redundantie van opslag wordt meestal gerealiseerd dmv RAID.

Zoals je wellicht weet, is dat absoluut geen alternatief voor een backup, want het beschermt niet tegen configuratiefouten en "oops"-ervaringen.
Alleen een volwaardige kopie van alle data nodig voor het herstellen van de service, opgeslagen op een extern medium is een echte backup. Dat externe medium kan overigens nog best offline en nog beter offsite worden opgeslagen :)

Imho kan dit geen kwestie van geld geweest zijn: een paar duizend euro voor een device en wat media weegt voor MS echt wel op tegen het gezichtverlies. Ik denk eerder aan een groffe inschattingsfout bij de technici van Danger (die het belang van de data niet inzagen) of een technische fout, die de inspanningen voor het hebben van een backup teniet heeft gedaan (nooit een restore getest bijv)? Hoe dan ook incompetentie. De taak van de ICT('er) is immers het beheer van data. Als de data weg is heeft dat beheer duidelijk gefaald.
oals je wellicht weet, is dat absoluut geen alternatief voor een backup, want het beschermt niet tegen configuratiefouten en "oops"-ervaringen.
Alleen een volwaardige kopie van alle data nodig voor het herstellen van de service, opgeslagen op een extern medium is een echte backup. Dat externe medium kan overigens nog best offline en nog beter offsite worden opgeslagen
Is zeker waar, maar ik bedoelde met redundant meer op een uitwijk-locatie. Een in het bedrijfsleven veel gebruikte truc, is een uitwijklocatie toepassen. Ofwel: je hebt twee fysiek verschillende locaties, waar hetzelfde spul draait, als locatie A omvalt, heb je locatie B nog, en andersom.
neem TuTwente als ultieme voorbeeld, na hun brand aldaar hadden ze relatief min tijd nodig om veel zaken heel snel up and running te krijgen.

Maar zelfs voor zoiets heb je nog altijd backups nodig ;) (als je via een netwerkverbinding gaatkopieren, kun je nog altijd ellende krijgen als bv. je mainserver plat gaat of nog een tijdje heeft gedraaid op faulty memory (en met een paar gig ram kan een server best wel aardig lang doordraaien voor je het doorhebt, je krijgt eerst een paar funky errors voor je hele meuk plat gaat).
Je bedoeld die brand in 2002 die door een systeembeheerder was aangestoken? En die backup die in hetzelfde pand lag opgeslagen? Die brand waar heel veel onderzoeksresultaten in rook zijn opgegaan...?

Ja - goed voorbeeld |:(
van de info die ik beschikbaar had (het is dus wel een tijdje geleden dus blijkbaar zit ik er royaal hard naast) hadden ze een groot gedeelte binnen redelijk korte tijd terug up and running (of was het een andere uni die een dubbel datacentrum had draaien :? )
Mwah valt wel mee, tegenwoordig kunnen kleine servers(2-4u) heel erg veel data verplaatsen.

Met 1 server is niet zo probleem om 300-500mbyte/sec te backuppen. Ze hebben gewoon geen backup gemaakt! Dat is natuurlijk stom.
De data is misschien niet zo belangrijk, maar als je zoiets aanbiedt mag je toch verwachten mintens 1x per week een echt goede backup gemaakt wordt. Met beetje slimme oplossing kun je voor weinig geld zelfs dagelijks backups aanbieden.
Of gewoon meerdere servers parallel laten draaien die continu hun data synchroniseren (of op z'n minst met kleine intervallen), op eenzelfde manier als bij usenet servers.

[Reactie gewijzigd door Bonez0r op 11 oktober 2009 15:48]

Synchroniseren is nog altijd geen backup. Als er op de master een fout in de data terecht komt, wordt die gewoon gesynchroniseerd naar de slave. Data dus even goed onbruikbaar.
Maar als de ene server crasht (en dat is hier gebeurd), dan heb je de data nog veilig op de andere server staan. Backups blijven natuurlijk ook nodig, maar je kan niet iedere seconde een backup maken. Als je server crasht en je bent alle data erop kwijt dan kan je wel een backup terug zetten, maar alle data van na de laatste backup ben je wel kwijt.

[Reactie gewijzigd door Bonez0r op 16 oktober 2009 01:22]

kan misschien komen door de grote hoeveelheid data.
Grote mediaserver, dus ook zeer grote backupserver nodig

Kostenbesparing dus waarschijnlijk. Wel heel knullig.
Ze zullen toch wel een backup hebben :?
Blijkbaar niet of een niet werkende backup. Toont wel dat cloudcomputing leuk is voor je boodschappenlijstje maar je bedrijfsdata.... shudder...
Kostenbesparing dus waarschijnlijk. Wel heel knullig.
Vaak worden kosten berekend aan de hand van wat de aanschaf van de hardware en software (en eventueel uren om te installeren) is, niet gerelateerd aan de vervangingswaarde van de data die je kwijt raakt.
Backups kosten (in de ogen van degene die over de centen gaat) alleen maar geld en leveren als het goed is niets meetbaars op. Dat is het nadeel dat tijdens het begroten vaak alleen van 'good weather' scenario's uit wordt gegaan.
Nou, dat valt niet bepaald onder ITIL Best Practice...

But seriously, ik heb inmiddels toch op best een paar IT-afdelingen rondgesnuffeld, en ik heb er nog nooit van gehoord dat men geen backup draait. Ja, van de DC's misschien niet, als daar een redundancy in is, en af en toe ook van specifieke mappen niet... En dat staat volledig los van RAID. Al is je raid nog zo mooi, je moet nog iets achter de hand hebben. (Ook te gebruiken in contactadvertenties? :p)

Overigens werd geopperd dat als snelheid geen issue is, een enkele server geen probleem is. Nou ben ik natuurlijk niet thuis in de infrastructuur achter de Sidekick, maar als ik die brief van T-Mobile lees krijg ik de indruk dat snelheid voor die service toch best een beetje belangrijk zou moeten zijn...
Da's toch geen valabel excuus?! Als je die hoeveelheid data niet kan beveiligen, beperk dan de hoeveelheid data.
Zelfs als ze maar 1 server hadden hadden ze hem nog steeds kunnen indelen in twee delen. Backupsysteem hoeft niet altijd duur te zijn.
Iedereen die met computers werkt weet toch dat af en toe er iets serieus mis gaat en veel gegevens weg zijn.
Oh ja? Ga eens bij een helpdesk werken voor een tijdje.

De eerste passage uit de e-mail die wij verzenden voordat een reparatie wordt aangemaakt:
*** LET OP ! ***

*** HET REPARATIECENTRUM VOERT EEN VOLLEDIG HERSTEL NAAR DE FABRIEKSSTAND UIT. UW HARDE SCHIJF WORDT DAN GEWIST. U BENT DAN AL UW GEGEVENS KWIJT. MAAK EEN RESERVERKOPIE (BACKUP) VAN AL UW BELANGRIJKE GEGEVENS! HIERONDER VALLEN FOTO'S, DOCUMENTEN, MUZIEK, EN ALLE ANDERE BESTANDEN DIE U NIET WILT VERLIEZEN. WIJ KUNNEN GEEN VERANTWOORDING NEMEN VOOR UW PRIVEDATA. ***
Klant stemt in met de reparatie... en komt er twee weken later achter dat zijn 4.000 foto's pleite zijn.

Nou ja. Stupiditeit kent geen grenzen. Als je zelfs waarschuwingen als deze niet opvolgt, dan vind ik het niet raar dat mensen van kleine dingen al helemaal geen kopieën maken.

[Reactie gewijzigd door Katsunami op 11 oktober 2009 20:25]

De meeste mensen weten niet eens hoe ze een backup moeten maken!

Wat jullie moeten doen bij dat reparatiecentrum is standaard een backup maken van de data die erop stond voor het herstel (hooguit een paar dvd-tjes).

De meeste mensen slaan al hun bestanden in hun document mappen op dus zo moeilijk is dat niet. Iemand die zijn bestanden op de D: schijf stopt weet meestal ietsje meer :)
Wat jullie moeten doen bij dat reparatiecentrum is standaard een backup maken van de data die erop stond voor het herstel (hooguit een paar dvd-tjes).
Probeer het eens op die manier.

"Wij maken een backup voor u, geen probleem."

Vergeet dan eens één fotootje, omdat het in de map van de (illegale) Paint Shop Pro stond, en niet in Mijn Afbeeldingen, of vergeet eens één document, omdat het toevallig is opgeslagen in de map van Office.

Dan heb je kermis. Daarom maken we geen backups meer.

Een backup maken is niet meer dan wat zut naar een DVD-tje branden of kopiëren/plakken naar een externe hdd.
Nee, dat moeten ze helemaal niet doen. Gegarandeerd dat je dat aanklachten wegens privacyschending aan je broek krijgt, want alle "vakantie" foto's staan ineens op de systemen van het reparatie centrum. Om het nog maar niet eens te hebben over de auteursrechtenschending van het kopieren van iemands muziekbibliotheek.
ik bedoelde werken als in "er iets van af weten en er redelijk wat mee bezig zijn". Je zou toch verwachten dat een bedrijf als microsoft die basiskennis heeft..
Je moet er nooit vanuit gaan dat iedereen dit juist op kan volgen, er zitten genoeg mensen tussen die gewoon niet stilstaan bij het feit dat een backup uberhaupt nodig is. Dat kan je dom vinden, beter is om daar gewoon rekening mee te houden en als bedrijf een tijdelijke backup te maken voor dit soort gevallen.
HET REPARATIECENTRUM VOERT EEN VOLLEDIG HERSTEL NAAR DE FABRIEKSSTAND UIT. UW HARDE SCHIJF WORDT DAN GEWIST. U BENT DAN AL UW GEGEVENS KWIJT.
Noem je dit repareren? Dit kan iedere aap!
Als je iets repareert dan neem je de oorzaak van het probleem weg.
Dat is iets anders dan het volledig wissen van de schijf en het opnieuw installeren van het OS.
Ik denk dat hun doelgroep zoveel malware op hun pc zullen hebben dat het aantal uren dat je daaraan moet besteden veel meer is dan de waarde van de eventuele verloren gaande data.
Dan laat je ze die uren maar betalen. Repareren is niet simpelweg format c:.
Noem je dit repareren? Dit kan iedere aap!
Ja, tuurlijk. Daarom doen we dat ook. Er komen zeer veel systemen binnen die geen hardwarematige problemen hebben, terwijl men dat wel denkt. Vaak zijn ze softwarematig echter zeer overhoop gegooid. Daarom worden ze naar de fabrieksstand hersteld. (Eigenlijk zou de klant dat zelf al moeten doen, maar vaak genoeg zeggen ze "Dat hebben we al gedaan" terwijl dat niet het geval is.)

Veel "kapotte" systemen worden zo per direct "hersteld".
Als je iets repareert dan neem je de oorzaak van het probleem weg.
Dat is iets anders dan het volledig wissen van de schijf en het opnieuw installeren van het OS.
Zoals gezegd: vaak zijn de systemen niet hardwarematig kapot, en wij zijn er niet om de klant zijn software uit de knoop te halen.
Voor een simpele Format C moeten de meeste mensen niet naar een een specialist hoor, dat kunnen ze zelf ook wel.
Voor een simpele Format C moeten de meeste mensen tweakers niet naar een een specialist hoor, dat kunnen ze zelf ook wel.
|:(
De gemiddelde consument weet niet eens hoe die z'n schijf moet formatteren, laat staan hoe die z'n OS er weer op krijgt.
Ik ben Supportcenter mederwerker van beroep (Bij de Hanze hogeschool in Groningen) en je wil niet weten hoe vaak wij de schuld krijgen van iets dat de gebruiker zelf heeft gedaan.

Je wil ook niet de kost geven aan de mensen die geen flauw idee hebben HOE ze een pc moeten herinstalleren OF backups van hun gegevens moeten maken.

Ook dingen als het Conficker virus dat pas zo'n grote "bedreiging" was. We moeten van onze provider iedereen die dit virus had, de laptop opnieuw laten installeren want er is geen mogelijkheid (bij ons tenminste) om te controleren of hij ook ECHT weg is.

Daarnaast mensen/gebruikers LIEGEN 9 van de 10x dat de computer opnieuw is geinstalleerd omdat men eigenlijk totaal niet weet waar men het over heeft.
de meeste mensen moeten dat juist wel, gebruikers snappen dat niet, en willen dat niet snappen.

onderschat de sentimenten van de meeste gebruikers niet hoor. Computers zijn eng.
Heb jij wel eens geprobeerd Windows te repareren? Windows is zo'n black box dat in de meeste gevallen de problemen alleen te repareren zijn met een reinstall. Het is voor een reparateur niet interessant om uren bezig te zijn met zoeken naar de issue om er vervolgens achter te komen dat het systeem alsnog opnieuw geïnstalleerd moet worden. En dat terwijl er nog 10 andere machines staan te wachten op een "reparatie". Ga je daar ook uren zoeken? Wordt een dure bedoening voor de consument die z'n machine heeft laten repareren. Als zo'n gast 3 uur bezig is ben je al genoeg kwijt om een nieuwe pc van te kopen...
Ik heb een tijdje in een winkel stage gelopen, en daar werd eigenlijk altijd standaard een image getrokken van een schijf voor de herinstallatie, dit om problemen die jij nu beschrijft te voorkomen. Je kan dan namelijk altijd nog bij de data die iemand wil hebben.
Inderdaad zeer pijnlijk.
Dit soort gevallen (hoewel ze zeer zelden zijn) weerhouden mij toch om gebruik te maken van diensten waarbij mijn data extern wordt opgeslagen en er geen mogelijkheid is om deze lokaal te back-uppen.

Naast dat ze zo slordig met het back-uppen zijn omgegaan mag je toch ook afvragen hoe goed ze met de data omgaan die ze in handen hebben (of hadden in dit geval).

Een bedrijf dat op zo'n knullige onprofessionele manier te werk gaat kan nu niet als betrouwbaar te boek staan. Helemaal pijnlijk is dat het een MS dochter is, dan mag je zeker meer kwaliteit verwachten.
Hangt er gewoon ook vanaf aan wie je dat overlaat. Het zal natuurlijk iedereen kunnen overkomen maar het ene bedrijf is al wat slordiger dan het andere.
Ik gebruik een externe source voor mijn backup-backup,
Mijn foto's staan op een NAS, die sync'd met een externe NAS bij mijn werkgever
en als "redundant-backup" upload ik ze naar een windows live account, per jaargang
zo heb je 'gratis' 25 GB opslag, niet de snelste manier, maar een uurtje uploaden kan altijd wel.

mocht er dus onverhoopt een probleem ergens zijn, heb ik (hopelijk) in ieder geval online nog wat materiaal staan
Tja... Ik heb nog wel een tip voor Danger: Koop een licencie van Windows Home Server :+

(Dan hebben ze op zijn minst nog een backup!).
De naam Danger dekt eigenlijk wel goed de lading, gegevens lopen wel degelijk gevaar daar.
Hoezo kopen?
Da's voor een MS-dochter gewoon gratis.
wat dacht je van de naam van de firma icm. deze stunt :P Nog pijnlijker x'D

-edit spuit nummero 11-

[Reactie gewijzigd door polthemol op 12 oktober 2009 01:18]

Inderdaad zeer pijnlijk. Je zou verwachten dat Microsoft de gigant, wel in staat is met zijn gegevens zorgvuldig om te gaan. Maar het lijkt er hier inderdaad op dat het om kostenbesparing ging. Achja iedereen heeft financiele crisis. Maar wel een beetje stom om geen back up te maken als het uit kostenoverweging is. Dan kan je beter ergens anders op bezuinigen.
Een mooi voorbeeld hoe "de cloud" ook een gevaar kan zijn en het voor sommige data lang niet zo gek is om een lokale kopie te bewaren.
Was het maar "een cloud" geweest, dan zou dit probleem zich niet hebben voorgedaan naar alle waarschijnlijkheid. :)

Dit is duidelijk geen cloud geweest, maar een client-server model met, wat ik begrijp, enkelvoudige opslag van de data op een SAN en misschien zelfs maar 1 servernode voor de toegang daartoe. Hoe het echt zit is een beetje kwijt geraakt in de vertalingen en interpretaties van mensen waarschijnlijk maar dat komt binnenkort nog wel boven tafel. :)
de clou is dat heel vele webservices nu gemarket worden als coudservices. De en-user kan het verschil niet zien. En het punt van Keypunchie staat als een huis: waarom zouden we de verantwoordelijkheid over onze privé data "outsourcen" naar bedrijven die ons weinig garanties bieden? Is onze data wel veilig bij dienst X?
Een cloudsysteem kan net als een single server best slecht geconfigureerd zijn, een slechte redundantie of backup hebben.
Ik denk niet dat ze een SAN hadden, daar is backup redelijk eenvoudig en vaak al ingebouwd in de hardware. Ik vermoed dat ze alleen lokale storage hadden in de machines, al dan niet met raid, en geen behoorlijke backup.
Dit mag geen cloud genoemd worden aangezien er maar 1 server gebruikt werd. Een cloud houdt in dat alle dat over meerdere servers bij voorkeur over meerdere locaties gerepliceerd wordt. Dit zou backups voor hardware failures uit moeten sluiten.
Het is maar hoe je het noemt. Niemand zegt dat een cloud niet 1 PC in een rekencentrum kan zijn. Een cloud is een nieuw woord voor SAAS (Software As A Service) wat eerder al kansloos mislukt is. Er staat echter nog heel veel ongebruikte hardware in rekencentra en dit wordt nu ook als cloud aangeboden (nog los van de bakken hardware die nieuw neergezet wordt onder de noemer cloud-computing). Over 3 jaar hoor je hier niets meer van net als SAAS :O
Als iets eerder mislukt is wil het nog niet zeggen dat het nooit wat zal worden. Ik kan me nog herinneren dat Andrew Tanenbaum (schrijver van o.a. Minix) tijdens een van m'n colleges aan de VU eens bluetooth als voorbeeld gegeven van iets wat totaal mislukt was. Dit was vele jaren geleden (2001?) en in die tijd was het idd ook aardig mislukt, gezien het al sinds 1994 beschikbaar was. Daarna is het echter wel opgekomen, vooral door de ondersteuning in mobiele telefoons denk ik, en het feit dat die dingen steeds meer functies kregen, waarvan een deel een wireless verbinding nodig had.
Ik zie SAAS nog wel op gaan komen. UIteraard zal het niet alles gaan vervangen, voor een hoop toepassingen heb je gewoon eigen servers nodig, bv voor gevoelige data of high-performance, maar voor een hoop zaken is het prima geschikt. denk bv aan webapps, testmachines, development, misschien zelfs gaming.
En jou eigen hard disk kan net zo goed falen als deze server dat kan.

Verschil is echter wel dat je dat in eigen beheer hebt en als je eigen HDD crasht zonder dat je een back up hebt, is het jammer maar helaas.

Nu kan je iemand anders de schuld geven, en misschien nog wel cashen ook, ideaal lijkt me.. :+
Oeps.. failure.. Wel erg raar dat ze van productiesystemen geen back-ups maken. Ik denk dat een datarecovery in dit geval wel de moeite en het geld waard is. Voorzover dat nog mogelijk is bij een RAID-zoveel systeem.
Probleem is, dat het waarschijnlijk in een RAID0 systeem stond en als dat mis gaat ga je niets meer terug kunnen vinden.
Was het RAID 1 dan was er niets aan de hand.

wat betreft de opmerking van Keypunchie. Denk aan een dienst als Spotify (muziek). Zodra alles in de cloud staat kun je niet meer in de trein even wat omwisselen op je mp3 speler bv.

Toegang VS Bezit kwestie.
of in dit geval dus alles kwijt ...
Beetje extreem kort door de bocht om te zeggen dat er "waarschijnlijk" RAID0 gebruikt is en dat er daarom een probleem is. Je weet toch helemaal niet hoe dat datacenter is opgebouwd?
Inderdaad je kent de hele architectuur niet eens beetje erg kort door de bocht. Zulke bedrijven draaien echt hun systemen niet op RAID0!
Tja, met diezelfde zekerheid kun je zeggen dat "zulke bedrijven echt backups maken". Van wat we nu weten kunnen we afleiden dat de systeembeheerders van Danger incompetent zijn. Hoe incompetent is dan nog de vraag.

RAID-0 hoeft overigens geen slechte beslissing te zijn als je online backups hebt. Als je backup op elk moment maximaal 5 minuten oud is, verandert dat de dubbele kans op een schijfcrash niet, maar wel de gevolgen daarvan.
Dat is ook wel weer kort door de bocht. Misschien wilde ze wel backuppen, maar kregen ze niet de tijd en het geld om daarin te investeren. Onderschat niet hoevaak dat gebeurt.

Iedereen heeft het hierover raid, maar dat is vaak al standaard bij 19 inch servers. Er zijn zoveel andere mogelijkheden naast het falen van een disk (waar raid tegen beschermt)
- Brand
- misconfiguratie
- Falende SAN of RAID controler..
- Het backup process kan niet goed ingeregeld zijn - maw het terugzetten is nooit getest
(ik denk dat als ik vraag wie hier backups maakt ik 90% ja krijg, maar ik denk dat het aantal vingers veel minder word als ik vraag wie ooit getest heeft of het terugzetten werkt)
Zulke bedrijven draaien echt hun systemen niet op RAID0!

Kort door de bocht, zulke bedrijven zouden normaal gezien ook een goede back-up policy moeten hebben , maar helaas was dat hier niet het geval.
Wat voor raid ze gebruiken is eigenlijk niet zo relevant (en dus eigenlijk die hele discussie hierboven niet). Als je je data verkloot heb je alsnog netjes gemirrorde verklootte data.
Het probleem is hier meer het gebruikte OS (win2k8, volgens netcraft), of eigenlijk de attitude die achter de standaard beheerder van dit OS steekt. De gemiddelde *nix-based omgeving is standaard gebackupt. De gemiddelde Windows omgeving is nog niet eens redundant. "Backups? We hebben toch 'system restore' van onze vrienden uit redmond gekregen?"
Of vind je het echt toeval dat dit nou net weer "toevallig" bij een MS dochter gebeurt, en zo'n bericht nou nooit van een IBM ofzo komt?
Zowiezo, bij Raid heb je alleen hardware redundantie. Ga je met je shift knop en de delete-knop gek doen, of voer je een paar leuke database-drops uit, en overschrijf je de betreffende sectoren op de harddisks vervolgens een paar keer met je pr0n verzameling, is het nog weg. En geen mirror of striped mirror die je daar tegen beschermd.
Of de server brandt af of de sprinkler gaat aan of de server wordt gejat of er stort een muur in of de bliksem slaat in of er is een beheerder die kwaad is op 't bedrijf of een beheerder maakt een foutje of de eerste schijf/schijven was/waren al lange tijd stuk (zonder dat men 't merkte) en later pas de laatste...
@Dmvdberg:
Nee, ook RAID1 is dus zeker onvoldoende en 't kan dus ook best zo zijn dat ze al RAID1 hadden. Meestal zie je trouwens RAID5 in de praktijk.
klopt, en het echte paranoia persoon zet alles in RAID1+5

Langzaam zet ik iig mijn eigen bedrijf om van RAID 1 naar RAID 5.
Klanten die een video productie af willen zien reageren niet erg goed op verlies van een dag (of week) filmen.
Zelfs Raid 5 is (juist) niet veilig. zoek maar eens op 'write hole'.
Hier staat bijvoorbeeld iets:
http://davidfrancis.blogs...07/raid-5-write-hole.html
Dit gaat om enkele disk blocks. Namelijk alleen de data die werd geschreven op het moment dat de disk uitviel. Hier raak je geen complete data verzamelingen mee kwijt, je hebt in het ergste geval een paar MB niet meer. Tis idd lullig als dit net toevallig je filesystem index is, maar daarvoor heeft ieder degelijk filesystem backup blocks.
helder! hier staan ook zoveel comments dat het bijna onleesbaar wordt.

En toch vraag je je dan af...... wat IS daar toch gebeurt in Amerika?!
Daarom dat er RAID10 bestaat ;)
Wie gebruikt er nou weer raid 10. Dit is vreselijk inefficiënt disk gebruik. Je kunt veel beter raid 5 (4+P) pakken, of raid 6 (4+2P) als je nog meer redundancy wilt.

Neem disks van 1TB:
raid 5: 5 disks, 4 data, 1 parity = 4TB
raid 6: 6 disks, 4 data , 2 parity = 4TB
raid 10 met 6 disks: 3 data, 3 mirror = 3TB
idd erg veel poen :D

heb bij een klant keer heel weekend moeten restoren, daar hadden ze zoveel mazzel dat de recente data niet corrupt was en oude date van de tapes, samengevoegd tot +/- 95% alles gered... wat een klus zeg, maar dit gaat natuurlijk veel verder.
Ik begrijp eigenlijk niet zo goed wat dit heeft te maken met Microsoft. Het is een dochter onderneming van Microsoft, ze hebben Danger vorig jaar overgenomen. Dat een dochter onderneming van microsoft de zaken niet in orde heeft, heeft toch niks met Microsoft te maken.
Hoezo niet? Dat bedrijf is dan toch van MS?
Natuurlijk heeft het dat wel!
Eigendom van Microsoft -> Microsoft moet zorgen dat de zaakjes in orde zijn. Of ze het nu zelf hadden moeten regelen of niet, iemand heeft een major screwup begaan en dat straalt af op Microsoft. Zo simpel is dat.
Natuurlijk wel. Sterker nog; als je als eigenaar nalatig bent geweest is het zelfs mogelijk dat je als eigenaar aansprakelijk gesteld kan worden.
dat geld volgens mij alleen bij financieel wanbeleid. Niet bij het niet op orde hebben van de IT (alhoewel de verantwoordelijke directeur bij die tent vast naar een andere betrekking kan gaan zoeken)
Jongens, iedereen rolt nu over elkaar heen om te verkondigen hoe dom het is dat Danger geen goede backup-strategie schijnt te hebben. Maar heeft iemand al uitgezocht wat er eigenlijk inde SLA staat van het Sidekick-contract? Als daar niets in staat over de gegarandeerde beschikbaarheid van de opgeslagen gegevens, dan heeft de klant geen recht van klagen en heeft Danger zich keurig aan de overeenkomst gehouden.
Dus? Daar heb je als IT'er toch niets mee te maken?
Ik zou serieuswaar weigeren een systeem te beheren waar ik geen backups van kan draaien. Dat vind ik een inherent iets aan een netwerk. Waar een server is is een backup oplossing. Zo is dat gewoon.
Dat die dienst vervolgens je data niet garandeert tjah...
Dat vind ikzelf niet zo boeiend, en zelfs slecht aangezien ik heb vernomen dat je die dingen ook niet lokaal kan backuppen.
Als IT-er dien je de dienst te verlenen die de klant vraagt en waarvoor de klant wenst te betalen. De marketing-afdeling heeft een product gedefinieerd en in de markt gezet, en dat product dien je als IT-er te leveren. Niks meer en niks minder.

Iedereen roept hier dat Danger geen backups maakt, maar weten we dat wel zeker?
Zou het misschien zo kunnen zijn dat ze wel degelijk (gedeeltelijk) backups maken van hun systemen, maar niet van de sidekick-userdata omdat dat niet gevraagd wordt en erg veel zou kosten?
Inderdaad. Zo zou je je ook kunnen afvragen wat er in de SLA staat tussen MS/Danger en T-Mobile. Backup garantie voor de klant?
Dit muisje krijgt vast nog wel een staartje.
Klopt, maar het blijft slordig.
Foto's en contactlijsten zijn natuurlijk niet bepaald data van staatsbelang (mogelijk ook de reden dat er geen back-ups van waren), maar het is natuurlijk zeer knullig, lullig en slecht voor je imago als bedrijf.
Contactlijsten kunnen anders heel belangrijk zijn. Voor sommige mensen zijn contacten hun brood. Ikzelf heb me contacten lokaal en live gesynchroniseerd op twee fysiek apparte servers met ook nog eens hun eigen backup, los daarvan heb ik ook periodieke backups op me pc&laptop.
Maar niet iedereen heeft daar verstand van. Die zijn vaak ook nog eens getrapt in verkooppraatjes dat alles veilig online staat mocht er iets met hun toestel gebeurt zijn..
Staatsbelang vast niet, maar mijn eigen foto's zijn voor mij van onschatbare waarde. Als ik $20 per maand uitgeef om die gegevens te bewaren dan verwacht ik dat daar met dezelfde voorzichtigheid als staatsgeheimen mee omgegaan wordt.

Dit soort akkevietjes zal zeker mee wegen wanneer ik een dienst uitzoek voor het opslaan van mijn gegevens met onschatbare waarde. Blijkbaar ben ik daarvoor bij MS niet aan het juiste adres.
"Gebruikers die nog gegevens in hun Sidekick hebben staan, wordt aangeraden om het apparaat vooral niet te resetten of uit te schakelen."

Wat heeft dat nou te maken met het uitvallen van hun servers? of download die telefoon elke keer alle data opnieuw nadat je hem opstart?
De Sidekicks die nu nog aanstaan hebben (een deel van de?) data die verdwijnt bij het uitzetten. Ze gaan nu proberen de data die op de draaiende Sidekicks staat terug op de server te krijgen.
Ja, het is eigenlijk een thin client waar je ook mee kunt bellen. Stroom weg, geheugen leeg. Wat in je geheugen zit is alles wat je nog hebt en je kunt nu niet syncen met de (data)servers omdat die data weg is.
Allemaal er lullig.
Microsoft heeft eerst dochterbedrijf Danger uitgekleed en toen gebakken lucht aan T-Mobile verkocht en de klanten zijn zoals altijd de dupe.

Edit: Nog een sappig verhaal.
http://www.appleinsider.c...windows_phone.html&page=3

[Reactie gewijzigd door Prikkebeen op 11 oktober 2009 17:15]

Ja hoor, lekker betrouwbare bron. En dan de rest van dat artikel.. Het kan bijna niet meer gekleurd. Ergens zal er misschien vast wel een kern van waarheid in zitten, maar verder is het natuurlijk gewoon een hoop onzin onstaan uit de fantasie van die kerel. Maargoed, over een jaartje of twee wanneer deze kerel gewoon opgehangen kan worden aan z'n eigen rotzooi is iedereen zijn blog post alweer lang vergeten.
Och, het klinkt authentic. Dit soort dingen gebeuren maar al te vaak, zeker als MS er mee te maken heeft.

Ze zijn bezich een aardig potje er van te maken op het mobiele front. Het lijkt er op dat MS echte problemen heeft als er op een vlak meerdere concurenten zijn.

Office was makkelijk, alleen Wordperfect verslaan, dus alleen zo lang geld blijven pompen tot de concurrentie een fout maakt.

IE vs Netscape was hetzelfde. Windows vs OS/2 op nieuw.

X-box verloor tegen de PS2 en hoewel Sony blunderde met de veel te dure PS3 (nu de prijs omlaag is vliegen ze eindelijk de deur uit) maar daar was Nintendo die het spel veranderede met de Wii.

En op het mobiele front zijn er zeer veel tegenstanders. En hoewel ze allemaal fouten maken is er altijd weer eentje die net wat slimmer is. Nokia prijst zich uit de markt, komt Apple weer. Die hebben maar een modelletje, komt google weer met zijn gratis Android.

Het bovenstaande verhaal heb ik persoonlijk al eerder mee gemaakt bij O2. MS speelt niet aardig, en dit trukje hebben ze vaker uit gehaald.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True