Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Azure Storage-klanten in West-Europa hebben last van trage verbindingen

Door , 75 reacties, submitter: Derice

Klanten van Azure Storage hebben donderdag last van hoge latency en andere prestatieproblemen met de opslagdienst van Microsoft. Volgens Microsoft heeft niet iedere gebruiker er last van, alleen een deel van de klanten in West-Europa.

Microsoft bevestigt de problemen op de statuspagina van Azure. Klanten hebben met hoge latency, timeouts en http 50x-errormeldingen te maken. Ook diensten die gebaseerd zijn op Azure Storage kunnen daardoor hinder ondervinden. Microsoft noemt met name het gebruik van virtuele machines.

Volgens Microsoft zijn de trage verbindingen te relateren aan netwerkproblemen, die impact hebben op de toegang tot opslagsystemen. Microsoft werkt eraan om de problemen te verhelpen, maar kan nog niet aangeven wanneer de trage verbindingen verleden tijd zijn.

Olaf van Miltenburg

Nieuwscoördinator

18 mei 2017 18:31

75 reacties

Submitter: Derice

Linkedin Google+

Reacties (75)

Wijzig sortering
Alles in de cloud. _/-\o_
Hoeveel bedrijven in West europa hebben op dit moment last van een stroom, server of internet storing. vs. Hoeveel dat er zijn nu in Azure. De ervaring leert dat servers in de cloud minder downtime genieten dan gelijkende servers in een eigen pand.

Natuurlijk is de 'cloud' niet voor alle oplossingen geschikt, maar over het algemeen heb je meer uptime tegen een lagere prijs. Tenzij je voor een super cheapo oplossing gaat en dan heb je veel meer downtime tegen een nog lagere prijs. Geen server, voeding redundancy, backup internet lijn, geen support contract of onderhouds contract, etc.

Kijk bv. naar Office 365 of G-Suite, in vergelijking met een eigen exchange oplossing is dat velen malen goedkoper. Ook al leverde al die extra uurtjes aan Exchange me een hoop meer geld op dan Office 365 beheren. Alleen bepaald, vaak stupide, gebruik van Outlook mail is hier niet voor geschikt. Zelfde voor Azure, je kan zelfs nog verder je kosten beperken door te scripten dat servers buiten piek gebruik en/of kantoortijden uit gaan en dus geen CPU/GB 'tikken' kost. Bepaalde processen hebben maar een keer in de week/maand/jaar extreme resources nodig en staan de rest van de tijd te nietsen, gewoon tijdelijk je server up kunnen scalen naar en 32 core, 448GB monster voor nog geen ¤100 een dagje van 8:00 tot 18:00...
Op het moment dat je je spul in de cloud hebt staan is het natuurlijk ook niet nodig om een backup internetlijn te hebben, want je primaire gaat nooit down. Of een support/onderhouds-contract op de 3rd party services of applicaties die op je cloudplatform draaien, want die gaan nooit stuk.

Effectief gezien verleg je de afhankelijkheid van hardware, maar alle andere gerelateerde zaken veranderen niet en brengen dus nog steeds kosten en risico met zich mee. Je bent zelfs meer afhankelijk van je internetlijn dan voorheen. Als die plat gaat heb je helemaal niets meer waar je voorheen, toen je je spullen intern had staan, "gewoon" door kon draaien. Afgezien van zaken die een internetverbinding vereisen uiteraard.

Er staan zeker zinnige zaken in jouw post, maar hetgeen er niet in staat is juist datgene dat elke cloudcrazed manager ook vergeet.

[Reactie gewijzigd door max op 18 mei 2017 19:27]

Je bent zelfs meer afhankelijk van je internetlijn dan voorheen. Als die plat gaat heb je helemaal niets meer waar je voorheen, toen je je spullen intern had staan, "gewoon" door kon draaien. Afgezien van zaken die een internetverbinding vereisen uiteraard.
Bij de meeste bedrijven is een internetlijn essentieel. #1 is natuurlijk email. Als dat op kantoor draait ben je niet bereikbaar, de kans is veel groter dat je internetverbinding, stroom of hardware op kantoor stuk gaat dan in over de hele wereld verspreid redundant uitgevoerd email platform. Als je geen stroom of internet op kantoor heb, pak je een mobiele werkplek en gaat ergens anders zitten, gaat naar huis en pakt daar je PC. Hoe vaak ik dat al niet heb moeten doen met vele MKB over de afgelopen jaren is best schrikbarend.

In de randstad zal je wat minder vaak last hebben van een stroomstoring, maar eerder last van een internet storing, zeker op de kantoor en industrie gebieden waar vaak bedrijven zitten. Graaf werkzaamheden die een internetkabel raken, issue met een wijkkast, etc. In de rest van Nederland zie ik veel vaker stroomstoringen, waar je het appelazerus schrikt van de berg notifications die je in een keer krijgt omdat alle servers down zijn op locatie en helemaal niemand nog wat kan doen op kantoor. Veel MKB heeft ook geen budget voor uitgebreide en geteste uitwijklocaties.

99.9% uptime bij de meeste bedrijven is vaak alleen tijdens kantoortijden, als deze opeens worden uitgebreid (zoals dat er 's avond gewerkt wordt) dan gaat dat vaak al meteen een heel stuk slechter. Natuurlijk heb ik het hier niet over multinationals die die dedicated datacenters in verschillende landen hebben staan. Maar vaak is dat ook gewoon 'cloud', maar dan zelf hosted.

Klant/leverancier communicatie is in veel gevallen gewoon primaire bedrijfsvoering en productie werk die applicaties vereisen moeten gewoon lokaal staan, geen gehannes met VPNs of proberen Adobe of Autodesk op een RDS te draaien in de cloud. Je gaat niet de primaire aansturing van je machines via de cloud doen, die moeten gewoon door kunnen werken als je geen internet heb of je cloudservertje down is.
Bij de meeste bedrijven is een internetlijn essentieel. #1 is natuurlijk email. Als dat op kantoor draait ben je niet bereikbaar, de kans is veel groter dat je internetverbinding, stroom of hardware op kantoor stuk gaat dan in over de hele wereld verspreid redundant uitgevoerd email platform.
Dat zeg ik toch ook. Wel of niet gebruik maken van een cloudplatform veranderd niets aan de afhankelijkheid van je internetverbinding (of andere nutsvoorzieningen). Bij gebruik van een cloudplatform is die afhankelijkheid alleen nog groter.
Als je geen stroom of internet op kantoor heb, pak je een mobiele werkplek en gaat ergens anders zitten, gaat naar huis en pakt daar je PC. Hoe vaak ik dat al niet heb moeten doen met vele MKB over de afgelopen jaren is best schrikbarend.
Dat krijg jij als ITer (ga ik even van uit) wellicht prima voor elkaar. VPN/RDP sessie opzetten en gaan. Maar leg je dit ook even voor bij die directiesecretaresse, de productiemedewerker of de inkoper die geen communicatie met hun interne en externe klanten hebben, en niet zo makkelijk van werkplek wisselen.
Klant/leverancier communicatie is in veel gevallen gewoon primaire bedrijfsvoering en productie werk die applicaties vereisen moeten gewoon lokaal staan, geen gehannes met VPNs of proberen Adobe of Autodesk op een RDS te draaien in de cloud. Je gaat niet de primaire aansturing van je machines via de cloud doen, die moeten gewoon door kunnen werken als je geen internet heb of je cloudservertje down is.
Oh dus je wil in de cloud én ook nog on premise apparatuur neerzetten. Sorry, daar hebben we geen budget voor. We zitten toch al in de cloud, nergens voor nodig. En als je zo door gaat met van die rare ideeën op tafel gooien verscheuren we je contract ook even. Want waar hebben we jou als beheerder nog voor nodig? We zitten IN DE CLOUD!!

;)

[Reactie gewijzigd door max op 18 mei 2017 20:41]

Het idee is dat je de computer kant vrij makkelijk kan verplaatsen, maar niet de server kant. Als beide op dezelfde locatie staan en beide een internet verbinding nodig hebben is het bijna onmogelijk om adhoc dat te verplaatsen.

Meerdere malen het hele kantoor naar huis gestuurd, een hoop op laptopjes, een aantal op eigen PCs. Ook wel eens een grote vergaderruimte afgehuurd, iedereen met laptop daar naartoe en op de wifi. Ben niet eens op locatie hoeven komen, zodra ze weer een internet verbinding hadden kon ik bij alle PCs voor remote ondersteuning. Per koerier een aantal leenlaptops langs laten brengen voor degene die er alleen desktops hadden. Achteraf vond men dat een hele ervaring en nog wat meer laptop verkopen gedaan met dockingstations... En dat was echt ook de directeur en de directiesecretaresse. Inkoper kon ook gewoon mee, kon netjes via een mobiel scannertje en een virtuele fax mailbox ook zijn werk doen. De productie medewerkers waren op een andere locatie en zouden door een stroomstoring geheel niet kunnen werken, die noodaggregaat zou niet voldoende sap leveren...

Tegenwoordig is het nog mooier, iedereen een Surface (of laptop) op kantoor een dosckingstation en thuis een dockingstation. Gewoon werken waar je wil.
Het zal meer dan van de grootte van het bedrijf in kwestie vooral afhangen van de werkzaamheden/sector van het bedrijf in kwestie of je "zomaar eventjes" je client computers kunt verplaatsen.

In een voornamelijk administratief gericht bedrijf kan ik me daar nog iets bij voorstellen, maar in een productie-omgeving lijkt me dat een no-go.

Wij bv. gaan daar niet aan beginnen: CAD-afdeling (alle data op een lokale server; cloud is onwerkbaar wegens trage upload, en niet ondersteund); PLC programmeurs (hebben verbindingen met de machines op de werkvloer nodig); ERP-systeem staat lokaal vanwege de nodige koppelingen met de CAD-database.

Laat voor ons 'het internet' er maar even uitliggen, da's erg vervelend maar wij kunnen ondertussen wel verder met onze business.
Er zijn mogelijkheden om CAD in een virtueel platvorm te krijgen, nog geen ervaring mee, maar zou er zelf ook huiverig voor zijn (tech is nog niet zo heel oud). Deze partij lijkt er expert mee te zijn: https://cadinthecloud.nl/
BIM lijkt ze ook te gebruiken.

Nvidia Grid samen met VMware kan dat:
http://www.nvidia.com/object/grid-technology.html

Dat het ERP pakket ook lokaal moet staan lijkt mij een beperking van het pakket, via API zou dat prima in de cloud moeten kunnen tenzij daar heel veel data realtime uit wordt gelezen (wat ik vreemd zou vinden). Iets als Vakware draait ook prima op een cloudomgeving samen met een lokale CAD oplossing...

Voordelen hiervan is dat er geen dure workstations idle staan, mensen kunnen overal vandaan werken, etc.

Maar nogmaals, dit moet ik ook nog eerst eens in de praktijk zien voordat ik jay or nay zeg op deze implementatie.
Cloud gebruikt commodity spul. Commodity is simpel betaalbaar en best goed spul. Het is wel een stapje terug qua keuzes die in het verleden werden gemaakt door Enterprise bedrijven. Dus je infrastructuur vereist een nieuwe kijk op beschikbaarheid. Architecturen moeten dus de focus verleggen van High Available naar Resilliancy. Zie dit voorbeeld: Als je detecteert dat EMEA traag reageert dan laat je de load balancer het verkeer directen naar NAM of vice versa. De NAM site is per definitie powered off (geen kosten) maar de instances kunnen heel snel ingezet worden tijdens verstoringen binnen een andere regio.
Cloud is een beetje een verzamelnaam en zegt weinig over de veiligheid van data en systemen.

Ben nu aan het kijken naar cloud vps en zie dan snel dan vele daaronder gewoon vps verstaan met raid storage. Als de hele server eruit knal is de lokale hdd data ook weg.
Veiliger is dan bij een san die weer dubbel uitgevoerd is, knal je server er uit kun je nog steeds verder me je data op een andere server.

Of tegenwoordig ook steeds goedkoper gewoon 2 server in 2 datacentra met loadbalancer.

Te veel noemt men tegenwoordig cloud zonder echt te kijken hoe veilig de data echt is.
"Cloudcrazed manager" _/-\o_ _/-\o_

Alsof we 15j heleden al geen uptimes hadden vzn 99,99 of zelfs 99,999 iets Wat Microsoft Azure dit jaar al niet meer haalt

Office365 is "NIET" goedkoper als een on-prem, pure marketing! Gewoon beter onderhandelen ! Tuurlijk wel voor efn mkb maar eens je het hebt over 10.000-den mailboxen valt de korting behoorlijk tegen.

[Reactie gewijzigd door klakkie.57th op 18 mei 2017 19:43]

Zelfs die tienduizenden mailboxen is in veel gevallen goedkoper. Want je heb niet meer je Exchange beheerders nodig die inclusief werkplek vaak al goed zijn voor 10k-15k licenties per persoon. Want het is niet alleen het bruto salaris, maar ook alle bijkomende kosten, overhead, werkplek, etc.

Maar de Nederlandse bedrijven bestaan voor 99% uit het MKB, dus is het voor 99% van de bedrijfen goedkoper om Iets als Office 365 of G-Suite te nemen.

Voor echt grote ondernemingen met echt veel gebruikers op centrale locaties is wellicht een hybride omgeving wenselijk/noodzakelijk. Maar men gaat veel meer toe naar organisaties waar je mobiele werkplekken heb, regelmatig kan thuiswerken, etc. Zijn we daar al allemaal, nee, maar het is vaak eerder de mentaliteit bij management en interne ITers die heel hard nee zitten te schudden en verkeerde rekensommetjes presenteren, vaak bang voor eigen baan (wat natuurlijk begrijpbaar is).
Bedrijven met tienduizenden mailboxen gaan écht hun hebben en houden niet compleet bij MS neerkwakken in de hoop dat t goed komt.
Hogescholen doen dat al.
Ja, het gaat ook zó goed met het hogere onderwijs in dit land....

Precies hét argument om dat dus niet te doen.
Office 365 grootste klant heeft 7,5 miljoen mailbox users, plus natuurlijk tig shared mailboxen (Is wel een overheidsinstelling):
https://redmondmag.com/bl...-live-edu-cloud-deal.aspx

En als je hier zoekt op "Corporate", dan kom je al 12 testimonials tegen en dat is dan een kleine beperkte selectie:
https://products.office.c...ories-office-testimonials
Absoluut wel. En met Azure Stack verwacht ik dat MS alleen maar een groter aandeel gaat pakken.
Ik heb een aantal Azure Pack implementaties voorbij zien komen, voelt heel erg aan als Azure Light. Azure Stack klinkt veelbelovend, maar gezien de MS historie met nieuwe software pakket releases en hoelang die wortel ons al wordt voorgehouden, ben is in de stand: "Eerst zien, dan geloven."

Maar als de hype in de praktijk waar blijkt te zijn, dan is dat een hele mooie oplossing!
Oh? Ik werk bij een cloud desktop provider. Nagenoeg alle klanten gebruikt exchange online omdat het bedrijf waar ik werk dit standaard doet in de cloud desktop propositie.
Ja, maar ik heb het over "hun héle hebben en houden". Mail is dan nog 1 ding (heeft O365 al DKIM trouwens? Exchange on prem nog steeds niet namelijk!) maar al je data?

Als je ook maar iets met Amerikaanse (overheids)bedrijven te maken hebt zullen ze er niet zonder meer mee akkoord gaan dat je data overal over het internet zwerft. Daar zitten nogal wat haken en ogen aan en zul je nog altijd zelf best wel wat on premises moeten houden om te mogen werken voor oa. overheidsinstanties..
DKIM zit in Exchange Online/O365, maar idd apart dat het nog niet in de on premise Exchange zit.
Je kan kosten niet alleen uitdrukken in de kosten van beheer of de kosten van hardware, je moet ook je risico in geld uitdrukken en dat is niet eenvoudig. De hosting partij bepaald ook aan welke wetgeving jouw data onderworpen is en wie daardoor toegang krijgen tot je bedrijfsdata. Heeft je partner een Amerikaanse vestiging, dan is al voldoende om onder de Patroit act te vallen. Daarmee heeft de Amerikaanse overheid toegang tot jouw data als ze dat willen zonder dat jij daarvan op de hoogte bent. Heb je dan Amerikaanse concurrenten, dan kan je zomaar lucratieve deals mislopen terwijl je echt niet door hebt dat jou concurrentie een informatie voorsprong heeft verkregen. Kan je met Office 365 zo maar gebeuren.

Of wat gebeurt er als jou partner problemen krijgt met justitie in een ander land war jouw data gehost wordt. Kan je data zomaar in beslag genomen worden en heb je het risico deze niet terug te krijgen of dat je moet betalen om het terug te krijgen. Je bent je eigendomsrecht kwijt.

Mooi voorbeeld is de zaak van de Europese Airbus versus het Amerikaanse Boeing, of de zaak van de legale gebruikers van megaupload die hun data kwijt zijn.

[Reactie gewijzigd door wiseger op 18 mei 2017 22:31]

Amerikaanse overheid paranoia, voor de MKB in Nederland is dat met een handjevol uitzonderingen (denk mensen rechten advocaten kantoor) gewoon geen serieus probleem. Bedrijfjes en de eigenaren denken gewoon dat ze te belangrijk zijn. Wellicht dat dit belangrijk is voor bepaalde grote bedrijven, maar die kunnen aparte contracten afsluiten met bv. MS over waar de data wordt gehost en waar de data naartoe gaat. Als MS zich daar niet aan houd, dan zitten daar enorme penalties aan vast en zou indien dit bekend zou worden dmv. een lek (wikileaks) dit MS de kop kosten in deze markt. Nog niet te vergeten wat voor sanctie de EU MS zou opleggen, vergeet niet dat er significant meer Europeanen zijn dan Amerikanen.

En als de NSA inderdaad een issue is, dan ga je al helemaal geen Exchange of andere MS gebruiken voor je vertrouwelijke data. Een dergelijke opstelling ben ik wel eens eerder tegengekomen, maar dat zijn enorme uitzonderingen. Je vertrouwelijke bestanden stuur je dan sowieso niet op per e-mail buiten het secure airgapped netwerk. En daar zitten jij en ik echt niet als systeembeheerdertje, dat is security op een geheel andere schaal.

Wat betreft je eigendomsrecht. Je moet ze de kost geven hoeveel servers er door politie zonder pardon in Nederland in beslag zijn genomen. Niet alleen bij hosting partijen, maar ook op locatie bij bedrijven. Denk je dat je pand beheerder ze de sleutels van het serverhok niet geeft? Of dat je systeembeheer fysiek geweld gebruikt om die servers niet te laten gaan? Je krijgt geen waarschuwing, gewoon een inval. Ook op verzoek vanuit de VS. En in veel gevallen zou je systeembeheerder goed gek zijn om niet mee te werken met een gerechterlijk onderzoek. The only way to keep a secret between three people is if two are dead!
Sorry ik vind dat je nu te kort door de bocht gaat. De patroit wetgeving is er gewoon. De consequentie is dat de Amerikaanse overheid toegang tot jou data kan hebben zonder dat je ervan op de hoogte wordt gesteld. Als je bedrijfsspionage niet serieus neemt, dan neem je echt hele grote risico's als bedrijf zijnde. Zeker in een globale wereld economie waar kennis steeds belangrijker wordt.

Hetzelfde geldt voor het eigendom van je data. Als je gebruik maakt van externe hosting partijen, dan dien je goed te beseffen dat derden de reden kunnen zijn dat de data is beslag genomen wordt. Ook al houdt jouw organisatie zich keurig aan de wet, je kan de toegang tot je data verliezen. Dat kan voor veel bedrijven serieuze problemen veroorzaken.

Begrijp me goed, ik ben niet tegen extern hosten echter men dient er goed over na te denken en alle consequenties goed te onderzoeken. Met bagataliseren kan je organisatie uiteindelijk in grote problemen terecht komen. Je data in de Cloud zonder dat je weet waar je data zich daadwerkelijk bevind en wie er allemaal toegang heeft tot jouw data, is mijn inziens een onacceptabel bedrijfsrisico.
Als je meer wilt dan een eenmans bedrijf dan kunnen en zullen derden altijd de oorzaak zijn van je data dat in beslag wordt genomen. Je personeel kan daar ook de oorzaak van zijn.

Wie er toegang heeft tot jou data, is je contract nalezen. Wie er heimelijk toegang heeft tot jou data weet je nooit ongeacht op welke locatie het staat.

Nogmaals, als je data interessant is voor derden dan is het propotioneel eenvoudig om toegang te krijgen tot die data. Iemand met een beetje technische kennis en een creatieve geest kan de security officer met tranen in de ogen doen weglopen met een hopeloosgebaar.

Security moet proportioneel zijn aan de waarde van de data en de kans dat deze gestolen. De meeste diefstallen van data zijn inside jobs. En zelfs dan, keylogger tussen keyboard en PC, plus mobieltje clonen voor 2FA en je bent binnen, schoonmakers zijn daar perfect voor (niemand let daar heel veel op). Bij veel grotere bedrijven loop je zelfs zo met het personeel mee naar binnen, als je er maar nerdy genoeg uitziet gelooft iedereen op je blauwe ogen dat je een iter bent die een pc komt verwijderen voor hardware onderhoud. Nu kan je je daar wel redelijk tegen beveiligen, maar daar wordt je personeel niet vrolijk van en resulteerd in een enorme kosten post. De meeste bedrijfjes die hier over beginnen te klagen hebben zelfs geen basic security die niet makkelijk te omzeilen is.
Kijk bv. naar Office 365 of G-Suite, in vergelijking met een eigen exchange oplossing is dat velen malen goedkoper.
Heb je dat uitgerekend? Ik wel en bij ons (80 man) was het veel goedkoper om Exchange gewoon in-house te houden dan om het in Office 365 te gooien. Daarbij gaan we uiteraard niet bij elke release van Exchange direct upgraden. Dat laatste is voornamelijk het verdienmodel volgens mij: je bent altijd helemaal up-to-date daar maar betaal je significant meer geld voor.
Het ligt er aan welke features je gebruikt en hoe groot je bedrijf is. Ik heb er wel eens berekeningen op los gelaten, verregaand ook (alles meegenomen). Je moet ook bereid zijn om Exchange on-prem echt optimaal te gebruiken. Dus JBOD, back-up-less, etc. Als je schaal hebt is O365 vrijwel altijd duurder, maar het ligt ook aan andere zaken zoals compliancy bijvoorbeeld en/of bestaande contracten die bedrijven nog hebben waardoor sommige licenties er toch al zijn.. etc.. Maw, it depends.
Wat MSFT ook doet ik dikke kortingen geven op O365 aan bedrijven die moeten vernieuwen. Dan wordt het weer een ander verhaal.

Zomaar aannemen dat O365 goedkoper is, is heel erg dom iig.
Reken je ook in jouw voorbeeld zowel email als Office mee? Want die mail server ja, maar je hebt ook nog je office pakket. Dat zit dan weer erbij in de prijs. Bij je eigen server zul je dat nog apart moeten aanschaffen en betalen.
Heb je dat uitgerekend? Ik wel en bij ons (80 man) was het veel goedkoper om Exchange gewoon in-house te houden dan om het in Office 365 te gooien. Daarbij gaan we uiteraard niet bij elke release van Exchange direct upgraden. Dat laatste is voornamelijk het verdienmodel volgens mij: je bent altijd helemaal up-to-date daar maar betaal je significant meer geld voor.
Erm, wie doet beheer en onderhoud aan die server/Exchange? Als je die er daardoor uit kan gooien dan betaald dat Office 365 van zelf.

Niet upgraden naar de nieuwste release van Exchange hoeft ook niet, maar wat ik dan leuk zie is dat bedrijfjes twee jaar na de EOL datum van Exchange spontaan bij ons aan kloppen dat hun server op omvallen staat en of we dat met spoed kunnen omzetten...
Ik doe dat beheer.

En als je iemand eruit kan knikkeren dan zou dat wellicht een optie zijn. Maar er is meer te doen dan Exchange in de gemiddelde omgeving ;). En Exchange is heeft tegenwoordig eigen nauwelijks nog echt beheer nodig als het eenmaal goed is ingericht.

¤ 10,50 per maand lijkt heel goedkoop, maar is over 6 jaar en voor 85 man gewoon een dikke ¤ 64.260. Als je dan nagaat dat je voor bepaalde zaken toch nog een eigen serveromgeving nodig hebt (ERP, bepaalde CAD zaken, file storage) dan is Exchange meer iets wat je gewoon makkelijk mee kan nemen.

[Reactie gewijzigd door Glashelder op 18 mei 2017 21:25]

En wat zijn de kosten als je de hardware en software koopt en deze ook keurig op tijd vernieuwd (laten we zeggen na 4 jaar)?

We gaan even rekenen, prijzen in dollars, omdat dit het snelst gevonden is in Google :).
Minimaal 2 servers (RAID 1 300 GB HDD's, 128 GB RAM, 2 Quad core CPU's) waar je ESX of Hyper-V op draait kosten al snel 5,5K. Een SAN voor je storage (niet eens fiber) kost ook al snel 12K.
Dus dan ben je al 23K aan hardware kwijt.
Omdat we gaan virtualiseren is Windows Server 2016 Datacenter de meest handige oplossing (mag je namelijk onbeperkt aantal VM's op je servers draaien). Kosten voor 16 cores (2 quadcores per server): $6155 (bron).
Exchange Standard (1 server) $708. CAL licenties zijn $87.99 per stuk, voor 85 man dus $7479.15
Wil je redundantie in Exchange (dus gebruik maken van DAG, heb je Enterprise nodig, kosten beduidend hoger).
Je ERP pakket heeft waarschijnlijk SQL nodig, SQL Express heeft geen limiet meer op database grootte, maar als pakket special features heeft, moet je ook die aanschaffen. $931.
Om eerlijk te vergelijken nemen we dan meteen Office professional plus 2016 voor alle 85 medewerkers mee (a $499 per licentie): $42415.

Als we dan even gaan tellen:

Hardware: $23000
Windows Server: $6155
Exchange Standard: $8187.15
SQL Server: $913
Office Prof Plus: $42415
Totale kosten: $80670.15

Dan komen er de kosten nog bij van de electriciteit, koeling, het installeren, configureren en onderhouden van de hardware en software bij, maar ook het vervangen van de hardware na pakweg 4 jaar, om nog maar te zwijgen van SLA's, de kosten als je een grootschalige storing hebt en het uurloon van de medewerker(s) die dit moeten onderhouden.
Weet je zeker dat je goedkoper uit bent als je alles zelf host?

[Reactie gewijzigd door walteij op 19 mei 2017 10:03]

Jij doet dus precies wat ik bedoel :)
De voordelen van de Cloud doortrekken naar de on-premises omgeving en je vervolgens rijk rekenen omdat je toch echt goedkoper uit bent in die cloud.

Je hoeft die software niet na 4 jaar te vernieuwen maar pas als de support verloopt. Voor Exchange betekend dat dus een termijn van zo'n 10 jaar. Office? Idem, de support eindigt pas in 2023. En hardware kan makkelijk 5 jaar mee tegenwoordig.

Dus ja, ik weet vrij zeker dat wij lokaal goedkoper uit zijn.
Prima, dan vervang je de hardware na 5 jaar (dus over een periode van 10 jaar schaf je 2 keer de hardware aan), software en de licenties kun je inderdaad overhevelen naar de nieuwe hardware, mits je de oude hardware ook uit zet).
Dan ben je dus nog steeds $109.000,- kwijt. Als we dan de onderhoudskosten erbij pakken (die heb ik voor on premise weggelaten).Als je dat outsourced naar een beheerpartij, kost je dat pakweg $150 per (virtuele) server per maand.
2 fysieke machines, 2 DC's, 1 Exchange, 1 SQL, 1 Fileserver kosten dan dus alweer $90.000 over die 10 jaar.

10 jaar Office365 Business Premium voor die 85 medewerkers kost $12.50 per gebruiker per maand dus $127.500. Inderdaad 20K duurder (zonder de onderhoudskosten van de servers gerekend). Je hebt ook minder ICT personeel nodig. Een besparing van 1 FTE die een maandsalaris van $3000 heeft (niet eens hoog ingezet), bespaart je aan salariskosten alleen al over die 10 jaar $360.000 (de $90.000 voor server onderhoud door een externe partij mag je hier dan uiteraard tegenover wegstrepen).
Voor de kosten die dat bespaart kun je dus je ERP pakket op een dik aangeklede Azure machine plaatsen.

We kunnen hier over blijven 'kiften' maar ik heb de rekenmodelletjes regelmatig mogen doen voor verschillende MKB bedrijven (tussen de 10 en 100 medewerkers), als we dan naar het totaalplaatje keken (dus hardware, software, onderhoud, personeelskosten/beheerkosten bij outsourcen), kwamen ze in de cloud goedkoper uit (uitzonderingen waren bedrijven met erg exotische software waarvoor dan hardware gekocht moest worden, omdat dit niet in Azure/AWS/Google Cloud kon/mocht draaien).

[Reactie gewijzigd door walteij op 19 mei 2017 12:05]

"Een besparing van 1 FTE die een maandsalaris van $3000 heeft (niet eens hoog ingezet), bespaart je aan salariskosten alleen al over die 10 jaar $360.000."

Het vasthouden aan die salarisbesparing is iets waar veel managers mee de fout in gaan.
In veel omgevingen zijn de exchange servers (zeker als het er een of twee zijn) iets waar lokale beheerders hooguit een paar uur per jaar mee bezig zijn. Updaten, logs bekijken waar nodig. Alleen wanneer er grotere problemen zijn wordt er naar de systemen gekeken. ( OF het wordt uitbesteed )
Hier komt het in het MKB in ieder geval wel op neer. Grotere IT omgevingen daar heb je meer specialistische kennis zitten en daar zou het kunnen zijn dat jouw verhaal op gaat.

Maar in kleinere werk omgeving is de systeembeheerder ook degene die het netwerk beheert, de applicaties, de multifunctionals onderhoudt, de werkstations beheert. Tevens kan het de persoon zijn die de eerste lijns helpdesk is. In de praktijk is het lastig om te snijden in FTE's als daarmee je gehele operationele organisatie omvalt.
Ik ben het met je eens dat het volledig wegsnijden van IT geen goed idee is :), maar dat wil niet zeggen dat je ICT medewerkers Eigen personeel moeten zijn.
Maar op een personeels bestand van 85 man heb je toch meerdere ICT-ers nodig. Incidenten, werkplekken en de infra moet beheerd worden. Rekening houdend met vakanties, ziekte, enzovoorts kom je dan toch al snel op 3-4 ICT-ers uit (waarvan wellicht 1 ook nog wat andere taken doet).
Op het moment dat het grootste gedeelte van je on-premise infrastructuur 'dom' is (lees: geen on premise AD, maar Azure AD, geen exchange server, geen SQL server, maar puur switches, werkplekken en een firewall) wordt het beheer daarvan ook eenvoudiger.
Werkplekbeheer gaat niet verdwijnen, switches hebben maar weinig onderhoud nodig, onderhoudscontract op de Multifunctional voor beheer zorgt ervoor dat je alleen de toners en drums maar hoeft te verwisselen. Als je alles in de cloud hebt, is het geen grote stap om je ERP packet laten hosten door de leverancier, waarmee je dat onderhoud ook 'kwijt' bent.
En als je echt geen ICT-ers in dienst wil hebben, ga je het resterende beheeer bij een outsourcer gericht op MKB onderbrengen.
Heel veel MKB bedrijven kunnen echt af zonder een ICT afdeling intern, maar durven dit niet, omdat ze bang zijn dat al hun kennis verdwijnt. Wat ze echter vergeten is dat >90% van de kennis van het bedrijf als het om ICT gaat gewoon standaard informatie is, aangevuld met bedrijfsspecifieke inrichting.

[Reactie gewijzigd door walteij op 19 mei 2017 12:17]

Volgens de ITIL norm is er vastgesteld dat er ongeveer 1 beheerder op 60 eindgebruikers een goede verhouding is.
In de praktijk zal je echter vaak nog wel omgevingen tegen komen waar daar geen budget voor is.
Drie of vier IT ers op 85 eindgebruikers is voor veel bedrijven een droomsituatie.

Externe systembeheerders kan inderdaad prima, maar zoals ook bij de calculatie voor besparen op FTE's zal je hier een kosten - baten analyse op los moeten laten.
Wat kost het om een systeembeheerder extern in te schakelen.
Als je iemand lokaal hebt die zich veel bezig houdt met werkplekbeheer en onderhoud aan hardware dan is dat vaak goedkoper dan dat uit te besteden. Niet altijd, maar vaak wel.

Wat betreft ERP hosten: ook daar komt weer heel veel bij kijken.
Management denkt dan dat het ERP ook volledig extern onderhouden wordt, maar dit is lang niet altijd het geval.
Koppelingen met logistieke partners moeten nog steeds
onderhouden worden, Front-backoffice koppelingen idem.
Dit KAN je extern neer leggen eventueel bij je hostingpartij, maar het kan ook interessanter zijn om het beheer hiervan weer juist intern te laten. Hoe dynamischer en foutgevoeliger je oplossing is des te kostbaarder het wordt om het volledig extern neer te leggen. Je afhankelijkheid wordt groter en extern -specialistisch personeel is in de regel duurder.
Echter als je specialistisch personeel zelf in dienst hebt en deze niet met voldoende belangrijke taken kan laten bezig zijn dan kan dit uiteraard duurder uitvallen.
Een grondige analyse vooraf is nodig om een fatsoenlijke afweging te kunnen maken voor ofwel uitbesteden , ofwel in huis laten.
Een grondige analyse vooraf is nodig om een fatsoenlijke afweging te kunnen maken voor ofwel uitbesteden , ofwel in huis laten.
Dit is eigenlijk het meest zinnige in de gehele discussie :).
Windows Server 2016 Datacenter is hier natuurlijk echt niet nodig, die kosten kunnen dus flink omlaag, eventueel zelfs naar 2 x Windows Server 2016 Standard (kun je ook nog VM's repliceren naar de andere fysieke server). 2 x fysiek als Hyper-V host en binnen iedere licentie 2 x VM.
2 x Windows Server 2016 Standard kost OEM volgens mij rond de 2 x EUR 500 excl. BTW. Dat bespaard dus alweer bijna EUR 5000 in bovengenoemd plaatje.

Meeste bedrijven hebben ook echt geen Office Professional Plus nodig, maar Office 2016 Standard of zelfs home & Business in OEM. Kom je rond de EUR 21.250 uit. Ga er vanuit dat je als user 5 jaar doet (meeste van mijn klanten slaan steeds 1 versie over) met die licentie zijn dus kosten per jaar dus slechts EUR 4250 per jaar voor 85 gebruikers 8-)

Ik weet aboluut zeker dat ik met eigen omgeving goedkoper uit ben dan de cloud.

[Reactie gewijzigd door Urk op 19 mei 2017 16:50]

Ik ben het hier ook zo mee eens! _/-\o_
overdrijven ook een kunst natuurlijk. Exchange 2010 kwam uit in 2009.
Volgens mij eindigt de extended support pas in 2020. 11Jaar voor een pakket van een paar duizend euro, niet slecht als jet het mij vraagt. Dus de reactie van @Fewture is zeker niet verkeerd.
Ik heb het dan over Exchange 2003 waar we zelfs nog in 2016 klanten vanaf moesten trappen... Dan kreeg je 2007, 2010, 2013 en nu 2016. dus een paar overslaan en je zit al tegen de EOL aan van het product...En omdat het toch nog draait, waarom zou je dan voor veel geld gaan upgraden?
Rare tendens om een pakket "of the shelf" te vergelijken met een oplossing die wordt onderhouden door iemand die heel de historie van het bedijf kent, alle releases van exchange kent, de specifieke wensen van het bedrijf kan vertalen in een oplossing binnen dat platform. En dan ook nog beweren dat het veel goedkoper kan zijn om zo iemand dan de straat op te tiefen. Doet me een beetje denken aan zon smartass die even komt vertellen wat te doen bij verzekeraar Klaverblad en die dan via de lift weer de straat wordt opgekinikkerd.
Ik zie aan de hand van je beoordeling dat er hier heel veel Exchange beheerders zijn. ;-)

Ik snap het probleem, teveel (IT) consultants zijn niet meer dan glorfied salesmannetjes en dozenschuivers, met 0,0 inzicht en geen motivatie om inzicht te krijgen in een organisatie. Laat staan dat ze voor een migratie tijd inplannen om dat uit te zoeken waardoor je vaak voor extra lage kosten komt te staan voor implementatie.

Maar eerlijk is eerlijk, in veel gevallen is een Exchange naar Office 365 migratie niet meer dan 1 op 1 overzetten. Echter zijn de oude Exchange omgevingen vaak een legacy puinhoop en toe aan opnieuw 'inrichten' en daar wordt te vaak met natte vinger werk gewerkt.

Ik ben de smartass die wat er verkocht is moet omzetten naar iets netjes werkends of na implementatie de puinhoop mag uitvissen en corrigeren. Ik deel je frustratie in de 'vlotte jongens' die een manager wel even overdonderen met mooie praat en geen inzicht hebben in wat er speelt.

Maar de hele historie van een bedrijf kennen is niet bepaald interessant voor een ITer, vaak zelf een negatief punt (frustratie, vastroest, etc.). En je Exchange 4.0 kennis is nu ook niet relevant meer...

Wat betreft iemand zo op straat tiefen, dat je ergens mag werken hoor geen plicht te zijn, maar ook geen recht. Als je meer bent dan alleen een button pusher ben je zo weer aan de bak. Maar ik zou je niet langer alleen maar richten op WIndows Server en Exchange.

Maar als je een kwalitatief goed iemand heb... Heb ze nodig, want al die kleine MKBtjes die geen eigen iter in dienst hebben en nog zitten te klooien met een 10+ oude 2003SBS server hebben gewoon wel degelijke ondersteuning nodig. Want in een bepaald segment wordt er te veel uitgegeven aan IT en in een ander te weinig en dat laatste begint dat zich langzaam te realiseren.
Wij hadden ook (Beperkt) last van deze storing, alleen was bij ons alles na een uur weer up en running. On premise ook wel eens last gehad van storingen op storage platform en deze waren helaas vaak van langere aard.... (en ja, we hadden ook dure mensen in dienst die zich daar mee bezig hielden)
Het was dus niet zo dat alle Services in West Europa er last van hadden en ook niet dat de downtime 6 uur was.
Now you don't have to fire your IT department. You can just fire the internet!
Als er nu ECHT een grote onacceptabele storing is, waardoor klanten weg gaan bij een cloud provider dan zit je mooi met je data die je niet zo snel weg hebt.

Zie het als een bank, en iedereen wil zijn geld eraf halen.
Als je echt serieus cloud gebruikt dan hou je hier rekening mee. Dan heb je ook je data in en andere regio staan. Dan houdt je app ook rekening met dat soort zaken.

Cloud echt zo implementeren dan het redundant, schaalbaar en beschikbaar is, is niet zo triviaal als Azure aanzetten en een account aanmaken. On premise draaien van software is niet anders overigens.
Dat is hartstikke complexe materie, data in verschillende data centers. Toevallig doet mijn werkgever dat maar daar komt echt heel veel bij te kijken, met name de SAN replicatie en de database transacties. Gelukkkig hebben wij eigen data centers maar in de Cloud is dat bijna niet mogelijk. Als je dan wil switchen, zal het meestal vanaf backups gebeuren en dan verlies je data.
Ik durf te stellen dat het high available maken van je applicatie in de cloud vele malen makkelijker is dan wanneer je het zelf gaat doen. Mits je gebruikt maakt van PaaS onderdelen;

Laten we een gemiddelde web applicatie nemen met een web front-end, file blobs en en een no-sql database. Dit hosten we in Azure. Ik laat het cross-provider even achterwege, onnodig complex voor de discussie

Website:
De website (een Azure Web App) redundant maken is een eitje door de App gewoon meerdere keren te deployen in verschillende regio's en dan met een Traffic Manager erboven ervoor zorgen dat iedereen naar de snelst bereikbare instance connect.

No-SQL Database:
Maak gebruik van de nieuwste mogelijkheden en configureer dus een Azure Cosmos DB. Deze database kan je met, ook weer letterlijk, een paar keer klikken globaal repliceren en partioneren zodat iedere gebruiker snel zijn data heeft maar ook lokaal kan wegschrijven

File Blobs:
Maar gebruik van Azure CDN en al je blobs zijn wereldwijd gerepliceerd.

Al deze dingen zijn zonder al te veel kennis met een paar muisklikken in elkaar te zetten. Natuurlijk moet je applicatie hier wel voor gebouwd zijn maar dit alles kost je een fractie wat meerdere eigen datacenters + apparatuur kosten (gehuurd of niet), de kennis die je nodig hebt om alles zelf te installeren en ouderhouden en de tijd die het je kost bij eventuele storingen.

Mocht je dan toch willen switchen dan bied de nieuwe cloud provider genoeg tooling en kennis om de overstap zo makkelijk, zo niet seamless, uit te voeren.

Ik kan zelf nog maar weinig business cases bedenken waarbij de migratie naar een cloud provider het verliest van eigen beheer. Cloud is op vele vlakken veel beter voor iedereen. Dit geld voor zowel de gebruikers van de applicatie, de beheerders van de applicatie en de bankrekening van de organisatie. Alleen wetgeving zou een probleem kunnen vormen.

[Reactie gewijzigd door Yaz op 18 mei 2017 20:00]

dit is al een behoorlijke aanname:

"Ik durf te stellen dat het high available maken van je applicatie in de cloud vele malen makkelijker is dan wanneer je het zelf gaat doen. Mits je gebruikt maakt van PaaS onderdelen"

hmm een Cloudprovider vertrouwen dat zij correct omgaan met je gegevens , maar als het verkeerd loopt, dan draai jij er wel voor op ..
ik blijf me steeds verbazen over het feit dat mensen/bedrijven blindelings vertrouwen op Cloud providers waar ze totaal geen controle over hebben en waarvan in het verleden reeds gebleken is dat ze stilzwijgend mee moeten werken met allerhande inlichtingendiensten en/of regeringen.

Implementeer dan op zijn minst HYOK, maar dat gaat dan weer meestal niet samen met PAAS.

Heeft Snowden ons dan niets geleerd. zucht !! ;(
Als we gedwongen zijn om klantgegevens te verstrekken, zal Microsoft u hiervan direct op de hoogte te stellen en u een kopie van de aanvraag sturen, tenzij dat wettelijk verboden is.

En welk land heeft nu net , dit soort wetten .... juist good old USA


Zegt genoeg toch !!

[Reactie gewijzigd door klakkie.57th op 18 mei 2017 23:28]

Niet helemaal waar. Jij doelt op de good old Patriot Act die in 2015 deels is vervangen door de USA freedom act. Die stelt dat bedrijven als Microsoft de verzoeken openbaar mag maken.
Het probleem is niet alleen de wetgeving, in een transactie omgeving kan je niet zomaar even lokaal wegschrijven en later gaan consolideren. Ik kan niet te diep ingaan op de gesuggereerde Cosmos DB omdat ik daar geen ervaring mee heb maar als je met meerdere nodes in verschillende data centers gaat werken, krijg je dan geen problemen met het locken van records? Hoe voorkom je dat verschillende nodes in de verschillende data centers tergelijkertijd transacties op dezelfde data uitvoeren? Als er al een lock mechanisme zou bestaan over meerdere nodes in verschillende datacenters heen, krijg je dan geen last van performance issues door netwerk latency?

Daarnaast hebben veel organisaties hoge eisen aan de beveiliging van hun data, die kan je niet zomaar aan derden overlaten als die niet garant kunnen staan voor de eventuele schade als gevolg van misbruik. Tot slot is ook de veiligheid van je data ook gerelateerd aan de geografische locatie en of de hosting partij onder zaken als de patriot act valt of niet.
Ik durf gerust te stellen dat een on-prem geo-stretched-cluster implementatie makkelijker is dan hetzelfde proberen te doen in Azure.

Het is alleszins veel leuker :P
Daarom zijn we ook tweakers natuurlijk

[Reactie gewijzigd door klakkie.57th op 18 mei 2017 19:41]

Het verschil met een bank is dat ze geen fysieke koppeling meer met het geld hebben. Vroeger moest alles gedekt worden met goud maar nu zijn banken vogelvrij en kunnen daardoor niet iedereen tegelijk van geld voorzien. Dan moet je naar een bank zoals bunq die het geld 1:1 stalt bij de ecb

Een storing bij een cloud provider (of iedere grote hosting/isp) is natuurlijk maar tijdelijk en je data weghalen is gewoon een kopie

[Reactie gewijzigd door GrooV op 18 mei 2017 19:03]

Geen enkele bank kan een 1:1 stalling doen, dan verdienen ze zelf niets en kunnen ze hun personeel en infrastructuur niet betalen.

En de goeddekking vroeger kwam vanuit het geld dat uitgegeven werd en dat werd dus gedaan door de centrale banken. Een gewone bank heeft die dekking niet nodig. Die kan niet weerstaan aan een rush omdat die een groot deel van het spaargeld weer herinvesteren door o.a. kredieten uit te geven.

Dat storingen bij providers tijdelijk zijn is ook niet altijd waar. Een storing die lang genoeg duurd kan ervoor zorgen dat de provider zelf de handdoek in de ring gooid en dan is het gewoon gedaan ermee, of als ze zonder waarschuwing failliet gaan en alles ineens uitschakelen heb je het ook zitten als klant.
Nou die backing met goud waar je het over hebt die heb je nu ook. Als in, de bandbreedte die beschikbaar is om de data weer uit de cloud te halen.
Daar is het niet op geschaald. Bij een grote uithuis actie ( en dit kan later ook door hyper cloud algoritmes veroorzaakt worden) dan kan je wel 1Gbit dedicated hebben. Als iedere klant zijn data eruit wilt trekken dan zit je met een lagere snelheid.
Daar maak ik me wel een beetje zorgen over.

Nu begint alles weer lekker centraal te leven. Straks is alles weer decentraal.
En ik maar denken dat hoge latency een feature was bij Azure. 8)7
Even zonder gekheid verder, Azure heeft standaard issues met latency onder kantooruren, iets wat ik bijvoorbeeld bij AWS helemaal niet merk. Zal nog wel een beetje moeten groeien. Tot die tijd K8's met GC of Amazon :P
Mijn Skype kan niet aanmelden, zal dat er iets mee te maken hebben?
Volgens mij draait Skype tegenwoordig ook op Azure dus dat kan dit verklaren.
Denk het niet het probleem is inmiddels al opgelost.
Summary of impact: Between 02:45 and 15:59 UTC on 18 May 2017, a subset of customers using Storage in West Europe experienced higher than expected latency, timeouts or HTTP 50x errors when accessing data stored in this region. Other services that leverage Storage in this region may also have experienced impact related to this latency. Virtual Machine customers would have experienced connection latency or unexpected machine restarts. Azure Search customers would have experienced degraded performance when performing search functions. Azure HDInsight customers would have experienced failures when provisioning new clusters.
Ah dat verklaart. Merkte tijdens ontwikkeling al dat Application Insights vrij traag was en soms niet bereikbaar :p

Edit:
Ik zie trouwens dat het ondertussen is verholpen!

[Reactie gewijzigd door mrdemc op 18 mei 2017 19:32]

Iemand een idee of dit ook impact had / heeft op de performance van Office 365?
Ik gok dat je servers met de standaard disks heb genomen die 500IOPs per stuk hebben, die kan je dan wel aan elkaar schakelen, maar het max aantal schijven is gekoppeld aan de grootte van je VM. En dan nog, 16x500 is nog steeds bagger voor MSSQL. Maar ze hebben nu al enige tijd snellere disks, die je ook aan elkaar kan schakelen.

Verder kan je ook de Azure SQL gebruiken:
https://azure.microsoft.com/nl-nl/services/sql-database/
Misschien het testen eens waard?

Maar klamp je niet vast aan wat je MS roept, ik heb zulke vreemde antwoorden uit verschillende strata van MS gehoord. Ook bij support, als je soor de vijf lagen MS support heen bent, het vijf keer opnieuw heb uitgelegd en getrouble shoot, krijg je vanzelf een expert aan de lijn. Die vaak freelance voor MS werken en soms wel eens advies geven die zwaar conflicteerd met wat MS je 5x eerder heeft aangegeven... Sales gasten zijn nog veel erger bij MS die durven van alles te roepen.
Azure is typisch iets wat op de golfbaan aangeschaft wordt. Niet door vakinhoudelijk kundige IT-ers.
Ik ben bang dat je daar gelijk in heb, want dergelijke beslissingen worden op een veel hoger niveau onderhandelt. Ik zou zelfs willen stellen dat er regelmatig zaken worden verkocht waar de vakinhoudelijk kundige IT-ers geen weet van hebben dat het al wordt verkocht en sterke twijfel trekken of iets wel al productie klaar is... ;-) Maar dat probleem hadden we al ver voor dat Azure bestond...
Dank je dat je op de inhoud ingaat ipv dom -1 te geven omdat het MS flamen lijkt.

We hebben inderdaad de standaard schijven gehad én gekoppelde schijven. Het ging hier om een setup met 50+ instanties. Uiteindelijk heeft microsoft zélf de handdoek in de ring gegooid, en is e.e.a. weer terug on premise gezet.

Azure is niet goedkoop. Als het dan een relatief standaard taak als de notabene éigen SQL server (microsoft) al niet kan draaien, wat zegt dat dan over dat platform. Ik kan bij de meest cheapass host die ik maar kan vinden, een VM afnemen, en die performed al een factor 10 keer beter dan een standaard Azure host.

Schijven is niet het enige. De CPU's zijn ook aanmerkelijk trager dan hun non-virtuele tegenhangers, geheugenaccess is langzamer, enzovoort.

Dan komt er nog eens bij dat je geen locatie 100% kunt vastleggen. Zo kan het zijn dat je frontend draait in de ene 'container' (=fysieke container vol azure servers) en je backend in een andere, en je dus op de bottleneck van verkeer tussen die containers komt te zitten.

Het geheel is gewoon houtje touwtje aan elkaar gehacked door MS om maar een product te hebben om tegen de Amazons van de wereld op te kunnen. Uiteindelijk zal alles wel goed komen, als je de hardware maar lang genoeg laat doorschalen, zal de minimumperformance vanzelf acceptabel worden, maar dat punt is nog niet bereikg.

Mbt. azure en de golfbaan wéét ik dat ik gelijk heb. Ik ben nog geen enkele IT-er tegengekomen (ook bij grote partijen niet) die zélf voor azure zou hebben gekozen. Ook het bedrijf waar ik toen voor bezig was (POSTNL dochter) had er niet zelf voor gekozen, het was iets wat LETTERLIJK op de golfbaan overeengekomen was.
Voor wat betreft AzureSQL; alleen échte idioten gaan dat gebruiken. Hoezo vendor-lock-in.
Maar dan moet je uberhaupt niet beginnen aan MSSQL! Maar in het bedrijfsleven is Oracle of AS400 (DB2) ook nog steeds de normaalste zaak van de wereld! Maar je kan je AzureSQL database gewoon exporteren, net zoals je vrij makkelijk je Office 365 kan migreren naar een heel ander platvorm.

Als je applicatie andere databases ondersteund kan je over het algemeen relatief simpel van database wisselen. Data is data. Maar MS SQL en in extensie is ook niet mijn favoriet, maar dat is de wereld waarin we leven. Klanten maken over het algemeen de keuze en kijken vaak niet naar onderliggende technologie, een IT afdeling wordt vaak pas in een laat stadium er bij betrokken. Aan de andere kant, de mensen die ermee moeten werken hebben natuurlijk de primaire keuze, IT is er als ondersteunde dienst.
Feit blijft nog steeds dat je niet je hele project gaat migreren naar een cloud based MS database, zuiver omdat MS die cloud niet goed werkende krijgt of heeft.

Het zou toch van de zotte zijn.. fors investeren om alles te valideren op een nieuwe database engine, voor een veel te duur hostingproduct, waar zelfs het hostingproduct van de semi-amateur hoster om de hoek, nog cirkels omheen rent qua performance.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*