Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties

Microsoft gaat organisaties de mogelijkheid aanbieden om Azure in hun eigen datacenter te draaien. Dat heeft Microsoft bekendgemaakt. Gebruikers kunnen daarbij schakelen tussen de eigen Azure-installatie en de Azure-omgeving van Microsoft.

Windows AzureMicrosofts Azure-clouddienst bood gebruikers tot nu toe enkel de mogelijkheid om op servers van Microsoft instances te draaien, maar op zijn eigen Ignite-conferentie heeft het bedrijf uit Redmond aangekondigd dat daar verandering in komt. Gebruikers kunnen met behulp van Azure straks ook in hun eigen datacenters gevirtualiseerde instances draaien.

Daarbij kunnen gebruikers er vanuit dezelfde omgeving zowel voor kiezen om instances in hun eigen datacenter te draaien als op servers van Microsoft. Bedrijven zouden er daarom voor kunnen kiezen om lokaal een beperkt aantal instances te laten draaien, en over te schakelen op de Azure-clouddienst op het moment dat de lokale instances de load niet meer aankunnen. De Azure Stack, zoals Microsoft de nieuwe software noemt, is vanaf deze zomer te testen. Het is nog onduidelijk wat licenties gaan kosten.

Daarnaast wordt System Center uitgebreid met wat Microsoft de Operations Management Suite noemt, een module waarmee niet alleen Windows-installaties maar ook instances op Azure en Amazon Web Server kunnen worden beheerd. Ook Linux-installaties en VMware en OpenStack-instances worden ondersteund. Later deze week komt Microsoft met een 'technical preview' van de nieuwe System Center. Daarnaast heeft Microsoft een tweede technical preview van Windows Server 2016 uitgebracht.

Moderatie-faq Wijzig weergave

Reacties (107)

Beetje vreemd om aan het eind van het artikel even rap te noemen dat er een 2de technical preview uit is van Microsoft Server 2016. Dat is eerder een eigen nieuwsartikel waardig.

Wijzigingen:

Compute and Virtualization: Simplified upgrades, new installment options, and increased resilience, helping you ensure the stability of the infrastructure without limiting agility.
  • Rolling upgrades for Hyper-V and scale-out file server clusters for faster adoption of new operating systems
  • Functionality for hot add and remove memory and NIC, reducing downtime
  • Virtual machine compute resiliency, so that virtual machines continue running even if the compute cluster fabric service fails
  • Nano Server, a deeply refactored version of Windows Server with a small footprint and remotely managed installation, optimized for the cloud and a DevOps workflow.
Networking: Continued investment to make networking as flexible and cost-effective as possible while ensuring high performance.
  • Converged NIC across tenant and RDMA traffic to optimize costs, enabling high performance and network fault tolerance with only 2 NICs instead of 4
  • PacketDirect on 40G to optimize performance
Storage: Expanding capabilities in software-defined storage with an emphasis on resilience, reduced cost, and increased control.
  • Virtual Machine Storage Path resiliency, enabling virtual machines to pause and restart gracefully in response to either transient or permanent storage path failures
  • Storage Spaces Direct to enable aggregation of Storage Spaces across multiple servers, pushing the cost of storage down while allowing for increased scale out
  • Storage quality of service (QoS) for more control and predictable performance
  • Storage Replica, giving you synchronous storage replication for affordable business continuity and disaster recovery strategies.
Security and Assurance: Protecting against today’s threats with a “zero-trust” approach to security that is rooted in the hardware.
  • New Host Guardian Service, part of a trust and isolation boundary between the cloud infrastructure and guest OS layers
  • Just Enough Administration to reduce the risk of security breaches by allowing users to perform only specific tasks.
Management: Ongoing advances to simplify server management and increase consistency in approach.
  • PowerShell Desired State Configuration (DSC) for easier, consistent and faster deployment and updates.
  • PowerShell Package Manager for unified package management and deployment
  • Windows Management Framework 5.0 April Preview and DSC Resource Kit (available online simultaneously with TP2)
And much more, including new features for IIS, RDS, and AD such as:
  • Conditional access control in AD FS, allows requiring a device compliant with policies to access resources
  • Support for application authentication with OpenID Connect and OAuth, making it easier to build mobile enterprise applications
  • Full OpenGL support with RDS for VDI scenarios
  • Server-side support for HTTP/2 including header compression, connection multiplexing and server push.
Een tweede preview van Hyper-V Server is trouwens ook uitgebracht.
Ik zie niet echt boeiende features behalve memory hot add (nic hot adden kan nu al bij 2008).

Waar ik meer in ben geinteresseerd is remote desktop services, wat is daar veranderd en zal de gui goed genoeg zijn voor zakelijke gebruikers.

Ook patch management zou veel beter kunnen dat is nu echt een drama.
Uh, Nano Server misschien?
Hmm wellicht maar dan moet het wel veel beter worden dan windows core (waarbij je net zo goed heel de gui kunt installeren).
Nano Server is iets heel anders dan WIndows Core. Waar Windows Core de reguliere Windows is met de GUI-functies eruit gestript is Nano Server alleen geschikt voor Hyper-V-applicatiecontainers.

Geen GUI, geen 32-bitsondersteuning (WOW64), geen MSI en
and a number of default Server Core components. There is no local logon or Remote Desktop support. All management is performed remotely via WMI and PowerShell.
http://blogs.technet.com/...odern-apps-and-cloud.aspx
Aangezien 2016 verder gaat waar 2012R2 is gebleven ga ik er vanuit dat RDS alleen maar is verbeterd.
De RDS functionaliteit in 2012R2 was al goed voor zakelijke gebruikers en kan alleen maar beter worden. Op mijn werk hebben we meerdere klanten voorzien van een 2012R2 RDS en over de GUI hebben we totaal geen klachten.
Misschien hoor je geen klachten, maar ik heb altijd zoiets van doe een ander niet aan wat je jezelf ook niet aan zou doen en dat is iemand een tablet interface voorschotelen op een desktop computer.

Maar als ik dan de GUI van 2016 zie is dat weer acceptabel zolang je iig maar die metro tegels in het start menu kunt uitschakelen met een GPO oid en dat lijkt zo te zijn dus het gaat weer de goede kant op.
Misschien hoor je geen klachten, maar ik heb altijd zoiets van doe een ander niet aan wat je jezelf ook niet aan zou doen en dat is iemand een tablet interface voorschotelen op een desktop computer.
De server editie van Windows 8 (Wat Server 2012 R2 is) heeft altijd al een start knop gehad, in zowel Windows Server 2012 als Windows Server 2012 R2. Geen idee hoe je er dus bij komt dat het een GUI voor een tablet is? :?

[Reactie gewijzigd door CH40S op 5 mei 2015 19:26]

2012 R2 heeft gewoon Metro hoor, weet niet welke versie jij hebt getest?

http://regmedia.co.uk/201..._2012_r2_start_menu_2.jpg

Er is een start menu maar die is alleen met de rechtermuis te bedienen en daar heb je vervolgens een aantal standaard opties onder. Maar als je op start klikt opent gewoon Metro.
Klopt, maar daar kom je na het klikken op Start of het indrukken van de Windows-toets. Ik ging ervan uit dat je de GUI bedoelde zoals Windows 8 (dus niet .1) die heeft.
Sorry, maar er is niks mis met de 2012R2 interface. Integendeel, voor sommige gebruikers is het zelfs overzichtelijker omdat ze grote duidelijke knoppen hebben voor de applicaties die ze gebruiken en niet meer in het startmenu hoeven rond te zoeken.
Het verbeterpunt voor 2016 is wel dat het startmenu beter te beheren moet zijn via GPOs. Het beheer daarin is nu zeer beperkt helaas.
Dit is precies Windows Azure Pack? Volgens mij is dit echt precies het zelfde? Alleen bestaat WAP al eventjes en word het ge-update achter de Azure Cloud aan. Functies die in Azure Cloud bestaan werden wat later aan WAP toegevoegd.

http://www.microsoft.com/...ducts/windows-azure-pack/

[Reactie gewijzigd door radarwolf op 4 mei 2015 21:08]

Of je link het zelfde is weet ik niet. Wat ik wel weet is dat je al een tijdje Azure in huis kan halen, alleen komt Dell het bij je binnen rijden. Het is dan voor geinstalleerd op Dell servers. Het enige wat je dan eigenlijk hebt is dat het in je eigen data center draait, Microsoft update jouw Azure instantie dan vanaf afstand. Je hebt er zelf eigenlijk geen enkele controle over.

Blijkbaar gaan ze nu weer een stapje verder en kan je het zelf installeren op je eigen hardware naar keuze.
Nou dat is dus precies wat je met Windows Azure Pack kunt. Ik heb 3 dagen bij een CloudOS training van Microsoft gezeten in samen werking van HP, Dell en Microsoft. Maar de hele training ging over Windows Azure Pack, dat je deze op je eigen hardware zou installeren en dat je hiervoor dus bepaalde resources nodig had. Waaronder Powershell Deployment Toolkit (PDT) hiermee kun je in 1 druk op de knop een complete WAP omgeving opzetten. Dus Windows 2012 R2, System Center 2012 R2 en WAP.

Perfect voor een service provider bijvoorbeeld. De SP geeft je rechten voor bepaald aantal resources en jij maakt er als klant gebruik van. De SP kan vervolgens zorgen dat er een backup in de Azure Cloud staat. Klant merkt hier helemaal niks van, alleen even een hick-up als hij van jouw datacenter naar de Azure Cloud gaat.

[Reactie gewijzigd door radarwolf op 4 mei 2015 21:19]

Het verschil zal er waarschijnlijk inzitten dat er veel features in Azure zitten die pas later in WAP komen. Er is een release cycle van 6 weken volgens mij voor Azure en voor WAP komen niet altijd direct alle features beschikbaar.
Klopt! Maar dan is het toch niet meteen nieuw? :)
Inderdaad, ik snap het verschil met Azure Pack ook even niet :?
Wellicht hebben ze de functionaliteit van een hybride Azure omgeving uitgebreid.

[Reactie gewijzigd door efgslats op 4 mei 2015 21:14]

Is het niet het feit dat je naadloos over kunt schakelen op het 'gewone' azure? Ik ken het fijne niet van WAP, maar kun je daar wellicht alleen binnen die azure omgeving draaien zonder dat je er zomaar instances bij kunt prikken die gewoon op azure draaien?
Uit ervaring weet ik dat je dat al kunt, het is alleen geen WAP ding.
Je kunt prima vanuit System Center VMM iets naar Azure migreren. Alleen het is nu niet zo dat WAP ook dingen in Azure kan zien. Je Azure VM's manage je vanuit de Azure portal en je WAP VM's manage je vanuit de WAP Tenant Portal. Wellicht dat ze WAP dus Azure aware maken?
Ik vermoed dat het een doorontwikkeling is waarmee de scheiding tussen WAP een Azure zo veel mogelijk weggenomen wordt. En dat is natuurlijk wel heel erg gaaf, zeker als complexere zaken als hybride scenario's ook eenvoudiger in te richten zijn. Vooraf een keuze maken wel/niet cloud is zo niet meer nodig.
Klopt, is een rebranding van bestaande Azure Pack, alleen dan nog uitgebreider. Hopelijk ook sneller neer te zetten.
Je eigen Azure-omgeving zou het voor veel bedrijven veel veiliger maken(maar ik denk niet makkelijker) tegen cybercrime.

[Reactie gewijzigd door BJ_Berg op 4 mei 2015 21:01]

Ik weet wel zeker van niet dat een gemiddeld bedrijf (50 of 5000 werknemers) een betere security heeft dan Azure. Alleen al het incident-management aan de daadwerkelijke infra van Azure, zoals een host of een switch, is beperkt door zeer stricte procedures.

Stel dat jij op werk een server defect hebt, dan bel je Dell ofzo, die stuurt een monteuren die gaat onder begeleiding (of niet) op de datavloer om een onderdeel te vervangen. Bij Microsoft nemen ze die moeite niet eens; een defecte host gaat de shredder in en 1 aangewezen persoon met hele specifieke clearance op de datavloer, schuift een nieuwe x U-server het rack in.

Bij brand ook; alles en iedereen zal in een normaal bedrijf dan maar in & uit lopen. Personeel, BHV, hulpdiensten. Niet @ Microsoft; volgens bepaalde presentaties wordt een container met servers gewoon als verloren beschouwd; blussen intern met water om alle apparatuur maar 100% af te schrijven, container in de shredder nieuwe container met servers plaatsen en uplink erin.
Ik denk dat het vooral bedoeld is voor bedrijven die zelf ook stricte procedures hebben, waar Microsoft niet aan kan voldoen.
Om maar iets te noemen: voor sommige data is vereist dat al het personeel dat bij die data kan, van te voren een VOG (verklaring omtrent gedrag) overlegt. Wellicht wil en kan Microsoft niet aan die eis voldoen: zo'n verklaring alleen kan worden afgegeven door de Nederlandse gemeente waar de werknemer woonachtig is - wellicht is dat niet haalbaar voor een bedrijf met niet-Nederlandse werknemers.
http://www.microsoft.com/privacy

Ze voldoen aan heel veel nationale & internationale certificeringen. Ik begrijp dat een VOG voor sommige bedrijven nog steeds belangrijk is maar een VOG gaat maximaal 20 jaar terug in de historie van een persoon. Als jij dus als 25-jarige iemand vermoord hebt, 12 jaar zit en als 58-jarige een VOG moet overleggen, kom je dus "clean" ergens binnen.

De ISO-certificeringen (en overigen) bij Microsoft gaat niet alleen over de werknemer en zijn/haar historie maar over elk pietepeuterig stukje procedure en compliancy van het proces/service die je afneemt.
Het is de rijksoverheid zelf - ik moest zelf zo'n verklaring overleggen. Dat was niet zo lang geleden, ik denk 2012 of 2013. En denk maar niet dat ik tegen dat ministerie kon zeggen dat zij achterhaalde normen hanteren - VOG of wegwezen.

Overigens zijn er verschillende vormen van VOG, afhankelijk van de bedoeling. Als je leraar wil worden dan krijg je een andere VOG, en ik denk dat daar langer wordt teruggekeken dan 20 jaar (het gaat daar om pedofiliezaken). Weer andere vormen impliceren een screening van de AIVD - waarbij dus naast het strafverleden ook naar andere zaken wordt gekeken.
Moet je nog boeten voor iets dat 25 jaar geleden gebeurd is, waarvoor je veroordeeld bent en je straf hebt uitgezeten?
Ja natuurlijk. Een VOG vragen ze echt niet voor de grap hoor.
En wel verwachten, dat een veroordeelde opnieuw integreert in de maatschappij? Dat kan dan ook niet. ;)
Jawel hoor, maar niet op een post met zoveel verantwoordelijkheid als diegene waar ze een VOG voor vragen.
Iemand die 20 jaar geleden aan kleuterkontjes zat te friemelen laat ik nu ook liever niet op mijn kinderen passen.
Jawel hoor, maar niet op een post met zoveel verantwoordelijkheid als diegene waar ze een VOG voor vragen.
Iemand die 20 jaar geleden aan kleuterkontjes zat te friemelen laat ik nu ook liever niet op mijn kinderen passen.
Eens, maar daar geef je eigenlijk mee aan, dat het dus wel afhankelijk is van de context. Een pedo wil je niet laten oppassen op kinderen, wat logisch is. Maar dat mag niet betekenen dat hij dan ook niet meer zou morgen werken in de ICT, zo liet je het wel doorschemeren in je eerdere bericht.
Hangt dus inderdaad van de context af.
Voor het bouwen van een website heb je over het algemeen geen VOG nodig, voor het werken aan een systeem voor een bank of politie weer wel.
Van mij mag een pedo best bank-software ontwikkelen, liever dan porno-sites beheren want dan weet je wel waar dat naar toe gaat.
En omgekeerd, iemand die creditcards heeft gestolen met een worm die laat ik liever niet bij een bank werken. (en eigenlijk ook liever geen achterdeurtjes in websites zetten).
Een VOG vraag je voor een behorlijk specifiek doel aan. Je krijgt gewoon een VOG over ICT toegang tot klantsystemen als je (al dan niet recentelijk) veroordeeld bent voor graffiti spuiten of zelfs aanranding.

Voor de VOG die je (ongetwijfeld) nodig hebt om vrouwen in een blijf-van-mijn-lijf huis te helpen mag je weer niemand aangerand hebben, maar vinden ze het prima als je ooit met klant-systemen hebt gefraudeerd.
Microsoft is het eerste bedrijf dat ISO 27018 is gecertificeerd. Daar is het een eis dat personeel niet zomaar bij data van de klant kan en daarbij wordt de klant op de hoogte als Microsoft door wat voor reden dan ook data gaat inzien (als de overheid het eist bv).

[Reactie gewijzigd door vali op 4 mei 2015 23:31]

Dat niet alleen bij brand heb je ook nog gewoon backups die vrij snel de lucht in zijn. Dat red je zelf niet makkelijk. Zeker als je een service levert, is downtime killing.

[Reactie gewijzigd door Martinspire op 4 mei 2015 21:24]

Backups? Omdat het een cloud is, is er geen backup. Jouw data is altijd overal over meerdere lokaties (fysiek of virtueel) opgeslagen en per direct opvraagbaar.

Op het moment dat je infra maar groot zat is, net zoals Hotmail.com/Outlook.com, is er geen backup meer nodig; data staat op zoveel plekken tegelijk dat je bij wijze van spreken RAID5/RAID10 hebt naar minstens 3 andere nodes.

Running VM's hebben dus ook geen downtime als toevallig 1 host of 1 container afbrandt; de hele state van de VM, inclusief memory state, (virtual) IP's en dergelijke zijn volledig available op de volgende host.
In feite is die data die je dus elders opslaat de backup. Potato potato, whats in a name. In ieder geval is je geval snel in de lucht en dat red je niet als je lokale hardware nog ligt na te branden.
Potato potato, whats in a name.
In mijn woordenboek is enkel een kopie naar een offline medium een backup.

Als dit je werk is, is de nomenclature juist erg belangrijk om helder te communiceren met collega's. Je wil alle ambiguïteit voorkomen.

Stel je voor dat we het volgende allemaal backup noemen...
- RAID
- Je data elders in de cloud
- MetroCluster
- SnapMirror
- SAN replicatie
- Kopie naar tape
- Glacier
Wat de technische variant is maakt me weinig uit. In normale termen:

Van dale
Betekenis ' backup '
back-up (de; m; meervoud: back-ups)
1 (computer) (beveiligde) kopie van data
2 voorziening die het overneemt als een andere uitvalt

Wikipedia
Back-up
Een back-up of reservekopie is een kopie van gegevens die zich op een gegevensdrager of binnen een applicatie bevinden om deze te kunnen herstellen mochten ze beschadigd raken. Meestal wordt de term back-up gebruikt voor gegevens op bijvoorbeeld de harde schijf van een computer, maar ook van gegevens op andere dragers zoals een simkaart, binnen een applicatie zoals een databasemanagementsysteem of zelfs niet-elektronische gegevens zoals een adresboekje kan een back-up gemaakt worden. Deze kopieën worden preventief gemaakt om belangrijke gegevens veilig te stellen voor het geval de gegevens op de originele drager verloren gaan of beschadigd raken.

Daar staat niets tussen van hoe of waarheen de backup gaat. Verder ook niet wat onderscheid is. Het is gewoon een kopie van data voor herstel en langdurige opslag. Wat een systeembeheerder daar verder voor onderscheid in maakt of hoe diverse systemen dat interpreteren doet er helemaal geen kloot toe. Verder snap je wel wat ik bedoel, dus snap ik je bedoeling niet helemaal om op 1 detail mijn post onderuit proberen te halen. Het houdt de discussie een stuk gemakkelijker zodat ook meer mensen erover mee kunnen praten.
Dus:
In mijn woordenboek
Leuk voor je, maar we werken zo niet.
offtopic:
Hoe de fuck moet ik trouwens weten wat er in jouw woordenboek staat?

Een vrachtwagenchauffeur zal het ook altijd hebben over zijn auto ipv zijn vrachtauto, maar dat maakt het niet ineens een auto.

[Reactie gewijzigd door Martinspire op 5 mei 2015 00:08]

Een vrachtwagenchauffeur zal het ook altijd hebben over zijn auto ipv zijn vrachtauto, maar dat maakt het niet ineens een auto.
Dit is het perfecte voorbeeld.
Als ik het over mijn wagen heb, heb ik het over mijn personenauto. Als een vrachtwagenchauf het over zijn wagen heeft, bedoelt hij z'n vrachtwagen. Als hij z'n personenwagen bedoelt heeft hij het over zijn luxe wagen.

Dus ja, afhankelijk van je werk veranderd je woordenboek. Ik zit al 10 jaar in de IT en als iemand tegen mij of een collega van mij een NetApp MetroCluster een backup noemt, sta ik hem toch raar aan te kijken, ondanks dat het aan je definitie voldoet die je uit de Van Dale hebt gecopy/paste (of is dit een backup van het "backup" lemma?).
Nee, vrachtwagenchaufeurs hebben het vaak over hun wagen, niet auto.
Ik wou net hetzelfde zeggen een replica is zeker geen backup. Die fout hebben veel mensen al gemaakt.
Natuurlijk is er wel back-up. En dat is toch iets anders dan redundant beschikbaar. Gooi maar eens iets bewust weg en kom er later achter dat jij fout zat. :'(
Dat zijn toch je ingestelde snapshots, die redundant overal beschikbaar zijn?
Backups van je systeem vóór de laatste (of meerdere) wijzigingen?
Als je "thuis" iets bewust delete is het ook weg als je geen backup/snapshot van je systeem hebt.

Als je in de cloud bewust geen snapshots instelt (die dus niet gewijzigd worden als jij iets bewust delete) hoor je helemaal geen systeembeheerder te zijn. ;)

Net zoals hier imo bewust het niet begrepen wordt en er op punten en komma`s aangevallen wordt.
Ja? En wat als ze een lekker cryptolocker virus binnen krijgen? Dan is de data op alle plekken encrypted. Of als er gewoon een database corrupt raakt en overal meteen synct. Er zijn genoeg voorbeelden te bedenken waarom Azure vroeg of laat een keer enorm hard zal falen. Synchronisatie is GEEN backup!
Backups? Omdat het een cloud is, is er geen backup. Jouw data is altijd overal over meerdere lokaties (fysiek of virtueel) opgeslagen en per direct opvraagbaar.

Op het moment dat je infra maar groot zat is, net zoals Hotmail.com/Outlook.com, is er geen backup meer nodig; data staat op zoveel plekken tegelijk dat je bij wijze van spreken RAID5/RAID10 hebt naar minstens 3 andere nodes.
Je trapt in een klassieke valkuil. RAID is geen backup. RAID beschermt tegen uitvallende hardware maar niet tegen menselijke fouten. Ook bij MS zitten gewone mensen achter de knoppen die wel eens per ongeluk iets weggooien. Daar helpt RAID niet tegen. Je hebt nog steeds offline backups nodig.
Je hoeft niet zo uit de hoogte te doen, het heeft ook geen nut als je t zelf nog fout hebt ook...

Wat als een file/directory verwijderd is door een of andere fout en je replica schema repliceert heel vrolijk de delete van je files rond de hele aarde, daar sta je dan met je cloud platform.... ook daar zijn backups voor, dus tuurlijk borgen cloud dienstverleners als MS op een of andere manier je data buiten het dommig gepliceren naar 3 of meer locaties.
Ook cloud dienstverleners moeten backups op een of andere manier waarborgen.
Microsoft back-upt helemaal niks aan data. Ze hebben zoveel datacenters over de hele wereld staan dat het houden van back-ups helemaal niet nodig is. Ze repliceren standaard met de basis versie je data drie keer op 1 data center. Voor klanten die voor gro kiezen wordt het drie keer opgeslagen op drie verschillende datacenters.

Het is zelf aan de klant om een backup van zijn data te maken. Het ligt er dus echt aan wat voor dienst je gebruikt. Mocht je dis een virtuele server binnen Azure draaien, dan moet je nog steeds je data backuppen. Bij het verwijderen van een file tovert Microsoft het echt niet gratis terug.

Wat je wel hebt is een server dat een 99.98% uptime heeft, het zeer gemakkelijk is om een hardware upgrade te maken en waarbij je per minuut betaald voor de dienst.

[Reactie gewijzigd door vali op 4 mei 2015 23:30]

Mijn punt ging vooral over t feit van de eerste poster dat backups overbodig waren en onzin, want fantastische replicatie ;)

Maargoed, je bevestigd mijn punt eigenlijk, backup (en er over nadenken) blijft dus belangrijk.
Ligt eraan wat voor type backup hij bedoelde. Je hoeft namelijk geen disaster recovery uit te voeren. Daarnaast kan je per VM opgeven hoeveel snapshots hij moet maken en hoe lang deze bewaard moeten worden.

[Reactie gewijzigd door vali op 4 mei 2015 23:55]

Stel dat jij op werk een server defect hebt, dan bel je Dell ofzo, die stuurt een monteuren die gaat onder begeleiding (of niet) op de datavloer om een onderdeel te vervangen. Bij Microsoft nemen ze die moeite niet eens; een defecte host gaat de shredder in en 1 aangewezen persoon met hele specifieke clearance op de datavloer, schuift een nieuwe x U-server het rack in.
Zelfs dat doen ze niet meer. Datacenters van Microsoft bestaat uit een x aantal hectare aan land met beton erop en daar plaatsen ze zee containers met servers. Als laatste gaat er nog een hek omheen. Als een server kapot is vervangen ze de gehele zeecontainer en gooien ze alle servers weg. Een server in een rack vervangen doen ze al een jaar niet meer.

Zelf ben ik nu aan het afstuderen met Azure site recovery als onderwerp en vind het echt super vet welke kant Microsoft met de cloud op gaat. Het platform staat nooit stil en er komt maandelijks steeds iets nieuws bij.

[Reactie gewijzigd door vali op 4 mei 2015 21:27]

Heb je daar een bron van? Ik vind daar dus niets over op het internet. Er zitten iets meer als 2000 severs in zo een container. Als je dan een hele container afschrijft omdat er 1 server kapot is dan smijt je elke keer enorm veel geld weg. Dat moet een enorme kost zijn.
Het moet wellicht zijn: als er een significant aantal stuk zijn....
40% om precies te zijn.
Dan nog is het belachelijk inefficient gebruik van resources.
Van een Microsoft cursus. De reden waarom er sowieso vrij weinig over de datacenters van Azure te vinden is, komt omdat ze er gewoon niks over kwijt willen wegens veiligheid redenen.
Ah, het aloude "security through obscurity" principe. Als we maar niemand vertellen dat de sleutel onder de mat ligt, dan is het veilig.
Pff, deze opmerking pas je zeker overal toe? Het witte huis, bedrijven die DDOS-bescherming bieden ect. ? Op sommige punten is het logisch dat ze niet teveel melden.
Nu ben echt benieuwd. Heb je hier ook rapport over dat Microsoft dit soort procedures toepast ? Lijkt met niet echt "green" om zomaar alles door de shredder te halen bij het minste defect
Het blijft nog steeds een kwestie van schaal met cloud-oplossingen. Ik wil graag geloven (en mag het van harte hopen) dat dingen als Apple iCloud, Dropbox, Amazon Web Services en Microsft Azure beter beveiligd zijn dan je eigen netwerk thuis.

Echter, je hebt de grote en de kleine doelen. Als je X uren nodig hebt om bij bedrijg A digitaal in te breken of je het X^3 uren nodig om bij Azure in te breken, dan is het nog steeds aantrekkelijker om je te focussen op Azure aangezien je daar dan wel langer mee bezig bent, maar als je goed binnen bent heb je ook gelijk toegang tot de gegevens van bedrijf A, B, C .... ZZZZZ. Veel rendabeler.

Duizenden "forten" met middelmatige bescherming houden veel langer vast dan één "kasteel" met enorme bescherming. Je risico om gehackt te worden neemt daardoor dus ook af als je het in eigen beheer houdt.
Het is inderdaad een uitkomst en iets waar ik al langer op zit te wachten. Niet zo zeer op Azure maar meer op iCloud wat hopelijk snel volgt. Dat gewoon op je eigen systemen kunnen draaien zodat Apple of in het geval van Azure, Microsoft niet bij al je "cloud" informatie kan zorgt voor betere veel betere privacy en beveiliging.
Google eens Owncloud.
OwnCloud bevat nul Cloud technologie. Gewoon een online dienst.
Definiëer cloud-technologie?

Over het algemeen is cloud-technologie synoniem voor online diensten. Hotmail was jarenlang een online dienst / webmail. Tegenwoordig heet het cloudmail.

Ook worden er vaak diensten als Dropbox / GDrive / OneDrive onder geschaard, of dingen als Google Docs, Google Agenda en meer van dat soort online zaken die de samenwerking tussen mensen bevordert en je loskoppelt van je werkplek aangezien alle gegevens "in de cloud" staan. Zo ook OwnCloud: samenwerken aan documenten via OwnCloud Documents, agenda en contacten synchroniseren via CalDAV/CardDAV of online in de webinterface beheren, bestanden online bewaren en delen met collega's of vrienden, het kan allemaal.

Virtualisatie en dergelijke doet het inderdaad niet aan (maar het bevat dan wel weer prima tools om te clusteren over meerdere al dan niet virtuele servers), maar dat is zeker geen eis om de term "Cloud" te mogen gebruiken, als je naar het hedendaagse gebruik van de term kijkt.
Definiëer cloud-technologie?
Easy: http://en.wikipedia.org/wiki/Cloud_computing , http://nl.wikipedia.org/wiki/Cloud_computing

'De Cloud' is online diensten met behulp van cloud-technologie.
samenwerken aan documenten via OwnCloud Documents, agenda en contacten synchroniseren via CalDAV/CardDAV of online in de webinterface beheren, bestanden online bewaren en delen met collega's of vrienden, het kan allemaal.
Dat kon ook al allemaal vóór de introductie van cloud technologie. ASP

Cloud technologie is: IaaS, PaaS en SaaS.
Tja, en SaaS is technologie die ook al lang bestond voordat men het 'cloud' ging noemen.

OwnCloud is in ieder geval duidelijk een vorm van SaaS.
Vergeet het, owncloud is bijvoorbeeld totaal niet schaalbaar.
Owncloud niet schaalbaar? Er draaien instanties met 10k+ concurrent gebruikers.. (op google app-engine)

hmm, 500k (non-concurrent) dus
https://owncloud.com/scie...000-users-launches-today/

[Reactie gewijzigd door Bastiaan V op 5 mei 2015 18:34]

Dat er instanties draaien met 10K+ concurrent users zegt toch niets over de achterliggende technologie?
Natuurlijk kun je zo'n opzet handmatig bouwen. En ja, zelfs kun je de software handmatig binnen een PaaS senario draaien, maar dat kun je met alle software. Dat maakt de software zelf nog niet schaalbaar.
Kun je van 10k+ met een druk op de knop opschalen naar 50k+ concurrent users? Dat lijkt me niet, tenzij je nog genoeg resources hebt om dat aan te kunnen.
Kun je dat zelf bouwen zelf beheren? Ja, misschien wel.
Noem eens een stuk software, waarbij je zonder dat je extra resources nodig hebt, met 1 druk op de knop kan opschalen van 10k naar 50k users.

Natuurlijk heb je meer resources nodig, en natuurlijk kan e dat bouwen, anderen kunnen het namelijk ook!
Zonder extra resources lukt het uiteraard niet. Het gaat er om hoe je die extra resources krijgt. Dáár gaat cloud technologie over. Direct kunnen opschalen, en als je weer terug wilt naar 10K kan dat ook, zonder dat je met resources over blijft.
Het grote verschil is denk ik dat jij vanaf de gebruikers kant kijkt, en ik naar de provider kant :-).

Daar is echt niet zo veel anders...
Heb je daar ervaring mee dan?

Ik zelf niet; de grootste setup die ik beheer heeft 50 gebruikers dus niet echt grootschalig. Daar draait het in ieder geval als een zonnetje.

Verder zie ik geen reden waarom het niét schaalbaar zou zijn. De webserver (in de vorm van bv apache, lighttpd of nginx) is in ieder geval goed schaalbaar en daarmee de software ook. Opslag werkt prima op een DFS en database-software als lighttpd of MySql/MariaDB naar keuze laten zich ook flink opschalen.
Dat noemen ze nou Bullshit Bingo!

Vroeger was het time sharing, toen ging het via partities naar lpars (AS400). Later noemden we het VM's en nu noemen we het IAAS.

Paas werd heel lang gewoonweg shared hosting genoemd, IAAS waren vroeger VPS'en, waarbij je een private network kreeg.

Er lijkt heel veel te veranderen, maar "de cloud" is niets meer dan marketing.
Cloud technologie is zeker geen marketing, maar de term 'cloud' wordt inderdaad ingezet in marketing. Dat zie je aan OwnCloud bijvoorbeeld. Ze zeggen zelf ook dat het een 'on premise' product is: https://owncloud.com/why-on-premise en met een reden.
Later noemden we het VM's en nu noemen we het IAAS.
Weet je het verschil dan niet? Wie doet het beheer en hoeveel tijd en energie kost het je? Ik wil graag over 5 minuten 50 VM's met elk dual cores, 2 Gb en 500GB opslag hebben draaien ;)
Dat is natuurlijk geen enkel probleem meet een fatsoenlijke VMware, XEN of KVM installatie (Ook hyperV zal dit vast prima kunnen).
Tsja, is bij een klant neergezet en dat staat inmiddels op non actief. Niet zonder reden. Alleen interessant voor bepaalde specifieke gevallen.
Maarja, aan de andere kant heeft MS dus schijnbaar zo'n ISO certificering voor Azure gekregen waar je met je eigen systemen niet zomaar aan zult komen, en dan ook nog onderhoud en uptime.. Denk eerder dat je eigen systemen minder veilig zijn dan de azure servers/datacenters van Microsoft, vergeet namelijk niet dat in die datacenters mensen werken die niets anders doen dan de hele infrastructuur beheren/onderhouden, en niet zoals in veel bedrijven dit er even tussendoor doen (en dus in veel gevallen eigenlijk de ballen verstand er van hebben, ook al vinden ze zelf van wel)..
Ik denk juist niet. De datacenters van Microsoft zijn extreem veilig. Een Trojan/worm/virus dringt in een bedrijfsomgeving veel makkelijker door dan in een Cloud omgeving lijkt mij.
Het voordeel zit 'm denk ik in de korte lijnen, eigen licentie structuur en fail safe.
Maar de gene die contact maakt met de datacenter van Microsoft kan wel voor veiligheidsproblemen zorgen. Als die link er niet meer is en je intern contact maakt met de servers heb je voor die verbinding geen connectie met het Internet nodig.(Ligt er dan ook wel weer aan hoe je Azure implementeert)

[Reactie gewijzigd door BJ_Berg op 4 mei 2015 21:09]

Een lokale Azure installatie is ook interessant voor bedrijven welke data niet in de public cloud mogen hosten. Nu kunnen deze bedrijven een private Azure cloud opzetten. Maar ik ben dan wel benieuwd welke services dan worden aangeboden. Azure is natuurlijk meer dan alleen een aantal virtual machines in de cloud (IaaS), maar bied ook Platform as a Service (PaaS) aan zoals storage (db, file, redis, etc), Machine Learning, Event- en notification hubs, service bus en de scheduler om maar een paar diensten te noemen..
Ik denk dat een aantal zaken zullen worden beperkt; zo zal je Oracle niet on-premises op Azure kunnen draaien mits je er contract A, B en C voor afsluit. Dit in tegenstellng tot Azure "native" bij Microsoft waar elke parameter voor een Oracle-instance al helemaal is kortgesloten en tientallen keren is getest.

Alleen al de garantie van Oracle dat je online wel een bepaalde baseline-performance haalt, zal je waarschijnlijk nooit/amper on-premises kunnen realiseren omdat niemand van Microsoft, Oracle of andere leveranciers 24/7 de monitoring van de hosts/VM's heeft noch invloed heeft op bepaalde delen van update- / incident- of change-management.
Aardige stap. Was wel te verwachten. Zeker gezien bedrijven erg wantrouwig zijn als het om hun data aankomt (of omdat het wettelijk is vastgelegd). Ik denk dat dit wel een mooie oplossing is. Voldoen aan de eisen, maar toch gebruik kunnen maken van de overige zaken.
Wel nog wat meer detail nodig over hoe het precies geregeld is. Ik denk dat ze er alleen niet meer omheen konden om bepaalde bedrijven gebruik te kunnen laten maken van hun diensten.

Wat ik overigens niet begrijp: waarom niet een tussenweg waarbij je een Azure cluster in een land neerzet en die zelfstandig laat opereren. Zodat je weet dat data ook niet het land uitgaat (wat voor veel bedrijven volgens de wet niet mag)
Je kan in Azure al zelf je GEO locatie kiezen wat ervoor zorgt dat je data in een bepaald gebied blijft. Als je Europa kiest staat je data in Amsterdam of Dublin bijvoorbeeld en wordt het niet gerepliceerd naar Amerika of andere landen. Daarnaast kun je altijd zelf Azure nabouwen met Azure pack of nu AzureStack in je eigen datacenter als dit moet van legal.
Microsofts Azure-clouddienst bood gebruikers tot nu toe enkel de mogelijkheid om op servers van Microsoft instances te draaien, [...]
Of via spla bij je favo hoster.
Koude kermis; je mag een aantal zaken eenvoudigweg niet draaien onder SPLA bij een andere partij.

Zo is het bijvoorbeeld niet toegestaan om VDI/VDA in te richten bij een andere hostingpartij op het moment dat het hosting-platform zelf al gebruik maakt van shared hardware of dynamic resources. Je zal dan echt je hoster moeten verzoeken om een seperaat blok machines in te richten puur & alleen voor jouw eisen/wensen omtrent VDI/VDA.

En we weten allemaal dat dedicated hosting aanzienlijk duurder is dan shared hosting waardoor de mogelijke voordelen van je goedkopere SPLA-licenties direct teniet worden gedaan.
Vindt het eigenlijk maar een beetje vreemd klinken. Ga je dan alles bij jezelf hosten en alleen bepaalde services gebruiken ? Is het een hybrid omgeving of een soort command and control server ? Is dit om de patriot act te kunnen omzeilen / verbloemen ?
Precies zoals je het zegt, het kan dus zijn om bepaalde data niet op de servers te hebben van MS, maar andere services mogelijk wel geen probleem zijn om te gebruiken..
En denk wel even, dit soort dingen is vaak bedoeld voor de megabedrijven, en niet voor een simpel mkb bedrijfje..
Om dit netjes in te richten, en zeker als je hybrid-Azure denkt te willen gaan gebruiken voor failover of disaster recovery, komen twee dingen naar voren.

Bandbreedte en licentiekosten; beiden zullen een flinke impact hebben op TCO maar ook op capacity planning/management.

Ik ben eigenlijk geen fan van de aanbieding/mogelijkheid die Microsoft nu geeft maar het zal mogelijk wel de adoptie van Azure een boost kunnen gevevn.
Azure is veel meer dan een virtualisatie platform zoals Hyper-V ;)
Altijd weer die halve cloud... Zo jammer! Ik vind de strategie van Google veel beter: alles in de cloud! Geen discussie gewoon alles!!
Er zijn vele bedrijven die om wat voor reden dan ook niet hun data in Amerikaanse datacenters willen opslaan. Dit kan zijn vanwege bijvoorbeeld de dreiging dat de Amerikaanse overheid je gegevens opvraagt bij Microsoft en dat dan doorspeelt naar een Amerikaanse concurrent. In het bedrijfsleven gaat het nu eenmaal niet allemaal even eerlijk.
Google loopt over de hele linie overigens achter qua clouddiensten, ja er is online mail, office en opslag maar infrastructuur as a service? Amazon is veel groter op dat gebied.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True