Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Submitter: Jump

Microsoft komt met Nano Server, een herschreven versie van Windows Server die veel minder resources nodig heeft en Hyper-V-applicatiecontainers kan draaien. Nano Server zou minder vaak patches en updates nodig hebben, sneller herstarten en veiliger zijn.

Dat schrijft Microsoft op zijn Technet-blog. Naast de al genoemde voordelen, hoeven gebruikers bij Nano Server geen componenten te installeren die ze niet nodig hebben. Microsoft zelf claimt dat de tot nu toe behaalde resultaten in vergelijking tot Windows Server veelbelovend zijn, met 93 procent minder grote virtual harddisks, 92 procent minder kritische bulletins en tachtig procent minder reboots.

Om dit te bereiken verwijderden de ontwikkelaars de gui-stack, 32bit-ondersteuning, MSI en nog enkele standaardonderdelen van Server-core. Verder is er geen mogelijkheid om lokaal aan te melden en geen remote desktop-ondersteuning. Alle beheer gebeurt op afstand, via wmi en powershell. Het moet makkelijker worden om desired state configuration te beheren via de powershell en ook bestandsoverdracht, script authoring en debugging op afstand zouden verbeterd worden. Er wordt nog gewerkt aan beheertools via het web.

De api is compatibel met andere versies van Windows Server binnen de subset van onderdelen die het besturingssysteem bevat. Het systeem moet goed te integreren zijn in een DevOps-omgeving, waartoe Microsoft al samenwerking zocht met Chef.

Nano Server is een poging van Microsoft om beter schaalbare virtualisatie te verkrijgen, samen met Hyper-V-applicatiecontainers. Processen moeten goed te isoleren zijn, iets wat volgens Microsoft voorheen alleen met speciaal toegeruste fysieke Windows-servers of virtuele machines te bereiken was. Hyper-V-containers zorgen ervoor dat code uit de ene container geïsoleerd blijft van het host-besturingssysteem of andere containers. Een ander voordeel dat Microsoft noemt, is dat applicaties die ontwikkeld zijn voor Windows Server Containers zonder aanpassing uitgerold kunnen worden als Hyper-V-containers.

Microsoft werkt voor de containerondersteuning nauw samen met Docker, het ecosysteem dat containerized apps populair heeft gemaakt. De integratie levert crossplatform-ondersteuning op met betrekking tot Windows Server, Linux en Hyper-V-containers.

windows hyper v container

Moderatie-faq Wijzig weergave

Reacties (51)

Dit klinkt heel erg als ESXi.
Net als je denkt dat Microsoft klaar is met goed nieuws aankondigen.
Is dit het werk van de nieuwe CEO?
Misschien had je beter eerst dit kunnen lezen Docker nu eigenlijk is.
https://www.docker.com/whatisdocker/

Kort door de bocht is Docker een Application Virtualisatie methode waar ESX(i) en andere VM oplossingen een OS virtualiseren. Docker is dus veel zuiniger met resources en ook veel flexibeler dan de anderen. Dat wordt nu dus door Microsoft samen met Docker naar HyperV gebracht.
ESX(i) en Hyper-V zijn hardware virtualisatie en geen OS virtualisatie. Het OS is niet virtueel en is identiek aan een baremetal install. De kernel heeft ook geen weet van wat er effectief aan cpu en memory gebruikt worden door de vm's

offtopic:
Als je over OS virtualisatie gaat praten kom je bij joyent's SmartOS uit.
https://www.joyent.com/de...-containers-in-production


Dat Microsoft voor docker kiest is een logisch. Aangezien VMware ook al met docker bezig is.
Hyper-V (zonder containers toevoeging) is de bare metal hypervisor van Microsoft, equivalent aan ESXi van VMWare.

Hyper-V Containers is vergelijkbaar met LXC (Linux Containers). De implementatie details van Hyper-V Containers weet ik niet, maar LXC heeft een lager niveau van isolatie dan een bare metal hypervisor doordat de kernel gedeelt wordt tussen de host en de container.

Voordeel van 'minder' isolatie is dat de containers in millisecondes op kunnen starten en toch een geïsoleerde omgeving kunnen verzorgen.

Voor mij als ontwikkelaar is dit wel nieuws waar ik op zat te wachten, ik ben al een tijdje zeer enthousiast over Docker. Dat dit straks ook met Windows kan is geweldig!
Ik vrees een beetje dat Docker en Containers een tijdperk van turn-key VM appliances inluid.
Je koopt dus een voorgeconfigureerd systeem dat mogelijk nooit geupdate wordt. Veiligheid is een bijzaak omdat je de directe gevolgen ervan verschuift naar een VM ipv een belangrijk systeem :S.
Turnkey is maar net hoe je het bekijkt. In een beetje omgeving, kan je met de System Center Suite (inclusief VMM en Orchestrator) dus je VM's zelf zover "templatificeren" als je wil waardoor je inderdaad de mogelijkheid hebt om jouw VM's zo goed als turnkey te maken.

Door de uitgebreide Service Manager, heb je voor een groot gedeelte van de omgeving zelfs geen beheerders meer nodig; afdelingen / medewerkers kunnen dan zelf VM's aanvragen, goedgekeurd krijgen en uitrollen op de hypervisors.
Door de uitgebreide Service Manager, heb je voor een groot gedeelte van de omgeving zelfs geen beheerders meer nodig; afdelingen / medewerkers kunnen dan zelf VM's aanvragen, goedgekeurd krijgen en uitrollen op de hypervisors.
Ja en ik vrees dat die VM's dus nooit geupdate zullen worden zolang ze werken.
Dan heb je je template niet op orde. Voor VM's die Windows draaien, kan je zonder problemen WSUS inrichten of SCCM. Die produkten kan je ook verregaand automatiseren waardoor je een hele grote / decentraal beheerde omgeving binnen een dag helemaal up to date kan hebben. Ook een Linux-VM kan je natuurlijk voorzien van een template waardoor er een cron draait die alle packages/dependencies update op dag X.

En voor afdelingen die vooral willen spelen met VM's en er geen produktie mee willen/mogen draaien, hang je ze in een apart subnet / VLAN waardoor de VM en het internet nooit van elkaar op de hoogte worden gebracht.

Uiteindelijk is "het bedrijf" verantwoordelijk voor de processen en definities van security. Dat houdt dus in dat ICT daar een ondersteunende afdeling in is. Zolang de raad van commissarissen geen beleid uitstippelt over security / disaster recovery, "hoef" je officieel dus ook geen updates uit te rollen.

[Reactie gewijzigd door MAX3400 op 9 april 2015 13:34]

Dan heb je je template niet op orde. Voor VM's die Windows draaien, kan je zonder problemen WSUS inrichten of SCCM. Die produkten kan je ook verregaand automatiseren waardoor je een hele grote / decentraal beheerde omgeving binnen een dag helemaal up to date kan hebben. Ook een Linux-VM kan je natuurlijk voorzien van een template waardoor er een cron draait die alle packages/dependencies update op dag X.
Wij hebben verschillende dingen wel niet op orde :D. Het lijkt wel of jij in een ideale wereld werkt (moderne ICT policies, gevirtualiseerd platform, moderne infrastructuur, ...). Ik kijk links en rechts en ik zie nog Win 3.11 en Win98 controlePC's staan :S.
3.11 is end of life sinds 2008 http://blogs.msdn.com/b/j...t-s-the-end-for-3-11.aspx al weer bijna 7 jaar geleden
en windows 98 op 16 jan 2004 https://support.microsoft.com/en-us/gp/lifewinextndfaq dus dat is 11 jaar geleden.

het is niet dat @MAX3400 in een ideale wereld werkt, maar gewoon een die meer van deze tijd is. sorry, no offence
het is niet dat @MAX3400 in een ideale wereld werkt, maar gewoon een die meer van deze tijd is. sorry, no offence
Jij zit in de web wereld en ik vermoed dat MAX3400 infrastructuur beheert voor klanten, waarvan een groot stuk ook web developpers zullen zijn. Maar hier dicteren de industriele machines grotendeels de omgeving :|. Ja, ik vind het ook vreselijk maar ik ben het kneusje dat het mag oplossen maar het niet mag mee beslissen.
[...]
Jij zit in de web wereld en ik vermoed dat MAX3400 infrastructuur beheert voor klanten
Had je mijn profiel al gelezen ;)

Ach, niet alle omgevingen zijn ingericht volgens mijn vorige post maar ik begin wel een kentering te zien in de markt dat de technologie zich zo snel ontwikkelt dat meer en meer klanten door de bomen het bos niet meer zien en zich uiteindelijk door de ICT'er (intern of extern) volledig laten meenemen naar een nieuwe inrichting.

Op zich niks mis mee mits de aangedragen oplossing voldoet aan de bedrijfsvoering van de klant en daar wringt het nog wel eens omdat aannames worden vertaald naar oplossingen terwijl de aanname niet 100% de waarheid lijkt te zijn.
De VM zelf hoeft ook niet geupdated te worden, je zwengelt gewoon een nieuwe aan. Met up-to-date software.
Dus totdat je de nieuwe up-to-date software hebt zit je daar met een vreselijk onveilige "bevroren" container.
Maar dat is toch exact hetzelfde als met de software zelf? Er moet inderdaad geupdate worden, anders blijf je met onveilige software zitten.

Als het aanmaken van containers op een vergelijkbare manier als met Docker gaat is dat erg 'goedkoop' en geheel te scripten. Containers een-voor-een vervangen etc..., het kan allemaal :)
Maar dat is toch exact hetzelfde als met de software zelf? Er moet inderdaad geupdate worden, anders blijf je met onveilige software zitten.
Ja, maar Ik vrees dat de systeemlibs in die containers ook bevroren zullen blijven en dat ISV's meer zullen statically linken.
Voor dat model is dit niet de ideale oplossing, juist als je vaker wil updaten zou je dit inzetten. Anders kan je net zo goed shrink wrapped software gaan uitleveren.
Ja maar dat is toch wat containers zijn. Een bepaalde applicatie met al zijn "compatiebele" versies van libraries in een bubbel. En ik denk dat m'n die "bubbels" ook zal verkopen net zoals shrink wrapped software :D. Amper maintained en zonder ondersteuning wanneer je zelf de openssl libs update bijvoorbeeld.
edit: typo

[Reactie gewijzigd door goarilla op 9 april 2015 14:43]

Met minder updates zullen ze 'upgrade patches' bedoelen.
De patching van security zal onvermijdelijk doorgaan.

Door het minder upaten van features zullen ze wel met een windows versie komen die meer future proof zal zijn dan in het verleden.
Nee, het zijn minder patches omdat het minder complex is: Alle componenten die eruit gehaald worden, hoeven uiteraard ook nie tgepatch te worden. In de klassieke situatie wordt heel veel (verplciht en onverwijderbaar) mee-geinstalleerd, en dat moet dus ook allemaal gepatcht worden...
Met minder updates zullen ze 'upgrade patches' bedoelen.
De patching van security zal onvermijdelijk doorgaan.
Nee, ze bedoelen letterlijk "minder updates". Logisch ook, want een groot deel van de componenten van Windows die een patch kunnen ontvangen zitten er niet in.
Nee je koopt geen systeem ;) je neemt een dienst af van een cloud provider waar je jouw applicatie op laat draaien. Dus backups en hardware zijn allemaal niet meer jouw probleem. Veiligheid van het onderliggende systeem ook niet. Puur de inhoud van de container, dat waar je zelf voor verantwoordelijk bent.
Nee je koopt geen systeem ;) je neemt een dienst af van een cloud provider waar je jouw applicatie op laat draaien. Dus backups en hardware zijn allemaal niet meer jouw probleem. Veiligheid van het onderliggende systeem ook niet. Puur de inhoud van de container, dat waar je zelf voor verantwoordelijk bent.
Je maakt je wel afhankelijk van een 3de partij en je weet ook niet hoe zijn hun security en backups regelen. Ik zou toch wel eens heel goed nadenken voordat je je tot de "cloud" richt voor infrastructuur.
Helemaal mee eens, maar je bent ook afhankelijk van je telecom provider voor je mobiel. of bijvoorbeeld je energieleverancier voor de stroom. Wat ik hiermee bedoel te zeggen is dat je vrij bent om je aanbieder te kiezen en kan selecteren op betrouwbaarheid. Bijvoorbeeld als internet provider is xs4all een van de meest stabiele, maar daar betaal je natuurlijk wel weer wat meer voor.
Ik ben het helemaal met je eens dat je er goed over na moet denken voordat je deze keuze maakt. Denk dan ook goed na over hoeveel kennis er in huis is voor onderhoud en of je financieel ook een grote investering wil doen in de hardware of juist gewoon per maand wil betalen. Je bent wel wat flexibelere in de cloud ivm opstartkosten (die er regelmatig niet zijn)
Daar heb je dan weer de nodige ISO normeringen voor. Zijn niet heilig, maar je kunt je er wel op beroepen.
Nee, je patched 1x de hypervisor, waarna alle Containers geupdate zijn...
Zo een hypervisor zou dan meerdere tientallen (zo niet honderden) containers aan het draaien zijn, lijkt me.
Je koopt dus geen voorgeinstalleerd server, maar je levert een (zelf beveiligde) container, welke alleen gebruiker wat het ook echt nodig heeft. De hypervisor kan niet ín je container en dat zou dan IP technisch veilig moeten zijn
Wauw. Wauw. Wauw.
Alleen Powershell, DSC en WMI. Het is alsof de hemel op de aarde neer daalt O+
Gedeeltelijk met je eens. DSC is een fantastische oplossing om inderdaad uniforme & correcte farms van servers neer te zetten. Neemt niet weg dat de scheduling van DSC op orde moet zijn (en ook zeker OTA) omdat je anders je DSC aanpast en het resultaat heeeel veeeel stilte is in de server-ruimte ;)
Dit klinkt als fijn voor bedrijven en onderwijsinstellingen.
Zonder teveel in detail te treden; ik ken meerdere onderwijs-instellingen (met meer dan 500 leerlingen) die hun gevirtualiseerde omgeving dusdanig slecht onderhouden (hebben) dat bepaalde VM's er vaker uit liggen dan dat ze produktie draaien.

Nou is dat op zich niet erg als je een organisatie hebt die dit soort tegenslagen kan opvangen maar niet elke onderwijs-instelling (of medewerker) investeert voldoende in kennis waardoor sommige beheerders nog op niveau 2008 zitten qua technologie/kennis terwijl ze wel via via, zoals een KPN of een Centric, een mooie 2015-omgeving hebben aangekocht en laten installeren.

Dat is dus vragen om problemen; ik zie dus niet geheel in waarom jij vindt dat Nano Server nu fijn (of fijner) is voor bedrijven en onderwijsinstellingen.
Het is dus fijn voor bedrijven en onderwijsinstellingen die adequaat personeel in dienst hebben of reeds maatregelen hebben getroffen om personeel hun kennis te laten bijspijkeren.

Er zijn inderdaad een heleboel organisaties die het slecht voor elkaar hebben, maar daar is dan ook nooit iets positiefs te melden.

Ik hoor het vaak van mn moeder, die werkt bij een zorginstelling, hoe belabberd daar de systemen in elkaar zitten en dat ze niets aan het automatiseren zijn (eerder alleen digitaliseren, maar nooit sneller/handiger/makkelijker/goedkoper/veiliger/etc). Plus dat degenen die er verantwoordelijk zijn voor de ICT ook totaal niet geselecteerd zijn op kennis en ervaring. Het is echt pet.
Dat spul (hypervisor) houdt zichzelf up? De templates regelen zichzelf? Infrastructuuronderhoud gaat ook vanzelf?
Er is gewoon minder ijzer nodig en minder verspliterde hostjes om te onderhouden. Een hoop systeembeheerders zullen dit alleen maar toejuichen; Kunnen ze weer bezig zijn met de leuke aspecten van het vak.

Systeembeheerders blijven altijd nodig.
Enerzijds ja, anderzijds nee. Waarom? Er is minder manuur nodig, dus grote kans dat bedrijven kunnen korten op uren of aantal banen. Het zal nooit 0 worden, maar minder zeker.

En hoewel de systeembeheerders hier blij mee zijn, moet natuurlijk ook het management akkoord gaan. Wat nooit zo snel gebeurd met nieuwe techniek.
Systeem beheerders kunnen altijd blijven hé.
Alleen kan je je nu meer gaan specialiseren op virtualisatie en minder op actuele beheer.
Dat roepen ze al jaren, dus dat zullen ze ook nog wel jaren mee doorgaan :)
Serieus? Jij hebt de doorbraak van Linux op het server-vlak volledig gemist?
Dat moment ligt al jaaaren achter ons.
Alleen heeft Linux daar opzich bar weinig aan en zijn ze grond aan het verliezen.
Oh? Het enige WIndows in het netwerk hier (server technisch) is een AD. De NTP-, web-, print-, dns-, dhcp- en ftp server(s) hier zijn allemaal Linux. En zo is dat bij een aardig aantal bedrijven waarvan ik de sysadmins ken.

Heb je een bron?
Dat is dan ook niet handig gedaan dan. Kan je netzo goed novell gebruiken.
Als je toch alles buiten AD via Linux laat lopen.

AD komt meestal namelijk met DNS(eventueel DHCP) om te zorgen dat je client pc's zich netjes registreren bij de AD server. Zelfde geld voor netwerk stations enz, print & ntp(Wat webserver betreft moet je ik gelijk geven).

Gebruiken jullie ook geen exchange ?
AD komt meestal namelijk met DNS(eventueel DHCP) om te zorgen dat je client pc's zich netjes registreren bij de AD server
Dat iets ergens mee gebundeld word wil niet zeggen dat het alleen zo kan. Als je je DNS settings in je DNS server gewoon netjes instelt (dus _ldap.tld) goed instelt is het geen enkel probleem hoor.
Gebruiken jullie ook geen exchange ?
Dat heb je goed gezien.

We zijn trouwens wel aan het kijken naar een freeipa oplossing (Novell on steroids even simpel), dat integreert fijn met onze Fedora workstations, en je kunt er zover ik nu kan zien ook gewoon Windows clients tegen laten babbelen.
Anno 2015 is het niet meer Linux VS windows.

Windows heeft met zijn server suite een hele mooie reeks eigenschappen die linux niet kan of praktisch heeft uitgewerkt.

Linux zal je veelal tegenkomen bij back-end servers die kritieke services draaien voor gespecialiseerde software.
Wat is die fantastische server suite van Windows dan?
Onderdelen:

AD, WSUS, FileServices, Exchange,KMS,DC,...

Gaat hem vooral om de vlotte en makkelijke integratie met elkaar.
Op deze manier heeft Linux ook niks op dit moment.. of vergeet ik een product die hier in de buurt komt? }:O
LXC, OpenVZ, of gewoon Docker, lijkt me.
Docker, de techniek waar Microsoft dit product op baseert, draait momenteel juist alleen op Linux en is heel populair. Het is de doorontwikkelde vorm van LXC (Linux Containers). Containerisatie was hét topic op de conferenties in het afgelopen jaar.

Waar het tooling-ecosysteem in Linux meer uit losse componenten bestaat die je naar wens combineert verwacht ik dat MS een meer geïntegreerde (en 'opinionated') stack zal leveren. Beiden hebben voor- en nadelen, dus fijn om te zien dat dit soort competitie ontstaat.
Je bedoelt: "Microsoft komt met iets wat Linux Solaris/Illumos/SmartOS al jaren heeft."?

Dit soort vergelijkingen zijn zinloos, omdat er vaak wel een concurrent een vergelijkbaar product heeft. Dat betekent niet dat dit product geen marktwaarde heeft, zeker in Windows-omgevingen maakt dit het beheer makkelijker/zorgt dit voor minder nodige resources.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True