Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties
Bron: Computerworld

Bob Muglia, senior vice-president van Microsofts Windows Server-divisie, heeft in een interview met Computerworld tijdens de TechEd 2005-conferentie afgelopen week de visie van het Redmondse softwarebedrijf op de toekomst van Windows Server-producten uit de doeken gedaan. Op dit moment biedt Microsoft onder meer de virtualisatiesoftware Virtual Server aan. Dat is een losstaand programma dat niet geïntegreerd is in Windows. In de toekomst zal hypervisor- en virtualisatietechnologie aan de serveredities van Windows toegevoegd worden; hierdoor wordt het mogelijk meerdere besturingssystemen tegelijkertijd te draaien. Verder zullen in de toekomst wijzigingen doorgevoerd worden aan de manier waarop virtuele systemen beheerd, gemonitord en gepatcht kunnen worden. Hiervoor zal een nieuw beheersproduct ontwikkeld worden. Deze virtualisatiemogelijkheden zullen niet in de initiële release van Longhorn Server aanwezig zijn, maar via van het eerste SP worden toegevoegd.

In de eerste helft van 2006 zal Windows Server 2003 Compute Cluster Edition (CCE) op de markt verschijnen. Volgens Muglia is de markt voor computerclusters 400.000 à 500.000 stuks groot en er wordt verdere groei verwacht. Het is dan ook niet vreemd dat Microsoft wil proberen een groter aandeel van de markt in handen te krijgen; op dit moment heeft het bedrijf een marktaandeel 5 procent. Windows Server 2003 CCE verschilt op twee gebieden van gewone Windows Server 2003-edities. Het eerste verschil is dat een groot aantal services en programma's wordt uitgeschakeld. Dat zal echter wel betekenen dat deze Windows-versies niet gebruikt zal worden voor andere serverdoeleinden. Het tweede verschil is dat nieuwe functies, zoals batch schedulers en de mogelijkheid om gebruik te maken van zeer snelle verbindingen, worden toegevoegd om het werken in een computercluster mogelijk te maken. Deze extra programma's zullen ook 'los' worden aangeboden en ze zullen ook op de Standard- of Enterprise-versie van Windows Server 2003 gedraaid kunnen worden.

Tijdens zijn presentatie tijdens TechEd 2005 heeft Muglia gesproken over 'integrating the edge' en hoe die visie de komende tien jaar van de IT-wereld zal bepalen. Deze visie houdt twee zaken in. Voor een eindgebruiker dat het mogelijk moet worden om op ieder moment, of er nu wel of geen internetverbinding is, te werken met informatie die op het bedrijfsnetwerk staat. Als er geen netwerkverbinding is moet gebruikgemaakt worden van gecachte informatie. Voor IT-beheerders betekent dit dat het mogelijk moet zijn om via policy's volledig netwerkonafhankelijk te bepalen wat iemand al dan niet mag in het netwerk. Om dit te bereiken, zal Microsoft de benodigde missende technologie gaan inbouwen in zijn besturingssystemen. Verder wil het bedrijf zogenaamde 'best practices' opstellen voor het opzetten van policy's op het gebied van security. Een deel van deze features zal via Windows Server 2003 R2 beschikbaar komen, een ander deel via Windows Longhorn Server en de overige technologie via latere Windows Server-versies.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (18)

Hmm... ik weet dat niet hoor, meerdere server instances op 1 en dezelfde bak draaien.
Natuurlijk scheelt dat enorm qua kosten van hardware, maar ja, als ie dan down zou moeten dan is dat wel een hoop dat in 1x down gaat...
Het is ook veel beter voor de veiligheid. Iemand kan namelijk een 'computer' kraken, maar kraakt daarmee maar een 'containter', en de fysieke server, en alle andere virtuele computers op die fysieke servers, draaien gewoon door. Als je bijvoorbeeld een grote DNS server hebt, is dat erg makkelijk.

Misschien ook als reactie op de grid-servers van Sun in Solaris 10. Daar kan je met de grid-containers iedere virtuele PC een eigen IP-nummer, stuk harde schijf, geheugen en gebruikers toewijzen.
Kortom, het is veiliger, goedkoper (bij Solaris 10 kan je 5000 virtuele computers op een fysieke server draaien), scheelt ruimte en stroom (alweer goedkoper), minder hitte, dus minder grote airco's nodig, en weer minder stroom nodig, en bovendien kunnen die 5000 virtuele PC's efficienter van CPU-tijd gebruik maken, dan als je allemaal aparte computers hebt. Heb je 5000 losse PC's waarvan 2500 praktisch idle zijn en 2500 te druk, heb je niks aan de 2500 idle. Mik je ze op een fysieke server, dan kunnen die 2500 drukke CPU-tijd van die 2500 idle 'lenen', wat wederom efficienter en goedkoper is.
Eigenlijk alleen voordelen dus.
Voor een kleine omgeving is het misschien niet direct handig, al kan je wel verschillende minder drukke servers samenvoegen op de zelfde hardware, zoals ISA, mail, print servers enz.

Voor de andere omgevingen kan het zeer handig zijn, als je OS alleen virtuele aanspraken maakt dan kan hij (zeker met een goede SAN/NAS) heel makkelijk naar een andere hardware machine worden verplaatst. Even een paar minuten downtime van de ene (zet je ze in een cluster merk je er niks van) en dan is ie weer up in de zelfde staat maar dan op een andere hardware bak. Makkelijk, snel, doeltreffend.

Vooral in een wat grotere omgeving kan je juist daardoor je downtime van verschillende servers verminderen omdat je zo makkelijk en snel over kan stappen naar een andere hardware bak.
In een kleine omgeving kan dat toch standaard als daar heb je geen 2 (virtuele) servers voor nodig, gewoon Windows 2003, daar zit standaard spul in voor ISA-, File-, Print-, Domein-, Intanet(www)-, FTP-, DNS-, DHCP server, dat draait makkelijk allemaal op 1 server
Exchange dr bij op en je hebt een compleet netwerk.

Anders wordt het als je netwerk dan gaat groeien, dan moet je al dat spul weer uit elkaar gaan trekken, omdat het niet meer op 1 server kan draaien & heb je dus kans op downtime, dan kan zo'n viruele server uitkomst bieden.
Probleem daarvan is dat je database configuratie invloed heeft op je mail configuratie invloed heeft op je proxy server configuratie invloed heeft op......

Het draaien van verschillende services op één OS kan tot gevolg hebben dat een update van de ene component een andere component doen crashen. Door gebruik te maken van een omgeving waarbij elke service zijn eigen (virtuele) server krijgt, kan het beheer eenvoudiger en dus goedkoper worden

Om nog maar niet te spreken van programma's die enkel op NT4 of Windows 2000 werken.
wat voor nut heeft het precies?
het is niet veiliger ofzo
het is niet sneller
misschien goedkoper
maar waarom?

2 bakken of gewoon 1 bak lijkt me gewoon veel slimmer
Je moet wel bedenken dat hier niet gesproken wordt over één dual opteron of dual xeon maar clusters van 1000 van die dualtjes. In zo'n geval scheelt het veel hardware en ruimte aangezien een cluster van blades minder ruimte inneemt dan als je het op allemaal losse machines zou laten draaien.

Daarbij is het denk ik ook beter schaalbaar en de uitbreidings mogelijkheden zijn veel groter. Met virtualisatie bereik je dan dat je op je cluster meerdere os'en draait en je dus voor verschillende doeleinden je cluster kan inzetten en gebruiken. In een cluster ben je meestal ook vele malen redunanter aangezien het uit vele machine's bestaat en je kan dan veel eenvoudiger onderhoud plegen aan een aantal nodes als dat nodig zou moeten zijn.
Het kan kosten schelen, een goede reden lijkt me.
Ach uiteindelijk denk ik dat het MS een rotzorg zal zijn wat je performance is met 4 virtuele machines, of hoeveel kosten er bespaard worden door 3 extra servers uit te sparen. Uiteindelijk gaat het er om dat MS zo slim is om voor elke instantie een aparte licentie verplicht te stellen, waardoor hun er alleen maar rijker van worden.
ik denk dat MS het verschil tussen unix/bsd en windows probert op te vangen. men heeft de neiging om een unix bak gehel af te laden tot de load zo hoog is dat je een nieuwe nodig hebt windows daarin tegen zie je vaak in server mogevingen dat men 1 deamon heeft draaien en vrolijk weer en nieuwe aanschaft indien en nieuwe service nodig is. ook begrijpelijk aangezien in windows 1 platte server 1 plate deamon betekent iets wat reeeler is om te gebeuren dan in en unix/bsd omgeving. misschien dat MS nu een hogere uptime kan garanderen wardor men meer richting de unix/bsd tactiek kan door een system af te laden alvorens een nieuwe aan te schaffen iets wat en interesante ontwikkeling kan zijn. ik hoop dat ms dan ook daadwerkelijk deze uptimes kan garanderen ook indien hardware moet worden vervangen. tevens is dit een verschuiving van markt nar high-end iets waar je nu nog niet vaak windows aantreft.
Het idee dat MS bakken meestal slechts 1 taak hebben en unix/bsd bakken meerdere (waar is trouwens linux gebleven :) ) is onzin. Het bekenste voorbeeld is Small Business Server. Daarmee kun je (en wordt vaak) van alles en nog wat op 1 bak gedraaid. Ook zijn er zat voorbeelden van implementaties van unix/linux/bsd waarbij services op aparte systemen draaien. Het is ook bij dat soort systemen niet zó vreemd om een aparte webserver, ftp, DNS en database server te draaien.

Vandaar de populariteit van dingen als Solaris Containers of Linux on Linux. Losse Minicomputers voor je DNS server is een beetje duur, maar eigenlijjk wil je toch je services van elkaar isoleren.
Ik zou niet op een Windows server doen,

Wat wij op ons werk op een Solaris server hebben gedaan , het hele bedrijf draait op een server alle applicaties zijn consolideert , daaronder het Erp pakket, een CAD applicatie met als database Oracle, meerdere Apache webservers, tomcat, Lotus Notes, dns , Proxy server en nog veel meer applicaties.

Dit draait al vijf jaar zonder problemen.
Dat is niet altijd waar wat je zegt. Ik zie genoeg windows omgevingen waar op één server meerdere services draaien, zoals firewall, web, mail en print.

Overigens is er niks te klagen over de uptime van een windows server 2003 bak, die houdt het minstens net zo lang vol als een linux server :)
Daar kan je goed gelijk in hebben, vandaar ook dat men nu clusters wil gaan ondersteunen. Het steekt MS geloof ik nogal dat bijna alle clusters, met name superclusters, op Linux, IRIX of BSD (bv dragonFlyBSD) draaien (of een andere Unix variant, maar met name de genoemde komen veel voor).
Nou groeit de Windows-server markt wel, maar het probleem is toch dat de Linux-server markt een stuk harder groeit. Dat komt toch vooral omdat Linux/BSD gratis is denk ik, maar volgens mij schaalt het ook beter. En zeker op clusters wil je nog wel eens zelf je OS een beetje (bij de broncode) tweaken. Kortom, vooralsnog geef ik ze niet veel kans in te lopen op de groeisnelheid van Linux. Maar de verliezers blijven toch de Unix-platformen waar je voor moet betalen.
Voor een eindgebruiker dat het mogelijk moet worden om op ieder moment, of er nu wel of geen internetverbinding is, te werken met informatie die op het bedrijfsnetwerk staat. Als er geen netwerkverbinding is moet gebruikgemaakt worden van gecachte informatie. Voor IT-beheerders betekent dit dat het mogelijk moet zijn om via policy's volledig netwerkonafhankelijk te bepalen wat iemand al dan niet mag in het netwerk.
Dit is echter wel een hele handige implementatie, als een netwerk dan een paar uur plat is, kunnen de meesten gewoon doorwerken, ipv een paar uur niets doen.

Vaak zat gezien dat een afdeling op z'n gat lag voor een halve dag omdat het netwerk het niet meer deed...

Vraag me echter af wat er op de clients geïnstalleerd moet worden hiervoor: Een extra grote "Internet Explorer"-cache of echt een virtuele netwerkserver met de gecachte info...
Vraag me echter af wat er op de clients geïnstalleerd moet worden hiervoor: Een extra grote "Internet Explorer"-cache of echt een virtuele netwerkserver met de gecachte info...
Alsof je aan 10% diskspace voor IE cache niet genoeg zou hebben :?

Maar nu even serieus, 3/4 van de dingen die je daarvoor nodig hebt zijn al aanwezig: Offline Files, DFS, Caching WebApps...
Dat wou ik maar zeggen, het genoemde kan nu toch ook al bereikt worden? Je kan aan de kernel-routing tabel toch routes toevoegen voor het lokale netwerk? En cache is er natuurlijk ook al, je kan vast al zelf instellen hoeveel cache je wil.
Ik vermoed eerder dat men dat allemaal een stuk gemakkelijker wil maken, want mogelijk lijkt het me al.
En die policy's zijn toch ook al mogelijk? Het is een stap dichter naar de restrictie van eigen personeel door netwerkbeheerders (in opdracht van de directie), zodat men beter kan kijken of iemand bijvoorbeeld geheime stukken naar buiten lekt, zo heb ik het idee. MS zelf heeft daar bijvoorbeeld ook last van gehad (Halloween docs), en daarom plannen ontrafeld om via de 'netwerkbeheerder' sleutels uit te geven voor geencrypteerde bestanden, die alleen uitgegeven worden aan geautoriseerd personeel, zodat als een bestand gelekt wordt, de ontvanger deze niet kan lezen.
Mensen hebben dus geen zeggenschap meer over hun bestanden en computer dan, je kan je bestanden alleen lezen als dit van de directie mag, dus alleen de bestanden die voor jou van belang zijn. Op eigen houtje wat rondsnuffelen gaat dan niet meer.
Dit lijkt mij een eerste stap op weg daarnaartoe.
mmm ik wil het allemaal nog zien....
ik maak gebruikt van virtual pc om applicatie's testen en aanpassingen aan onze huidige applicatie , ik weet wel dat je nooit de mogelijkheden heb bij normale systemen , als je een vaag probleem heb is vaak sessio restarten......
terwijl met een echt systeem heb je veel mogelijkheden

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True