Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 147 reacties

Microsoft heeft in een slide meer details gegeven over hoe het aankijkt tegen virtuele desktops en de mogelijkheden ervan voor komende Windows-versies. Het softwarebedrijf lijkt het OS steeds meer los te willen weken van de hardware.

In een slide waarop blogger Charon van Ma-Config.com de hand wist te leggen spreekt Microsoft van een release van Windows Next in 2012 of later. De slide komt van een presentatie bij een Microsoft-meeting in London over de Windows-architectuur. Microsoft ziet in desktop-virtualisatie een deel van de oplossing voor een aantal problemen die klanten zouden hebben met de traditionele OS-implementatie: "Klanten ervaren problemen met compatibiliteit van applicaties, zien dll-hell, hebben niet de mogelijkheid efficiënt te beheren, krijgen te maken met hoge kosten voor beheer en upgrades en zien zich geconfronteerd met een relatief korte levensduur. Dit kan zo niet langer doorgaan."

Windows 7 biedt al de mogelijkheid om gebruikersdata en -instellingen, en applicaties middels de App-V-client te virtualiseren. Bij komende versies kan het hele OS mogelijk gevirtualiseerd worden uitgerold middels booten via native virtual harddisk, of vhd. "De desktop zou niet meer met het apparaat hoeven te worden geassocieerd", tekent ZDnet op uit de slides. "De desktop kan als portal worden beschouwd waarop applicaties, userdata, authorisatie en toegang verschijnen."

Verder spreekt Microsoft in de slides van een appstore en user state-store waar apps en gebruikersdata gecached staan en waarmee de gebruiker kan synchroniseren. Omdat ook het OS gecached is, zouden hardwareproblemen minder noodlottig zijn en betrouwbaarder onderhoud mogelijk worden. Onduidelijk is hoeveel van de genoemde functionaliteit daadwerkelijk in de komende Windows-versie wordt verwerkt en of dan ook consumenten met de mogelijkheden te maken krijgen.

Microsoft Virtual Desktop slide Microsoft Virtual Deskopt slide 2
Moderatie-faq Wijzig weergave

Reacties (147)

euhm is da dan de cloudtoestand waar we naartoe gaan? dat alles moet gesynched worden met één of andere server??
pff zie ik nie zitten
En als die een of andere server nou gewoon bij het kantoor zelf in de server ruimte staat?
Zie het als het door ontwikkelen van roaming profiles dat gebruiken toch ook veel bedrijven :) ?
Naar mijn weten is Windows 8 ook het volgende platform voor consumenten en ik denk niet dat alle consumenten thuis een dergelijk servertje neer gaan zetten. Bovendien ben je bij downtimes van het internet (zoals ze wel bekend zijn in Nederland) het haasje, omdat je dan helemaal niets meer kan. Wat dat betreft heb ik dan nog liever de DLL-hell die we nu hebben (waardoor er een aantal Gb aan duplicate DLL's worden opgeslagen bij de gebruiker; dat is niets meer met de harde schijven van tegenwoordig).
Dit is voor consumenten dan een ook een stuk minder interessant dan voor bedrijven. Dit is gewoon een zeer goede stap voor de VDI omgeving die steeds volwassener wordt. Het zal niet snel voordeliger worden dan een RDS omgeving maar voor bedrijven die echt doelbewust met VDI werken is dit zeer interessant.
Wat zijn de voordelen? Ik kan me herinneren dat mensen zeurden over Mainframes en dumb terminals, dat elke computer zelf moest kunnen werken, en dat iedereen vond dat zaken gedecentraliseerd moesten zijn.

Nu gaan we dus gewoon weer terug naar het oude princiepe, en krijgen we over 10 jaar weer dat we terug gaan naar autonome systemen.

Dat gezeur over clouds is ook leuk, maar je internetverbinding is nog steeds een single point of failure. Verder ben je 100% afhankelijk van die ene leverancier, en kan je gegarandeerd je apparatuur weggooien als het niet meer ondersteund wordt, om dat je dan gewoon het apparaat niet meer kan gebruiken. Nu kan dat wel, misschien geen slim of praktisch idee, maar gezien management altijd wil rekken, gebeurt dat gewoon en moet het ICT afdelinkje, of de outsourced leverancier het maar oplossen. Met VDI kan dat niet.
Je moet natuurlijk het hele plaatje zien. Roaming profiles zijn niet meer en minder dan een extra file servertje. Bij dit soort oplossingen spreken we echter al van een cluster aan extra resources en ook nog eens de nodige extra licenties. Die dingen zijn heel leuk, maar ik vraag me toch af of ze ook economisch interessant zijn voor bedrijven.
heel veel bedrijven werken toch al met citrix en thin clients enzo? Lijkt me wel duidelijk dat dat economisch interessant is; scheelt onwijs veel in beheer etc. Ben niet zo'n fan van citrix momenteel vanwege de lag enzo, maar stel dat ze het nou zo maken dat dat gefixt is... kom maar door

Zeer goede beslissing van microsoft

[Reactie gewijzigd door Garma op 17 november 2010 13:12]

Het mag schelen in beheer en economisch interessant zijn, maar ik moet bekennen dat ik nog nooit een Citrix thin client ben tegengekomen waar de thin client echt lekker soepel draaide. Dat kan natuurlijk aan het netwerk liggen (hooewel ook niet overal, op sommige plekken waren er echt GB/s aan throughput en lage latencies beschikbaar), maar als dat al schokkerig loopt is het blijkbaar niet aan te nemen dat zoiets overal goed kan of zal lopen, laat staan een volledige (en ik neem aan composited) desktop.
Ik zou dit voorzichtig als een positieve ontikkeling typeren denk ik, tot ik meer weet over hoe MS dit precies wil gaan doen.
Hangt er enorm vanaf welk protocol gebruikt wordt, GPU kracht van de Thin Client en de bandbreedte. Met HDX en een sterke Thin Client kan het erg mooi werken.
Heb genoeg omgevingen gezien en die smooth werken. Citrix implementeren is niet eventjes Citrix uit de doos halen en installeren....
Ik heb Citrix bij multinationals zelfs over inbelverbindingen soepel zien werken.

Gaat er echt om hoe je het implementeert.
tja megazwaare 3D CAD applicatie moet je niet willen draaien, de rest is citrixbaar over modemlijnen..
Met als resultaat dat je 3D CAD applicaties dus buiten de 'alles moet licht en schaalbaar' categorie vallen. En dan word dat maatwerk. Alleen om straks nog lichter en schaalbaar-der te gaan, en dan vallen straks alle grafische zaken buiten de boot. Het moet allemaal sneller en beter, maar je zal maar eens in 2015 (next next?) een bedrijfje op willen richten dat grafische zaken omvat. Sucks to be them, moet je in 2015 nog zeggen dat XP 'gewoon lekker stabiel is'?
Onzin.. zelfs de meest zware applicaties zouden heel goed op zware centrale machines kunnen draaien.
Juist door virtualisatie kunnen zware applicaties gewoon op gespecialiseerde machines draaien en hoeft alleen de (streaming)image-data verzonden te worden.

Ook online gaming kan centraal worden geregeld. Alleen het beeld stuur je naar de terminals.

Interproviders moeten er wel rekening mee houden, dat er constant streaming images over het internet worden verstuurd. Naar iedere client die online is. (tenzij je naar een statisch beeld kijkt)

Een terminal hoeft dus geen zware processor meer te hebben.. geen extra geheugen, geen harddisk die constant volloopt met onzin, geen zware videokaart die beelden moet berekenen etc.

Daarmee eindigt de ontwikkeling van de personal computer. De ontwikkeling van computers zal zich dan voornamelijk voortzetten op de grote clusters.
Maar draaien ze XenDesktop of XenApp? XenApp is gewoon een aanvulling op een RDS omgeving, dat is al erg standaard.
Dit is voordelig voor XenDesktop, maar erg weinig bedrijven werken daar nog mee omdat het vrij prijzig is qua licenties en hardware, vooral je SAN gaat dat niet snel leuk vinden.

En het niet fan zijn van Citrix vanwege de lag enzo, dat is gewoon een ontzettend domme opmerking en laat eigenlijk al zien dat je er niks van weet.
Voor XenDesktop heeft Citrix inmiddels al een systeem waarbij lokale SSD's op de Xenserver host de data van een golden image kan cachen... Alleen de userdata loopt dan nog via het SAN of een fileserver...
Dat klopt, mits je gebruik maakt van XenServer, wil je Hyper-V gebruiken of je VMware omgeving dan is dat helaas nog steeds niet mogelijk.
Daarom is Xen een betere keuze. Ook gewoon 'xen' is dan zodanig te configureren. VMware en Hyper-V zijn misschien makkelijk, maar ze moeten gewoon doen wat gevraagd wordt, makkelijk zijn is een 2e, een extra'tje, waar je niks aan hebt als je daar mee je implementatie niet kan voltooien. Je gaat toch niet zonder kennis een server opzetten, dus gezien de kennis er is, kan er meteen voor een juiste keuze gekozen worden.
Het is ook een feature van Xenserver, Intellicache genaamd... Het is op zich niet zo onlogisch dat Citrix producten mooi met elkaar integreren. Het is meer een gemis van Hyper-V of VMWare dat ze zoiets niet hebben...
en jij het daar natuurlijk ervaring mee in het beheer enzo... of nee maar je doet gewoon alsof om er een +1 mee te schoren zonder dat je weet waar je over praat, want face it je geeft ook werkelijk geen enkel aanknopingspunt of bron waaruit blijkt dat jij het wel hebt begrepen.

ik heb wel wat ervaring met thin clients al was dat uit een tijd waarbij gbit lan nog niet aan de orde was, net zo min trouwens als een composited desktop, maar dat verhaal van die lag daarin kan ik me nog best redelijk vinden ook al zijn er mogelijkheden om die flink binnen de perken te houden.

als je verder nog eens wat wilt weten over dit soort gein ga dan eens spelen met RTSP dat geeft al een redelijke kijk op hoe dingen ongeveer werken, al haalt het 't natuurlijk niet bij een echte xen omgeving (waar ik overigens in de nabije toekomst nog eens mee wil gaan spelen).
Ben op dit moment druk bezig met een project waarbij de haalbaarheid van een VDI omgeving getest wordt en verschillende omgevingen van Citrix, VMware, Quest en Redhat beken worden dus ik weet zeker wel waar ik het over heb.

Als je het over lag gaat hebben dan heb je gewoon geen flauw idee waar je het over hebt, zeker als je dat gaat gebruiken als argument om geen fan te zijn van Citrix. Dan kan je geen fan zijn van het op afstand benaderen van een werkomgeving maar om dat specifiek Citrix aan te rekenen? Daarnaast, met alle functionaliteit van HDX tegenwoordig kan een ervaring gegeven worden die erg lijkt op dat van een lokale desktop, zeker over LAN en zeker met wat krachtige servers en thin clients.
Als je lag merkt dan is dat altijd veroorzaakt door een slechte configuratie of dat er doelbewust gekozen is voor een slechtere user experience om op systeembronnen te besparen.

[Reactie gewijzigd door Tsurany op 17 november 2010 15:34]

Om maar even een voorbeeld te geven ove de kracht van Citrix. Gisteren avond/nacht via Altiris totale farm opnieuw ingespoeld, dat op een doordeweekse dag en iedereen gewoon volgende morgen weer aan het werk. Dat is 1 van de voordelen van Citrix want je hoeft geen rekening te houden met de "Clients". En volgende keer weer een aanpassing in de test servers, Altiris en Wisdom jobs aanpassen en de farm wordt opnieuw uitgerold :)
Behalve de termen is dat niet iets citrix-specifieks. Automatische server configuratie, clustering en niet elke client los op de server configureren is niet nieuw, en hoeft ook niet duur te zijn. Zelfs een hobbyist kan een enterprise omgeving opzetten met zeer goede performance (in de vorm van: alles werkt snel en vlekkeloos; iedereen kan zijn taken met 100% efficientie verrichten) met de juiste kennis. Het is als het goed is nooit het product, als dat wel het geval is, is er iets mis met de kennis.
Ze zijn economisch zeker waardevol. Voor mensen die van plaats (dus van desktop) verwisselen, en mensen die een laptop hebben voor onderweg maar op hun desktop (als ze daar nog op werken) hetzelfde bureaublad en instellingen willen hebben. Het enige nadeel, werk je via een extern netwerk, dan kan het opstarten nog wel eens wat langer duren ivm het syncen van je roaming profile. Op Philips HR werkten we er niet mee omdat mensen altijd een vaste werkplek hebben.
Lijkt me ook niets ijgenlijk :S
dan moet al je data dus ook je OS door een netwerkkabeltje gaan, of ik moet het verkeerd begrijpen maar waneer de nieuwe windows zo word houd ik het bij mijn vertrouwde windows 7. Ik heb geen zin in een trage computer.
Persoonlijk zie ik het niet zitten omdat ik weet wat voor rommel je krijgt met Citrix, Hoblink, RES powerfuse omgevingen. Er zit altijd een mythische lag in en disconnects door oorzaken die niet te monitoren zijn. En ja, ik weet waar ik het over heb.. Momenteel zit ik midden in die materie. :(
wij zitten hier ook met citrix 1 magazijn en 4 andere vestigingen. die allemaal zonder problemen werken. laat staan onverklaarbare :+

ik zie hier juist wel de toekomst in. het makkelijk veiligstellen van gegevens.
de gebruiker met een kapotte computer binnen notime op andere hardware met zijn OS programmas en data weer aan de gang.

[Reactie gewijzigd door Proxx op 17 november 2010 13:03]

Totdat de server kapot is ... :O
Totdat je eigen computer kapot is...

Het hele voordeel hiervan (voor bedrijven) is juist dat je data en applicaties niet op je eigen k** computertje staan, waardoor maanden werk verloren gaat als iemand weer eens geen backups maakt. Maar dat alle data (ook) op een redundant uitgevoerde server staat en dat die data op die server netjes gebackuped kan worden (off site als je het goed doet).

Verder hebben we het hier niet percee over een thin-client optie. Van deze info zie ik meer zo dat je data gedistributeerd wordt naar die computer waar je op werkt. En dat daarna de computer zelf de berekeningen en dergelijken voor rekening neemt.

@Floor:

ChromeOS is iets compleet anders, als je dit met elkaar vergelijkt heb je het echt niet begrepen. De vergelijking met Citrix is correct, maar ChromeOS is (waarschijnlijk) een OS dat eigenlijk alleen een browsers is en dat websites als applicaties draait. ChromeOS is meer Cloud, Windows Next is meer ja ehm.. hoe noem je dit "Distributed Workspace"?
Het gaat neem ik aan hier alleen om applicaties. Als Microsoft alle data van alle gebruikers online op moet gaan slaan dan moeten ze toch echt uit gaan breiden (de gemiddelde particuliere gebruiker heeft waarschijnlijk flink wat Gb aan foto's, muziek en documenten). Trouwens, een bedrijf dat maandenlang geen backup maakt moet volgens mij eens goed gaan kijken naar de ICT-manager: volgens mij is deze incapabel.
Je hebt ten eerste meerdere servers nodig in veel gevallen en daarnaast altijd deze servers redundant uitgevoerd zodat gebruikers altijd overgeplaatst kunnen worden. Daarnaast valt een server veel minder vaak uit dan een desktop.
Enkel als een server uitvalt heb je al snel tientallen tot honderden gedupeerde gebruikers.
Totdat de server kapot is ... :O
Citrix = Farm, meerdere servers :)
File & Printsharing = Clusters :)
DFS = Meerdere mirrored root's :)
SQL = Clusters
Webapps = NLB of Clusters :)

Dus Thin Client kapot. Nieuwe neer zetten, in altiris aanmelden, image er op pompen en werken.
Server is brak, in beheer nemen, Altiris jobs er naar toe slepen, en 2 uur later een nieuwe server :)
En dan ben je eigenlijk alweer 'ouderwets bezig'. Citrix provisioning server, brakke server, opnieuw opstarten, 1 minuut later schone server.

Heb je puur Citrix nodig op een thin client dan configureren met een configuratie bestandje, niets meer aanmelden of image pompen. Vervangen en klaar. (wil je meer op een thinclient, en je gaat naar Windows XPE/CE etc. dan ga je wel naar een image toe).
Grapjas, tijd om een beheerder met verstand van zaken in te huren.
Jaren lang met citrix gewerkt over een telefoonlijn, 4 clients aan de andere kant en het werkte voortreffelijk. Niet super snel, dat kan uiteraard niet maar er was zeker goed mee te werken.

Ontopic, goh, Microsoft is geïnspireerd door Google's Chromium. En ja, dit heeft zeker een vruchtbare toekomst.
Chromium? Bedoel je niet ChromeOS.
Chromium is de open source versie van de Chrome browser.
4 clients.. waar heb je het over, dat stelt natuurlijk niets voor. Bij bedrijven heb je tientallen, honderen, of zelfs duizenden clients.
Als ik het goed begrijp werk je hierbij juist niet als een terminal, maar als een volwaardige desktop, waarop userdata compleet transperant overal beschikbaar is. Hoe dit precies zou moeten werken is mij nog onduidelijk, maar ik denk dat je in de richting van terminal/thinclient meets roaming profiles moet denken.
Ik denk dat het met een goede technische onderlaag zo mogelijk is om disconnects, lag en meer dies zij moet kunnen oplossen danwel voorkomen, immers staan de applicaties en userdata op dat moment lokaal op de PC.
Waar je aan moet denken is VDI maar dan verder ontwikkelt.
Dat ligt meer aan de implementatie van de Farm. Want RES+Citrix+Win 2k8 64 bit is gewoon een killer app. 100 man op een server geen enkel probleem, geen last van lag en dat terwijl we over 500+ remote locaties spreken en 1000 man simultaan aan het werk zijn. Wanneer je bedenkt dat de beheerders een "dikke pc" hebben staan, kiezen de meeste er voor om via Powerfuse te werken omdat de tooling daar zo netjes is ingericht en de boel goed performed.

Je moet natuurlijk wel een goede infra er achter hebben voor de databases, fileshares, dfs etc. etc. Maar dat geldt voor iedere implementatie.
Het is niet syncen met de cloud; alles zit IN de cloud. Het enige wat jij hebt is een hardwareplatform waarmee je op de cloud inlogt (zelfs het OS zit in de cloud. Microsoft gaat hiermee vooral de concurrentie aan met Citrix en aanverwanten.

[Reactie gewijzigd door Spacecowboy op 17 november 2010 13:42]

Vraag me af of Microsoft echt de concurrentie met Citrix aan zal gaan, ze verwijzen immers altijd naar Citrix als de ideale aanvulling op Microsoft bij VDI en RDS omgevingen, Citrix is juist een van de beste partners van Microsoft.
Bovendien, Citrix heeft meerdere producten, onder andere XenApp en XenDesktop, en daar zit nog wel een verschil in.
Wat zie je niet zitten? Dat Microsoft de mogelijkheid levert? Nergens staat dat je verplicht bent om het model van VHD's, profiling en App-V aan te houden voor die ene PC die je thuis hebt staan.
Je kan toch je vhd op een netwerk share zetten?
Volgens mij is het idee hier dat je die 'cloud' op je eigen PC draait, met als mogelijkheid een aparte OS versie voor iedere applicatie te gebruiken.
Dat je dat de mogelijkheid geeft hem ook ergens anders te draaien is dan leuk meegenomen...
Voor beheerders binnen bedrijven is het wel prettig, net als voor de gebruiker. Ik heb echter onder de "normale" mens buiten het bedrijfsleven regelmatig geinformeerd wat men van dergelijke initiatieven vindt en daar zijn de meningen niet bepaald positief over. Er zijn teveel haken en ogen aan voor veel mensen. Teveel single point of failures, zoals de internetverbinding, hun eigen toegangspunt, de dienst/service zelf, corruptie in "the cloud", en security concerns. En dat laatste viel me op, juist omdat de gemiddelde thuisgebruiker veiligheid niet zo hoog in het vaandel lijkt te hebben staan. Maar zodra ze hun eigen ding uit handen moeten geven, komt ook dat wel degelijk, ook bij hen, om de hoek kijken. En dat vind ik een goede zaak.
Dat lijkt dus sterk op bestaande Thin Client systemen...? Overal waar je inlogt hou je jouw OS, instellingen, documenten en applicaties?
Was dat niet allang zo, iets met zwevend profiel?
Ja alleen (volgens de screens) heb je nu in Win 7 apps die los staan van het OS (en daarmee los staan van de hardware) waar in de Windows Next zelfs het OS van de hardware los komt te staan (idd in de trend van terminal services alleen dan iets verder doorgevoerd zoals hier onder al gezegd is)
bij roaming profile moet je nog wel binnen een bestaand netwerk inloggen (of met wat tooling via een VPN oid), ook ben je nog afhankelijk van de geinstalleerde windows versie (Roaming Profile binnen een Win2k omgeving naar een Win7 machine laten lopen zal niet direct zonder horten of stoten gaan).
Zoals ik dit lees krijg je hierbij een volledig persoonlijke softwareomgeving, waarbij er geen OS meer op je hardware geinstalleerd staat, maar waar je gebruik maakt van een virtuele schijf (in netwerk?).

Overigens, als je de tweede slide pakt, dan zou de volgende stap na Windows Next moeten zijn dat ook je hardware gevirtualiseerd wordt ;)
Verder nog aan toevoegen dat een zwevend profiel een verzameling aan bestanden is die wordt heen (bij aanmelden) en weer (bij afmelden) gekopieerd tussen de server en het werkstation. In dit geval blijven alle bestanden op de server staan...
Met thin-clients is er meestal sprake van een gedeeld OS, en vaak ook gedeelde applicaties, alleen instellingen en documenten worden per user opgeslagen. De oplossing van MS gaat verder.
En wat is daar het nut van? Meer licenties verkopen?
Nee, pertinent onzin. Met een thin client kan toegang worden verkregen naar een virtuele desktop omgeving. Dat kan een terminal server zijn, wat een gedeeld OS is, maar ook een VDI omgeving wat juist geen gedeeld OS is maar waar ieder zijn eigen OS heeft. Dit is gewoon het voortborduren op deze ontwikkeling.
Dat lijkt dus sterk op bestaande Thin Client systemen...? Overal waar je inlogt hou je jouw OS, instellingen, documenten en applicaties?
Dit gaat wat verder dat thin client of profiel. Bij een thin client draait (ruwweg) het hele OS op een server. Bij zwevende profielen wordt het profiel gesynced. Hier wordt het hele OS gesynced, maar draait en staat het wel lokaal.
Ok ze willen hiermee zorgen dat alles beter zal werken. Maar hoe zal het eigenlijk met de prestaties zijn gesteld?
Ik denk dat sommige software door de virtualisatie van de OS langzamer gaat draaien of zie ik dat nou verkeerd?
Voorbeelden?

In veel gevallen vergeet men inderdaad wel om iets meer geheugen of CPU te alloceren voor volledige gevirtualiseerde omgevingen maar over het algemeen valt het wel mee qua performance-verlies. Ook is de keuze van de goede hypervisor erg belangrijk en loont het zelfs soms om verschillende hypervisors in te zetten voor verschillende OS'en, onder andere vanwege een financiele kwestie omtrent licenties.
Ik draai xp nog wel is onder Virtualbox onder Ubuntu en dan merk je echt wel dat het een stuk trager is. Als je 1 ding tegelijk doet dan is het nog wel te doen, maar zodra je ook maar een beetje wilt multitasken word het echt heel veel trager. Nu lijkt het me sterk dat ze een heel os gaan virtualiseren per applicatie, maar het zal er zeker niet sneller op worden. Dus weer veel mensen die weer een nieuwe computer kopen omdat hun 2 jaar oude computer te traag word :) De hardwarefabrikanten zullen wel blij zijn met Microsoft.
Je kan in Linux op zoveel mannieren virtualiseren. Ik weet niet of het met virtualbox kan maar je kan er voor kiezen om 1 processor van bijvoorbeeld een dualcore aan je virtual machine toe te wijzen ;) (Moet je wel meerder fysieke cores hebben)

Heb je KVM gecompileerd in je Kernel? Dat kan vooral onder linux veel schelen. :Y) --> KVM werkt met ubuntu nogal slecht overigens, schijnt het.

Wat betreft dit nieuwsbericht is dit niet gewoon met een beetje marketting het licht opnieuw uitvinden? Zoals ze hierboven al aangeven je krijgt zoiets als met Citrix en Xen allang gedaan kan worden toch?
Ik heb 2 virtuele cpu's ingesteld, maar ik heb nergens nog een optie gezien om echt 1 core toe te wijzen. Bovendien gebruik ik gewoon de standaard pae kernel, dus die zal denk ik geen KVM hebben. Wel bedankt voor de tip, wellicht ga ik er nog is mee kloten om het wat sneller te krijgen, kheb ooit een kerneltje gecompileerd bij een poging om Gentoo te instaleren, dus dat moet wel lukken ;)
Als het wat aan prestaties in zou boeten gooi je er gewoon snellere hardware tegen aan, die is tegen de tijd dat dit "OS" uit gaat komen beschikbaar en gangbaar.
Lijkt me allemaal heel oninteressant voor particulieren.

Wat ik zou willen: dat alle programma's/games zouden verplicht worden hun instellingen/saves op dezelfde plaats te zetten (My Documents bvb). Dat zou backup zoveel transparanter en gemakkelijker maken.
Ms kan dat niet verplichten zonder een vrijheid weg te nemen die veelal wel goed wordt gebruikt.
Jij kan stemmen door het programma/spel niet te kopen. Dat heeft de producent niet graag en hij zal dan de programmeur die de guidelines niet wou volgen onder handen nemen.
Jij kan stemmen door het programma/spel niet te kopen
Ik denk dat er bijna NIEMAND bestaat die dat zou doen om die reden.
Lijkt me allemaal heel oninteressant voor particulieren.

Wat ik zou willen: dat alle programma's/games zouden verplicht worden hun instellingen/saves op dezelfde plaats te zetten (My Documents bvb). Dat zou backup zoveel transparanter en gemakkelijker maken.
Windows ondersteunt (vanaf Windows 7) symbolische links, daardoor kun je dus in principe alle userdata in één directory kwijt, maar maak je verwijzingen voor de spellen die zoiets niet direct snappen.

Andersom kan ook: Vanuit je profiel-directory maak je links naar waar de data zich daadwerkelijk bevindt, het gedrag (in geval van profiel-backups) blijft hetzelfde.
Slim idee om de links in je profiel-directory te zetten. Alleen moet je dan wel opletten dat niet de links maar de inhoud terug gezet wordt.

Ook zou je dan tijdens het restoren moet opletten dat je eerst de links opnieuw aanmaakt voordat je de bestanden terug zet of de bestanden achteraf op de juiste plek zet en dan de links opnieuw aanmaakt.
"Klanten ervaren problemen met compatibiliteit van applicaties, zien dll-hell, hebben niet de mogelijkheid efficiënt te beheren, krijgen te maken met hoge kosten voor beheer en upgrades en zien zich geconfronteerd met een relatief korte levensduur. Dit kan zo niet langer doorgaan."
Goh... allemaal zaken die een OS zou moeten oplossen... Oftewel herstructureer Windows nu eens dat dit zonder lapmiddelen gedaan kan worden. Virtual Apps zijn een oplossing voor het blijkbaar ingewikkelde distributie en beheermodel van Windows...
Niet volledig... Virtual Apps kunnen elkaar alsnog bijten omdat bepaalde DLL's, zoals die van Office, ook onderling uitgewisseld moeten worden met zoiets als Exact of een HRM-systeem etc. Betekent dat je voor elke app die DLL's (of zelfs gedeelten van de Office-installatie) mee moet packagen en in andere gevallen dat meerdere virtual apps elkaar niet eens zien als ze tegelijkertijd zijn opgestart omdat onderling niet bepaald kan worden welke app welke "lock" op welke DLL heeft gelegd.
Niet volledig... Virtual Apps kunnen elkaar alsnog bijten omdat bepaalde DLL's, zoals die van Office, ook onderling uitgewisseld moeten worden met zoiets als Exact of een HRM-systeem etc. Betekent dat je voor elke app die DLL's (of zelfs gedeelten van de Office-installatie) mee moet packagen en in andere gevallen dat meerdere virtual apps elkaar niet eens zien als ze tegelijkertijd zijn opgestart omdat onderling niet bepaald kan worden welke app welke "lock" op welke DLL heeft gelegd.
Apps die elkaars DLL gebruiken zijn in principe al niet de bedoeling: in principe moet elke app kunnen draaien in zijn eigen sandbox met aparte versies van de DLL's. Een 'schone Windows' waarin je elke applicatie draait, zal ik maar zeggen.

Als je een suite hebt die DLL's gebruikt voor IPC (interproces-communicatie) dan heb je gewoon een smerige hack te pakken, omdat applicaties in principe worden verwacht van elkaars geheugen af te blijven, en zelfs niet van het geheugen van een andere applicatie te weten. Als je een IPC-mechanisme gebruikt, dan moet zoiets op zijn minst door het onderliggend OS worden afgehandeld, bijvoorbeeld door een netwerkverbinding (TCP of UNIX domain sockets) of een gedeeld bestand (al dan niet in geheugen).
Eens maar maak jij dat even de programmeurs van bijvoorbeeld de Microsoft Office suite wijs... Als jij voor bepaalde mensen alleen Word 2010 wil aanbieden, voor anderen alleen Outlook 2010, dan ben je eigenlijk verplicht om Word+Outlook te packagen omdat Outlook-users misschien Word als mail-editor willen gebruiken en Word-gebruikers verwachten dat ze via File -> Send as Attachment iets kunnen wegsturen. En dat gaat echt niet werken als je Word in een package stopt, Outlook in een andere package en dan in sommige gevallen beide sandboxes met elkaar wil laten praten.
Prachtig voorbeeld dat het Microsoft zelf is die deze troep heeft gecreëerd en zelf instant houd. Een optie als File -> Send as attachment zou nooit naar Outlook mogen kijken, maar hoort dit via het OS te doen. Welk programma (mail client) er vervolgens wordt opgestart is dan niet meer van belang. Alle IPC data zou via het OS moeten lopen.
Microsoft Office is echter geen goed voorbeeld hiervoor omdat het één pakket is waarbij je ook nog in je voorbeeld dezelfde versie hanteert.

Het feit dat voor Outlook Word de enige externe editor is en Outlook de enige email client is die Word kan aanroepen heeft niks met gedeelde DLL's te maken maar met de functionaliteit die bij het pakket hoort.

In de realiteit zal het zelden in een werksituatie voorkomen dat Outlook of Word los van elkaar gepackaged moeten worden. In je eigen voorbeeld geef je aan dat dit vanuit het gebruikers standpunt niet logisch is omdat ze het allebei gebruiken. Of heb je daar zelf ervaring mee?

Toch is het mogelijk om beide programma's los aan te schaffen en zouden dus onafhankelijk van elkaar moeten kunnen werken, hoewel functionaliteit die bij het zuster programma hoort dan niet beschikbaar zal zijn.
Idd, omdat Windows alles zo brak geïmplementeerd heeft gaan ze dit met allerlei workarounds oplossen, en als ik dit zo lees zal het ook weer een stuk zwaarder worden allemaal.
Windows is helemaal niet "brak". En ik neem aan dat het niet zwaarder wordt, want ze willen een snellere boot-tijd.

[Reactie gewijzigd door calvinturbo op 17 november 2010 15:53]

De boot-tijd heeft niet direct iets te maken met hoe zwaar een os is.
Hopelijk zal dit ook vlot draaien, want niet iedereen heeft vritualisatie uitbreidingen in zijn CPU (lower end Intel, bvb). AMD gebruikers zullen dan eerder blij zijn :-)

Maar ja, dit zal mogelijk toch nog een 6 jaar op zich laten wachten :p
In 2012 moet Windows 8 uitkomen.

De beta vermoed ik eind 2011 :)

Wat jullie allemaal missen is dat met de Virtualisatie van het OS en user state sync dat als je inlogt op je tablet dat je hele profiel er op gesynct krijgt. Virtualisatie zorgt ook voor instant on van applicaties, het OS en background services.

Het aller grootste voordeel is dat ongeacht welke hard ware, alle applicaties draaien virtueel en alle Windows 8 machines kunnen de applicaties draaien. Omdat applicaties in een virtuele laag zitten, zijn de applicaties instant on.

Vooral met SSD's zal virtualisatie erg snel aan gaan, misschien zal dit over 2 jaar een vereiste za lzijn net als een CPU die virtualisatie aan kan.

Als die slides kloppen zal het een erg veilige OS zijn.

[Reactie gewijzigd door Hyperik op 17 november 2010 13:15]

misschien zien ze ook de concurrentie van Chrome OS aankomen... Google heeft nu duidelijk gemaakt dat het niet voor Tablets is, maar misschien is het wel een dark horse op het gebied van desktop OS
Ik denk dat het gewoon een logische vervolgd is op alle ontwikkelingen van de afgelopen jaren mbt het internet, applicaties draaien steeds meer online of in de cloud, virtualisatie (hyper-v), App-V, de aankoop van Calista met Remote FX. ga maar door.. Je bent steeds minder afhankelijk van het operating system. Zo hebben ze tenminste nog grip op de situatie en kunnen ze er nog iets op verdienen.
Het lijkt er steeds meer op dat Microsoft naar de echte computers zo als de IBM Z serie heeft gekeken en gedacht hmm, dat kunnen wij beter. Nu is dat laatste natuurlijk niet waar maar voor de rest lijken we toch echt op een terminal based systeem terecht te gaan komen, waarbij een centrale server alle werk doet en jouw eigen systeem niet meer is dan een dumb client met wat invoer apparatuur en een printer.
Ik denk dat het altijd goed is om naar de concurrentie te kijken en het vertrouwen te hebben zelf dingen beter te doen. Microsoft is daar héél goed in, net zoals de andere innovatieve bedrijven.

Ja, je hebt gelijk dat het een variant is op wat al eerder een keer bedacht en uitgevoerd is. Wel zou het kunnen zijn dat dit idee, wat tot nu toe niet massaal is toegepast, in de vorm gaat aanbieden wel enorm populair zal zijn. Dan is er toch iets wat verschil uitmaakt, en ook dat, of het leuk vind of niet, is innovatie.

Overigens zal het in de meeste gevallen de printer niet rechtstreeks, op je eigen bak aangesloten zijn, maar een netwerkprinter zijn, zoals we al zo'n 15 jaar gewend zijn. De enige uitzondering is natuurlijk de mobiele gebruiker, zoals een vertegenwoordiger die offertes bij de klant uitprint, die z'n eigen printer mee sjouwt.
Kijk eens goed naar de datum onderaan de slideshow.
Of het is oud nieuws en daarom dus oninteressant of het is een verlate 1 april grap:
Je OS virtualiseren, ik kan er goed om lachen.
Kom je s'morgens op je werk, start je samen met 100 andere collega's je computer op, Even 100 * 30 GB = 3 TB virtualiseren over het netwerk. ............... Even wachten ....... nog even wachtem ........ nog even wachten.... Tijd om naar huis te gaan.
cache, mutlicast en "even-kijken-naar-hoe-Softricity-(huidige App-V)-eigenlijk-werkt"
Het starten van een OS via een streamed VHD is natuurlijk verre van ideaal, het OS in het datacenter virtualiseren waarbij gebruikers door middel van een thin client deze desktop benaderen is al een stuk realistischer. Daarnaast heeft Citrix met zijn XenClient allang een mooie combinatie van een lokale hypervisor en een viruteel OS in het datacenter waarbij enkel de delta's gesynchroniseerd worden.

Daarnaast is het zo dat je echt niet 30GB op hoeft te halen om het OS te kunnen starten, XP kan je al met een paar honderd MB starten.

[Reactie gewijzigd door Tsurany op 17 november 2010 15:38]

XP gebruikt een paar honderd MB ram bij opstarten ja :X
Bovendien is XP ook al 9 jaar oud als ik me niet vergis, windows 8 zal wel wat zwaarder zijn dan XP neem ik aan.
Uhm opstarten, als je goed virtualiseerd heb je toch amper hardware nodig (zoiets als x2g0 op linux/unix) Dus dan zuipen die clients amper stroom waardoor ze gewoon de hele nacht aan kunnen blijven staan :Y)

Hoezo opstarten :X

Het blijft grappig dat omwille van een OS wat meestal alleen moet mailen,text verwerken we de gehele harware gaan upgraden! 8)7

Probleem is als je het niet doet zijn sommige dingen niet meer compatible met elkaar. :?
Kom je s'morgens op je werk, start je samen met 100 andere collega's je computer op, Even 100 * 30 GB = 3 TB virtualiseren over het netwerk. ............... Even wachten ....... nog even wachtem ........ nog even wachten.... Tijd om naar huis te gaan.
/strijk :p
Dit gaat natuurlijk niet op één enkele disk van 3 TB, maar op een storage solution en netwerk wat dezelfde performance als 100 losse disks kan leveren, voor een prijs die concurreerbaar is met die 100 losse disks.
is in principe hetzelfde effect als een Thin Client systeem alleen krijg je nu dat iedereen alles in de cloud heeft. Het is namelijk dan zo dat je je computer aanzet en vervolgens gelijk de gevirtualiseerde omgeving krijgt hoe dit vorm gegeven wordt is nog geheel onduidelijk, maar nu krijg je dus ook de Microsoft variant hiervan zien (vorige week ook een artikel uitgekomen over de jolicloud die uit gaat komen (klik hier) en dit is zijn concurrent.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True