Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties
Bron: C|Net

Door middel van virtualisatiesoftware als Xen, VMware of Virtual Server is het mogelijk om tegelijkertijd meerdere besturingssystemen te draaien op één fysieke computer. De genoemde software is echter nog niet in staat om de processen binnen één operating system te virtualiseren in volledig van elkaar losstaande containers. Om dat voor elkaar te krijgen, zijn enkele bedrijven aan de slag gegaan en de ruwe contouren van deze software beginnen nu duidelijk te worden. Het achterliggende doel van beide virtualisatietechnieken is in grote lijnen hetzelfde, namelijk het optimaal benutten van de capaciteit van een computer door gebruik te maken van afzonderlijke virtuele machines of omgevingen die volledig geïsoleerd van elkaar opereren. Virtualisatie wordt op dit moment vooral gebruikt op servers, om taken 'fysiek' te scheiden door ze te draaien in een aparte virtuele machine.

Het tegelijk draaien van meerdere besturingssystemen is voor de meeste gewone gebruikers echter overbodig, terwijl het voor hen wel handig kan zijn om gebruik te maken van virtualisatie. Zo zouden bepaalde programma's bijvoorbeeld in een virtuele omgeving gedraaid kunnen worden om te voorkomen dat ze last hebben van of communiceren met andere processen op de computer, bijvoorbeeld in het kader van veiligheid. Deze lichte en flexibele variant van virtualisatie wordt al toegepast in Solaris 10 via de Containers, maar inmiddels is bekend geworden dat ook andere besturingssystemen de techniek gaan implementeren. Microsoft heeft bevestigd dat er gewerkt wordt aan software die virtuele containers kan opzetten en beheren. Ook vanuit Linux-hoek is interesse getoond in de technologie en wordt er al hard gewerkt aan patches die de functionaliteit aan de kernel toevoegen.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (16)

Ik vraag me eigenlijk af wat hier nu het hele doel van is: willen ze bepaalde software voor de veiligheid virtueel / in containers laten lopen? De veiligheid van die programma's staat of valt dan met de veiligheid van de VM's.

Ik vraag me af wat er in de Linux-hoek geimplenteerd zou gaan worden - Linux chroot omgevingen zijn daar al tijden gemeen goed.

Door dit alles begrijp ik de nieuwswaarde van dit bericht echt niet.

EDIT:

Ik snap prima wat virtualisatie is en zie er zeker ook het nut van in. Ik ben zelfs al aan het onderzoeken wat het voor mijn bedrijf kan betekenen. Dat haalt echter niet weg dat het soort virtualisatie dat er in het nieuwsbericht wordt besproken - een soort Linux chroot of FreeBSD jail - al jaren en jaren gebruikt wordt!

Zelfs die eigen address space is een non-argument. Bij mijn weten krijgt elk programma dat onder een *NIX loopt een address space toegewezen waar die niet buiten kan komen.
Virtualisatie biedt echt wel toekomst.

Jij kan je er niets bij voorstellen, ik zal je een voorbeeld geven:

Omgevingen waar meerdere servers op verschillende os'en draaien om een specifieke taak uit te voeren, terwijl deze vrijwel geen resources in gebruik nemen. Er zijn bedrijven die deze servers elimineren dmv vmware (esx) deze servers gezamenlijk op 1 nieuwe server te laten draaien.

Klant stapt over van zijn oude server naar een nieuwe, maar één van de applicaties kan je niet over zetten op je nieuwe besturingssysteem omdat deze niet compatible is. Deze zou je dan mbv VMware toch over kunnen zetten zodat je die oude server toch nog af kan schrijven.

Systeembeheerders kunnen optimaal gebruik maken van vmware door meerdere besturingssystemen binnen vmware te draaien en hierop testen uit te voeren voor bepaalde koppelingen/verbindingen tussen deze machines onderling.

Virtualisatie neemt een harde loop op het moment. Toekomstige hardware en software zal hier op afgestemd zijn.
het onderwerp van dit artikel is echter iets anders.

het gaat bijvoorbeeld om het recentelijk aangehaalde voorbeeld van surfen op het internet.

op het moment dat jij op het icoontje van je favoriete browser klikt wordt een soort van VM (container) gestart waarin de browser volledig geisoleerd draait ten opzichte van de rest van de machine.

als je tijdens het zoeken naar je favoriete *plaatjes* dus een hoop malware binnenhaalt, is ook hun liedje uitgezongen bij het sluiten van de browser (en dus ook het sluiten van de container.)
op het moment dat jij op het icoontje van je favoriete browser klikt wordt een soort van VM (container) gestart waarin de browser volledig geisoleerd draait ten opzichte van de rest van de machine.
Dat klopt inderdaad. In leken taal zou je het het volgende level van OS protection kunnen noemen. In antieke operating systems (Apple's OS 9, Amiga OS, Windows 3.11) etc draaiden processen nog zonder memory protection. Ze konden daardoor direct in het geheugen van andere processen en zelfs het OS rommelen (hetzij expres, hetzij perongeluk).

Moderne operatings systems voegde daarom al snel memory protection toe: elk process draait in z'n eigen virtuele address space. Om dit te kunnen realiseren is speciale hardware nodig (oa TLB's) en speciale OS support.

De volgende level waar nu aan gewerkt wordt is niet alleen de memory space te virtualiseren, maar indien wenselijk, per process de gehele machine + OS services virtueel te maken, en dat dan met hardware support.

Een VM, welke dan ook, moet echter toch een keertje communiceren met de buitenwereld. Zo heb je in VMWare bijvoorbeeld netwerk integratie, mouse pointer sharing etc. Dit werkt met drivers IN het guest OS. Als deze drivers met de buitenwereld kunnen communiceren, dan kan client software binnen het guest OS dat in principe ook. En inderdaad, er zijn al VMWare lekken geweest waar client software via deze communicatie poorten uit de viruele omgeving kon ontsnappen.
vanderpool ?

http://www.intel.com/technology/computing/vptech/

Kan iemand me het verschil duidelijk maken?
vanderpool is een goed voorbeeld van toekomstige hardware die het mogelijk maakt om programma's als vmware,xen en virtual server optimaal gebruik te laten maken van de aanwezige hardware.

Momenteel is het bijvoorbeeld zo dat het interne geheugen wat je toekent aan een VM je dit geheugen fysiek kwijt bent van je interne geheugen, dit zal ook in de toekomstige hardware gedeeld kunnen worden tussen VM's onderling.
En Pacifica van AMD

With the Pacifica technology, as well as Intel's rival offering dubbed "Vanderpool," the software needed will be built into the chip itself. While basic software is still required to switch between operating systems, the programs will be less complex and more secure than older methods.
Is dat niet wat Sun met zijn solaris 10 al gedeeltelijk had? (kan me hier vergissen hoor :P)
Is dat niet wat Sun met zijn solaris 10 al gedeeltelijk had? (kan me hier vergissen hoor )
Deze lichte en flexibele variant van virtualisatie wordt al toegepast in Solaris 10 via de Container
Ja :7
Is dat niet wat Sun met zijn solaris 10 al gedeeltelijk had?
Sun was er vroeg bij, maar IBM was de eerste, het VM OS (1966 geïntroduceerd en nog steeds in gebruik) had al virtualisation.
Daar zitten heel wat mogelijkheden in. Op die manier kan dus worden voorkomen dat bij het crashen van een programma het hele systeem crasht. Maar ook kan zo worden voorkomen dat via internet explorer bijv virussen worden binnen gebracht in andere delen van het systeem. Zou een al een hoop kunnen schelen.

Ben benieuwd hoe het gaat werken
Het achterliggende doel van beide virtualisatietechnieken is in grote lijnen hetzelfde, namelijk het optimaal benutten van de capaciteit van een computer door gebruik te maken van afzonderlijke virtuele machines of omgevingen die volledig geïsoleerd van elkaar opereren.
Ik zie de link tussen virtualizatie BINNEN een OS en efficientie niet echt. In de achtergrond heb je nl. altijd een virtualisatie process draaien en/of controller lopen die de boel in de gaten houdt.

Volgens mij is virtualizatie direct op de hardware (dus MacOS X _en_ Windows XP tegelijk draaien op een Mac) stukken efficienter: je draait meerdere OS-en naast elkaar die niet gehinderd worden door de ander omdat ze niet in elkaars vaarwater zitten en je richt ieder OS in voor aparte taken.
Check Softricity eens... Hele koele applicatie virtualisatie techniek.. http://www.softricity.com

En voor de visueel ingestelde: http://www.softricity.com/products/thesoftgrid-movie.asp
Ik vraag me af in hoeverre dit te vergelijken is met Linux VServer (http://linux-vserver.org). Ik gebruik deze al langer dan een jaar op mijn servers en lijkt precies te doen wat in de tekst wordt uitgelegd.
Altiris heeft ook al een programma: Software Virtualization Solution (SVS). Er is ook een Personal editie die je vrij mag gebruiken.
Check maar eens op http://www.svsdownloads.com.
Leuk, een compleet OS als virus :)
Moet je wel uitkijken met voorgeinstalleerde OS-sen. In hoeverre is de fabrikant te vertrouwen dat hij geen controle OS installeerd, een spyware OS of gewoon wat van je data/netwerk afsnoept.
Er komen veel leuke dingen aan die mogelijk zijn, maar ook vele gevaren. (8>

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True