Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 21 reacties
Bron: StoragePipeline

AMD zal morgen een toolkit uitbrengen die softwareontwikkelaars in staat stelt om de mogelijkheden van AMD's virtualisatietechnologie 'Pacifica' te verkennen, schrijft StoragePipeline. 'SimNow', zoals het product is gedoopt, is een processorsimulator die met de Pacifica-code is uitgerust, zodat developers zich vertrouwd kunnen maken met de ontwikkelomgeving van AMD's volgende generatie cpu's. Chips met Pacifica-ondersteuning worden begin volgend jaar op de markt verwacht. 'Ontwikkelaars hebben zo de hardware niet nodig om toch te kunnen zien hoe de technologie gebruikt kan worden en toepassingen te bouwen', aldus Margaret Lewis van AMD. Ook Intel zal naar verwachting volgend jaar met zijn Vanderpool-virtualisatietechniek komen. Beide fabrikanten verwachten dat de processorsupport nodig is om efficiënter en veiliger virtuele procesomgevingen te creëeren. Momenteel is de gebruiker die meer besturingssystemen simultaan wil draaien nog aangewezen op softwarematige oplossingen van onder meer Microsoft en VMware.

Virtualisatie: screenshot van pc die Linux en driemaal Windows draait
Virtualisatie: pc die RedHat en driemaal Windows draait
Moderatie-faq Wijzig weergave

Reacties (21)

Wat ik vooral knap vind is dat zowel intel als amd tegelijk met hetzelfde soort dingen bezig zijn. Nu is het allebei visualisatie, ervoor allebei 64-bits x86... ik vraag me soms af of dat het niet in de weg staat echt nieuwe dingen te verzinnen en niet bang te zijn dat incompatibiliteit met de concurrent nadelig is.

Wat ik verder een beetje vreemd vind: wat is hier nu eigenlijk nieuw aan? Vmware bestaat al tijden en als je nog niet gebakken chips wil uitproberen gebruik je een fpga. De laatste twee zinnen doen trouwens vermoeden dat die visualisatiemeuk nodig is om virtuele omgevingen te creëren :? ?

Vergeef me m'n scepsis, maar ik vraag me eigenlijk vooral af wat voor support er nu nodig is voor virtuele procesomgevingen, dat lijkt me het interessantste hierin en is tegelijkertijd het vaagst :) .
In softwarematige virtualisatie draait een besturingssysteem onder het andere. Met deze hardware aanpassingen komen ze naar een variant toe waar deze systemen (meer) naast elkaar kunnen draaien. Het 2e systeem is dan dus minder afhankelijk van het 1e, wat een hogere stabiliteit en bruikbaarheid met zich meebrengt.
Waar jij het over hebt is een softwarematige virtualistatie.

Pacifica is een hardwarematige oplossing voor virtualisatie, dit zal waarschijnlijker alles veiliger en sneller maken.

Dit is een softwarematige simulatie van deze hardware zodat developers vast software kunnen ontwikkelen hiervoor, die dus pacifica gebruiken voor de virtualisatie.
mss een domme vraag... maar dat plaatje.. draait hij ze nou alle 4 tegelijk of zijn dat gewoon screenshots van meerdere OS op 1 schermpie!?... (kben niet echt bekend met virtualisatie technieken)
Er wordt gebruik gemaakt van software die een hardware omgeving nabootst, de 4 OSen draaien dus tegelijkertijd op hetzelfde systeem naast elkaar!
Yeah, hij heeft dus in ieder schermpje een OS draaien die weer Linux of Windows of NetBSD of whatever kan zijn.

Op mijn Windows XP laptop heb ik bijv. Virtual PC (dat wat MS nu gekocht heeft en onder zijn eigen hoed heeft). Daar draai ik nu twee versie van Linux op. Er prachtig, want nu kan ik simultaan dingen testen en doen.

Let wel ... de meeste Virtuele omgevingen zullen een algemeen bekent stuk hardware nabootsten. De virtuele omgeving zal de vertaling doen tussen al die virtuele hardware op je echte hardware.

Bijv. Ik zie in mijn Virtual PC een algemene Pentium processor met 2MB Cache (gelijkwaardig met een pentium 3 qua instructieset).
Of een algemeen bekent 3Com kaartje (ook al is het een Broadcom met gigabit).

Met Xen (iets voor Linux alleen) werkt de Virtuele Omgeving niet als programma met een zwik drivers die in je systeem zitten geplant, maar is het direct op kernel niveau bezig.
Dit betekent dat je op de echte hardware zit te bewegen die door de Virtuele omgeving wordt gestuurd (als een gekke soort kernel via de echte).
toch een leuke optie voor in de dual core dacht ik
Ze komen in 2006 al uit met quad cores, en daar zal de nieuwe Windows feilloos op draaien. Tis alleen afwachten of deze Quad's dan worden uitegrust met deze techniek.

Ik zie Intel wel steeds "banger" worden voor AMD, zeker door hun nieuwe technologische ontwikkelingen. Ik zie dan ook niet in dat Intel Apple zoveel in het vooruitzicht stelt, niet aan de roadmap af te lezen iig.

Maar als trouwe Intel gebruiker zie ik me binenkort toch wel een keertje vreemdgaan en kijken of daar een permanent huwelijk uit kan voortkomen, met andere woorden, AMD wint steeds meer sympathie bij mij, zo ook bij mijn omstanders, aangezien die ik altijd adviseer omtrend hardware :+
Ik snap het nut niet van deze techniek.

Een volgende stap is natuurlijk dat er software ontwikkeld wordt om communicatie tussen de verschillende processen te realiseren. Hierdoor wordt het mogelijk de verschillende processen te bedienen vanuit 1 van de processen, zoals de situatie nu is met 1 OS en meerdere Apps, toch?
Puur voor de desktopgebruiker is er ook niet echt een voordeel. Het is meer praktisch voor de mensen die meer willen doen met hun computer.
Verschillende OS'en op hun systeem tegelijkertijd draaien. Voor ontwikkeling, testing of gewoon de lol.
Qua servers is dit wel eerder interessant omdat je dan meer kwijt kan op 1 computer zeg maar. Bijv per klant een eigen virtuele computer om webhosting of iets dergelijks te realiseren.
Webhosting lijkt me niet zo een handige toepassing, daar heb je al andere technieken voor. Ik zat zelf te denken aan support afdelingen van grote softwareleveranciers. Voor elke klant kunnen ze nu de situatie exact nabootsen om zo beter problemen te reproduceren.

Een andere toepassing is het emuleren van legacy systemen zonder vast te blijven zitten met oude hardware of applicaties die een specifiek OS vragen. Tijd terug gingen er geruchten dat Microsoft op deze wijze alsnog support zou kunnen leveren voor organisaties die nog steeds met applicaties zitten die alleen op NT draaien (ministerie van justitie bijvoorbeeld). Deze organisaties kunnen nu toch upgraden naar de nieuwste versies van een windows server en dat ene programma dat NT vereist kan zo gebruikt blijven worden. Waarschijnlijk ook de reden waarom Microsoft het pakket Virtual PC en heel Connectix heeft opgekocht.

VMware heeft trouwens een versie om een software image van een fysieke server te maken en deze dan op een andere fysieke server te draaien. Handig als die oude legacy server het begeeft. Hoef je niet naar oude meuk te zoeken om het werkend te krijgen.

Eerder vandaag was er al een verhaal dat VMWare haar broncode gaat delen met andere bedrijven, waaronder AMD (zie http://www.tweakers.net/nieuws/38399). Wellicht dat AMD gewoon VMWare in hardware gaat bakken ofzo?
Webhosting lijkt me niet zo een handige toepassing
Webhosting is wel degelijk een handige toepassing.
Op dit moment heb je bij hosting providers ruwweg 2 opties:

* Meedraaien op een bestaande webserver, met de daarop standaard geinstalleerde software (meestal Apache, PHP, MySQL, en nog wat meegeleverde CGI-dingen en tooltjes), of

* Een eigen server neerzetten waarop je zelf mag bepalen wat je wilt draaien.

Met virtualisatie op bv. een uit de kluiten gewassen 8-CPU machine met voldoende geheugen en opslag kun je zonder problemen 16 of 32 'omgevingen' draaien.
Heb je dan bv. voor 1 site Oracle 10 nodig, maar wil je niet de licentiekosten voor de overige 31 sites ophoesten, of wil je als enige IIS, ASP.NET en MSSQL draaien? Dan kan dat, zonder dat je er een extra machine voor hoeft neer te zetten.

Mainframes werken al jaren op een soortgelijke manier...
Ik snap het nut niet van deze techniek.
Een interessante optie is het overigens voor gamemakers. Men heeft een aantal eisen die door gangbare OSen in de weg worden gezeten. Een idee dat al geopperd is, is het schrijven van games die hun eigen OS bevatten. Die zullen dan minder bugs dan normale OSen bevatten, aangezien ze veel minder hoeven te doen en aan te sturen, en wellicht ook sneller werken omdat het OS minder bronnen gebruikt. (Je andere OS laat je gewoon 'idle' draaien) Als laatste wordt het mogelijk moeilijker de spellen te kopieren als deze niet vanuit een OS bestuurd en opgestart kunnen worden. Dat zou nu ook kunnen, maar dan zou de PC iedere keer overnieuw opgestart moeten worden om van normaal OS naar Game en terug te switchen.

Dus het heeft met name zin als je snel wilt switchen tussen besturinssystemen met specifieke eigenschappen, zoals bijv. een Linux-distro speciaal aangepast voor muziek, met low-latency kernel etc., en je zou ook een speciaal OS kunnen toewijden aan e-mail en browserverkeer, aangezien dat het meest virusgevoelig is, en dan gevoeilige documenten 'onder een ander OS' bewaren. Ook kan het zijn dat je App X graag onder OS 1 draait en App Y graag onder OS 2, momenteel doet bijna niemand dat (en daarom zien mensen er ook het nut niet van in) omdat je dan iedere keer overnieuw moet opstarten (of VMware of Win4Lin of emulator installeren), maar dit wordt dan mogelijk.

Tevens heeft het nut voor eindgebruikers omdat ontwikkelaars sneller/gemakkelijker, en dus goedkoper, in staat zullen zijn applicaties tussen OSen te porten.
Ook kan het zijn dat je App X graag onder OS 1 draait en App Y graag onder OS 2, momenteel doet bijna niemand dat
Of moet draaien (omdat er geen keuze is), wat mij betreft is deze techniek vooral interessant voor direct3d games op linux, gewoon xen of een andere vm gebruiken die deze technieken ondersteund en je kunt zonder performance verlies games draaien (imho een van de weinig zaken waar windows nu nog voor gebruikt hoeft te worden omdat de multiplatform support van games erntsig tekortschiet)
Ik ben erg benieuwd naar de performance van Pacifica of Vanderpool. Op dit moment kan ik op een Pentium 4 nét fatsoenlijk games draaien, die voor een 486/P1 geschreven zijn (met Virtual PC). De vertaalslag vreet dus rekenkracht. Als perfomance op een fatsoenlijk niveau komt, worden de toepassingen ook interesanter.
Virtualisatie is helemaal niet bedoeld om spellen te spelen, daar is de software helemaal niet op getuned.

VMware en waarschijnlijk Virtual PC/Server zijn gefinetuned voor CPU usage en disk/network IO.
Je vergeet voor het gemak even dat de virtuele grafische kaart (S3 Trio V32/64) van Virtual PC de bottleneck is.
Vraag me eigenlijk een ding af.
Als je straks zo hardware matig 2 OS'n kunt draaien.
Zou je die dan in split-screen kunnen tonen op je scherm, of zou je moeten switchen dmv toetsen combinatie ofzo.
Denk niet dat een huidige videokaart daarvoor gemaakt is om split-screen te tonen, dus mss weer aanpassing aan videokaart ofzo?
Ook al zal jou splitscreen mode theoretisch wel mogelijk zijn, verwacht ik dat je altijd een VM Manager moet starten op een 1 of andere manier.

Dit kan op verschillende manieren natuurlijk, maar ja ... een logisch zou zijn om een OS te hebben waarin een programma wordt gestart dat je omgeving managed op welk niveau dan ook.
Dus eigenlijk virtualisatie van virtualisatietechnologie... ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True