Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties
Bron: AMD

AMD heeft vandaag op LinuxWorld de technische specificaties van de virtualisatietechnologie Pacifica vrijgegeven. Net als Intels Vanderpool is deze extensie op de instructieset bedoeld om het draaien van meerdere operating systemen op een machine sneller te maken. Pacifica zou in de eerste helft van volgend jaar verschijnen in server- en desktopprocessors. Volgens eerdere geruchten zou dat in de F-stepping van de K8-core zijn, die onder andere ook DDR2 zou ondersteunen.

Globaal gezien werkt Pacifica precies hetzelfde als Vanderpool: Een of meerdere operating systemen draaien als 'gast' op de machine zonder zich ergens zorgen over te maken. Zodra er iets gedaan wordt (door een gast zelf of door de hardware) waardoor de stabiliteit van het systeem in gevaar komt grijpt Pacifica in. De processor draagt op zo'n moment de controle over aan de Hypervisor. Deze komt op een nieuw beveiligingsniveau te draaien dat nog boven Ring 0 ligt (waar de kernel van een operating systeem normaal op draait). De Hypervisor mag vervolgens zijn kunstje doen om te voorkomen dat het mis gaan en er daarna voor kiezen om de controle weer terug te geven aan een van de gasten. In de oude situatie zou de Hypervisor zelf alle mogelijke gevaren in de gaten moeten houden, en bovendien zelf moeten zorgen voor de wisselingen tussen de verschillende besturingssystemen. Dat kan in de toekomst dus allemaal door hardware afgehandeld worden met een Pacifica-processor, wat in veel gevallen een snelheidswinst op kan leveren.

Onder andere VMware, Microsoft, Xen en Egenera hadden eerder al toegezegd om versies van hun virtuele machines te gaan bouwen die de Pacifica-features kunnen benutten. Hoewel Intel de ondersteuning van bijna precies hetzelfde lijstje softwareboeren heeft zijn Pacifica en Vanderpool niet onderling compatible. De AMD-specificatie gebruikt andere instructies en heeft bovendien enkele features die Intel niet heeft. Zo kan Pacifica inhaken op een TPM (Trusted Platform Module) om 'vertrouwde' software te draaien en virtualiseert AMD ook direct zijn geïntegreerde geheugencontroller mee.

AMD Pacifica

Lees meer over

Gerelateerde content

Alle gerelateerde content (23)
Moderatie-faq Wijzig weergave

Reacties (25)

Zoals de processoren nu uitgerust worden, zal er een "host-OS" nodig zijn (linux/windows) en kan men niet meteen meerdere OS'sen draaien. Voornamelijk omdat het "slechts" een instructie uitbreiding betekend.

Je moet natuurlijk dit in het licht zien van de servermarkt, en het feit dat de dual-core processoren zijn geboren. Als er nu 1 toepassing perfect geschikt is, is het wel het draaien van meerdere besturingssystemen.
Een ASP kan met minder hardware dalijk hetzelfde doen, minder kosten is het devies...

En wat betreft het delen van de hardware lijkt mij dat dit een soort van windows constructie wordt, een regelaar bepaald welke applicatie welke hardware mag gebruiken en of dit dedicated is of via een time-sharing constructie. Alleen dan bepaald het virtualisatie programma dat voor een gehele machine i.p.v. een applicatie.

//aanvulling
ik zat te denken dat de stap voor een ontwikkelaar als VMware de stap erg klein moet zijn om het host-os te laten verdwijnen en zo in essentie zelf de verantwoordelijkheden van een OS op zich neemt. is voor vmware ook een meer flexibele manier van werken, de regels waar men zich nu aan moet houden (die van het os) komen dan helemaal te vervallen of zijn zelf in te vullen.
ik zat te denken dat de stap voor een ontwikkelaar als VMware de stap erg klein moet zijn om het host-os te laten verdwijnen en zo in essentie zelf de verantwoordelijkheden van een OS op zich neemt.
Dat doen ze dus ook al lang: met VMware ESX. En inderdaad, voor dat soort toepassingen is deze feature handig.
Om het meer begrijpelijk te maken zou ik graag wat extra uitleg zien;
"is deze extentie op de instructieset bedoeld om het draaien van meerdere operating systemen op een machine sneller te maken"
Ik neem aan dat hier "simultaan" bedoeld wordt, dus dat je direct vanaf het opstarten van de PC meerder OS'en tegelijkertijd kunt draaien zonder tussenkomst van een programma als VMware? Dit kan natuurlijk uitermate handig zijn om taken van elkaar gescheiden te houden, of een besparing opleveren doordat 1 stevige machine er 4 kan simuleren.
Waarschijnlijk alleen bedoeld voor fervente multitaskers en servers, kunnen gamers en overclockers hier ook baat bij hebben? Hoe reageert je X850 XT of SLI opstelling als ze moeten delen met meerdere "machines" terwijl je net lekker aan het fragggen bent. Klinkt interessant maar ik begrijp het nog niet helemaal.

Is het gebaseerd op TimeSlice technieken waarbij iedere "PC" afwisselend bedient wordt? Zou het ook mogelijk zijn om met meerdere personen tegelijkertijd 1 PC te gebruiken zoals een tijdje geleden die machine van biostar/fic/ecs/????? (weet niet meer) Iemand anders? Dus 2 toetsenborden, 2 muizen, 2 monitoren.
Wat is er zo nuttig aan die virtualisatie technieken als ik vragen mag? Ik kan geen andere toepassingen verzinnen dan Vmware en gelijke programma's die markt is toch niet zo groot dat dat zo'n enorme investering van beide processor bouwers rechtvaardigd?
Vooral voor servers is virtualisatie erg interessant. De rekenkracht van processors wordt steeds groter (zeker met meerdere cores) maar veel toepassingen hebben die kracht helemaal niet nodig, in ieder geval niet continu. De meest voor de hand liggende oplossing is dus om één server voor meerdere toepassingen in te zetten, maar dat brengt ook gevaren met zich mee. Je wil niet dat een virus of een hacker of een crash meteen al je applicaties onderuit haalt. Virtualisatie is daar een goede oplossing voor, en technieken zoals Pacifica en Vanderpool beperken het prestatieverlies tot een minimum. En wat in een serverchip zit kun je net zo goed meteen in de desktopversies inschakelen; het is toch dezelfde core. Ook voor thuis zijn er wel toepassingen te verzinnen.

Tweede punt is dat mensen tegenwoordig steeds meer naar features kijken dan naar snelheid, en Intel en AMD dus vanalles doen om zich op dat gebied te onderscheiden.
Een andere (in mijn ogen erg snel opkomende) markt is virtual-server-hosting, oftewel klanten die rootaccess hebben op een machine, terwijl de machine in het rack door een x-tal gebruikers gedeeld moet worden.
Vanaf 10 - 15 euro/maand heb je al een "eigen" server in het rack hangen.
Je moet eens kijken naar VMWare GSX. Als je nou onderhoud op je hardware wilt doen oid, verplaats je je virtual machine (al draaiende :D) naar een andere server. Geen downtime, wel onderhoud. Grote hosters e.d. vinden dat errug interessant. En er zitten nog tal van andere voordelen aan.
Ja, werkt heerlijk inderdaad. Ik heb zelf een aantal dev servers draaien op GSX server. Draaid echt super. Bespaard een hoop ruimte in het rack (normaal was elke dev server toch weer 1U zegmaar en nu draaien er 6 op een 2U doos)

Verder voor productie systemen kan dit ideaal zijn wat betreft downtime verlaging. Kopieer de virtualdisk naar andere server en gaan.

Ik had gisteren een falende virtual server. Dit kwam doordat de IDE controler problemen geeft met de physieke schijf waarop de virtuale HD stond. Toen crashte me Virtual server dus wel. (door een ide reset) Misschien kan hier de pacifica functionaliteit in werking scchieten? Opzich is de schijf ongeveer 2 seconde offline geweest...

Ow well we wachten af.. heb de disk aan andere controller gehangen en gaat vooralsnog goed ;)
Heeft iemand een idee hoeveel OS'es er tergelijk gedraaid kunnen worden?
Ik kan met een Dual Xeon 2.8GHz met 6GB memory al zo'n 30 VMWare boxen draaien. De bottleneck ligt o.a. in de hoeveelheid geheugen in je workstation, maar ook het processorgebruik in iedere VMWare box. Je moet natuurlijk niet in elke box Seti@home gaan draaien :*)
Als er in het geval van hosting alleen maar weinig CPU consumerende webservers worden gedraait met niet meer dan b.v. 128 MB toegewezen geheugen, dan is 40-45 boxen niet onwaarschijnlijk.
Op een single p4 2.8 met 1 GB ram kan ik er 3 draaien. 2x xp met 256 MB en 1x win98 met 128 MB. dit loopt dan nog steeds soepel
Hoezo useless ?

Je moet het zien als het ontnemen van een keuze tussen os'sen. Vanuit deze view worden windows en linux gewoon applicaties zoals word en excel nu zijn. De grenzen zullen vervagen en men zal gebruiken wat het beste uitkomt voor iedere situatie.

het is de ultieme win/win situatie voor consument maar ook software huizen (zoals MS)
not true, ik heb het dan misschien niet over de reguliere consument, maar denk eens aan de altijd nieuwsgierige compu nerd die eens een keer niet werkt in een uberdata-center.

het is fun!!

debian stable/testing en unstable op 1 machine.. :-) ik zou helemal happy zijn
debian stable/testing en unstable op 1 machine.. :-) ik zou helemal happy zijn
Dat kan al heel lang met chroots. Met een chroot kun je in een draaiende GNU/Linux installatie een gedeeltelijke of complete andere GNU/Linux installatie draaien; ze delen alleen de kernel van het "hoofdsysteem".

Daarnaast is er UML, User Mode Linux, waarmee het guest systeem ook een eigen kernel draait.

Dit alles natuurlijk naast bestaande virtualisatoren als VMware, Bochs, plex86, etc.
Voor de gewone consument deze feature useless,' tenzij emulatoren hier gebruik van kunnen maken...

(al draait mijn WinUAE nog steeds soepel op mijn P3)

Ik hoop dat dit alleen in de server-chips toegepast gaat worden en niet in de consumer cpu's. Zou een verspilling van transistoren zijn.
Ik vraag me af hoe het zal lopen...

Als we in Europa en Azie met zijn allen geen processoren met TPM meer willen, ligt daar dan geen gat in de markt voor non-USA chipsmakers als bijvoorbeeld Samsung, Siemens en Philips? En zouden zowel Windows als Linux hier op werken?

Niet dat ik het topic niet begrijp, maar ik heb veel tegenstrijdige indianenverhalen, theorieen en doemscenarios over TPM's gezien. En ik kan me van alles voorstellen.
Dit zijn leuke ontwikkelingen. Wel grappig dat AMD zijn virtualisatie dus beter heeft geregeld dan Intel.

Leuk voor VPS providers zoals BudgetDedicated.com.

Nu hopen dat de software-kant ook snel goed ondersteuning gata bieden.
Waarom heeft AMD nu toch weer meteen hun virtualisatie technologie beter voor elkaar? Vanwege die 2 in de tekst genoemde punten? Nou dat Intel hun geheugen controller niet mee virtualiseerd is logisch, aangezien hun geen geheugencontroller on-die hebben. De extra TPM mogelijkheid is naturlijk een duidelijk een handigheid, wat weliswaar gebruikt kan worden maar niets met performance te maken heeft. Er zijn net technische details vrijgegeven, en er zijn amper werkende testsamples uit de fabriek gekomen en jij kunt al beslissen welke 2 technieken, vanderpool of pacifica, beter is. :?
er staat geregeld, er staat niets over wat het best is ...


lijkt me wel een leuke ontwikkeling, voor de bedrijven dan toch...
Nou dat Intel hun geheugen controller niet mee virtualiseerd is logisch, aangezien hun geen geheugencontroller on-die hebben.
Waarom is dat logisch?
De plaats van de controller maakt in deze situatie toch niks uit?
Mooie ontwikkeling idd, dat zou het volgens mij mogelijk moeten maken om bijv in linux via vmware windows te kunnen draaien voor bijv direct3d games (tenminste, dat is het idee wat ik hierbij kreeg)
Zou AMD hier niet een beetje te laat mee gekomen zijn??
Aangezien Intel al wel de support heeft van diverse bedrijven en AMD een andere structuur heeft gebruikt?
Dan mag de versie die AMD gebruikt heeft misschien "beter" zijn dan die van Intel, het is te hopen voor ze dat de software fabrikanten hun pakket gaan aanpassen aan de AMD versie...
Iets wat ik niet echt snel zie gebeuren...
Onder andere VMware, Microsoft, Xen en Egenera hadden eerder al toegezegd om versies van hun virtuele machines te gaan bouwen die de Pacifica-features kunnen benutten
erg belangrijk dat je het artikel door gaat leest want Pacifica is de virtualisatie van AMD.

en enige nadeel wat ik er van zie is dat je 2 pakketten zou moeten gaan aanschaffen als ze allemal verschillende features sets gaan gebruiken.
Even iets wat niet direct met dit onderwerp te maken heeft:

Ik zie weer dat AMD en Intel iets soorts gelijks hebben als met de XD bit en AMD 64. AMD was bij de die ik hiervoor noemde als eerst wat doet intel maakt zelf iets anders zodat ze geen licentie hoeven te nemen. Hier het zelfde. Nu is dit wel ingewikkelder omdat AMD bv zijn mem controller mee neemt die intel niet intern heeft.

Maar Ik vind het wel krom dat AMD wel netjes licenties neemt op MMX,SSE ,SSE2 en SSE3 maar andersom vertikt intel het om licenties te nemen op de No Exequte bit en de AMD64. maar zelf iets maken wat eigenlijk hetzelfde is maar niet niet helemaal. Gewoon zielig maar das mijn mening. AMD kan dan beter een ASE maken en die dan gelijk is aan SSE3 aleen net niet helemaal maar wel op SSE3 apps werkt.
tjsa, omdat AMD van Intel gebruik mag maken van het x86 platform, mag Intel van alle features/uitbreidingen die AMD hierop bedenkt ook gebruik maken...

een of andere licence-agreement die ze ooit gesloten hebben...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True