Software-update: Proxmox VE 7.0

Proxmox VE logo (79 pix)Proxmox VE is een opensourceplatform voor virtualisatie gebaseerd op kvm en lxc-containers. Het kan via een webinterface worden beheerd, en daarnaast zijn een commandline en een rest-api beschikbaar. Voor meer informatie verwijzen we naar deze pagina en verschillende videotutorials kunnen op deze pagina worden bekeken. Het geheel wordt onder de agpl uitgegeven. Versie 7.0 is uitgebracht en de belangrijkste verbeteringen die daarin zijn aangebracht zijn hieronder voor je op een rijtje gezet:

Here is a selection of the highlights
  • Debian 11 "Bullseye", but using a newer Linux kernel 5.11
  • LXC 4.0, QEMU 6.0, OpenZFS 2.0.4
  • Ceph Pacific 16.2 as new default; Ceph Octopus 15.2 remains supported.
  • Btrfs storage technology with subvolume snapshots, built-in RAID, and self-healing via checksumming for data and metadata.
  • New ‘Repositories’ Panel for easy management of the package repositories with the GUI.
  • Single Sign-On (SSO) with OpenID Connect
  • QEMU 6.0 with ‘io_uring’, a clean-up option for un-referenced VM disks
  • LXC 4.0 has full support for cgroups2
  • Reworked Proxmox installer environment
  • ACME standalone plugin with improved support for dual-stacked (IPv4 and IPv6) environments
  • ifupdown2 as default for new installations
  • chrony as the default NTP daemon
  • and many more enhancements, bugfixes, etc.
As always, we have included countless bugfixes and improvements on many places; see the release notes for all details.

Proxmox VE

Versienummer 7.0
Releasestatus Final
Besturingssystemen Linux
Website Proxmox
Download https://www.proxmox.com/en/downloads
Licentietype Voorwaarden (GNU/BSD/etc.)

Door Bart van Klaveren

Downloads en Best Buy Guide

06-07-2021 • 19:51

90 Linkedin

Submitter: Krystman

Bron: Proxmox

Update-historie

Reacties (90)

Wijzig sortering
De upgrade is hier geslaagd, echter niet zonder problemen, zie ook hier: https://gathering.tweaker...message/67962372#67962372
Hoe verhoudt Proxmox zich tot ESXi? Ik werk al gans m'n carrière met vmware, moet ik het bezien als een 'light' ESXi/vCenter of is dit echt een solide product met alle toeters en bellen?
Als ik Jeff van Craft computing op YT zie, is het best wel een degelijk product met goeie support. En gratis.

Ik zit er zelf ook wel eens aan te denken. Gebruik nu HyperV, maar is ook niet alles.
Ik begon juist Hyper-V te gebruiken wanneer ik erachter kwam dat VMWare heel slecht met host shutdowns omgaat (pc uit = alle VMs force-crashen). Gebruik daarnaast altijd wel liever VMWare
Ik weet niet of ik jouw issue helemaal begrijp, maar dat is bij Proxmox geen probleem ;) Ik kan je wel van harte aanraden om de qemu-guest-agent te installeren op je guest VM's. Dan werkt het allemaal wel een stuk beter.
Lijkt me straf, ik heb dit in 15 jaar ESXi gebruik nog nooit meegemaakt. Heb je overal vmware tools of openvm tools geïnstalleerd?
Jazeker, alles geprobeerd en gedaan. Uiteindelijk maar een script gebouwd om dit mee te kunnen doen, want mijn server is niet 24/7 en het automatisch stoppen en starten is daarom essentieel.

Maargoed, bij Hyper-V zit dit prima ingebouwd, slaat de server op en de volgende dag weer precies door waar hij gebleven is. Misschien is dit een verschil tussen ESXI en VMWare workstation (pro)?
De goede support is goed maar wel betaald. De community staat echter ook goed voor je klaar
Ja dat snap ik, zin was idd niet duidelijk nee.

Maar soms is een community al genoeg😁
Absoluut ... en het is een standaard Linux dus je bash-fu komt handig van pas. Plus je bent ook niet gebonden aan die krenterige VMWare QVL.
"as always, I'm Jeff.." :+
en Rambo de huispoes !
Ik gebruik VMWare Essentials, VMWare Enterprise en Proxmox.

Ervaring is dat Proxmox heel stabiel en goed werkt, er zijn wel enkele features die je voor echte grote enterprises mist (distributed switches, fault tolerance om er enkele op te noemen) maar een medium sized bedrijf zal zeker niets missen. Alle features zoals HA, storage migration etc zitten er in. Echt een aandrader, zeker in combinatie met Ceph waar je een gratis distributed filesystem hebt (zoals vSan, wat dan weer peperduur is)
Klein vraagje: wat biedt "fault tolerance" dat niet in "HA" zit ?
VMware HA is als de host omvalt wordt de guest op een andere host herstart, dit zorgt voor een stukje downtime.

VMware Fault Tolerance dan wordt een VM tweemaal gestart op twee verschillende hosts, de secundaire VM is niet bereikbaar en wordt continue bijgewerkt door de primaire VM. Valt de host met de primaire VM om dan wordt de secundaire VM gepromoveerd tot primaire VM en heb je geen downtime. Het grootste nadeel van FT is dat als de primaire VM bijvoorbeeld een BSOD krijgt dan zal de secundaire dat ook krijgen en heb je alsnog downtime. Vandaar dat ik in de praktijk FT nauwelijks zie omdat bedrijven er dan liever voor kiezen om op applicatie niveau fault tolerance in te bouwen.
Klopt, we gebruiken het ook maar heel beperkt. Werkt heel goed maar soms merk je dat er soms kleine hickups gebeuren (we wilden het bv. eerst ook voor een sip machine gebuiken maar merkten dan kleine onderbrekingen in de voice streams).
Dat vroeg ik me dus ook af. Op het gebied van storage zal het dat em ook niet zien want ZFS is zeer gemakkelijk te gebruiken in Proxmox O-)
Ik kan je echt aanraden om eens naar Ceph te kijken. Redundante storage op server niveau (als er een server uitvalt, knalt je storage er niet uit), en vooral, ook veel handiger om uit te breiden. Met ZFS pools zit je toch nog altijd "vast" aan de keuze die je in het verleden hebt gemaakt, je kan niet zomaar 1 raid5 uitbreiden met een disk, dan moet je al bv raid 50 doen. Komt ook nog eens het geheugengebruik er bij (uiteraard is dit vooral caching, maar ZFS gebruikt toch wel echt heel veel geheugen).

Neemt niet weg dat ZFS een goed filesystem is natuurlijk, voor specifieke doelen. Voor mijn backup server gebruik ik ook een lokale ZFS. Maar productiemachines zou ik zelf toch niet op ZFS draaien, maar op een native clustered filesysteem of ha storage zonder dat je met bv. dingen zoals drbd of syncs moet werken.

"Nadeel" van Ceph is dan weer dat je minimum 3 servers nodig hebt, in mijn geval geen issue, maar als je een kleinere setup hebt met 2 servers heb je niet echt een andere optie dan drbd denk ik.
Je moest eens weten hoeveel bedrijven in de hosting wereld gewoon met ZFS werken en Hardware RAID hebben gedumpt! :)

Je kan ZFS prima draaien met 2/4/8 GB RAM maar bij lagere hoeveelheden kunnen ook de prestaties inzakken dus is 8GB gewoon een prima startpunt!
Aan wat meer flexibiliteit wat betreft het uitbreiden wordt gewerkt dus dat is gewoon een kwestie van tijd :)

Wat betreft CEPH had ik een keer in het verleden begrepen dat je die ook i.c.m. ZFS kon draaien en dus het beste van beide werelden zou kunnen combineren.
Precies dit! Zfs zal altijd bijna al het beschikbare geheugen gebruiken voor caching. Op trage storage merk je dat ook als je een bestand kopieerde naar een vers gestarte server, je ziet dan netjes het geheugen vol lopen en ondertussen druppelt het door naar de spinning disks. De performance zakt dan ook in op het moment dat het geheugen vol zit.

Ik heb zelf een raidz2 met 10 x 6TB en dat is voor sequentiële writes zo snel dat de performance nooit inzakt. Random 4kb blokken is natuurlijk een ander verhaal :)
Ik vind Ceph ook fijn werken, heb het ook gebruikt voor een school virtualisatie project ism Proxmox. Maar ik heb thuis "maar" een enkele server dus voor mijn use case heb ik er dan niks aan :P
Proxmox lijkt me soms meer geschikt voor kleine setups en thuisgebruik. Dan werkt het perfect!
Kijk zeker eens naar oVirt als je vervanging zoekt voor VMware!
Tgoh vervanging niet persé maar ik heb vandaag bijna 50.000 euro aan Vmware licenties gekocht en dan begint een mens hem toch vragen te stellen waar hij mee bezig is… 8)7
Support op ESX is wat beter gecentraliseerd
Met Proxmox moet je het toch wel veel hebben van community support, al is hun supportcrew erg goed.

Maar ik kan je zeker aanraden om er een start mee te maken, en een testomgeving op te zetten.
Kan je over 5 jaar een beter geïnformeerde beslissing nemen.

* FreshMaker heeft in de productie ook 'gewoon' een set nieuwe servers met licenties aangeschaf afg. februari ;)
Support op ESX is wat beter gecentraliseerd
Met Proxmox moet je het toch wel veel hebben van community support, al is hun supportcrew erg goed.
Bied VMWare dan zoveel meerwaarde qua support voor kleine shops tov de community. Ik weet het niet maar ik google altijd eerst een probleem. Dell contacteren zodat next business day er een mannetje komt die een fan of schijf vervangt, vind ik persoonlijk toch ook niet dat. Had liever er 1 op reserve gehad en ze dezelfde dag erin gestoken. Natuurlijk kan dat niet voor alles en fan failures zijn uitzonderlijke uitzonderingen geworden. Maar toch ... als ik weet wat het probleem is en ik kan het zelf oplossen vind ik het niet fijn dat ik iemand moet inboeken en begeleiden in een datacenter de dag of het weekend erna.

[Reactie gewijzigd door goarilla op 6 juli 2021 22:45]

Same here, zoveel mogelijk zelf in de hand houden.

Alleen als je een grote installatie hebt ( wij draaien 3 x 4 servers verspreid over het land ) ontbreekt zo nu en dan de tijd om even te google'en
Als je er de tijd voor hebt ( en belangrijker - krijgt ) is alles wel gewoon uit te zoeken.

En daarbij, je bent vaak ook afhankelijk van je ICTpartner, als die partij A niet ondersteunen, en in hun offertes met partij B aankomen, kan het zomaar zijn dat je als individu geen zeggenschap meer hebt.
De vraag is dan altijd, hoeveel tijd meer ben je kwijt aan een OS pakket en hoeveel kost die tijd? En dan bedoel ik niet alleen initiële setup, maar ook onderhoud, aanpassingen en troubleshooting. Daarnaast, heb je personeel wat die OS ongein in en out kent zoals de bekende betaalde pakketten? Mensen zijn al eens vaker de mist in gegaan door een (veel) minder mainstream pakket te nemen en dan geld te besparen op licentie kosten, maar personeel vinden dat daar ervaring mee had koste significant meer dan wat ervaring had met de mainstream producten...
Toen ik met spoed een complex ESX probleem opgelost moest hebben was ik ook ruim 170 euro per uur kwijt voor een specialist. Ja, ESX mensen zijn er wel, maar als het iets meer is dan een VM aanmaken haken ze ook af.
Er is ook nog XCP-ng maar dat is Xen en vereist een gepatchte kernel denk ik en Nutanix CE.
Ik werk met allemaal behalve proxmox (kvm kan ik dromen), maar voornamelijk rhv (ovirt maar dan van Red Hat). Mijn persoonlijke mening is dat niets kan tippen aan esx voor grotere omgevingen. Performance, betrouwbaarheid, schaalbaarheid. Zelden (grote) problemen met upgrades, terwijl ovirt met bijna elke major upgrade stuk gaat. Bovendien vind ik het (relatief) traag terwijl de storage backend praktisch gelijk is aan wat er aan esx hangt. Dus ja, het kost een paar centen ...
De storage backend kun je ook bouwen op basis van CEPH (included bij proxmox).
Wij gebruiken proxmox als testomgeving (veel vm's met software versies erop) inclusief een dikke ceph cluster om dit allemaal van rete stabiele (failproof) storage te voorzien. Draait als een zonnetje. Nu ben ik geen specialist op gebied van de "groten" op vm gebied maar er is nog niets wat mij heeft doen overtuigen aan de groten te gaan denken. High Availability, user management, firewalling, storage management het zit er allemaal in.
Ook inmiddels al heel wat versies verder gemigreerd zonder problemen. (Ok, eenmalig had een update verzonnen al de vm's een nieuw mac adres te geven wat bij sommige licenties niet helemaal handig is, zeker als je dit niet verwacht en deze dus ook niet gedocumenteerd hebt).
CPEH updates kunnen wat moeilijker zijn maar als je de uitgebreide manuals volgt (die meteen ter beschikking zijn) dan is dat eigenlijk ook niet zo heel spannend.

[Reactie gewijzigd door rdfeij op 8 juli 2021 22:43]

Ik heb het naast ESX draaien. Belangrijkste verschillen: je hebt geen wazige "oh, ESX doet dat zo" momentjes omdat het gewoon Linux + KVM/Qemu is. Hardware support is dramatisch veel beter. Performance is vergelijkbaar (en als je gaat overcomitten vaak veel beter). Tooling is minder uitgebreid, maar werkt wel gewoon altijd (in tegenstelling tot de management console van de dag bij ESX). Al met al: positief, maar je moet niet bang zijn voor een CLI ;-)
In mijn ervaring doe ik bar weinig in de CLI. Wat doe jij er dan allemaal in? :)
inrichten backups/vzdump. logs kijken. Installatie (de proxmox installer was iig. t/m versie 6.2 zo beperkt dat je beter een debian instal kon gebruiken en upgraden). Day-to-day operatie kan inderdaad gewoon via de webconsole. Maar sommige parameters/inrichting kunnen niet via de GUI (80/20 regel: 80% van het werk kan via de webconsole is mijn inschatting).
Yes, zeer solide en productiewaardig. Als je ESXi draait zal je vermoedelijk werken met hardware RAID controllers, ZFS gaat daar niet mee samen. Maar dan kan je als het goed is nog gewoon LVM gebruiken.

Licenties voor de enterprise repository en support zijn ook erg schappelijk.

[Reactie gewijzigd door BHQ op 6 juli 2021 20:09]

Hoezo zou ZFS daar niet samen mee werken?
Je kunt gewoon het /dev/disk/by-id opgeven in ZFS om de raid pool te kiezen (je maakt in ZFS een ZFS pool aan met 1 disk)
Weet iemand of proxmox ondersteuning heeft voor serieel en native USB forwarding naar de cliënt. Ik bedoel geen keyboard en muis, maar bijvoorbeeld USB of seriële adapters om plc's of frequentie regelaars mee te programmeren. Gebruik nu verde van n-computing, maar USB support is niet 100%.

Ben aan het rond kijken naar een nieuwe vdi omgeving +50 clients, met goede USB support. N.B. VMWare is te duur.

Alleen dank voor de reacties, met cliënt bedoelde ik een remote cliënt, die remote verbinding maakt met de proxmox server via Spice of rdp oid.

[Reactie gewijzigd door Jean luc Picard op 6 juli 2021 21:31]

Ervaring vanuit een meer hobbymatig Domotica project is dat USB pass through (Z-wave, Zigbee dongle, etc) prima werkt.

Update: Never mind, niet goed gelezen, je bedoelt USB forwarding van cliënt naar vm.

[Reactie gewijzigd door mastair op 6 juli 2021 20:54]

De vuistregel is dat als qemu het kan dan kan proxmox het ook.
Zo heb ik op mijn proxmox bakje een vm draaien met windows voor gaming, met GPU, fysieke usb poorten ed forwarded en alles werkt zoals native. Heb ook een keer een usb poort geforwarded om een oude telefoon te flashen onder winXP, en dat leverde ook geen problemen op. Serial/parallel, harddisks, alles kan direct in je vm geforward/gemapt worden ;)

Voetnoot is dat niet alles vanuit de frontend kan, en soms wat CLI interactie nodig heeft. Al is dat niet het geval in 90% van de usecases

[Reactie gewijzigd door vrilly op 6 juli 2021 21:13]

Ik ken het alleen voor thuisgebruik, waar ik een VM heb draaien met een Zigbee USB heb geforward. Werkt zonder problemen!
Ja, je kunt je hele USB-controller zelfs forwarden
Ligt dat niet meer aan de cliënt die je gebruikt? Zo zie ik bij Remmina op ubuntu wel de opties om o.a. de seriële of parallelle poort te delen (via rdp). Theoretisch zou het moeten lukken.. Helaas nu niet in de gelegenheid om even te testen.
Je noemt SPICE dus ik hoop dat je hier iets aan hebt :

Ik gebruik vanaf een Windows 7 Pro computer een Kubuntu VM via SPICE op mijn Proxmox Server en ook nog eens i.c.m. een triple monitor setup wat echt gewoon PERFECT werkt!

Je merkt niet eens dat het een VM is en dan ook nog eens op een andere PC in je netwerk! :Y) 8) :*)
Weet iemand of proxmox ondersteuning heeft voor serieel en native USB forwarding naar de cliënt.
Proxmox gebruikt kvm/qemu onder water, en biedt dus dezelfde USB features als die combinatie.
Dit betekent dat je USB devices per id kunt toekennen aan een VM, maar ook (zoals ik zelf doe) een complete USB controller kunt toekennen aan een VM (hardware passthrough). Ook serial ports kunnen worden toegekend aan een VM, maar daar heb ik (afgezien van een ttyS0 linux console, dat werkt prima) weinig ervaring mee.

Edit: Ik zie nu dat je bedoelt vanaf een externe computer naar de VM, dat is niet echt een feature voor een VM host, maar meer een Remote Desktop ding. Ik gebruik zelf nomachine Remote Desktop, en die lijkt dit te supporten, maar ervaring met remote USB heb ik niet. Serial kan via RFC2217 worden geforward, als je client dat begrijpt, zit je ok, dit heb ik wel eens gebruikt voor remote testen.

[Reactie gewijzigd door trapper op 7 juli 2021 23:10]

Hier van 6.4 naar 7.0 geupgrade zonder problemen.
Echter het geheugengebruik van LXC containers is explosief gegroeid in 7.0.
Voorheen in 6.4 gemiddeld 45MB per container (256MB toegewezen).
Nu in 7.0 dezelfde containers verbruiken gemiddeld 160MB (512MB toegewezen).
Containers zijn Ubuntu en Debian (standaard templates).

-update:
wanneer je in de ct zelf (SSH of de cli) free -h intypt zie je het echte geheugengebruik.
Blijkbaar wijkt de grafische meter in het Proxmox dashboard iets af.
Ik heb een melding gemaakt op het Proxmox forum:

https://forum.proxmox.com...eleased.92007/post-400951

[Reactie gewijzigd door EverLast2002 op 7 juli 2021 11:55]

Dit is inderdaad ook mijn ervaring. container is onaangeraakt maar gebruikt nu 97,5 MB ipv 55.. Ben benieuwd waar en dat in zit
Ik heb nu voor de gein een container van Buster naar Bullseye geupgrade, en dan is het geheugengebruik weer als voorheen...
oh, interessant! die ga ik ook proberen. :)
KSM in actie? Voorheen had je dezelfde libs als de host ingeladen, dus kon dat ontdubbeld worden. Na de upgrade in de container ziin die libs weer gelijk en kan KSM meer ontdubbelen.
Onder "known issues" staat dit:
cgroupv2 support by the container’s OS is needed to run in a pure cgroupv2 environment. Containers running systemd version 231 or newer support cgroupv2 [1], as do containers that do not use systemd as init system in the first place (e.g., Alpine Linux or Devuan).

CentOS 7 and Ubuntu 16.10 are two prominent examples for Linux distributions releases, which have a systemd version that is too old to run in a cgroupv2 environment, for details and possible fixes see:
Welke specifieke containers draaien jullie?
Hier exact hetzelfde :/
Toch maar een gebruiken thuis, ik gebruik nu nog een bejaarde ESXi 6 die nog steeds werkt maar zolangzamerhand wat features begint te missen. Daarnaast is de nieuwe ESXI 7 zonder licentie beperkt bruikbaar.
In onze bedrijfsomgeving zou ik dit nog niet zomaar toepassen.
Hoezo niet? Ik snap dat VMware meer mogelijkheden heeft. Maar voor virtualisatie (ook HA) is Proxmox (ook bedrijfsmatig, in productie) prima te gebruiken. Uiteraard moet je niets bedrijfsmatig 'zomaar' uitrollen. Eerst testen en dan kan je in veel gevallen prima productie draaien met Proxmox. Vooral icm. Proxmox Backup Server is het nog beter geworden.

Als je gebruik maakt van special features zoals NSX dan kan ik me voorstellen dat Proxmox niet logisch is.

[Reactie gewijzigd door sander85 op 6 juli 2021 20:23]

Hoe goed is die Proxmox Backup Server als je deze vergelijk met Veeam voor ESXi?
Ik heb ook een bejaarde ESXi 6 draaien thuis (op een Gen 8 microserver), met daarop 2 virtueel draaiende systemen (mailserver en fileserver). Ik vraag me af welke features nu echt de moeite waard zijn om over te stappen?
- Geen gedoe met hardware die wel/niet compatible is met ESXi versie zoveel...
- De volledige controle, want Debian onderhuids :Y)
- Geen gezeik met licenties nodig hebben zodra je net wat meer wilt dan standaard mogelijk is...

Als je een beetje Linux ervaring hebt dan word je er IMHO veel gelukkiger van i.t.t. elke keer prutsen met VMWare ESXi :)
Thanks! Ruim 20 jaar Linux ervaring, dus dat lukt wel. Backups maken van de virtuele machines maken onder ESXi is omslachtig (ik doe het via de command line). Dat is wel een reden om over te stappen dan
Ik draai Prox 6.1.7 ga ik veel merken als ik naar 7 migreer? Ik heb wat Ubuntu's draaien en windows machines. Ben niet zo'n fan van een hypervisor upgraden.
Eerst naar de laatste point release in je major versie voordat je de major versie sprong maakt.

https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0

[Reactie gewijzigd door DaanHetEendje op 6 juli 2021 23:31]

Thanks, maar heeft het echt zin zeg maar? Bedoel risico tov winst met de nieuwste update?
Wij kennen jouw omgeving niet, jij wel. Je kunt dus het best zelf even bepalen of het handig is voor jou. Lees even de releasenotes door: link.
Verder zou ik (althans dit doe ik zelf) een weekje of meer wachten om zeker te zijn dat alles goed zit en er geen onverwachtse issues zijn.
Debian 11 is nog niet officieel 'stable', best wel snelle release. Ziet er alvast weer goed uit. Elke keer weer een goede stap vooruit. We gebruiken de 6 in productie met pbs. Werkt allemaal prima.
Ja, ben hier zelf ook verbaasd over. De laatste 'stable' release van Debian is 10.10 welke nog geen 3 weken geleden is uitgebracht. Op een platform waar meerdere servers op draaien zou ik verwachten dat ze voor maximale stabiliteit zouden gaan. Zeker voor een productie omgeving. Voorlopig laat ik deze update nog even achterwege.

[Reactie gewijzigd door Dellebel op 6 juli 2021 22:45]

Wij gebruiken het al bijna 10 jaar.
Ook in productie.
Nooit geen problemen.
Altijd gezeik dus? Dat is niet mijn ervaring.
Prima product! Ik gebruik het nu al zeker een jaar ofzo. Voorheen een Windows 10 installatie met Virtualbox erop, toen overgestapt naar Ubuntu met KVM/QEMU en daarna ontdekte ik Proxmox.
Voor mij niks anders meer wat betreft dedicated virtualisatie. Plus het zit vol met Enterprise achtige features die je 'gratis' krijgt als thuisgebruiker.
Kan het iedereen van harte aanraden. Ik wacht nog wel even met upgraden tot er een 7.x versie uitkomt.
Zeker voor het homelab is het geweldig.
Inderdaad ook ooit van virtualbox overgestapt, eerst ESX5 / 6 maar vanwege vage (thuis) dingetjes nooit lekker aan de gang gekregen
Proxmox was wel even 'leren' maar eenmaal de basis op orde, draait het super op een i5 met 16GB.
Voor de ervaren Proxmox gebruikers een vraag:

Ik gebruik nu voornamelijk Hyper-V en gratis Veeam voor een behoorlijk solide backup op een onder Windows Server op een deduped disk zodat ik 10 VM's makkelijk op 90 dagen retentie kan backuppen.
Al mijn virtuals zijn voornamelijk Linux distro's en een W10 en een W2019 server.

Is het erg omslachtig om hier over te stappen naar Proxmox?
Ik zag destijds instructies om een Windows virtual aan te maken met een hoop zijwegen wat mij in eerste instantie nog weerhoud om over te stappen.

Ik proef weer zo'n moment dat ik zou kunnen overstappen naar een "niet Windows omgeving" (zoals vroeger bij mij alles Windows was en nu Linux) maar dan nu ook voor de hypervisor...
Het heeft wat voeten in de aarde maar het valt op zich wel mee, als je wat pointers wil qua jou omgeving stuur me een dm.

Ter info ik draai productie op proxmox gedurende 3-4 jaar nu en ben afgestapt van vmware voor een hoop redenen en na aantal omzwalk inden via hyper-v uiteindelijk bij proxmox uitgekomen en nooit meer weg gegaan
Kleine aanvulling op Xelnaha:
(Ben zelf als hobbyist van VMWare en Hyper-V via XEN en CentOS naar PROXMOX gegaan)

Het merendeel van het werk zit in je voorbereidingen. Als je fysiek dezelfde machine houdt, is het wel zaak dat je vm’s zonder verdere aanpassingen meteen weer aan kunnen. Sommige dingen wil je écht niet pas ontdekken als je machines weer aan moeten. Ik had de luxe van meerdere machines, waardoor ik de (virtuele) schijven direct kon overzetten naar de PROXMOX, terwijl de bron gewoon aan kon blijven. (Speciaal naar PROXMOX toegegaan voor de clustering en opslag)

Het is vooral in het begin écht onwennig - zeker in vergelijking met ESXi - maar in een uiterste geval kun je ook geneste VM’s aanmaken om de landing te verzachten. Gaat natuurlijk wel ten koste van prestaties, maar voor niet-professionele inzet kun je dat prima doen. (Ik had hiervoor een cluster van 3 fysieke machines met op één machine uitsluitend de Windows Server als VM, en live migraties vanuit Server naar PROXMOX uitgevoerd. Zal vast niet voor iedereen mogelijk/acceptabel zijn).
De grootste gewenning zal voor mij het filesystem zijn.
Nu kan ik handelen indien nodig met Windows, simpelweg verbinden en kopiëren van complete VM's als het nodig is.
Dat wordt iets lastiger met een machine die niet meer simpelweg via SMB aan te spreken is? Vermoed ik?
Aangezien merendeel toch achter een reversed proxy zit, kan ik iets parallel optuigen zonder dat het productie bijt. Dus kan wel even wat experimenteren ;-)

Omdat het hobby is, moet ik uitgaan van een worse case scenario, en hoe zet ik alles terug van een totaal gecrashte machine.

[Reactie gewijzigd door opa uche op 8 juli 2021 13:50]

Ik weet niet zeker of ik het goed oppik, maar als het gaat om het benaderen van de (proxmox) host:
dit kan op een zelfde manier als bij elke andere Debian derivaat met CIFS/SMB. (proxmox. is een debian afgeleide). Aangezien je vanuit hobby met proxmox wilt/kunt werken, heb je iets meer mogelijkheden qua "minder gebruikelijke" handigheidjes.

Voor het geval de migratie nog moet beginnen naar nieuwe/lege schijven, kan proxmox de externe bronnen gewoon benaderen zonder rare streken. 1 host heeft niet eens eigen harde schijven, maar alles loopt via een NAS (Synology DS1010+), en bijna letterlijk alleen kastje met moederbord, CPU en RAM. Deze host is overigens ook de enige, die ik anderen toesta vanuit Windows te benaderen.

Maar waarom niet proxmox in een VM gooien om te kijken hoe het werkt? Genoeg topics op fora en YouTube-filmpjes naast de starthulpen proxmox. In mijn eigen beleving, kun je prima in je huidige omgeving makkelijk met diverse andere hypervisors experimenteren (xcp-ng, ESXi, trueNAS SCALE etc) in een vm.

PROXMOX 7 heeft mij inmiddels ook bereikt, en ik draai dit momenteel in een VM om te testen of al mijn schijven en machines zich makkelijk laten verplaatsen. Persoonlijk vind ik PVE7 voor een hobbyist wel een meerwaarde hebben over 6.4, dus ik kan je het alleen maar aanbevelen om het te testen.

[Reactie gewijzigd door ProjWorld op 8 juli 2021 15:34]

Op dit item kan niet meer gereageerd worden.


Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers is samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer onderdeel van DPG Media B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee