Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Software-update: Proxmox VE 9.1

Proxmox VE logo (79 pix)Proxmox VE is een opensourceplatform voor virtualisatie gebaseerd op KVM en LXC-containers. Het kan via een webinterface worden beheerd en daarnaast zijn een commandline en een rest-api beschikbaar. Voor meer informatie verwijzen we naar deze pagina en verschillende videotutorials kunnen op deze pagina worden bekeken. Het geheel wordt onder de APGL uitgegeven. Versie 9.1 is uitgebracht en de belangrijkste verbeteringen die daarin zijn aangebracht zijn hieronder voor je op een rijtje gezet:

Create LXC containers from OCI images

Proxmox VE 9.1 integrates support for Open Container Initiative (OCI) images, a standard format for container distribution. Users can now download widely-adopted OCI images directly from registries or upload them manually to use as templates for LXC containers. Depending on the image, these containers are provisioned as full system containers or lean application containers. Application containers are a distinct and optimized approach that ensures minimal footprint and better resource utilization for microservices. This new functionality means administrators can now deploy standardized applications (e.g., a specific database or API service) from existing container build pipelines quickly and seamlessly through the Proxmox VE GUI or command line.

Support for TPM state in qcow2 format

This version introduces the ability to store the state of a virtual Trusted Platform Module (vTPM) in the qcow2 disk image format. This allows users to perform full VM snapshots, even with an active vTPM, across diverse storage types like NFS/CIFS. LVM storages with snapshots as volume chains now support taking offline snapshots of VMs with vTPM states. This advancement improves operational agility for security-sensitive workloads, such as Windows deployments that require a vTPM.

Fine-grained control of nested virtualization

Proxmox VE now offers enhanced control for nested virtualization in specialized VMs. This feature is especially useful for workloads such as nested hypervisors or Windows environments with Virtualization-based Security (VBS). A new vCPU flag allows to conveniently and precisely enable virtualization extensions for nested virtualization. This flexible option gives IT administrators more control and offers an optimized alternative to simply exposing the full host CPU type to the guest.

Enhanced SDN status reporting

Version 9.1 comes with an improved Software-Defined Networking (SDN) stack, including detailed monitoring and reporting in the web interface. The GUI now offers more visibility into the SDN stack, displaying all guests connected to local bridges or VNets. EVPN zones additionally report the learned IPs and MAC addresses. Fabrics are integrated into the resource tree, showing routes, neighbors, and interfaces. The updated GUI offers visibility into key network components like IP-VRFs and MAC-VRFs. This enhanced observability simplifies cluster-wide network troubleshooting and monitoring of complex network topologies, without the need for the command line.

Proxmox VE

Versienummer 9.1
Releasestatus Final
Besturingssystemen Linux
Website Proxmox
Download https://proxmox.com/en/downloads/category/iso-images-pve
Licentietype Voorwaarden (GNU/BSD/etc.)

Door Bart van Klaveren

Downloads en Best Buy Guide

19-11-2025 • 15:00

23

Submitter: Netburst

Bron: Proxmox

Update-historie

Reacties (23)

Sorteer op:

Weergave:

Ik zou het zo fijn vinden als er een implementatie komt die het volgende support;

- Fiber Channel SAN storage
- Snapshots
- Live migration
- Thin provisioned disks

De onderdelen worden los wel ondersteund, maar niet allemaal tegelijk.
I know, maar ik wil alle vier de opties. Niet; er zijn 4 opties, kies er drie die samenwerken.
Ah fair, niet goed gelezen. 8)7
volgens mij ligt het aan de configuratie van je host/storage

zfs en ceph bieden die opties volgens mij wel
Ik heb de fora van Proxmox al heel wat keren afgestruind en er zijn zovelen net als ik die een traditionele VMware setup hebben. Ik wil heel graag naar Proxmox, maar zij supporten dit voor zover ik weet gewoon niet. Met name omdat de chief in charge niet (meer) gelooft in een FC SAN, maar in losse hosts met een berg disken er aan vast. Dat vind ik dan weer wat overdreven, want dan leeft mijn VM op meerdere hosts om livemigration mogelijk te maken. Dat kost een enorme bak storage.
Je fiber channel storage evt. als iSCSI aanbieden (mits die SAN het ondersteund) en dan CEPH gebruiken zou 3 van de 4 punten kunnen oplossen.
iSCSI wordt wel ondersteund, maar ik heb niet genoeg poorten om te binden die de doorvoersnelheid van mijn FC switches evenaren.

En helaas maar drie van de vier punten :) Als ik Proxmox adopteer voor VMware, dan moet ik wel dezelfde feature set kunnen behouden.

[Reactie gewijzigd door vtsalf op 19 november 2025 16:26]

Kun je de glas poorten niet als iscsi poorten configureren? Dat is op sommige storage appliances mogelijk namelijk
Wacht, ondersteund proxmox geen snapshot? :o

Dus als je na snapshot een change maakt in vm kan je niet eenvoudig reverten zonder restore van backup te gebruiken?
Er zijn diverse filesystems die je kunt kiezen die wel snapshots ondersteunen, dus ook Proxmox ondersteunt dat. Maar de vier punten die ik benoem kunnen niet alle vier tegelijk. Je moet dus kiezen wat je wil hebben, maar not all the flavours :)
En NVMeOF zal heel erg mooi zijn
Ook goed te benoemen dat er een Proxmox Community Scripts website is, waarmee je in no time de meeste bekende software als LXC of VM kan aanmaken in Proxmox.

waaronder de hier veelbesproken zaken zoals:

-HomeAssistant

-MariaDB

-VictoriaMetrix

- EVCC

- WireGuard

-Pihole

- Grafana

- Immich

De hele *ARR suite

En zo nog 400 meer.

https://community-scripts.github.io/ProxmoxVE/
En ook niet geheel onbelangrijk; een script die alle irritante popups verwijderd met oa enterprise popups
Is er ook een script of tool om makeklijk iSCSI met Multipath IO in te richten op een Proxmox node?

Ik ben geen Linux held en dat zou voor mij super helpen.
Dat is deze. Ik heb wel eens kort met Proxmox VE geëxperimenteerd. Mooi spul, maar dit is echt nodig om het werkbaar te maken. Er is geen universum waarin ik als hobbyist ooit enterprisedienstverlening ga afnemen, dus nag screens hebben buiten onnodige frustratie om geen nut.
v9.1 is nog niet supported ;)
Je kunt de nag automatisch laten verwijderen nadat proxmox-widget-toolkit een update heeft gehad.

/etc/apt/apt.conf.d/no-nag-script
DPkg::Post-Invoke { "dpkg -V proxmox-widget-toolkit | grep -q '/proxmoxlib\.js$'; if [ $? -eq 1 ]; then { echo 'Removing subscription nag from UI...'; sed -i '/.*data\.status.*active/{s/!//;s/active/NoMoreNagging/}' /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js; }; fi"; };

OCI containers is wel echt een mooie toevoeging. Scheelt een hoop resources vergeleken met VM + docker. Hopelijk ook snel functionaliteit om OCI containers te kunnen updaten.
if [[ "$PVE_MAJOR" == "8" ]]; then
if ((PVE_MINOR < 0 || PVE_MINOR > 9)); then
msg_error "Unsupported Proxmox 8 version"
exit 1
fi
start_routines_8
elif [[ "$PVE_MAJOR" == "9" ]]; then
if ((PVE_MINOR != 0)); then
msg_error "Only Proxmox 9.0 is currently supported"
exit 1
fi
start_routines_9
else
msg_error "Unsupported Proxmox VE major version: $PVE_MAJOR"
echo -e "Supported: 8.0–8.9.x and 9.0"
exit 1
fi
}
Dat zijn wel gelijk leuke features!

Ik gebruik nu 3 identieke HP ProDesk mini’s om een Proxmox cluster te vormen. Iedere node heeft 2 SSD’s, waarvan iedere SSD een eigen CEPH replica heeft op de andere nodes (sata CEPH en nvme CEPH). Iedere node heeft ook nog een m.2 e-key 2.5Gbit/s Intel 226 kaartje erin zitten voor redundancy en hogere snelheden over een 2.5Gbit Ubiquiti Flex2.5.

Hiernaast heb ik nog een DIY NAS gebouwd op basis van een uitvoering: ASRock QC5000-ITX/PH met Seagate Exos 8TB sata (server pulled) disks in RAID1 (mirror) - met een aantal cold spares op de plank. Hierop draait OpenMediaVault, die middels NFS een boel LXC‘s en VM’s voorziet van extra storage wanneer dat nodig is. ProxmoxBackupServer draait als LXC op het cluster met een NFS share en draait iedere avond netjes een backup van mijn omgeving.

NFS is nog geen native proxmox (GUI) ding, last time I checked. Wat ik hiermee echter zie is dat ze wel een beweging richting o.a. NFS aan het maken zijn.

Verder is de komst van OCI Images wel erg interessant, gezien de beschikbaarheid van LXC helpers die niet altijd de juiste uitkomst bieden als het gaat om betrouwbaarheid.
Ik heb ook een HP ProDesk mini als server draaien, en tot dinsdag draaide deze ook op Proxmox. Hier had ik dan Plex in een LXC, Home assistant in een VM, en een losse ubuntu VM draaien waarop alle docker (15+) containers draaiden. Ik had in de Ubuntu VM dan de NAS via NFS (fstab) gemount en dit werkte altijd prima eigenlijk.

Alleen voor mijn usecase (het draaien van Plex met arr stack en overige dockers) ben ik over gegaan naar UnRaid. Daarin heb ik nu ook de NAS als NFS gemount om als storage te dienen.
Dat zou mijn tweede keuze zijn geweest, ware het niet dat ik redundancy wil. Ik heb nu met CEPH een RAID vorm waarmee ik voldoende redundancy over 3 nodes heb, wat m.i. een grote meerwaarde is.

Iedereen (behalve ikzelf) heeft absoluut geen idee wat er zich precies in het netwerk bevindt. Dat gezegd hebbende, is het dus ook niet wenselijk dat iemand anders - behalve ikzelf - aan het netwerk gaat klooien wanneer er iets stuk gaat. "Bus factor" = 1, wat een risico is voor het huishouden. Maar dat is dan ook het enige risico dat mijn gezin nu loopt met alle automatiseringen. :)


Om te kunnen reageren moet je ingelogd zijn