Software-update: Home Assistant Core 2025.1.0

Home Assistant logo Versie 2025.1.0 van Home Assistant Core is uitgebracht. Home Assistant Core is een opensourceplatform voor homeautomation gemaakt in Python 3. Het ondersteunt het detecteren van apparaten, zoals Philips Hue, Belkin WeMo-schakelaars, Mr. Coffee-koffiezetapparaten, de slimme schakelaars van IKEA en het MQTT-protocol. Daarnaast kan het waar mogelijk deze apparaten aansturen en automatisering toepassen. Voor meer informatie over Home Assistant verwijzen we naar deze pagina en ons eigen forum. De volledige releasenotes voor deze uitgave zijn hier te vinden; dit is de aankondiging daaruit:

2025.1: Backing Up into 2025!

Happy New Year! The whole Home Assistant project wishes you and your loved ones a fantastic and healthy 2025! Let’s make this year even better than the last! We are all super excited to kick off the new year with an absolute massive release!

This release brings a complete overhaul of the backup system in Home Assistant, which has been in the works for months! And I’m not just talking about some user interface changes—no, we are talking about a complete overhaul from front to back! Automated backups, encrypted Home Assistant Cloud backup storage, retention policies, configuration wizards, and even the ability for integrations to offer backup storage locations!

But that is not all! We also had the Month of “What the Heck?!” in December, which resulted in a lot of quality-of-life improvements raised by the community that month! There is so much to unwrap in this release, seriously, let’s just dive in! Enjoy the release!

Home Assistant Core

Versienummer 2025.1.0
Releasestatus Final
Besturingssystemen Scripttaal
Website Home Assistant
Download https://home-assistant.io/getting-started/
Licentietype GPL

Reacties (71)

71
71
30
0
0
37
Wijzig sortering
Hier heb ik lang op gewacht! Automatische backups (onsite en offsite), inclusief retentie. Een goed begin van 2025. :)
Zijn er al addons voor remote backup? ik zag nu alleen local
Nog niet maar het is ook maar net nieuw natuurlijk. Die komen er waarschijnlijk zeer binnenkort.

Als je een Nabu Casa subscription hebt, kun je al wel op hun server je remote backups wegschrijven.
Nou ja. Een back-up wegschrijven. Het is maximaal een back-up van maximaal 5 GB.

Nou is het formaat meer dan voldoende (voor mij), maar gezien het maar een dag is, vind ik het een beetje jammer.
Tja, op die manier kan je alles wel jammer vinden. Je krijgt een nieuwe feature en daarmee een off site backup mogelijkheid voor dezelfde prijs. Met een uitgebreide setup en goede recorder instellingen blijf je echt wel onder de 5gb. Ben je een datahoarder, dan is de opslag bij casa nabu inderdaad niks. Maar dan ben je ook niet de doelgroep.
Zoals ik al schreef is die 5GB voor mij meer dan voldoende 😊.

Ik bedoel voornamelijk dat je maar één back-up naar hun cloud kunt doen. (Er werd gesproken over backups wegschrijven, waar het er maar een is) Mijn dagelijkse backups zijn ongeveer 70MB. Een volledige week-back-up 370MB.
(Ik upload zelf alles al naar een cloud-oplossing)


Edit: ik bewaar m’n data 72 uur (en dan ook lang niet alles), op een paar zaken na. Die bewaar ik 10 dagen: De aan-uit-status van lampen, voor m’n ‘ik doe alsof ik thuis benu’-stand. Die speelt de lampen af, zoals het ‘vorige week’ was. (Aangezien je op dinsdag anders leeft dan zondag, en op deze manier geen voorspelbaar ‘klok-gedrag’ is 😊.

Dit laatste doe ik via InfluxDB (omdat je in HA niet per item kunt aangeven hoelang je wat wilt bewaren).

[Reactie gewijzigd door lenwar op 4 januari 2025 09:46]

Gebruik al paar jaar de gdrive backup. Met scheduling en retentie.
Dat begrijp ik. Maar voor de nieuwe native backup feature is er een mogelijkheid om externe addons te installeren als opslag keuze
Je kan toch gewoon een Backup maken naar je Nas, en je Nas synchroniseert dan met whatever waarop jij wilt back-uppen.
Het grappige is wel velen van ons gebruiken Home Assistant om niet afhankelijk zijn van de Cloud, maar de back-up’s willen ze wel op de Cloud zetten |:(
Voor mensen met HA core, ik gebruik de HACS auto backup integratie

https://github.com/jcwillox/hass-auto-backup
Ik heb HAOS, maar ik blijf dit ook gewoon gebruiken voorlopig.

Nu heb ik wekelijks volledige back-ups (15 dagen bewaard) en dagelijks back-ups van 'Core'. Alle back-ups worden naar een Pi gestuurd en die stuurt het samen met nog wat ander spul dagelijks naar een cloud-oplossing. Dus een echter 3-2-1-back-up :)
3 - Drie kopieën (op m'n HAOS-server, op m'n pi en in de cloud)
2 - Twee andere media (De pi is een fysiek ander kastje)
1 - Eentje offside (naar de cloud)

Edit: Typo
Nope nog niet. Staat ook in de release notes:

Currently, this feature is brand new ✨, so no integrations offer additional locations yet. However, we expect to see a few more integrations that provide backup locations in the next release.
Ik gebruik deze al een hele tijd en werkt perfect om backups naar mijn Hetzner server te schrijven.
https://addons.mathesonst...mote-backup/basic-config/
Ligt eraan of je het nodig heb. Je kan ook een renote schijf koppelen aan HA. Als je aangeeft die voor back-up te willen gebruiken, dan kan je die ook gebruiken. Het ligt aan je externe storage of je die ook zo kan koppelen of niet. Of anders naar een NAS toe. Of beiden...

De komende maanden zullen er waarschijnlijk standaard mee opties erin zitten, zoals Google drive.
De rclone addon geeft veel opties voor externe backup. Zelf gebruik ik deze addon voor synchronisatie naar backblaze.
De Google Drive Backup addon?
Ik heb ‘m draaien in een VM en gebruik Veeam backup om snel en makkelijk complete images te maken. Veeam heeft een gratis versie die goed werkt hiervoor. Gebruik nog VMWare 6.5 als host, dat is de laatste versie voor mijn HP Microserver gen 8.

Maar ook Proxmox met hun eigen backup-server werkt prima.

Ik moet deze nieuwe backupfunctie van HA nog proberen natuurlijk, maar ik ben altijd bang dat hij iets vergeet. Een bepaalde extensie, een config-bestandje op een vreemde plek misschien. Je weet nooit precies wat een extensie of add-on waar precies neerzet enzo. Ja, ik ben misschien wat overdreven huiverig voor alles wat geen image is… maar in het verleden te vaak meegemaakt dat net íets toch niet in een backup bleek te zitten (niet met HA hoor, maar in het algemeen).
Ik ben altijd juist huiverig met snapshots.
Het blijft een gedoe met bevroren I/O en eventueel halve schrijfacties.
VMWare blijft daar zwak in.

Als we kijken naar hoe Solaris met ZFS dit doet, waar gewoon alles doorloopt terwijl je een snapshot maakt. (Hij schrijft alle datablokken tijdens de snapshot ergens anders en daarna synchroniseert hij alles)

De backups van HA, kun je ook van platform één naar platform twee overzetten. Zo heb ik een migratie van een pi naar een Odroid (andere CPU-architectuur) gedaan via een back-up met minder dan 15 minuten downtime.
Bor Coördinator Frontpage Admins / FP Powermod @lenwar4 januari 2025 10:25
Ik ben altijd juist huiverig met snapshots.
Het blijft een gedoe met bevroren I/O en eventueel halve schrijfacties.
VMWare blijft daar zwak in.
Dat werkt al vele jaren prima bij VMware en wordt door zeer veel organisaties gebruikt. Snapshots hoeven echt geen probleem te zijn.
Het klopt dat het meestal goed gaat.
Ik heb echter persoonlijke recente ervaringen dat het niet altijd koek en ei is.

Bij (drukke) databases kan het echt gedoe zijn.

Solaris met ZFS doet het in elk geval echt een stuk schappelijker, en het verbaast me oprecht dat VMWare het niet beter doet dan het huidige mechanisme.
Bij drukke databases (inclusief bijv. Exchange servers) moet je ook andere oplossingen gebruiken, dat is volgens mij algemeen bekend.Specifiek op de databaseapplicatie geschreven tools kunnen hierbij helpen, en wanneer er API interfaces voor snapshotting van databases zijn zorgt het door de backup/OS snapshottechnieken aanroepen ervan ook voor een stuk meer zekerheid.
Uiteraard. Maar je zegt het zelf al 'een stuk meer zekerheid'. Dat laat nog steeds een marge over.

Snapshotting is een prima oplossing voor backup-doeleinden, maar het heeft ook zeker beperkingen en daar moet je wel rekening mee houden.

Ik ben zelf in elk geval een voorstander van backup-agents die gewoon op de machine draaien.
En ook die hebben ook niet altijd een 100% zekerheid - verre van dat. Zelfs originele tools van de databasemaker kunnen die 100% zekerheid niet bieden.
Databases specifiek blijven inderdaad altijd een ding. Idealiter breng je de database down, maak je een dump en die back-up je. Maar ja... Dat is ook weer een ding en niet realistisch voor ongeveer 100,0% van de use-cases.

Echter :) - Ik heb ooit ergens gewerkt waar er voor twee databases mirrors met 2 RAID5-mirrors (RAID 51 dus) werden gebruikt. De database werd downgebracht. De mirror verbroken, en de database werd dus weer met 1 RAID5 voor de database dus nog opgebracht.

De andere RAID5 (wat nu dus een statisch file system was) werd door een andere server gemount, die deed een volledige SQL-dump en dat werd gebackupped naar tapes en 'eeuwig' bewaard (door een organisatie die die data 'gegarandeerd' beschikbaar houdt tot in den eeuwigheid. Die maken kopieën van die tapes, vervangen de tapes, enz, enz, enz.)

Wanneer die SQL-dump dus klaar was, werd de tweede RAID5 mirror weer teruggezet.

Het was voor die specifieke applicaties heel erg belangrijk dat we met een garantie die databasebestanden 'altijd' (nu en in de toekomst) kunnen gebruiken. Het is niet vanzelfsprekend dat je database software ook oudere type databestanden kan inlezen, en dat je oude databasesoftware op nieuwe hardware draait. Maar als je dus platte SQL-bestanden hebt, die kun je altijd wel inlezen of migreren als dat ooit nodig is.

Bovenstaande procedure werd 4x per jaar doorlopen. (naast alle reguliere back-ups dus)


Maar goed. Bovenstaande is natuurlijk wel een niche-situatie binnen de niche-situaties :)

Het is ondertussen weer wat jaren geleden, dus ik weet niet hoe ze het tegenwoordig regelen.
Ik draai ook in een VM maar schrijf de backups naar een synology via NFS , 350MB in een paar seconden.
Fijn dat deze nu periodiek gepland kan worden!
Het is zeker een grote verbetering, ik vind het om eerlijk te zijn een beetje een zwakke implementatie.

Je kunt maar één schema maken. De cloud-back-up naar Nabu Casa is er altijd maar één (en altijd de laatste), enz.

Ik heb zelf al jaren een integration in gebruik die een keer per week een volledige back-up maakt, en dagelijks alleen van ‘Core’.
De wekelijkse wordt 15 dagen bewaard. De dagelijkse 8 dagen.

Core bevat eigenlijk alles wat relevant is. De addons zijn statisch. Die kun je altijd met de hand herinstalleren. De data ervan staat in core.

Dus tenzij je heel exotische dingen doet, hoef je eigenlijk de Addons nooit te backuppen.

Alle back-ups worden naar een andere pi gekopieerd, en die backuppen het naar een cloud-oplossing samen met andere backups.
Bor Coördinator Frontpage Admins / FP Powermod @lenwar4 januari 2025 10:29
Het is zeker een grote verbetering, ik vind het om eerlijk te zijn een beetje een zwakke implementatie.
Het is de eerste release die nog doorontwikkeld kan worden. Dit hoeft (en zal waarschijnlijk) niet de laatste ontwikkeling op dit punt te zijn. Ik ben in iedergeval blij met de verbetering.
Daar heb ik ook alle vertrouwen in, dat het beter/flexibeler gaat worden. Maar in de huidige opzet vind ik hem vrij zwak.

Dan zijn er betere oplossingen te maken met een paar automations en een andere cloudprovider te maken.

En inderdaad. Het is een grote verbetering ten opzichte van wat er was. Dat was inderdaad heel summier, maar ruim voldoende om zelf een goede oplossing mee te maken.

Het zou fijn zijn als ze het straks wat flexibeler maken. Hoe minder ‘home brew’ hoe beter 😊
was al gewoon een backup action die vuur(de) ik zelf om 3 uur af.
Vraag me af of je nu ook kan restoren vanuit andere home os varianten.
vanaf elke HAOS kan je zeer eenvoudig naar een andere HAOS. voor docker weet ik het niet meer.
Ja, vorig weekend m'n HAOS installatie overgezet van een RBPi 4 naar een VM op m'n NAS met de backup --> restore functionaliteit. Dit was dus ook nog eens ARM --> x86. Ik dacht nu krijg ik wel een sloot foutmeldingen die ik handmatig moet corrigeren incl. aagepaste integraties corrigeren, com poorten voor specieke hardware aanpassen etc. Maar nee, nul! Alles werkte in één keer behalve blueutooth want dat heeft de NAS niet. Was ervan onder ee indruk.

[Reactie gewijzigd door XElD op 4 januari 2025 09:02]

Ja, mooi hè?
Hieraan zie je dat HA heel goed ontworpen is. De software (binaries/libraries/scripting) staat volledig los van de configuratie/data.

Ik heb zelf over de jaren heen ook al twee keer een migratie gedaan van hardwaretype 1 naar 2.
Beide keren met minder dan 15 minuten downtime. (Inclusief het omprikken van netwerkkabel en z-wave/zigbee dongles.)
Ja echt top. Bij mij was de downtime ook minimaal... Toevallig was ik me van tevoren wat aan het inlezen omdat je vaak de suggestie ziet om HA in losse containers te draaien. Leuk, maar voor mijn huis tuin en keukenomgeving is het gemak van HAOS toch wel groot. Maar nu snap ik iig. wel hoe slim HA idd. in elkaar zit o.a. met addons in afzonderlijke containers onder HAOS.
Die kon al.
Ik ben zelf een tijdje terug gemigreerd van een Pi naar een Odroid met minder dan 15 minuten ‘downtime’

Image op de Odroid zetten
Pi backuppen
Back-Up downloaden
Pi uitzetten
Z-wave en zigbee sticks overprikkelen
Odroid aanzetten
Back-Up restoren
En alles deed het weer 😊
Ter info, er is ook een 2.0 update voor zigbee2mqtt met breaking changes. In de changelog staan tips voor de update
Link naar Zigbee2mqtt 2.0 release notes met breaking changes:
https://github.com/Koenkk/zigbee2mqtt/releases

Tips om naar Zigbee2mqtt 2.0 te migreren:
https://github.com/Koenkk/zigbee2mqtt/discussions/24198
Most of the breaking changes are about removing legacy features that have been deprecated for years (replaced & improved since), and as such, automatically disabled for newer networks.
Bij mij liep Zigbee2MQTT vast na de update naar 2.0. In de configuration.yaml van Z2M was de regel van de port/adapter te lang oid en was het veranderd in:

serial:
port: >-
/naam/nogiets/nogiets/etc-blablabla/adapter-met-een-lange-naam

Ik heb de >- weggehaald en de portlocatie op dezelfde regel gezet en nu draait Zigbee2MQTT weer.

dus:
serial:
port: /naam/nogiets/nogiets/etc-blablabla/adapter-met-een-lange-naam

[Reactie gewijzigd door Rixard op 4 januari 2025 11:28]

Aanvullend op jouw post en die van @Novo : ik heb in de serial sectie van de configuratie van ZigBee2MQTT dit moeten toevoegen voor m'n SLZB-06:
adapter: zstack
Zonder bleek ie niet meer te starten na de update naar 2.0, voordien lukte dat wel.
Oorzaak is dat Z2M niet meer default uitgaat van zstack.

Staat ook hier zie ik net: USB adapter discovery error

[Reactie gewijzigd door Church of Noise op 4 januari 2025 10:49]

Bor Coördinator Frontpage Admins / FP Powermod @Church of Noise4 januari 2025 10:49
Dat is ook de aanbevolen oplossing die door de ontwikkelaar zelf wordt aangegeven in de releasenotes.
Klopt, en ik had de releasenotes gelezen, maar iets te snel zo blijkt...
Daarom dat ik het hier maar even extra meegeef voor tweakers die dezelfde fout als ik maken :)
Bor Coördinator Frontpage Admins / FP Powermod @Gaiber4 januari 2025 12:14
Inmiddels is er een 2.0.0.1 update beschikbaar gesteld.
Ik zie dat op dit moment alleen nog maar dat officieel 2.0.0 (bij Releases) beschikbaar is.
Bor Coördinator Frontpage Admins / FP Powermod @GorgeousMetal7 januari 2025 08:16
De versie die geïnstalleerd wordt is 2.0.0.1 volgens de header. Overigens is 2.0.0.2 er nu ook na issues met het verdwijnen van zigbee2mqtt uit de repository.
"This release brings a complete overhaul of the backup system in Home Assistant"
Kunnen we nu bijv. ook alleen de data van het energy dashboard backuppen en afzonderlijk terugzetten?
Nee, de energie-data staat in het ‘langetermijn’-gebeuren. Dat is denk ik wat onder ‘History’ staat.
Bor Coördinator Frontpage Admins / FP Powermod @Raven4 januari 2025 10:50
Helaas niet. Die data is niet gescheiden van de rest en ook niet gescheiden te restoren helaas. Dat is op zich wel een interessant idee. Misschien kan je dit als feature request indienen?
Ben wel benieuwd wat voor jou de reden is om deze mogelijkheid te hebben? Puur interesse, omdat ik nooit deze behoefte heb gehad.
HAOS besloot een paar maanden terug dat de database corrupt was (tot dat moment niks van gemerkt) en gooide daarna een shitload aan data weg, met een van 0 beginnend energy dashboard tot gevolg....

[Reactie gewijzigd door Raven op 4 januari 2025 19:25]

Eindelijk in en uitzoomen op de history grafieken. Had er natuurlijk jaren geleden al in moeten zitten.
Bor Coördinator Frontpage Admins / FP Powermod 3 januari 2025 22:49
Een mooie update! De backup veranderingen zijn zeer welkom! Top!
En weer terug naar 2024.12.5, de integratie van mijn Mitsubishi Airco's WF-RAC, wordt niet/nog niet/niet meer???? ondersteund. Iemand die er iets meer van weet. WF-RAC draait al tijd stabiel bij mij, dus heb er een tijd niet naar gekeken.
Follow. Draai ook 12.5 nu nog.. ik wacht nog even.
Taro Moderator General Chat / Wonen & Mobiliteit @videodok4 januari 2025 12:15
Mocht ooit een van de modules ermee stoppen, overweeg dan de MHI ESP32Home boardjes (Hier ook via V&A te koop), die gaan mee met de ESP32Home ontwikkeling en blijven dus goed up-to-date.
Mijn fout, ik had een behoorlijk oude custom install van de WF-RAC integratie, deze verwijderd en via HACS geinstalleerd, ik draai nu 2025.1.2 en WF-RAC 2024.7. Ik had er een behoorlijke tijd niet naar gekeken naar WF-RAC omdat het zolang stabiel draaide. Jeatheak, de maker van de integratie reageerde heel snel op github waardoor ik weer up en running ben.
Ik ben al een tijdje opzoek naar iets als dit. Het liefst zou ik een schermpje (tablet grootte) aan de muur in de woonkamer maken waar een soort Dashboard op te zien is met gegevens zoals ook bij dit artikel is geplaatst.

Ik vraag me dan alleen het volgende af;
Ik zou er graag mijn camera's op willen zien (Arlo), alarm systeem (Verisure) en de automatische kattenbak en robotstofzuiger welke ik nu beide via de Smart Life app bedien. Is zoiets mogelijk?
Dat kan je redelijk eenvoudig maken, nieuw dashboard daarop plaatsen wat je wilt zien en dan en tablet app installeren en dan dashboard erop.
Ga ik proberen, bedankt!
Ik gebruik Home Assistant zelf in een docker container gehost op mijn NAS. Voor backups heb ik zelf een bash scriptje gemaakt die een .tar.gz maakt van mijn hele homeassistant directory op mijn filesystem. Doe dit elke zaterdag nacht en bewaar een rolling-backup van de afgelopen 30 dagen.
Dit draait al jaren en heb ik eenmalig moeten gebruiken, ook dat werkte!

Enig nadeel van deze setup is dat ik voorafgaand aan het starten van de backup de container uit zet en achteraf weer aan zet. Heb dus eventjes een downtime. Als ik dit niet doe, failed het maken van de .tar omdat er in de tussentijd een mutatie kan komen op een van de files in de directory.

Ik ga zeker eens kijken naar deze backup opties. Benieuwd of ik hetzelfde kan bereiken met deze functionaliteit exclusief genoemd nadeel.
Als idee: zet het op een filesystem dat snapshots ondersteund (bv BTRFS) en maak eerst een snapshot en backup dan de snapshot.

Zo backup ik al mijn zaken, elke 6 uur een snapshot, ik bewaar de laatste 10 snapshots, elke nacht een copy van de laatste snapshot naar de backup disk. Van deze dagelijkse backups bewaar ik de laatste 2 backups plus alle backups van Zaterdag.

Met BTRFS gebruikt dat niet al te veel disk ruimte omdat een snapshot niet meer ruime gebruikt dan de data die verandert is sinds die snapshot gemaakt is. Hetzelfde met de backup snapshots, de eerste backup gebruikt zoveel data als je verwacht, de opvolgende backups bevatten alleen de veranderingen. Toch kun je een willekeurig snapshot restoren en evt verwijderen zonder dat het de andere snapshots beïnvloed.
Is er een wezenlijk verschil tussen draaien op een recente NAS of bijv een Raspberry Pi 4? Heeft het een voordelen tov het andere?
Als ik mij niet vergis is de native storage van een Pi een sd kaart. In mijn ervaring is dit onvoldoende betrouwbaar. Heb vaak opnieuw moeten beginnen met m'n Pi's door falende sd kaartjes.

Mijn NAS gebruik ik fanatiek als homeserver. Homeassistant draait hier netjes bij. Enige nadeel wat ik ervaar is dat homeassistant heel veel disk io heeft, waardoor m'n disks nooit idle zijn. M'n stroomverbruik is relatief hoog. Heb het evhter niet exact gemeten.
Ok. Goed punt. Hoe meer recorder van je sensoren vastlegt, des te intensiever je diskgebruik. Een SSD icm de Pi gebruiken zou de onbetrouwbare SD kaart buiten spel moeten zetten.
Bor Coördinator Frontpage Admins / FP Powermod 4 januari 2025 11:03
De backup wizzard ziet er netjes uit. Je wordt direct gewaarschuwd de encryptie key op te slaan en kan jeze in de vorm van een "rescue package" downloaden. Netjes!

Op dit item kan niet meer gereageerd worden.