De smarthomesoftware Home Assistant kan voortaan ook apparaten in huis aansturen aan de hand van grote taalmodellen, of llm's. Daarmee wordt het mogelijk om complexere spraakcommando's te geven.
Home Assistant gebruikt net als andere smarthomesoftware een spraakassistent op basis van AI die spraakcommando's begrijpt, de gevraagde actie kan uitvoeren en een reactie kan geven. Home Assistant gebruikt hier standaard zijn 'conversation agent' voor. Daarnaast is het al sinds het begin mogelijk om een gesprek te voeren met een spraakassistent die op een llm gebaseerd is. Maar gebruikers konden die assistent niet gebruiken om apparaten in hun huis aan te sturen.
Daar komt met de nieuwe versie van Home Assistant verandering in, schrijft het bedrijf in een aankondiging. Voortaan bestaat er ook een conversation agent op basis van een llm, die veel complexere commando's aankan. Denk bijvoorbeeld aan: "Ik ga een videovergadering in, kun je zorgen dat mensen mijn gezicht kunnen zien?" De nieuwe spraakassistent kan de intentie achter dit soort commando's begrijpen en de bijbehorende actie ondernemen, zo claimt de organisatie.
Gebruikers kunnen zelf kiezen of ze de traditionele spraakassistent gebruiken of de spraakassistent die op een llm gebaseerd is. Wie voor een llm-assistent kiest, kan vervolgens ook zelf bepalen welk llm dan gebruikt wordt. Home Assistant heeft al integraties met OpenAI, de maker van ChatGPT, en Google AI. Ook is er een mogelijkheid om lokale llm's te draaien, maar die kunnen vooralsnog geen huizen aansturen. Home Assistant werkt met Nvidia samen om dat op een later moment alsnog mogelijk te maken.
Home Assistant werd in 2013 opgericht door de Nederlander Paulus Schoutsen. Tweakers sprak hem afgelopen mei tijdens de State of the Open Home-stream.