Nabu Casa presenteert stembedieningshardware voor Home Assistant op 19 december

Nabu Casa houdt op donderdag 19 december een productpresentatie. Het bedrijf zegt daar zijn eerste zelfontwikkelde hardware voor stembediening aan te kondigen. Gebruikers kunnen die gebruiken om een lokale spraakassistent op te zetten in Home Assistant.

De Home Assistant Voice-presentatie vindt op 19 december plaats om 21.00 uur Nederlandse tijd, zo bevestigt Nabu Casa in de releasenotes voor Home Assistant 2024.12. Het evenement in kwestie wordt op dat moment live uitgezonden op YouTube.

Het bedrijf spreekt al langer over de komst van dit soort hardware voor stembediening met Home Assistant; het product staat al enige tijd op de roadmap en onlangs verschenen foto's van deze hardware al bij de Amerikaanse keuringsdienst FCC.

In mei publiceerde Tweakers een interview met Home Assistant-oprichter Paulus Schouten, die al details deelde over het apparaat. De hardware wordt gebaseerd op ESP32 en moet bestaan uit onder meer een luidspreker en een microfoon, die stemcommando's herkent en doorspeelt naar Home Assistant, waardoor het apparaat functioneert als een simpele slimme speaker, zo bevestigde de maker eerder al.

Home Assistent Voice Preview EditionHome Assistent Voice Preview Edition
Home Assistent Voice Preview EditionHome Assistent Voice Preview EditionHome Assistent Voice Preview Edition

De Home Assistant-voicehardware van Nabu Casa. Bron: FCC

Door Daan van Monsjou

Nieuwsredacteur

04-12-2024 • 14:15

64

Submitter: Skit3000

Lees meer

Reacties (64)

Sorteer op:

Weergave:

Ik begrijp dat stembediening erg leuk is maar ik begrijp niet dat het nu moet tewijl er nog zoveel meer belangrijke zaken nodig zijn om HA mainstrream en vooral toeganngkelijk te maken. Dat was volgens het vorige interview het ultieme doel.

Toch mis ik heel wat features om externe sensoren automatisch te herkennen en op 123 implementeren in de interface.
"Voice" is maar één van de onderwerpen in de roadmap: https://www.home-assistan...024/11/15/roadmap-2024h2/

Vergeet niet dat Home Assistant dit jaar bekroond is met het #1 open-source project op GitHub met meer dan 21k contributors. Die werken echt niet allemaal aan voice ;)
Genoeg om naar uit te kijken!

[Reactie gewijzigd door Neejoh op 4 december 2024 16:27]

Geweldige reactie hier! Het is inderdaad een enorm team die aan verschillende productgroepen werkt. Het team moest in ieder geval een focus hebben en dit jaar was het Voice :)

Dank voor het delen van de roadmap hier!
Tijd gaat hard, year of the voice was al weer vorig jaar :)
Klopt weer aan bij 2023 |:(
Dat begrijp ik maar om even wat in context te plaatsen. De 21k contributors gaat vooral over integraties en niet over de core OS. Dat doen ze zover ik het interview kon begrijpen zelf.

Ze verdienen enkel aan dat cloud abonnement. Blijkbaar voldoende om 15-20 mensen te betalen om aan het OS te werken. De interface etc.

Met zo’n klein team en budget moet je keuzes maken en ik ben van mening dat hun OS meer standaard integraties makkelijker moeten kunnen integreren. Daar zit de heilige graal.

AI kan daar een doorbraak betekenen want dan zou je via een conversatie met een AI bot kunnen uitleggen wat je wil, zonder kennis van de achterliggende systemen en uren opzoek en testwerk. Dan wordt het mainstream.

Tegelijk zorgt het ervoor dat externe bedrijven eigenlijk enkel maar een zeer goede handleiding moeten schrijven zodat de HA AI (en andere) heel goed begrijpt wat er mogelijk is met een apparaat, wat de errors willen zeggen etc. En dat zonder dat ze een specifieke HA integratie moeten schrijven. Tegelijk hebben powerusers ook toegang tot betere documentatie.

HA kan op hun beurt geld vragen aan mainstream gebruikers voor hun AI-integratie-helper om zo hun team te betalen om het OS te verbeteren. Dat is een win-win lijkt me. Voor de power userd, voor de externe bedrijven en voor HA zelf.
Blijkbaar weet je hoe het allemaal moet, ik zou zeggen zet hem op, bouw je eigen systeem.
Ik weet niet waar je deze info vandaan hebt, maar kijk anders even op de home assistant github https://github.com/orgs/home-assistant/repositories tussen de 102 repositories. Alles is open source en ook hun OS heeft 131 contributors.

Ja, de meeste van de 21k gebruikers zullen bijdragen aan de core repo, maar de rest is net zo open, het OS, de frontend, IOS en android native apps, en alles rondom spraakbediening.
@AdeZ en @Coolstart, de 21k contributors zijn enkel voor de core repo en volledig los van de overige repo's binnen home-assistant.

Zie de tabel "Top 10 public projects by contributors on GitHub" op https://github.blog/news-insights/octoverse/octoverse-2024/
Mocht je nou heel veel van zulke ideeen hebben, deze maand is het Month of What The Heck, waarbij we op zoek zijn naar features die het leven net iets makkelijker maken. Je kan ze terugvinden (en upvoten) op het forum, maar je kan er ook zelf eentje aanmaken. https://community.home-as...-the-heck-category/799919
Hoe mainstream wil je het hebben? Het zal nooit voor je moeder worden denk ik. Het blijft wel voor tweakers. In die context is het behoorlijk mainstream, zie de activiteit op github.
Het gaat denk ik ook om een kleine finananciele ondersteuning: Nabu Casa zal geld verdienen aan de hardware wat natuurlijk ten goede komt aan de ontwikkeling van HA.
ik ben eigenlijk wel benieuwd naar waar je op doelt,

welke dingen zijn er volgens jou dan niet zonder veel eigen inbreng te automatiseren waar een doorsnee persoon aan zou dingen of het 'handig' zou vinden ...

lichten aan, gordijneen open, thermostaat aanpassen,

de meest ingewikkelde config die ik tot nu toe heb is een deur/raam sensor die een notificatie stuurt als de deur langer dan 3 minuten open staat, (ik wil dat nog uitbreiden naar: of al na 30sec als er niemand thuis is (volgens hun mobieltjes/wifi netwerk detectie).
Waarom automatisch herkennen? Ik vind het net leuk om manueel wat controle te hebben.

Idem met het idee dat er voor alles een GUI moet zijn, laat dat maar, wat scripten werkt veel duidelijker en leuker.
Het ene hoeft andere niet tegen te houden.
Neen, maar je kan resources maar 1 keer inzetten en dan heb ik liever dat ze aan andere dingen werken ipv “gebruiksvriendelijkheid”
Die gebruiksvriendelijkheid is juist het allerbelangrijkste om een goede userbase te krijgen.
Als het minder tweakers level heeft kunnen meer mensen het gebruiken, die mensen willen ook niet met hun router thuis prutsen dus verkopen ze weer wat cloud abonnementen.
En is er weer meer geld om mensen aan te nemen die weer aan jou wensen kunnen werken.
Ik zag hem onlangs ook al bij een youtuber op zijn bureau liggen, de video ging over iets anders, maar het is duidelijk dat ze al naar reviewers zijn gestuurd. Ik ben heel benieuwd naar de functionaliteit, al weet ik niet of ik het al zie zitten om lokaal een LLM te draaien, stroomverbruik (van de server) is tenslotte ook een ding. Ik ben benieuwd of er ook efficientere dedicated ai chips in ontwikkeling zijn die dit over kunnen nemen waardoor je geen enorme gpu hoeft te draaien zoals bijvoorbeeld met gezichtsherkenning etc al het geval is.
Je hoeft geen LLM te gebruiken voor voice.

De HA conversation agent kan standaard zinnen omzetten naar intenties via een handmatig geprogrammeerd stukje software. Er komt geen LLM bij kijken en de enige A.I. is voor speech to text wat maar weinig stroom kost.

Vanavond kan je tijdens de livestream zien hoe je de conversation agent kan combineren met een LLM. Mijn verwachting is dat de verschillen snel duidelijk zullen worden.

[Reactie gewijzigd door AJediIAm op 4 december 2024 18:27]

Er is inmiddels fallback naar cloud llm.

Het grootste probleem voor me is dat de enorme hoeveelheid entities nogal moeilijk te verwerken is voor llm. Ik heb opschoonwerk te doen voordat het ook maar enigzins performed bij me

[Reactie gewijzigd door sjongenelen op 4 december 2024 14:27]

Ben wel benieuwd wat voor opschoonwerk je hebt gedaan, kun je daar wat meer over delen?
Naar mijn weten worden alle exposed entities als context meegestuurd naar LLMs, dus door niet al jouw entities op te sturen maar alleen je lichten, mediaspelers en gordijnen (or whatever more) te selecteren blijft de prompt kleiner.

In het scherm [Settings » Voice Assistants » Expose] kun je alles uitvinken via de redelijke nieuwe "Select all" checkbox en dan te kiezen voor "Unexpose".
Daarna kun je zelf gaan aanvinken welke entities je wél wil delen met de voice assistants.
Als je een LLM gebruikt die function calling ondersteunt zou je in theorie af kunnen zonder ook maar één entity als context mee te sturen, en in plaats daarvan een functie definiëren met een parameter "EntityName" die de LLM op kan roepen zodra het een entity ontdekt en daar de code wil gebruiken. Je moet dan wel nog een soort van fuzzy matchen als een naam niet exact overeen komt, om daarna slechts de entities te sturen die waarschijnlijk degene zijn die de LLM nodig heeft.

Het wordt lastiger als je een lamp hebt die bijvoorbeeld "Lamp achtertuin" heet, want je wilt dat die dan ook mee geschakeld wordt met "verlichting buiten" of "tuinverlichting".
Als je met scenes werkt zou het best beperkt moeten kunnen worden
Zoals hieronder gezegd is. Alles (wat aan staat) wordt als context meegestuurd. Ik heb enorm heel entities die ik niet gebruik (device_tracker bijv) en waar ik nooit naar om heb gekeken.
Ja, want ik had 'm dus gekoppeld aan OpenAI via de (betaalde) API en ik was inderdaad in no-time door mijn tegoed heen, ook al vroeg ik alleen maar om de tijd of iets simpels.

Ik had toen geen idee hoe dat kwam, maar ontdekte toen (wat ergens ook logisch is) dat hij elke keer werkelijk ALLES meestuurde.

En die hardware, ik heb zelf zoiets gebouwd op basis van een Raspberry PI en een goede microfoon met 6 richtingen ed. Wake-word wordt lokaal gedetecteerd, spraakherkenning gaat via OpenAI (de herkenning dan). Daarna komt het terug en gaat het wederom door OpenAI (maar dan het LLM) om er chocola van te maken.
Op zich werkt dit prima en ook snel en goed. Wake-word detectie wilde ik wel graag lokaal, want anders streamt hij 24/7 alles naar je HA-Box voor de herkenning en dat wilde ik niet.
Stroomverbruik? ik denk niet dat dat ding 24/7 op volle kracht draait om te wachten tot jij weer eens een commando geeft. Daar zou het stroomverbruik dan in de orde van grootte van een Alexa of Google liggen. Zuiver bij de processing die bij de huidige systemen ergens in de cloud gebeurt kan je wellicht een hoger verbruik verwachten, maar hoeveel voice commando's geef je per dag? 10? met een minuut verwerking per commando? Verwaarloosbaar stroomverbruik...

Door zelf commando's te definieren hoeft de stembediening niet te proberen alle dingen te verstaan en Wikipedia definities van "licht" te geven als je eenvoudig je licht aan wilt zetten...

Tegenover het "genot van krachtige servers in de cloud" staan dan horden die proberen zoveel mogelijk data te stelen en afhankelijkheid van de nukken en grillen van Amazon/Google/Apple: ik heb zelf Alexa in de slaapkamer (Alexa: Licht! Alexa: Donker! Alexa: hoe laat is het? Alexa: zet een alarm voor 08:00) , een Apple iPhone/iPad en een Meta VR set, dus mijn privacy ligt sowieso op straat... maar zulke hardware kan helpen!

[Reactie gewijzigd door batteries4ever op 4 december 2024 15:19]

Ik hebt het niet over het stroomverbruik van dit ding, ik heb het over het draaien van een LLM op een eigen server waarbij het stroomverbruik van mijn server van 20w naar 60w idle gaat als ik er een videokaart van ~800 euro in zet, laat staan als hij wordt belast. Leuk dat het lokaal kan, maar de kosten zijn mij nog wat te hoog. Als het straks kan met een insteekkaartje van 40 euro met een dedicated chip die idle 5 watt verbruikt is het een ander verhaal.
Een complete LLM is schieten met een kanon op een mug. Ik wil geen filosofische discussies houden met zo'n ding, maar wat is er nu helemaal nodig om b.v. een lamp aan te zetten? Daarvoor een paar honderd € te betalen en nog eens de idle verbruikskosten zou het mij i.i.g. niet waard zijn. Zit in dat ding geen simpele processor om commando's te ontcijferen?
Er zit een ESP32 in, dat is prima voor een wakeword, maar de rest draait op je HA server, en hoe sneller die is, hoe beter en geavanceerder het LLM kan zijn. Een geavanceerder LLM zorgt er ook voor dat hij context snapt en je instructies niet een op een hoeft na te zeggen. Voor mij geen probleem, maar mijn vrouw en kinderen gaan geen 50 exacte zinnen onthouden om iets aan of uit te zetten. "doe het woonkamerlicht aan" en "doe het licht in de woonkamer aan" zijn al twee verschillende zinnen, als je het niet exact zo zegt werkt het niet. Bij een LLM kan je zeggen, "het is hier te donker, doe er wat aan", hij snapt dat je in de woonkamer bent omdat je tegen de speaker in de woonkamer praat, hij snapt dat er lampen zijn en dat die aan moeten. Maar zoals je zegt, de (verbruiks)kosten zijn het mij ook niet waard, maar als dit met een simpelere dedicated chip wel kan in de nabije toekomst dan zou dat mooi zijn.
Het werkt juist vooral goed met cloud LLM. Niet zo geweldig met lokale. Ze hebben wel "samen met nVidia" wat gemaakt maar het werkt niet zo goed. Dat kan ik ook wel bevestigen.

Ik heb tegenwoordig alles via OpenWebUI lopen en dan met een "tool" aanroep naar HA doen. Dat vind ik ook handiger omdat OpenWebUI veel meer tools aankan dan alleen HA integratie. Maar helaas werkt dat niet met voice hardware zoals dit. Misschien als dit uitkomt dat ik het wel andersom ga proberen.

Ik heb wel een lokale LLM, idd met "dikke GPU". De kosten vallen wel mee trouwens. Hij doet 45W idle, 200-300W in gebruik. Ik betaal iets van 15c per kWh dus dat is wel goed te doen.

Zoals @sjongenelen zegt is het idd wel heel belangrijk je entities op te schonen en nog belangrijker, duidelijke namen te geven.

[Reactie gewijzigd door Llopigat op 4 december 2024 15:20]

Je zult vast wel meer doen met je systeem, maar 45W idle is bijna 400kWh per jaar. Afgezien van de kosten is dat toch best wel veel als dit alleen voor HA zou zijn.
Nee dit systeem is alleen voor de LLM. Ik heb iets van 20 "systemen" in huis (vooral servers). Maar niet specifiek voor HA, het doet veel meer taken dan dat. Ik gebruik LLM eigenlijk juist weinig met HA omdat de integratie niet geweldig is. Misschien dat dit met die nieuwe versie wat beter gaat.

De GPU is gewoon helaas niet zo zuinig in idle. Maar het is niet erg, het is per jaar 60 euro ongeveer, en ChatGPT kost 20 per maand en dan heb je niet eens API toegang. De GPU zelf heeft me 300 euro gekocht dus de stroomkosten vallen in het niet bij de aanschaf ervan.

Ik denk dat er binnen een jaar of 2 wel speciale LLM kaarten of chips komen die beter zijn in standby verbruik. De integratie in de CPU (die nieuwe "copilot+" chips) zal niet echt geweldig werken denk ik want het probleem met gewoon geheugen is de lage bandbreedte. Mijn GPU (die ik voor LLM inzet) doet iets van 1GB/s. Met gewone RAM zit je op 100-200MB/s.

HA zelf draait op een mini-PC (N100) die ongeveer 10W doet.

[Reactie gewijzigd door Llopigat op 4 december 2024 15:34]

waarom kan een llm niet op coralIA draaien ?? wat dat kaartje niet juist bedoelt voor die onzin?
Een CcoralAI heeft geen geheugen daarvoor. Dus elke zoekactie moet via de USB bus, dat gaat tergend langzaam zijn. Zelfs trager dan via de CPU! Ook houdt het aantal tensor ops niet echt over. Het blijft een simpel dingetje.

Het is inderdaad bedoeld om AI modellen te draaien maar niet specifiek LLM's. Toen hij uitgevonden werd, waren LLM's nog niet echt in zwang. LLM's vereisen heel snel geheugen dat direct aan de tensor processor gekoppeld zit, liever veel sneller dan gewone DDR4/DDR5.

Zo'n CoralAI is leuk om een dedicated model op te draaien voor een heel specifiek doel. Bijvoorbeeld frigate gebruikt het om objectherkenning te doen in video. Ook kunnen ze dingen als keyword detectie "hey siri" en dergelijke. Maar een hele LLM is te veel gevraagd.

[Reactie gewijzigd door Llopigat op 4 december 2024 16:40]

Dat zou juist een oplossing zijn voor voice commands?
Al in 1997 ofzo had ik een simpel spraak commando tooltje draaien die met +/- 20 stem samples per commando goed (>90%) reageerde.
Per gebruiker in een thuissituatie prima te doen lijkt me?
Hoeft geen woorden maar patronen te matchen, per functiedeel. Sleutelwoord (wakker worden commando) en dan Apparaat en Toestand. Dan ben je er wel. Misschien iets complexer als je dimmen wil.
Datzelfde houdt me ook tegen. Ik heb een redelijk krachtige (tenminste vergeleken met een Pi) mini PC in gebruik als server, maar voor LLM's en dat soort dingen is het gewoon niet voldoende. Ik wil ook niet constant een dikke GPU poweren voor die paar keer per dag dat ik te lui ben om mijn smartphone te nemen om het licht uit te doen.

Fallback naar cloud klinkt interessant als dat kostentechnisch gewijs op te lossen is met een soort pay-per-token model en niet vasthangt aan een maandelijkse kost.
Fallback naar cloud klinkt interessant als dat kostentechnisch gewijs op te lossen is met een soort pay-per-token model en niet vasthangt aan een maandelijkse kost.
Het pay per token model is zelfs noodzakelijk hiervoor omdat het 20-euro vaste ChatGPT abonnement geen integratie via API toestaat. Dus iets als HA kan je er niet aan koppelen. Maar het is sowieso een heel stuk goedkoper als je het per token doet. Zeker als je de goedkopere modellen pakt (GPT-3.5 of 4o).
Interessant. Je kon natuurlijk zelf al lang zelf iets maken met een ESP32 en wat electronica spul. Maar zo wordt het stuk laagdrempeliger om voice toe te voegen aan je HA.

Voice gebruiken om dingen te bedienen lijkt heel leuk maar verveelt in de praktijk snel. Het kan handig zijn als je je handen niet vrij hebt maar verder gebruik ik liever mijn dashboard aan de muur of 1 van mijn Smart buttons. Voor informatie opvragen zie ik wel mooie use cases. Is lamp x uit? Wanneer was er voor het laatst beweging in ruimte Y?
Ben het niet helemaal met je eens.
Zelf hier nu nog een google home staan die de standaard commando's voor mij uitvoert. Meest gebruikt is toch wel

- Doe de lampen aan
- Doe de tv aan
- welterusten

Maar is stuk makkelijker dan weer je telefoon pakken of naar de tablet lopen.
Bij mij tv zit een smart button onder de salontafel. Hiermee kan ik de activiteiten gamen, tv kijken, movies kijken en alles uit bedienen. Voordat jij Hey Google hebt groepen, heb ik mijn activiteit al opgestart.

Zelfde voor nacht. Als ik langs mijn wall dashboard loop, gaat hij vanzelf aan. Daarna kan ik met 1 druk op de knop Good Night mode activeren. Alle lampen uit, thermostaat omlaag en alarm aan op nachtstand. Toch makkelijker dan Het Google....... Good Night.

Mijn telefoon gebruik ik thuis bijna nooit om mijn huis mee te bedienen. Zeker niet als ik beneden ben.
Bij mij tv zit een smart button onder de salontafel. Hiermee kan ik de activiteiten gamen, tv kijken, movies kijken en alles uit bedienen. Voordat jij Hey Google hebt groepen, heb ik mijn activiteit al opgestart.
Dat klopt als jij naast de tafel zit met je hand in de buurt van de knop.
Probeer het nu eens als je in een andere kamer bent en denkt oeps, de tv staat nog aan.
Ik heb letterlijk 1 knop (niet op mijn telefoon) om het alarm aan te zetten en vervolgens gaat alles uit dat 's nacht niet aan hoeft te zijn.
Bediening met de stem is wat mij betreft alleen maar onhandig en duurt langer.

Het hele idee van Home Assistant is in mijn beleving dat er zoveel mogelijk automatisch moet gaan, of met zo min mogelijk knoppen. Het bedienen met de stem lokt alleen maar uit dat er zaken per ongeluk aan of uit worden gezet.
volgens mij is een voice asistant in je Home Automation vooral handig voor de uitzonderingen,

wil ik wel dat elke middag om half 5 mijjn tv aan gaat, of wil ik eigenlijk wel dat HomeAsistant kijkt wanneer ik thuis kom en of dat thuiskomen het aanzetten van de tv rechtvaardigd?

of heb ik liever gewoon een kastje dat luistert naar: - zet de tv aan, doe het licht aan, speel x muziek af, zet y afspraak met z in mijn agenda.

als dat buiten de bemoeizuchtige systemen van M G & A kan dan is dat zeker een pré

en dat maakt als zonanig stembesturing handig, je wilt bovendien ook geen 92 knoppen in je huis hangen vvoor elke sfeer of andere preset dan ook..

of dat dan met LLM moet of dat het ook met aangeleerde zinnetjes kan laat ik voor nu even in het midden.
mee eens;
zet lampen aan, zet witte lampen aan, zet timer voor 6 minuten en even later 'zet timer voor 2 minuten', welterusten; wij gebruiken het regelmatig op de Google Home.
Precies. Hier dan wel met Apple. Wat ik vanuit HA wil doorzetten zet ik door naar Homekit. Heb mijn telefoon bij de hand en anders mijn horloge waar ik tegen kan praten. Werkt prima.
Hint: slaapkamer! Niet ergens op een knopje drukken maar gewoon roepen, of b.v. keuken terwijl je kookt.
Voor normaal gebruik b.v. woonkamer zijn knopjes vaak handig, maar ook die zijn niet op elke plaats waar je zit bereikbaar, zodat ook daar soms stemcommando's handig zijn.
Ik gebruik voice voor dingen die niet geautomatiseerd gaan. Bijna alles gaat vanzelf maar voor sommige dingen werkt dat gewoon niet. Naar bed gaan bijvoorbeeld.
Ik zie veel opmerkingen over het nut van stembediening versus een knop. In mijn optiek is het niet of het een of het ander maar meer het een en het ander. Ik heb via HA veel automatiseringen lopen die geen bediening nodig hebben (automatisch stofzuigen als er niemand thuis is, buiten lampen aan / uit gebaseerd op zonsondergang, binnen lampen automatisch aan als er niemand thuis is e.d.).

Voor mijn verlichting heb ik knoppen (maar kan natuurlijk ook via HA en via Home Kit). Mijn televisie en andere apparatuur bedien ik in principe met een harmony afstandsbediening, maar in de praktijk zet ik mijn tv ook regelmatig met mijn stem aan via mijn Google Home.

Het belangrijkste is dat alle apparaten wel via 1 centrale plek worden aangestuurd (HA in mijn geval). Ik vind het juist fijn dat dit op diverse manieren kan. Spraak is bij mij overigens ook wel degene die ik het minst gebruik.

Ik hoop overigens dat Nabu Casa eventueel ook een schakelaar zoals de NS Panel (of NS panel pro) gaat maken. Daar zou je dan zowel fysieke knoppen, een (klein) schermpje en microfoon kunnen combineren.
is NS panel net van sonoff want dan hoef ik die troep echt niet,

ik wilde ooit geld besparen door sonof ram/deur sensoren en sonof motion detectors te kopen, binnen 3 maanden lagen die dingen in de kliko en heb ik hue sensoren gekocht.
Daarom hoop ik ook dat Nabu Vasa iets vergelijkbaars gaat maken. Dat heb ik toch net wat meer vertrouwen in.

Overigens heb ik mijn NS panels wel zo getweaked dat daar een HA-dashboardje op draait.
Ik ben blij dat er nog partijen als Nabu Casa/Open Home Foundation bestaan, tussen al het geweld van de megalomane techgiganten.

Heerlijk dat een stel nerds (en dat bedoel ik uiteraard als geuzennaam ;)) zulke sympathieke dingen doen. Zo kan het ook, denk ik dan.

Ben benieuwd naar dit product!
Gebruik al een paar jaar voor voice bediening de ReSpeaker van Seeed in combinatie met de Rhasspy addon in Home Assistant.
Dat werkt lokaal. Geen internet nodig. Wel zelf de intents en dergelijke voor maken.

Het enige nadeel is dat deze ReSpeaker alleen in de woonkamer staat. En dat werkt op zich prima. Direct via usb gekoppeld aan de HA hardware. Een vm op een nas.

Met de nu uitgebrachte Nabu Casa stembedieningshardware zou het ook vanuit ander ruimtes aangestuurd kunnen worden. Dat zou een mooie uitbreiding zijn.
Zie ook hier in het Tweakers forum topic Home Assistant: Open source Python3 home automation - deel 4

[Reactie gewijzigd door pentode op 4 december 2024 18:05]

Ik sta op het punt een Home Assistant Green aan te schaffen, dus ben wel heel benieuwd of dit gaat werken in combinatie met de Green.
Waarom niet? Hij zal met elke Home Assistant installatie werken.
Vanuit performance optiek. De green is een lichtgewicht apparaatje en ik kan mij voorstellen dat voice wat meer rekenkracht vereist.
ik zou de green (en elk yello) persoonlijk sterk afraden,

voor dat bedrag zijn er heule goede mini-pctjes (chrmeboxen etc) te vinden.
Ik kan zowel de Green als Yellow sterk aanraden.

Het is prima hardware, uitstekend ondersteund en je sponsort er het Home Assistant team mee.

Beide zijn ook extreem zuinig (2-3W). Een mini PC gebruikt al gauw 15-20W. Dat kost €30-50 euro extra aan stroom. Ik doneer de winst graag aan Nabu Casa in ruil voor een mooi open source product.

P.S. Ik heb zowel een Yellow (productie systeem) als Green (test systeem)

[Reactie gewijzigd door AJediIAm op 4 december 2024 18:31]

Ik ben het grotendeels wel met je eens maar mijn thin client staat grotendeels niks te doen en trekt echt geen 15-20 watt. Ik heb wel een Nabu Casa abbo voor sponsoring.
Ik heb met een Pi en een Voice HAT een Voice Assistent gebouwd maar kreeg de custom wake works niet goed werkend. Soms zeg je heel duidelijk dat woord maar pakt hij hem niet en soms zit je wat te mompelen en dan gaat hij wel af. Ik hoop dat de iig de custom wake words wel goed werken met dit apparaat.
Ik ben benieuwd en erg geïnteresseerd maar...
Een Nest ziet er toch wel een stuk fraaier uit en het oog wil ook wat.
Wat moet het kosten? De concurrentie is vrij goedkoop. En die hebben we al in huis.
Is het bruikbaar voor simpele radio of is de geluidskwaliteit daar niet voldoende voor?
De concurrentie draait vaak in de cloud. Dat is iets wat veel HA gebruikers juist vermijden.
De Nest ziet er mooier uit, maar ook die heb ik uit het zicht geplaatst. Heb serieus gekeken om de PCB in de Nest te vervangen maar nu Nabu Casa zelf met een alternatief komt wacht ik wel wat langer.
Zelf zou ik deze niet voor de afspeelmogelijkheden kopen, gebruik daar ook geen Nest voor. Heb ik indd wat beters voor.
Ik ben puur uit op het aansturen van het 'huis' via stem met een persoonlijk wake word.
Waarom niet gewoon de microfoon van bijvoorbeeld de tablet gebruiken?
Dit kan volgens mij dus. Heb nog niet de tijd gehad om die helemaal uit te pluizen. Wat ik begreep kan je elke (Android) telefoon gebruiken als microfoon. Dan bedoel ik wel een microfoon die continue luistert. De optie om de microfoon van tablet of telefoon te gebruiken is er al, zelfs tot het punt dat je de standaard google zoek-optie met stem vervangt voor de HA optie.

Edit: De telefoon/tablet moet wel in de lader hangen wil je hem altijd kunnen gebruiken natuurlijk. Om nou in elke kamer een oude telefoon in een lader te hebben zitten lijkt mij niet ideaal.

[Reactie gewijzigd door Derper op 5 december 2024 14:54]

Op dit item kan niet meer gereageerd worden.