Hallo,
ich möchte die Steuerung des HA über die Spracheingabe intensivieren. Bisher nutze ich Alexa mit vordefinierten Sätzen, um auf dem HA Aufgaben ausführen zu lassen. Sobald hier aber vom Satzbau abgewichen wird, geht die Anfrage ins Leere. Die Spracherkennung von Alexa ist prinzipiell aber sehr gut.
Mit der Integration von OpenAI in den Assist ist eine sehr gute “Aufgabenanalyse” möglich. Das System akzeptiert nun verschiedenstrukturierte Eingaben. Das macht es deutlich einfacher.
Mein Problem ist hier, dass die Schnittstelle der Audio-Steuerung zum Homeassistant recht “holperig” ist - “whisper” erkennt teilweise die ausgesprochenen Worte nicht und ist nicht besonders schnell - das wird von den Familienmitgliedern wohl so nicht akzeptiert (zum Rumspielen ist es ganz ok). Hier ist Alexa deutlich besser.
Auch müssen nun in den Räumen zusätzliche Mikrofone (parallel zu Alexa) installiert werden, damit die Spracheingabe rein über den HA läuft. Das macht keinen Sinn alles zu doppeln.
Daher meine Frage:
Gibt es eine Möglichkeit, die Texterkennung von/über Alexa zu extrahieren bzw. separat auszuwerten und im HA im Assist nutzbar zu machen (anstelle von Whisper)?
Damit und mit OpenAI würde der HA noch deutlich konfortabler werden und man könnte auf die bestehende Infrastruktur von Alexa im Haus zurückgreifen. Als Ergebnis können die Familienmitglieder deutlich einfacher die Geräte, die im HA eingebunden sind steuern.
Ist das möglich?
Grüße