Sprachausgabe über HomeAssistant

Hallo,

das man Sprache oder Audiofiles über HomeAssistant auf den bekannten Geräten von Google usw. ausgeben kann ist mir ja bekannt. So ein Gerät will ich aber nicht im Haus haben und jetzt stellt sich die Frage welche Möglichkeiten gibt es Audiomeldungen über einen Lautspreche von HomeAssistant aus auszugeben? Gibt es Geräte die nur “Wiedergabe” können aber kein Mikrofon haben?
Ich brauche keine Alexe die mir ständig etwas erzählt - ich will nur Meldungen ausgeben.
Habt Ihr da eine Idee?
Gruß
Dieter

Ich habe das bei mir mit den Symfonisk Geräten von Ikea gelöst. War für mich vorallem betreffend Preis und Leistung die passende Wahl.

1 „Gefällt mir“

Die sehen ja schon mal nicht schlecht aus nur wären die mir nur für einige Meldungen auszugeben doch etwas zu teuer. Ich will damit keine Musik hören oder brauche hohe Soundqualität.
Ich habe hier einige alte Leute die eben nur über einfache Audiomeldungen über Änderungen in der Haustechnik informiert werden sollen. Das muss möglichst einfach, kostengünstig und möglichst sicher vom Betrieb her sein. Ich habe heute mal so eine Lösung über einen ESP32 getestet aber da hört man mehr knistern und knacken als die Meldung. War zwar super günstig aber eben so nicht zu gebrauchen.

Ich habe einfach ein Raspberry Muse Board in einen alten PC -Lautsprecher gesetzt

https://raspiaudio.com/muse

Ich hab hier auch keine Alexa o.ä. und nutze dafür meine Sonos und Symfonisk von Ikea.
Die Symfonisk sind ja nicht soo teuer und die Qualität ist für den Preis gut.
Ich denke viel günstiger wird es schwierig. Was nutzt Dir ein Smarter Speaker für 50,-€ bei dem Du oder die älteren Herrschaften nichts verstehen, weil es nur scheppert.

1 „Gefällt mir“

Hallo zusammen,

Vorgeplänkel:

Ich bin nach einer Woche verzweifelter Suche auf diesen Thread hier gestoßen.
Ich bin blutiger HomeAssistant Anfänger (keine 2 Wochen) - jedoch schon seit 25 Jahren bei Hausautomation dabei. Über FS20, selbstgebaute Automationen, über FHEM nun bei iobroker (seit dem ersten Tag). Hunderte von Aktoren, Sensoren, Skripte, Eigenprogrammierungen, ESP Modulen, etc. sind in meiner Verwendung.

Bisher gebe ich immer dynamischen Text (also variabel erstellten Text) als Text per API an Fully Kiosk.
Das habe ich mir in JavaScript unter iobroker programmiert.
Geschweige, dass ich bisher überhaupt einen Ansatz gefunden habe, dieses mit HA zu realisieren,
fand ich die Idee mit einem Sonos oder Alternative sehr gut, muckt doch das Tablet mit Fully viel zu oft.

So fand ich also diesen Thread.

Meine eigentliche Frage/Bitte:

@Brater @Ubuntubirdy oder [at]all: Siehst du eine Möglichkeit mir dieses zu erklären, wie Du variablen Text auf den Ikea WLAN-LSP ausgibst?
Also wass muss ich da wo wie machen?
Im Moment stecke ich noch im Überblickungswahn, yaml, Dienst, Repro, …

Kurzes Nachwort:

Klar habe ich gegoogel, gesucht, millionen von YT Videos mir angesehen und das halbe Internet leer gelesen.
Vieles ist alt und passt offensichtlich nicht mehr, manche Dinge (Einstellungen, Funktionen,…) sind ganz woanders (wenn ich nur daran denke, wie lange ich div. Einstellungen gesucht habe, da diese in den Videos gaanz woanders waren… )
Das Basisproblem eines Neuling ist immer, was soll ich genau suchen (also welches Zauberwort zeigt das an, was ich meine, habe ich den richtigen engl. Begriff gefunden?
Was ist vom gefundenen überholt und obsolet?
Man kommt sich da als beruflicher ITler und Jahrzehntelanger Intensivnutzer manchmal echt dämlich vor.

Bei Sonos z. B. fand ich immer Anleitungen statischen Text, online in mp3 per TTS gewandelt, auszugeben.
Das ist für mich echt überholt, da ich bereits das schon seit 10 Jahren anders mache.

So habt also bitte etwas Verständnis. In vielen Foren ist der Ton oft rauh geworden. Jeder, der eine Frage stellt, wird oft angemacht und mit “Letmegooglethisforyou” abgespeist.

Ich danke also im Voraus für etwas private Zeit und einer Antwort, sofern man mir hier helfen kann und möchte.

Betse Grüße
Micha

Hallo @micha-will-es-wissen

ich mache es “leider” auf dem von Dir überholten Weg (tts to mp3),
weil ich es komplett lokal haben wollte. Stellt für mich gar kein Problem dar.
Das, was ich ausgebe, ändert sich quasi nie. Wenn die Spülmaschine fertig ist, wird drauf hingewiesen
mit einer Ansage - fertig. Wenn ich da mal einen anderen Satz haben wollte, ist das in 2 Minuten erledigt.

Aber die Spezies hier können Dir sicher sagen, ob das auch direkt mit einem Text geht.
Ich habe gerade mal nach “Text to speach” gesucht und das hier gefunden:

Evtl. passt das für Dich ja.

Edit: Hab ich mir gerade selber angesehen, ist Quatsch, passt für den Zweck nicht, sorry.

Wie weit bist du denn was Automationen angeht? Und hast du die Grundlagen zu TTS für HA schon durch?
Ich habe für mich TTS mit Google-Translate eingerichtet. Also in der configuratoin.yaml

tts:
  - platform: google_translate
    language: "de"

einfügen.

Die Sprachausgabe machst du in der Automation. Bei den Aktionen “Dienst ausführen” wählen und da wo “Dienst” steht mal “tts” eingeben. Dann wird dir eine Auswahl mit den möglichen Diensten angezeigt. Und da wähle ich dann den Eintrag mit “google_translate”.

Um jetzt dynamischen Text auszugeben musst du bei diesem Dienst rechts oben die 3 Punkte anklicken und auf YAML umstellen.

service: tts.google_translate_say
data:
  cache: false
  entity_id: media_player.pascal_wecker
  message: >-
    Pollenfluginformationen - Gräser: {{ states('sensor.pollen_gras_heute') }} -
    Bäume: {{ states('sensor.pollen_baume_heute') }} - Ambrosia: {{
    states('sensor.pollen_ambrosia_heute') }}
enabled: true

Und so sieht dann meine Sprachausgabe zu den Pollenfluginformationen aus, wenn ich morgens den Wecker ausschalte.

Alles klar? Wenn nicht, sofort wieder fragen!

1 „Gefällt mir“

Und mit dem addon Piper geht tts auch Lokal.

1 „Gefällt mir“

Danke für die Erinnerung. Mit Piper und Whisper muss ich mich mal auseinandersetzen. :+1:

Edit:
Habe soeben Piper und Whisper installiert, konfiguriert und getestet.
Funktioniert prinzipiell, die Sprachausgabe (zumindest de-kerstin-low) ist allerdings nicht wirklich zu gebrauchen. Auch auf einem Nuc nicht.

Danke erst einmal für die Tipps! Vorab: Es läuft bei mir dank deiner Hilfe!

Zu Deiner Frage: Die HA-Automation fand ich bisher recht logisch. Empirisch habe ich einen Aqua Cube eingebunden und eine Shelly PlugS mit der Automatisiertung gesteuert bekommen, ohne das ich irgendwas mir dazu anlesen musste.
Simons42 Video dazu habe ich mir gestern angesehen. Bisher eigentlich alles recht klar - die Schwierigkeiten kommen dann bestimmt im Detail. :sweat_smile:

Bei mir hat es noch nicht klick gemacht, was ich mit dieser von dir verlinkten Seite genau mache.
Besser gesagt, wohin mit den überall gezeigten YAML oder JSON Snippets. Dank deiner Beispiele war es nun verständlicher.

Google TTS

Nach der Installation von HAOS war es erst einmal Google TTS auf dem Dashboard einfach so dabei.

grafik

1. So stelle ich mir die Frage, ob ich z. B. den YAML tts auch noch in der configuration.yaml eintragen muss, wenn es doch bereits in meinem initial Dashboard dabei war?

==> Ich habe deinen YAML Code zum TTS in der config.yaml eingetrtagen und HA neu gestartet. habe dann aber nirgends etwas gefunden, was ich neu integrieren oder hinzufügen könnte. :face_with_peeking_eye:

Ist noch ein zusätzliches TTS Device notwendig? Nein, kann icht sein, oder?

Das ist so, richtig?
Texterstellung GoogleTTS Ausgabe auf Gerät

Nicht so, oder?
Texterstellung → TTS-> GoogleTTS → Ausgabe auf Gerät

(Grundsätzlich ist yaml, json, etc. klar, skripte ich doch den halben Tag lang auch beruflich damit rum. Meine eigene Anpassung des Dashboards mitt css tags für Background, cards leicht transparent usw. habe ich sorgenfrei vornehmen können. Sieht man im Bild zuvor. :grinning:)

2. Ich habe ab und wann das Gefühl, dass HA in seinen Updates ziemlich viel integriert, was vorher noch z. B. durch die config.yaml eingetragen werden musste, kann das sein?
Für mich sieht es so aus, dass der TTY Eintrag in der config.yaml gar nicht mehr notwendig ist.


3. Danke für die Automatisierungs -YAML. Auf “Dienst” und dann yaml bin ich überhaupt nicht gekommen. War auch verwirrend bei der Eingabe. Denke es nun verstanden zu haben.

3a. Du nutzt DWD Pollenflug? Bei mir sind die entitäten alle mit einem _50 hinten dran. Z. B.

sensor.pollenflug_beifuss_50

Einige deiner Beispiel sind nicht vorhanden. Oder hast Du Dir eigene Entitäten erstellt dazu?


4. Die auf der verlinkten TTS Seite zeigt unten die JSON Rückgabe.
Nur interessehalber: Kann ich mir das irgendwo ansehen und auch selber auswerten?


Neustart - was nehmen

Abschließende Frage zum Restart nach einer config Anpassung.
In vielen Videos oder beschreibungen ist das für mich nicht eindeutig oder zeigt andere Bilder.
Welchen Punkt (1-5) sollte ich machen nach der folgenden Grafik?

Im Moment mache ich immer 2.
Wenn irgendwie Hardwaremäßiges, z. B. Zigbee Stick ran, dann mache ich 3.
Ist das richtig?
5. wäre am schönsten, hatte aber oft das problem, dass das nicht ausreichte und ich mir zuerst einen Wolf zur Problemlösung gesucht hatte.

Zu deinem Punk 1:
Das kann gut sein, dass ich da mal was verpasst habe, und der Eintrag in der configuration.yaml gar nicht mehr nötig wäre. Muss ich mich mal informieren per Gelegenheit.
Oder ev. kann ja jemand anderes hierzu Informationen weiter geben?

Zu deinem Punkt 2:
Da hast du ganz recht. HA wird wirklich schnell weiterentwickelt und benutzerfreundlicher. Was dann halt zur Folge hat, dass man sich ab und an mal an eine einfachere Lösung gewöhnen muss…

Zu deinem Punk 3/3a:
Gerne! Wie schon mal geschrieben, einfach wieder fragen, wenn’s irgendwo hackt. Allerdings habe ich betreffend TTS auch noch nicht viel mehr umgesetzt, als das hier gezeigte.
Ich benutze nicht DWD (ich lebe in der Schweiz). Ich mache das mit der AccuWeather-Integration.

Zu deinem Punkt 4:
Da bin ich total überfragt. Damit habe ich mich noch gar nicht auseinandergesetzt.

Und wegen dem Neustart:
Ich gehe da genau nach deiner Nummerierung vor. Also meistens reicht das schnelle Neu-Laden.
Falls nicht, HA neu starten.
Und wenn das noch nichts bringt, ist meistens eh irgendwo noch etwas nicht so wie’s sein sollte.
Das System starte ich nur äusserst selten neu.

1 „Gefällt mir“

hab jetzt auch diesen Thread gefuden, weil ich auch einfache Meldungen wie: “Deine Waschmaschine ist fertig” akustisch ausgeben möchte.
Ich habe aber keinen smarten Lautsprecher im System (und will auch keine Alexa o.ä.)
Kann man das denn nicht einfach über das Tablett/Smartphone machen? Das wäre doch am einfachsten und man braucht keine zusätzliche Hardware. Habe eh ein zentrales Tablett im Flur als frontend.
Alles was ich gefunden habe ist eine Sound-Ausgabe über ein zusätzliches Medien-Player-Gerät.

ich befasse mich gerade auch mit diesem Thema und will eine Automatisierung erstellen, bei der eine Sprachausgabe erfolgt, kein dynamischer Text.
Wie erstelle ich die notwendige Entität? Den Text kann ich ja direkt eingeben, aber es fehlt eben noch die Entität.
Noch so nebenbei erwähnt, so kann man eine Datei abspielen, indem man eine bat oder cmd erstellt, die so aussieht:
“C:\Program Files\VideoLAN\VLC\vlc.exe” --qt-start-minimized -f --deinterlace=1 “c:\Alarm05.wav” vlc://quit
exit

Hallo Cpt.Hardy
Habe das gleiche Problem, möchte wenn in HA die Türe offen anzeigt, das dann das Tablet ertönt mit Haustüre offen. Hier mein Skript dazu.

type: tile
entity: >-
  binary_sensor.hm_sec_sco_oeq0564202_eingangsture_hm_sec_sco_oeq0564202_1_eingangsture
name: Haustüre
icon: mdi:door-closed-lock
color: red

Unter Medien, Media Sources, Text-to-speech,Google en Com, kann ich den Text vorlesen lassen (Haustüre offen)
Hat da jemand ein Beispiel dazu, mein script zu erweitern?
Vielen Dank für eure Hilfe!
Gruss
Novell1

:pencil2: by tarag: Code in vorformatierten Text </> formatiert.

Im HACS kann man sich die Integration “Browser Mod” installieren, so mach ich ein Alarm für meinen Sohn wenn er wieder losgehen muss zum Chindgsi :slight_smile:
Da wird auch ein Media-Player generiert.


http://ip:port/local ist im HA-Deutsch der www Ordner unterhalb von config

hier ist meine Automation für die Haustüre, als Sensor fungiert ein tuya zigbee Tür/Fenstersensor

alias: Haustüre_offen
description: die Haustüre wurde geöffnet
trigger:
  - platform: state
    entity_id:
      - binary_sensor.haustuer_opening
    from: "off"
    to: "on"
condition:
  - condition: time
    after: "07:00:00"
    before: "22:00:00"
    enabled: false
action:
  - service: notity.xxxxx_gmail_com
    data:
      message: die Haustüre wurde um {{ now().strftime("%H:%M") }} geöffnet
      title: Benachrichtigung von HomeAssistant
      target: xxxxxxx@gmx.de
  - service: notify.mobile_app_kpad
    data:
      message: TTS
      data:
        ttl: 0
        priority: high
        media_stream: alarm_stream_max
        tts_text: die Haustüre wurde um {{ now().strftime("%H:%M") }} geöffnet
    enabled: true
  - service: input_number.increment
    target:
      entity_id: input_number.open_door
    data: {}
mode: single

Hinweise dazu:
die Benachrichtigung erfolgt nur zwischen 7-22H
per email und auf mein Tablet, dort muß die HomeAssistant-App laufen
beim Öffnen wird ein Zähler “open_door” hochgesetzt und beim Schließen wieder heruntergesetzt
das passiert bei jeder meiner Türen und wenn dieser Zähler > 0 ist, bekomme ich noch eine optische Anzeige.

image

Hallo zusammen, gibt es eine Möglichkeit, die assist Antworten über vlc wiedergeben? Hab auf meinem System sehr gute Lautsprecher hängen.