ChatGPT Sprach Assistent

Hallo,

habe heute OpenAI installiert und den ChatGPT Assistenten. Wenn ich dies nun über Laptop testen möchte, werde ich immer darauf hingewiesen, dass ich kein HTTPS benutze und es könne dadurch nicht auf das Mikrofon zugegriffen werden.

Ich hatte ne Zeit lang https, bin aber wieder zurück, da ich die HA Cloud Nabu habe.

Wie muss ich nun vorgehen, dass ich es auch mit dem PC (Laptop) nutzen kann?

Ganz einfach,

Du musst Dich vom Laptop aus, auf die “externe” Verbindung über NabuCasa anmelden, dann klappt es.
Alternativ zum Testen einfach Text in Assist eingeben, das geht auch über http.

Hallo,

ich war überrascht, als ich in der Ankündigung des neuen Updates 2024.6.0 gelesen habe, dass (etwas) KI beim HA einzieht.

Hat von Euch das schon jemand ausprobiert und ist es wirklich hilfreich? Ist hierzu die HomeAssistant Cloud (NabuCasa) zwingend notwendig oder kann man dies auch ohne Abbo bei sich laufen lassen?

Grüße

Es gibt dazu bereits zahlreiche YT-Videos, da ist es ziemlich gut erklärt.
Vorab:
Bei mir mit der Nabu-Casa-Cloud funktioniert es sehr gut, es geht aber auch ohne
Nabu-Casa:

Danke für diese Links - damit habe ich bei mir die benötigten Ad-ons installiert und einrichten können.
Einzig am Punkt des “Billings” bin ich gescheitert. Muss man zwangsläufig eine der Varianten vom OpenAI abbonieren bzw. entstehen hier Kosten? Ich schaue bei den Angaben und der Vielfalt an verschiedenen Varianten nicht durch…

Es sind ein paar Cent die abgebucht werden du kannst dein chatgpt Konto mit 5 oder 10 Dollar auffüllen

Du kannst unabhängig von nabu casa lokal Verschlüsselung nutzen.

Habe ich bei mir laufen, trotz VPN und nabu Casa.

Ich hab 5$ auf mein Konto geladen, kostet incl. Steuern 5.95$ und mit dem aktuellen Wechselkurs €5.54.
Wichtig das automatische Nachladen deaktivieren.
Ich habe jetzt ein paar Tage „rumgespielt“ und seither nur 0.17$ verbraucht :smiley:

ok - danke für die Info. Damit habe ich ein Gefühl, was das an Kosten mit sich bringt. Die Infos auf der Homepage konnte ich nicht ein schätzen :smile:

Update:

OpenAI ist im vgl zum “StandardHA” schon besser - das System kann mit verschiedenen Sätzen gefüttert werden und erkennt was gemacht werden soll.
Im Haus habe ich mehrere Alexas, die wir bisher für die Steuerungen nutzen. Ich habe die Alexa mit dem HA verknüpft und über exakte Sprachbefehle, die bei Alexa hinterlegt sind, steuern wir z.B. die Rolläden.
Das ist immer etwas nervig, da man gerne vergisst, was genau hinterlegt wurde (Bsp.: auf die Frage: “Alexa, sind die Fenster zu” gibts keine Antwort; auf “Alexa, sind alle Fenster zu” gibts Feedback). Nun alle Fragemöglichkeiten bei Alexa einzutexten macht auch keine Freude.
Daher nun meine Frage - Gibt es eine Möglichkeit, die Alexaspracherkennung direkt (ohne den Kram dahinter) mit dem OpenAI des HA zu verknüpfen? Dann hätte man ein flott und meist richtig erkennendes “Speech->Text” und dahintergeschaltet die entsprechende logische Verknüpfung über OpenAI auf die Schnittstellen des HA. Das Beste aus zwei bzw. drei Welten… :thinking:

:crayon:by HarryP: Zusammenführung Doppelpost (bitte “bearbeiten” Funktion nutzen)

Eine Frage habe ich dabei: werden irgendwelche sicherheitsrelevanten Informationen vom HA an OpenAI übermittelt, oder ist das unkritisch. Ich habe bei keinem Video nur eine Silbe davon gehört.

Hallo, ich habe mich jetzt schon einige Tage mit dem Sprachassitenten Assist beschäftigt und denke schon, dass das alles auf dem richtigen Weg ist. Zunächst musste ich mir natürlich einiges Zubehör bestellen, ich habe derzeit hiefür in Betrieb:

  • ESP32 S3 Box 3
  • Wyoming Satelitte (auf alten Raspberry PI 3) mit Anker Lautsprecher und Micro
  • M5Stack Atom Echo

Alle drei funktionieren grundsätzlich wobei der Satelitte mit dem Anker Lautsprecher natürlich die deutlichste und lauteste Sprachausgabe hat. Die S3 Box ist schon recht zuverlässig und auch recht schnell, allerdings ein wenig leise. Der M5Stack ist sehr klein aber auch sehr leise, er versteht auch nicht so gut wie die anderen beiden.
Ich habe sowohl openai und googleai probiert, lokal funktioniert auch ist aber eingeschränkter, eigen wake word auf den devices funktionieren bislang bei mir noch nicht deswegen lasse ich das über HA laufen. Ich habe festgestellt das die Antworten bei google AI schneller sind als bei openai, openai ist dafür aber etwas besser. Manchmal schalten die KIs auch Unsinn, da muss man schon mal in den Logs schauen was gerade an bzw aus gegangen ist, aber das lässt sich durch Aliase an den ENtitäten verbessern. Was bislang noch nicht erkannt wird sind automationen mit festgelegten Sätzen und Antworten, aber im Prinzip auch nicht schlimm weil ich ja grundsätzlich von den vorgegeben Sätzen weg will.
Die eigene Wakewordentwicklung hat gut geklappt und gefühlt ist es so, dass das wakeword zunehmend besser verstanden wird.
Es funktioniert noch nicht so reibungslos wie Alexa, aber an Siri ist es dicht dran, ich glaube diese Entwicklung hat erhebliches potenzial und sehe perspektivisch schon, dass Alexa und Co dadurch verzichtbar wird.