Ollama als Konversationsagent im HA

Hallo,

nach längerem Experimentieren habe ich es jetzt geschafft, Ollama auf meinem Win PC (3080 GK) zum laufen zu bekommen und (dank des Umstellen des LocalHost auf 0.0.0.0 - das muss man erst mal wissen) kann die Ollama Integration des HA nun auch auf meine autark laufende Ollama Umgebung im PC zugreifen.

Toll ist, dass die Zugriffszeiten sehr gering sind (~ 500ms) und das eine schöne Konversation möglicht ist.


grafik

gut… Nur leider passiert nix. Bei der oben geführten Konversation ist das Licht nicht geschaltet worden. Was mache ich hier falsch (Alle meine Geräte sind unter “Verfügbarkeit” im Fenster unter “Sprachassistenten” für “Assis” aktiviert).

Ich habe zwei Dienste installiert - beide laufen, verhalten sich nur unterschiedlich:


“Ollama” lässt die oben geführte Diskussion zu - es passiert aber nichts - in der Konfig habe ich auf no control gestellt.
grafik

gehe ich hier auf “Assis” gibts eine Fehlermeldung:
grafik

die “Ollama Conversation” kann mir Zustände abfragen - steuern kann ich darüber aber nichts:

Habt ihr hier schon eine Steuerung der Geräte umsetzten können?

Der Versuch diese Konversation mit der App auf dem Iphone zu führen hat nicht funktioniert.

Grüße

Hallo,

welches Modell verwendest du für die Aufgaben, um an die guten Openai Modelle heran zu kommen muss man schon größere Lokale hinzuziehen, und wenn man steuern will müssen die Modelle Toolfähig sein

Gruß
Elmar

Hallo Elmar,

ich habe folgende Modelle getestet:

llama3.3:70b → läuft bei mir leider nicht → 42GB schafft mein System/ die GK nicht.
deepseek-r1-8b → 4.9 GB läuft
llama3.2:latest → 2.0 GB läuft
llama3.1:8b → 4.7 GB läuft

Eigentlich sollten alle toolfähig sein. Hast du hier schon etwas zum Laufen bekommen - welches Model und welche Integration nutzt Du?

Grüße

Thomas

Hallo,

ein 70b Modell schafft mein Rechner auch nicht, ich nutze derzeit als toolfähige Modelle:

hermes3:8b (habe ich ganz gute Erfahrungen mit gemacht, Schnell aber ausreichend zuverlässig)
mistral-nemo:latest habe ich grad erst, daher kann ich da noch nicht viel zu sagen
llama32.:latest schnell aber nicht so zuverlässig wie z.B. Hermes
qwen2.5:14b mittelschnell aber recht zuverlässig
qwen2.5:32b langsam aber dafür zuverlässig

Ansonsten nicht toolfähig:
llama3.8b
gemma3:4b
gemma2:12b (beide gemma modelle sind wirklich gut aber eben nicht toolfähig)
mixtral:latest (gut und zuverlässig für komplexe Aufgaben aber langsam
mistral:latest soll eigentlich toolfähig sein, habe es aber noch nicht hinbekommen.
Gruß
Elmar