Anbindung ext. Influxdb v1 überträgt keine Entitäten

Hallo,
Ich teste gerade die Möglichkeiten von HA um ggf von einer Iobroker Installation umzusteigen. Aktuell ist die Influxdb Integration an der Reihe. HA läuft auf einer Synology VM und Influxdb auf einem Raspi4.
Ich habe versucht die Influxdb Integration zu installieren, bekommen aber die Meldung, dass das über die Benutzeroberfläche nicht geht, sondern über Einträge in der configuration.yaml. Dort habe ich dann folgende Einträge hinterlegt:

influxdb:
  host: ip der influxdb installation
  port: port der influxdb installation
  database: iobroker
  username: juergen
  password: mein_pw
  ssl: false
  verify_ssl: false
  max_retries: 3
  default_measurement: state 
  include: !include include_influxdb.yaml

In der include_influxdb.yaml datei habe ich dann eine Entität hinterlegt, die ich übertragen will:

entities:
- sensor.bkw_4b804_switch_0_energy

HA neu gestartet, keine Fehlermeldung im Log, aber auch kein Wert in der Influxdb.
Habe ich etwas übersehen, vergessen? Was muss ich tun?
Vielen Dank schon mal für eure Hilfe.

Jürgen

Hi.
Hast du V1 oder V2 von Influxdb am laufen? Je nach dem, sind andere Infos in die configuration.yaml einzutragen.

Probier doch mal alle Entitäten, ob eine andere was in die Datenbank schreiben kann.

Edit: ahhh sehe gerade in der Überschrift, dass du V1 hast

Hab andere Entitäten, nicht alle, probiert. Gleiches Ergebnis, sehe sie nicht in der Influxdb.

Moin,

Nach welcher Anleitung bist Du vorgegangen und Du hast die Frage nicht beantwortet, welche Version von influxDB ist im Einsatz?

Dokumentation:

VG
Bernd

P.S.: ich hätte mir eine andere Datenbank, angelegt, nicht die gleiche wie für ioBroker, sagen wir mal so, die Datenmodelle passen nicht zueinander. Wenn Du influxDB V2 nutzt dann halt ein neues Bucket anlegen für HA.

Hallo Bernd,

die Version meiner DB steht im Titel->V1, konkret 1.8. Als Anleitung habe ich die von dir verlinkte Doku benutzt.
Es ist ja erstmal nur ein Test, aber wenn ich umsteige, will ich ja meine bisher gesammelten Daten weiter benutzen und mit Grafana auswerten. Daher wollte ich mir keine neue DB anlegen. Aus diesem Grund will ich auch nicht auf Influxdb v2 umsteigen. Für meine einfachen Anwednungszwecke reicht die V1 und ich erspare mir die Migration meiner Daten.
Ich hab zwar, auch für Test eine V2 im Container laufen, da könnte ich mal probieren, ob das geht, aber im Endeffekt will ich die V2 nicht.
Welche DB würdest du denn empfehlen um Dashboards mit Grafana zu erstellen?
Im Endeffekt will ich alles auf meine Synology umziehen. HA als VM, Raspberrymatic als VM und alles andere als Container: Iobroker, Influxdb und Grafana.

VG

Jürgen

Moin,

Ok, hatte ich überlesen :frowning:

Auch gut, hast du mal geschaut, ob es Fehlermeldungen im Log von HA gibt?

Wo steht diese Zeile?
Ich hoffe in der configuration,yaml und die influxdb.yaml dann an der korrekten stelle im Verzeichnis!

Du kannst das auch in die configuration.yaml schreiben, dann nur halt ohne die include Zeile.

Das ist ja kein Problem, aber die Datenmodelle von ioBroker und Home Assistantsind anders, also das, was in einer klassischen Datenbank die Spalten und Feldnamen sind, passen nicht. Einmal hast Du _measurement = kWh und iniobroker` ist es dann z.B. Stromverbrauch

Datenbankeinführung:
influxDB, mariaDB, postgesql, oracle DB, IBM DB2, das sind alles Datenbankmanager = DBM, die mehrere Datenbanken managen.
iobroker, home_assistant, teletabbie, das sind Namen von Datenbanken = DB, die im Datenbankmanager angelegt werden und in die dann Daten geschrieben werden.

Deshalb hätte ich in influxDB eine neue Datenbank mit Namen homeassistant oä. angelegt,.

Das ist ein anderes Thema und war auch nicht Gegenstand der Antworten, es geht nur um die
unterschiedliche Einbindung in Home Assistant.

Nein, passt schon alles, nur nicht DB, sondern DBM, denn du baust ja in Grafana eine Verbindung zum Datenbankmanager auf, um dann Daten aus der Datenbank zu lesen.

Alles kein Thema, das ist Möglich, solange die Synology, das verkraftet.

Hier noch mal meine Datenbanken (Buckets) in influxDB, alle Pfeile, sind Datenbanken/Buckets in ein und demselben DBM!


Wenn ich jetzt in Grafana ein Panel/Dashboard brauche, mit Daten aus Telegraf, dann frage ich das dort ab, selbst wenn ich Daten aus zwei der Datenbanken in einem Panel, brauchte ist das kein Problem, dann wird halt die Abfrage in zwei Buckets gemacht.

VG
Bernd

Wo steht diese Zeile?
Ich hoffe in der configuration,yaml und die influxdb.yaml dann an der korrekten stelle im Verzeichnis!

Ja, in der configuration.yaml steht die Inkludierung der influxdb.yaml und diese steht in der Dateu Hierarchie unterhalb der configuration.yaml

Nein, passt schon alles, nur nicht DB, sondern DBM, denn du baust ja in Grafana eine Verbindung zum Datenbankmanager auf, um dann Daten aus der Datenbank zu lesen.

Ok, verstanden. Ich lege mal eine homeassistant DB an und dann schauen wir mal was passiert.

Wenn ich jetzt in Grafana ein Panel/Dashboard brauche, mit Daten aus Telegraf, dann frage ich das dort ab, selbst wenn ich Daten aus zwei der Datenbanken in einem Panel, brauchte ist das kein Problem, dann wird halt die Abfrage in zwei Buckets gemacht.

Das ist schon klar, aber bei historischen Daten, wie z.B. Verbrauch über ein Jahr oder seit 1.1. hätte ich ja einen Bruch, den will ich, für diese Art der Auswertung, vermeiden

VG

Jürgen

und vergessen:
in den Protokollen steht nichts

:crayon:by HarryP: Zusammenführung Doppelpost (bitte “bearbeiten” Funktion nutzen)

Ich habe jetzt eine zweite DB aktiviert und da stehem jetzt 2 measurements. Die heißen nur komisch, nämlich kWh und Wh, also wie die Einheiten der Entitäten. Ich hab dann man nachgeschaut, die gibt es auch bereits in meiner ursprünglichen DB. Aber das ist ja doof. Ich hätte erwartet, dass das measurement so heißt wie die Entität. Was muss man denn da tun, dass dem so ist?

Moin,

Aber den wirst Du immer bekommen, außer Du migrierst die Altdaten aus der ioBroker Datenbank in das Format der Home Assistant Datenbank, oder Du machst halt zwei Abfragen eine vor HA und eine nach ioBroker.

So sieht die es aus, wenn Du in HA nach den _measurement abfragst


Und das sind die anderen Tags, glaube so heißt das

Habe leider keine ioBroker Datenbank mehr, wo ich nachschauen könnte, wie es da aussieht

Auch auf dem influxDB RasPI nicht?

VG
Bernd

In Influxdb V1 auf dem Raspi gibt es kein UI, zumindest weiß ich nicht wie das gehen sollte. Das abgebildete kenne ich nur von V2.
Die Posts haben sich jetzt überschnitten:
Ich habe jetzt eine zweite DB aktiviert und da stehen jetzt 2 measurements. Die heißen nur komisch, nämlich kWh und Wh, also wie die Einheiten der Entitäten.

Ich hab dann man nachgeschaut, die gibt es auch bereits in meiner ursprünglichen DB. Aber das ist ja doof. Ich hätte erwartet, dass das measurement so heißt wie die Entität. Was muss man denn da tun, dass dem so ist?

VG

Jürgen

Moin,

Das ist das, was ich Dir ja schon versucht habe, zu sagen, die Datenmodelle sind unterschiedlich :wink:

Daran ist nichts komisch, ich halte es sogar besser, denn eine Entität ist ja kein _measurement, zudem sind dann alle Werte, die etwas mit kWh zu tun haben, unter einem _measurement.
Wenn Du mit Entitäten arbeiten willst, dann musst Du halt mit entity_id arbeiten.

Stimmt, für influxDB V 1.x gibt es Chronograf.
Chronograf braucht man dann bei influxDB V 2.x nicht mehr, da da eine eigene UI dabei ist

Chronograf



VG
Bernd

1 „Gefällt mir“

Danke für deine wertvollen Erläuterungen! :slight_smile:
Da muss ich mich ja mehr umgewöhnen, als mir lieb ist. Ob ich das will, mal sehen. Ich teste mal weiter.

Ich weiß jetzt auf jeden Fall, dass die Daten ankommen, anders strukturiert sind und mit Grafana letztlich anders abgefragt werden müssen. Hab es kurz probiert. Mit entity_id zusätzlich zu measurement, ist aber kein Problem.
Stören tut mich eher der zu erwartende Bruch in meinen Auswertungen.

VG

Jürgen

Moin,

Wieso das denn, Du nutzt ioBroker und lässt die Daten in die Datenbank für ioBroker einfließen, parallel, nutzt Du HA und lässt die Daten von HA in eine andere Datenbank einlaufen, diese Daten überschneiden sich, wenn ich dann sage, der 01.06.2024 ist der Tag an dem ich die Daten im ioBroker abschalte, dann bekommst Du nicht eine Minute Verlust.

Die Auswertung sieht dann halt so aus, dass Du eine Abfrage auf die ioBroker Datenbank machst, mit einem Enddatum 31.05.2024T23:59:59Z und eine zweite Abfrage mit Beginn 01.06.2024T00:00:00Z.

Aber da ich Deine Auswertungen nicht kenne, kann ich dazu auch nicht viel mehr sagen, Du kannst natürlich auch einen längeren Zeitraum die Daten parallel laufen lassen, oder Du nutzt die influxDB interne Funktion, Daten von einer Datenbank in die andere zu schreiben, heißt bei influxDB V 1.x glaube ich etwas mit Continious QueriesInfluxQL Continuous Queries | InfluxDB OSS v1 Documentation

Oder Du beschäftigst Dich mit dem Export als CSV und dem Import aus CSV, also Lösungen gibt es da en masse

Frage ist nur wie viel Aufwand will man hineinstecken :wink:

VG
Bernd

1 „Gefällt mir“