Grafana / InFluxdb Anfänger Frage

Hallo und sorry

Hab mich heute erstmals mit Grafana /InFluxdb angefreundet und habe eine Verständnis frage.

Wenn ich in HA die Maus im Graph auf einen Punkt setze zeigts mir Datum Uhrzeit und die Inhalte der entities zum Zeitpunkt. Bei Grafana tut sich bei mir nichts dergleichen.

Österlichen Gruß aus Andalusien

1 „Gefällt mir“

Moin,

müssen wir bei diesem österlichen Post, auf die Suche nach den konkreten Informationen gehen, oder geht es auch genauer :wink:

Erst einmal mal wieder die Frage, wieso influxDB und Grafana?
Was kann HA nicht, dass man diese beiden einsetzen will?

Zu Deinem Problem, welche Visualisierung, eigentlich gibt es bei den meisten, eine Option Tooltip da kann man auswählen, z. B.,


Ob ein Tooltip sinnvoll ist, oder nicht, hängt auch von der verwendeten Visualisierung ab!

VG
Bernd

2 „Gefällt mir“

Sorry, hab irgendwo gelesen (hoffentlich nicht geträumt) möglichst keine Bilder hier zu verwenden :blush: Werde mich bessern.

Sehr Berechtigte Frage und eigentlich bin ich auch nicht scharf auf zusätzliche Arbeit. Bei meinem Anfang mit HA hat es aus allen Ecken geheissen das HA keine Langfristige Daten mag. Auch im Video von Simon42. Nur deshalb und schweren Herzens, lieber wär’s mir nur mit HA :hugs:

Tooltip → Volltreffer. Das hab ich gesucht. Antiippen und sehen ist auf die schnelle manchmal ganz Sinnvoll.

Hoffentlich hat dich der :rabbit: für Deine Hilfsbereitschaft fürstlich belohnt.

Gruß Carlos

Moin,

diese Aussage ist seit ungefähr Oktober 2023 nicht mehr gültig, das ist die Krux mit den Videos, man kann sie nur schlecht auf den neusten Stand bringen und das Internet vergisst halt nichts, wenn man dann beim Gefundenen nicht darauf achtet, von wann der Artikel ist, kann man solchen Einschätzungen unterliegen :wink:
Immer wichtig in den Dokumentationen nach Informationen suchen, die Entwickler von Home Assistant geben sich da echt mühe alles aktuell zu halten!

Das geht alles ohne rd Party Software, natürlich kann Grafana weit aus mehr Darstellungsvarianten und ist ein mächtiges Tool, aber für HA gibt es auch Erweiterungen, in HACS, die zusäzliche Charts in HA bereitstellen,

  • mini Graph Chart
  • aprxchart
  • plottly

ja Bilder von Log Meldungen, von Code, also allgemein von Text, ja das stimmt, das alles gehört in die sogenannten Code-Tags </>.


Aber von dem Diagramm, wie willst Du das bitteschön einfacher Beschreiben, als mit einem Bild, weil 1000 Worte war Deine Beschreibung nun auch nicht lang :slight_smile:

VG
Bernd

2 „Gefällt mir“

Vielen Dank für den Tooltip-Tipp.
Das habe ich bisher übersehen.

InfluxDB und Grafana möchte ich nicht mehr missen.
InfluxDB läuft im Hintergrund. Außer gelegentlichen Updates braucht man sich darum nicht kümmern.
Grafana ist je nach Anforderung etwas lernintensiv und die Möglichkeiten sind anfangs erdrückend.
BTW - Grafana "zieht " nur CPU-Leistung, wenn es geöffnet wird, bei HACS-Komponenten bin ich mir nicht sicher.
Hier mal eine Beispiel-Visualisierung meiner Gefriertruhe mit Grafana.
Ob das so auch mit HA+HACS möglich ist, weiß ich nicht.

1 „Gefällt mir“

Moin,

das ist so nicht ganz richtig, wenn Du da nichts weiter eingestellt hast, werden dort all die von Dir gewünschten Werte in der vollen Auflösung in der influxDB Datenbank gespeichert, und das dann auch Infinite = Unendlich, da kommen dann schon ein paar Daten zusammen.
Wenn Du influxDB betreibst, musst Du Dich selbst um die Aggregation von Daten kümmern!
In HA kümmert sich HA darum, im Standard hast Du für 10 Tage, die volle Auflösung und danach halt den aggregierten Wert, pro Stunde.

Ob das Dashboard genauso nachgebaut werden kann, kann sein, denn Plotly würde ich als den kleinen Bruder von Grafana bezeichnen

Beispiele mit Plotly erstellt

Aber, wieder, jeder so wie er mag und kann!

VG
Bernd

1 „Gefällt mir“

Hurra, alles in einer Hand ist mir lieber. Und zufrieden bin ich mit HA auch. Einmal einlernen reicht :sweat_smile: Ich erweitere die 10 tage auf 360 und Beobachte. Wenn alles gut geht fliegt alles ausser HA raus.
Danke für diesen Ärger- und Zeitsparenden Tipp.
VG Carlos

Moin,

das ist FALSCH!
Bitte nicht an Dingen herumschrauben, von denen man keine Ahnung hat und vorher die Dokumentation lesen!

Du musst da nichts einstellen, alles ist im Standard für 10 Tage in voller Auflösung zu sehen, danach werden bestimmte Werte automatisch in die Langzeitdatentabellen von HA verschoben!

Also erst lesen, dann nicht handeln :slight_smile:

VG
Bernd

Da hast Du selbstverständlich recht und selbstverständlich habe ich die Grundeinstellungen, respektive Einträge in der configuration.yaml gemacht.
Aber danach habe ich der InfluxDB keine große Aufmerksamkeit mehr geschenkt.

Ich betreibe die InfluxDB seit Jan. 2024, also über ein Jahr und aktuell beträgt die Größe 754 MB. Die Größenangabe habe ich dem letzten Backup entnommen, denn dort schlägt sie mMn signifikant zu Buche.
Selbst wenn die InfluxDB in 5 Jahren 3,5 GB betragen würde, was nicht passiert, da sie nicht linear zur Zeit wächst, wäre mir das relativ egal.
Die Performance dieser Datenbank ist ziemlich hoch.

Ist auch meine Meinung :slight_smile:

Moin,

wenn man das sauber konfiguriert hat und nur “wenige” Daten in die influxDB schreibt, dann mag das zwar zutreffen, aber Du hast influxDB als Add-on am Laufen und auch das frisst Ressourcen, und Du hast doppelte Datenhaltung, einmal in der HA eigenen Datenbank, sei es nun SQLite, oder MariaDB und in der parallel mitlaufenden influxDB :wink:

in komprimierter Form?
Wenn man die dann auspackt, ist sie dann zwischen 7 - 11 Mal so groß, ich lasse auch daten in eine influxDB V2 in ein Bucket schreiben, nur aus Spaß, nicht weil ich es brauche und eine influxDB bei mir noch mindestens 5 weitere Buckets besitzt, ich habe auch HA ca. 1 Jahr im influxDB Bucket die ist 4.9 GB groß

ncdu 2.7 ~ Use the arrow keys to navigate, press ? for help                                                                                           
--- /var/lib/private/influxdb/engine/data ------------------------------------------------------------------------------------------------------------
                                    /..
    7.9 GiB [#####################] /f7ecf6f33f1b2aa4         <-- Monitoring 30 Tage
    4.9 GiB [#############        ] /8de56497c215a5d7         <-- HA                                                                               
    3.1 GiB [########             ] /82f0b8f70fe78acd         <-- Proxmox
  150.5 MiB [                     ] /271c8d40719282f5
  131.4 MiB [                     ] /e26245e275c2f9dc
  112.0 KiB [                     ] /19e2ac5df4909201
   49.5 KiB [                     ] /43143a7cb8e73207
   49.5 KiB [                     ] /619be7096ff5ff88

Dann lies, suche mal hier im Forum, die Posts, in denen die User fragen, warum die Abfragen in Grafana so lange dauern :wink:

Dann sehen wir uns in 2 - 3 Jahren wieder, wenn Du nach Performanzproblemen suchst :slight_smile:

VG
Bernd

1 „Gefällt mir“

Wie immer von Dir

  • sehr fleißig - sehr kompetent - sehr kritisch - richtig so :muscle:

Warum sollte ich das machen?
Eine KI hat dazu Folgendes ausgesagt:

  • Gezielte Abfrage:

    • Wenn Home Assistant oder z. B. Grafana Daten anfragt (z. B. Temperaturwerte der letzten 24 Stunden), wird nur genau dieser Teil der Daten gelesen.
  • Indexnutzung:

    • InfluxDB verwendet zeitbasierte Indizes, sodass es sehr schnell weiß, wo die gesuchten Daten liegen.
  • Lokal dekomprimiert:

    • Nur die relevanten Blöcke in den komprimierten TSM-Dateien werden gelesen und dekomprimiert – im RAM.
      → Nicht alles, nur das Nötigste.

Aber wie ich Dich bisher kenne, weißt Du das wahrscheinlich alles schon.

Mein HA-Server (Mini-PC) ist relativ stark aufgestellt.
Ryzen 7 5850U(8C/16T, bis 4.4GHz), 32G DDR4 RAM, 1TB M.2 PCIe3.0 SSD
Damit kann ich mir noch einige “Sünden” erlauben. :innocent:

Hallo nochmal :hugs:

Im Normalfall hast Du sicherlich recht. Für 90% wäre das auch für mich völlig ok.
Es gibt aber einiges was es etwas genauer braucht als 1 Stunde. wenn ich z.B. den (errechneten) COP meiner 3 Klima Splits miteinander bzw. mit dem Vorjahr Vergleiche. Da sind schon 0,5° ein Riesen Unterschied. Vielleicht denk ich aber auch zu Engstirnig, ich prüfe es nochmal.

Wäre es möglich/Sinnvoll nur diese Entitäten länger zu Speichern und alle andere auf 10 Tage zu lassen?
Hoffentlich nerve ich nicht zu sehr.

Grüße aus andalucia

Moin,

mit der größe, meinte ich das HA Backup, da werden die Daten gesammelt und anschließen komprimiert, deswegen auch *.tar.gz, *.tgz, wobei .tar, nur die einzelnen Files ohne Komprimierung sind und das .gzdann in etwas so wie ein.ZIPArchive ist. Die Kompressionsrate, hängt von einigen Faktoren ab, z. B..txt` ist besser zu komprimieren als z. B. Binary’s.
Daher auch ein Faktor von 7 bis 11.

Wenn man nur für wenige Daten extra, eine influxDB und ein Grafana mitschleppen will, klar kann man das für 10 bis 20 Werte machen ist aber, aus meiner Sicht Unsinn.
Ich kenne Deine eingesetzten Versionen nicht, bei Grafana ist die Version, meist auch unwichtig, bei influxDB kann man dann aber schon mal Probleme haben, die Version von influxDB V1.8 wird nicht weiterentwickelt und nur noch grobe Fehler ausgebessert, da hatten viele echte Probleme als sie auf influxDB V2 umgestiegen sind, weil entweder mussten sie bei der Abfragesprache influxQL mit den bekannten Einschränkungen bleiben, oder alle abfragen auf Flux umstellen, Grafana hat aber keinen visuellen Editor für Flux, jetzt kommt wahrscheinlich dieses Jahr noch influxDB V3 wobei man da noch nicht absehen kann wie die Migration der Daten sein wird, da muss ich in naher Zukunft mal auf die Suche gehen, oder mir eine Installation der V3 machen, wenn es da schon etwas zum selbst Hosten gibt.

Aber noch einmal, klar kann man alles machen, ich möchte nur nicht den Eindruck erwecken, dass immer alles ohne Wissen und eigenes Zutun geschieht, wer sich nicht kümmert, der wird auf die Nase fallen, das ist so sicher wie das Ahmen in der Kirche.

Die Antworten einer KI, sind auch nur so gut wie die gestellten Fragen, ich vertraue mir da mehr als der KI :slight_smile:

VG
Bernd

Ich bezweifel das, wenn ich die Werte von Januar 2024 mit den Werten von Januar 2025 vergleiche, sind beides schon aggigierte werde, somit würde das aus meiner Sicht keinen Unterschied machen, wenn ich 2023 mit 2024 vergleiche das gleiche, wenn ich Jan. 2025 mit Feb. 2025 vergleiche ist das auch aus meiner Sicht egal.
Wenn ich aber die letzten 10 Tage vergleiche, dann habe ich die hochaufgelösten Werte.

Schaue Dir das Thema an Recorder an, siehe oben den dritten Link, da sollten die Fragen beantwortet werden.

Aber da ich Deine Anforderungen nicht kenne und ich es mit den Ingenieuren halte,

wer viel Misst, misst Mist. :slight_smile:

Bin ich dann mal raus :slight_smile:

VG
Bernd

Hallo nochmal,

Ich hab mir mal die historische Daten in HA nun etwas genauer angesehen und muss Dir völlig recht geben. Die Zusammenfassung in der Historie ist ganz grosse Klasse :clap:

Nun habe ich schon die Frist von 10 auf 100 erweitert.
Wenn ich jetzt wieder auf Standard gehe, werden die Daten von 10 bis 100 automatisch aggregiert?

Nochmals Danke. InFluxdb und Grafana, Adieu.

Gruß Carlos

das bedeutet ja im ersten Schritt nur, dass die Werte unnötig lange in hoher Auflösung in den Standardtabellen liegen und somit die Datenbank aufblähen.
Solange die 100 Tage für die Entitäten noch nicht erreicht sind, spielt das auch keine Rolle und das ist auch kein Wert, der Einfluss für die Langzeitdaten hat.

Wenn Du das wieder auf den Standard zurückstellst, dann werden trotzdem alle Daten, aggregiert in die Langzeittabellen geschrieben.
Wenn Du es auf 100 Tage stehen hast, dann halt am 101 Tag, wenn das wieder auf 10 Tage steht, dann halt am 11. Tag.

Also stell das alles wieder auf einen vernünftigen Wert!
Das, was dann halt passiert, wenn man die Zeit auf 100 Tage gestellt hat, ist, dass das Löschen der Daten (die Hochaufgelösten) auch erst am 101 Tag stattfinden, nachdem sie in die Langzeitdaten geschrieben wurden.

VG
Bernd

1 „Gefällt mir“

Super, vielen Dank und :cupid: für HA.