Hallo,
ich habe MariaDB auf meinem Synology NAS laufen, und das spielt auch soweit. Aber man liest ja immer öfter, dass das nicht mehr “state-of-the-art” ist und die HA eigene SQLite zufriedenstellend läuft.
Eine Anleitung zum zurückmigrieren gibt es ja hier. Ich finde den Gedanken aber weiterhin smart, die DB auf dem NAS ausgelagert zu haben. Geht das auch mit der HA internen SQLite?
Wenn ja wie?
aktuell laufe ich problemfrei auf core 2024.6.2
Habe jetzt das update zu2024.9.2 getestet, das klappt auch alles, ausser dass er ewig die Datenbank migrieren will, und zu keinen Ende kommt. Bin gerade wieder dabei das backup davor einzuspielen.
Ist es so, das Mariadb jetzt Probleme macht? oder kann ich die aus der Welt schaffen und weiter damit arbeiten?
Handhabe ich schon seit 4 Jahren so, seit ich Home Assistant einsetze. Zuerst auf dem NAS aktuell mariaDB in Proxmox als LXC.
Sehe ausschließlich Vorteile darin, die DB extern zu hosten. Das Home Assistant Backup bleibt schlank habe keine Probleme mit korrupten Datenbanken. Performance ist top, was will man mehr.
Wüsste nicht wie, sehe auch kein Grund, wenn ich eine mariaDB auch problemlos nutzen kann.
na, dann ist das ja nicht der Grund warum man da etwas ändern sollte, solange die MariaDB auf der Synology auch immer schön up to date gehalten wird
das liegt ja im Auge des Betrachters, wenn ich mir vorstelle, ich betreibe die MariaDB nur für HA, dann halte ich den Aufwand, einen ausgewachsenen Datenbankmanager zu betreiben, für Overkill, wenn ich aber die MariaDB, so wie Du auf der Synology sowieso am Laufen hast, dann kann man darüber nachdenken, dann ist eine neue Datenbank ja nicht weiter schlimm.
es läuft nicht nur zufriedenstellend bei mir gibt es da kein einziges Problem, was Stabilität, Performance angeht.
Wie hier ja schon geschrieben wurde, wenn man sich mit dem geringen Mehraufwand anfreunden kann und MariaDB auch noch für andere Datenbanken nutzen kann/will, alles gut!
Nein, SQLite ist kein Datenbankmanager, wie
MariaDB
mysql
Oracle
DB2
Postgresql
somit erfolgt der Zugriff über andere Mechanismen. SQLite nutzt ein File, das Lokal im Dateisystem abgelegt wird.
Jetzt könnte man ja sagen, dass man ein Verzeichnis vom NAS in HA mounten könnte, mittels NFS / CIFS und die Datei dann dort ablegen könnte, das ginge, aber dann handelt man sich halt andere Probleme ein, wie Latenz, oder falls mal das Laufwerk nicht da ist usw. also eher nicht praktikabel!
Dazu gibt es hier im Forum schon Threads, danach mal suchen.
Ich vermute, dass die MariaDB nicht gut eingestellt ist, oder Du irgendwas an den Recorder eingestellt hast, sodass Du unnötig viele Daten speicherst.
Dazu müsstest Du aber mehr von Deiner Installation preisgeben, auch vielleicht Logfiles vom HA Update und der MariaDB.
MariaDB ist da nur am Rande schult, wie gesagt, es kommt darauf an wie man den Datenbankmanager konfiguriert hat, die Standardwerte passen vielleicht nicht mehr und auch was/wie Du die Recorder eingerichtet hast, HA geht halt davon aus, dass Du den Standard fährst, und nicht plötzlich sagst ich will 365 Tage alles aufheben, dafür gibt es die Langzeitdaten, die haben mit dem Recorder nichts zu tun, das kann Dir aber @Osorkon besser erklären als ich.
Bernd,
danke für die Antworten.
Ich bin absoluter DB Dummie, hatte vor einem Jahr die MariaDB auf dem NAS eingerichtet, wie es hier empfohlen wurde, weil ich eben die Daten extern auf dem NAS haben wollte. Es gibt also keinen weiteren Zweck für MariaDB.
Nun habe ich ein wenig mehr aus deinen Antworten erfahren.
Da ich dann in MariaDB nicht unnétig rumfummeln will. denke ich der Weg ist, SQLite wieder zu nutzen und die “wichtigen” Daten extern mit influxDB zu speichern? Wie das geht muss ich mir dann noch ansehen.
Danke
und da bin ich schon wieder.
Ich denke ich habe soweit verstanden und würde gerne folgendes machen:
HA läuft auf NUC PC
Integration influxdb läuft in HA
Die Daten selber sollen aber am besten auf meinem Synology NAS gespeichert werden, Sollte das gar nicht gehen, dann eine zweite externe SSD am NUC.
Wie kann ich den influx Integration sagen, dass sie die Daten auf einem externen Ordner speichern soll?
ich hab was von Host und path gesehen. Heisst dass ich lege im NAS einfach einen Ordner an, auf den dann zugegriffen wird, oder muss ich im NAS mehr vorbereiten?
Also mal ganz davon abgesehen, welche Daten Du extern haben möchtest, egal ob in MariaDB oder InfluxDB, was nicht auch schon durch den Standard abgedeckt wird, wie gesagt es gibt die Langzeitdaten in HA vom mal auch Wochen, Monate, Jahre in die Vergangenheit schauen kann.
Beispiel meines Temperatursensors, der draußen seit
Wenn Du InfluxDB extern einbinden willst, dann musst Du Dir erst einmal InfluxDB auf der Synology installieren, am einfachsten geht das wohl über Docker (Container Manager)
Dann wirst Du sicher nicht mit der veralteten Version 1.8 beginnen, sondern gleich auf die aktuell Version 2.7.x einschwenken.
Dann muss man die in der Synology konfigurieren, dazu gibt es dann ein WEB-Ui von InfluxDB und man muss sich mit neuen Namen und Begriffen befassen.
Dazu müsstest Du, wenn Du das Add-on von HA nutzt, die InfluxDB Konfiguration anpassen, um den Speicherort zu verändern, wüsste jetzt nicht, dass das auch über die Environment Variablen ginge.
Wenn Du die InfluxDB auf dem NAS installierst, siehe oben, dann musst Du da nichts angeben, dann geschieht das über die Konfiguration in der configuration.yaml über IP:PORT
Ich würde dir raten, Dich da gründlich einzuarbeiten, denn dass muss man auch wissen, InfluxDB läuft parallel zur MariaDB, oder SQLite Datenbank, und auch an die Werte, die in der InfluxDB abgelegt werden, kommt man nicht so ohne weiteres dran.
Zwei Möglichkeiten sind
Grafana
in HA Sensoren erstellen, die die InfluxDB abfragt.
ich betreibe Zeit kurzen auch einen HA. Ich würde auch gerne die Daten auf der nas speichern, da ich gerne einen längeren Zeitraum haben möchte für die Daten zum auswerten.
Habe aber keinen Programm, wie ich es hinbekomme, die Daten auf die nas zubekommen.
Kann mir da einer helfen? Beschreibung oder sogar ein Video?
Da verstehst Du etwas falsch, HA macht das schon von Haus aus, dass gewisse Daten von den Historien Tabellen, nach 10 Tagen in die Statistiktabellen geschrieben werden, deswegen braucht man nicht unbedingt eine externe Datenbank.
Möchtest Du aber z. B. die Möglichkeit haben, direkt auf die Daten von HA zugreifen, z. B. mit Grafana, dann braucht man eine andere Datenbank als die Standarddatenbank SQLite, denn damit geht das nicht, dann kann man entweder MariaDB, oder InfluxDB nutzen!
Bei MariaDB wird die Standarddatenbank SQLite 1:1 ersetzt, bei InfluxDB, läuft diese parallel, zu SQLite.
Schau Dir mal Deine Entitäten im Verlauf an, dann siehst Du, dass Daten auch länger gespeichert werden, z. B meine Außentemperatur