ich bin neu hier in der Community und komme gleich mit einem Problem zu euch.
Seit dem Update auf den HA-Core 2024.7.2 läuft meine Festplatte (proxmox VM) im Sekundentakt voll bis 100%
Ich habe jetzt erstmal wieder ein downgrade auf die Version 2024.7.1 gemacht.
Hat dieses Problem noch wer, und ggf. sogar einen Hinweis woran es legen kann?
und erst einmal ein herzliches willkommen, im Forum.
mit den wenigen Informationen, sicherlich nicht.
Also wie ist Dein System
Proxmox, allg.
Speicher
Platten
die HA VM
Speicher
Platten
Hast Du irgendwo Debugging aktiviert
kannst Du sehen in welches Verzeichnis sich füllt?
Ich habe, alles aktuell und keine Probleme
Core 2024.7.2
Supervisor 2024.06.2
Operating System 12.4
Frontend 20240710.0
Auch sonst sind mir hier im Forum noch keine Probleme dieser Art aufgefallen, esist auch immer gut erst einmal in den offiziellen Thread zur aktuellen Version zu schauen
Proxmox Version 7.4 ist veraltet, aktuell ist Proxmox V 8.2.4
Wow, da ist ja dann etwas ganz schräg, ich habe nur 32 GB und die sind nur zu ~ 30 % gefüllt.
Wie lange betreibst Du HA schon,
sammelst Du Langzeitdaten?
was hast Du noch so in HA als Add-on installiert
prunest Du die Datenbank regelmäßig?
welches Log Level hast Du eingestellt?
Missverständlich ausgedrückt, wenn Debugging eingeschaltet, dann wird mehr Log geschrieben, was dann die Platte voll schreibt, also eher nicht einschalten in einem normal laufenden System.
Hast Du das ssh Add-on installiert, dann installier mal das Tool ncdu
Ich bin jetzt erstmal wieder zurück auf 2024.7.0. Damit läuft es. Danke noch mal für die Verlinkung des Threads. Da habe ich wohl was übersehen. Ich denke bei mir wird der Fehler ggf. auch aus der dort beschriebenen Richtung kommen.
Ich benutze die interne SQLite Datenbank (aktuell knapp 30GB groß).
Habe mich bis jetzt noch nicht rangetraut gewisse Entitäten etc auszuschließen. Einzige config ist dort:
recorder:
purge_keep_days: 365
da ich meine Energiedaten behalten möchte.
ggf. versucht er nach dem Update aufzuräumen?! und läuft deswegen voll?!
P.S. meinst du mit debuging unter System → Logs → HomeAssistantCore ???
Viele Grüße und Danke
Hey,
ja das die Version veraltet ist weiß ich. Ein Update steht an wenn ich eine neue größere SSD habe.
sammelst Du Langzeitdaten?
Ja ich sammle Langzeitdaten.
was hast Du noch so in HA als Add-on installiert
Adons:
ESPHome
File editor
FTP
Mosquitto broker
MQTT Explorer
Node-RED
openWakeWord
RPC Shutdown
Samba Backup
Samba share
Studio Code Server
Terminal & SSH
prunest Du die Datenbank regelmäßig?
Nein gar nicht
welches Log Level hast Du eingestellt?
wo sehe ich das
Hallo Bernd,
ich versuche das mal zu verstehen und frage deshalb nach, weil ich gestern auch das Problem hatte, dass keine Backups mehr gemacht wurden. Hatte eine Weile nicht mehr in Proxmox geschaut, erst, als ich auf 2024.7.2 von 2024.6.x updaten wollte. Irgendwie habe ich es wohl nicht hinbekommen, dass er alte Backups löscht. Ich habe sie nun mal händisch gelöscht und auch das “Lock” nach Internetrecherche entfernt bekommen und Backups händisch erstellt.
Ich gehe mal davon aus, dass du von dem HA-Add-on redest.
Ich will mir dann aber auch mal die Speicherverteilung von Proxmox anschauen, und ich denke, das ist dann das von dir hier beschriebene “ncdu”.
Nun geb ich in der shell von Proxmox
apk add ncdu
Muss ich das unter Rechenzentrum oder pve oder welcher Shell eingeben?
Frage…
Wie mache ich einen Prune händisch und kann dabei etwas kaputt gehen? Bleiben denn trotzdem die letzten 365 Tage bestehen?
Ich würde natürlich vorher ein Backup in Proxmox machen.
Größere SSD kommt ja eh, allerdings wäre es trotzdem schön sie kliner zu bekommen.
Aber…Recorder und History sind 2 verschiedene Baustellen, dein Recorder sammelt einfach jede Änderung von jeder Entität, die History im Stundentankt nur eine bestimmte Klasse bon Sensoren, da sind die Energiedaten von Hause mit dabei. Ich hatte ein ähnliches Problem mit einer 40GB DB, hab im Rekorder dann eine Whitelist angelegt von dem was ich überhaupt brauche, ich brauch zum Beispiel keine Daten wann jemand einen Lichtschalter gedrückt hat.
Kannst also die 365Tage beruhigt rausnehmen.
Hat bei mir übrigens eine Woche gebraucht bis die DB von 40GB auf 2 GB geschrumpft ist. Ich würde dann auch die Backups löschen (vorher das aktuellste full/diff runterladen), weil sind ja auch entsprechend gross. Beim Purge wächst die DB nämlich temporär.
Ich denke, dass das mein Problem sein wird wenn ich auf 2024.7.2 gehe.
Er versucht zu purgen (DB wächst temporär), aber Festplatte ist eh fast voll und dann geht nichts mehr.
Ich habe echt (auch weil wenig Kenntnisse in Sachen DB) Angst dass etwas schief läuft wenn ich die config ändere. Du sagst Energiedaten werden eh aufgezeichnet… Beinhaltet das auch die template Sensoren für meine Energieberechnungen etc???
Was meinst du mit full/diff???
Meine Backups werden immer extern auf nem NAS gesichert. Dann muss ich sie och nicht löschen, oder?
Da hast Du recht, also es sind evtl. mehrere Schritte notwendig, um da wieder ganz sauber zu werden.
Letztens habe ich hier im Forum etwas gesehen, da hat jemand seine SQLs geteilt, um die größten Tabellen in einer mariaDB zu finden, die kann man auch auf eine SQLite anwenden.
Das habe ich dann missverstanden, natürlich kannst Du ncdu auch unter Proxmox installieren, dann wie Du schon geschrieben hast, in der Konsole des PVE das eingeben,
Ich habe mittlerweile herausgefunden, dass ich hunderte Leichen in meiner SQL habe. Leichen die (so glaube ich) aus einer alten Unifi Network Integration stammen. Diese Datensätze sind zum Teil riesig. Ich habe in einem englischen Forum eine Abfrage für SQLite Web gefunden, die mir die Entitäten auflistet.
Hier nur mal der obere Auszug. Nachdem ich mal in meinem HA gegengecheckt habe konnte ich herausfinden, dass viele gar nicht mehr existieren.
Jetzt wäre meine Frage ob ich mittels SQLite Web irgendwie die Datensätze direkt aus der DB löschen kann?!?!
Und wenn ja… weißt du oder jemand hier im Forum vielleicht wie?
Hast Du es mal versucht?
Nur weil er die Entität in HA nicht mehr auflistet, Dir als Auswahl anzeigt, heißt das nicht, dass Du das bei Zu entfernende Entität nicht eingeben kannst, muss man dann halt Tippen oder Copy/Paste.
Ja, das kann man auch mit dem Web Tool machen.
Ja, ich könnte das, aber ich scheue mich etwas davor, es hier zu beschreiben, denn ich kenne Deinen Datenbank Skill nicht und würde Dir nur ungern zu etwas raten, das schiefgehen kann.
Ich kann Dir nur erst einmal raten, es doch über den Dienst zu versuchen.
Ich habe gerade mal den ersten großen Eintrag eingegeben und ich kann auf jeden Fall beobachten, dass meine meine Festplatte aktuell wächst. Also irgendwas tut er. mal sehen.
Meine Skills sind gleich null… Copy & Paste
Gäbe es die Möglichkeit, dass du mir zb Remote hilfst? Meine HA läuft ja eh als VM und ich kann im schlimmsten Fall ein Backup zurückspielen.
Ich habe den service für die erste Entität vor 30 min gestartet und seit 20 min ist mein HA nicht mehr erreichbar und die VM hat ordentlich Datenraten auf der SSD
Nach 6 Std habe ich es abgebrochen. Die Maschine hat sich irgendwie nicht mehr gefangen. Musste dann mein Backup zurückspielen.
Ich habe ein wenig Bammel davor die DB Einstellungen vorzunehmen, dass er zb gar nicht 365 Tage recordet, da ich die Abhängigkeiten nicht ganz durchblicke.
Die Sensoren, die wirklich viele Daten generieren sind zb die Sensoren die meinen Stromzähler live auslesen. Wenn ich das richtig sehe verwende ich diese allerdings gar nicht direkt für die Energiemessung sondern Befüttern nur andere Template Sensoren.
hier zb wird der Wert in einen gerundeten Energie Template Sensor gespeist.
danach wird der Wert des Template Sensors in diesen Integralsensor (Helfer) gespeist, und erst dieser für die korrekte Berechnung als Sensor in mein Energie-Dashboard hinzugefügt.
Dadurch funktioniert meine Überschuss-Rechnung genauso wie sie soll…
Jetzt wäre die Frage ob ich die Daten der Ursprungssensoren überhaupt so lange aufbewaren muss, oder ob ich tatsächlich nur die Integralsensoren so lange aufbewaren muss?!?!
aktuell habe ich ja tatsächlich nichts wirklich in der configuration.yaml stehen.
Könnte ich ansonsten nicht für die neue Core Version das Auto-Purge abschalten?
und dann die keep-days runtersetzen und dann die Integralsensoren irgendwie davon ausschließen? Oder muss ich das andersrum machen? keep_days auf 365 Tage lassen und alles andere davon ausschließen? Ich habe tatsächlich aktuell irgendwie noch nicht wirklich das Verständnis wie ich den recorder richtig konfiguriere
Ein Frage wäre auch, ob er (sollte ich die keep_days runtersetzen) wirklich anfängt die alten Daten zu bereinigen?!?!
Fragen über Fragen…
Vielleicht kannst du mir ja Helfen oder den richtigen Denkanstoß geben