Hallo zusammen,
da HA nun schon für meine Umgebung eine extrem kritische Komponente ist (single point of failure) habe ich derzeit folgende Implementierung gewählt:
HA läuft in einer Oracle VM auf einem Win10 Laptop auf zwei gespiegelten USB3 Memory Sticks (Stichwort Windows “Speicherplätze” ab Win10). Somit kann ein Speicher ausfallen ohne jegliche operative Beeinträchtigung. Recovery mit einem neuen Stick passiert on the fly. Speichererweiterung / Redundanzverbesserung alles on the fly möglich. ->OK
Alter Laptop im Cold Standby (leider habe ich noch keine Idee wie ich automatisch Failover implementieren kann, hat das jemand bereits realisiert? Am besten ohne Datenverlust). → verbesserungswürdig
Nächtliche Backups über Auto Backup welche auf einen externes VeraCrypt Laufwerk gespeichert werden welches wiederum (hochverschlüsselt) in die Cloud kopiert wird. → OK
Ausfall vom Internet (Kabel) wird von einem Mobile Stick aufgefangen. Funktioniert nicht mit HA, da duckdns eine öffentliche IP braucht → nicht OK
Ausfall der Fritzbox. Noch keine Redundanz → nicht OK
Ausfall von Switches und WLAN repeater: Redundanz im Cold Standby → verbesserungswürdig
Aber: Mir ist nicht klar, ob die nächtlichen Backups wirklich für eine umfassende Desaster revovery helfen. Wie ich verstehe, ist in diesem Backup infulxDB nicht enthalten. Auch div. Settings der Integrationen fehlen. Wäre es nicht schlauer, nächtlich den VM Ordner ins VeraCrypt zu kopieren und ein eine Cloud zu sichern?
Dazu müsste der HA runter gefahren werden. Verfügbarkeitsverlust in Summe ~10-15Min. Nicht akzeptabel !?
Oder hat jemand Erfahrung Automatisiert Snapshots der VM zu erstellen? Wie zuverlässig wäre das?
Welche Vorkehrungen habt ihr für welche Ausfälle getroffen?
Uh, das ist schon ziemlich heftig. Wenn du so Geschütze auffährst, wo ist die USV? Wozu brauchst du, im Sinne des Disasters, Internetzugriff auf HomeAssistant? Lokale Backups hast du auch vorrätig?
Ich bin auch schon recht paranoid. Mein HomeAssistant ist tatsächlich weitestgehend Heimautomatisierung. Das läuft aufm RPi. Andere Dinge laufen woanders, wenn eine Sache ausfällt ist der Rest noch da.
Ich habn zweiten Rpi in der Schublade, auf den wird nach größeren Updates ein Vollbackup gebügelt.
Wenn wirklich was ausfällt, wird der angeschaltet, Zigbeestick dran, und dann geht erstmal alles wieder.
Hat sich’s n bisschen beruhigt, spiel ich erstmal das letzte Teil-Backup (alle 2h, Kopie auf Nas) ausm produktiven System zurück, so verliere ich max 3h Statistik.
Das langt für mich so, und hat sich auch schon bewährt.
Influx, und alle anderen add-on Daten werden in Homeassistant-Backups mitgesichert. Bei mir jedenfalls. Was fehlt dir denn?
SEHR spannendes Thema und bei sicherlich vielen bisher nicht berücksichtigt.
Schwer Dir hier etwas zu raten, da Du nicht schreibst gegen welches Szenario Du dich absichern möchtest.
Meine Lösung sieht aber ähnlich aus:
Proxmox mit HA VM inkl. USV (Container wird täglich gesichert auf externes Medium)
Cold Standby Server für Proxmox mit gleichen Ständen (im Bedarfsfall wird dann der letzte Containerstand vom externen Medium zurückgesichert) - deshalb so, weil ich auch Hardwareschnittstellen am produktiven System habe und diese dann manuell umgesteckt werden müssen (z.B. ZigBee, Zählersensorik usw.)
Gegen eine Hotstandby Lösung mit Corum Instanz habe ich mich aufgrund des Aufwandes und der Hardwareanbindungen (z.B. ZigBee) entschieden.
Etagenverteiler und alle LAN Komponenten sind USV gestützt.
Internetzugang ist bei mir als nicht “lebenswichtig” definiert, da die gesamte Lösung weitestgehend lokal funktionieren sollte. Alles was “Cloud ist” geht halt dann nicht mehr, ABER auch hier gilt wieder - gegen was will ich mich denn absichern, denn ein Providerausfall ist weitestgehend unwahrscheinlich und WENN dies passiert, dann gehen meist auch andere Anbindungen nicht mehr.
Früher war immer ein Ersatz Pi mit vorinstallierten Home Assistant OS in der Schublade.
Seit dem Proxmox am Start ist, laufen zwei PVE im Cluster. Ein Dritter als Backup in der Schublade. VM‘s und LXC‘s werden täglich über Proxmox Backup Server auf dem NAS Gespeichert. Und wöchentliche Sicherung auf externen Datenträger.
Ersatz Z-Wave Stick liegt in der Schublade. Controller back wird nach Bedarf erstellt.
Ersatz ZigBee Stick, ebenfalls in der Schublade, auch wenn noch das Therme Cotroller Backup & Restore bei ZigBee2MQTT nicht implementiert ist.
Alle Geräte sind ausschließlich lokal eingebunden.
Hauptbeleuchtung ist immer über einen fest verdrahteten Schalter bedienbar. Ambiente Beleuchtung ZigBee ausnahmslos über biding mit Remote Schaltern gekoppelt. Auch wenn diese zu 99,9% in der Schublade liegen.
Bei Z-Wave Geräten nutze ich wenn möglich die Assoziation.
Der Blackout kann kommen.
Und selbstverständlich hängen alle Server an einer USV.
hiii… die USV im Laptop ist ja der Akku Pack welcher mindestens 5 Stunden durchhält. Für Fritz usw. habe ich keine USV, jedoch hängt diese an einer eigenen Sicherung welche nicht über den Keller FI (Fehlerstromschutzschalter) geschaltet ist.
Hast du für InfluxDB -Backup in config.yaml was eingestellt? Ich habe die Backup Sizes vor und nach Influx geprüft. Delta sind 200Mb was dem normalen täglichen Zuwachs entspricht. Somit kann InfluxDB nicht mitgesichert werden. Hier der Screenshot
Nö. Das wird mit dem Addon mitgesichert. Sichere ich Influx, wird die db mitgesichert.
Schau doch mal ins Backup selbst rein. Oder mach nen Restore an einem Offline Gerät, dann siehste was mitgesichert wird. Hängt natürlich stark davon ab was du alles sicherst - meine Influxdb ist nach knapp 2 Jahren ~1GB.
Deswegen gibts das FullBackup auch nur täglich, dazwischen nur Recorder und so…
Ja.
Abgesehen davon, dass ich ja mein Backup vom Livesystem regelmäßig rüberspiele, gabs schon einmal einen heißen Einsatz. Hat einwandfrei geklappt, obwohls mir im Fall natürlich nicht schnell genug gegangen ist
Seitdem hab ich tatsächlich 2x Feueralarm gespielt um mich drauf verlassen zu können. Hat geklappt.
Am Ende ich bin ich froh wenn ich weiß, dass im Falle eines Falles nach 10 Minuten wieder alles wichtige bedienbar ist. Statistiken sind geil, aber nicht lebensnotwendig.
Hallo,
ich bin zwar noch ganz am Anfang aber auch mich beschäftigt die Frage der Redundanz. Mich deshalb weil man ja immer älter wird, und vielleicht irgendwann da gar nicht mehr anpacken kann. Hat man viel automatisiert und guckt sich das eine Weile nicht an, kommt man manchmal selsbt schwer wieder rein. Ist mir bei verschiednen Projekten schon passiert. Da fragt man sich was haste denn da gebaut, ich habe mir auch meistens etwas dokumentiert und notiert, aber das was damals so klar war… wirft ein paar Jahre später Fragezeichen auf! Wenn man am Zeitpunkt X auch alles so eingerichtet hat wie es soll, dann fasst man das ja idealerweise auch nicht mehr an, es funktioniert eben… bis es nicht mehr geht! Wenn der Ausfall da ist fehtl einem ja die Funktion und man geht auf Fehlersuche und Behebung…
Meine Idee:
Ich kaufe den kompletten baugleichen Mini-PC nocheinmal, spiele HA drauf. und stecke dort auch einen Zigbee Stick an, also komplett nochmal die gleiche Hardware,den mache ich dann Einsatzbereit. Fahre also den MiniPC A herunter und installiere alles mit dem Backup von “A” auf MiniPC “B”. Jetzt müsste alles über B auch wie vorher funktionieren? Richtig? ggf. muss auf B die Config für das Zigbee angepasst werden, weil ja da ein anderer Stick funkt?
Fahre ich B herunter und nehme A wieder hoch müsste alles wieder über “A” laufen? Und fahre ich “A” wieder herunter und fahre “B” hoch müsste alles über “B” funktionieren…?
Dann muss ich nur einen Flyer erstellen und dem “Helfer” erklären was wie umgestöpselt werden muss, wenn es einen HA Ausfall gibt und wie man “B” startet? Ich muss ggf. “nur” beachten, dass bei Änderungen bei “A” auf “B” übertragen werden müssen und ggf. updates nachgeholt werden müssen.
Im Idealfall, übt man 1x jährlich die Hardware und lässt ein Jahr “A” und im nächsten Jahr “B” laufen? Dann weiß man das beide auch funktionieren und die Software ist mindestens jährlich mit updates versehen.
Wäre das “so einfach” oder übersehe ich da was entscheidendes?
falsch!
Da der Zigbee Stick auf B eine andere PAN ID bekommt und weil dort nicht die Daten enthalten sind, die auf A angelernt wurden, hast Du anschließend keine Zigbee Geräte.
Das ist der Nachteil von Zigbee (Zigbee2MQTT), ZWave usw. wenn sie über USB angeschlossen sind, Geräte können nur an einem Zigbee Stick angelernt werden.
Wenn Du aber, Zigbee2MQTT und MQTT, als eigenständige Instanzen bereitstellst und der Sticks über LAN angeschlossen ist, dann kannst Du zwei HA Installationen haben, die dann auf den gleichen MQTT Broker schauen.
Aber es gibt hier im Forum schon einige Threads dazu.
Ich würde da nicht so viel Energie hineinstecken, immer schön Backups machen, geht etwas kaputt, dann neuen PC, RasPI kaufen und das Backup wieder einspielen.
Ein Hot stand by PC muss auch ständig aktuell gehalten werden, damit z. B. das Backup von HA Version 2025.10, auch wieder eingespielt werden kann, wenn auf B noch 2025.3 ist.
Das mit dem mind. 1x jährlich Updates kann man zwar machen, wäre aber in der Praxis nicht wirklich so sinnvoll, da sich innerhalb eines Jahres so viel bei HA verändert, dass man dann nur noch sehr schwer feststellen könnte wie sich das alles am Ende auf die bestehende - dann ggf. 1 Jahr alte - Installation auswirken könnte. Im schlimmsten Fall gibt es irgendwelche Inkompatibilitäten die ggf. dazu führen das ein Update - von z.B. HA Core oder Intergration oder Addon xyz von 2024.x - auf 2025.x gar nicht möglich ist, eben weil irgendwelche ggf. notwendigen Zwischenupdates nicht gemacht wurden.
Und noch als kleine Ergänzung zu dem was @dp20eic bereits geschrieben hat:
Das kannst Du zwar machen und die Kiste erst einmal ohne eine HA Installation in die Schublade legen, damit Du bei einem Hardware-Ausfall der ersten Kiste sofort einen Ersatz in der Hinterhand hast, aber das schützt Dich auch nur vor einem Hardware-Ausfall des HA Host und löst nicht das “Problem” das Du bzgl. älter werden, etwas vergessen usw. angesprochen hast. Auch sind in erster Linie keine Hardware-Ausfälle bei HA das Problem, sondern eher Software-Probleme.
Sprich wenn Du - wie ja @dp20eic bereits geschrieben hat - regelmäßig ein Backup von Deiner HA-Installation machst, welches Du dann hoffentlich auch extern und nicht auf der gleichen Kiste speichern lässt, hast Du immer die Möglichkeit mit diesem Backup und der Kiste die Du dann aus der Schublade holst, Dein HA-System wieder so herzustellen wie es bis zu dem erstellen des letzten Backups war und lief.
Ja das mit den externen Backups war einfach, da die Synology gleich erkannt wurde und dort gleich ein Backup aufgespeichert wird. Ja ansosnten habt ihr wohl Recht, werde sowieso erstmal die Energie brauchen mich hier einzulernen!