Nativ HA oder mit Proxmox auf einem NUC

Leute, der Titel dieses Thread ist

Nativ HA oder mit Proxmox auf einem NUC

Die Diskussion über Display’s und andere Anzeigemöglichkeiten für das Dashboard habe ich hier hin ausgelagert:

@thphilipp
Hi, ja, das waren auch meine Beweggründe, mich für HA OS nativ auf einem Raspberry 4 (mit SD Karte, die schon im 4. Jahr ihre Dienste tut) zu entscheiden. Ich denke eine wichtige weitere Frage könnte sein, ob man sich intensiv mit HA beschäftigen möchte oder einfach nur eine Haussteuerung sucht, die ihren Dienst verrichtet. Das war ein weiterer Grund für mich - allerdings muss ich zugeben, dass HA schon das Zeug zur “Droge” hat :slight_smile: Man findet immer neue Dinge, die noch automatisiert werden könnten…

Ich muss mein Backup-Setup noch optimieren. Im Moment bin ich noch in der Findungsphase. Ich mache 3x pro Woche ein Backup der VM und täglich ein Backup in HAOS jeweils auf eine externe Festplatte.

Die Backups sichere ich dann über Borg-Backup auf einer Storagebox eines namhaften deutschen Anbieters. So bin ich zumindest auf der sicheren Seite.

Neu habe ich eine VM mit Openmediavault erstellt und dort eine SSD eingehängt. Dank SMB und NFS Shares sichert HAOS direkt auf den OMV Server. OMV hat eine große Plugin-Bibliothek. Unter anderem gibt es auch Plugins für Borgbackup und OneDrive. Damit können die Backups über eine GUI konfiguriert, erstellt und abgerufen werden. Bisher bin ich damit sehr zufrieden. Einzig muss ich die Settings feinjustieren.

… die würde ich mal ersetzen bzw. Zumindest ein Backup erstellen und ein Restore testen…

oder besser direkt gegen ne SSD tauschen, macht sich auch in Sachen Performance deutlich bemerktbar

Performance ist super. Gibt es Leute, die kein Backupkonzept haben? :wink: Mal sehen wie lange sie noch durchhält. Ist jedenfalls länger als ich erwartet hatte und liegt wohl auch an HA. Irgendwo hatte ich - glaube ich - mal gelesen, das sie einiges getan haben die Schreibzugriffe für SD Karten zu optimieren. Keine Ahnung ob das so ist.

Meistens sind es die Logfiles, die eine SD killen, hat mich mit PiHole und Co schon einige SD’s in kurzer Zeit gekostet.
Mittlerweile bin ich daher von RasPi weg, wenn nur noch mit SSD drin oder alles direkt als Container auf Proxmox - ein MiniPC, evtl. sogar gebraucht, hat eh das bessere Preis-/Leistungsverhältnis aus jeder RasPi, zudem ist es mit den Backups erheblich einfacher zu machen.

Ich weiß, dass es gerne vergessen wird. Aber YouTube Videos darf jede*r einstellen, vollkommen ohne Nachweis irgendwelcher Fähigkeiten oder Qualifikationen. :exploding_head:

Nein, ich habe das Video nicht gesehen. Weiß nicht einmal wer es veröffentlicht hat.
Aber früher war es so, dass die Menschen Dinge geglaubt haben, weil sie in der Zeitung standen. Heute glaubt man Dinge, weil jemand auf YouTube es sagt. (kurz an die Pandemie zurück gedacht… :wink:)

Natürlich gibt es auch Gründe HA ohne Proxmox laufen zu lassen. Bei meinem Pi 4 mit 8 GB zum Beispiel war das keine Diskussion.

Im professionelleren Bereich geht aber seit Jahren viel in Richtung Virtualisierung, aus Gründen.

Es ist wie immer… Es kommt darauf an. Auch Proxmox ist sicher nicht der Weisheit letzter Schluss.

Wenn man ein System aussetzen will, ohne sich weiter darum kümmern zu müssen, ist bare metal oft einfacher, weil eine Schicht weniger.
HA ist jedoch schlicht kein fire & forget System. Daher dürfte der Punkt in den Hintergrund rutschen.

Hat die Hardware nicht die power weitere Systeme (sinnvoll) ausführen zu können, ist das ein gutes Argument für bare metal. Siehe Pi 4 :wink:
Für mich wäre das vermutlich auch der ziemlich einzige Grund mich bewusst gegen Virtualisierung zu entscheiden. Und selbst in dem Fall gibt es genug Anwendungsfälle, in denen virtualisierung und darunter dennoch der Betrieb nur eines System sinnvoll sein kann.

Hat das System die Ressourcen, möchte ich Programme auslagern / unabhängig betreiben, möchte ich Dinge flexibler testen und auf- bzw. zurücksetzen können usw. spricht das sehr für z.B. Proxmox.

Insbesondere bei der Verwendung verschiedener und insbesondere verschieden großer Festplatten / Datenträger, wird unraid dann sehr interessant.

Ich für meinen Teil betreibe seit Jahren keine Server auf bare metal mehr, sondern setze auf vServer für verschiedene Anwendungen, statt alles in einem OS laufen zu haben.

Am Wochenende stand für mich die Frage an, auf welches Betriebssystem ich (zurück) gehe, nachdem mein dienstlicher Windows Rechner nur noch Probleme machte.

Nach drei bis fünf Neuinstallationen habe ich dann meinen T430 wieder raus geholt, erneut QubesOS installiert und nutze jetzt schlicht das System, dass ich für meinen Anwendungsfall in dem Moment gerade brauche.

p.s. die HA Addons setzen ihrerseits wieder selbst auf Virtualisierung, in Form von Docker.

Will man ein AddOn wie Zigbee2MQTT auch unabhängig von HA noch in Betrieb und bedienbar haben, wäre ein einfacher Weg HA und Z2M auf der selben Maschine aber virtuellen Umgebungen in z.B. Proxmox zu betreiben. :wink:

Offensichtlich, wenn man immer wieder die Probleme nach einem Datenverlust liest. :stuck_out_tongue_winking_eye:

Ich habe mit einem Tor Node mal innerhalb weniger Wochen eine hochwertige SD gegen die Wand gefahren.
Das gleiche Modell mit sogar weniger Speicher, hält in HA seit Jahren tapfer durch. (Feststellung, keine Empfehlung…)

Die Schreibzugriffe sind es (vermutlich), die problematisch werden. SD Karten sind eben nicht auf den Server Betrieb ausgelegt. Genau so wie Laptops oder Desktop Rechner. Kann funktionieren aber eben zeitlich begrenzt.

Die sind das Problem - die Anzahl der Schreibzugriffe bei SDCards ist limitiert - wie auch bei Festplatten und SSD’s, nru haben die ganz andere Limits

Du kannst mir glauben - das ist im Privaten Umfeld der Normalfall aber leider auch bei vielen Firmen, grade im Mittelstand

Ich kann dir aus eigener Erfahrung sagen, es ist kein schönes Gefühl, wenn du von der Arbeit nach Hause kommst, Polizei und Feuerwehr die Strasse gesperrt haben und du Richtung deiner Wohnung schaust und knapp dahinter ein schwarze Rauchwolke in den Himmel steigt.
Knapp 7m vom Schlaffzimmerfenster in ein große Schreinerei bis auf die Grundmauern abgebrannt, die Feuerwahr war dort 12h tätig und unser Haus hat durch die Hitze einiges abbekommen, zum Glück nur Schäden an der Fassade und Fenstern, die Feuerwehr hat die Wandseite unter Wasser gehalten.
Seitdem liegen unsere ganzen wichtigen Unterlagen im Banksaft ausser Haus und ich mache auch eine Datensicherung außer Haus.

1 „Gefällt mir“

Hab ich definitiv nicht vergessen und genau deshalb habe ich es hier reingestellt, damit andere, die diesen Thread lesen, auch alternative Sichtweisen bekommen. Und dann soll jeder selber für sich entscheiden, wie er es gerne haben möchte.

Deshalb versuche ich auch immer so viele Informationen (YouTube, Foren usw.) zu sichten, um mir eine Meinung auf Grundlage unterschiedlichster Informationen bilden zu können.

Und nochmal. Aktuell habe ich mich auch für Proxmox entschieden und will das ender der Woch umziehen. Ber bisher sind die Backup-Strategien noch ein Punkt mit dem ich mich beschäftigen muss. HA auf GoogleDrive o.ä. ist viel und ausführlich (YouTube, Foren usw.) besprochen.
Für Proxmox hab ich das für Laien noch nicht so ausführlich gefunden (USB-Stick, OneDrive o.ä. am liebsten mit Video :wink: ).

Vielleicht habe ich auch noch nicht die richtigen Suchbegriffe eingegeben.
Mit Kommanozeilen tue ich mich schwer. Außer ein paar DOS-Grundlagen und Copy&Paste versuche ich das tatächlich zu vermeiden :wink:

Das braucht es kein Video für - gibt es ne Doku.
Proxmox hat ne intere Backupfunktion für die kompletten VM.
Man muss eben nur ein externe Laufwerk einbinden, und wenn Google Drive SMB / CIFS unterstütz, ist das keine Problem, eher die Geschwindigkeit beim Update, da sind ja pro VM schnell einige GByte

1 „Gefällt mir“

Für Proxmox kann ich den Proxmox Backup Server PBS nur wärmstens empfehlen.
Ist echt eine feine Sache.
Habe hier einmal Stand Alone auf einem ZimaBorad laufen und einmal auf der Synolgy als VM.

Backups werden von allen LXC’s und VM’s täglich durchgeführt.
Deduplication Factor > 60!
Ebenfalls täglich werden die 2 PBS synchronisiert.

Gruß
Osorkon

Ich persönlich möchte eigentlich keinen zweiten “Dauerläufer” mehr haben. Ich hatte einige Jahre ein WD-NAS laufen und dann ist mir eine Platte abgeraucht. Aber da ich es eigentlich nicht wirklich genutzt habe, möchte ich da jetzt auch nicht wieder > 100 € reinstecken und noch etwas, dass 24/7 läuft. Und deshalb würde ich eine Lösung wie z.B. Online oder halt per USB (-Stick?) bevorzugen.
Würde ein USB-Stick funktionieren, wenn er da nur 3-mal die Woche die Backups draufschreibt und die alten wieder löscht?
Oder einen USB-Adapter/Stick für SD-Karten?

Moin,

Wenn man sich etwas mit dem System auskennt, dann geht das natürlich alles, aber wenn man dann mal wieder in Eile ist, dann vergisst man das Mounten, weil Automount nicht eingerichtet ist oder den unmount und zieht den Stick oder what ever einfach ab und wundert sich warum die Daten futsch sind.

Wenn Du qualitativ hochwertige SD-Karten kaufst, kommst Du schon fast an SSD heran.
Ich persönlich halte nicht so viel davon,

  1. kann man verlieren
  2. können leicht entwendet werden

Wenn Du Google Drive hast kann man den Lokalen Storage syncen

Wie gesagt, wer sich mit dem System auskennt und beschäftigt, kann alles möglich machen.

VG
Bernd

Ich dachte tatsächlich daran, den dauerhaft als “externes Laufwerk” am Mini-PC hängenzulassen. Sollte dann irgendwas mit dem Gerät/SSD o.ä. sein, sollte ich ihn ja eigentlich abziehen können und hätte die Backups auf dem Stick. Oder ist das zu naiv gedacht?
Aber extern wäre natürlich besser.

Moin,

Meine Meinung, ja :slight_smile:

Dieser Satz und der nachfolgende

Genau sein nehmen wir mal den Super-GAU an, Blitzschlag, Dein Server wird gegrillt und mit ihm auch der Stick, nicht sonderlich klug, oder?

VG
Bernd

Stimmt schon, aber das NAS ist dann auch hinüber :wink:

Ich hab zwar eine Blitzschutzsteckdose davor, aber die Dinger sind ja auch mehr dazu da, um das Gewissen zu beruhigen. :wink:

Deshalb ja (zusätzlich) seltener ein externes Backup. Aber das kommt später.

Nochmals VIELEN DANK für deinen vielen sehr hilfreichen Beiträge.

Hallo zusammen,
ich bin auch mit Proxmox auf einem Fujitsu Q920 in die HA Welt gestartet. Videoanleitungen waren da echt Gold wert und es hat super geklappt. Mich hat das HA Fieber gepackt und ich habe schnell zwei IR-Leseköpfe für meine Stromzähler angeschlossen. Das war schon etwas fummeliger mit Proxmox. Nun habe ich Frigate noch getestet und mir einen Coral gekauft. Der soll auch per USB an den rechner dran. Das war für mich der Moment, mir einen zweiten Fujitsu Rechner zu kaufen und von einer virtualisierten auf eine nicht-virtualisierte (was ist der richtige Begriff dafür?) Lösung umzusteigen. Bei drei USB Geräten war mir das mit der Virtualisierung zu kompliziert und Anfällig.
Nun bin ich sehr glücklich, mit zwei kleinen Servern auf denen ich mich austoben kann. Die HA-VM liegt immer noch in Proxmox. Bei Bedarf kann ich sie (hoffentlich) hochfahren und ein Backup einspielen. Somit sollte ich in einem Ernstfall die Ausfallzeit gering halten.

Ich kann verstehen wer Proxmox nutzt, das Teil kann für umme ne Menge leisten.

Aber mal ehrlich, jeder normale Mensch der nicht unbedingt ein Nerd ist, aber dennoch Ahnung von IT hat, tut sich doch in der Regel kein Proxmox an, vor allem weil es eine Schicht mehr ist die man im Griff behalten muss, und dann noch die Add-Ons auslagern, um … naja … ein paar Lichtszenen und 100 Sensoren zu nutzen. Ich behaupte das geht dann über “smart” hinaus.

Ich bin auch ein Nerd, und beruflich quäle ich mich genug mit IT, dann will ich es daheim so einfach wie möglich haben. Was darin endet: HA nativ auf einem NUC, das Backup landet auf einem Share was einen OneDrive-Sync hat, und so wenig wie möglich “Zeugs” ins HA. Deswegen auch kein Tuya, duckDNS, CloudFlare, LetsEncrypt, irgendwas hartes was nur über HACS zu integrieren ist oder ähnliches. Da geb ich lieber ein paar Euro mehr aus, für eine echte Domain, für ein richtiges SSL Zerti und für Hardware die man so nennen darf. Selbst mit ZigBee hab ich mich schwer getan, weil wieder eine Schicht extra, aber mit dem ZigStar LAN Gateway und Palumann ZigBee Leuchten, habe ich die richtige Entscheidung getroffen, teurer in der Anschaffung, aber läuft…

Aber, ganz ohne nerdig gehts auch bei mir nicht, ich hab einen kleinen Server mit Hyper-V drauf, ist noch aus meinen Consulting Zeiten geblieben, da läuft nebst ein paar Servern auch eine Testinstanz vom HA. Und Proxmox als solches will ich auch nicht schlecht reden, wers mag, hopp und los :slight_smile:

Danke Für das Video. Ich kann bestätigen, dass HA und Proxmox-NUC seit mehr als einem Jahr problemlos funktionieren, bis auf den SkyConnect.
Leider im Video nur angeschnitten.
Habe den SkyConnect mit einem Windows-Chrome auf verschiedene Firmwares geflashed. Ich bekomme es nicht hin, dass ZHA und Thread/Matter gleichzeitig laufen. Mit Device-Mapping funktioniert keine einzige Firmware für Matter.
Vielleicht im nächsten Video?
Ohne Proxmox funktioniert das Multiprotokoll, jedoch nur mit Silicon-Addon und nicht mit dem OTBR-Addon, dieses wird dann nur als Integration geladen, d.h. man hat kein NAT64 support (Nuki etc…)