Plötzlicher HA Neustart

Hallo,

heute hat sich mein HA neu gestartet, im Supervisor konnte ich folgende Fehlermeldung. Kann die jemand interpretieren, wo müsste ich suchen:

2024-08-12 13:34:13.571 INFO (MainThread) [supervisor.homeassistant.api] Updated Home Assistant API token
2024-08-12 14:04:13.705 INFO (MainThread) [supervisor.homeassistant.api] Updated Home Assistant API token
2024-08-12 14:15:11.163 WARNING (MainThread) [supervisor.homeassistant.websocket] Connection is closed
2024-08-12 14:15:11.163 ERROR (MainThread) [supervisor.homeassistant.api] Error on call http://172.30.32.1:8123/api/core/state: [Errno 104] Connection reset by peer
2024-08-12 14:15:14.519 WARNING (MainThread) [supervisor.homeassistant.core] Watchdog found Home Assistant failed, restarting...
2024-08-12 14:15:14.533 INFO (SyncWorker_5) [supervisor.docker.manager] Starting homeassistant
2024-08-12 14:15:14.647 INFO (MainThread) [supervisor.homeassistant.core] Wait until Home Assistant is ready
2024-08-12 14:15:19.657 INFO (MainThread) [supervisor.homeassistant.core] Home Assistant Core state changed to APIState(core_state='NOT_RUNNING', offline_db_migration=False)
2024-08-12 14:15:19.893 INFO (MainThread) [supervisor.resolution.evaluate] Starting system evaluation with state running
2024-08-12 14:15:20.053 INFO (MainThread) [supervisor.resolution.evaluate] System evaluation complete

und später dies:

2024-08-12 14:30:00.742 INFO (MainThread) [supervisor.docker.addon] Starting Docker add-on ghcr.io/hassio-addons/log-viewer/amd64 with version 0.17.0
2024-08-12 14:30:00.786 ERROR (MainThread) [supervisor.api.ingress] Ingress error: Cannot connect to host 172.30.33.11:8099 ssl:default [Connect call failed ('172.30.33.11', 8099)]

Danach ist er aber noch nicht abgestürzt

Gruß
Elmar

Moin,

Bitte Log Texte in Code Tags </> verpacken :wink: :crayon:by HarryP: erl.

VG
Bernd

P.S.: jetzt wo man das vernünftig lesen kann :slight_smile:

Also eine Sache vorweg,

Warning ≠ Error

In Deinem Logauszug, hat die supervisor.homeassistant.api einen Home Assistant API Token erneuert

2024-08-12 13:34:13.571 INFO (MainThread) [supervisor.homeassistant.api] Updated Home Assistant API token
2024-08-12 14:04:13.705 INFO (MainThread) [supervisor.homeassistant.api] Updated Home Assistant API token

Dabei wurde eine Verbindung geschlossen, daher die Warnung

2024-08-12 14:15:11.163 WARNING (MainThread) [supervisor.homeassistant.websocket] Connection is closed

Dann gab es exakt zur selben Zeit, ein API Call, der aber weil wohl noch nicht alles gestartet war, oder eben wegen des neuen Tokens, dieses zum Fehler geführt hat

2024-08-12 14:15:11.163 ERROR (MainThread) [supervisor.homeassistant.api] Error on call http://172.30.32.1:8123/api/core/state: [Errno 104] Connection reset by peer

Dann hat der Watchdog festgestellt, das HA nicht, oder noch nicht, komplett gestartet ist und tritt dann HA durch (restart)

2024-08-12 14:15:14.519 WARNING (MainThread) [supervisor.homeassistant.core] Watchdog found Home Assistant failed, restarting...

Der Rest sind dann normale Start Meldungen

2024-08-12 14:15:14.533 INFO (SyncWorker_5) [supervisor.docker.manager] Starting homeassistant
2024-08-12 14:15:14.647 INFO (MainThread) [supervisor.homeassistant.core] Wait until Home Assistant is ready
2024-08-12 14:15:19.657 INFO (MainThread) [supervisor.homeassistant.core] Home Assistant Core state changed to APIState(core_state='NOT_RUNNING', offline_db_migration=False)
2024-08-12 14:15:19.893 INFO (MainThread) [supervisor.resolution.evaluate] Starting system evaluation with state running
2024-08-12 14:15:20.053 INFO (MainThread) [supervisor.resolution.evaluate] System evaluation complete

Da wird dann ein Add-on gestartet, sollte das sein log-viewer

2024-08-12 14:30:00.742 INFO (MainThread) [supervisor.docker.addon] Starting Docker add-on ghcr.io/hassio-addons/log-viewer/amd64 with version 0.17.0

Wobei dieser Start dann ein Problem hat/hatte, auf die IP:Port 172.3031.11:8099 Adresse zuzugreifen

2024-08-12 14:30:00.786 ERROR (MainThread) [supervisor.api.ingress] Ingress error: Cannot connect to host 172.30.33.11:8099 ssl:default [Connect call failed ('172.30.33.11', 8099)]

Da solltest Du mal Deine Einstellungen diesbezüglich des Add-ons anschauen.

VG

Hallo,

danke für die Erläuterung, eine solche oder eine ähnliche STörung kommt immer wieder mal vor, heute Nacht wie folgt:

2024-08-17 05:24:19.448 INFO (MainThread) [supervisor.host.network] Updating local network information
2024-08-17 05:24:19.533 INFO (MainThread) [supervisor.host.sound] Updating PulseAudio information
2024-08-17 05:24:19.540 INFO (MainThread) [supervisor.host.manager] Host information reload completed
s6-rc: info: service s6rc-oneshot-runner: starting
s6-rc: info: service s6rc-oneshot-runner successfully started
s6-rc: info: service fix-attrs: starting
s6-rc: info: service fix-attrs successfully started
s6-rc: info: service legacy-cont-init: starting
cont-init: info: running /etc/cont-init.d/udev.sh
[05:46:47] INFO: Using udev information from host
cont-init: info: /etc/cont-init.d/udev.sh exited 0
s6-rc: info: service legacy-cont-init successfully started
s6-rc: info: service legacy-services: starting
services-up: info: copying legacy longrun supervisor (no readiness notification)
services-up: info: copying legacy longrun watchdog (no readiness notification)
[05:46:47] INFO: Starting local supervisor watchdog...
s6-rc: info: service legacy-services successfully started
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_uri.py:51: SyntaxWarning: invalid escape sequence '\w'
  _UNRESERVED = "[\w\-\.]"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3.py:265: SyntaxWarning: invalid escape sequence '\{'
  part_pattern = "^(\{0}|\{1})$".format(self.WILDCARD_ONE,
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp_simple.py:48: SyntaxWarning: invalid escape sequence '\w'
  _ALPHANUM_PATTERN = "\w"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp_simple.py:51: SyntaxWarning: invalid escape sequence '\d'
  _LANGTAG_PATTERN = "^([a-z]{2,3}(-([a-z]{2}|[\d]{3}))?)$"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_wfn.py:49: SyntaxWarning: invalid escape sequence '\!'
  _PUNC_NO_DASH = "\!|\"|\;|\#|\$|\%|\&|\'|\(|\)|\+|\,|\.|\/|\:|\<|\=|\>|\@|\[|\]|\^|\`|\{|\||\}|\~"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_wfn.py:77: SyntaxWarning: invalid escape sequence '\{'
  _spec1 = "\{0}".format(WILDCARD_ONE)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_wfn.py:78: SyntaxWarning: invalid escape sequence '\{'
  _spec2 = "\{0}".format(WILDCARD_MULTI)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_wfn.py:86: SyntaxWarning: invalid escape sequence '\w'
  _body1 = "\w|{0}".format(_quoted1)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_wfn.py:87: SyntaxWarning: invalid escape sequence '\w'
  _body2 = "\w|{0}".format(_quoted2)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_fs.py:50: SyntaxWarning: invalid escape sequence '\w'
  _UNRESERVED = "\w|\.|\-"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_fs.py:51: SyntaxWarning: invalid escape sequence '\!'
  _PUNC = "\!|\"|\;|\#|\$|\%|\&|\'|\(|\)|\+|\,|\/|\:|\<|\=|\>|\@|\[|\]|\^|\`|\{|\||\}|\~|\-"
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_fs.py:77: SyntaxWarning: invalid escape sequence '\{'
  _logical = "(\{0}|{1})".format(VALUE_ANY, VALUE_NA)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_fs.py:78: SyntaxWarning: invalid escape sequence '\{'
  _quest = "\{0}".format(WILDCARD_ONE)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp2_3_fs.py:79: SyntaxWarning: invalid escape sequence '\{'
  _asterisk = "\{0}".format(WILDCARD_MULTI)
/usr/local/lib/python3.12/site-packages/cpe/comp/cpecomp_anyvalue.py:35: SyntaxWarning: invalid escape sequence '\*'
  """
2024-08-17 05:46:50.799 INFO (MainThread) [__main__] Initializing Supervisor setup
2024-08-17 07:46:50.879 INFO (MainThread) [supervisor.bootstrap] Setting up coresys for machine: qemux86-64

HA hat sich heute Nacht gegen 5:24/5:46 Uhr vollständig aufgegangen. Ich konnte dies nur durch einen vollständigen Neustart der VM in proxmox lösen (7:46).

Kurz danach habe ich das update auf 2024.8.2 gemacht. Nun ist mir aufgefallen, dass ich bestimmte Anwendungen wie beispielsweise den “file editor” nicht nutzen kann, es erscheint folgende Meldung:

“Unable to load the panel source: /api/hassio/app/entrypoint.js.”

Ein vollständiger Neustart ist nicht möglich, es gleich nur die Möglichkeit HA im agesicherten Modus neu zu starten aber selbst wenn ich da drauf klicke funktioniert das nicht.

Ich scheine da nach wie vor irgendwo ein grundsätzliches Problem in HA zu haben, kann aber noch nicht identifizieren was es genau ist.

Gruß
Elmar

Ich habe mal versucht den Supervisor neu zu starten mit dem Ergebnis:

Gruß
Elmar

Moin,

Wenn da eine Störung war, dann war das interessante aber vor dem Teil, den Du gepostet hast, das, was Du da zeigst, sind alles nur info Meldungen, keine Warning, oder error Meldungen.

Wieso?

Ich leider auch nicht, denn dazu fehlen mir einfach zu viele Informationen, Logs.

  • Ist die Hardware ok?
  • Mit der Stromversorgung auch?
  • sieht man im PVE Log etwas?

VG
Bernd

P.S.:

Ich vermute, dass das gesamte System nicht sauber heruntergefahren und sauber gestartet ist.

Danke,

der Neustart war nicht möglich weil ich HA nicht erreichen konnte, insofern konnte ich auch keinen Neustart innerhalb von HA durchführen.

  • Die Hardware hatte ich gecheckt, da habe ich nichts gefunden, ich habe allerdings im Proxmox Forum etws gefunden was sich ähnlich anhört, da wird immer ein microcode update empfholen, aber da habe ich mich noch nicht heran getraut, weil ich mich damit gar nicht auskenne.
  • Stromversorgung läuft, hab HA an einer USV hängen die war durchgängig verfügbar
  • Im PVE Log habe ich nichts gefunden, bei erneuteen Neustart habe ich nur folgende Meldungen bzgl. bluettooth gesehen,

240817_HA_Bluetooth_start

Der Start erfolgte im abgesicherten Modus, ich habe dann innerhalb von HA neu gestartet, das lief dann sauber durch.

Allerdings habe ich mir mal die Datenbank “home-assistant_v2.db” angesehen einfach weil meine Backup-Files auch so mit der Zeit immer größer werden (zur Zeit vollständiges Backup ca. 3,2 GB). Da steht nur folgendes

'utf-8' codec can't decode byte 0xd5 in position 31: invalid continuation byte

Ich weis nicht ob das etwas zu bedeuten hat oder auch mit dem Thema zu tun haben kann. Hab die aber mal herunter geladen, sie ist 1,8 GB groß.

Ich habe in die Protokolle gesehen, aufgefallen ist mir:

Whisper:

s6-rc: info: service whisper successfully started
s6-rc: info: service discovery: starting
[15:02:11] WARNING: e[33mYour CPU does not support Advanced Vector Extensions (AVX). Whisper will run slower than normal.e[0m
[2024-08-17 15:02:22.660] [ctranslate2] [thread 54] [warning] The compute type inferred from the saved model is float16, but the target device or backend do not support efficient float16 computation. The model weights have been automatically converted to use the float32 compute type instead.
INFO:__main__:Ready
[15:02:23] INFO: e[32mSuccessfully send discovery information to Home Assistant.e[0m
s6-rc: info: service discovery successfully started

und core:

2024-08-17 15:06:58.396 WARNING (SyncWorker_0) [homeassistant.loader] We found a custom integration powercalc which has not been tested by Home Assistant. This component might cause stability problems, be sure to disable it if you experience issues with Home Assistant
2024-08-17 15:07:03.467 INFO (SyncWorker_6) [fritzconnection] Unable to retrieve resource 'http://192.168.178.6:49000/igddesc.xml' from the device.
2024-08-17 15:07:03.470 INFO (SyncWorker_9) [fritzconnection] Unable to retrieve resource 'http://192.168.178.24:49000/igddesc.xml' from the device.
2024-08-17 15:07:03.474 INFO (SyncWorker_2) [fritzconnection] Unable to retrieve resource 'http://192.168.178.27:49000/igddesc.xml' from the device.
2024-08-17 15:07:03.501 INFO (SyncWorker_4) [fritzconnection] Unable to retrieve resource 'http://192.168.178.48:49000/igddesc.xml' from the device.

Die Geräte die er nicht finden kann sind Repeater im Mesh, die sind aber online. Denke aber nicht, dass das kritisch ist.

Gruß
Elmar

Moin,

Dann gehst Du entweder in die Konsole der HA-VM unter Proxmox
grafik

Da kannst Du dann auch einiges neu starten


Aber ich an Deiner Stelle würde einfach ein Reboot in Proxmox für die VM machen

Bitte immer die Fundstelle mit angeben, ich muss das selber lesen, und nicht was sich ähnlich anhört :wink:

Ohne, wie gesagt, die Fundstelle von Dir zu kennen, bringe ich das mit einem Problem eines Kernels, in Proxmox, in Verbindung, das war aber vor x Kernel Releases, welchen Kernel setzt Du denn gerade bei Dir ein?

Sehr gut.

Wie?
Da kann man nicht so einfach hineinschauen, das ist eine Binärdatei!

Das ist, nicht ausschlaggebend, die Größe hängt von vielen Faktoren ab, ist aber hier kein Thema, da gibt es schon ein Thread zu :wink:

Frage, nutzt Du das aktuell?
Dieses Warning sagt nur, dass die CPU, den CPU Type, den Du der VM zugewiesen hast, keine AVX Erweiterung hat, damit kann eine Vektorberechnung damit nicht durchgeführt werden.
Das habe ich auf die Schnelle gefunden

Ich würde mich aber erst einmal auf ein sauberes Grundsystem konzentrieren, und alle abschalten, was Du nicht wirklich brauchst.

Das sind normale infos und das Warning, sagt nur, dass HA keine Garantie, für die HACS Erweiterungen, übernimmt, wenn da etwas schiefgeht, bist Du selbst schuld.

VG
Bernd

Hallo,

vielen Dank

  • Ich habe das System so wie du es beschrieben hast in Proxmox neu gestartet anders ging es auch nicht mehr da HA nicht erreichbar. HA startet dann erneut im abgesicherten Modus, ich hache dann aber einen erneuten vollständigen Neustart aus HA heraus und dann funktionierts auch.
  • die Kernelversion ist Linux 6.8.8-4-pve (2024-07-26T11:15Z)
  • mit der DB habe ich verstanden, danke
  • gestern lief das System stabil auch durch die Nacht, heute morgen gegen 4.30 hat sich aber wieder dasselbe ereignet wie vorgestern mit denselben Protokollen und Meldungen. Bin da also noch nicht weiter.
  • ich habe bei Proxmox VE Helper-Scripts gesehen, dass es da auch einige Möglichkeiten gibt das System zu überwachen, kenne mich damit allerdings nicht wirklich aus, hast Du da einen Tipp was ich mal testen sollte/könnte?
  • Ich hatte z.B. mal das Proxmox VE Helper-Scripts installiert, in der Hoffnung, dass er dann den Neustart durchführt wenn HA hängt, hat aber anscheinend nicht geklappt.
    Gruß
    Elmar
1 „Gefällt mir“

Moin,

Wird Dir in Proxmox nicht angezeigt, dass es da neue Pakete gibt?


Die Version 6.8.8-4, zu meiner 6.8.12-1 ist doch schon angestaubt :slight_smile:

Was passiert in Deiner gesamten Installation noch so, schaltest Du den Router, die Fritz!Box aus, trennst Du etwas vom Strom um dies Zeiten?

Das ist ein weites Feld und mit wenigen Worten nicht zu beschreiben, es kommt darauf an, was man Überwachen möchte, Einen einzelnen Dienst, ein Container oder eine VM, PVE selbst?
Es gibt viele Möglichkeiten, das zu tun, Du kannst Dir ein LX Container mit einem der von tteck bereitgestellten Monitoring Lösungen installieren, aber Monitoring ist halt nicht auch Alerting und wie oben schon geschrieben, kommt es darauf an was man Monitoren möchte.
Zabbix ist ein mächtiges Tool, aber somit auch wieder nicht so einfach in der Konfiguration, auch ist HA dadurch wie es aufgebaut ist, nicht leicht zu überwachen.

Erst einmal, ja kann man versuchen, ich kenne das aber nicht und ich hab auch schon im Proxmox Forum, gelesen, dass das mehr stört als hilft.
HA hängt ja nicht wirklich, das OS ist ja noch erreichbar, daher kann so ein Skript/Tool, bei dem verschachteltem Design.

Eine Frage am Rande ist bei Dir die Erweiterung qemu-agent in der VM aktiviert?


Und wie sehen bei Dir die Einstellungen zur Hardware der VM aus?

VG
Bernd

Moin,

dank Dir, die updates habe ich gerade durchgeführt.

Guest Agent ist aktiviert, wird aber immer dann als offline angezeigt, wenn der Supervisor nicht erreichbar ist.

Die Hardwarekonfiguration ist fast gleich, nur folgende Unterschiede:
Speicher 8.79 GiB
Prozessoren: 3 (1 sockets, 3 cores)
Maschinentyp: Standardeinstellung (i440fx)
und ich habe ein USB Gerät mehr frei gegeben, hatte auch einen unbenutzen USB-Port/Anschluss durch gereicht den habe ich aber heraus genommen.

Hier habe mal das Thema mit den Microcodes im Verlauf heraus gesucht, das hatte ich hier gefunden:
smarthome for dummies

Das sieht meinem Thema sehr ähnlich, traue mich da allerdings nicht ran, weil ich dafür zu wenig Experte bin.

Gruß
Elmar

Moin,

Ja, beim flüchtigen Überfliegen, sieht das schon so aus, ist zwar ~ 1 Jahr alt und sowohl Proxmox ist von 7.2 auf 8.2.x, als auch HA ist einige Versionen weiter.

Mit den Proxmox Versionen werden auch Firmware und Mikrocode Updates eingespielt, das, was natürlich nicht gemacht wird, sind Updates des BIOS, das musst Du selber machen.

Ob es neuere Mikrocodes für Deine CPU und Peripherie gibt, kann man auch checken, zum einen, gibt es da das Helferskript

Ich würde mal mit der Maschinentype spielen, versuch mal q35 vielleicht bring das ja doch etwas.

VG
Bernd

P.S.: Nur so als Tipp, nicht alle Änderung, gleichzeitig machen, denn dann weiß man nicht welche davon die richtige war :wink:

Microcode führte zum dem im Screenshot gezeigten Ergebnis, ich habe dann auch mal auf q35 umgestellt, das führte aber dazu, dass der guest agent nicht mehr erreichbar war und damit HA nicht hochgefahren ist. Bin daher wieder zurück auf die Standardeinstellung.

Bzgl. Bios update weis ich nicht genau wie das zu machen ist, muss ich mal recherchieren. Würde aber zunächst mal abwarten ob die prxmox updates zu einer Besserung geführt haben.
Gruß
Elmar

Moin,

Hast Du nur das ausgeführt?

journalctl -k | grep -E "microcode" | head -n 1

Oder Du vorher auch das gemacht

bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/misc/microcode.sh)"

und bist den Anweisungen gefolgt?

Das finde ich seltsam, denn eigentlich sollte das mit allen CPUs passen, die so zwischen aktuell und bis ~ 15 Jahre zurückliegen, habe da aber nicht weiter nachgeschaut.
Was war das gleich noch mal für ein Rechner?

Das sollte man auch auf den Seiten des Herstellers finden.

VG
Bernd

HI,

ja ich habe das wie auf der Seite beschrieben nacheinander durchgeführt.

Mein Rechner ist ein:

Marke geeknuc
Betriebssystem Windows 11 Pro
CPU-Modell Intel Core i3
CPU-Taktfrequenz 2,9 GHz
Beschreibung der Grafikkarte Integriert
Speicherkapazität 512 GB
Spezifische Verwendungsmöglichkeiten für Produkt Everyday Use
Größe des installierten RAM-Speichers 16 GB
Modellname NUC11ATKPE 16GB+512GB
Enthaltene Komponenten mini pc

Ich habe den von 16 GB RAM auf 64 GB RAM aufgerüstet.

Ja ich bin da grad schon bei intel und schaue mir das an

GRuß
Elmar

Hi,

ich hatte eben wieder einen Absturz der war aber nicht zwingend durch HA verursacht, sondern die ganze pve war nicht mehr ansprechbar, und ich musste den NUC vollständig ausschalten und neu starten. Ich habe mit mal das Log der pve für die Zeit kopiert:

Nachtrag:

Aug 19 13:30:48 pve kernel: veth106i0 (unregistering): left allmulticast mode
Aug 19 13:30:48 pve kernel: veth106i0 (unregistering): left promiscuous mode
Aug 19 13:30:48 pve kernel: fwbr106i0: port 2(veth106i0) entered disabled state
Aug 19 13:30:48 pve audit[134272]: AVC apparmor="STATUS" operation="profile_remove" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134272 comm="apparmor_parser"
Aug 19 13:30:48 pve kernel: audit: type=1400 audit(1724067048.651:1719): apparmor="STATUS" operation="profile_remove" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134272 comm="apparmor_parser"
Aug 19 13:30:49 pve kernel: EXT4-fs (dm-13): unmounting filesystem b1b4db1d-e0ee-41bc-b9f9-540132da9106.
Aug 19 13:30:49 pve kernel: fwbr106i0: port 1(fwln106i0) entered disabled state
Aug 19 13:30:49 pve kernel: vmbr0: port 6(fwpr106p0) entered disabled state
Aug 19 13:30:49 pve kernel: fwln106i0 (unregistering): left allmulticast mode
Aug 19 13:30:49 pve kernel: fwln106i0 (unregistering): left promiscuous mode
Aug 19 13:30:49 pve kernel: fwbr106i0: port 1(fwln106i0) entered disabled state
Aug 19 13:30:49 pve kernel: fwpr106p0 (unregistering): left allmulticast mode
Aug 19 13:30:49 pve kernel: fwpr106p0 (unregistering): left promiscuous mode
Aug 19 13:30:49 pve kernel: vmbr0: port 6(fwpr106p0) entered disabled state
Aug 19 13:30:50 pve pct[134262]: <root@pam> end task UPID:pve:00020C78:000CEA2F:66C32CE8:vzstop:106:root@pam: OK
Aug 19 13:30:50 pve systemd[1]: pve-container@106.service: Deactivated successfully.
Aug 19 13:30:50 pve systemd[1]: pve-container@106.service: Consumed 1.363s CPU time.
Aug 19 13:30:50 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:51 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:52 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:52 pve pvestatd[1022]: modified cpu set for lxc/101: 1,3
Aug 19 13:30:54 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:56 pve pct[134346]: <root@pam> starting task UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam:
Aug 19 13:30:56 pve pct[134349]: starting CT 106: UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam:
Aug 19 13:30:56 pve systemd[1]: Started pve-container@106.service - PVE LXC Container: 106.
Aug 19 13:30:57 pve kernel: EXT4-fs (dm-13): mounted filesystem b1b4db1d-e0ee-41bc-b9f9-540132da9106 r/w with ordered data mode. Quota mode: none.
Aug 19 13:30:57 pve audit[134371]: AVC apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134371 comm="apparmor_parser"
Aug 19 13:30:57 pve kernel: audit: type=1400 audit(1724067057.780:1720): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134371 comm="apparmor_parser"
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered blocking state
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered disabled state
Aug 19 13:30:58 pve kernel: fwpr106p0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: fwpr106p0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered blocking state
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered forwarding state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered disabled state
Aug 19 13:30:58 pve kernel: fwln106i0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: fwln106i0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered forwarding state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 2(veth106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 2(veth106i0) entered disabled state
Aug 19 13:30:58 pve kernel: veth106i0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: veth106i0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: eth0: renamed from veth4CtHV7
Aug 19 13:30:59 pve pct[134346]: <root@pam> end task UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam: OK
Aug 19 13:30:59 pve kernel: fwbr106i0: port 2(veth106i0) entered blocking state
Aug 19 13:30:59 pve kernel: fwbr106i0: port 2(veth106i0) entered forwarding state
Aug 19 13:31:00 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:01 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:02 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:03 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
-- Reboot --
Aug 19 13:45:32 pve kernel: Linux version 6.8.12-1-pve (build@proxmox) (gcc (Debian 12.2.0-14) 12.2.0, GNU ld (GNU Binutils for Debian) 2.40) #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-1 (2024-08-05T16:17Z) ()
Aug 19 13:45:32 pve kernel: Command line: BOOT_IMAGE=/boot/vmlinuz-6.8.12-1-pve root=/dev/mapper/pve-root ro quiet
Aug 19 13:45:32 pve kernel: KERNEL supported cpus:
Aug 19 13:45:32 pve kernel:   Intel GenuineIntel
Aug 19 13:45:32 pve kernel:   AMD AuthenticAMD
Aug 19 13:45:32 pve kernel:   Hygon HygonGenuine
Aug 19 13:45:32 pve kernel:   Centaur CentaurHauls
Aug 19 13:45:32 pve kernel:   zhaoxin   Shanghai  
Aug 19 13:45:32 pve kernel: x86/split lock detection: #AC: crashing the kernel on kernel split_locks and warning on user-space split_locks
Aug 19 13:45:32 pve kernel: BIOS-provided physical RAM map:
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000000000000-0x000000000009efff] usable
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x000000000009f000-0x00000000000fffff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000000100000-0x000000006fdb8fff] usable
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x000000006fdb9000-0x00000000722b8fff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000722b9000-0x0000000072538fff] ACPI data
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000072539000-0x000000007263dfff] ACPI NVS
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x000000007263e000-0x0000000072dfefff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000072dff000-0x0000000072efefff] type 20
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000072eff000-0x0000000072efffff] usable
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000072f00000-0x000000007fffffff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000c0000000-0x00000000cfffffff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000fed00000-0x00000000fed00fff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000fed20000-0x00000000fed7ffff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved
Aug 19 13:45:32 pve kernel: BIOS-e820: [mem 0x0000000100000000-0x000000107fffffff] usable
Aug 19 13:45:32 pve kernel: NX (Execute Disable) protection: active
Aug 19 13:45:32 pve kernel: APIC: Static calls initialized
Aug 19 13:45:32 pve kernel: efi: EFI v2.7 by American Megatrends
Aug 19 13:45:32 pve kernel: efi: ACPI=0x72538000 ACPI 2.0=0x72538014 TPMFinalLog=0x725ea000 SMBIOS=0x72c49000 SMBIOS 3.0=0x72c48000 MEMATTR=0x6be85018 ESRT=0x6de55e98 MOKvar=0x72c8e000 
Aug 19 13:45:32 pve kernel: efi: Remove mem68: MMIO range=[0xc0000000-0xcfffffff] (256MB) from e820 map
Aug 19 13:45:32 pve kernel: e820: remove [mem 0xc0000000-0xcfffffff] reserved
Aug 19 13:45:32 pve kernel: efi: Not removing mem69: MMIO range=[0xfe000000-0xfe010fff] (68KB) from e820 map
Aug 19 13:45:32 pve kernel: efi: Not removing mem70: MMIO range=[0xfec00000-0xfec00fff] (4KB) from e820 map
Aug 19 13:45:32 pve kernel: efi: Not removing mem71: MMIO range=[0xfed00000-0xfed00fff] (4KB) from e820 map
Aug 19 13:45:32 pve kernel: efi: Not removing mem73: MMIO range=[0xfee00000-0xfee00fff] (4KB) from e820 map
Aug 19 13:45:32 pve kernel: efi: Remove mem74: MMIO range=[0xff000000-0xffffffff] (16MB) from e820 map
Aug 19 13:45:32 pve kernel: e820: remove [mem 0xff000000-0xffffffff] reserved
Aug 19 13:45:32 pve kernel: secureboot: Secure boot disabled
Aug 19 13:45:32 pve kernel: SMBIOS 3.3.0 present.
Aug 19 13:45:32 pve kernel: DMI: Intel(R) Client Systems NUC11ATKC4/NUC11ATBC4, BIOS ATJSLCPX.0037.2022.0715.1547 07/15/2022
Aug 19 13:45:32 pve kernel: tsc: Detected 2000.000 MHz processor
Aug 19 13:45:32 pve kernel: tsc: Detected 1996.800 MHz TSC
Aug 19 13:45:32 pve kernel: e820: update [mem 0x00000000-0x00000fff] usable ==> reserved
Aug 19 13:45:32 pve kernel: e820: remove [mem 0x000a0000-0x000fffff] usable
Aug 19 13:45:32 pve kernel: last_pfn = 0x1080000 max_arch_pfn = 0x400000000
Aug 19 13:45:32 pve kernel: MTRR map: 5 entries (3 fixed + 2 variable; max 23), built from 10 variable MTRRs
Aug 19 13:45:32 pve kernel: x86/PAT: Configuration [0-7]: WB  WC  UC- UC  WB  WP  UC- WT  
Aug 19 13:45:32 pve kernel: last_pfn = 0x72f00 max_arch_pfn = 0x400000000
Aug 19 13:45:32 pve kernel: esrt: Reserving ESRT space from 0x000000006de55e98 to 0x000000006de55ed0.
Aug 19 13:45:32 pve kernel: e820: update [mem 0x6de55000-0x6de55fff] usable ==> reserved
Aug 19 13:45:32 pve kernel: secureboot: Secure boot disabled
Aug 19 13:45:32 pve kernel: RAMDISK: [mem 0x2fe05000-0x33ef9fff]
Aug 19 13:45:32 pve kernel: ACPI: Early table checksum verification disabled
Aug 19 13:45:32 pve kernel: ACPI: RSDP 0x0000000072538014 000024 (v02 INTEL )
Aug 19 13:45:32 pve kernel: ACPI: XSDT 0x0000000072537728 0000EC (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: FACP 0x0000000072535000 000114 (v06 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: DSDT 0x00000000724EC000 048EC8 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: FACS 0x000000007263B000 000040
Aug 19 13:45:32 pve kernel: ACPI: MCFG 0x0000000072536000 00003C (v01 INTEL  NUC11ATB 00000025 MSFT 00000097)
Aug 19 13:45:32 pve kernel: ACPI: FIDT 0x00000000724EB000 00009C (v01 INTEL  NUC11ATB 00000025 AMI  00010013)
Aug 19 13:45:32 pve kernel: ACPI: MSDM 0x00000000724EA000 000055 (v03 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724E7000 0025EE (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724E5000 001CCD (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724E1000 0032CD (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: HPET 0x00000000724E0000 000038 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: APIC 0x00000000724DF000 00012C (v05 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: PRAM 0x00000000724DE000 000030 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724DB000 002D44 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724DA000 000EF4 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724D7000 002FC5 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: NHLT 0x00000000724D5000 001771 (v00 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: LPIT 0x00000000724D4000 000094 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: WDAT 0x00000000724D2000 000134 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724CF000 002720 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724CE000 000122 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: DBGP 0x00000000724CD000 000034 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: DBG2 0x00000000724CC000 000054 (v00 INTEL  NUC11ATB 00000025 AMI  01000013)
Aug 19 13:45:32 pve kernel: ACPI: DMAR 0x00000000724CB000 000088 (v02 INTEL  NUC11ATB 00000025      01000013)
Aug 19 13:45:32 pve kernel: ACPI: SSDT 0x00000000724CA000 000144 (v02 INTEL  NUC11ATB 00000025 INTL 20191018)
Aug 19 13:45:32 pve kernel: ACPI: TPM2 0x00000000724C9000 00004C (v04 INTEL  NUC11ATB 00000025 AMI  00000000)
Aug 19 13:45:32 pve kernel: ACPI: WSMT 0x00000000724D3000 000028 (v01 INTEL  NUC11ATB 00000025 AMI  00010013)
Aug 19 13:45:32 pve kernel: ACPI: FPDT 0x00000000724C8000 000044 (v01 INTEL  NUC11ATB 00000025 AMI  01000013)

Ich weis nicht ob daraus eine Ursache ersichtlich ist

Gruß
Elmar

:crayon:by HarryP: Zusammenführung Doppelpost (bitte “bearbeiten” Funktion nutzen)

Moin,

Für mich nicht das einzige, was ich gesehen habe, ist das der PVE seine Metriken nicht mehr an Deine influxDB schicken konnte, nachdem der LXC 106 wohl gestoppt wurde

Aug 19 13:30:50 pve systemd[1]: pve-container@106.service: Deactivated successfully.

Daraus folgte

Aug 19 13:30:50 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:51 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:30:52 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)

Dann wird LXC 106 auch gleich wieder gestartet

Aug 19 13:30:56 pve pct[134346]: <root@pam> starting task UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam:
Aug 19 13:30:56 pve pct[134349]: starting CT 106: UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam:
Aug 19 13:30:56 pve systemd[1]: Started pve-container@106.service - PVE LXC Container: 106.
Aug 19 13:30:57 pve kernel: EXT4-fs (dm-13): mounted filesystem b1b4db1d-e0ee-41bc-b9f9-540132da9106 r/w with ordered data mode. Quota mode: none.
Aug 19 13:30:57 pve audit[134371]: AVC apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134371 comm="apparmor_parser"
Aug 19 13:30:57 pve kernel: audit: type=1400 audit(1724067057.780:1720): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-106_</var/lib/lxc>" pid=134371 comm="apparmor_parser"
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered blocking state
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered disabled state
Aug 19 13:30:58 pve kernel: fwpr106p0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: fwpr106p0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered blocking state
Aug 19 13:30:58 pve kernel: vmbr0: port 6(fwpr106p0) entered forwarding state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered disabled state
Aug 19 13:30:58 pve kernel: fwln106i0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: fwln106i0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 1(fwln106i0) entered forwarding state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 2(veth106i0) entered blocking state
Aug 19 13:30:58 pve kernel: fwbr106i0: port 2(veth106i0) entered disabled state
Aug 19 13:30:58 pve kernel: veth106i0: entered allmulticast mode
Aug 19 13:30:58 pve kernel: veth106i0: entered promiscuous mode
Aug 19 13:30:58 pve kernel: eth0: renamed from veth4CtHV7
Aug 19 13:30:59 pve pct[134346]: <root@pam> end task UPID:pve:00020CCD:000CED52:66C32CF0:vzstart:106:root@pam: OK

Was mich wundert, ist, dass dann trotzdem, wieder die Meldungen kommen, dass es die influxDB nicht erreicht

Aug 19 13:31:00 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:01 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:02 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)
Aug 19 13:31:03 pve pvestatd[1022]: metrics send error 'Proxmox_influxdb': 500 Can't connect to 192.168.178.77:8086 (Connection timed out)

dann kam der Reboot

Hast Du das eingerichtet?

Also was ich mir noch vorstellen kann ist, dass Einstellungen zur Virtualisierung im BIOS nicht enabled sind, da musst Du mal alle Punkte anschauen und die Erklärung dazu lesen
Hier mal ein Beispiel

VG
Bernd

Hi,

das steht bei mir be dem Metrixserver, ist das so ok?

Das Bios werde ich morgen auf jeden Fall überprüfen, danke für den Tipp

Diese Starts und Stops macht er wohl öfters und auch mit anderen Containern

ich habe das BIOS entsprechend der Anleitung überprüft im BIOS selbst kann ich keine Einstellungen vornehmen, die VT-x Überprüfung ergibt aber nach Eingabe von rdmsr 0x3a den Wert 5 was bedeutet, dass Bit 0 und 2 gesetzt sind. Was das nun final bedeutet weis ich allerdings nicht.
Gruß
Elmar

Moin,

Ähm, wenn Du das eingerichtet hast, dann hoffe ich, dass das stimmt, dieser Bildschirm zeigt ja nur, dass Du ein Metrikserver eingerichtet hast, wie der eingerichtet ist, siehst Du ja erst, wenn Du auf den Eintrag gehst und dann auf bearbeiten,


Die Frage ist, nutzt Du die abgelegten Informationen, hast Du Dir in Grafana ein Dashboard gebaut, um die Metriken zu visualisieren?

Hier sehe ich die LX Container 104 und 106, das sind beides Container, die Du nicht mit dem Helferskript erstellt hast, sollten da auch noch die anderen, die Du selbst gebaut hast, auftauchen, dann hast Du ein generelles Problem.
Welches Du dann selbst verursacht hast, denn dann stimmt da etwas bei der Erstellung der eigenen LX Container nicht.
Wenn es nur die zwei sind, dann ist da etwas falsch eingerichtet!

Naja, wie genau das jetzt bei Deinem BIOS heißt, kann ich nicht sagen, meist gibt es da schon etwas, das zur Virtualisierung eingeschaltet sein sollte.
Auf der Thomas Krenn Seite, gibt es ja die hilfe, wenn dann sollte man im BIOS unter

  • Processor Options
    mal suchen.

Das sagt Dir, dass die Virtualisierung im BIOS aktiviert ist, sieh Beispiel 2,

Beispiel 2: Intel VT-x im BIOS aktiviert

Beim Beispielserver (Intel SR2500) gibt rdmsr 0x3a den Wert 5 zurück wenn Intel VT-x im BIOS aktiviert ist (die Bits 0 und 2 sind also gesetzt). 

VG
Bernd

Hallo Bernd,

die entsprechende Bioseinstellung habe nun gefunden, IVT war bereits aktiviert (siehe Foto)

  • die Einstellung zum Metrixserver sieht bei mir genau so aus ich habe lediglich den Timout auf 1 sec gehabt habe den jetzt so wie du auf 2.
  • Ich habe in der Tat Container die ich erstellt habe bevor ich die Helperscripts kannte, das ist genau NodeRed, Adguard, Paperless, influxDB und grafana. Funktioniert das dann nicht mehr wenn die Helferscripts bei anderen Containern verwendet werden, oder besser kann man das heilen oder muss ich die nochmal neu anlegen? Ich kann die Container mit dem Helferscript neu anlegen, würde aber gern die InfluxDB behalten. Ich muss mal schauen ob das irgendwie geht.
  • Ist es denn wahrscheinlich, dass dies die Ursache für die Abstürze ist?


Ich habe auch mal den micocode gecheckt nach der Vorgehensweise von Thomas-Krenn, wenn ich das richtig interpretiere ist das aktuell.
Gruß
Elmar

Moin,

Es ist ja erst einmal die Frage, ob es nur die 104er und 106er sind oder noch andere, die immer wieder stoppen und starten.
Wenn es dann irgendwie alle sind, die du ohne Helferskripte angelegt hast, dann ist da ein genereller Fehler, ich habe so etwas vorher noch nicht gesehen und müsste auch erst einmal nachdenken, was so ein Verhalten verursachen kann.

Das ist möglich, erfordert aber ein etwas tiefer greifendes Verständnis der influxDB.

Du meinst, das mit den beiden N am Anfang?

Nein, das sagt nur aus, dass in der Ressource List etwas nicht ganz korrekt ist, dir fehlt ein Eintrag, oder er ist nicht aktiviert


Sollte der Eintrag fehlen, dann einmal des Helferskript ausführen

Oder wenn du dich mit den Source Listen auskennst selbst eintragen.

root@pve-10:~# cat /etc/apt/sources.list
deb http://deb.debian.org/debian bookworm main contrib
deb http://deb.debian.org/debian bookworm-updates main contrib
deb http://security.debian.org/debian-security bookworm-security main contrib

Dann, ganz wichtig, bitte nicht mit dpkg in Proxmox herumhantieren, damit installierst du Pakete am Paketmanager apt vorbei ins System, dass für unweigerlich irgendwann zu Problemen, wenn du dann per apt ein Paket installieren willst, und es die Dateien aber schon im System gibt.

VG
Bernd

Hi,

ich habe mir überlegt Influxdb und Grafana auf meine NAS outzusourcen. NoteRed würde ich neu installieren. ich würde die alten Container zunächst nicht löschen aber auch nicht einschalten. Dann kan ich bei bei Bedarf noch darauf zu greifen.

Das VE-Helper Script habe ich nochmal durchlaufen lassen, es sah vorher bei mir etwas anders aus, so fehlte bei dem Eintrag auf den Dein Pfeil zeigt das /debian-security

Ich hoffe, dass ich mir dem dpkg Befehl keine Schwierigkeiten verursacht, ich hoffe aber, dass zumindest Klarheit bzgl. des micorcode Themas besteht.

GRuß
ELmar