Wichtige Info: Zukunft von SFML // Docker - Version

Wichtiges Update zum TFS HA-Version

Das Preetraining ist erfolgreich durchgelaufen und das Modul wurde so eben zum erstem Mal in HA unter realen Bedingungen geladen und das Fine-Tuning mit den vorhandenen Daten aus SFML wurde automatisch gestartet und läuft wie geplant sehr resourchenschonend durch.

Hier ein paar Eckdaten zum Modell und der Effekt vom Fine-Tuning Script (sofern SAUBERE SFML Daten vorhanden sind)

Model:
Pre-Trained → Finde-Tunend

Run Baseline Best Improvement Modell
g1 (broken train_zara) 0.135 0.066 −51% from-scratch, nicht pretrained
g1 (korrekter _run_finetune) 0.153 0.082 −46% echtes Transfer Learning
g4 (jetzt) 0.112 0.022 −80% g4 Transfer Learning + group_mask

−80% Verbesserung gegenüber der Pre-Training-Baseline! Das ist ein sehr großer Erfolg.

  1. Das Modell läuft unter HA
  2. Das Fine-Tuning / Anpassung mittels SFML DB auf die eigene Anlage erreicht noch mal eine ENORME Verbesserung um +80%
  3. Fine-Tuning " early Stopping" funktioinert (Modell erkennt wenn es nicht mehr besser wird)
  4. Die Überlegungen zur Resourchen Einsparung(en) um lauffähig unter HA zu sein greifen.
  5. Automatisches Erkennen von SFML und automatisches Einbinden der nötigen Sensoren - Check es muss NICHTS durch den Nutzer konfiguriert werden.

LAST auf dem HA Host während Fine-Tuning:

Lets get ready to rumble.. nun beginnt das echte Testen…

HA APP Protokoll:

HA IDLE und tatsächliche RAM-Nutzung auf dem HOST

Erster Forecat (heute) OHNE die Feinabstimmung sondern out of the box.. ERSTAUNLICH!!!

g1 (03:09 Nacht) g4 (20:18 Abend) IST
Total p50 15.94 kWh 11.70 kWh 11.02 kWh
Fehler +4.92 (+44.6%) +0.68 (+6.2%)
Per-group keine ✓ Gruppe 1 + 2
Validation 0.0 (broken) 0.82

Versioinierung
G1 = Erste Version (BETA 1)
G2 = Broken (abgestürzt)
G3 = Broken (abgestürzt)
G4 = läuft! mit +6,2% aus dem Stand!

Es bleibt spannend.. morgen z.B. ist schweres Wetter (Wechslhaft mit Sonne und Regen)

2 „Gefällt mir“