BUG-TRACKER Solar Forecast ML

Wie melde ich einen Bug

„Es gibt zwei Arten von Software: die mit Bugs – und die, die noch niemand lange genug benutzt hat.“
(leicht abgewandelt nach diversen Entwickler-Weisheiten)

Bevor du loslegst – Bitte lesen:

  1. Wirf bitte zuerst einen Blick in die FAQ – vielleicht steht dein Anliegen schon drin.
  2. Schau kurz, ob der Bug / die Idee nicht schon gemeldet wurde - hier im Thread
  3. Schaut bitte in die Release-Notes ob der BUG bereits behoben wurde

Bug-Report erstellen:

Damit ich schnell verstehe, was los ist, bitte folgende Infos mit dazugeben:

  • System: z. B. Proxmox, Docker, Home Assistant Core, Supervised…
  • HA-Version: z. B. 2026.2.1
  • Modul / Integration: z. B. Solar Forecast ML Vers. 20.2.0
  • Logs / Screenshot: am besten die relevanten Zeilen aus /config/solar_forecast_ml/logs/ (bitte persönliche Daten entfernen – IP-Adressen, Token, Namen etc. rausretuschieren)

Tipp für die Übersichtlichkeit im Forum/Tracker:
Schreib bitte in die erste Zeile einfach:

BUG-REPORT – Kurze, knackige Zusammenfassung (max. 8–10 Wörter)

Darunter dann die Details.

Beispiel:

BUG-REPORT → SFML V.20.0.2

Warp-Kern leuchtet plötzlich lila und singt Schlager

System: Enterprise
HA-Version: NCC-1701-A (Core 2026.2.1)
Modul: Solar Forecast ML Vers. 20.0.2
Beschreibung: Seit dem letzten Update wechselt der Status-Indikator ohne erkennbaren Grund auf Lila und spielt im Log plötzlich „Atemlos durch die Galaxis“.
Logs:

Dies sind die Abenteuer des Raumschiffs Enterprise… [ERROR] Phaser auf Schlager umgestellt

Falls ich Nachfragen habe, melde ich mich per PN bei dir.
Sobald ich mit „Daumen hoch“ :+1: reagiere, heißt das:
„Danke für die super Meldung – Bug ist bestätigt, ich bin dran!“

Vielen Dank schon jetzt für deine Hilfe – zusammen kriegen wir jedes lilafarbene Problemchen in den Griff! :vulcan_salute:

Zara

BUG-REPORT → SFML V.16.8.4 RC06 Fail im Interpreter-Test bei Basti (Danke)

Safeguard Confidence Suppression bei systematischer Physics-Unterbewertung. Vorhergehender Patch für Hubble nicht ausreichend.

System: ALLE
HA-Version: ALLE
Modul: Solar Forecast ML Vers. 16.8.4 RC06
Beschreibung:

Bei Anlagen mit konsistent hohen Physik-Kalibrierfaktoren (>1.3) entstand ein selbstverstärkender Rückkopplungseffekt im Graduated Safeguard System, der die AI-Gewichtung im Hybrid-Blend auf unter 10% reduzierte — selbst wenn die AI-Prognose näher am tatsächlichen Ertrag lag als das Physikmodell.
Das Verhalten wurde auch schon von einigen hier im Forum in der Vorgängerversion berichtet. Der von mir eingebaute Fix funktioniert nicht zuverlässig - in einigen Edge-Cases

Ursache // Circle of death

Die Ursache liegt im Zusammenspiel dreier unabhängiger Bewertungsstufen innerhalb der Hybrid-Prediction-Pipeline. Hubble geht rigider vor als vorhergehende Test vermuten ließen.

1. Richtungsblinde Deviationsberechnung Die Abweichung zwischen AI- und Physikprognose wurde als absoluter Betrag relativ zur Physik bewertet, ohne zu berücksichtigen, ob die Abweichung durch eine bekannte Physik-Fehlkalibrierung erwartet wird.
Bei einem Kalibrierfaktor von 1.34 (d.h. die Physik-Engine unterschätzt systematisch um 34%) ist eine AI-Prognose, die 40% über der Physik liegt, keine Anomalie — sondern die korrekte Korrektur. Hubble AI 3.0 Ensemble interpretierte dies jedoch als Vertrauensverlust.

2. Magnitudenbasierter Modellkonsens Die interne Übereinstimmungsprüfung zwischen AI und Ridge erforderte eine maximale Abweichung von 50% des Mittelwerts. Bei architekturbedingt unterschiedlichen Antwortcharakteristiken (AI konservativ, Ridge sensitiver auf Wettervariablen) wurde dieser Schwellenwert im Winterhalbjahr regelmäßig überschritten — obwohl beide Modelle qualitativ übereinstimmten (beide über Physik). Ohne Modellkonsens war der evidenzstärkste Safeguard-Pfad nicht erreichbar.

3. Pauschaler Kalibrator-Fallback Wenn der Kalibrator eine Fehlkalibrierung bestätigte, aber kein Modellkonsens vorlag, wurde die AI-Confidence mit einem festen Faktor von 0.25 multipliziert — unabhängig davon, wie stark die Kalibrier-Evidenz war. Eine 35%ige Fehlkalibrierung (starke Evidenz) erhielt dieselbe Behandlung wie eine 16%ige (schwache Evidenz). Dieses wurde auch von Usern im LOG beobachtet.

Kaskadierungseffekt: Die drei Stufen wirkten multiplikativ. Eine initiale AI-Confidence von ~0.50 wurde durch Method-Performance-Adjustment (×0.86), Ensemble-Disagreement-Penalty (×0.71) und den pauschalen Kalibrator-Fallback (×0.25) auf ~0.08 reduziert. Das Physikmodell erhielt dadurch ~92% Gewicht im Blend, obwohl es nachweislich 25–60% unter dem realen Ertrag lag.

Der resultierende negative Feedback-Loop: niedrige AI-Gewichtung → Blend folgt Physik → Method-Performance-Learning bewertet AI als ungenauer → AI-Confidence sinkt weiter. Obwohl es technischer Unsinn ist.

FIX-Status → build & testing

  • Kalibrator-adjustierte Deviationsbewertung: Die erwartete Abweichung aus der Physik-Kalibrierung wird richtungssensitiv berücksichtigt. Wenn AI und Kalibrator in dieselbe Richtung zeigen, wird der erwartete Anteil der Deviation mit einer 70%-Sicherheitsmarge herausgerechnet.
  • Richtungsbasierter Modellkonsens: Ergänzend zur Magnitudenprüfung wird erfasst, ob beide AI-Modelle qualitativ in dieselbe Richtung relativ zur Physik prognostizieren (>10% Schwelle). Dies ermöglicht den evidenzstarken Safeguard-Pfad auch bei quantitativer Modelldivergenz.
  • Graduierter Kalibrator-Multiplikator: Der pauschale Faktor wird durch eine stärkeproportionale Funktion ersetzt. Stärkere Kalibrier-Evidenz erlaubt höheres AI-Vertrauen (0.25–0.60 statt pauschal 0.25).
  • Erweiterter Kalibrierungsbereich: Die obere Schranke für physikalische Korrekturfaktoren wurde von 2.5 auf 3.0 angehoben, um Morgenstunden mit extremem Verhältnis aus Diffusstrahlung und Modell-Baseline besser abzubilden.

Implikationen // Auswirkungen auf bestehende Installationen

Bei Anlagen mit Kalibrierfaktoren >1.2 steigt die AI-Gewichtung in den Kernstunden von ~8% auf ~30–40%. Die erwartete Verbesserung der Tagesprognose-Genauigkeit liegt bei 10–15 Prozentpunkten für systematisch unterbewertet prognostizierte Anlagen. Anlagen mit bereits gut kalibrierter Physik (Faktor ≈1.0) sind nicht betroffen.

3 „Gefällt mir“

Wie finde ich das heraus?

Hallo @Joachim-xo
Das ist nicht so einfach zu entdecken, der Fehler liegt im Lern-Code verborgen.

Ein “Anhaltspunkt” kann sein, wenn bei identischem Wetter die Vormittagsstunden und Mittagsstunden eine ähnliche Abweichung aufweisen die nicht geringer wird.
Das bedeutet das die Abweichung so groß war, dass die Stunden beim EOD über der Grenze lagen und verworfen wurden. Das ist aber nur ein Indiz..

Tag 1:

Tag 2:

Du kannst hier gut sehen, dass in den späten Vormittagsstunden im Übergang zu den Mittagsstunden die Lerndifferenz beinahe identisch ist.
Bei gleichen Wetterbedingungen.. Während bei den Vormittagsstunden selbst die Lerndifferenz abgenommen hat Stunde 10 trifft fast exact. ( Der obere Punkt ist 12 Uhr)

LG
Zara

Hoffe ich bin hier richtig.

Heute Mittag!

Trotzdem weit daneben.

Vielen Dank für deine Nachricht und die Aufmerksamkeit beim Testen. Zu dem von dir angesprochenen Punkt:

  • Status: Dieser Fehler wurde bereits identifiziert und erfolgreich behoben. :white_check_mark:
  • Dokumentation: Details dazu findest du in den aktuellen Release-Notes im Abschnitt „MDC“.

Ein wichtiger Hinweis zur Formatierung:

Um eine effiziente Bearbeitung zu gewährleisten und klar zwischen Rückfragen zu bestehenden Meldungen und neuen Fehlern unterscheiden zu können, möchte ich euch bitten, die Formatierungsvorgaben aus dem ersten Post konsequent zu nutzen.

So stellen wir gemeinsam sicher, dass keine Meldung übersehen wird und alle Punkte strukturiert abgearbeitet werden können.

Vielen Dank :wink:

Für mich einer der wichtigsten Fixes. Tage mit starker Bewölkung wurden gut gelernt, Tage mit viel Sonne bleiben jedoch in ihrer Prognose Genauigkeit weit zurück.

1 „Gefällt mir“

@Heatseeker @RobertoCravallo @Joachim-xo

Ganz genau das ist eine Auswirkung des BUG! Einfach gesagt " zu große Abweichungen zwischen Prognose und Ertrag wurden auf Stundenebene als “Fehler” verworfen" und vom Lernen ausgeschlossen und wiederholen sich damit immer wieder das ist es was man als “Circle of Death” bezeichnet. - Das Lernen blockiert sich selbst… Blockiert wird es durch den Safeguard der einfach gesprochen sagt " Das kann nicht richtig sein, das lasse ich nicht zum Lernen zu, um die AI vor unrealistischen Werten zu schützen . So wird die AI in ähnlichen Situationen immer und immer wieder den selben Fehler machen - die sie nicht weiß das sie falsch liegt.

Da hilft auch kein MDC mehr.. Der Differenz ist ausserhalb dessen was akzeptiert wurde.

Hier noch einmal ein Bild zur Verdeutlichung.. man sieht gut, dass das Lerndefizit in den Vormittags und Abendstunden deutlich abgenommen hat aber in den Peak-Stunden unverändert geblieben ist. - Man muss aber sehr vorsichtig sein, da man zunächst andere Gründe (MPPT-Clipping, Wolken,..) ect ausschließen muss.

Daher lässt es sich ausschließlich im Code beurteilen und NICHT nur nach Bildern!
Genau hierfür ist die DEV-Version von STATS um es zu visualisieren und einen Anhaltspunkt zu haben.. wo ich suchen muss. Selbstgebastelte Templates und / oder ähnliches helfen da nicht weiter.

Tag 1

Tag 2 (erfolgreiche Korrektur Vormittag- und Abendstunden → Mittag/ Peak ignoriert selber Fehler wie am Vortag

Man muss aber fairer Weise auch sagen, dass ich kaum bis keine entsprechenden Tage in den letzten Monaten hatte, um meine theoretischen Grenzen gegen die Realität zu testen. Es kann auch durchaus sein, dass ich die Grenzen im Laufe des Jahres noch einmal anpassen muss..

Da man es auch im Log mit den “skipping outliers” erkennen kann, habe ich hier gerade viele Beispiele. Und da es sonniger wird, werden ich das kommende Release ausgiebig in dieser Hinsicht testen können!:+1:

Ja und Nein.. das kann mehrere Gründe haben.. aber in Kombination mit DEV-STATS und dem Verständnis was die Kurven der Pane-Gruppen zeigen ist es ein sehr starkes Indiz.

Deswegen ist dir AI Metric so schlecht. Dachte mir schon das da was faul ist. Weil die Ergebnisse so gut waren in der letzten Zeit und die Metric so schlecht.

BUG-REPORT→ SFML 16.8.2 - MDC bewertet Abweichung logisch falsch (0.68 kWh < 0.38 kWh)

System: Proxmox, darin Home Assistant OS als VM

HA-Version: 2026.2.3

Modul / Integration: Solar Forecast ML Vers. 16.8.2

Bei mir hätte heute eigentlich die MDC anspringen sollen. Im Log fand ich jedoch, dass sie übersprungen wurde, weil die Abweichung nicht genug war. Allerdings steht dazu “0.68 kWh < 0.38 kWh”, was ja nun logisch falsch ist. Soweit ich das mitbekommen habe, wurde dieses Problem hier noch nicht berichtet oder behoben.

2026-02-27 12:30:00 - custom_components.solar_forecast_ml.production.production_adaptive_forecast - INFO - Collecting analysis data...
2026-02-27 12:30:00 - custom_components.solar_forecast_ml.production.production_adaptive_forecast - INFO - Morning analysis (07:15-12:30): Actual=2.78 kWh, Predicted=2.10 kWh, Deviation=+33% (+0.68 kWh)
2026-02-27 12:30:00 - custom_components.solar_forecast_ml.production.production_adaptive_forecast - INFO - Criterion 1: Daily forecast=3.77 kWh, Dynamic threshold=0.38 kWh, Deviation=0.68 kWh
2026-02-27 12:30:00 - custom_components.solar_forecast_ml.production.production_adaptive_forecast - INFO - == Result: NO CORRECTION ==
2026-02-27 12:30:00 - custom_components.solar_forecast_ml.production.production_adaptive_forecast - INFO - Reason: Deviation below threshold (0.68 kWh < 0.38 kWh)

Gestern wurden 4h vom Lernen ausgeschlossen. Als Ursache wird Schnee/Frost angegeben. Diese Ursache kann, bei gestrigen Außentemperaturen von 13°C und ganztägigem Sonnenschein, nicht stimmen.

Die wirkliche Ursache ist wohl, dass die Nulleinspeisung meiner Anlage zwischen 11:30 und 16:30 aktiv war.

Das verstehe ich jetzt nicht warum die Panelgruppen gegenüber der Gesamtprognose so sehr unterscheiden, ich hoffe ja das das um 12:30Uhr wieder korrigiert wird :thinking:

Ist im neuen Update gefixed. Bitte abwarten.

2 „Gefällt mir“

Bitte vorher den BUG-Tracker lesen und die Beschreibungen, damit wir hier nicht den Fokus verlieren. Sonst wird das hier wieder das totale Chaos und ich verliere den Überblick :slight_smile: .. ich möchte einfach keine Meldung von euch übersehen

Steht bereits im Release ist gefixt

2 „Gefällt mir“

BUG-REPORT – In den Forcast-States fehlt device_class: energy

System: Proxmox VM
Installationsmethode: Home Assistant OS
Core: 2026.2.3
Supervisor: 2026.02.3
Operating System: 17.1
Frontend: 20260128.6
HA-Version: 2026.2.3

Modul: Solar Forecast ML Vers. 16.8.4
Beschreibung: In den Forecast-States fehlt die device_class energy. Dadurch können die Werte nicht mit der Statistikdiagramm-Karte visualisiert werden. Gerade bei den Statistik-Sensoren erwarte ich eine korrekte Integration um sie mit anderen Werten vergleichen zu können: andere Solarvorhersage, tatsächliche Werte,…

  • state_class vorhanden → OK, ob measurement oder total ist IMHO Geschmackssache

  • unit_of_measurement → OK

  • device_class → fehlt!

    Attribute:

state_class: measurement
unit_of_measurement: kWh
icon: mdi:solar-power-variant
friendly_name: Solar Forecast ML Prognose (heute)
hours: 
'00:00': 0
'01:00': 0
...

betroffene Sensoren:

  • sensor.solar_forecast_ml_prognose_heute
  • sensor.solar_forecast_ml_prognose_heute_rest
  • sensor.solar_forecast_ml_prognose_morgen
  • sensor.solar_forecast_ml_prognose_nachste_stunde
  • sensor.solar_forecast_ml_prognose_ubermorgen

Gruß Ralf

2 „Gefällt mir“

@alteMade Hallo Ralf,

vielen Dank für den detaillierten Bug-Report – du hast absolut Recht!

Die fehlende device_class: energy bei den Forecast-Sensoren ist tatsächlich ein Versehen meinerseits. Einige andere Sensoren der Integration haben diese Angabe bereits korrekt gesetzt, bei den fünf Prognose-Sensoren wurde sie jedoch schlicht vergessen.

Der Fix ist zum Glück unkompliziert und wird im nächsten Update enthalten sein. Danach sollten sich die Prognose-Werte wie gewohnt in der Statistik-Diagramm-Karte darstellen und mit anderen Energie-Sensoren vergleichen lassen.

Nochmals danke für die saubere Meldung – genau solches Feedback hilft mir, die Integration besser zu machen!

Das nächste Update ist nach dem Release von HA 2026 3.0 geplant um zu sehen ob die “Voraus-Fixes” wirklich in dem Major-Update von HA funktioineren.

Viele Grüße Zara

2 „Gefällt mir“

Hi Tom,

BUG-REPORT ML Weather Windgeschwindigkeit immer noch falsch.

Heute geupdatet auf 16.8.4
Bin mal auf den EOD aufm „Green“ gespannt heute.

Es geht aber um ML Weather. Bei mir 8.0.2. passt das? Wann war da das letzte Update.
Es besteht immer noch der BUG mit der Windgeschwindigkeit, die zu hoch ist.
Hast du das noch irgendwo auf deiner Liste?

1 „Gefällt mir“