@jubbi
Vielen Dank für deinen Post! Ich verstehe genau, was du meinst – das ist eine Frage, die ich hier zu Hause auch immer wieder gestellt bekomme. Bei 1.200 Stunden Entwicklungsarbeit habe ich aufgehört zu zählen. 
Das, was du beschreibst, war genau der Startpunkt: Ich hatte es satt, in einem System zu arbeiten, das an vielen Stellen alt und umständlich ist und vor allem eine für mich zentrale Frage nicht beantwortet hat: „Lohnt sich die Investition in Speicher oder Solar überhaupt?“ oder „Wie sieht es in der Realität aus?“. Die bunten Apps im App Store und die Berechnungstools diverser Anbieter konnten diese Fragen nicht beantworten.
So ist das Ganze hier entstanden und gewachsen. Mein Hauptberuf hat zwar nichts mit IT zu tun, aber sehr wohl mit Datenschutz und Persönlichkeitsrechten. Deshalb begann ich, etwas Lokales zu bauen, das meiner persönlichen Kontrolle unterliegt (oder der des Nutzers).
Deine Frage zu „ein paar kWh hier und ein paar Kilowatt dort“ trifft genau das größte Problem in der grundsätzlichen Logik von Prognosen. 100 % gibt es nicht – dann wäre es keine Prognose mehr.
Wissenschaftlich gesehen triffst du den Nagel auf den Kopf: Eine Solarprognose mit einer durchschnittlichen Abweichung von weniger als 20 % gilt bereits als zuverlässig. Alles unter 10 % ist unglaublich genau und fast unmöglich. Die Erwartungshaltung an eine zuverlässige Prognose sollte also wissenschaftlich gesehen zwischen 10 und 20 % liegen; alles darunter ist außergewöhnlich. Es gibt jedoch eine wichtige Einschränkung – man muss zwischen folgenden Arten unterscheiden:
- Rollende Prognosen (Forecast Solar, Meteo, Solcast, …)
- Feste Prognosen (SFML, TFS, …)
- Schwellenwertprognosen (Forecast Solar, Meteo, Solcast, …)
Hier liegt genau der Unterschied zu SFML / TFS: Es sind feste Prognosen ohne Schwellenwert-Cap. Daher muss ich auch immer etwas mit den Augen rollen, wenn jemand schreibt, „Forecast Solar“ sei bei ihm genauer. Das ist wie mit VW und der Diesel-Software – ein Vergleich von Äpfeln mit Birnen.
SFML ist „nackt“ und ehrlich: Es regelt nicht nach, kappt keine Schwellenwerte und justiert nicht künstlich nach. Genau da liegt der Kern deines Punkts zu den „kWh“: Ich wollte eine Prognose, die nichts schönrechnet oder fingierte Werte produziert. Ich wollte ein Werkzeug, das die Realität abbildet, Ecken und Kanten hat und auch mal einen Fehler macht – solange es über das Jahr gesehen einen bestimmten Prozentsatz nicht überschreitet, um finanziell beurteilen zu können, ob es sich gelohnt hat. Besonders negativ ist mir hier die Bezahl-App von Fronius aufgefallen, die extrem schönrechnet. Klar, für die ist das Marketing: Je besser es „stimmt“, desto besser verkauft sich das System.
Die Frage ist aber eine andere: Wann ist das Maximum dessen erreicht, was kostenlos möglich ist? Ich denke, dieser Punkt ist erreicht. Es geht nun primär um UI, Alternativen und Hilfestellungen für Nutzer mit dem von dir beschriebenen „kleinen Gartenhäuschen“, um die Materie besser zu verstehen. Ziel ist es, sich nicht blenden zu lassen, sondern klare Entscheidungen auf Basis von Daten statt Emotionen zu treffen.
Zur Genauigkeit: Ich freue mich sogar über Abweichungen, da sie beweisen, dass das System arbeitet und lernt. Noch einmal: Eine durchschnittliche Abweichung von unter 20 % für eine starre Prognose ohne Schwellenwert-Kappung ist wissenschaftlich gesehen mit so wenigen Ressourcen unfassbar – wir reden hier eben nicht von Schönrechnen oder dem Kappen von Ausreißern.
Hardware:
Auch hier triffst Du voll ins Schwarze. Home Assitant ist darin nicht wiklich gut, die vorhandene HW zu nutzen.. eher im Gegenteil es verschwendet Resoucen ohne Ende. Das limitiert massiv was möglich wäre und tatsächlich möglich ist. Ich denke nicht, dass Home Assistant jemals eine lokale KI (so wie sie von den meisten verstanden wird) bekommen wird. - Dazu ist HA einfach zu schlecht um Umgang mit vorhandener HW. Es wird vermutlich ein " Add-On" sein das die Daten an z.B. ChatGpt überträgt. Aus diesem Grund verfechte ich so vehement meine Meinung darüber - auch in anderen Threads.
Die großen Amerikanischen KI`s sind kein Heilmittel sie sind die Pest, wenn sie nciht in ein sehr enges Kostüm gepresst werden. - Ich vermute mal das der US-Amerikanische Mutterkonzern von Home Assistant das auch sehr genau weiß und sie es in der EU so niemals durchbekommen würden.. aus diesem Grund an dieser Stelle nicht viel passiert. -
Meine Hoffnung ist, dass Home Assitant niemals den Schritt geht und offizielle Möglichkeiten bietet LLM auf das System zu lassen denn 99% der User wissen nicht was es bedeutet. - lokale KI`s sind durch die Single-Core Architektur ausgeschlossen.
Aber das wird eine Frage des Geldes sein.. wenn ChatGpt und Claude an die Tür klopfen und Nabu Casa riesige Summen bieten um ihre Live-Daten zu bekommen, werden sie schneller im System sein als wir schauen können.
Jeder Home Assistant User sitzt auf einem Goldschatz, persönliche Echtzeitdaten, Telemetriedaten, … das ist super Interessant und eine ganz andere Größenordnung als FaceBook, Alexa, … Daher bereite ich mich schon jetzt darauf vor, sollte der Tag kommen, um HA aus meinem Heim auszusperren.. das ist die Entwicklung von TFS Docker… und meinem eigenen Linux das Smart-Home kann LOKAL
Fazit:
Das berühmte Ende der Fahenstange ist erreicht, es geht nur noch um Pflege und kleinen Verbesserungen.
Aber was ich super toll finde, wieviele Menschen sich hier begeistern und die ganzen Info rechts und links des Weges.. sei es nun die Gefahr von KI`s, unterschiede zwischen Apps und Integrationen, Prozessoren, RAM, Arbeitsweise von HA, rechtliches, Datenschutz, ..
ich glaube jeder (mich eingeschlossen) hier (und besonders im Beta-Thread) hatte bestimmt den einen oder anderen AHA-Effekt der nichts mit Solar-Prognosen zu tun hat.. das ist der eigentliche Gewinn!