Volltext-Downloads (blau) und Frontdoor-Views (grau)
  • search hit 1 of 1
Back to Result List

Probabilistic Short-Term Load Forecasting using conditioned normalizing flows

  • Forecasting is crucial for both system planning and operations in the energy sector. With increasing penetration of renewable energy sources, increasing fluctuations in the power generation need to be taken into account. Probabilistic load forecasting is a young, but emerging research topic focusing on the prediction of future uncertainties. However, the majority of publications so far focus on techniques like quantile regression, ensemble, or scenario-based methods, which generate discrete quantiles or sets of possible load curves. The conditioned probability distribution remains unknown and can only be estimated when the output is post-processed using a statistical method like kernel density estimation. Instead, the proposed probabilistic deep learning model uses a cascade of transformation functions, known as normalizing flow, to model the conditioned density function from a smart meter dataset containing electricity demand information for over 4,000 buildings in Ireland. Since the whole probability density function is tractable, the parameters of the model can be obtained by minimizing the negative loglikelihood through the state of the art gradient descent. This leads to the model with the best representation of the data distribution. Two different deep learning models have been compared, a simple three-layer fully connected neural network and a more advanced convolutional neural network for sequential data processing inspired by the WaveNet architecture. These models have been used to parametrize three different probabilistic models, a simple normal distribution, a Gaussian mixture model, and the normalizing flow model. The prediction horizon is set to one day with a resolution of 30 minutes, hence the models predict 48 conditioned probability distributions. The normalizing flow model outperforms the two other variants for both architectures and proves its ability to capture the complex structures and dependencies causing the variations in the data. Understanding the stochastic nature of the task in such detail makes the methodology applicable for other use cases apart from forecasting. It is shown how it can be used to detect anomalies in the power grid or generate synthetic scenarios for grid planning.
  • Sowohl für die Planung als auch für den Regelbetrieb der vernetzten Stromnetze sind Lastprognosen bereits heute von entscheidender Bedeutung für die Energiewirtschaft. Aufgrund der fortwährenden Integration von regenerativen Energiequellen in die globalen Stromnetze wird sich diese zukünftig jedoch weiter stark erhöhen. Es werden Modelle notwendig werden, welche neben der eigentlichen Prognose auch deren Unsicherheiten berücksichtigen können. Allerdings konzentriert sich der Großteil der bisherigen Publikationen in diesem Themenfeld auf Methoden wie z.B. Quantilsregression oder ensemble- und szenariobasierte Ansätze, die diskrete Quantile bzw. Scharen möglicher Lastverläufe generieren. Die bedingte Wahrscheinlichkeitsverteilung wird so nicht direkt erfasst und nur durch eine Weiterverarbeitung der Ergebnisse mithilfe statistischer Methoden geschätzt werden. Das in der vorliegenden Arbeit vorgestellte probabilistische Modell nutzt eine Kaskade von Transformationsfunktionen (sog. \emph{Normalizing Flows}), um eine bedingte Wahrscheinlichkeitsdichtefunktion aus einem Smart-Meter-Datensatz zu erlernen. Somit ermöglicht die vollständige Abbildung der Wahrscheinlichkeitsdichtefunktion eine Modellparametrisierung durch die Maximum-Likelihood-Methode, wodurch die besten Schätzung der vorliegenden Datenverteilung erzielt wird. Zur Evaluation des Ansatzes wurden zwei verschiedene Methoden des Deep Learnings miteinander verglichen: ein einfaches dreischichtiges Feedforward-Netzwerk sowie ein spezielles Faltungsnetzwerk, welches sich explizit zur sequentielle Datenverarbeitung eignet. Mithilfe dieser Netzarchitekturen wurden wiederum drei verschiedene probabilistische Modelle unterschiedlicher Komplexität parametrisiert. Als Trivialmodell wurde eine einfache Normalverteilung gewählt, welches anschließend mit einem Gaußschen Mischmodell und dem Normalizing-Flow-Modell verglichen wurde. In der Arbeit wurde gezeigt, dass das Normalizing-Flow-Modell, unabhängig der gewählten Netzarchitektur, die beiden anderen Ansätze übertrifft. Es modelliert am zuverlässigsten die komplexen Strukturen bzw. inneren Abhängigkeiten des untersuchten Datensatzes. Da die stochastische Natur der Daten so detailliert erfasst werden kann, ist diese Methodik auch für andere Anwendungsfälle neben der reinen Lastprognose einsetzbar. So kann die Methode beispielsweise auch die Anomaliedetektion im Stromnetz sowie die synthetische Szenariengenerierung im Kontext der Stromnetzplanung Anwendung finden.

Download full text files

Export metadata

Additional Services

Share in Twitter Search Google Scholar

Statistics

frontdoor_oas
Metadaten
Author:Marcel Arpogaus
URN:urn:nbn:de:bsz:kon4-opus4-27784
Advisor:Mark Nigge-Uricher, Oliver Dürr
Document Type:Master's Thesis
Language:English
Year of Publication:2020
Granting Institution:HTWG Konstanz,Informatik (IN)
Date of final exam:2020/07/08
Release Date:2021/05/06
Tag:Deep Transformation Model; Machine Learning; Normalizing Flow; Regression
Page Number:XI, 71 S.
Institutes:Institut für Optische Systeme - IOS
Open Access?:Ja
Licence (German):License LogoCreative Commons - CC BY-NC-SA - Namensnennung - Nicht kommerziell - Weitergabe unter gleichen Bedingungen 4.0 International