Turbulente Zeiten und die Stabilität der Netze

Die Windenergie stellt einen großen Hoffnungsträger für die Versorgung mit erneuerbarer, emissionsarmer Energie dar. Wie in der Novellierung des EEG zu 2023 von der Bundesregierung beschlossen wurde, sollen bis 2030 80 % des Stroms aus erneuerbarer Energie stammen und die installierte Gesamtleistung bis dahin idealerweise mehr als verdoppelt werden [1]. Die Risiken der Windenergie sind überschaubar und die Produktionskosten pro kWh können sich gegen fossile Energien behaupten [2]. Doch der Wind weht wie es ihm gefällt und das zunehmend stärker ineinander verzahnte europäische Stromnetz ist auf ein stetiges Gleichgewicht zwischen Produktion und Verbrauch angewiesen. Der Spielraum für die Stabilität der Netze ist dabei vergleichsweise gering und die Verantwort-lichkeiten werden zunehmend lokaler. Immer kleinere Anlagen können von Drosselungen und Einspeisemaßnahmen betroffen sein.

Strom wird stets verkauft, bevor er produziert wird, und Abweichungen in der Produktion bedeuten häufig eine einschneidende finanzielle Mehrbelastung in Form von Strafzahlungen für die Direktvermarkter und Anlagenbetreiber. Die Zahl der GWh, die Abschaltmaßnahmen zum Opfer fallen, ist in den letzten 10 Jahren massiv gestiegen (Abb. 1). Je größer der Anteil der Windenergie am Gesamtmarkt desto mehr belasten Abweichungen zwischen prognostizierter und tatsächlicher Produktion die Widerstandsfähigkeit der Versorgungskette. Jedes Promille Genauigkeit gewinnt zunehmend an Bedeutung.

Um die verschiedenen Komponenten des Systems besser aufeinander abstimmen zu können und die sprichwörtlichen Reibungsverluste zu minimieren, sind präzise Ertrags- und Leistungsprognosen ein Schlüsselwerkzeug.

Daten und lernende Algorithmen

Moderne Probleme erfordern moderne Lösungen, in diesem Fall die enge Zusammenarbeit von Industrie und Wissenschaft. Mit dem Aufkommen immer leistungsfähigerer Computer erwuchsen aus der wissenschaftlichen Forschung leistungsstarke, lernende Algorithmen mit ungeahntem Potenzial in der Mustererkennung. So stellte beispielsweise Ende der
90er Jahre ein gut trainierter Algorithmus einen Schach-Großmeister vor Probleme. Heute könnte sich ein lernender Algorithmus, der zu diesem Zwecke entworfen wurde, mühelos gegen tausend Großmeister in tausend Spielen gleichzeitig behaupten. Alles was er dafür benötigt, sind ausreichend Trainingsdaten. Die Methoden des Maschinellen Lernens vermögen die Zusammenhänge in großen Datenmengen in einem viel höheren Ausmaß zu erkennen, als dies jemals ein Mensch leisten könnte. So stellen genau diese Methoden einen zuverlässigen Ansatz für Ertrags- und Leistungsprognosen dar. Konkret bedeutet dies, dass ein solcher Algorithmus, zum Beispiel ein künstliches neuronales Netz, den unzweifelhaften Zusammenhang zwischen dem vorherrschenden Wetter an einem Produktionsstandort und der tatsächlich erbrachten Leistung einer bestimmten Anlage herstellen kann. Alles, was es dafür braucht, sind ausreichend Wetterdaten und historische Produktionsdaten, die zum Trainieren des Algorithmus verwendet werden können. Einmal trainiert, benötigt er nur einen Bruchteil der Rechenleistung von Software auf Basis physikalischer Modelle und ist dabei meistens um entscheidende Prozentpunkte präziser.

Von der Theorie in die Praxis

Was in der Theorie funktioniert, muss sich jedoch auch in der Realität behaupten können.
So gibt es in der Praxis maßgebliche Faktoren, die Einfluss auf die Präzision der Vorhersage nehmen:

  • Der einflussreichste Faktor ist die Präzision der Wetterdaten selbst,
  • komplexe Geländestrukturen und Abschattungseffekte beeinflussen die Verlässlichkeit der Vorhersage und
  • vorhandene historische oder tagesaktuelle Produktionsdaten bilden in allen Methoden des Maschinellen Lernens die Basis.

Eine Vorhersage kann nur so gut sein wie die Daten, die ihr zu Grunde liegen. So gilt, genau wie sich das Wetter schlechter vorhersagen lässt, je weiter man in die Zukunft extrapoliert, entsprechend Gleiches für kurzfristige Ertrags- und Leistungsprognosen. Benutzt man Modelle des Maschinellen Lernens zur Prognoseerstellung, ist, neben der Präzision der Wetterdaten, die Qualität und Verfügbarkeit von geeigneten Produktionsdaten ein entscheidendes Kriterium. Jedoch können sie mit einer guten Datengrundlage gegenüber Software auf Basis von physikalischen Modellen einen Präzisionsbonus in der Größenordnung von 4 % gewinnen.

Praktisch nimmt die Aufbereitung der bereitstehenden Daten einen wesentlichen Teil der Arbeitszeit eines Data Scientist ein, denn einheitliche Standards gibt es bisher nicht. Des Weiteren operiert keine Windanlage unter Laborbedingungen und muss regelmäßig gewartet werden.

Außerdem sind Anlagen von Drosselungen, Abschaltmaßnahmen oder Vereisungen der Rotorblätter betroffen. Hier können lernende Algorithmen wiederum glänzen, denn eindeutige Abweichungen zwischen potentieller und tatsächlicher, gedämpfter Produktion sind ein maschinell gut erfassbares Muster. Gelingt es, Störereignisse in einer großen Menge an Produktionsdatensätzen automatisch und verlässlich zu erkennen, kann man eine wesentlich breitere Grundlage für weiterführende Analysen schaffen, als dies mit manuellen Methoden der Fall wäre, um so die Produktionsvorhersage zu verbessern.

Eine lückenlose Kommunikation ist in jedem Fall der Schlüssel für eine gute Zusammenarbeit zwischen Datendienstleistern und Anlagenbetreibern, wovon die Präzision am Ende nur profitieren kann.

Zukunftsaussichten

Spannende Zeiten kommen mit der steigenden Nachfrage an Windenergie auch auf die Datendienstleister zu. So ist speziell für diese Branche eine rasch voranschreitende Digitalisierung in allen Sektoren sowie die Verfügbarkeit von brauchbaren Daten der Dreh- und Angelpunkt.

Weiterhin sollen lernende Algorithmen künftig nicht nur instrumentalisiert werden, um Ertrags- und Leistungsprognosen weiter zu verbessern, sondern auch um Muster in Störfaktoren der Produktion vorherzusagen, anstatt diese lediglich rückblickend zu identifizieren.

Die Herausforderungen der Branche liegen darin, eine Umgebung zu schaffen, in denen Algorithmen zur Höchstform auflaufen können. Selbstverständlich muss eine präzise Vorhersage mit der Möglichkeit einher-gehen, die prognostizierte Produktion auch zum Verbraucher bringen zu können. Essenziell hierfür ist das Vorantreiben des Ausbaus von Verteil- und Übertragungsnetzen sowie die Einrichtung eines flexiblen Netzes aus Speichermöglichkeiten [6]. Sollte die nötige Infrastruktur vorhanden sein und das Ausbauziel der Bundesregierung bis 2030 erreicht werden, lassen sich durch möglichst präzise Ertrags- und Leistungsprognosen potentiell jährlich zweistellige Terrawattstunden sauberer Windenergie zusätzlich ins Netz einspeisen.

Quellen:

[1] stiftung-umweltenergierecht.de/synopse_eeg-novelle-2023/
[2] www.enklip.de/projekte_23_725944286.pdf
[3] www.bundesnetzagentur.de/DE/Beschlusskammern/BK06/BK6_84_Sys_Dienst/844_redispatch/redispatch_node.html
[4] www.mdpi.com/1996-1073/13/15/3764
[5] www.bundesnetzagentur.de/SharedDocs/Mediathek/Monitoringberichte/Monitoringbericht_Energie2021.pdf?__blob=publicationFile&v=6
[6] www.dena.de/themen-projekte/energiesysteme/flexibilitaet-und-speicher/


Das könnte Sie auch interessieren: