Neue Förderrichtlinien für Wind- und Solarenergie veröffentlicht

Am 22 veröffentlichte das US-Finanzministerium seine mit Spannung erwartete aktualisierte Anleitung dazu, wie Wind- und Solarprojekte für Subventionen im Rahmen des One Big Beautiful Bill Act in Frage kommen.

Laut Bloomberg Tax erfolgte die Aktualisierung der Leitlinien nach einer Durchführungsverordnung von Präsident Trump , die Formulierungen im Zusammenhang mit den Baubeginn-Regeln zu überarbeiten, damit diese nicht umgangen werden können, „unter anderem durch die Verhinderung einer künstlichen Beschleunigung oder Manipulation der Förderfähigkeit und durch die Einschränkung der Nutzung umfassender Schutzbestimmungen, sofern nicht bereits ein wesentlicher Teil der betreffenden Anlage gebaut wurde.“

Infolgedessen hat die Regierung die Fünf-Prozent-Regelung für die Förderfähigkeit offiziell abgeschafft. Diese ermöglichte es Wind- und Solarprojektentwicklern, sich Subventionen für vier Jahre nach Ablauf der Fördermittel zu sichern, wenn sie fünf Prozent der Projektkosten im Voraus aufwendeten.

Beispielsweise sollten die Steuergutschriften im Jahr 2019 auslaufen. Wenn ein Wind- oder Solarentwickler jedoch am 31. Dezember 2019 fünf Prozent der Projektkosten ausgegeben hätte, hätte er vier Jahre Zeit, den Bau des Projekts abzuschließen und hätte immer noch Anspruch auf die volle staatliche Förderung.

Um für die Subventionen in Frage zu kommen, müssen Projekte nun mit dem Bau dieser Anlagen „von erheblicher Bedeutung“ physisch beginnen [also tatsächlich angefangen haben]

Was bedeutet „von erheblicher Bedeutung?

Bei Windkraftprojekten kann dies laut Leitfaden den Beginn der Aushubarbeiten für das Fundament, das Einbringen von Ankerbolzen in den Boden oder das Gießen der Betonplatten des Fundaments bedeuten. Bei Solarprojekten kann dies die Installation von Gestellen oder anderen Strukturen zur Befestigung von Photovoltaikmodulen (PV), Kollektoren oder Solarzellen an einem Standort umfassen.

Es bedeutet nicht:

  • Planen oder Gestalten
  • Finanzierung sichern
  • Erkunden, Forschen
  • Durchführen von Mapping und Modellierung zur Bewertung einer Ressource
  • Einholung von Genehmigungen und Lizenzen
  • Durchführung geophysikalischer Schwerkraft-, Magnet-, Seismik- und Tragfähigkeits-Untersuchungen
  • Durchführung von Umwelt- und Ingenieurstudien
  • Eine Baustelle räumen
  • Durchführung von Probebohrungen zur Ermittlung der Bodenbeschaffenheit (einschließlich der Prüfung der Festigkeit eines Fundaments)
  • Aushubarbeiten zur Veränderung der Geländekontur (im Unterschied zu Aushubarbeiten für ein Fundament) – Entfernen vorhandener Fundamente, Turbinen und Türme, Solarmodule oder anderer Komponenten, die nicht mehr Teil der jeweiligen Wind- oder Solaranlage sind (einschließlich solcher, die sich auf oder an Gebäudestrukturen befinden)

Indem die Trump-Regierung die Möglichkeit für Projektbesitzer, fünf Prozent der Projektkosten aufzuwenden, um ihre Berechtigung für den Production Tax Credit (PTC) und den Investment Tax Credit (ITC) zu sichern, durch die Anforderung ersetzt, dass erhebliche physische Arbeiten abgeschlossen sein müssen, passen diese Definitionen mit ziemlicher Sicherheit besser an das an, was der Durchschnittsamerikaner denkt, wenn er den Ausdruck „Baubeginn“ hört.

Nehmen wir an, Sie planen 2.500 Dollar für die Renovierung Ihres Badezimmers ausgeben. Glaubt irgend jemand ernsthaft, dass die Ausgabe von 125 Dollar für einen neuen Waschtisch – natürlich von Menard’s – unabhängig davon, ob er installiert ist oder nicht, tatsächlich den „Baubeginn“ darstellt? Natürlich nicht. Der „normale Bürger“ wird vielmehr annehmen, dass hier jemand versucht, seinen Zugriff auf Steuergelder zu rechtfertigen.

Mit ziemlicher Sicherheit wird es bei den Befürwortern von Wind- und Solarenergie über diese Richtlinien der US-Steuerbehörde (Internal Revenue Service) ein Gejammer und Zähneknirschen geben. Man sollte jedoch bedenken, dass die Änderungen der Trump-Regierung milder ausfallen als die Subventionsrichtlinien vor der Neufassung der Fördervoraussetzungen durch die Obama-Regierung im Jahr 2013.

Laut dem Congressional Research Service mussten Projekte vor der Neufassung von 2013 vor Ablauf der Steuergutschriften in Betrieb genommen werden , d. h. die Anlage musste vor Ablauf der Gutschrift betriebsbereit und einsatzbereit sein. Das bedeutet, dass die Förderkriterien heute weniger streng sind als 1992, als Senator Grassley an der Schaffung des PTC mitwirkte.

Ziel der Richtlinien der Trump-Regierung war es, die Zahl der Projekte, die Anspruch auf Subventionen haben, zu begrenzen, indem ihnen die Möglichkeit genommen wurde, das System auszutricksen und so ihren Förderzeitraum zu verlängern. Und ich denke, dass diese Änderungen genau das erreichen.

  • Vielen Dank, dass Sie Leser von Energy Bad Boys sind. Wir schätzen Ihre anhaltende Unterstützung sehr.

https://energybadboys.substack.com/p/new-wind-and-solar-subsidy-guidance




NASA testet KI-gestütztes „dynamisches Targeting“ aus dem Weltraum

Wolkenbedeckung kann optische Instrumente auf Satelliten daran hindern, die Erdoberfläche klar zu erfassen. Die noch in der Testphase befindliche Dynamic Targeting-Funktion des JPL nutzt KI, um Wolken zu vermeiden und so einen höheren Anteil nutzbarer Daten zu liefern. Zudem ermöglicht sie die Fokussierung auf Phänomene wie diesen Vulkanausbruch in Indonesien im Jahr 2015, der von Landsat 8 erfasst wurde.
 –
Anthony Watts 
Von der Abteilung „Klingt wie ein Waffensystem“ und dem NASA JPL:

Das Konzept namens  Dynamic Targeting wird seit über einem Jahrzehnt am Jet Propulsion Laboratory der NASA in Südkalifornien entwickelt. Der erste einer Reihe von Flugtests fand Mitte Juli an Bord eines kommerziellen Satelliten statt. Ziel: das Potenzial von Dynamic Targeting aufzuzeigen, das es Orbitern ermöglicht, die Bodenabbildung durch Vermeidung [der Beobachtung] von Wolken zu verbessern und autonom nach bestimmten, kurzlebigen Phänomenen wie Waldbränden, Vulkanausbrüchen und seltenen Stürmen zu suchen.

In einem kürzlich durchgeführten Test zeigte die NASA, wie künstliche Intelligenz Raumfahrzeugen helfen kann, zielgerichtetere und wertvollere wissenschaftliche Daten zu liefern. Die Technologie ermöglichte es einem Erdbeobachtungssatelliten erstmals, seine Umlaufbahn vorauszuschauen, Bilder mithilfe integrierter KI schnell zu verarbeiten und zu analysieren und die Ausrichtung eines Instruments zu bestimmen. Der gesamte Vorgang dauerte weniger als 90 Sekunden und war ohne menschliches Zutun möglich.

Diese Grafik zeigt, wie das Dynamic Targeting des JPL einen Lookahead-Sensor verwendet.Diese Grafik zeigt, wie die dynamische Zielerfassung des JPL einen vorausschauenden Sensor nutzt, um zu erkennen, was sich auf der nächsten Flugbahn eines Satelliten befindet. Integrierte Algorithmen verarbeiten die Sensordaten und identifizieren Wolken, die vermieden werden müssen, sowie interessante Ziele für eine genauere Beobachtung, während der Satellit über ihnen vorbeifliegt.  NASA/JPL-Caltech
https://www.nasa.gov/science-research/earth-science/how-nasa-is-testing-ai-to-make-earth-observing-satellites-smarter/

„Die Idee ist, die Raumsonde menschlicher agieren zu lassen: Anstatt nur Daten zu sehen, denkt sie darüber nach, was die Daten zeigen und wie sie reagieren soll“, sagt Steve Chien, technischer Mitarbeiter für KI am JPL und leitender Forscher des Dynamic Targeting-Projekts. „Wenn ein Mensch ein Bild von brennenden Bäumen sieht, versteht er, dass es sich um einen Waldbrand handeln könnte, nicht nur um eine Ansammlung roter und orangefarbener Pixel. Wir versuchen, die Raumsonde so auszustatten, dass sie erkennt: ‚Das ist ein Feuer‘ und dann ihre Sensoren auf das Feuer richtet.“

Vermeidung von Wolken für bessere Wissenschaft

Bei diesem ersten Flugtest für Dynamic Targeting ging es nicht darum, bestimmte Phänomene wie Feuer zu jagen – das kommt später. Vielmehr ging es darum, ein allgegenwärtiges Phänomen zu vermeiden: Wolken.

Die meisten wissenschaftlichen Instrumente auf Raumfahrzeugen im Orbit blicken auf alles, was sich unter ihnen befindet. Bei Erdbeobachtungssatelliten mit optischen Sensoren können Wolken jedoch bis zu zwei Drittel der Zeit im Weg sein und die Sicht auf die Oberfläche versperren. Um dies zu vermeiden, blickt Dynamic Targeting 500 Kilometer weit voraus und kann zwischen Wolken und klarem Himmel unterscheiden. Bei klarem Himmel bildet das Raumfahrzeug die Oberfläche beim Überflug ab. Bei Bewölkung bricht das Raumfahrzeug die Bildaufnahme ab, um Datenspeicher für ein anderes Ziel freizugeben.

„Wenn man sich bei der Auswahl der Bilder anpasst, kann man nur den Boden abbilden und die Wolken aussparen. So spart man sich das Speichern, Verarbeiten und Herunterladen von Bildern, die die Forscher eigentlich nicht nutzen können“, sagte Ben Smith vom Jet Propulsion Laboratory (JPL), ein Mitarbeiter des Earth Science Technology Office der NASA, das die Dynamic Targeting-Arbeit finanziert. „Diese Technologie wird den Wissenschaftlern helfen, einen deutlich höheren Anteil verwertbarer Daten zu erhalten.“

So funktioniert dynamisches Targeting

Die Tests finden auf CogniSAT-6 statt, einem CubeSat in Aktenkoffergröße, der im März 2024 gestartet wurde. Der Satellit – entworfen, gebaut und betrieben von Open Cosmos – beherbergt eine von Ubotica entwickelte Nutzlast mit einem handelsüblichen KI-Prozessor. Während der Zusammenarbeit mit Ubotica im Jahr 2022 führte Chiens Team an Bord der Internationalen Raumstation Tests durch, bei denen Algorithmen ähnlich denen von Dynamic Targeting auf demselben Prozessortyp ausgeführt wurden. Die Ergebnisse zeigten, dass die Kombination für die weltraumgestützte Fernerkundung geeignet sein könnte.

Da CogniSAT-6 über keinen Bildsensor für die Vorausschau verfügt, neigt sich die Raumsonde um 40 bis 50 Grad nach vorne, um ihren optischen Sensor – eine Kamera, die sowohl sichtbares als auch  nahinfrarotes  Licht wahrnimmt – auszurichten. Sobald die Vorausschaubilder aufgenommen wurden, analysiert der fortschrittliche Algorithmus von Dynamic Targeting, der auf die Erkennung von Wolken trainiert ist, diese. Basierend auf dieser Analyse bestimmt die Planungssoftware von Dynamic Targeting, wohin der Sensor für wolkenfreie Ansichten ausgerichtet werden muss. Währenddessen neigt sich der Satellit zurück zum Nadir (blickt direkt unter die Raumsonde) und nimmt die geplanten Bilder auf, wobei er nur den Boden erfasst.

Dies alles geschieht in 60 bis 90 Sekunden, abhängig vom ursprünglichen Vorausschauwinkel, während das Raumfahrzeug in der niedrigen Erdumlaufbahn mit fast 17.000 Meilen pro Stunde (7,5 Kilometer pro Sekunde) rast.

Was kommt als Nächstes

Nachdem die Fähigkeit zur Wolkenvermeidung nun bewiesen ist, wird der nächste Test die Suche nach Stürmen und Unwettern sein – im Wesentlichen geht es darum, Wolken gezielt zu erfassen, anstatt ihnen auszuweichen. Ein weiterer Test ist die Suche nach thermischen Anomalien wie Waldbränden und Vulkanausbrüchen. Das JPL-Team entwickelte für jede Anwendung eigene Algorithmen.

„Dieser erste Einsatz von Dynamic Targeting ist ein enorm wichtiger Schritt“, sagte Chien. „Das Endziel ist der operative Einsatz im Rahmen einer wissenschaftlichen Mission, um ein sehr agiles Instrument für neuartige Messungen zu schaffen.“

Es gibt verschiedene Visionen, wie dies geschehen könnte – möglicherweise sogar auf Raumfahrzeugen, die das Sonnensystem erforschen. Tatsächlich ließen sich Chien und seine JPL-Kollegen für ihre Arbeit zum dynamischen Targeting von einem anderen Projekt inspirieren, an dem sie ebenfalls gearbeitet hatten: Sie nutzten Daten des Rosetta -Orbiters der ESA (European Space Agency), um die Machbarkeit der autonomen Erkennung und Abbildung von Fontänen des Kometen 67P/Churyumov-Gerasimenko zu demonstrieren.

Auf der Erde könnte die Anpassung der dynamischen Zielerfassung an Radarsysteme Wissenschaftlern die Untersuchung gefährlicher extremer Winterwetterereignisse ermöglichen, sogenannter konvektiver Eisstürme. Diese sind zu selten und zu kurzlebig, um sie mit bestehenden Technologien genau zu beobachten. Spezielle Algorithmen würden diese dichten Sturmformationen mithilfe eines Vorausschauinstruments eines Satelliten identifizieren. Anschließend würde ein leistungsstarkes, fokussiertes Radargerät die Eiswolken im Blick behalten und sie „anstarren“, während die Raumsonde über sie hinwegfliegt und innerhalb von sechs bis acht Minuten eine Fülle von Daten sammelt.

Einige Ideen beinhalten den Einsatz von Dynamic Targeting auf mehreren Raumfahrzeugen: Die Ergebnisse der Bildanalyse an Bord eines führenden Satelliten könnten schnell an einen nachfolgenden Satelliten übermittelt werden, der dann mit der Zielerfassung bestimmter Phänomene beauftragt werden könnte. Die Daten könnten sogar an eine Konstellation von Dutzenden von Raumfahrzeugen im Orbit übermittelt werden. Chien leitet einen Test dieses Konzepts namens Federated Autonomous Measurement, der noch in diesem Jahr beginnt.

https://wattsupwiththat.com/2025/08/26/nasa-is-testing-ai-enabled-dynamic-targeting-from-space/

 




Investoren verlassen die grüne Energieszene nach dem Ende von Bidens Werbegeschenken

Audrey Streb, DCNF-Energiereporterin, 26. August 2025

Seit Präsident Donald Trump die Wahlen im Jahr 2024 gewonnen hat, wenden sich Investoren laut Daten von der Ökoenergiebranche ab. Laut Bloomberg NEF gingen die Investitionen in grüne Energie im ersten Halbjahr 2025 im Vergleich zum zweiten Halbjahr 2024 um 36 % – 20,5 Milliarden US-Dollar zurück .

Während der ehemalige Präsident Joe Biden grüne Energietechnologien mit Milliarden an staatlichen Subventionen , Darlehen und Zuschüssen am Leben erhielt, reduziert die Trump-Regierung die Subventionen von schwankenden Energiequellen wie Wind- und Solarenergie und bevorzugt zuverlässige Energiequellen wie Kernenergie , Kohle , Öl und Gas .

„Investoren fliehen nicht wegen Trump aus den erneuerbaren Energien, sondern weil die Freifahrt vorbei ist. Jahrelang überlebte die Branche von Auflagen, Subventionen und regulatorischer Bevorzugung und lieferte gleichzeitig unzuverlässigen Strom zu überhöhten Preisen“  so, Jason Isaac, CEO des American Energy Institute, im Interview mit Daily Caller News Foundation. „Trump stellt lediglich die Marktgerechtigkeit wieder her und beendet den Einfluss des Klimakartells auf die Energiepolitik. Wenn erneuerbare Energien ohne Milliarden an Steuergeldern nicht wettbewerbsfähig sind, ist das kein Markt, sondern Betrug.“

Amerika subventioniert seit über 30 Jahren teure, unregelmäßige und gefährliche Windkraftprojekte. Unter @POTUS investieren wir in ZUVERLÄSSIGE Energiequellen, die unser Stromnetz tatsächlich unterstützen!
– Minister Doug Burgum (@SecretaryBurgum) , 24. August 2025

Obwohl die Investitionen in grüne Energien weltweit zugenommen haben, ziehen sich die Investoren in den USA aufgrund der veränderten politischen Landschaft zurück, erklärte das Unternehmen. Gemäß Bloomberg NEF beeilten sich die Projektentwickler, sich noch Ende 2024 die Berechtigung für Steuergutschriften für grüne Energie im Rahmen von Bidens Inflationsreduzierungsgesetz ( IRA ) zu sichern.

Trump kämpfte im Wahlkampf gegen Bidens Klimaagenda und dessen Vorstoß für grüne Energietechnologien, die er als „ den neuen grünen Schwindel “ bezeichnete. Nun werden die Steuergutschriften durch den „One Big Beautiful Bill Act“ schrittweise abgeschafft, und Trump hat sich dazu entschlossen, die staatliche Unterstützung für die Wind- und Solarindustrie zu streichen, und hat mehrfach gegen die grünen Energietechnologien gewettert , obwohl die Regierung behauptet, sie verfolge einen realistischen Umgang mit den Energieressourcen.

„Wir beenden nicht die erneuerbaren Energien“, sagte Energieminister Chris Wright am 19. August gegenüber Politico. „Die vorherige Regierung dachte, Wind-, Solar- und Batterieenergie versorgen die Welt mit zuverlässiger und preiswerter Energie. Das tun sie nicht. Man muss sie also realistischer betrachten.

Trump hat in den vergangenen Wochen mehrere Windkraftprojekte gestoppt  und gleichzeitig mehr Möglichkeiten für die Verpachtung von Öl- und Gasvorkommen in Bundesgewässern geschaffen, die Biden stark eingeschränkt hatte .

„Ähnlich wie die Präsidenten Obama und Biden mit der fossilen Brennstoffindustrie umgegangen sind, nutzt Präsident Trump den Regulierungsprozess, um es Investoren in Windkraftprojekten unsicherer und schwieriger zu machen, finanzielle Renditen zu erzielen. Der Kongress konnte den Green New Scam im One Big Beautiful Bill Act nicht unterbinden, also macht Präsident Trump es auf eigene Faust administrativ“, sagte Steve Milloy, Senior Fellow am Energy & Environment Legal Institute, gegenüber dem DCNF. „Das ist völlig in Ordnung, denn Investor ist im Kontext eines Windkraftprojekts nur ein Euphemismus für Subventionssuchenden.“

Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Nachrichtenverlagen mit großem Publikum kostenlos zur Verfügung. Alle veröffentlichten Artikel müssen unser Logo, den Namen des Reporters und seine DCNF-Zugehörigkeit enthalten. Bei Fragen zu unseren Richtlinien oder einer Partnerschaft mit uns wenden Sie sich bitte an  licensing@dailycallernewsfoundation.org .

https://dailycaller.com/2025/08/26/investors-fleeing-green-energy-scene-after-death-of-bidens-freebies/

 




Trotz (oder wegen) Gavin Newsoms großzügiger Spende für grüne Energie zählen die kalifornischen Städte zu den schmutzigsten in Amerika

Audrey Streb, DCNF-Energiereporter, 27. August 2025

Kalifornische Städte zählen zu den schmutzigsten Städten in Amerika. Zehn Städte im Golden State weisen laut der Rasenpflege-Website LawnStarter die schlechteste durchschnittliche Luftqualität in den USA auf.

San Bernardino wurde der Analyse von LawnStarter zufolge zur schmutzigsten Stadt Amerikas gekürt, Los Angeles liegt dicht dahinter. Obwohl der demokratische Gouverneur Kaliforniens, Gavin Newsom, sich für ehrgeizige Klimaziele einsetzt, die zu strengen Vorschriften geführt und Milliarden in Initiativen für grüne Energie versenkt haben, zählen zahlreiche Städte seines Bundesstaates laut LawnStarter immer noch zu den am stärksten verschmutzten Städten Amerikas.

„San Bernardino, Kalifornien, ist das zweite Jahr in Folge die schmutzigste Stadt. Von allen Städten in unserem Ranking hat San Bernardino den höchsten Anteil an Einwohnern, die mit der Umweltverschmutzung unzufrieden sind – 75 % – und liegt gleichauf mit neun anderen kalifornischen Städten mit der schlechtesten durchschnittlichen Luftqualität.“ (VERBUNDEN: Müllberge begraben die Geburtsstätte Amerikas, während Gewerkschaft Lohnerhöhung fordert)

Mehrere andere Städte, darunter Detroit (Michigan) und Reading (Pennsylvania), zählen laut LawnStarter zusammen mit Los Angeles zu den schmutzigsten Städten der USA. Zwei weitere kalifornische Städte, Ontario und Corona, schafften es laut der Analyse unter die Top Ten.

LawnStarter hat die 500 größten US-Städte mit ausreichend verfügbaren Daten bewertet und sie nach vier Faktoren bewertet – Umweltverschmutzung, unzureichende Lebensbedingungen, schlechte Abfallinfrastruktur und Unzufriedenheit der Einwohner – bevor die Gesamtplatzierung jeder Stadt auf einer Skala von 1 bis 100 ermittelt wurde, so das Unternehmen.

Bemerkenswert ist, dass die zehn Städte in den USA mit den höchsten Treibhausgasemissionen (THG) pro Kopf laut LawnStarter nicht unter die zehn schmutzigsten oder am stärksten verschmutzten Städte kamen.

https://www.nbclosangeles.com/video/news/hope-team-at-working-clean-up-la_s-homeless-population_los-angeles/156983/

Der Analyse zufolge sammelten lokale College-Studenten in diesem Jahr in ganz San Bernardino 500 Pfund Müll, und die Obdachlosenkrise in Los Angeles hielt trotz zahlreicher Aufräumversuche [und Angebote auf Hilfe] an.

Newsom drängt auf ehrgeizige Ziele für grüne Energie und prahlt auf seiner Website damit, dass Kaliforniens Stromnetz durchschnittlich sieben Stunden am Tag zu 100 % mit „ sauberer Energie “ betrieben wird und dass der Staat den „ehrgeizigsten Aktionsplan zum Klimaschutz der Welt“ habe . Energiepolitikexperten bringen diese Initiative für grüne Technologien auch mit den stark steigenden Energiekosten im Staat in Verbindung. Diese werden voraussichtlich noch weiter steigen, da sich zwei große Raffinerien darauf vorbereiten, unter der Belastung durch die strengen staatlichen Vorschriften ihre Geschäftstätigkeit zu reduzieren, wie Branchenexperten anmerken.

Newsoms Büro reagierte nicht auf die Bitte der Daily Caller News Foundation um einen Kommentar.

Ergänzung: Benzinpreise in USA  https://gasprices.aaa.com/

Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Nachrichtenverlagen mit großem Publikum kostenlos zur Verfügung. Alle veröffentlichten Artikel müssen unser Logo, den Namen des Reporters und seine DCNF-Zugehörigkeit enthalten. Bei Fragen zu unseren Richtlinien oder einer Partnerschaft mit uns wenden Sie sich bitte an  licensing@dailycallernewsfoundation.org .

https://dailycaller.com/2025/08/27/california-cities-rank-among-dirtiest-in-america-despite-gavin-newsoms-green-energy-largesse/

 




Größer und besser: Sind neuere Windparks besser als ältere?

Wattclarity Australien

Einleitung durch den Übersetzer

Hier bin ich auf eine Ausarbeitung aus Australien gestoßen, die das Thema Kapazität von Windkraftanlagen behandelt. „Kapazität“ kann man mit Nennleistung übersetzen. Nach dieser Kenngröße richten sich die Anschlüsse der Infrastruktur (Kabel, Trafos usw.) mit dem die Windräder an das Stromnetz angeschlossen werden. [Das diese Infrastruktur oft sehr teuer und aufwendig ist und von den „erneuerbare Energien“ Befürwortern gerne unterschlagen wird, ist hier nicht das Thema].

Wichtiger für den Verbraucher ist die Frage: „Wieviel Strom liefern die Windkraftanlagen tatsächlich?“. Wird von interessierten Journalisten und Investoren immer am liebsten die „Kapazität, … damit können XY Haushalte versorgt werden“ propagiert, so ist es die tatsächlich abgegebene (eigentlich beim Verbraucher ankommende) Energie, die einzig wichtige Kenngröße, hier mit Kapazitätsfaktor bezeichnet. Beispiel: Eine 1MW Turbine liefert im Durchschnitt des Jahres 30% ihrer Nennleistung, also kann man mit 300 kW rechnen.

Darüber hinaus, wird davon ausgegangen, das neue, vor allem größere Windräder einen höheren Kapazitätsfaktor realisieren. Dieses ist das Thema von Dan Lee.

******************

Wattclarity, Dan Lee, 9. November 2023

Aktuelle Diskussionen und langfristige Modellierungen gehen davon aus, dass die Kapazitätsfaktoren von Windparks steigen. Dieser Optimismus ist vor allem auf technologische Verbesserungen zurückzuführen, die theoretisch die Effizienz steigern sollten, wie etwa verbesserte Rotorblattkonstruktionen, höhere Nabenhöhen und ausgefeiltere Modellierungstechniken für Standortwahl und -planung. Eine aktuelle Studie geht davon aus, dass diese „größeren und besseren“ Fortschritte die Effizienz um bis zu 25 Prozent steigern werden .

Da Windenergie seit fast zwei Jahrzehnten Teil des Energieerzeugungsmix des NEM ist, wollte ich wissen, ob dies in der Vergangenheit auch der Fall war und welche zugrunde liegenden Aspekte dies beeinflussen.

[Der National Electricity Market NEM deckt etwa 80 % des australischen Stromverbrauchs ab, ist das größte zusammenhängende Stromnetz der Welt und wird vom Australian Energy Market Operator (AEMO) betrieben.]

Erwartungen an Verbesserungen

Regelmäßige Leser kennen vielleicht meine früheren Bemühungen, zu zeigen, warum der Kapazitätsfaktor eine zunehmend zu stark vereinfachte und überdiskutierte Kennzahl ist . Obwohl ich fest davon überzeugt bin, dass dies immer noch der Fall ist, ist der Kapazitätsfaktor dennoch zu einer wichtigen Eingangsgröße für umfangreiche Arbeiten geworden – wie beispielsweise den GenCost-Bericht der CSIRO und den Integrated System Plan der AEMO. Diese Berichte sind einflussreich und prägen das Verständnis vieler Menschen für die zukünftige Entwicklung der Branche.

[Commonwealth Scientific and Industrial Research Organisation CSIRO ist die staatliche Behörde Australiens für wissenschaftliche und industrielle Forschung.]

[Australischer Energiemarktbetreiber AEMO, kontrolliert und betrieben durch die australische Regierung, Ministerium für Klimawandel, Energie, Umwelt und Wasser]

Diese langfristigen Modelle berücksichtigen gelegentlich die Entwicklung der Kapazitätsfaktoren im Laufe der Zeit. Insbesondere für die Windkraftanlagen gehen einige davon aus, dass diese in den kommenden Jahrzehnten deutlich ansteigen werden.

So versucht beispielsweise der jährliche GenCost-Bericht der CSIRO, die Stromgestehungskosten (LCOE) für jede Erzeugungsart zu berechnen – eine weitere Kennzahl, die wir bereits als ähnlich beliebt, aber begrenzt besprochen haben . In der Ausgabe 2019–20 dieses Berichts ging die CSIRO von einem erheblichen Anstieg des durchschnittlichen Kapazitätsfaktors von Windparks in Australien gegenüber dem heutigen Niveau aus. Sie modellierte hierfür einen durchschnittlichen Kapazitätsfaktor von 44,4 % für Onshore und 54,2 % für Offshore im Jahr 2050. Seitdem ist die CSIRO dazu übergegangen, LCOE-Schätzungen für eine breitere Palette von Szenarien bereitzustellen. In ihrem jüngsten Bericht für 2022–23 geht die „niedrige LCOE-Annahme“ (d. h. das beste Szenario) von einem Kapazitätsfaktor von 48 % für Onshore und 61 % für Offshore im Jahr 2050 aus, während die „hohe Annahme“ von Kapazitätsfaktoren ausgeht, die viel näher am aktuellen Niveau liegen.

Paul hat kürzlich einige Hintergrundinformationen zu diesen Annahmen gegeben . Wie immer kommentierte der erfahrene Marktanalyst Allan O’Neil den Artikel umgehend und lieferte nützliche Einblicke in die Grenzen und Komplexitäten der Vorhersage des Kapazitätsfaktors. Ein spezieller Kommentar von Allan regte mich jedoch dazu an, über die Entwicklung der Windkraftanlagen nachzudenken:

„Die bestehende Flotte ist über 20 Jahre alt (und die zugrunde liegenden Konstruktionsparameter sind sogar noch älter), daher erwarten wir natürlich nicht, dass diese Flotte die Leistung von Neubauten erreicht, nicht einmal annähernd. Die heutigen Elektroautos sind wahrscheinlich deutlich leistungsfähiger als alles, was man vor fünf oder sogar drei Jahren kaufen konnte.“

Was die Daten sagen

Um zu testen, ob wir auf dem Weg zur Effizienzsteigerung sind, wollte ich untersuchen, wie sich die Kapazitätsfaktoren für Windparks im NEM in den letzten zwei Jahrzehnten entwickelt haben.

In der Animation unten habe ich den jährlichen durchschnittlichen Kapazitätsfaktor jeder dieser Einheiten ab 2006 schrittweise grafisch dargestellt. Wenn mehr Einheiten angeschlossen werden, sollten Sie in der Lage sein, die Faktoren neuer Projekte mit denen bestehender Projekte zu vergleichen.

Hinweis: Kapazitätsfaktoren werden pro Einheit dargestellt. Es sind nur Einheiten mit einer maximalen Kapazität von 30 MW oder mehr enthalten.

Obwohl es einzelne Jahre gibt, in denen die Kapazitätsfaktoren nach oben oder sogar nach unten tendierten, scheint es keinen durchgängigen Trend zu geben, dass neuere Windparks eine höhere Auslastung aufweisen als die in den Vorjahren (oder sogar in den Jahrzehnten zuvor) gebauten.

Südaustralien scheint die einzige Ausnahme zu sein, obwohl die zugrunde liegende Ursache ohne umfassendere Untersuchung unklar bleibt. Man könnte argumentieren, dass in anderen Regionen die Kapazitätsfaktoren für neuere Windkraftprojekte mit der Zeit sogar leicht abnehmen könnten.

Es gibt keine schlüssigen Beweise dafür, dass neuere Windkraftprojekte im gesamten NEM höhere Kapazitätsfaktoren liefern.

Hinweise: Daten nur bis 1. Oktober 2023. Trendlinie und R-Quadrat-Wert werden nur für Einheiten berechnet, die vor Beginn des Jahres 2023 registriert wurden.

Windparks erbringen in der Inbetriebnahmephase typischerweise eine geringere Leistung, weshalb ihr Kapazitätsfaktor vorübergehend niedriger ist als üblich. Um diesen Effekt bis zu einem gewissen Grad zu berücksichtigen, habe ich Anlagen, die bis 2023 registriert wurden, aus dem berechneten R-Quadrat-Wert und der Trendlinie im obigen Diagramm ausgeschlossen.

Skalierung

Ein Trend, der sich im Entwicklungsbereich deutlicher abzeichnet, ist die stetige Zunahme von Anzahl und Größe der Projekte. Die folgende Grafik zeigt den Anstieg der maximalen Kapazität dieser Anlagen und die Zunahme von Projekten mit Kapazitäten über 200 MW in den letzten Jahren.

Die Kapazitäten der Windkraftanlagen im gesamten NEM sind in den letzten zwanzig Jahren langsam gestiegen.

Quelle: Generator Statistical Digest 2022.

Hinweis: Maximale Kapazität pro Einheit dargestellt. Nur Einheiten mit einer maximalen Kapazität von 30 MW oder mehr sind enthalten.

 

Gewichtet nach der maximalen Kapazität jeder einzelnen Einheit, hatte die Windkraftanlage des NEM im Jahr 2022 einen kollektiven Kapazitätsfaktor von 31,04 % und im Jahr 2023 (bis zum 1. Oktober) bereits 30,93 %. Das ist weit entfernt von den Kapazitätsfaktoren von über 40 %, die in den oben diskutierten Modellen angenommen wurden.

Warum flacht der Kapazitätsfaktor ab?

Während einige erwartet haben, dass sich die Effizienz durch die jüngsten technologischen Fortschritte verbessert hat, gibt es eine Reihe von Gegenfaktoren, die wahrscheinlich zu dieser Abflachung des Trends beigetragen haben, darunter, aber nicht beschränkt auf:

  1. Standortknappheit . Mit der Errichtung neuer Windparks könnte der Bestand an unbebauten Standorten, die hinsichtlich Windressourcen und Netzstandort optimal geeignet sind, abnehmen.
  2. Kürzung aus wirtschaftlichen Gründen. Dies könnte Auswirkungen haben, insbesondere angesichts der Zunahme negativer Preise in letzter Zeit.
  3. Drosselung aufgrund von Netzbeschränkungen. Allan untersuchte Anfang des Jahres die allgemeinen Auswirkungen dieses Faktors auf Wind- und Solaranlagen, auch als „erzwungene Drosselung“ bezeichnet .
  4. Der zunehmende Wert der Winddiversität . Im Zuge der Energiewende erwarte ich, dass der Wert der Standortdiversifizierung (sowohl aus Portfolio- als auch aus Systemsicherheitssicht) mit der Zeit steigt. Da sich Projektentwickler nicht unbedingt auf die optimale Nutzung der verfügbaren Windressourcen konzentrieren, kann dies einen geringen, aber dennoch negativen Effekt auf die Windkapazitätsfaktoren insgesamt haben. Unsere frühere Arbeit zur Bewertung der Diversität und Korrelation der Windgeschwindigkeiten im NEM hat sich mit diesem Thema befasst.

Auch andere Aspekte wie die Optimierung der Kapitalkosten und die Vermeidung von FCAS-Regulierungskosten bei Extremwetterereignissen sollten berücksichtigt werden.

Die wichtigsten Erkenntnisse

Der Kapazitätsfaktor ist zwar eine beliebte, aber bei weitem keine umfassende Kennzahl. Weitere Analysen zu Verfügbarkeit, Umsatz, Gebotsvolumen usw. sind erforderlich, um die zugrunde liegenden technischen und betrieblichen Faktoren voneinander zu trennen. Dennoch sollten sich aus dieser Analyse einige klare Erkenntnisse ergeben:

  • Größer heißt nicht immer besser. Zwar nehmen Zahl und Größe neuer Windkraftprojekte im NEM zu, doch gibt es keinen schlüssigen Beweis dafür, dass die Kapazitätsfaktoren neuerer Windparks im Vergleich zu Windparks, die vor 5, 10 oder vielleicht sogar 15 Jahren gebaut wurden, deutlich besser sind.
  • Kapazitätsfaktor: Die zugrunde liegenden Faktoren und Gegenfaktoren sind von Bedeutung. Zwar haben neuere Projekte sicherlich vom technologischen Fortschritt profitiert, doch scheinen Gegenfaktoren wie Standortknappheit, Leistungseinschränkungen usw. die Effizienzgewinne in dieser Hinsicht auszugleichen.

Weitere Informationen

Die für diese Analyse verwendeten Daten stammen aus unserem Generator Statistical Digest (GSD)-Datenauszug aus aufeinanderfolgenden Jahren. Für jede Erzeugungseinheit im NEM liefert der GSD detaillierte Betriebs- und Finanzstatistiken wie Spot- und FCAS-Umsätze, Gebotsvolumina, Grenzverlustfaktoren, Preisertrag, Kapazitätsfaktorspanne usw. Die folgende Abbildung zeigt das Profil des Macarthur Windparks aus der letztjährigen Ausgabe.

Die nächste Ausgabe unseres GSD erscheint voraussichtlich Anfang Februar 2024. Mit diesem Formular können Sie Ihr Exemplar schon heute vorbestellen .

https://wattclarity.com.au/articles/2023/11/bigger-or-better-are-newer-wind-farms-outperforming-older-ones/

Weitere Artikel zum Thema: Langfristige Markttrends und Prognosen