Trotz (oder wegen) Gavin Newsoms großzügiger Spende für grüne Energie zählen die kalifornischen Städte zu den schmutzigsten in Amerika

Audrey Streb, DCNF-Energiereporter, 27. August 2025

Kalifornische Städte zählen zu den schmutzigsten Städten in Amerika. Zehn Städte im Golden State weisen laut der Rasenpflege-Website LawnStarter die schlechteste durchschnittliche Luftqualität in den USA auf.

San Bernardino wurde der Analyse von LawnStarter zufolge zur schmutzigsten Stadt Amerikas gekürt, Los Angeles liegt dicht dahinter. Obwohl der demokratische Gouverneur Kaliforniens, Gavin Newsom, sich für ehrgeizige Klimaziele einsetzt, die zu strengen Vorschriften geführt und Milliarden in Initiativen für grüne Energie versenkt haben, zählen zahlreiche Städte seines Bundesstaates laut LawnStarter immer noch zu den am stärksten verschmutzten Städten Amerikas.

„San Bernardino, Kalifornien, ist das zweite Jahr in Folge die schmutzigste Stadt. Von allen Städten in unserem Ranking hat San Bernardino den höchsten Anteil an Einwohnern, die mit der Umweltverschmutzung unzufrieden sind – 75 % – und liegt gleichauf mit neun anderen kalifornischen Städten mit der schlechtesten durchschnittlichen Luftqualität.“ (VERBUNDEN: Müllberge begraben die Geburtsstätte Amerikas, während Gewerkschaft Lohnerhöhung fordert)

Mehrere andere Städte, darunter Detroit (Michigan) und Reading (Pennsylvania), zählen laut LawnStarter zusammen mit Los Angeles zu den schmutzigsten Städten der USA. Zwei weitere kalifornische Städte, Ontario und Corona, schafften es laut der Analyse unter die Top Ten.

LawnStarter hat die 500 größten US-Städte mit ausreichend verfügbaren Daten bewertet und sie nach vier Faktoren bewertet – Umweltverschmutzung, unzureichende Lebensbedingungen, schlechte Abfallinfrastruktur und Unzufriedenheit der Einwohner – bevor die Gesamtplatzierung jeder Stadt auf einer Skala von 1 bis 100 ermittelt wurde, so das Unternehmen.

Bemerkenswert ist, dass die zehn Städte in den USA mit den höchsten Treibhausgasemissionen (THG) pro Kopf laut LawnStarter nicht unter die zehn schmutzigsten oder am stärksten verschmutzten Städte kamen.

https://www.nbclosangeles.com/video/news/hope-team-at-working-clean-up-la_s-homeless-population_los-angeles/156983/

Der Analyse zufolge sammelten lokale College-Studenten in diesem Jahr in ganz San Bernardino 500 Pfund Müll, und die Obdachlosenkrise in Los Angeles hielt trotz zahlreicher Aufräumversuche [und Angebote auf Hilfe] an.

Newsom drängt auf ehrgeizige Ziele für grüne Energie und prahlt auf seiner Website damit, dass Kaliforniens Stromnetz durchschnittlich sieben Stunden am Tag zu 100 % mit „ sauberer Energie “ betrieben wird und dass der Staat den „ehrgeizigsten Aktionsplan zum Klimaschutz der Welt“ habe . Energiepolitikexperten bringen diese Initiative für grüne Technologien auch mit den stark steigenden Energiekosten im Staat in Verbindung. Diese werden voraussichtlich noch weiter steigen, da sich zwei große Raffinerien darauf vorbereiten, unter der Belastung durch die strengen staatlichen Vorschriften ihre Geschäftstätigkeit zu reduzieren, wie Branchenexperten anmerken.

Newsoms Büro reagierte nicht auf die Bitte der Daily Caller News Foundation um einen Kommentar.

Ergänzung: Benzinpreise in USA  https://gasprices.aaa.com/

Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Nachrichtenverlagen mit großem Publikum kostenlos zur Verfügung. Alle veröffentlichten Artikel müssen unser Logo, den Namen des Reporters und seine DCNF-Zugehörigkeit enthalten. Bei Fragen zu unseren Richtlinien oder einer Partnerschaft mit uns wenden Sie sich bitte an  licensing@dailycallernewsfoundation.org .

https://dailycaller.com/2025/08/27/california-cities-rank-among-dirtiest-in-america-despite-gavin-newsoms-green-energy-largesse/

 




Größer und besser: Sind neuere Windparks besser als ältere?

Wattclarity Australien

Einleitung durch den Übersetzer

Hier bin ich auf eine Ausarbeitung aus Australien gestoßen, die das Thema Kapazität von Windkraftanlagen behandelt. „Kapazität“ kann man mit Nennleistung übersetzen. Nach dieser Kenngröße richten sich die Anschlüsse der Infrastruktur (Kabel, Trafos usw.) mit dem die Windräder an das Stromnetz angeschlossen werden. [Das diese Infrastruktur oft sehr teuer und aufwendig ist und von den „erneuerbare Energien“ Befürwortern gerne unterschlagen wird, ist hier nicht das Thema].

Wichtiger für den Verbraucher ist die Frage: „Wieviel Strom liefern die Windkraftanlagen tatsächlich?“. Wird von interessierten Journalisten und Investoren immer am liebsten die „Kapazität, … damit können XY Haushalte versorgt werden“ propagiert, so ist es die tatsächlich abgegebene (eigentlich beim Verbraucher ankommende) Energie, die einzig wichtige Kenngröße, hier mit Kapazitätsfaktor bezeichnet. Beispiel: Eine 1MW Turbine liefert im Durchschnitt des Jahres 30% ihrer Nennleistung, also kann man mit 300 kW rechnen.

Darüber hinaus, wird davon ausgegangen, das neue, vor allem größere Windräder einen höheren Kapazitätsfaktor realisieren. Dieses ist das Thema von Dan Lee.

******************

Wattclarity, Dan Lee, 9. November 2023

Aktuelle Diskussionen und langfristige Modellierungen gehen davon aus, dass die Kapazitätsfaktoren von Windparks steigen. Dieser Optimismus ist vor allem auf technologische Verbesserungen zurückzuführen, die theoretisch die Effizienz steigern sollten, wie etwa verbesserte Rotorblattkonstruktionen, höhere Nabenhöhen und ausgefeiltere Modellierungstechniken für Standortwahl und -planung. Eine aktuelle Studie geht davon aus, dass diese „größeren und besseren“ Fortschritte die Effizienz um bis zu 25 Prozent steigern werden .

Da Windenergie seit fast zwei Jahrzehnten Teil des Energieerzeugungsmix des NEM ist, wollte ich wissen, ob dies in der Vergangenheit auch der Fall war und welche zugrunde liegenden Aspekte dies beeinflussen.

[Der National Electricity Market NEM deckt etwa 80 % des australischen Stromverbrauchs ab, ist das größte zusammenhängende Stromnetz der Welt und wird vom Australian Energy Market Operator (AEMO) betrieben.]

Erwartungen an Verbesserungen

Regelmäßige Leser kennen vielleicht meine früheren Bemühungen, zu zeigen, warum der Kapazitätsfaktor eine zunehmend zu stark vereinfachte und überdiskutierte Kennzahl ist . Obwohl ich fest davon überzeugt bin, dass dies immer noch der Fall ist, ist der Kapazitätsfaktor dennoch zu einer wichtigen Eingangsgröße für umfangreiche Arbeiten geworden – wie beispielsweise den GenCost-Bericht der CSIRO und den Integrated System Plan der AEMO. Diese Berichte sind einflussreich und prägen das Verständnis vieler Menschen für die zukünftige Entwicklung der Branche.

[Commonwealth Scientific and Industrial Research Organisation CSIRO ist die staatliche Behörde Australiens für wissenschaftliche und industrielle Forschung.]

[Australischer Energiemarktbetreiber AEMO, kontrolliert und betrieben durch die australische Regierung, Ministerium für Klimawandel, Energie, Umwelt und Wasser]

Diese langfristigen Modelle berücksichtigen gelegentlich die Entwicklung der Kapazitätsfaktoren im Laufe der Zeit. Insbesondere für die Windkraftanlagen gehen einige davon aus, dass diese in den kommenden Jahrzehnten deutlich ansteigen werden.

So versucht beispielsweise der jährliche GenCost-Bericht der CSIRO, die Stromgestehungskosten (LCOE) für jede Erzeugungsart zu berechnen – eine weitere Kennzahl, die wir bereits als ähnlich beliebt, aber begrenzt besprochen haben . In der Ausgabe 2019–20 dieses Berichts ging die CSIRO von einem erheblichen Anstieg des durchschnittlichen Kapazitätsfaktors von Windparks in Australien gegenüber dem heutigen Niveau aus. Sie modellierte hierfür einen durchschnittlichen Kapazitätsfaktor von 44,4 % für Onshore und 54,2 % für Offshore im Jahr 2050. Seitdem ist die CSIRO dazu übergegangen, LCOE-Schätzungen für eine breitere Palette von Szenarien bereitzustellen. In ihrem jüngsten Bericht für 2022–23 geht die „niedrige LCOE-Annahme“ (d. h. das beste Szenario) von einem Kapazitätsfaktor von 48 % für Onshore und 61 % für Offshore im Jahr 2050 aus, während die „hohe Annahme“ von Kapazitätsfaktoren ausgeht, die viel näher am aktuellen Niveau liegen.

Paul hat kürzlich einige Hintergrundinformationen zu diesen Annahmen gegeben . Wie immer kommentierte der erfahrene Marktanalyst Allan O’Neil den Artikel umgehend und lieferte nützliche Einblicke in die Grenzen und Komplexitäten der Vorhersage des Kapazitätsfaktors. Ein spezieller Kommentar von Allan regte mich jedoch dazu an, über die Entwicklung der Windkraftanlagen nachzudenken:

„Die bestehende Flotte ist über 20 Jahre alt (und die zugrunde liegenden Konstruktionsparameter sind sogar noch älter), daher erwarten wir natürlich nicht, dass diese Flotte die Leistung von Neubauten erreicht, nicht einmal annähernd. Die heutigen Elektroautos sind wahrscheinlich deutlich leistungsfähiger als alles, was man vor fünf oder sogar drei Jahren kaufen konnte.“

Was die Daten sagen

Um zu testen, ob wir auf dem Weg zur Effizienzsteigerung sind, wollte ich untersuchen, wie sich die Kapazitätsfaktoren für Windparks im NEM in den letzten zwei Jahrzehnten entwickelt haben.

In der Animation unten habe ich den jährlichen durchschnittlichen Kapazitätsfaktor jeder dieser Einheiten ab 2006 schrittweise grafisch dargestellt. Wenn mehr Einheiten angeschlossen werden, sollten Sie in der Lage sein, die Faktoren neuer Projekte mit denen bestehender Projekte zu vergleichen.

Hinweis: Kapazitätsfaktoren werden pro Einheit dargestellt. Es sind nur Einheiten mit einer maximalen Kapazität von 30 MW oder mehr enthalten.

Obwohl es einzelne Jahre gibt, in denen die Kapazitätsfaktoren nach oben oder sogar nach unten tendierten, scheint es keinen durchgängigen Trend zu geben, dass neuere Windparks eine höhere Auslastung aufweisen als die in den Vorjahren (oder sogar in den Jahrzehnten zuvor) gebauten.

Südaustralien scheint die einzige Ausnahme zu sein, obwohl die zugrunde liegende Ursache ohne umfassendere Untersuchung unklar bleibt. Man könnte argumentieren, dass in anderen Regionen die Kapazitätsfaktoren für neuere Windkraftprojekte mit der Zeit sogar leicht abnehmen könnten.

Es gibt keine schlüssigen Beweise dafür, dass neuere Windkraftprojekte im gesamten NEM höhere Kapazitätsfaktoren liefern.

Hinweise: Daten nur bis 1. Oktober 2023. Trendlinie und R-Quadrat-Wert werden nur für Einheiten berechnet, die vor Beginn des Jahres 2023 registriert wurden.

Windparks erbringen in der Inbetriebnahmephase typischerweise eine geringere Leistung, weshalb ihr Kapazitätsfaktor vorübergehend niedriger ist als üblich. Um diesen Effekt bis zu einem gewissen Grad zu berücksichtigen, habe ich Anlagen, die bis 2023 registriert wurden, aus dem berechneten R-Quadrat-Wert und der Trendlinie im obigen Diagramm ausgeschlossen.

Skalierung

Ein Trend, der sich im Entwicklungsbereich deutlicher abzeichnet, ist die stetige Zunahme von Anzahl und Größe der Projekte. Die folgende Grafik zeigt den Anstieg der maximalen Kapazität dieser Anlagen und die Zunahme von Projekten mit Kapazitäten über 200 MW in den letzten Jahren.

Die Kapazitäten der Windkraftanlagen im gesamten NEM sind in den letzten zwanzig Jahren langsam gestiegen.

Quelle: Generator Statistical Digest 2022.

Hinweis: Maximale Kapazität pro Einheit dargestellt. Nur Einheiten mit einer maximalen Kapazität von 30 MW oder mehr sind enthalten.

 

Gewichtet nach der maximalen Kapazität jeder einzelnen Einheit, hatte die Windkraftanlage des NEM im Jahr 2022 einen kollektiven Kapazitätsfaktor von 31,04 % und im Jahr 2023 (bis zum 1. Oktober) bereits 30,93 %. Das ist weit entfernt von den Kapazitätsfaktoren von über 40 %, die in den oben diskutierten Modellen angenommen wurden.

Warum flacht der Kapazitätsfaktor ab?

Während einige erwartet haben, dass sich die Effizienz durch die jüngsten technologischen Fortschritte verbessert hat, gibt es eine Reihe von Gegenfaktoren, die wahrscheinlich zu dieser Abflachung des Trends beigetragen haben, darunter, aber nicht beschränkt auf:

  1. Standortknappheit . Mit der Errichtung neuer Windparks könnte der Bestand an unbebauten Standorten, die hinsichtlich Windressourcen und Netzstandort optimal geeignet sind, abnehmen.
  2. Kürzung aus wirtschaftlichen Gründen. Dies könnte Auswirkungen haben, insbesondere angesichts der Zunahme negativer Preise in letzter Zeit.
  3. Drosselung aufgrund von Netzbeschränkungen. Allan untersuchte Anfang des Jahres die allgemeinen Auswirkungen dieses Faktors auf Wind- und Solaranlagen, auch als „erzwungene Drosselung“ bezeichnet .
  4. Der zunehmende Wert der Winddiversität . Im Zuge der Energiewende erwarte ich, dass der Wert der Standortdiversifizierung (sowohl aus Portfolio- als auch aus Systemsicherheitssicht) mit der Zeit steigt. Da sich Projektentwickler nicht unbedingt auf die optimale Nutzung der verfügbaren Windressourcen konzentrieren, kann dies einen geringen, aber dennoch negativen Effekt auf die Windkapazitätsfaktoren insgesamt haben. Unsere frühere Arbeit zur Bewertung der Diversität und Korrelation der Windgeschwindigkeiten im NEM hat sich mit diesem Thema befasst.

Auch andere Aspekte wie die Optimierung der Kapitalkosten und die Vermeidung von FCAS-Regulierungskosten bei Extremwetterereignissen sollten berücksichtigt werden.

Die wichtigsten Erkenntnisse

Der Kapazitätsfaktor ist zwar eine beliebte, aber bei weitem keine umfassende Kennzahl. Weitere Analysen zu Verfügbarkeit, Umsatz, Gebotsvolumen usw. sind erforderlich, um die zugrunde liegenden technischen und betrieblichen Faktoren voneinander zu trennen. Dennoch sollten sich aus dieser Analyse einige klare Erkenntnisse ergeben:

  • Größer heißt nicht immer besser. Zwar nehmen Zahl und Größe neuer Windkraftprojekte im NEM zu, doch gibt es keinen schlüssigen Beweis dafür, dass die Kapazitätsfaktoren neuerer Windparks im Vergleich zu Windparks, die vor 5, 10 oder vielleicht sogar 15 Jahren gebaut wurden, deutlich besser sind.
  • Kapazitätsfaktor: Die zugrunde liegenden Faktoren und Gegenfaktoren sind von Bedeutung. Zwar haben neuere Projekte sicherlich vom technologischen Fortschritt profitiert, doch scheinen Gegenfaktoren wie Standortknappheit, Leistungseinschränkungen usw. die Effizienzgewinne in dieser Hinsicht auszugleichen.

Weitere Informationen

Die für diese Analyse verwendeten Daten stammen aus unserem Generator Statistical Digest (GSD)-Datenauszug aus aufeinanderfolgenden Jahren. Für jede Erzeugungseinheit im NEM liefert der GSD detaillierte Betriebs- und Finanzstatistiken wie Spot- und FCAS-Umsätze, Gebotsvolumina, Grenzverlustfaktoren, Preisertrag, Kapazitätsfaktorspanne usw. Die folgende Abbildung zeigt das Profil des Macarthur Windparks aus der letztjährigen Ausgabe.

Die nächste Ausgabe unseres GSD erscheint voraussichtlich Anfang Februar 2024. Mit diesem Formular können Sie Ihr Exemplar schon heute vorbestellen .

https://wattclarity.com.au/articles/2023/11/bigger-or-better-are-newer-wind-farms-outperforming-older-ones/

Weitere Artikel zum Thema: Langfristige Markttrends und Prognosen

 




Windturbinen und Solarmodule erzeugen NUR Strom

Von Cornwall Alliance, 20. August 2025

Das Folgende ist ein Gastartikel von Ronald Stein und Yoshihiro Muronaka.

Es ist sowohl an der Zeit als auch wirkungsvoll, das Verständnis der Öffentlichkeit und der politischen Entscheidungsträger für Elektrizität zu vertiefen, einschließlich der wesentlichen Rolle fossiler Brennstoffe, die die globale Entwicklung vorantreiben, mit den Produkten und Kraftstoffen für den Transport, die von eben diesen fossilen Brennstoffen abhängig sind.

Demmig, Einfahrt Panamakanal – ohne fossile Brennstoffe, kein weltweiter Warenverkehr

In weniger als ein paar Jahrhunderten wurden gut 250 bahnbrechende Techniken zur Verarbeitung und Raffination von Kohlenwasserstoffen entdeckt. Ihre Auswirkungen sind bis heute spürbar und kommen den 8 Milliarden Menschen auf der Erde zugute.

Heute bereichern über 6.000 Produkte aus Erdöl unser Leben. Sie haben die Kindersterblichkeit gesenkt, die globale Lebenserwartung von rund 40 auf über 80 Jahre verdoppelt und es möglich gemacht, mit dem Flugzeug, der Bahn, dem Schiff oder dem Auto überall auf der Welt hin zu reisen – wodurch die Zahl der wetterbedingten Todesfälle drastisch auf nahezu null gesunken ist. All dies war in Gesellschaften vor 1800 unvorstellbar.

Wenn wir 200 Jahre zurückgehen, ins 19. Jahrhundert, finden wir eine dekarbonisierte Gesellschaft vor, also eine ganz andere Ära, eine Gesellschaft ohne Produkte, Kraftstoffe und Elektrizität. Produkte auf Basis fossiler Brennstoffe waren fast nicht vorhanden, daher war der Lebensstil weniger wohlhabend, die Gesundheitsbedingungen prekär und das Leben kurz.

Ein erneuter Wandel hin zu einer Dekarbonisierung und einem emissionsfreien Lebensstil schränkt die Nutzung fossiler Brennstoffe wie Kohle und Öl stark ein und könnte uns in eine Welt wie vor 200 Jahren zurückversetzen. Das würde bedeuten, dass Milliarden Menschen erneut an Krankheiten, Unterernährung und wetterbedingten Todesfällen leiden.

Der Schritt hin zur Dekarbonisierung birgt die Gefahr, dass der Lebensstandard und die Produkte, die wohlhabende, gesunde Nationen als selbstverständlich erachten, eingeschränkt oder der Zugang dazu verzögert werden. Heute leben rund 700 Millionen Menschen, also etwa 9 % der Menschheit, unterhalb der internationalen Armutsgrenze. Anders ausgedrückt: Ein Stopp der Produktion und Nutzung fossiler Brennstoffe würde viele Jahrhunderte des Fortschritts zunichtemachen.

In den letzten 200 Jahren, seit die aus Erdöl hergestellten Produkte und Kraftstoffe enwickelt wurden, stieg die Weltbevölkerung von einer auf acht Milliarden Menschen. Es waren die über 6.000 „Produkte“ aus Erdöl, die dieses enorme Bevölkerungswachstum ermöglichten.

Heute nutzen mehr als 1,4 Milliarden Autos und Lastwagen, 50.000 Handelsschiffe, 20.000 Verkehrsflugzeuge und 50.000 Militärflugzeuge aus Rohöl hergestellte Treibstoffe. Auch die Treibstoffe für den Schwerlast- und Langstreckentransport von Jets, die Menschen und Güter transportieren, für Handelsschiffe im globalen Handel sowie für Militär- und Raumfahrtprogramme, hängen von den aus Rohöl hergestellten Treibstoffen ab.

Wir sind heute eine materialistische Gesellschaft. Aus [oder auch mit !] Wind- und Solarenergie lassen sich weder Elektrofahrzeuge noch andere Produkte oder Kraftstoffe herstellen.

  • Windturbinen und Solarmodule können NUR STROM erzeugen.
  • Alle von der Gesellschaft benötigten Produkte und Kraftstoffe, die gesamte Infrastruktur und die Wirtschaft werden aus fossilen Brennstoffen hergestellt.

Heute sind sich die „Net Zero“-Politiker, die „grüne“ Richtlinien festlegen, der Realität nicht bewusst, dass „sogenannte erneuerbare Energien“ NUR Strom erzeugen, aber NICHTS herstellen können. Darüber hinaus wird alles, was Strom benötigt, wie iPhones und Computer, mit Petrochemikalien hergestellt, die aus Rohöl, Kohle oder Erdgas gewonnen werden.

  • Elektrizität kam NACH dem Öl, da ALLE Methoden zur Stromerzeugung aus Wasserkraft, Kohle, Erdgas, Kernenergie, Wind- und Solarenergie ALLE mit Produkten, Komponenten und Geräten gebaut werden, die aus Ölderivaten hergestellt werden, die aus Rohöl gewonnen werden.
  • Alle Kraftstoffe für die über 1.400.000.000 Autos und Lastwagen auf der Welt, die 50.000 Handelsschiffe, die 20.000 Verkehrsflugzeuge und die 50.000 Militärflugzeuge werden aus Rohöl hergestellt.
  • Alle derzeit weltweit 60 Millionen Elektrofahrzeuge werden ebenfalls mit Produkten, Komponenten und Geräten gebaut, die aus aus Rohöl hergestellten Ölderivaten bestehen.
  • Der Verzicht auf Rohöl würde den Strom und die über 6.000 Produkte, die in Krankenhäusern, Flughäfen, im Kommunikationsbereich und bei den 8 Milliarden Menschen auf diesem Planeten nachgefragt werden, lahmlegen und praktisch den gesamten Transport mit Autos, Lastwagen, Elektrofahrzeugen, Schiffen und Flugzeugen lahmlegen!

Wir hatten über 200 Jahre Zeit, die Versorgung durch Ölproduktion und -raffination zu „klonen“, um die von der Gesellschaft nachgefragten Produkte und Kraftstoffe zu sichern – und waren bisher erfolglos. Die größte Bedrohung für die Menschheit besteht darin, dass das Rohöl zur Neige geht, bevor wir eine Alternative haben, die die Lieferkette für alle aus Öl gewonnenen Produkte und Kraftstoffe decken kann.

Man darf nicht vergessen, dass Windkraftanlagen und Solarmodule nicht in der Lage sind, die Produkte oder Kraftstoffe zu produzieren, die die 8 Milliarden Menschen auf diesem Planeten benötigen. Daher ist es wichtig, ausgewogene Diskussionen über Produkte, Strom und Kraftstoffe zu führen, um das Verständnis der politischen Entscheidungsträger in Politik und Verwaltung anhand konkreter Beispiele zu verbessern und Materialien zu entwickeln, die sowohl die makroökonomische als auch die technische Perspektive verbinden.

Dieses Bild erschien ursprünglich bei America Out Loud NEWS und wurde hier mit Genehmigung erneut veröffentlicht.

Über den Autor

Cornwall-Allianz

https://cornwallalliance.org/wind-turbines-and-solar-panels-only-generate-electricity/

 




Australische Windkraftanlagen geben nur 27 % ihrer theoretischen Kapazität – der langfristige Trend ist rückläufig

Von Jo Nova

Erwähnen Sie diesen Kapazitätsfaktor nicht …

Medien und Windindustrie preisen die größten und besten neuen Generatoren stets mit ihrer imaginären Kapazität an [und mit dem Zusatz: „Damit können XY Haushalte versorgt werden“]. Die neuesten Windparks werden mit „1 GW“ angepriesen, obwohl sie diese Leistung fast nie [und wenn, dann nur kurzfristig mal] erreichen. Der tatsächliche Prozentsatz der beworbenen „Kapazität“ wird als „Kapazitätsfaktor“ bezeichnet und selten erwähnt. Dem unaufmerksamen Leser fällt nicht auf, dass die Kosten von 2 Milliarden Dollar überhaupt nicht stimmen. Es ist, als würde man ein brandneues Auto kaufen, ohne zu wissen, dass es nur 7 Meilen pro Gallone schafft [= 33,6 L/100km] (und das auch nur, wenn der Wind weht).

Wir müssen den Kilometerstand kennen

Im jüngsten GenCost-Bericht kommt der Begriff „Kapazitätsfaktor“ buchstäblich hundertmal vor (ich habe ihn gezählt). Er spielt also offensichtlich eine zentrale Rolle bei der Berechnung des Werts eines Generators, doch in öffentlichen Diskussionen soll er nicht genannt werden. Und wenn er doch erwähnt wird, ist er oft noch schlimmer, als er tatsächlich ist, und dieser schlechte Wert sinkt zudem.

Im Jahr 2019 gingen die CSIRO Blob Experts mutig davon aus , dass der modellierte durchschnittliche Kapazitätsfaktor der Onshore-Windenergie 44,4 % betragen würde. Jahre später, im jüngsten GenCOST-Bericht, gehen sie wie Süchtige davon aus, dass er zwischen 29 % „und 48 %“ liegen würde – und fantasieren immer noch von einem bevorstehenden Wunder. Ihre modellbasierte Vorhersage der Kosten für Onshore-Windenergie ist also lächerlich großzügig. Selbst nachdem die Realität sechs Jahre lang hartnäckig bei etwa 30 % verharrte, zeigt eine Google-Suche, dass das „Fact Sheet“ der Regierung von New South Wales einen Wert von etwa 35 % angibt   und die Google-KI-Übersicht 30 % „bis 45 %“ angibt .

Wie imaginäre Häuser durch imaginäre Kapazitätsfaktoren mit Strom versorgt werden

Anton Lang, auch bekannt als TonyfromOz, ist ein weiterer Freiwilliger, der die Diagramme erstellt , für deren Erstellung CSIRO, AEMO, ARENA, ABC und AER Milliarden von Dollar erhalten, die sie uns aber vorenthalten wollen. Jahrelang fiel Tony auf, dass in den Werbeunterlagen für Windparks der Kapazitätsfaktor nicht erwähnt wurde. Es schien eine seltsame Lücke in der Dokumentation zu sein. Tony fiel auf, dass sie ihre Leistung normalerweise in die imaginäre Zahl von 1.000 Haushalten umrechneten, die sie versorgen würden, was ein reiner Marketingtrick ist. Sie geben irreführend vor, dass Windturbinen überhaupt in der Lage seien, beliebige Haushalte mit Strom zu versorgen. Als Tony die Anzahl der Haushalte zurückrechnete, stellte er fest, dass alle Unternehmen, die Windturbinen vermarkteten, einen Kapazitätsfaktor von 38 % annahmen, um den imaginären Haushaltswert zu ermitteln.

Er berechnete anhand seiner gesammelten Daten den Kapazitätsfaktor aller australischen Windkraftanlagen und stellte fest, dass dieser im Durchschnitt der letzten sieben Jahre bei knapp 30 % liegt. 2019 lag er zunächst bei etwa 31 %, ist aber gesunken, und im letzten Jahr lag der gleitende 12-Monats-Durchschnitt des Kapazitätsfaktors oft bei fast 27 %.

Vielen Dank an Angus McFarlane für das Diagramm, in dem wir den Rückgang der Windkraftkapazität sehen können:

In diesem Zeitraum stieg die Nennkapazität von 5,3 GW auf 13,5 GW. Trotz Designverbesserungen und des jungen Alters dieser Flotte verschlechtert sich der Kapazitätsfaktor, er verbessert sich nicht.

TonyfromOz, wind capacity

TonyFromOz bei PaPundits

Wie Angus McFarlane betont, verwendet GenCost den höchstmöglichen Kapazitätsfaktor auf der Oberseite, berechnet die „niedrige Option“ jedoch auf eine andere Weise, um zu verbergen, wie niedrig sie tatsächlich ist:

GenCost verwendet einen niedrigen Kapazitätsfaktor, der „10 % unter dem Durchschnitt “ liegt. Dies widerspricht der üblichen Ingenieurpraxis, bei der für den niedrigen Wert das 5. Perzentil verwendet wird. Beispielsweise verwendet IRENA 5. Perzentilwerte für niedrige Kapazitätsfaktoren. Darüber hinaus würde die Verwendung des 5. Perzentils für australische Windkraft zu einem niedrigen Kapazitätsfaktor von 19,5 % führen, was die Abneigung der CSIRO gegen die Verwendung dieses Werts erklären könnte.

Wenn wir doch nur eine wissenschaftliche Einrichtung hätten, die vom Steuerzahler finanziert würde und unvoreingenommene wissenschaftliche Beratung anbieten würde, oder?!

Drei Gründe für den Rückgang des wöchentlichen Kapazitätsfaktors

  • Erstens:  Die besten Standorte für Windkraftanlagen sind bereits vergeben. Alle windigsten Stellen in der Nähe von Strommasten, die noch Platz übrighaben, sind bereits bebaut. Neue Windkraftanlagen sind daher entweder weniger windig oder weiter von Ballungszentren entfernt.
  • Zweitens:  Egal, wie viele neue Turbinen installiert werden, die Hochdruckzellen decken immer noch das ganze Land ab, und daher fällt die zusätzliche Stromerzeugung meist dann an, wenn wir sie nicht brauchen. Mehr Turbinen bedeuten mehr Drosselung. Mehr Solarenergie bedeutet mehr Drosselung zur Mittagszeit.
  • Drittens:  Die Ausrüstung verschleißt ständig. Starkwindgebiete sind für den Bau jeglicher Infrastruktur schwierig. Wind, Sand, Staub, Eis und Salz greifen die Hinterkanten der Rotorblätter kontinuierlich an, was Turbulenzen verstärkt und die Effizienz mindert. Und der ständige Wind setzt Getriebe und Lager stark zu. Die Rotorblätter sind so schwer, dass sich der Rotor selbst bei Windstille langsam drehen muss, sonst werden die Lager platt.

Warum der Tiefpunkt wichtig ist

Die Zahlen in der obigen Grafik sind wöchentliche Durchschnittswerte. Wichtig ist aber auch der Kapazitätsfaktor an den schlechtesten Tagen und in der schlechtesten halben Stunde, denn dieser gibt Aufschluss darüber, wie viel Notstrom wir benötigen. In solchen Momenten kann der Kapazitätsfaktor eines ganzen Landes voller Windturbinen auf bis zu 0,7 % sinken. An einem schlechten Tag können Windkraftanlagen im Wert von 20 Milliarden Dollar in ganz Australien nur so viel Strom liefern wie zwei Dieselgeneratoren .

Wie viel Reservekapazität benötigen wir für ein 13,5-Gigawatt-Windkraftsystem? Die traurige Wahrheit lautet: etwa 13,4 Gigawatt. Die gesamte Windindustrie ist praktisch eine überflüssige Ergänzung zu einem zuverlässigen Stromnetz. Ihr größter Produktionsvorteil ist (angeblich) die Hoffnung, Stürme und Überschwemmungen in 100 Jahren zu verhindern. Sie kann unmöglich billiger sein als unser derzeitiges System, es sei denn, die Brennstoffkosten würden den größten Teil der Stromkosten ausmachen, was aber nicht der Fall ist.

Diese Hochdruckzellen wollen einfach nicht verschwinden:

Sehen Sie, wie groß diese schrecklichen Hochdruckgebiete sind, die den Wind auf dem gesamten Kontinent stoppen. Bringen Sie sie zum Stillstand!

Synoptic chart. Australia. Wind power

Wie TonyfromOz sagt: Ohne Isobaren gibt es keinen Wind …

Deprimierender weise führte Paul Miskelly die Berechnungen bereits 2012 durch und die Kapazitätsfaktoren lagen schon damals bei etwa 31 %. AEMO, CSIRO und AER wussten sicherlich schon immer, dass es nicht 35 %, 40 % oder 48 % waren. Sie lebten entweder von falschen Hoffnungen oder machten falsche Werbung.

Es ist Zeit, dass die australische Bevölkerung es erfährt.

 

REFERENZEN

Paul Miskelly, (2012) Windparks in Ostaustralien – Aktuelle Erkenntnisse, Energie & Umwelt 23(8):1233-1260, DOI: 10.1260/0958-305X.23.8.1233

Anton Lang veröffentlicht seine Arbeiten bei PaPundits.

— Demnächst mehr von Angus McFarlane zu den Übertreibungen und Fantasien von CSIROs GenCost. —

https://joannenova.com.au/2025/08/australian-wind-plants-only-working-at-27-of-full-capacity-and-the-long-term-trend-is-down/

 




Die Klimaextreme und Megadürren der Maya im Mittelalter

Link zum Aufmacherbild: Bernard DUPONT: El Castillo Pyramide, Westseite – Tulum Maya Site QR Feb 2020.jpg-
This file is licensed under https://creativecommons.org/licenses/by-sa/2.0/

Von Jo Nova

13 Jahre lange Megadürre während der mittelalterlichen Warmzeit könnte das Ende der Maya bedeuten

Eine etwas unheimliche neue Studie zeigt die jährlichen Niederschlagsmuster von vor tausend Jahren auf der mexikanischen Halbinsel Yucatán. Sie ist so detailliert, dass jede Dürreperiode einzeln aufgelistet wird, darunter 13 ununterbrochene Dürrejahre von 929 bis 942 n. Chr. Es ist ein bisschen so, als hätte jemand die Aufzeichnungen des Maya Bureau of Meteorology von vor tausend Jahren ausgegraben (nur dass es besser ist, denn es handelt sich um einen Stein ohne Politik).

Dies ist eine der hochauflösendesten Aufzeichnungen tropischer Stalagmiten, die jemals veröffentlicht wurden. Jedes Jahr wuchs der Stalagmit um bis zu einen Millimeter, was eine Analyse von Jahr zu Jahr ermöglichte – oder sogar 12 Datenpunkte pro Jahr.

Während dieser Ära des perfekten CO2-Gehalts litten die armen Maya-Wüsten aus unerklärlichen Gründen unter extremen Schwankungen von Nässe zu Trockenheit, die sich dicht an dicht stapelten. Das Klima war chaotisch. Auf Dürren folgten Überschwemmungen. Es ähnelt auf unheimliche Weise den „Klimaextremen“, die uns angeblich durch menschengemachte Emissionen verursacht werden.

Es ist ernüchternd, wenn man bedenkt, dass die Maya-Zivilisation fast 3.700 Jahre lang existierte. Auf ihrem Höhepunkt schätzte man ihre Bevölkerung auf etwa 5 Millionen Menschen, doch neuere Schätzungen mit Lidar-Kartierung lassen auf bis zu 10 oder sogar 16 Millionen Menschen schließen. Die Maya-Zivilisation begann um 2.000 v. Chr. und erreichte ihren Höhepunkt um 700 n. Chr., bevor sie in der „Periode des endgültigen Zusammenbruchs“ von 800 bis 1000 n. Chr. verfiel. Kleinere Inseln der Zivilisation überlebten Jahrhunderte lang bis zur spanischen Eroberung 1697. Noch heute sprechen rund 6 Millionen Menschen Maya-Sprachen.

https://www.science.org/doi/10.1126/sciadv.adw7661

Der Stalagmit Tzab06-1 wurde 2006 aus Grutas Tzabnah in der Nähe von Tecoh, Yucatán, Mexiko ( Abb. 1 und Text S1) geborgen. Die Höhle befindet sich in der Nähe mehrerer großer Stätten der klassischen Maya (vor allem Chichén Itzá und zahlreiche Stätten in der Puuc-Region wie z. B. Uxmal) und unterlag demselben regionalen Klimaregime wie die großen Bevölkerungszentren der späten klassischen Zeit im Nordwesten von Yucatán ( 29 ). Der Stalagmit weist in dem Abschnitt, der zwischen ca. 870 und 1100 n. Chr. entstand, sichtbare Lamellen auf (siehe Materialien und Methoden und Abb. 2C ). Wir interpretieren jede Lamelle als ein einzelnes Ablagerungsjahr, was durch zyklische Schwankungen von δ18O und/oder δ13C gestützt wird , die jahreszeitliche Unterschiede im Niederschlag widerspiegeln ( 3032 ) (siehe Materialien und Methoden und Abb. S1 und S2). Wir haben ein Altersmodell mithilfe einer Floating-Layer-Counting-Chronologie erstellt, die an 15 U-Th-Ungleichgewichtsaltern verankert ist (siehe Materialien und Methoden und Abb. 2 ).

Das südliche Tiefland (wo sich diese Höhle befindet) wurde nach 1000 n. Chr. nie wieder urbanisiert. Die Megadürren scheinen der Gnadenstoß gewesen zu sein.

Der Stalagmit Tzab06-1 wurde 2006 aus Grutas Tzabnah in der Nähe von Tecoh, Yucatán, Mexiko ( Abb. 1 und Text S1) geborgen. Die Höhle befindet sich in der Nähe mehrerer großer Stätten der klassischen Maya (vor allem Chichén Itzá und zahlreiche Stätten in der Puuc-Region wie z. B. Uxmal) und unterlag demselben regionalen Klimaregime wie die großen Bevölkerungszentren der späten klassischen Zeit im Nordwesten von Yucatán ( 29 ). Der Stalagmit weist in dem Abschnitt, der zwischen ca. 870 und 1100 n. Chr. entstand, sichtbare Lamellen auf (siehe Materialien und Methoden und Abb. 2C ). Wir interpretieren jede Lamelle als ein einzelnes Ablagerungsjahr, was durch zyklische Schwankungen von δ18O und/oder δ13C gestützt wird , die jahreszeitliche Unterschiede im Niederschlag widerspiegeln ( 3032 ) (siehe Materialien und Methoden und Abb. S1 und S2). Wir haben ein Altersmodell mithilfe einer Floating-Layer-Counting-Chronologie erstellt, die an 15 U-Th-Ungleichgewichtsaltern verankert ist (siehe Materialien und Methoden und Abb. 2 ).

„Selbst mit den Wassermanagementtechniken der Maya hätte eine so lange Dürre schwerwiegende Auswirkungen auf die Gesellschaft gehabt.“

Palenque von Chrisi1964 – This file is licensed under the Creative Commons Attribution-Share Alike 4.0 International license.

Niemand erwähnt die mittelalterliche Warmzeit, aber es war die Zeit, in der es in Europa wärmer wurde:

Mexikanische Höhlenstalagmiten enthüllen die tödlichen Dürren hinter dem Zusammenbruch der Maya

[ScienceDaily] Chemische Nachweise aus einem Stalagmiten in Mexiko haben ergeben, dass der Niedergang der klassischen Maya-Zivilisation mit wiederholten schweren Dürren in der Regenzeit zusammenfiel, darunter eine, die 13 Jahre andauerte. Diese anhaltenden Dürren gingen mit Baustopps und politischen Unruhen an wichtigen Maya-Stätten einher. Dies deutet darauf hin, dass Klimastress eine entscheidende Rolle beim Zusammenbruch spielte. Die Ergebnisse zeigen, wie Stalagmiten eine unübertroffene Präzision bieten, um Umweltveränderungen mit historischen Ereignissen in Verbindung zu bringen.

Den im Stalagmiten enthaltenen Informationen zufolge gab es zwischen 871 und 1021 n. Chr. acht mindestens drei Jahre andauernde Dürreperioden in der Regenzeit. Die längste Dürreperiode dieser Zeit dauerte 13 Jahre. Selbst mit den Wassermanagementtechniken der Maya hätte eine so lange Dürre schwerwiegende Auswirkungen auf die Gesellschaft gehabt.

Die im Stalagmiten enthaltenen Klimainformationen stimmen mit den Daten überein, die die Maya in ihre Monumente eingraviert haben. In Zeiten anhaltender und schwerer Dürre kam es an Stätten wie Chichén Itzá überhaupt nicht mehr zu Datumseingrabungen.

Die im Jahr 1020 n. Chr. erwähnte Wachstumspause wurde auch in anderen Studien nachgewiesen und war offenbar so trocken, dass das Wachstum der Stalagmiten dramatisch verlangsamt wurde. Man stelle sich vor, die gesamte Region war selbst ohne Allradfahrzeuge, Ölplattformen oder Kohlekraftwerke einem starken hydroklimatischen Stress ausgesetzt.

Mit anderen Worten: Egal, wann und wo Sie lebten, irgendwo konnte ein Medizinmann sagen, dass sich das Klima änderte.

Der Stalagmit wuchs nicht nur ungewöhnlich schnell, sondern sie nutzten auch mehrere Proxies (δ¹⁸O, δ¹³C, Mg/Ca-, Sr/Ca-Verhältnisse sowie das U-Th-Verhältnis zur Datierung der Schichten). Sie konnten die Schichten mit anderen Studien sowie mit Schnitzereien auf Denkmälern und anderen archäologischen Funden in Einklang bringen. Die Forscher geben an, dass bei der Datierung eine Altersunsicherheit von ±6 Jahren besteht.

REFERENZ

Daniel H. James, Stacy A. Carolin, Sebastian FM Breitenbach, Julie A. Hoggarth, Fernanda Lases-Hernández, Erin A. Endsley, Jason H. Curtis, Christina D. Gallup, Susan Milbrath, John Nicolson, James Rolfe, Ola Kwiecien, Christopher J. Ottley, Alexander A. Iveson, James UL Baldini, Mark Brenner, Gideon M. Henderson, David A. Hodell. Klassische Maya-Reaktion auf mehrjährige saisonale Dürren im Nordwesten von Yucatán, Mexiko . Science Advances , 2025; 11 (33) DOI: 10.1126/sciadv.adw7661

Der fragliche Stalagmit, genannt Tzab06-1, wurde 2006 von Grutas Tzabnah in der Nähe von Tecoh, Yucatán, Mexiko, erhalten

https://joannenova.com.au/2025/08/the-mayan-climate-extremes-and-megadroughts-of-the-medieval-era/