Sunnova-Insolvenz signalisiert harte Zeiten für die Solarbranche

Das globale Wachstum der Solarenergie war auf hohe staatliche Subventionen angewiesen. Mit dem Wegfall der Subventionen dürfte der Sektor schrumpfen.

The Daily Economy, American Institute for Economic Research
Paul Mueller, 18. Juni 2025

Einer der größten Solarinstallateure für Privathaushalte, Sunnova, ging am 8. Juni pleite. Das Unternehmen hatte vor weniger als einem Jahr Schulden in Höhe von über 10 Milliarden Dollar und eine Marktkapitalisierung von über einer Milliarde Dollar. Während aggressive Expansionsinvestitionen und schlechtes Management einige der Probleme von Sunnova erklären, sah sich das Unternehmen auch mit erheblichen politischen Problemen konfrontiert: hohe Zinsen, höhere Kosten durch Inflation, Unsicherheit und höhere Kosten durch Zölle sowie das Einfrieren der Subventionen aus dem Inflationsschutzgesetz.

Kenner der Branche erinnern sich vielleicht an Solyndra, ein gescheitertes Solarunternehmen, das einen 500-Millionen-Dollar-Kredit von der Bundesregierung erhalten hatte. Manche behaupten , eine 3-Milliarden-Dollar-Kreditgarantie für Sunnova unter der Biden-Regierung sei eine größere Version von Solyndra. Das ist falsch.

Eine Kreditbürgschaft unterscheidet sich von einem Kredit. Der Bürge verpflichtet sich, die Differenz zwischen der vereinbarten und der tatsächlichen Zahlung eines säumigen Kreditnehmers zu übernehmen. Die 3-Milliarden-Dollar-Kreditbürgschaft betraf zudem Verbraucherkredite für die Installation von Solarmodulen und nicht Kredite, die direkt an Sunnova vergeben wurden. Schließlich wurden im Rahmen dieses Kreditbürgschaftsprogramms weniger als 50 Millionen Dollar an Krediten vergeben, bevor die Trump-Regierung es letzten Monat kündigte. Das bedeutet, zumindest auf Bundesebene, dass die Solyndra-Pleite die Steuerzahler mindestens zehnmal so viel kostete.

Neben der staatlichen Kreditgarantie verdeutlicht die Sunnova-Pleite viele der Verzerrungen, die Regierungen im Solarenergiesektor verursacht haben. Aber es ist auch persönlich: Ich habe Sunnova Solarmodule auf meinem Haus in New Jersey installiert und kann berichten, wie staatliche Anreize meine Entscheidung beeinflusst haben.

Die Solaranlage, die Sunnova mir verkaufte, hatte einen Listenpreis von etwa 20.000 Dollar. Ich schätze, dass ich dadurch 80 bis 120 Dollar pro Monat an Stromkosten gespart habe. Sagen wir also 1200 Dollar Energieeinsparung pro Jahr. Das entspricht einer Kapitalrendite von 6 Prozent. Nicht schlecht, aber auch nicht überragend – vor allem angesichts der hohen Anschaffungskosten und der Tatsache, dass die Module mit der Zeit an Wert verlieren. Aber wenn man die staatlichen und bundesweiten Subventionen berücksichtigt, war die Installation von Solaranlagen ein Kinderspiel.

Damals gewährte die Bundesregierung eine 30-prozentige Steuergutschrift auf Solarmodule. Dadurch sank der Preis von 20.000 auf 14.000 Dollar. Die Rendite meiner jährlichen Ersparnis von 1.200 Dollar stieg auf 8,6 Prozent. Dann griff die staatliche Förderung.

Einige Bundesstaaten praktizieren eine sogenannte Net-Metering -Praxis , bei der Energieversorger den Eigentümern von Solarenergie für den von ihnen ins Netz eingespeisten Strom eine Vergütung zahlen müssen. Diese Methode bringt viele Komplikationen und Probleme mit sich, über die wir uns hier keine Gedanken machen müssen. In meinem Fall verlangte New Jersey von den Energieerzeugern, die Solarstromerzeugung zu „kaufen“. Für jede zusätzliche Tausend Kilowattleistung, die meine Solarmodule erzeugten, könnte ich – wohlgemerkt zu meinem eigenen Vorteil – ein sogenanntes SREC (Solar Renewable Energy Certificate) generieren und an einer Börse verkaufen.

Die Preise für SRECs lagen zwischen 200 und 240 US-Dollar, als ich das System besaß und es 2–3 SRECS pro Jahr generierte. Das entspricht etwa 500 US-Dollar pro Jahr an zusätzlichen Direktzahlungen an mich, den Eigentümer der Solarmodule, und meine Rendite steigt auf 12 Prozent – kein schlechtes Geschäft. Also kauften ich und Tausende andere Solarmodule.

Und das ist die Berechnung mit nur zwei Subventionen. Je nach Zeitpunkt, Ort und Art des Kaufs gibt es Dutzende weiterer Förderformen für Solarmodule. Womit wir wieder bei der Sunnova-Pleite und der Situation der Solarenergie in den USA wären.

Die Solarenergie hat sich im letzten Jahrzehnt zu einer enormen Industrie entwickelt. Dies ist unter anderem auf die rasante technologische Entwicklung und die enorme Vielseitigkeit zurückzuführen. Die verbesserte Technologie hat zu Solarmodulen mit höherer Effizienz und niedrigeren Produktionskosten geführt. Es werden auch Solarmodule entwickelt, die Sonnenlicht von beiden Seiten einfangen können. Verbesserungen bei Materialien wie organischer Photovoltaik und ultradünnem Silizium führen zu dünnen, biegsamen und leichten Solarmodulen, die in verschiedene Oberflächen – einschließlich Fenster und Fassaden – integriert werden können, da transparente Solarmodule Realität werden.

Die wirtschaftliche Frage dreht sich jedoch nicht nur darum, wie beeindruckend die Solartechnologie ist, sondern auch darum, ob die Kosten für Produktion, Installation und Wartung von Solarmodulen durch ihren direkten Nutzen für die Verbraucher gerechtfertigt sind. Umweltaktivisten, opportunistische Politiker und die Solarlobby verschleierten die Antwort auf diese Frage, indem sie massive indirekte Klimavorteile durch Solarenergie behaupteten und Solaranlagen bei jeder sich bietenden Gelegenheit subventionierten – was zu meiner Geschichte führt.

Solarenergie (und auch Windenergie) ist als großflächige Stromquelle für das Stromnetz mit mehreren gravierenden Problemen verbunden. Das größte Problem ist ihre schwankende Verfügbarkeit. Solarmodule erzeugen nachts keinen Strom. Auch bei Bewölkung ist die Stromerzeugung unzuverlässig – sie schwankt je nach Jahreszeit und kann nicht an den Strombedarf der Bevölkerung angepasst werden – beispielsweise bei Unwettern. Die wichtigste Lösung für dieses Problem sind massive Energiespeicher (im Grunde riesige Batterien), deren Bau in großem Maßstab unerschwinglich teuer ist.

Ein weiteres oft übersehenes Problem sind die Übertragungskosten. Die besten Standorte für Solaranlagen befinden sich nicht unbedingt in der Nähe von Orten mit hohem Strombedarf. Tatsächlich sind die Opportunitätskosten für Grundstücke in Städten mit hohem Strombedarf deutlich höher als in ländlichen Gebieten. Der Bau von Übertragungsleitungen ist jedoch teuer und wird in der Kosten-Nutzen-Analyse von Solaranlagen meist nicht berücksichtigt, da die Regulierungsbehörden von den Versorgungsunternehmen (eigentlich von deren Stromzahlern) verlangen, die Kosten für den Bau der Übertragungsleitungen zu tragen.

Der explosionsartige Anstieg der Solarenergie wurde durch hohe staatliche Subventionen weltweit vorangetrieben. Wenn diese Subventionen versiegen oder ganz eingestellt werden, beispielsweise durch das Einfrieren der Mittel des Inflationsreduktionsgesetzes durch die aktuelle Regierung oder den aggressiven Abbau der Subventionen für erneuerbare Energien im Rahmen des „Big Beautiful Bill“, ändert sich auch die Kosten-Nutzen-Rechnung für Solarenergie. Auch ohne Subventionen wird es einen Markt für Solarenergie geben. Er wird nur deutlich kleiner sein. Sollte das der Fall sein, steht uns ein stürmischer Himmel für Solarunternehmen aller Art bevor. Die Insolvenz von Sunnova ist wahrscheinlich eher der Anfang als das Ende der Probleme der Solarinvestoren.

Paul Mueller

Paul Mueller ist Senior Research Fellow am American Institute for Economic Research. Er promovierte in Wirtschaftswissenschaften an der George Mason University. Zuvor lehrte Dr. Mueller am King’s College in New York City.

Seine wissenschaftlichen Arbeiten wurden in zahlreichen Fachzeitschriften veröffentlicht

https://thedailyeconomy.org/article/sunnova-bankruptcy-signals-tough-times-for-solar/

###

PV in Deutschland – meine kurze Recherche mit Google: kfw-kredit photovoltaik rechner

Ist PV 2025 noch steuerfrei?

Die Photovoltaik Mehrwertsteuer. bleibt auch 2025 bei 0 Prozent! Diese wegweisende Entscheidung der Bundesregierung, die ursprünglich durch das Jahressteuergesetz 2022 eingeführt wurde, gilt weiterhin unverändert.

Welche Förderungen gibt es für PV-Anlagen 2025?

Die maximale Fördersumme beträgt 1.000 Euro. Für PV-Anlagen an der Außenfassade bekommen Sie ebenfalls 100 Euro pro Kilowatt-Peak. Hier können Sie bis zu 3.000 Euro Förderung erhalten. Bei fassadenintegrierten PV-Modulen erhöht sich die Förderung auf 300 Euro pro Kilowatt-Peak, maximal 9.000 Euro.22.05.2025

Kann ich die Installation einer Photovoltaikanlage von der Steuer absetzen?

Kann man eine Photovoltaikanlage privat steuerlich absetzen? Ja, seit 2024 können Sie die Arbeitskosten für Installation und Wartung als Handwerkerleistung mit 20% von der Steuer absetzen. Zudem fallen für Anlagen bis 30 kWp keine Mehrwertsteuer und Einkommensteuer mehr an.17.10.2024

Handwerkerkosten: Höchstgrenzen ausreizen und Geld sparen

Wer im Jahr 2024 einen Handwerker mit Arbeiten in seinem Privathaushalt beauftragt, kann dafür in der Steuererklärung 2024 eine Steuerermäßigung für Handwerkerleistungen beantragen.

Steuerlich absetzbar sind Nettokosten bis maximal 6.000 Euro, und zwar für die Arbeitsleistung ohne Materialkosten. Die Steueranrechnung beträgt 20 % der in Rechnung gestellten Leistung, also maximal 1.200 Euro pro Jahr.

  ********

Ergänzung:

Das Net-Metering-System-Dilemma

Versorgungsunternehmen in regulierten und deregulierten Staaten haben sehr hohe Fixkosten, die die Kosten für Bau, Betrieb und Wartung eines Verteilnetzes decken. Sie müssen die Verteilermasten, Leitungen, Zähler und alle weiteren notwendigen Geräte warten, um alle Kunden Tag und Nacht, bei gutem und schlechtem Wetter zuverlässig mit Strom zu versorgen – und das alles bei ständiger Investition in neue Technologien. Größere Kunden zahlen ihren Anteil an diesen Fixkosten in der Regel in ihrem Verbrauchstarif (in Dollar pro kWh) – abhängig von ihrem Spitzenverbrauch in einem Zeitraum von 15, 30 oder 60 Minuten, je nach Versorgungsunternehmen. Die meisten Privat- und Kleinkunden zahlen jedoch nur einen geringen monatlichen Fixpreis, in den alle weiteren Nebenkosten pro kWh eingerechnet sind. Das bedeutet, dass ein Kunde, der den gekauften Strom mit den erzeugten kWh verrechnet und so nahezu null kWh abrechnet, nicht zu den Fixkosten für die Wartung des von ihm genutzten Systems beiträgt. Je mehr Kunden die Möglichkeit der Nettomessung nutzen, desto weniger Fixkosten fallen an, was zu höheren Tarifen für Kunden ohne Nettomessung führt. …..

Net-Metering-Richtlinie: Eine vielversprechende Lösung

Durch die Erhöhung der monatlichen Fixkosten für Privatkunden und die Senkung des kWh-Preises könnten die Kosten unabhängig von der abgerechneten Strommenge gedeckt werden. Leider würde diese Strategie zu höheren monatlichen Rechnungen für Kunden mit geringerem Einkommen und geringerem Stromverbrauch führen. Niedrigere kWh-Kosten untergraben zudem einen wichtigen Anreiz zum Stromsparen. Gleichzeitig würden diejenigen, die Net Metering betreiben – ob Kunden oder Geräteanbieter – weniger profitieren, und der Ausbau der erneuerbaren Energien würde sich verlangsamen. ….

https://www.engieimpact.com/insights/net-metering-becoming-controversial




Behörden ignorieren ihre eigenen Forschungen zu Vögel tötenden Windmühlen

David Wojick

Das US-Energieministerium (DOE) betreibt ein laufendes Forschungsprogramm zur Erkennung und Verhinderung des Tötens von Adlern und anderen fliegenden Spezies durch Windkraftanlagen. Der Fish and Wildlife Service (FWS) erteilt Genehmigungen zur Tötung von Adlern an Windkraftanlagen, die Technologien zur Minimierung der Todesfälle einsetzen sollen.

Es sieht so aus, als hätte der FWS noch nie eines der Forschungsprodukte des DOE umgesetzt oder gar öffentlich bewertet. Die Genehmigungen werden im Rahmen des Eagle Protection Act erteilt, der eindeutig die Minimierung des Todes von Adlern fordert, und die DOE-Produkte behaupten, dies zu tun. Dies ist ein eklatantes Manko.

Hier sind zum Beispiel vier DOE-Forschungsberichte aus den Jahren 2021-22, die der FWS schon seit geraumer Zeit einsehen konnte:

“A Heterogeneous System for Eagle Detection, Deterrent, and Wildlife Collision Detection for Wind Turbines” [etwa: Ein heterogenes System zur Erkennung von Adlern, zur Abschreckung und zur Erkennung von Kollisionen mit Wildtieren bei Windkraftanlagen]

Technical Report – Januar 2021, https://www.osti.gov/biblio/1776624

“Golden Eagle Behavioral Modeling Enabled by High-Fidelity Atmospheric Models” [etwa: Modellierung des Verhaltens von Steinadlern durch zuverlässige Atmosphärenmodelle]

Conference presentation – 27. Mai 2021, https://www.osti.gov/biblio/1785690

“SSRS (Stochastic Soaring Raptor Simulator)”

Software – 18 Oktober 2021, https://www.osti.gov/biblio/1820973

“Evaluating the effectiveness of a camera-based detection system to support informed curtailment and minimize eagle fatalities at wind energy facilities” [etwa: Bewertung der Wirksamkeit eines kamerabasierten Erkennungssystems zur Unterstützung einer sachkundigen Einschränkung und Minimierung des Todes von Adlern an Windenergieanlagen]

Technical Report – 27. Januar 2022, https://www.osti.gov/biblio/1885528

Hier ein aktuelles Beispiel:

„Evaluating the Effectiveness of a Detection and Deterrent System in Reducing Golden Eagle Fatalities at Operational Wind Facilities“ [etwa: Bewertung der Wirksamkeit eines Detektions- und Abschreckungssystems zur Verringerung der Todesfälle von Steinadlern an in Betrieb befindlichen Windkraftanlagen]

Technical Report – 30. Mai 2024, https://www.osti.gov/biblio/2473238

Die DOE-Forschung läuft schon seit mindestens einem Jahrzehnt. Sie könnte hiermit begonnen haben:

“Wind Energy Industry Eagle Detection and Deterrents: Research Gaps and Solutions Workshop Summary Report” [etwa: Windenergie-Industrie Adler-Erkennung und Abschreckungsmaßnahmen: Forschungslücken und Lösungen – Workshop-Zusammenfassungsbericht]

Technical Report – 13. April 2016, https://www.osti.gov/biblio/1248080

Das DOE befasst sich auch mit anderen Vögeln und Fledermäusen. (Es wird geschätzt, dass durch Windkraftanlagen mehr Fledermäuse als Vögel getötet werden). Hier ein aktuelles Beispiel:

“Activity-Based Informed Curtailment: Using Acoustics to Design and Validate Smart Curtailment to Reduce Risk to Bats at Wind Farms” [etwa: Aktivitätsbasierte, informierte Abschaltung: Einsatz von Akustik zur Entwicklung und Validierung intelligenter Abregelungen zur Verringerung des Risikos für Fledermäuse in Windparks]

Technical Report – 15. Januar 2025, https://www.osti.gov/biblio/2530738

“Evaluation of the Turbine Integrated Mortality Reduction (TIMRSM) Technology as a Smart Curtailment Approach (Final Summary Report)” [etwa: Bewertung der Technologie zur integrierten Reduzierung der Turbinensterblichkeit (TIMRSM) als intelligentes Konzept zur Reduzierung der Stromerzeugung (Abschlussbericht)]

Technical Report – 14.Juli 2024, https://www.osti.gov/biblio/2397339

Es gibt sogar Forschungsarbeiten, die ich morbide amüsant finde. Sie haben den Prototyp eines Luftgewehrs entwickelt, mit dem Projektile, die Vögeln und Fledermäusen nachempfunden sind, in Windmühlen geschossen werden, um tödliche Zusammenstöße zu simulieren. Siehe hier:

“Design of a Launcher for Wildlife Collision Simulation on Wind Turbines to Validate Strike Detection Systems” [etwa: Entwurf eines Startgeräts für die Simulation von Wildtierkollisionen mit Windturbinen zur Validierung von Systemen zur Erkennung von Kollisionen]

Conference presentation – 17. Oktober 2024, https://www.osti.gov/biblio/2473214

Die Erkennung von Kollisionen ist wichtig, um zu wissen, wie viele Tiere tatsächlich getötet werden, vor allem auf See, wo man nicht einfach die Kadaver zählen kann. Auch einige vorgeschlagene Minderungssysteme nutzen sie. Es wurden offenbar zwei Systeme zur Erkennung von Kollisionen getestet, und beide haben funktioniert.

Hier sind einige interessante Merkmale:

„Projektil-Design: Die Projektile hatten eine Größe von 8 g, 25 g und 250 g. Sie bestanden aus geschmacksneutraler Gelatine und lasergeschnittenem Balsaholz, um Fleisch und Knochen zu simulieren und gleichzeitig aerodynamische Eigenschaften zu haben, die eine wiederholbare Flugbahn ermöglichen würden. Die Gelatinemischung enthielt auch eine Spur von konzentriertem Kojotenurin, um Wildtiere davon abzuhalten, die Projektile am Boden zu verzehren, bevor sie sich zersetzen konnten.“

Konzentrierter Kojotenurin scheint ein esoterisches Produkt zu sein. Auf jeden Fall handelt es sich nur um einen Prototyp, denn das größte Projektil wiegt etwas mehr als ein halbes Pfund und wurde gerade auf ein 1,5-MW-Testwindrad abgefeuert. Es handelt sich um synthetische Fledermäuse und kleine Vögel.

Adler können bis zu 15 Pfund wiegen, und der Abschuss von Projektilen dieser Größe auf Windräder mit 3 bis 4 MW könnte spektakulär sein. Es ist nicht einfach, die Flügel zu treffen, die Spitzengeschwindigkeiten über 300 km/h haben können. Berichten zufolge liegt die Trefferquote bei 35 %, so dass dies zu einem Sport oder sogar zu einem Wettbewerb werden könnte.

Ich kann keinen Hinweis darauf finden, dass der Fish and Wildlife Service den Einsatz dieser verschiedenen Technologien im Zusammenhang mit der Genehmigung der Tötung von Adlern überhaupt prüft. Sie konzentrieren sich ausschließlich auf ein Programm zum Ausgleich von Stromschlägen, das nicht funktioniert.

Siehe meinen Artikel „Wind power’s eagle-kill permits are a deadly failure, so permitting must stop“ [etwa: Genehmigungen für die Tötung von Adlern durch Windenergie sind ein tödlicher Fehlschlag, deshalb müssen die Genehmigungen gestoppt werden].

Weitere Beiträge zum Thema:

How much wind killing do we want?

The Feds are Hiding the Eagle Death Data

Link: https://wattsupwiththat.com/2025/06/27/feds-ignore-their-research-on-windmills-killing-eagles/

Übersetzt von Christian Freuer für das EIKE

 




Eine 485 Millionen Jahre lange Historie schlechter Wissenschaft

Willis Eschenbach, mit Dank an Moderator Charles Rotter für obiges Bild

[Alle Hervorhebungen im Original. A. d. Übers.]

Vor ein paar Tagen habe ich eine weitere Analyse von mir mit dem Titel „pHony Alarmism“ veröffentlicht [in deutscher Übersetzung hier]. Nehmen Sie sich einen Moment Zeit, um diese zu lesen, falls Sie es noch nicht getan haben, denn dies ist eine Fortsetzung. In beiden geht es um eine neue Studie im Science Magazine mit dem Titel „A 485-million years history of Earth’s surface temperature“, die natürlich kostenpflichtig ist.

Eine kurze Abschweifung. Einer der Vorteile, die ich aus der Veröffentlichung der Ergebnisse meiner wissenschaftlichen Untersuchungen im Internet und der Interaktion mit den Kommentatoren ziehe ist, dass meine Fehler nicht lange anhalten. Falls ich auf die schiefe Bahn gerate – wohlgemerkt, ich habe nicht „wenn“ gesagt – dauern meine Fehler selten länger als einen Tag, bevor ich auf sie hingewiesen werde und sie überdenken und korrigieren kann.

Aber das ist nur einer der Gründe, warum es von Vorteil ist, für das Internet zu schreiben und dann dabei zu bleiben. Vielleicht noch wichtiger ist, dass die Leute mir interessante Fragen stellen und mich auf übersehene Möglichkeiten hinweisen können, die es zu untersuchen gilt.

Hier ist ein Beispiel. In einer Antwort auf meinen gestrigen Beitrag erhielt ich das hier:

Jeff Alberts, 25. Juni 2025 16:26: Keine Graphik mit CO₂ und pH-Wert zusammen?

Meine Antwort: Sie werden zu unterschiedlichen Zeiten abgetastet. Ich könnte in beide Richtungen interpolieren. Ich habe darüber nachgedacht und dann entschieden, dass das genug für einen Beitrag ist. Moment mal … wir wissen, dass der pH-Wert in gewissem Sinne proportional zum Logarithmus des CO₂-Wertes ist. Gib mir eine Minute …

Nach einer Weile kam ich zurück und sagte: …nun, natürlich dauert es länger als eine Minute, aber es ist höchst interessant. Wie es aussieht, wird das Thema meines nächsten Beitrags sein. Bleiben Sie dran.

Dies ist der nächste Beitrag. Ende der Abschweifung.

Einer der Gründe, warum ich mir die grafische Darstellung von pH-Wert und CO₂ nicht angesehen habe war, dass mir zu verstehen gegeben wurde, dass das Verfahren zur Berechnung des pH-Werts sehr komplex sei. In der Arbeit (oder zumindest in den ergänzenden Informationen (PDF)) heißt es (die Arbeit selbst ist kostenpflichtig):

4.3 Schätzung der zeitlichen Variabilität von pHsw [pH-Wert des Salzwassers]

Sowohl die ¹⁸O-Karbonat- als auch die Mg/Ca-Werte werden durch Änderungen des pH-Wertes beeinflusst (102, 125). Zeitlich gesehen variiert der pH-Wert des Oberflächenwassers weitgehend in Abhängigkeit vom atmosphärischen CO₂, obwohl auch andere Aspekte des Karbonatsystems, wie die Alkalinität, eine Rolle spielen. Hier haben wir zwei Ansätze zur Schätzung des pHsw gewählt und, ähnlich wie bei unserem Ansatz für den globalen 18Osw, Assimilationen mit beiden Methoden durchgeführt.

Im ersten Ansatz haben wir den globalen durchschnittlichen pHsw aus den Modellprioren vorwärts modelliert (d. h. die „Modellprior-pH“-Methode). Wir verwendeten die vorgeschriebenen CO₂- und globalen mittleren SST-Werte jedes Ensemble-Mitglieds, um den pHsw mithilfe der CO₂SYS-Funktion für Matlab (126) zu schätzen. Als zweite Randbedingung für das Karbonatsystem wiesen wir die global gemittelte Alkalinität zu, von der wir annahmen, dass sie normal verteilt ist, wobei die Werte zufällig aus [N(2300, 100)] gezogen wurden, basierend auf der modernen Verteilung, die durch das GLODAPv2-Gitterprodukt (127) beschrieben wird (mittlere moderne Alkalinität = 2295 µ/kg). Wir haben auch globale Salzgehaltswerte aus einer Normalverteilung von [N(34, 2)] gezogen, die auf dem World Ocean Atlas 2013 Gitterprodukt basiert, das einen globalen mittleren Salzgehalt von 34,5 psu angibt. Beachten Sie, dass die CO₂SYS-Berechnung nicht sehr empfindlich auf den Salzgehalt reagiert.

Im zweiten Ansatz schätzten wir den pHsw anhand der CO₂-Werte aus unserer Proxydaten-Rekonstruktion (d. h. die „CO₂-Proxy-pH“-Methode; Abb. S10; siehe Abschnitt 7). Wir generierten ein Ensemble von 2.500 potenziellen pHsw-Werten für jede Stufe des Phanerozoikums unter Verwendung des unten beschriebenen CO₂-Ensembles (siehe Abschnitt 7) und der CO₂SYS-Funktion für Matlab (126). Die Alkalinität wurde wieder zufällig aus [N(2300, 100)] und der Salzgehalt aus [N(34, 2)] gezogen. Die Werte für die Temperatur wurden ebenfalls aus einer breiten Gleichverteilung [U(10, 35)] gezogen (Abb. S10D).

Der erste Ansatz reflektiert die wahrhaftigste Form von vorwärts modellierten Proxy-Schätzungen (Yest), da die pHsw-Werte spezifisch für jedes Ensemble-Mitglied sind und auf vorherigen Informationen basieren. Ein zusätzlicher Vorteil dieser Methode besteht darin, dass die GMST-Schätzungen völlig unabhängig von der CO₂-Rekonstruktion sind, was es uns ermöglicht, die Beziehung zwischen diesen beiden Variablen ohne das Risiko eines Zirkelschlusses zu untersuchen. Die Zuverlässigkeit der Ergebnisse hängt jedoch von der Annahme ab, dass HadCM3L die Beziehung zwischen Temperatur und CO₂ (d. h. die Klimasensitivität) korrekt wiedergibt.

Der zweite Ansatz beseitigt diese Abhängigkeit und macht die Ergebnisse unabhängig von der Klimasensitivität von HadCM3L, beseitigt aber bis zu einem gewissen Grad auch die Unabhängigkeit zwischen GMST und den rekonstruierten CO₂-Werten. Diese Abhängigkeit ist jedoch gering, zumal die Multiproxy-Natur der Assimilation bedeutet, dass es in den meisten, aber nicht in allen Phasen zumindest einige Daten gibt, die völlig unabhängig von den CO₂-Schätzungen sind (d. h. die U K0 37-, TEX86- und ¹⁸Ophosphat-Daten). In Anlehnung an die Strategie, die wir für die Unsicherheiten bei den globalen ¹⁸Osw-Werten gewählt haben, enthalten unsere Ergebnisse Assimilierungen, die beide Methoden verwenden (siehe Abschnitt 5).

Zur Untersuchung der ersten Methode, der Berechnung des pH-Werts anhand der CO₂-Werte, habe ich die R-Version der oben erwähnten CO₂SYS-Funktion verwendet. Die Funktion setzt voraus, dass wir die Alkalinität zu jedem Zeitpunkt kennen, wenn man den pH-Wert berechnet. Aber sie kennen den Alkalinitätswert nicht, also verwenden sie stattdessen eine vage beschriebene Monte-Carlo-Analyse.

Diese Analyse hätte mich viele Experimente gekostet, um sie zu wiederholen, ohne Erfolgsgarantie. Da mein vorheriger Beitrag schon ziemlich lang war, habe ich die Frage der Gültigkeit des pH-Werts nicht weiter verfolgt und in meinem vorherigen Beitrag lediglich darauf hingewiesen, dass die pH-Berechnung unsicher ist. Ich sagte:

„Auf jeden Fall enthält die Studie auch eine Grafik des pH-Werts des Ozeans im gleichen Zeitraum. Wie genau ist sie? Ebenfalls unbekannt. Vermutlich ist es jedoch unsere derzeit beste Schätzung der Schwankungen des ozeanischen pH-Werts über 485 Millionen Jahre.“

Um es zusammenzufassen: Ich hatte erwartet, dass es eine subtile, komplexe, unbekannte Beziehung zwischen CO₂ und pH-Wert geben würde, da diese Beziehung sowohl von der Alkalinität als auch vom Salzgehalt abhängt. Auf Anregung von Jeff Alberts habe ich dann aber tatsächlich das CO₂ gegen den pH-Wert aufgetragen. Und zu meiner großen Überraschung habe ich folgendes herausgefunden:

Abbildung 1. Streudiagramm, pH-Wert des Meerwassers gegenüber dem logarithmischen Wert von CO₂

Sie erklären in vier dichten Absätzen ihre beiden hochtechnologischen Super-Wissenschaftsmethoden, die sie verwenden, und sagen dann, dass ihre Ergebnisse „Assimilationen unter Verwendung beider Methoden“ enthalten, was immer das auch heißen mag.

Und nach all dem stellt sich heraus, dass sie am Ende eine lineare Standardbeziehung haben.

Ich bin davon völlig unbeeindruckt. Das ist doppelzüngige „wissenschaftliche“ Abzocke. Harry S. Truman soll gesagt haben: „Wenn du sie nicht überzeugen kannst, verwirre sie.“

Doch damit ist die Geschichte noch nicht zu Ende. Während ich dies schrieb, fiel mir etwas auf, das mir beim Verfassen meines letzten Beitrags zu diesem Thema entgangen war. Oben heißt es:

Die Zuverlässigkeit der [pHsw]-Ergebnisse beruht jedoch auf der Annahme, dass das [Modell] HadCM3L die Temperatur-CO₂-Beziehung (d. h. die Klimasensitivität) korrekt wiedergibt.

Das ließ die Alarmglocken läuten. Ihre Hauptbehauptung ist, dass ihre Studie zeigt, dass CO₂ die Temperatur kontrolliert. Da ich keine unbezahlte Version der Studie finden konnte, habe ich mir die ergänzenden Informationen genauer angesehen. Lassen Sie mich kurz erläutern, was ich gefunden habe:

Klimamodell-Simulationen PhanDA [ihre Methode] verwendet ESM-Simulationen aus dem vollständig gekoppelten Hadley Centre-Modell für Atmosphäre, Ozean und Vegetation, HadCM3L (33, 34).

Ein „ESM“ ist ein „Erdsystemmodell“, das darauf abzielt, die gesamte Erde zu modellieren. Das Ganze ist also nur eine Modellsimulation. Der einzige Unterschied besteht darin, dass es sich um eine Simulation handelt, bei der das Modell in regelmäßigen Abständen durch paläontologische Proxydaten wieder auf den richtigen Weg gebracht wird. Dabei werden jedoch alle Probleme, Annahmen und einstellbaren Parameter des Modells beibehalten.

Die verwendete Version ist HadCM3L-M2.1aD, und die Modellkonfiguration ist in Ref. 16 ausführlich beschrieben. Kurz gesagt, das Modell hat eine horizontale Auflösung von 3,75° Länge und 2,5° Breite sowohl in der Atmosphäre als auch im Ozean, mit 19 ungleichmäßig verteilten vertikalen Ebenen in der Atmosphäre und 20 ungleichmäßig verteilten vertikalen Ebenen im Ozean.

In den Tropen ist jede Gitterzelle des Modells in der Größenordnung von 410 km in Ost-West-Richtung und 270 km in Nord-Süd-Richtung. Dies ist viel zu groß, um die meisten der entscheidenden aufkommenden Phänomene zu erfassen, die ein zentraler Bestandteil des thermoregulatorischen Systems des Klimas sind.

Die Simulationen wurden etwa alle 5 Mio. Jahre über das Phanerozoikum hinweg durchgeführt, wobei das paläogeografische Plattenmodell von Ref (96) und eine zeitabhängige Sonnenkonstante (82) verwendet wurden, was zu 109 Zeitschnitten führte.

Alle 5 Millionen Jahre ließen sie ihr Modell für 3.000 Modelljahre laufen. In einigen Fällen ließen sie es aus unbekannten Gründen 10.000 Jahre lang laufen. Vermutlich gefielen ihnen die 3.000-Jahres-Ergebnisse nicht. Wer weiß das schon. Auf jeden Fall nannte man das eine „Zeitscheibe“.

Für jede Zeitscheibe wurde das Modell achtmal ausgeführt (d. h. acht „Suiten“), wobei jede Suite von unterschiedlichen atmosphärischen CO₂-Konzentrationen und/oder unterschiedlichen Konfigurationen des Klimamodells ausgeht. Diese Suiten werden im Folgenden beschrieben, wobei die lokale Namenskonvention für jede Suite in eckigen Klammern angegeben ist. Zwei Suiten waren identisch mit den in (16) beschriebenen Simulationen, d.h. sie wurden mit der „Basis“-Version des Klimamodells und mit zwei verschiedenen CO₂-Konzentrationen durchgeführt: die CO₂-Rekonstruktion aus Ref. (78) [scotese02] und eine geglättete CO₂-Rekonstruktion, die so gewählt wurde, dass sie mit verschiedenen Proxy-Klimaindikatoren übereinstimmt [scotesespinupa] (siehe Ref. (16) für Details). Drei weitere Suiten wurden mit der gleichen Basisversion des Klimamodells, aber mit drei konstanten CO₂-Werten (1x [scotesesolara], 2x [scotese2CO₂a] und 4x [scotese4CO₂a] vorindustrielle Konzentrationen) für alle Zeitabschnitte durchgeführt. Die letzten drei Suiten wurden mit modifizierten Konfigurationen des Modells durchgeführt. Diese Konfigurationen wurden so abgestimmt, dass sie besser mit den Proxydaten aus dem frühen Eozän (einer Zielzeitscheibe für das DeepMIP-Projekt (60)) übereinstimmen, insbesondere durch Erhöhung der polaren Verstärkung bei CO₂-induzierter Erwärmung, während gleichzeitig ein vorindustrielles Klima in Übereinstimmung mit modernen Beobachtungen beibehalten wurde. Die Abstimmung erfolgte in erster Linie durch die Änderung von Parametern im Klimamodell, von denen viele mit der Wolkenphysik zusammenhängen, nach den Methoden von (97, 98). Das erste dieser Pakete [scotese06] enthält die erste Phase dieser Abstimmung und CO₂ aus (78). Das zweite Paket [scotese07] enthält einige zusätzliche Entwicklungen im Zusammenhang mit der Albedo von Wüstenregionen und der Glättung des atmosphärischen Oberflächendrucks und der ozeanischen barotropen Stromfunktion. Darüber hinaus ersetzt diese zweite Suite die känozoische CO₂-Rekonstruktion von Foster et al. (2017) (78) durch die von Rae et al. (2021) (80). Die dritte Suite [scotese08] enthält die gleiche zusätzliche Entwicklung wie scotese07, hat aber eine CO₂-Konzentration, die so gewählt ist, dass sie eine GMST ergibt, die mit der durch (14) rekonstruierten GMST übereinstimmt.

Hier ist die Geschichte. Sie haben Proxy-Methoden für die Schätzung der Temperatur vor langer Zeit entwickelt, aber nicht für die Schätzung von CO₂ oder pH. Sie haben acht verschiedene Simulationen für jede Zeitscheibe durchgeführt, mit einer Reihe von verschiedenen Annahmen über CO₂ und Alkalinität, verschiedenen Proxy-Datensätzen und Anpassungen des Modells zwischen den Simulationen. Dann nahmen sie die acht Simulationen für jede der 97 Zeitscheiben, gaben sie alle in einen Kalman-Filter, um herauszufinden, welche am besten zu dem passen, was über jede Zeitscheibe bekannt ist, schalteten den Mixer ein, fügten die spezielle Soße des HadCM3L-M2.1aD-Modells hinzu und voilá! Heraus kommt die Antwort in Bezug auf Temperatur, CO₂ und pH-Wert …

… woraufhin sie lautstark verkünden, dass „CO₂ die dominante Triebkraft des Klimas im Phanerozoikum ist, was die Bedeutung dieses Treibhausgases für die Erdgeschichte unterstreicht.“

Ich bin sicher, dass Sie die Schwierigkeit dieses Verfahrens erkennen können. Es ist zirkulär, zirkulär genug, um den Ouroboros zum Weinen zu bringen.

Zunächst wird davon ausgegangen, dass die grundlegende Mainstream-Klimagleichung korrekt ist. Diese Gleichung liegt allen aktuellen Klimamodellen zugrunde, auch diesem. Die Gleichung besagt, dass die Änderung der globalen mittleren Temperatur gleich der Änderung der abwärts gerichteten Strahlung mal einer Konstante ist, die „Klimasensitivität“ genannt wird. Diese zentrale Gleichung ist dem Modell inhärent und wird auf unterschiedliche Weise mit einer ganzen Reihe möglicher Werte in jeder Zeitscheibe ausgedrückt. Dann wird derjenige gewählt, der am besten zu dem passt, was wir über diese Zeitspanne wissen, und zur Überraschung aller zeigt das Ergebnis, dass die Änderung der globalen mittleren Temperatur gleich der Änderung der abwärts gerichteten Strahlung mal einer Konstanten ist, die als „Klimasensitivität“ bezeichnet wird.

TL;DR-Version?

Sie haben zweifelsfrei gezeigt, dass man, wenn man ein Modell erstellt, das davon ausgeht, dass CO₂ der dominante Treiber der globalen Temperatur ist, schlüssig beweisen kann, dass CO₂ tatsächlich der dominante Treiber der globalen Temperatur ist

Folgen Sie mir für weitere Wissenschaftstipps …

Auf jeden Fall gab es noch eine letzte Sache, die ich untersuchen wollte, nämlich wie gut ihre CO₂-Daten zu den Temperaturdaten passen. Angesichts der obigen Überlegungen hatte ich erwartet, dass sie gut passen würden. Und sie passten auch ziemlich gut … mit zwei Besonderheiten.

Abbildung 2. Temperatur in blau (linke Skala) und log2(CO₂) in rot (rechte Skala)

Was sind also die beiden Merkwürdigkeiten? Aus der Studie:

Die GMST-CO₂-Beziehung zeigt eine bemerkenswert konstante „scheinbare“ Empfindlichkeit des Erdsystems (d. h. die Temperaturreaktion auf eine Verdoppelung von CO₂, einschließlich schneller und langsamer Rückkopplungen) von ∼8°C, ohne erkennbare Abhängigkeit davon, ob das Klima warm oder kalt ist.

Erstens: Meinen Berechnungen zufolge beträgt die Temperaturreaktion auf eine CO₂-Verdoppelung 5,3 °C, nicht 8 °C. Ich weiß nicht, warum. Ich habe meine Zahlen überprüft. Das ist das, was ich erhalte.

Zweitens besagt die CO₂-Beziehung, dass die Temperatur von ca. 400 Ma bis ca. 200 Ma BP höher und von 150 Ma bis 50 Ma BP niedriger gewesen sein sollte. Es scheint also zu variieren, je nachdem, ob das Klima warm oder kalt ist.

Meine Schlussfolgerung?

Schlechte Wissenschaft von vorne bis hinten, viel zu viele einstellbare Parameter und Auswahlmöglichkeiten, GIGO, schlechte Wissenschaftler, keine Cookies.

Link: https://wattsupwiththat.com/2025/06/27/10323700/

Übersetzt von Christian Freuer für das EIKE

 




Investitionen in Stromerzeuger geraten aus dem Gleichgewicht … und das könnte uns alle teuer zu stehen kommen

Lars Schernikau: Energieökonom

Die Internationale Energieagentur (IEA) hat gerade ihren WEI-Bericht (World Energy Investment Report 2025) veröffentlicht. Er markiert den zehnten Jahrestag dieser wichtigen jährlichen Überprüfung. Nach der Lektüre des 255 Seiten starken Dokuments ist mir klar, dass die globalen Energieinvestitionstrends ernsthafte Fragen hinsichtlich der zukünftigen Energiesicherheit, der Bezahlbarkeit und der Kapitalrendite aufwerfen.

In diesem Artikel möchte ich auf zwei Punkte eingehen, die ich im Bericht identifiziert habe und die einer stärkeren öffentlichen Debatte bedürfen: das wachsende Ungleichgewicht bei Energieinvestitionen und den beunruhigenden Rückgang der Rendite dieser Investitionen. Die Folgen dieser Trends könnten Steuerzahler und Verbraucher schwer belasten.

Wind und Sonne…mehr Geld, weniger Rendite

Heute sind die weltweiten Investitionen in Wind- und Solarenergie etwa siebenmal höher (pro erzeugter Energieeinheit) als die Investitionen in bedarfsgesteuerte Energieträger wie Kohle, Gas, Kernenergie und Wasserkraft zusammen. Allein das sollte uns dazu veranlassen, innezuhalten und genauer hinzuschauen … mehr dazu in meinem neuesten Blogbeitrag „IEA 2025 World Energy Investment a Review“.

Noch besorgniserregender sind die Daten der IEA, die zeigen, dass Wind- und Solarenergie als Industriezweige schlicht nicht profitabel sind. Solarhersteller, insbesondere in China, verlieren Milliarden, da der Wettbewerb die Preise unter die Produktionskosten drückt. Auch Energieversorger in vielen Märkten kämpfen darum, stabile Erträge aus der schwankenden Stromerzeugung aus Wind- und Solarenergie zu erzielen.

Gleichzeitig sind die Investitionen in traditionelle Brennstoffe , die immer noch rund 80 Prozent unseres Primärenergiebedarfs decken, dramatisch zurückgegangen . Vor einem Jahrzehnt entfielen 55 Prozent der weltweiten Energieinvestitionen auf Kohle, Öl und Gas. Heute sind es in absoluten Zahlen nur noch 33 Prozent – ​​rund 25 Prozent weniger als vor zehn Jahren.

Wir müssen eine unbeliebte Wahrheit anerkennen: Die Energierendite (EROI) für Kohle, Öl und Gas ist nach wie vor deutlich höher als für Wind- und Solarenergie. Ein in Kohle oder Gas investierter Dollar liefert deutlich mehr nutzbare Energie als ein in Solaranlagen oder Windparks investierter Dollar – insbesondere unter Berücksichtigung von Intermittenz, Backup-Systemen, Netzausbau und Speicherung.

Abbildung 1: Investitionen in intermittierende Wind- und Solarenergie (hellblau) sind 7x höher als in die zuverlässig planbaren Energien Kohle, Gas, Kernenergie und Wasserkraft (rot) | Quelle: Schernikau basierend auf IEA World Energy Investment 2025 und IEA

Insgesamt weniger Investitionen

Es geht nicht nur darum, wohin das Geld fließt. Beunruhigend ist auch der Rückgang der weltweiten Energieinvestitionen im Verhältnis zum BIP. 2015 lagen sie bei etwa 3,6 Prozent des globalen BIP. In diesem Jahr werden sie auf nur noch 2,9 Prozent sinken.

In einer Zeit, in der der Energiebedarf stark ansteigt (denken Sie an KI-Rechenzentren, Elektrifizierung und Kühlung), gibt die Welt im Verhältnis zu ihrem Wohlstand weniger für die Infrastruktur aus, welche die Stromversorgung sicherstellt / sicherstellen muss! Das ist ein sicheres Rezept für zukünftige Engpässe und Volatilität.

Wer bezahlt die Rechnung?

Die Steuerzahler tun es bereits. Der Wind- und Solarboom wird durch massive Subventionen und Anreize gefördert, die größtenteils aus öffentlichen Mitteln finanziert werden. Da die Investitionen in bedarfsgerechte Energie zurückbleiben, steigt das Risiko einer Netzinstabilität. Dies zwingt die Regierungen, noch mehr Geld auszugeben, um das System mit teuren Notfallmaßnahmen zu „flicken“.

Wie lange wird es noch Geld in Anlagen mit geringer Rendite wie Wind- und Solarenergie fließen, bevor die Alarmglocken läuten?

Ist es da eine Überraschung, dass die Regierungen vieler Entwicklungsländer, insbesondere in Asien, still und leise wieder auf Kohle und Gas setzen, um den steigenden Energiebedarf zu decken? China hat allein im Jahr 2024 neue Kohlekraftwerke mit fast 100 GW genehmigt. Indien fügte weitere 15 GW hinzu.

Warum, fragen Sie? … Sie tun dies, weil diese Investitionen zuverlässig erschwingliche Energie produzieren, ohne die kein Land leben kann.

Abbildung 2: Auch die Energiebranche kämpft mit einem Mangel an Fachkräften und Versorgungsausrüstung. So haben sich beispielsweise die Preise für Transformatoren und Kabel in Europa in den letzten zehn Jahren verdoppelt.

Ein Aufruf zur Ausgewogenheit

Dies ist kein Argument gegen Wind- und Solarenergie. Wind- und Solarenergie können in einem „inselbetriebenen“ Energiesystem eine Rolle spielen. Ich sehe jedoch die Notwendigkeit eines ausgewogeneren Investitionsansatzes, der auf Realismus und Rendite basiert.

Die Priorisierung dieser wenig rentablen Investitionen bei gleichzeitiger Beschränkung von Energiequellen mit hohem EROI wird die Kosten für die Steuerzahler nur weiter in die Höhe treiben, das Wirtschaftswachstum bremsen und die Netzzuverlässigkeit beeinträchtigen. Wenn wir diesen Weg weiterverfolgen, könnten die langfristigen Kosten für die Gesellschaft die Vorteile bei weitem übersteigen.

Für jeden, dem es mit der Energiesicherheit und der wirtschaftlichen Stabilität ernst ist, ist es an der Zeit, neu zu bewerten, wo und wie wir in die Zukunft der Energie investieren.

 

Lars Schernikau: Energieökonom, Rohstoffhändler, Autor (aktuelles Buch „Die unpopuläre Wahrheit … über Elektrizität und die Zukunft der Energie“)

Details inkl. Blog unter www.unpopular-truth.com

Quellen und weiterführende Literatur finden Sie in meinem vollständigen Artikel zum IEA-Bericht „World Energy Investment 2025“. Wenn Sie über meine Beiträge auf dem Laufenden bleiben möchten, melden Sie sich bitte dort an.

https://wattsupwiththat.com/2025/06/25/energy-investment-out-of-balance-and-it-could-cost-us-all/

 




Es ist heiß, aber nicht vom Menschen verursacht

Steve Goreham

In dieser Woche erlebten die Vereinigten Staaten die erste große Hitzewelle des Jahres 2025. Mehr als 160 Millionen Menschen im Mittleren Westen, im Süden und an der Ostküste erlebten Temperaturen von fast 38°C*. In den Medien wird vielfach behauptet, die steigenden Temperaturen seien auf die vom Menschen verursachte globale Erwärmung zurückzuführen. Ein Blick in die Geschichte zeigt jedoch, dass solch hohe Temperaturen in der Vergangenheit schon oft aufgetreten sind.

[*Das entspricht der 100°F-Marke, die in den USA häufig verwendet wird. A. d. Übers.]

Warnungen vor extremer Hitze wurden in Baltimore, Boston, New York City, Philadelphia und Washington D.C. ausgegeben. Das Washington Monument wurde wegen der Hitze geschlossen. Dutzende von Höchsttemperatur-Rekorden wurden gebrochen. Der Hitzeindex, der die Temperaturen und die Auswirkungen der Luftfeuchtigkeit zusammenfasst, lag in Chicago, Pittsburgh, Philadelphia und anderen Orten über 100.

Viele Medien berichteten, dass der Mensch für das derzeitige heiße Wetter verantwortlich ist. CNN berichtete, dass „Hitzewellen mit dem Klimawandel immer gefährlicher werden“ und dass die aktuelle Hitzewelle „die Merkmale der vom Menschen verursachten globalen Erwärmung trägt“. NPR kam zu dem Schluss, dass „der vom Menschen verursachte Klimawandel diese Hitzewelle dreimal wahrscheinlicher gemacht hat“, und zwar aufgrund von Emissionen aus der „Verbrennung von Kohle, Öl und Gas“. Time erklärte, dass Hitzewellen in den Vereinigten Staaten heute „dreimal so häufig“ auftreten wie in den 1960er Jahren. Historische Aufzeichnungen widersprechen jedoch diesem Medienalarm über Hitzewellen.

Die National Oceanic and Atmospheric Administration (NOAA) erfasst die Temperaturrekorde in den einzelnen Bundesstaaten und das Datum, an dem sie aufgestellt wurden. Die Daten zeigen, dass 36 der 50 bundesstaatlichen Höchsttemperaturen vor mehr als fünf Jahrzehnten verzeichnet worden waren. Dreiundzwanzig bundesstaatliche Temperaturrekorde wurden in den 1930er Jahren aufgestellt, als die jährlichen CO₂-Emissionen des Menschen weniger als ein Achtel der heutigen Emissionen betrugen. Trotz der ständigen Schlagzeilen über Hitzewellen wurden seit dem Jahr 2000 in nur 6 Bundesstaaten neue Temperaturrekorde erreicht.

Die Temperaturen in New York City stiegen auf dem Höhepunkt der Hitzewelle auf 39°C. Der Hitzerekord für den Bundesstaat New York liegt jedoch bei 42°C, aufgestellt 1926, also vor 99 Jahren, in Troy, New York. Die Temperaturen in Memphis erreichten 35°C. Der Hitzerekord für Tennessee liegt jedoch bei 45°C, aufgestellt 1930 in Perryville. Die Temperaturen in Richmond, Virginia, erreichten 37°C, lagen aber unter dem Landesrekord von 43, der 1954 in Balcony Falls aufgestellt worden war.

Temperaturmessungen der National Aeronautics and Space Administration (NASA), der NOAA und der Climate Research Unit an der University of East Anglia in UK (Met Office) zeigen, dass die durchschnittliche globale Temperatur in den letzten 140 Jahren um etwa 1,2°C gestiegen ist. Aber ist dieser Anstieg auf die industriellen Emissionen von Treibhausgasen zurückzuführen?

Der vom Met Office Hadley Centre bereitgestellte Temperaturdatensatz für Mittelengland ist die weltweit am längsten bestehende Temperaturreihe. Sie zeigt, dass die Temperaturen in Mittelengland in den letzten 360 Jahren, seit 1660, um etwa 2°C gestiegen sind. Die jährlichen Kohlendioxid-Emissionen des Menschen waren bis nach dem Zweiten Weltkrieg vernachlässigbar, aber seither sind sie fast um das Achtfache gestiegen. Dennoch scheint die Änderungsrate des Temperaturanstiegs in Mittelengland während der Zeit der steigenden globalen CO₂-Emissionen unverändert geblieben zu sein. Die Beweise zeigen, dass die Temperaturen von natürlichen Faktoren dominiert werden und dass die menschlichen Emissionen nur eine kleine Rolle bei der globalen Erwärmung spielen.

Hüten Sie sich vor den hohen Temperaturen der Hitzewellen in diesem Sommer, trinken Sie viel Flüssigkeit und bleiben Sie ruhig. Machen Sie sich bewusst, dass die Temperaturen an den meisten Orten in den vergangenen Jahrzehnten höher waren. Da das Klima der Erde von der Natur gesteuert wird, besteht unsere einzige sinnvolle Maßnahme darin, uns an den Klimawandel und die steigenden Temperaturen anzupassen.

This piece originally appeared at RealClear Energy and has been republished here with permission.

Steve Goreham is a speaker on energy, the environment, and public policy and author of the bestselling book Green Breakdown: The Coming Renewable Energy Failure. 

Link: https://cornwallalliance.org/75750-2/

————————————

In obigem Beitrag geht es also um eine Hitzewelle in den USA. Eine solche gab es um den Monatswechsel Juni/Juli bekanntlich auch hierzulande. Wie das in einem größeren Zusammenhang eingeordnet werden muss, beschreibt der Meteorologe Joe Bastardi:

Hitze im großräumigen Zusammenhang

Joe Bastardi

Angesichts der hitzigen Debatten und alarmierenden Schlagzeilen über den Klimawandel sollten wir einen Schritt zurücktreten und uns auf das große Ganze konzentrieren, um eine klarere Perspektive zu gewinnen. Am 21. Juni 2025 lag die globale Temperatur nur 0,33°C über dem 30-jährigen Durchschnitt – eine geringfügige Verschiebung auf einem Planeten, auf dem 99,95 % der Menschheit zwischen dem arktischen und dem antarktischen Polarkreis leben.

Ein Blick auf die globale Temperaturkarte vom 21. Juni zeigt, dass etwa 20-26 % der Weltbevölkerung in den „tiefroten“ Zonen leben, also in Gebieten, in denen es wärmer ist als die 30-jährige Norm. Währenddessen leben 74-80 % der Menschen in Regionen mit normalen oder unterdurchschnittlichen Temperaturen. Was bedeutet das? Für die große Mehrheit bleiben die Bedingungen stabil oder kühler, während eine Minderheit mit wärmeren, aber überschaubaren Herausforderungen konfrontiert ist.

Und noch etwas ist bemerkenswert: Eine Veränderung von 0,33 °C innerhalb von 30 Jahren ist so subtil, dass sie für den Durchschnittsbürger kaum wahrnehmbar ist und von der natürlichen Auf und Ab des Wetters übertönt wird. Trotz der atemlosen Berichterstattung über die sengende Hitze in Europa und den USA ist die globale Realität also weit weniger dramatisch – der Großteil der Weltbevölkerung lebt unter normalen oder kühleren Bedingungen.

Und hier ein kleines schmutziges Geheimnis: Ohne die Hot Spots läge die globale Temperatur zwischen dem arktischen und dem antarktischen Kreis wahrscheinlich bei oder sehr nahe am 30-Jahres-Durchschnitt, etwa 0 °C über der Basislinie.

Diejenigen, die „Rosinenpickerei“ beklagen, sollten Folgendes bedenken: Die Konzentration auf regionale Hitzewellen ist selbst ein selektives Objektiv, das die Wahrnehmung der globalen Trends verzerrt. Während heiße Flecken den Durchschnitt in die Höhe treiben, ist die allgemeine Wahrheit, dass die meisten Bewohner der Erde weit davon entfernt sind zu schwitzen. Die Mainstream-Medien zoomen nur selten heraus, um dies zu zeigen, und konzentrieren sich stattdessen beispielsweise auf die Orgie tropischer Wirbelstürme vor Mexiko, während sie ignorieren, dass die Sturmaktivität in der übrigen nördlichen Hemisphäre bei weniger als 10 % der Norm liegt.

Also, wenn Sie in einer heißen Zone leben, sollten Sie es ruhig angehen lassen. Wenn Sie nicht dort sind – wo die meisten Menschen leben – machen Sie weiter. Ist es nicht erfrischend, wenn KI den Lärm durch eine kalte, harte Perspektive durchbricht?

Und vor allem: Genießen Sie das Wetter. Es ist das einzige Wetter, das Sie haben.

Link: https://www.cfact.org/2025/06/23/large-scale-perspective-on-the-heat/

Beides übersetzt von Christian Freuer für das EIKE