Das Energie-Ungleichgewicht der Erde: Teil I

Kevin Kilty

Im Frühsommer letzten Jahres stieß ich bei einer Internetrecherche auf Googles KI Overview, das mir mitteilte, dass das Energieungleichgewicht der Erde (EEI), d. h. die Differenz zwischen der eingehenden Sonneneinstrahlung und der ausgehenden Sonneneinstrahlung plus langwelligem Infrarot, 0,5 ± 0,47 W/m² beträgt. Wie die meisten Fakten, die die KI-Übersicht bietet, schenkte ich ihr damals wenig Beachtung, sondern legte sie in meinem Gedächtnis ab.

Später begann ich, über diese Zahl nachzudenken. Dabei fielen mir mehrere Dinge auf. Erstens schien mir die Unschärfe ein Versuch zu sein, den Wert nicht als 0,5 ± 0,5 zu schreiben und damit möglicherweise Null in das angegebene Konfidenzintervall einzuschließen. Schließlich ist es schwierig, davon zu sprechen, dass die Welt zu kochen beginnt, wenn das Konfidenzintervall für die Wärmequelle Null einschließt – d. h. überhaupt keine Wärmequelle. Zweitens ist die Zahl sehr klein, wenn man bedenkt, dass die einfallende Sonneneinstrahlung in den gemäßigten Zonen zu jeder Zeit über 1100 W/m² betragen kann und obendrein sehr variabel ist. Ich fragte mich: „Wie misst man diese Ungleichgewichtszahl und wie gut können wir ihre Unsicherheit charakterisieren?“ Ich erwartete zu erfahren, dass die EEI im Vergleich zur Variabilität des Klimas eine sehr kleine Zahl ist und dass ihre Größenordnung sehr unsicher ist.

Es ist schwierig, AI Overview dazu zu bringen, Dinge zu einem späteren Zeitpunkt zu wiederholen, und es hatte keinen Sinn, die ursprüngliche Quelle für den Wert von 0,5 ± 0,47 W/m² zu finden. Schließlich fand ich den Ursprung dieses Wertes, erfuhr aber, dass er sich nicht auf den EEI an sich bezog. Vielmehr handelte es sich um ein Maß für die Veränderung des EEI von Jahrzehnt zu Jahrzehnt. Bei meiner Suche fand ich jedoch eine Reihe von EEI-Werten an verschiedenen Orten, die auf unterschiedliche Weise angegeben wurden:[1] Die Schätzungen reichten von 0,47 W/m² bis 1,0 W/m².

Ein Teil dieser Streuung, die sich in all diesen Werten zeigt, lässt sich dadurch erklären, dass die Zahlen unterschiedliche Zeiträume abdecken. Beispielsweise beziehen sich die von Von Stuckmann et al. [2] angegebenen Werte von 0,47 W/m² und 0,76 W/m² auf die Zeiträume 1971-2018 bzw. 2010-2018. Nichtsdestotrotz ist dies eine ziemlich große Streuung der Schätzungen für das Energieungleichgewicht, wenn man bedenkt, dass eine Person es als „die grundlegendste Messgröße, die die wissenschaftliche Gemeinschaft und die Öffentlichkeit als Maßstab dafür kennen muss, wie gut die Welt bei der Aufgabe, den Klimawandel unter Kontrolle zu bringen, vorankommt…“ beschreibt.

Darüber hinaus sind die Unsicherheitswerte für diese sehr wichtige Zahl unklar. Handelt es sich um Werte mit einer Standardabweichung, 95 % Konfidenzintervalle, 90 % Werte oder etwas anderes? Es stellt sich heraus, dass sie eine Mischung sind. Da einige Leute behaupten, dass der EEI mit der Zeit steigt, handelt es sich dabei um Mittelwerte über einen bestimmten Zeitraum plus Unsicherheit, die verzögert werden, oder sind sie zu einem bestimmten Zeitpunkt aktuell? Es gibt viele Fragen zu beantworten.

Schauen wir mal, was wir in einigen ausgewählten Literaturrecherchen herausfinden können.

Bilanzierung der Energie

Die Energiebuchhaltung der Erde unterscheidet sich nicht sonderlich von der doppelten Buchhaltung. Es gibt ein Einnahmenkonto (eingehende Sonneneinstrahlung) und die Ausgaben für die ausgehende langwellige und reflektierte Sonneneinstrahlung. In unserem Energiebuch gibt es ein Aktiva-Konto, auf dem ich alle Energiezuführungen für nützliche Dinge wie die Erwärmung des Planeten oder seine Begrünung verbuchen würde, das die Alarmisten aber vielleicht als Passiva-Konto bezeichnen würden, und ein Energie-Eigenkapital-Konto der Erde.

Wie auch immer wir diese Konten nennen, unser System der doppelten Buchführung muss ausgeglichen sein, und dies sollte zwei unabhängige Möglichkeiten bieten, die Energiebilanz oder deren Fehlen zu bestimmen. Bei der einen Methode betrachten wir die Energieströme, die eine Grenze auf Satellitenebene überschreiten. Bei der anderen Methode betrachten wir alle Orte, an denen sich Energie angesammelt zu haben scheint. Im Prinzip sollten die beiden Verfahren innerhalb der jeweiligen Unsicherheit die gleichen Zahlen liefern.

Größenordnung und Unsicherheit

Da das Energieungleichgewicht eine von vielen Messgrößen ist, die als Argument für Veränderungen in der Lebensweise, bei Produkten und in der Wirtschaft insgesamt herangezogen werden, sollte es besser nachgewiesen werden, dass es sich um eine sehr sichere Angelegenheit handelt. Das bedeutet zumindest, dass sie genau gemessen werden muss.

Die Unsicherheit einer Messung ist nicht nur eine Frage der Zufälligkeit eines gemessenen Prozesses oder der Zufälligkeit einer Stichprobe in einer Population. Sie muss alle Aspekte einer Messung einbeziehen, von der inhärenten Zufälligkeit des zu messenden Prozesses über Unsicherheiten bei der Konstruktion der Instrumente, der Kalibrierung, der Drift, der Installation (man denke hier an das Projekt der Oberflächenstationen), der Algorithmen und der Datenreduktion. Wenn ein stationärer Prozess wirklich zufällig abgetastet wird, kann die Streuung der Messungen alle Unsicherheitskomponenten umfassen [3]. Ausnahmen sind systematische Fehler und Verzerrungen. Fehler und Verzerrungen sind besonders problematisch, wenn es sich um spezielle oder einzigartige Instrumente und Plattformen handelt, da diese Geräte, die vielleicht nur aus einigen wenigen Einheiten bestehen, kein statistisches Ensemble ergeben und die Verzerrungen in den Messstatistiken allein wahrscheinlich nicht erkannt werden.

Henrion und Fischoff stellten insbesondere fest, dass Messungen physikalischer Konstanten dazu neigten, sich nahe beieinander zu gruppieren, selbst wenn spätere und bessere Messungen zeigten, dass diese Gruppierung extrem unwahrscheinlich war [4]. Sie vermuteten, dass dies ein Artefakt der Soziologie der physikalischen Wissenschaft ist. In gewissem Sinne bestand ein Konflikt zwischen dem Wunsch, die endgültige Arbeit zu erstellen (geringe Unsicherheit) und der Gewissheit, richtig zu liegen (größere Vertrauensbereiche), wobei erstere oft den Sieg davontrug. Eine weitere Erkenntnis war, dass die Wissenschaftler die Voreingenommenheit schlecht einschätzen und dass vermeintlich unabhängige Forschungsgruppen zu einem Wert gedrängt werden können, der von der einflussreichsten Gruppe unter ihnen gefunden wurde (Bandwagon-Effekt). In der Klimawissenschaft wird ein ähnlicher Anstoß durch den Wunsch erzeugt, schockierende Ergebnisse zu produzieren – ein Effekt, den man als „Es ist schlimmer als wir dachten“ bezeichnen könnte.

Direkte Messungen des Energieflusses

Eine direkte Messung des Energieungleichgewichts ist durch Satellitenmessungen möglich. Das Experiment „Clouds and the Earth’s Radiant Energy System“ (CERES) der Nasa umfasste sieben verschiedene Radiometer, die ab 1997 auf fünf verschiedenen Satelliten flogen. Diese Radiometer ermöglichten die direkte Messung der eingehenden Sonnenstrahlung, der ausgehenden Sonnenstrahlung und des ausgehenden LWIR. Zwei dieser Satelliten hatten ihr Betriebsende im Jahr 2023, wurden aber danach weiter betrieben. Sowohl Terra als auch Aqua leiden jetzt unter Treibstoff- und Energiemangel. Ein neues Mitglied dieses Experiments, Libera, soll Anfang 2028 in Betrieb genommen werden. Dieses Programm hat im Laufe der Jahre einige interessante Dinge entdeckt.

Auf einer Konferenz im September 2022 fasste Norman G. Loeb die CERES-Mission, ihre Ergebnisse und einige Konsequenzen aus diesen Erkenntnissen zusammen [5]: Demnach hat sich das Energieungleichgewicht der Erde von 0,5 ± 0,2 W/m² in den ersten zehn Jahren dieses Jahrhunderts auf 1,0 ± 0,2 W/m² in jüngster Zeit verdoppelt. Dieser Anstieg ist das Ergebnis eines Anstiegs der absorbierten Sonnenstrahlung um 0,9 ± 0,3 W/m², der teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4 ± 0,25 W/m² ausgeglichen wird.

Was bedeuten diese Unsicherheitsschätzungen und wie glaubwürdig sind sie? Zur Beantwortung des „Was“-Teils dieser Frage ist das Verfahren Nr. 20 in der Powerpoint in Abbildung 1 wiedergegeben.

Abbildung 1. Aus Loeb, N. 2022 [5].

Dies zeigt einen Vergleich direkter Messungen der Ein- und Ausstrahlung mit der planetarischen Wärmeaufnahme, auf die ich im Folgenden eingehen werde, die aber auf eine unabhängige, indirekte Messung des Strahlungsungleichgewichts hinausläuft. Die beiden Messgrößen liegen mit 0,5 ± 0,47 W/m² pro Jahrzehnt eng beieinander. Diese Folie offenbart die Quelle der Zusammenfassung von AI Overview! Die Unsicherheit wird als Konfidenzintervall (5 %, 95 %) angegeben; ±0,47 entspricht also einer Standardabweichung von ±0,29. Was in diesem Schaubild gut aussieht, ist die Übereinstimmung in dem, was wir als zwei unabhängige Schätzungen des Energieungleichgewichts vermuten.

Weitere Untersuchungen zeigen, dass diese Übereinstimmung nicht so ist, wie sie scheint. Unabhängig davon, auf welchen Abdeckungsfaktor sich diese ±-Zahlen beziehen (𝞼, 2𝞼, 90 % CI, 95 % CI usw.), würde ein Verfahren, das sich aus der Veränderung der Sonnenenergie abzüglich der ausgehenden Langwelle zusammensetzt, 0,5 ± 0,39 W/m² ergeben; dies kombiniert mit den 0,5 ± 0,2 W/m² eines vorangegangenen Jahrzehnts würde 1,0 ± 0,44 W/m² ergeben, nicht 1,0 ± 0,2 W/m². Es sei denn, es besteht eine negative Korrelation zwischen ihnen, die nie erklärt wird. Ich hatte echte Schwierigkeiten, die Zahlen, die ich gelesen habe, miteinander in Einklang zu bringen. Und es gibt noch mehr.

Ich begann meine Nachforschungen über die Unsicherheit des Energieungleichgewichts, indem ich mich auf einen Sonderband des JGR vom Mai 1986 bezog, der sich mit der Instrumentierung des Vorgängers von CERES, dem Earth Radiation Budget Experiment (ERBE), befasste [6]. Dort heißt es:
„Diese Instrumente sind so ausgelegt, dass sie Strahlungsfluss- und Strahlungsexitanzmessungen mit einer Messunsicherheit von besser als 1 % über eine zweijährige Umlaufzeit liefern.“ [7]

Es gibt zwei Tabellen in dieser Studie, die für unsere Frage der Unsicherheit relevant sind. Tabelle 1 in dieser Studie zeigt die sehr großen Schwankungen des Ungleichgewichts von mehreren zehn W/m², die auf die interne Klimavariabilität zurückzuführen sind – Schwankungen, die weitaus größer sind als die glaubwürdige EEI aufgrund von Antrieben. Tabelle 2 in dieser Studie enthält eine Liste bekannter und unbekannter Abweichungen. Die bekannten Abweichungen reichen von -2 bis +7 W/m², und der aus Satellitenmessungen gewonnene EEI ist um einen Faktor von vielleicht fünf zu groß, um glaubwürdig zu sein.

Während sich die intrinsische Unsicherheit der Instrumente von ERBE zu CERES offenbar nicht wesentlich verbessert hat, wurden die Messungen des Energiebudgets durch Korrelationen zwischen CERES-Instrumenten und anderen Weltraumplattformen sowie durch Bodenmessungen verbessert. Unabhängig von der Cleverness dieser Systeme bringen sie Unsicherheiten von anderen Instrumenten, Plattformen und Algorithmen mit sich, die in die Ergebnisse einfließen sollten. Ich hätte mir gewünscht, irgendwo eine vollständige Analyse der Unsicherheiten zu sehen, aber ich habe sie nicht gefunden.

Besorgniserregender ist jedoch die Diskussion über Algorithmen zur Verbesserung dieses Umstandes für die Zwecke der Klimamodellierung, indem in einem Fall Anpassungen der LWIR-Strahlungsdichtemessung und auch verschiedene Anpassungen der SW-Strahlungsdichtemessungen vorgenommen wurden, um einen EEI zu erhalten, der mit den Schätzungen der planetarischen Wärmeaufnahme kompatibel ist. Die damals vorgenommenen Anpassungen waren nicht geringfügig, sondern um einen Faktor zwei größer als der EEI selbst,[9] mit anderen Worten: Die Schätzungen der Wärmeaufnahme in den Ozeanen und der Atmosphäre haben die Satellitenmessungen in eine bevorzugte Richtung gedrängt. Die beiden Verfahren zur Schätzung des EEI sind nicht unabhängig voneinander. Wir haben nicht wirklich ein System der doppelten Buchführung.

Planetarische Wärme-Aufnahme

Die Orte auf der Erde, an denen überschüssige Energie gespeichert werden könnte, sind die folgenden: 1) Temperaturänderung der Atmosphäre unterhalb der Tropopause, 2) Temperaturänderung der Ozeane oberhalb von 2000 m Tiefe, 3) Temperatur der Bodenoberfläche/Unterfläche und 4) Änderung der Temperatur der Kryosphäre und Phasenwechsel. Ein aktueller Überblick über all diese Daten und Ergebnisse findet sich in von Schuckmann et al. (2023) [2] Einige Schätzungen sind wirklich bemerkenswert mit einer behaupteten relativen Unsicherheit von unter 10 % (Unsicherheit geteilt durch Erwartungswert), wenn man bedenkt, dass 2) bis 4) Orte sind, die einer direkten Messung entzogen sind.

Die Autoren scheinen jedoch zu erkennen, dass ihre Unsicherheitsschätzungen nicht so rosig sind. Sie sagen:

Die Ensemble-Streuung gibt einen Hinweis auf die Übereinstimmung zwischen den Produkten und kann als Indikator für die Unsicherheit verwendet werden. Die Grundannahme für die Fehlerverteilung ist Gauß mit einem Mittelwert von Null, der durch ein Ensemble verschiedener Produkte angenähert werden kann. Sie berücksichtigt jedoch keine systematischen Fehler, die zu Verzerrungen innerhalb des Ensembles führen können, und stellt nicht die gesamte Unsicherheit dar.“

Dennoch wird uns im vielleicht optimistischsten Fall gesagt, dass die gegenwärtige Rate der Wärmeaufnahme 0,76 ± 0,1 W/m² [2] oder vielleicht sogar 0,77 ± 0,06 W/m² [10] beträgt. Diese Zahlen ergeben sich aus der Summe der Beiträge 1) bis 4) in unserer Liste; allerdings stammen 89 % allein aus dem Ozean. Die angegebene Unsicherheit sollte sich zumindest aus der Addition der jeweiligen Unsicherheiten der Beiträge in Quadratur ergeben, als ob es sich bei diesen Daten um unkorrelierte, unabhängige und unvoreingenommene Schätzungen der gleichen Sache handelt.

Abbildung 2. Speicherung des Energieungleichgewichts im Ozean. Aus K. von Schuckmann et al. (2023) Heat stored in the Earth system 1960-2020, © Author(s) 2023. Dieses Werk wird unter der Creative Commons Attribution 4.0 License verbreitet.

Die gigantische Arbeit von Struckmann et al. [2], an der 68 Co-Autoren aus 61 Institutionen beteiligt sind, ist eine Lawine von Daten, die in verschiedenen Einheiten, über unterschiedliche Zeiträume und aus zahlreichen Quellen und Untergruppen von Quellen stammen. Es ist äußerst schwierig, sie zu sortieren. Abbildung 2 zeigt nur ein Beispiel für die Unstimmigkeiten, die ich in der Zusammenstellung sehe. Vergleichen Sie z. B. die im Ozean gespeicherte Wärme von 1960 bis 2020 mit der von 1993 bis 2020. Der Tiefenbereich 0-2000 m setzt sich sicherlich aus der Summe von 0-700 m und 700-2000 m zusammen, wie die Summen in beiden Fällen deutlich zeigen. Die Unsicherheitsangaben sind jedoch nicht miteinander zu vereinbaren. In einem Fall ergeben die Unsicherheiten von 0,1 und 0,04 zusammen 0,1, im anderen Fall 0,2. Vielleicht gibt es eine Kovarianz zwischen den beiden Tiefenbereichen; allerdings zeigt Abbildung 2 in Von Schuckmann et al [2] eine offensichtliche positive Korrelation in allen Tiefenbereichen – etwas, das die Unsicherheit verstärken und nicht verringern sollte.

Verstärkung der EEI

Ein hervorstechendes Thema all dieser Arbeiten zum Energieungleichgewicht ist, dass sich die Wärmeaufnahme beschleunigt. Loeb et al [10] weisen auf Satellitenbeobachtungen hin, die zeigen, dass sich das Energieungleichgewicht von 0,5±0,2 W/m² im Zeitraum 2000 bis 2010 auf 1,0±0,2 W/m² im Zeitraum 2010 bis 2020 verdoppelt hat – was ich als dekadische Schätzung bezeichnen würde. Der Anstieg ist das Ergebnis von 0,9±0,3 W/m² mehr absorbierter Sonnenstrahlung, die teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4±0,25 W/m² ausgeglichen wird.

Wieder einmal habe ich Schwierigkeiten, all dies in Einklang zu bringen. Nach den Regeln der Addition unkorrelierter Schätzungen würde man aus der Zunahme der Sonneneinstrahlung und der Zunahme der ausgehenden LWIR-Strahlung einen Wert von 0,5±0,4 W/m² ableiten, den Loeb [5] jedoch mit einem Konfidenzintervall von 5-95 % als 0,5±0,47 W/m² angibt. Das ist rätselhaft.

Von Struckmann et al. [2] schlagen als äquivalente dekadische Verfahren 0,48±0,1 W/m² und 0,76±0,2 W/m² vor (die Unsicherheiten bezeichnen sie als 90% Konfidenzintervall, 5%-95%), was, wenn man den angegebenen Unsicherheiten Glauben schenken darf, weitaus geringer ist als das, was Loeb et al. [10] berechnet. Lässt man jedoch alle Unterschiede außer Acht, so ist es offensichtlich, dass alle Gruppen Beweise für ein beschleunigtes Ungleichgewicht vorlegen. Aber ist dies wirklich erwiesen?

Ich beschloss, ein kleines Experiment mit dem uahncdn_lt_6.0-Datensatz (University of Alabama, Huntsville) durchzuführen. Ich verwendete eine lineare Regression nach der Methode der kleinsten Quadrate. Der lineare Anstiegskoeffizient von Monat zu Monat beträgt 0,0013 C, und das 95 %-Konfidenzintervall liegt zwischen 0,0012 und 0,0014 C/Monat. Abbildung 4 zeigt dies. Wie Dr. Spencer in seinem Blog geschrieben hat, ist diese Änderung von 0,02 °C pro Jahr das Ergebnis eines erhöhten CO₂-Antriebs, und alles, was davon abweicht, ist ein Einfluss der Klimavariabilität.

Eine genaue Betrachtung von Abbildung 3 zeigt, dass die Daten nicht zufällig um die Best-Fit-Linie gestreut sind. Ihr Trend scheint in der Nähe des Ursprungs eher flach zu sein, und an mehreren Stellen befinden sich etwas mehr Daten unterhalb als oberhalb der Linie. Einige Extremwerte treten am Ende der Zeitreihe auf. Diese Form lässt auf eine Krümmung wie einen quadratischen Term schließen.

Abbildung 3

Also habe ich eine quadratische Funktion nur an die Daten angepasst (kleines Diagramm oben links in Abbildung 3) und erhielt eine anscheinend bemerkenswert gute Anpassungskurve, die am Ursprung eine Nullneigung aufweist und zum Ende hin monoton ansteigt. Ah! Ein Beweis für einen sich beschleunigenden Trend?

Nicht ganz.

Der Anteil der Variation, der durch eine Linie erklärt wird, liegt bei 51 %, durch eine quadratische bei 53% – ein unbedeutender Unterschied. Der Standardfehler der Residuen ist nicht anders (0,198 gegenüber 0,195), und man vermutet, dass die Daten nicht ganz die Anforderung erfüllen, unabhängig und identisch über ihren Bereich verteilt zu sein. Tatsächlich lässt sich leicht zeigen, dass diese Daten über mehrere Zeitskalen hinweg korreliert sind, und die Korrelation allein könnte einem einen Trend vorgaukeln, der nicht vorhanden ist. Diese Tendenz zu einer Abflachung, gefolgt von einem kurzen, aber starken Anstieg, zeigt sich auch in anderen Daten, die das gesamte vergangene Jahrhundert abdecken, beispielsweise 1920-1945. Diese Temperaturdaten sind viel zu variabel, um einen Vorzug des quadratischen Trends gegenüber dem linearen Trend feststellen zu können.

Schlussfolgerungen

Als ich mit diesen Bemühungen begann, erwartete ich, dass ich bei meiner Suche nach einem Energieungleichgewicht eine sehr kleine Zahl mit einer sehr großen Unsicherheit finden würde. Genau das habe ich gefunden. Außerdem war ich überrascht zu sehen, dass die Schätzungen der Wärmeaufnahme einen großen Einfluss auf die Satellitendaten haben, so dass die Schätzungen nicht unabhängig sind. Ich hätte auch damit rechnen müssen, dass der daraus resultierende Wert des EEI dazu dienen würde, die Besorgnis über den Klimawandel zu fördern.

Alle Forscher in dieser EEI-Gemeinschaft bringen das Energieungleichgewicht mit einer ganzen Reihe von Problemen in der heutigen Welt in Verbindung. Für sie bedeutet eine Erwärmung des Planeten nichts als Ärger; es scheint überhaupt keine Vorteile zu geben. Von Schuckmann et al. [2] gehen sogar so weit, auf der Grundlage ihrer Schätzungen des Ungleichgewichts und unter Berücksichtigung der anerkanntermaßen unbekannten Unsicherheiten und Annahmen zu berechnen, wie viel CO₂ aus der Atmosphäre entfernt werden müsste, um uns in das Jahr 1988 zurückzubringen oder um die Erde unter einer Temperaturveränderung von 2°C gegenüber dem Ende des 19. Jahrhunderts zu halten. Warum diese beiden Ziele wichtig sind, ist nicht klar, aber man sagt uns, dass sie irgendwie Klimaprobleme verhindern werden.

Aber Panik auslösende Probleme haben nichts mit geringfügigen Temperaturänderungen zu tun. Hitzewellen entstehen nicht durch einen Hintergrundtemperaturanstieg von 1 oder gar 1,5 °C. Sie sind die Folge von UHI, der sich 10 °C nähert und aus der Art und Weise resultiert, wie wir unsere Megastädte gebaut haben, die voller energieverschwendender Geräte und von der Landluft abgeschnitten sind. Der mickrige Anstieg des Meeresspiegels verursacht keine Überschwemmungen – es sind Fehler im Bauwesen und Menschen, die dort bauen, wo sie es nicht sollten. Die Kenntnis der EEI, die an sich schon interessant sein könnte, wird nichts von alledem verhindern helfen.

References:

1- See for example: Trenberth, et al, Earth’s Energy Imbalance, Journal of Climate, 27, 9, p.3129-3144,  2014 DOI: https://doi.org/10.1175/JCLI-D-13-00294.1; V. Schuckmann, et al, Heat stored in the Earth system: where does the energy go?, Earth Syst. Sci. Data, 12, 2013–2041, https://doi.org/10.5194/essd-12-2013-2020, 2020; Loeb, N.G., et al. Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surv Geophys (2024). https://doi.org/10.1007/s10712-024-09838-8;

2-v Schuckmann, et al, 2023, Heat stored in the Earth system 1960–2020: where does the energy go? System Science Data, 15(4), 1675-1709. https://doi.org/10.5194/essd-15-1675-2023

3 -Guide to Uncertainty in Measurement. Available online at https://www.bipm.org/documents/20126/2071204/JCGM_100_2008_E.pdf

4-Max Henrion and Baruch Fischoff, Am J. Physics. 54,791, 1989. See also Science. 289, 2260-2262, 29 September 2000.

5-Loeb, Norman, Trends in Earth’s Energy Imbalance, ISSI GEWEX Workshop, September 26-30, 2022, Bern, Switzerland. Powerpoint online at: https://ntrs.nasa.gov/api/citations/20220010511/downloads/Loeb_2022_compressed.pptx.pdf

6-B. Barkstrom, and G. Smith, The Earth Radiation Budget Experiment’  Science and Implementation,  Reviews of Geophysics, v. 24, n 2, p. 379-390, May 1986

7-Kopia, L. Earth Radiation Budget Experiment Scanner Instrument, Reviews of Geophysics, v. 24, n 2, p. 400-406, May 1986

8-Loeb et al, 2018, Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product, Journal of Climate, DOI: 10.1175/JCLI-D-17-0208.1 “With the most recent CERES edition-4 instrument calibration improvements, the net imbalance from the standard CERES data products is approximately 4.3 , much larger than the expected EEI.“

9-Loeb, et al, 2009, Toward Optimal Closure of the Earth’s Top-of-Atmosphere Radiation Budget. J. Climate, 22, 748–766, https://doi.org/10.1175/2008JCLI2637.1.

10-Loeb, et al, 2024, Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surveys in Geophysics; https://doi.org/10.1007/s10712-024-09838-8

Link: https://wattsupwiththat.com/2024/09/16/the-earths-energy-imbalance-part-i/

Übersetzt von Christian Freuer für das EIKE

Teil 2 folgt in Kürze




Falscher Schein der Energiewende: Viele Argumente, wenig Realität

Gordon Tomb

Während sie viele Hindernisse aufzählen, die der Abkehr von fossilen Brennstoffen zugunsten „grüner“ Energie im Wege stehen, übergehen drei Autoren in der Zeitschrift Foreign Affairs eine wichtige Wahrheit: Die einst angepriesene, jetzt aber zum Scheitern verurteilte „Energiewende“ war und ist unnötig und unerwünscht.

Stattdessen ist der Titel des Artikels, „The Troubled Energy Transition: How to Find a Pragmatic Path Forward“ (Wie man einen pragmatischen Weg nach vorne findet) suggeriert (1), dass die so genannte Energiewende legitim ist und (2) dass sie trotzdem irgendwie stattfinden sollte. Beides ist falsch.

Die Autoren sind angesehene Männer: Daniel Yergin, ein mit dem Pulitzer-Preis ausgezeichneter Energiehistoriker; Peter Orszag, Vorsitzender und CEO von Lazard; und Atul Arya, Chef-Energiestratege bei S&P Global. In ihrem 5000 Wörter umfassenden Artikel werden die Themen ausführlich erörtert, aber die Sprache ist nicht sehr direkt und geht am Kern vieler Fragen vorbei.

So vergleichen die Autoren den Wechsel von fossilen Brennstoffen zu „grüner“ Energie mit der Ersetzung von Holz durch Kohle, die im 18. Jahrhundert begann und in den 1900er Jahren ihren Höhepunkt erreichte, und mit der Ablösung der Kohle durch Öl in den 1960er Jahren als dominierendem Brennstoff. Sie stellen fest, dass die verdrängten Energieträger bis weit in die Übergangsphase hinein genutzt wurden, so wie fossile Brennstoffe auch während der Einführung der heutigen Alternativen weiter genutzt werden – und sogar noch an Menge zunehmen.

In dem Artikel kommt jedoch die Energiedichte zu kurz, d. h. die Frage, wie viel Arbeit aus einer Einheit einer Energiequelle gewonnen werden kann. Bei früheren Umstellungen waren die nachfolgenden Energieträger in weitaus geringeren Mengen erforderlich als die zu ersetzenden Formen, um dieselbe Menge an Arbeit zu verrichten – Kohle besser als Holz, Öl besser als Kohle und Uran, das alles in den Schatten stellt.

Was den vermeintlichen Übergang von heute angeht, so heißt es in dem Artikel lediglich, dass „verbesserte Funktionalität und niedrigere Kosten … noch nicht in einem Großteil des gesamten Energiesystems vorhanden sind.“

Das bedeutet, dass Wind, Sonne, grüner Wasserstoff usw. für die Versorgung großer Bevölkerungsgruppen mit zuverlässiger, erschwinglicher Energie völlig unbrauchbar sind und dass Physik und Chemie keine glaubwürdigen Beweise dafür liefern, dass sie diese Rolle jemals ausfüllen können. Wind- und Solarkraftwerke beispielsweise benötigen ein Vielfaches an Land und Material, um die gleiche Menge an Strom zu erzeugen wie Kohle- und Kernkraftwerke. Aus diesem Grund scheitert die grüne Energie auch mit massiven Subventionen.

Über die Schwierigkeit, grüne Träume zu finanzieren, schreiben die Autoren: „Ein Teil des Problems sind die schieren Kosten: viele Billionen Dollar, mit großer Ungewissheit darüber, wer sie bezahlen soll.“ Es fehlen Anreize für private Investitionen, staatlich auferlegte Kohlenstoffsteuern sind problematisch, und die Bevölkerung weder der reichen noch der armen Länder kann es sich leisten, für all das zu bezahlen.

Nicht erwähnt wird, dass frühere Umstellungen von Erfindern, Investoren, Ingenieuren, Mechanikern und Handwerkern vorangetrieben wurden, die neue Brennstoffe einsetzten, um mit neuen Maschinen und Verfahren effizienter zu arbeiten. Neue Energiequellen haben sich organisch entwickelt, sie folgten den Gesetzen der Natur und der Wirtschaft und nicht den Diktaten der verblendeten Machtbesessenen, die von der Regierung gefördert werden.

Die schwachsinnige „Klima“-Politik der nationalen Regierungen hat die Dinge durcheinander gebracht. Energie ist in Ländern wie Deutschland und Kalifornien teurer und weniger verfügbar geworden, was zu einer vorhersehbaren wirtschaftlichen Zerstörung geführt hat. Das ist eine Wahrheit, die laut gesagt werden muss, immer und immer wieder von mehr klugen Leuten.

[Hervorhebung vom Übersetzer]

Der grundlegendste Fehler der Autoren ist die Behauptung, dass die Abkehr von fossilen Brennstoffen, um „Netto-Null-Emissionen“ zu erreichen, eine lohnende Aufgabe ist, die nur einen „pragmatischen Weg nach vorn“ benötigt. Genau das Gegenteil ist der Fall.

Berge von geologischen und historischen Beweisen und moderne Forschungen der Atmosphärenphysik zeigen das:

– Der Anstieg des atmosphärischen Kohlendioxids seit der industriellen Revolution hat das Gas auf ein für das Pflanzenwachstum optimales Niveau gebracht. Die Pflanzenproduktion hat sich verbessert, und die globalen Ökosysteme sind grüner geworden. Wir sollten mehr CO₂ in die Luft blasen, nicht weniger.

– Die heutige Erwärmung ist weder ungewöhnlich noch beispiellos. Vor 1.000 Jahren bauten die Wikinger auf Grönland Getreide an, und vor 2.000 Jahren züchteten die Römer in Nordengland Zitrusfrüchte. Heute ist es an beiden Orten zu kalt, um beides zu tun.

– Die Angstmacherei über den „Treibhauseffekt“ basiert auf Übertreibungen des Erwärmungspotenzials von CO₂ und anderen Gasen sowie auf fehlerhaften Computermodellen, die durch reale Daten wiederholt widerlegt wurden. Aufgrund des Phänomens der abnehmenden Erträge würde selbst eine Verdoppelung der CO₂-Konzentration gegenüber dem heutigen Stand nur zu einer bescheidenen, positiven Erwärmung führen.

Wir werden nicht erraten, warum so renommierte Autoren diese wohlbekannten Fakten übersehen, während sie die falsche Prämisse eines jahrzehntelangen Desasters in der öffentlichen Politik aufrechterhalten. Aber es gibt keinen „pragmatischen Weg nach vorn“ für eine Schein-Energiewende, und die Autoren sollten es besser wissen.

This commentary was first published at American Thinker on March 3, 2025.

Link: https://cornwallalliance.org/false-pretense-of-energy-transition-long-on-facts-short-on-truth/

Übersetzt von Christian Freuer für das EIKE

 




Kohle und Erdgas sind viel billiger als Wind und Solar!

James Taylor

Die Befürworter erneuerbarer Energien behaupten oft, dass Wind- und Solarenergie kostengünstiger sind als Kohle, Erdgas und Kernkraft. Eine solche Behauptung wirft die Frage auf, warum das stark subventionierte Solarkraftwerk Ivanpah nach einer langen Reihe von Konkursen anderer Projekte im Bereich der erneuerbaren Energien nun auch den Betrieb einstellen muss. Und warum bauen die meisten Länder der Welt weiterhin Kohlekraftwerke, wenn diese teurer sind als Wind- und Sonnenenergie? Die Antwort lautet: Wind- und Solarkraftwerke sind teuer und finanzielle Verlierer. Eine aktuelle, von Experten begutachtete Analyse beweist dies.

Eine in der Fachzeitschrift Energy veröffentlichte aktuelle Studie berichtet über die systembezogenen Kosten der Stromerzeugung. Der Begriff „Gesamtsystem“ ist entscheidend. Viele Unternehmen haben bewertet, was es die Versorgungsunternehmen kostet, Strom aus bestehenden Quellen zu kaufen oder zu erzeugen und an die Kunden zu liefern. Diese Kostenschätzungen ignorieren jedoch die Intermittenz von Wind- und Solarenergie und die Tatsache, dass diese Intermittenz erhebliche Kosten für das gesamte Stromnetz verursacht. Bei den Kostenschätzungen wird auch nicht berücksichtigt, dass Wind- und Solarprojekte nicht einfach irgendwo gebaut werden können und oft neue, lange, teure und ineffiziente Transformationsleitungen erforderlich sind, um den Strom von den Erzeugungsstandorten zu den Verbrauchern zu bringen. Auch dies führt zu erheblichen Mehrkosten für das gesamte Stromnetz.

Die Energy-Studie analysiert diese Faktoren und präsentiert einen Vergleich der Gesamtkosten von Wind-, Solar-, Kohle-, Erdgas- und Kernkraftwerken, bei dem alle Kosten auf einen Nenner gebracht werden. Das Ergebnis ist vernichtend für Wind- und Solarenergie und erklärt, warum die meisten Länder der Welt den Bau von Kohle- und Erdgaskraftwerken vorziehen.

Der geografische Standort ist ein wichtiger Faktor für die Kosten der Wind- und Solarenergieerzeugung. So ist beispielsweise die Erzeugung von Solarstrom in Deutschland mit seinen nördlichen Breitengraden und der häufigen Bewölkung dreimal so teuer wie die Erzeugung von Solarstrom in den südlichen Breitengraden und der allgemeinen Sonneneinstrahlung in Westtexas.

In der Tat ist Texas ein äußerst günstiges Umfeld für Wind- und Solarenergie. Vor allem im Westen von Texas sorgen der südliche Breitengrad, die vorherrschende Sonneneinstrahlung und stetig wehender Wind für äußerst günstige Bedingungen für Wind- und Solarenergie.

Doch selbst in Texas sind Wind- und Solarenergie laut der Energy-Studie unerschwinglich. Die Studie zeigt, dass in Texas erzeugter Solarstrom mehr als das Dreifache der Kosten für Kernkraftstrom, mehr als das Vierfache der Kosten für Kohlestrom und mehr als das Zehnfache der Kosten für Erdgasstrom beträgt.

Die Kosten der Solarenergie in Texas belaufen sich auf 413 Dollar pro Megawattstunde (mwh) Stromerzeugung. Windkraft kostet 291 $ pro mwh. Kernenergie kostet 122 Dollar, Kohlestrom 90 Dollar. Erdgasstrom kostet lediglich 40 $. Das ist ein enormer Preisunterschied zwischen Wind- und Solarenergie einerseits sowie allen anderen Energiequellen andererseits.

An den meisten Orten ist die Erzeugung von Wind- und Solarstrom sogar teurer als unter den günstigen Klimabedingungen in Texas. Der Unterschied ist also in der Regel noch größer als die oben genannten Zahlen.

Ein weiterer wichtiger Faktor ist, dass ein typischer Vorschlag für ein neues Wind- oder Solarenergieprojekt nicht den Bau von Wind- und Solarkraftwerken beinhaltet, um einen unmittelbar bevorstehenden neuen Energiebedarf zu decken. Normalerweise schlagen Klimaaktivisten und Monopolversorger vor, ein einwandfrei funktionierendes – und bereits gebautes und bezahltes – Kohle-, Kern- oder Erdgaskraftwerk abzuschalten und durch Wind- und Sonnenenergie zu ersetzen. Der Bau eines neuen Wind- oder Solarenergieprojekts zur Stromversorgung ist wesentlich teurer als der Bau eines neuen Kohle-, Kern- oder Erdgaskraftwerks zur Stromerzeugung. Die Stilllegung eines bereits bezahlten Kohle-, Kern- oder Erdgaskraftwerks für den Bau eines teuren neuen Wind- oder Solarprojekts ist wirtschaftlich noch weniger sinnvoll.

Energieversorger unterstützen diesen Wind- und Solarwahnsinn oft, weil sie mit Wind- und Solarprojekten viel Geld verdienen. Die Regierungen garantieren den Monopolversorgern in der Regel einen Gewinn von etwa 10 % auf ihre Ausgaben, einschließlich der Kosten für den Bau neuer Wind- und Solarprojekte. Die Baukosten für große Solarprojekte können 2 bis 3 Milliarden Dollar oder mehr betragen. Das bedeutet einen garantierten Gewinn von 200 Millionen Dollar oder mehr pro Projekt. Ein Energieversorger, der auf mehr Wind- und Solarenergie drängt, hat nichts damit zu tun, den Verbrauchern Geld zu sparen, sondern nur damit, die eigenen Taschen zu füllen.

[Hervorhebung vom Übersetzer]

Wenn das nächste Mal ein Klimaaktivist oder ein Wind- und Solaraktivist behauptet, Wind- und Solarenergie seien billiger als konventionelle Energiequellen, dann verweisen Sie ihn auf die von Fachleuten geprüfte Energiestudie und auf die tatsächliche Wahrheit.

Originally posted at The Center Square, reposted with permission

Link: https://climaterealism.com/2025/03/yes-coal-and-natural-gas-are-much-cheaper-than-wind-and-solar/

Übersetzt von Christian Freuer für das EIKE

 




Klima: Null Gründe für Alarmgeschrei

Cap Allon

Seit Jahrzehnten warnen Alarmisten vor einer steigenden Zahl von Todesopfern aufgrund von Wetterextremen. Historische Daten zeichnen jedoch ein ganz anderes Bild – ein Bild, das von bemerkenswerten Fortschritten bei der Reduzierung der menschlichen Verluste zeugt.

Vor einem Jahrhundert forderten wetterbedingte Ereignisse jedes Jahrzehnt Hunderttausende von Menschenleben. In den 1920er und 1930er Jahren waren die Verluste besonders verheerend, vor allem aufgrund von Dürren und Überschwemmungen. Mit der Verbesserung der Technologie, der Vorhersage und der Infrastruktur begannen diese Zahlen jedoch zu sinken.

In den 1970er Jahren war die Zahl der Todesfälle bereits deutlich zurückgegangen, und in den Jahrzehnten danach war der Rückgang noch dramatischer. Obwohl die Weltbevölkerung heute mehr als dreimal so groß ist wie zu Beginn des 20. Jahrhunderts ist die Zahl der Todesfälle durch extreme Wetterereignisse so niedrig wie nie zuvor:

Die Hauptgründe für diesen Trend liegen auf der Hand: bessere Frühwarnsysteme, verbesserte Katastrophenabwehr, stärkere Infrastruktur und globale Zusammenarbeit bei der Risikominderung. Die Daten unterstreichen eine entscheidende Tatsache: Die Menschheit ist widerstandsfähiger und anpassungsfähiger denn je.

Es besteht NULL Grund zur Sorge.

Außerdem nehmen extreme Wetterereignisse nicht zu, weder in ihrer Häufigkeit noch in ihrer Intensität. Die Katastrophisten werden auf eine Überschwemmung oder Dürre hinweisen und behaupten, der Himmel stürze ein, aber sie vergessen bequemerweise, Trenddaten zu zeigen:

Tornados in den USA sind sogar rückläufig:

Gleiches gilt für tropische Wirbelstürme (hier am Beispiel Australien)…

… und noch aussagekräftiger global:

Häufigkeit globaler Hurrikane (alle und größere) – 12-monatige Summen. Die obere Zeitreihe zeigt die Anzahl der weltweiten tropischen Wirbelstürme, die mindestens Hurrikanstärke erreichten (maximale Windgeschwindigkeit während der Lebensdauer über 64 Knoten). Die untere Zeitreihe ist die Anzahl der globalen tropischen Wirbelstürme, die eine größere Hurrikanstärke (96 Knoten+) erreichten. [climatlas.com]

Akkumulierte Wirbelsturmenergie der letzten 50 Jahre für die globale und nördliche Hemisphäre: laufende 24-Monats-Summen. Das angegebene Jahr zeigt den ACE-Wert der vorangegangenen 24 Monate für die nördliche Hemisphäre (untere Linie/graue Kästchen) und die gesamte Welt (obere Linie/blaue Kästchen). Der Bereich dazwischen stellt die Gesamt-ACE der südlichen Hemisphäre dar. [climatlas.com]

Außerdem sind die gleichen Regionen, von denen uns die UNO vor mehr als zwei Jahrzehnten versicherte, dass sie zu Wüsten werden würden, durch den Anstieg des atmosphärischen CO tatsächlich grün geworden.

Die Welt wird grüner. Das ist eine gute Sache.

[Hervorhebung im Original]

Oben habe ich bereits die erschreckende Realität aufgezeigt, aber hier ist ein Artikel aus der Times, der erst gestern (6. März) veröffentlicht worden ist:

Der Klimaalarm wird durch Dogmen und Propaganda gestützt, nicht durch Zahlen, Daten, Fakten.

Link: https://electroverse.substack.com/p/one-of-antarcticas-coldest-early?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Steht ein großes Dürrejahr bevor?

Christian Freuer

Angesichts des sehr trockenen Spätwinters und Frühjahrs in Mitteleuropa waren im Bekanntenkreis schon Äußerungen zu hören, dass „der Regen dann im Sommer nachgeliefert werden würde“. Dem Autor war aber klar, dass so einfache Zuordnungen bzgl. Wetter einfach nicht möglich sind. Aber es war ihm erinnerlich, dass der „Jahrtausendsommer“ des Jahres 1540 bereits im Vorlauf während des Spätwinters und Frühjahrs durch anhaltende Trockenheit in Mitteleuropa Fahrt aufnahm.

Betrachten wir diesen Präzedenzfall (auf den sich der Titel dieses Beitrags bezieht) mal etwas genauer. Dieser Jahrtausendsommer ist durch historische Chroniken und Aufzeichnungen gut belegt.

Bereits im Jahre 2014, genauer im Juli, hat Axel Bojanowski einen ausführlichen und gut recherchierten Artikel im „Spiegel“ dazu geschrieben. Die Lektüre desselben wird ausdrücklich empfohlen. Im aktuellen Zusammenhang ist daraus nur eine Passage relevant:

Das Vorspiel

Klimamodelle können solch extreme Phasen der Witterung nicht darstellen, haben die Experten entdeckt. Auch die Jahresringe von Bäumen fallen als Indikatoren aus – denn Hitzestress stoppe das Pflanzenwachstum. Das 32-köpfige Forscherteam hat nun aber erstmals Daten aus mehr als 300 Chroniken aus ganz Europa zusammengeführt, etwa Aufzeichnungen von Landwirten, Kirchen oder Schleusenwärtern – sie enthüllen Europas größte Naturkatastrophe.

Dass das Jahrtausenddesaster bereits 1539 Schwung aufnahm, blieb nördlich der Alpen unbemerkt. In Spanien hielten die Menschen seit Oktober Bittprozessionen für Regen ab. Und im Winter war es in Italien trocken und warm „wie im Juli“, heißt es in einer Wetterchronik. Heute wissen Meteorologen, dass Trockenheit im Süden oft Vorbote für andauernde Hitze im Norden des Kontinents ist.

https://www.spiegel.de/wissenschaft/natur/hitze-und-duerre-1540-katastrophe-in-europa-im-mittelalter-a-978654.html

Dieser „Vorbote für andauernde Hitze im Norden des Kontinents“ fällt diesmal aber aus – der vergangene Winter zeichnete sich im gesamten Mittelmeer durch sehr viel Regen aus – aktuell sogar bis in die Sahara hinein. Im Februar lag der Schwerpunkt der regenreichen Witterung im zentralen und östlichen, aktuell mehr im westlichen Mittelmeer. Für den Autor ist das zunächst einmal beruhigend, kann er doch Hitze und Dürre nicht leiden.

Aber halten wir mal nach anderen Quellen Ausschau. Eine solche recht vielversprechende Quelle ist ein Beitrag von Dr. Ludger Laurenz von vor einem Jahr unter dem Titel „Über den Zusammenhang zwischen dem Rekordniederschlag der letzten 12 Monate und der Sonnenaktivität – wie zwei natürliche Zyklen das Wetter der letzten Jahre geprägt haben“. Hier ein Auszug:

Der 22-jährige Hale-Zyklus der Sonne hinterlässt tiefe Spuren in der 166-jährigen Datenreihe der monatlichen Niederschlagssumme von Münster.

• Die Dürre 2018 und die hohe Niederschlagssumme 2023/2024 korrelieren mit der zyklischen Variation der Sonnenaktivität.

• Die Niederschlagsextreme 2018 und 2023/24 hätten auf Basis heutiger Erkenntnisse zum solaren Einfluss schon mehrere Jahre vorher prognostiziert werden können. Die auf solarem Einfluss basierte Langfristprognose von Niederschlagssummen bietet großes ökonomisches Potential für verschiedene Wirtschaftsbereiche.

• Die extreme Variabilität des Wetters der letzten 7 Jahre mit Dürre und Nässe sowie hohem Temperaturniveau wird immer wieder als Argument für Klimaschutzmaßnahmen benutzt, die meist mit wirtschaftlichem Schaden und Wohlstandsverlusten verbunden sind. Dabei beruht die Variabilität und der Charakter des Wetters der letzten 7 Jahre in Deutschland primär auf zwei natürlichen Zyklen, dem ca. 65-jährigen Temperaturzyklus des Nordatlantiks und dem ca. 22-jährigen Hale-Zyklus der Sonne.

Der solare Einfluss wirkt periodisch, wobei eine Periode ein Jahr dauert. Diese beginnt im Juli und endet im Juni des Folgejahres. Der solare Einfluss auf die Jahresniederschlagssumme zeigt sich in Zeiträumen über den Jahreswechsel stärker als in dem klassischen Jahreszeitraum von Januar bis Dezember, wie ich bereits in meinem letzten Beitrag abgeleitet habe. Als Jahresniederschlagssumme wird deshalb im Folgenden der Zeitraum von Juli bis Juni des folgenden Jahres gewählt.

Solarer Einfluss auf die 12-Monats-Niederschlagssumme Juli bis Juni des Folgejahres in Münster:

Das Diagramm zeigt Phasen mit chaotischem und gebündeltem Kurvenverlauf.

• Aus den Phasen mit gebündeltem Kurvenverlauf um die Zyklusjahre 9 und 14 kann solarer Einfluss abgeleitet werden. Die sich in den Zyklusjahren 9 und 14 ausbildenden Minima und Maxima bilden ein typisches Wiederholungsmuster des Hale-Zyklus als Beleg für solaren Einfluss, der sich im Rhythmus von ca. 22 Jahren wiederholt.

• 10 der seit 1858 niederschlagsärmsten 20 Jahre (s. gelbe Markierung) konzentrieren sich auf die Zyklusjahre 7 und 9. Diese Konzentration liefert ebenfalls ein Hinweis auf solaren Einfluss, der sich im Rhythmus von 22 Jahren wiederholt.

• Aufgrund der Häufung der 20 niederschlagsärmsten Jahre auf die 1858 und 2011 beginnenden Zyklen ist zu vermuten, dass auch längere Sonnenzyklen mit einer Phasenlänge von 150 bis 200 Jahren Einfluss auf die Niederschläge in Deutschland haben.

• Im Zyklusjahr 14 (rote Säule) wurde seit 1858 in 6 von 7 Zyklen eine weit überdurchschnittliche Niederschlagssumme gemessen. Deshalb war für 2023/24 eine hohe Niederschlagssumme sehr wahrscheinlich und prognostizierbar. Offensichtlich beruht die extrem hohe Niederschlagssumme 2023/2024 auf der zyklischen Variation der Sonnenaktivität.

• Das geordnete Auf und Ab der Kurven kann für Prognosen genutzt werden. Die Dürre 2018 und die hohe Niederschlagsaktivität von Juli 2023 bis Juni 2024 waren schon Jahre früher prognostizierbar. Für die Zeit von Juli 2024 bis Juni 2025 ist eine hohe Niederschlagssumme weniger wahrscheinlich, bevor von Juli 2025 bis Juli 2026 erneut mit überdurchschnittlicher Niederschlagssumme zu rechnen ist. Von 2026 bis 2029 sinkt die Niederschlagssumme tendenzielle, bevor ab Juli 2029 wieder eine höhere Niederschlagssumme wahrscheinlich ist.

• Obwohl die Sonnenaktivität während des 22-jährigen Hale-Zyklus losgelöst von den irdischen Kalenderjahren variiert, ist erstaunlich, wie sich die Variation der Sonnenaktivität in den Zyklusjahre 9 und 14 so zuverlässig in den extrem unterschiedlichen Niederschlagssummen widerspiegelt.

Soweit aus dem Artikel von Dr. Laurenz. Der Autor bedankt sich bei Josef Kowatsch für den Hinweis auf diesen Beitrag. Sein Kommentar dazu: „Das Regenmodell von Ludger Laurenz sagt für die erste Hälfte des Jahres wenig Regen voraus, berechnet nach dem 22-jährigen Hale-Sonnenzyklus und dem 65jährigen AMO-Zyklus, die sich gegenseitig ergänzen oder aufheben. Wir sind im 15. Jahr des Hale-Zyklus’ zusammen mit Jahren von 2002, 1982, 1960, 1940. Laut der Graphik oben hat seine Vorhersage für das vorige Jahr 2024 gestimmt.“

Fazit hiernach: Bis einschließlich Juni sollte bei uns Trockenheit vorherrschen, danach soll es nasser werden.

Vom Phänologie-Experten Stefan Kämpfe gibt es den Hinweis, dass eine Frühjahrstrockenheit in Mitteleuropa statistisch gesehen ein weiterhin trockenes Frühjahr und einen heißen Sommer 2025 wahrscheinlich macht.

Nun gut, schauen wir jetzt mal, welche Wetterlagen eine solche Witterung bestimmen könnten. Am besten lässt sich so etwas mit der Rossbywellen-Theorie beschreiben.

Der Autor bekennt, dass er keine Vorstellung hat, welche Konstellation von Rossby-Wellen zum „Jahrtausendsommer“ 1540 geführt haben könnte. Klar ist nur, dass es ein außerordentlich stabiles Muster gewesen sein muss, geprägt von hohem Luftdruck über weiten Teilen Mitteleuropas. An sich gehört dazu rege Tiefdrucktätigkeit über dem Mittelmeer, so wie es im vergangenen Winter ja auch der Fall war. Im angelsächsischen Sprachgebrauch hat man dafür der Terminus „High over Low“ geprägt.

Im Jahre 1540 muss diese Zyklonalität im Mittelmeer aber vollständig gefehlt haben. Wie oben schon erwähnt fällt dieser Umstand als Vorbote einer Dürre in diesem Jahr 2025 aus.

Fazit aus alldem: Vorhersagen sind ungenau, sofern sie die Zukunft betreffen. An Langfrist-Vorhersagen haben sich schon viele Leute versucht, durchweg auf statistischer Grundlage. Die erfolgreichste Bilanz in dieser Hinsicht weisen in früheren Jahren die Arbeiten von Stefan Kämpfe auf, siehe seine Bemerkung oben.

Unter dem Strich: Der Autor ist nicht in der Lage, die Frage aus dem Titel dieses Beitrags zu beantworten.

Schlussbemerkung: Für den Rest dieses Monats März 2025 simulieren die numerischen Modelle zumindest in Teilen Mitteleuropas Niederschläge, die jedoch das allgemeine Defizit nicht ausgleichen dürften. Überreichliche Regenmengen werden dagegen weiterhin für das Mittelmeergebiet angenommen, was schon wenig südlich der Alpen seinen Anfang nehmen soll:

Numerische Simulation der Niederschlagsmenge vom 9. März 00 UTC bis zum 19. März 00 UTC. Quelle: wetterzentrale.de

Fehlt in diesem Beitrag nicht noch was? Ach ja, der Terminus „Kohlendioxid“ ist nicht ein einziges Mal aufgetaucht…