Kurzbeiträge zu neuen Forschungsergebnissen – Ausgabe 7 / 2025

Vorbemerkung des Übersetzers: Die diesmal gemeldeten Vorgänge bedürfen eigentlich keiner weiteren Bemerkungen, aber der Titel ist in einem Fall nicht ganz zutreffend – und zwar für die letzte Meldung. Sie erscheint hier vor dem Hintergrund einiger Kommentare zum letzten Beitrag auf der EIKE-Website zu diesem Thema.

Zwei Meldungen vom 11. März 2025:

Vorgänge in der Stratosphäre

Der Polarwirbel, eine hoch gelegene Zirkulation starker Winde über der Arktis, trägt dazu bei, kalte Luft in der Nähe des Pols festzuhalten. Wenn dieses System durch eine plötzliche stratosphärische Erwärmung (SSW) geschwächt wird, kann dadurch arktische Luft nach Süden gedrückt werden, was zu Kälteausbrüchen in Nordamerika, Europa und Asien führt.

Diese Ereignisse treten in der Regel alle zwei Jahre auf, aber die Häufigkeit hat zugenommen – drei Mal im letzten Jahr und ein weiteres Mal in diesem Jahr. Dies deutet auf eine Veränderung der atmosphärischen Dynamik hin, die möglicherweise mit dem Hunga-Tonga-Ausbruch von 2022 zusammenhängt.

Die neuesten Daten der NOAA zeigen, dass ein SSW-Ereignis im Gange ist:

Wie gezeigt, sind die Windgeschwindigkeiten in 10 hPa, die normalerweise im Hochwinter ihren Höhepunkt erreichen, abrupt eingebrochen und haben sich sogar umgekehrt. Gleichzeitig sind die Temperaturen in der Stratosphäre weit über den Normalwert gestiegen. Es kann Tage oder Wochen dauern, bis sich diese Störung vollständig auf das Oberflächenwetter auswirkt, aber die Vergangenheit zeigt, dass sie die Wahrscheinlichkeit extremer Kälteausbrüche in den kommenden Wochen bis weit in den NH-Frühling hinein erhöht.

Durch den Tonga-Ausbruch wurde eine Rekordmenge an Wasserdampf in die obere Atmosphäre geblasen, was die Häufigkeit dieser SSW-Ereignisse durch eine veränderte Wärmeverteilung erhöhen könnte. Während jede SSW kurzfristige Kälterisiken birgt (z. B. Ausbrüche aus der Arktis in die niederen Breiten), würde ein langfristiger Trend derartiger Ereignisse die globale Abkühlung beschleunigen.

Die Atmosphäre scheint sich anzupassen, und was wir sehen, scheint keine bloße Winteranomalie zu sein – es könnte der Beginn einer breiteren klimatischen Veränderung sein. Die Zeit wird es zeigen, wie immer – und wir sind hier, um es genau zu dokumentieren.

———————————-

Nichts was sie sagen …

Die Fähigkeit, fehlgeschlagene Klimaprognosen bequem zu übersehen, ist in jedem Klimaalarmisten tief verwurzelt.

Damit wird eine ein halbes Jahrhundert währende Tradition von Schwarzmalern fortgesetzt, die zuversichtlich den bevorstehenden Untergang der Menschheit verkünden, nur um dann peinlich für sie widerlegt zu werden.

Hier sind 10 Beispiele (eine keineswegs erschöpfende Liste):

1. 1970: S. Dillon Ripley behauptete, dass 75-80 % aller Arten bis 1995 verschwinden würden. Das ist nicht eingetreten.

2. 1970: Der Ökologe Kenneth Watt behauptete, dass das Erdöl verschwinden, das Ackerland unbrauchbar werden und die globalen Temperaturen bis zum Jahr 2000 um 11 Grad sinken würden. Völlig falsch.

3. 1970: Der Biologe Paul Ehrlich erklärte, dass aufgrund von Überbevölkerung jährlich 200 Millionen Menschen verhungern würden, das Leben im Meer verschwinden und die Lebenserwartung auf 42 Jahre sinken würde. Völlig falsch.

4. 1970: Professor Peter Gunter sagte eine weltweite Hungersnot (außer im Westen) bis zum Jahr 2000 voraus. Spektakulär gescheitert.

5. 1971: Dr. S. I. Rasool von der NASA sagte eine bevorstehende neue Eiszeit innerhalb von 50 Jahren voraus. Nicht einmal annähernd.

6. 1975: Ehrlich behauptete, dass innerhalb von 30 Jahren 90 % der tropischen Regenwälder und die Hälfte der Arten auf der Welt verschwinden würden. Beide Behauptungen sind lachhaft falsch.

7. 1988: Der maledivische Beamte Hussein Shihab warnte, seine Inseln würden innerhalb von 30 Jahren unter Wasser versinken und bis 1992 kein Trinkwasser mehr haben. Beides erwies sich als falsch.

8. 2004: Ein Pentagon-Bericht warnte davor, dass der Klimawandel bis 2020 ein globales Chaos verursachen, europäische Großstädte unter Wasser setzen und Großbritannien in ein sibirisches Klima stürzen würde. Trat nicht ein.

9. 2008: Bob Woodruff von ABC moderierte ein Special, in dem er vorhersagte, dass New York City bis 2015 unter Wasser stehen würde. Lächerlich ungenau.

10. 2009: Al Gore bestand darauf, dass die Arktis bis 2014 vollständig eisfrei sein würde. Peinlich falsch.

Diese ständigen Fehlprognosen untergraben nicht nur das Vertrauen der Öffentlichkeit, sondern verdeutlichen auch die von der Agenda gesteuerte Hysterie, die den Klimaalarmismus anheizt. Trotz jahrzehntelanger gescheiterter Vorhersagen beharren die Aktivisten weiterhin darauf, dass die Katastrophe vor der Tür steht – die Wissenschaft sagt es ihnen, 97 % der Wissenschaftler stimmen zu, usw. usw.

Kurz gesagt: Nichts von dem, was das Klimatariat vorhergesagt hat, ist eingetreten:

[Hervorhebung im Original]

Link: https://electroverse.substack.com/p/dome-fuji-to-672c-89f-march-blizzards?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————-

Eine Meldung vom 12. März 2025:

Klima-Gipfel am Amazonas

Ein Klimagipfel im Amazonasgebiet – gibt es eine bessere Ausrede, um den Regenwald mit Bulldozern zu plündern? Die COP30 wird 50.000 Politiker, Führungskräfte und Bürokraten nach Brasilien bringen, und ihr erster Tagesordnungspunkt? Zehntausende Hektar geschützten Dschungels zu zerstören, um eine vierspurige Autobahn zu bauen.

Diese so genannten Umweltschützer nehmen einen Teil des Amazonasgebietes aus, um eine Tugendfarce zu veranstalten. In der Zwischenzeit haben Einheimische wie Claudio Verequete, der einst seinen Lebensunterhalt mit der Ernte von Açaí-Beeren von den nun eingeebneten Bäumen verdiente, nichts mehr.

Die Regierung versichert uns, dass es sich um eine „nachhaltige Autobahn“ handelt, weil es dort Fahrradspuren und Solarleuchten und so einen Blödsinn geben wird. Und machen Sie sich keine Sorgen um die Faultiere und Jaguare, denn es wird viele „Wildwechsel“ geben, die sie sich friedlich teilen können.

Darüber hinaus investiert Brasilien zig Millionen Dollar in den Ausbau des Flughafens, in Hotels und in einen neu gestalteten Hafen für Kreuzfahrtschiffe – denn nichts steht so sehr für „Klimaschutz“ wie VIP-Komfort. Ein 500.000 Quadratmeter großer Park ist ebenfalls in Planung.

All das, damit die führenden Politiker der Welt in Privatjets einfliegen, sich selbst auf die Schulter klopfen und ihre Klimahysterie verbreiten können. Der Klimawandel ist keine Krise – er ist natürlich, zyklisch und ganz sicher nichts, was die Abholzung eines Regenwaldes für einen glorifizierten PR-Gag rechtfertigt.

Die Idiotie ist erdrückend.

Link: https://electroverse.substack.com/p/saskatchewan-freeze-aussie-cyclones?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

———————————-

Eine Meldung vom 13. März 2024 (siehe Vorbemerkung oben):

Richter verurteilt Michael Mann (erneut)

Michael E. Mann, der seit langem für seine aggressiven juristischen Taktiken bekannt ist, wurde in seinem Verleumdungsprozess gegen Mark Steyn und andere wegen böswilligen Fehlverhaltens bestraft.

In seinem Urteil stellte Richter Alfred S. Irving Jr. fest, dass Mann und seine Anwälte den Geschworenen wissentlich falsche Beweise für den angeblichen Verlust von Fördergeldern vorgelegt haben.

In seiner 2012 eingereichten Klage behauptete Mann, er habe aufgrund kritischer Artikel Fördermittel verloren. Doch als seine Anwälte Beweise vorlegten, war die Hälfte ihrer Zahlen schlichtweg falsch. Der Richter nannte dies „verblüffend“ und entschied, dass Manns Anwaltsteam die Geschworenen wissentlich in die Irre geführt habe.

„Hier stellt das Gericht anhand eindeutiger und überzeugender Beweise fest, dass Dr. Mann durch Herrn Fontaine und Herrn Williams in böser Absicht gehandelt hat, als sie den Geschworenen und dem Gericht falsche Beweise vorlegten und falsche Darstellungen bezüglich der Schäden durch den Verlust von Fördergeldern machten.“

Manns eigene eidesstattliche Erklärungen widersprachen seinen Behauptungen, wobei der angebliche Verlust eines Zuschusses von 9,7 Millionen Dollar auf nur 112.000 Dollar schrumpfte. Seine Anwälte versuchten, die Schuld auf die Verteidigung abzuwälzen, aber Richter Irving nahm ihnen das nicht ab. Das Gericht entschied, dass es sich bei den falschen Angaben nicht um Irrtümer, sondern um Vorsatz handelte.

Infolgedessen verurteilte das Gericht Mann dazu, die Prozesskosten der Beklagten zu tragen.
Bei Manns Klage ging es nie um Gerechtigkeit – es war ein Versuch, seine Kritiker zum Schweigen zu bringen. Mann ist ein Lügner, das beweist dieses Gerichtsurteil nun.

Die Gerichtsakte in vollem Umfang steht hier.

Link: https://electroverse.substack.com/p/towering-snow-corridors-in-japan?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE




Das Energie-Ungleichgewicht der Erde: Teil II

Kevin Kilty

Teil I dieser Reihe [in deutscher Übersetzung hier] konzentrierte sich auf die Datenquellen, die ein Energie-Ungleichgewicht belegen, die Größenordnung dieses Energie-Ungleichgewichts und die wahrscheinliche Unsicherheit dieser Größenordnung. Messungen deuten darauf hin, dass diese Größenordnung höchstwahrscheinlich bei 0,76 W/m² liegt, aber die Unsicherheit wird optimistisch mit nur 0,1 angegeben. Selbst die Autoren wissenschaftlicher Berichte geben zu, dass ihre Unsicherheit nicht alle Faktoren einschließt, insbesondere Instrumenten- und Verarbeitungsfehler. Der größte Teil (89 %) dieses Energie-Ungleichgewichts führt zur Erwärmung der Ozeane.

Teil II untersucht die Klima-Rückkopplung, ihr mögliches Ausmaß und die wahrscheinliche Unsicherheit. In Teil III werde ich mich, wenn ich dazu komme, darauf konzentrieren, ob die Erde einen Regulator besitzt oder nicht, d. h. ob es einen physikalischen Prozess gibt, der die Reaktion auf ein solches Ungleichgewicht in der Zukunft begrenzt. Insbesondere wird Teil III den merkwürdigen Status des Prinzips von Le Chatelier untersuchen, auf das man sich in letzter Zeit oft beruft, um anzudeuten, dass es einen solchen Regulierungsprozess geben muss.

Die Standard-Sichtweise

Es ist am besten, mit dem Standardargument zu beginnen, warum ein Anstieg des CO₂ die Temperatur erhöhen wird. Dann hinterfragen wir dieses Argument. Abbildung 1 stammt aus einem Übersichtsartikel von Held und Soden (im Folgenden H&S) aus dem Jahr 2000 [1], der jedoch 2006 weitgehend wiederholt wurde.[2] Ich kann es nicht besser erklären, als H&S selbst zu paraphrasieren. Ihr Übersichtsartikel erklärt meiner Meinung nach die Standardansicht so klar und einfach wie nichts anderes, das ich gelesen habe.

Um das Energiegleichgewicht aufrechtzuerhalten, muss die Erde den Anteil von 240 W/m² der absorbierten Sonnenstrahlung, den sie erhält, in den Weltraum zurückstrahlen. Um dies auszugleichen, müsste ein Schwarzer-Körper-Strahler eine Temperatur von 255 K (240 = σ Te⁴) haben, die wir als Emissionstemperatur Te bezeichnen wollen. Diese Temperatur tritt in einer Höhe über der Oberfläche auf, die wir Ze nennen. Wie in Abbildung 1 dargestellt, könnte man sich vorstellen, dass ein durchschnittliches Infrarotphoton aus der Nähe dieser Höhe in den Weltraum entweicht.

H&S sagen: „Es ist eine grobe Vereinfachung anzunehmen, dass sich die Temperaturgradienten innerhalb der Troposphäre nicht ändern, wenn sich das Klima erwärmt, aber diese einfache Annahme hat sich als sehr nützlicher Bezugspunkt erwiesen…“

Bei festem Te und festem Gradienten (Konvektionsrate Γ) ist die Temperatur dann: Ts = Te + ΓZe. In diesem einfachen Modell spielen nur Änderungen von Ze eine Rolle. Die Argumentation geht nun in die folgende Richtung:

Eine erhöhte CO₂-Konzentration in der Atmosphäre macht die Atmosphäre für die von der Oberfläche ausgehende Infrarotstrahlung undurchsichtiger. Um also eine CO₂-verdoppelte Atmosphäre zu haben, die oberhalb von Ze gleich transparent ist, damit das durchschnittliche Photon entweichen kann, muss sich Ze höher in der Atmosphäre befinden. Eine Verdopplung von CO₂ macht die undurchsichtige Atmosphäre oberhalb von Ze+150m gleich transparent. Der konstante Gradient von 6,5 K/km bedeutet jedoch, dass die Temperatur in Ze+150m um etwa 1 K niedriger ist, und nach dem Stefan-Boltzmann-Gesetz bedeutet dies eine Verringerung der ausgehenden Strahlung um etwa 4W/m²(236,3 = σ 254⁴). Es entsteht ein Energie-Ungleichgewicht, das die gesamte Atmosphäre und Oberfläche erwärmt.

Wasserdampf-Konzentration

Die Auswirkungen hören an diesem Punkt nicht auf. Die gesamte Atmosphäre ist nun 1 K wärmer, und an der Erdoberfläche führt diese höhere Temperatur nach der Clausius-Clapeyron-Beziehung zu einem Anstieg des Wasserdampfdrucks bei Sättigung um etwa 7 %. Dadurch wird die Atmosphäre noch undurchsichtiger, und der Ze-Wert steigt erneut. Der Prozess wiederholt sich, konvergiert aber zu einem neuen Gleichgewicht bei einer Erhöhung der Temperatur um 1/(1-βH₂O), wobei βH₂O=0,4 der Rückkopplungsfaktor für Wasserdampf ist. Wie H&S in ihrer Studie von 2006 sagen, sind „eine Reihe wichtiger Aspekte der hydrologischen Reaktion auf die Erwärmung eine direkte Folge des Anstiegs des Wasserdampfs in der unteren Troposphäre.“

Meine Kritik

Auch wenn H&S zugeben, dass dieses Modell eine zu starke Vereinfachung darstellt, wollen wir dennoch die wichtigsten Elemente in der Reihenfolge ihres Auftretens überprüfen.

Bei 255 K gibt es keine Emissions-Oberfläche.

Erstens scheint man buchstäblich an eine Emissionsfläche in der mittleren Troposphäre mit einer Temperatur von 255 K zu glauben, die wie ein schwarzer Körper strahlt. Mit anderen Worten, sie betrachten das Problem als ein typisches Randwertproblem, bei dem die Oberfläche als eine Grenze und eine imaginäre Schicht darüber als die andere Grenze fungiert. Während sich die Oberfläche wie ein nahezu schwarzer Körper verhält (Emissionsgrad = 0,97), ist die klare Atmosphäre nirgends so emittierend, dass eine dünne Schicht wie ein schwarzer Körper wirken würde. H&S selbst sagen in einer anderen Veröffentlichung [3]: „…Aufgrund ihres viel größeren Emissionsvermögens ist der Beitrag der Oberfläche um eine Größenordnung größer als der einer einzelnen 100-mb-Atmosphärenschicht.“ Stattdessen entweicht die kompensierende ausgehende LWIR über einen breiten vertikalen Bereich der Atmosphäre, der für einige Wellenlängen direkt an der Oberfläche beginnt.[4] Die obere Grenze dieses Problems ist komplex.

Anstelle eines einzigen Freiheitsgrades Ze, der die Temperatur festlegt, gibt es viele verschiedene Konfigurationen, die diese Aufgabe erfüllen. Die Emissionsfläche hat eine komplizierte, sich ständig ändernde Konfiguration. Während der Gedanke einer Vergrößerung der Emissionsfläche eine mögliche Reaktion ist, könnte eine von oben entfeuchtete Atmosphäre, wie sie der Niederschlag bewirkt, die durchschnittliche Emissionsfläche tiefer in die Atmosphäre verlagern, ohne die Temperatur wesentlich oder überhaupt zu verändern [5].

Strahlungs-Konvektions-Gleichgewichts-Doktrin

Zweitens ist der unveränderliche Wert von 6,5 K/km für den Gradienten des Strahlungs-Konvektions-Gleichgewichts nicht hilfreich. Jeder, der sich mit Temperaturprofilen befasst hat weiß, dass sie sehr viel komplexer sind als nur ein konstanter Gradient. Abbildung 2 zeigt eine Reihe von atmosphärischen Modell-Temperaturprofilen, die aus MODTRAN stammen. Man beachte, dass der einzige konstante 6,5 K-Gradient in der Reihe die US-Standardatmosphäre von 1976 liegt – ein erfundenes Profil der atmosphärischen Nicht-Struktur, das von einem Ausschuss entworfen wurde.[6] Die anderen Beispiele haben tatsächlich eine gewisse Struktur, die uns etwas über die Dynamik der Wärmeübertragung in verschiedenen Gegenden sagt.

Abbildung 2

Verdunstung

In diesem vereinfachten Modell nimmt der Wasserdampf den ersten Platz ein, insbesondere in den Tropen. Die Berufung auf die Clausius-Clapeyron-Beziehung (im Folgenden CC) bedeutet, dass jeder Anstieg der Temperatur um 1K 7% mehr Wasserdampf in die untere Troposphäre bringt – das ist eine geometrische Zunahme des stärksten Treibhausgases.

Um die CC-Skalierung voranzutreiben, stützen H&S ihre Analyse auf eine atmosphärendynamische Beziehung für den Verdunstungsprozess [7]. Ich habe hier und an anderer Stelle bereits mehrfach argumentiert, dass diese CC-Skalierung falsch ist, weil die Verteilung von Wasserdampf in der Atmosphäre nicht im Gleichgewicht ist und von Transportprozessen abhängt. Sie ist energieabhängig, wohingegen Modelle der atmosphärischen Dynamik der Verdunstung einfach davon ausgehen, dass die Energieabhängigkeit verschwindet [8].

Die technische Hydrologie befasst sich mit der Verdunstung aus der Oberflächenspeicherung.[9] Von den Ausdrücken für die Verdunstung, die aus diesem Schwerpunkt heraus entwickelt wurden, basieren einige auf der atmosphärischen Dynamik, andere auf der Energiebilanz und wieder andere sind eine Kombination aus beidem.[10] Ausdrücke, die auf der atmosphärischen Dynamik basieren, funktionieren gut genug, haben aber ein Größenproblem, weil sie die Energiebilanz nicht berücksichtigen. Ohne Energiebilanz ist der Prozess unphysikalisch.

Landsay, et al. sagen in Bezug auf die für die Verdunstung verwendete Energie:

„In tiefen Seen mit beträchtlicher Wärmespeicherkapazität haben plötzliche Wind- und Feuchtigkeitsschwankungen länger anhaltende Auswirkungen; die Wärme, die in den oder aus dem Speicher fließt, trägt zum Ausgleich des Energiebedarfs bei. Durch die Nutzung der gespeicherten überschüssigen Energie kann eine übermäßige Verdunstung während einer trockenen, windigen Woche die Verdunstung reduzieren, die sonst in den folgenden Wochen auftreten würde.“ [10]

Die Energiebilanz stellt eine Einschränkung dar. Ich halte die atmosphärische Dynamik für ein schwaches Argument. Die Verdunstung (Tiefe des pro Zeiteinheit verdunsteten offenen Wassers) auf der Grundlage einer Energiebilanz würde etwa so aussehen:

E=(Qn+Qv-Q)/(ρHv(1+R) )

Dabei sind: R ist das Bowen-Verhältnis, Qn=Nettowellenstrahlung, Qₒ ist die Energie, die gespeichert wird, Qv=Energie, die zugeführt wird, und Hv ist die latente Verdampfungswärme.

Ignorieren von Beobachtungen zugunsten der Theorie

Bezüglich der Rückkopplungsverstärkung durch Wasserdampf sagen H&S folgendes:

…Es gibt kein einfaches physikalisches Argument, das uns bekannt ist, aus dem man von vornherein hätte schließen können, dass βH₂O kleiner als eins ist. Der Wert von βH₂O steigt in der Tat mit der Erwärmung des Klimas, wenn die relative Luftfeuchtigkeit konstant bleibt. Auf dieser Grundlage könnte man erwarten, dass sich bei einer ausreichenden Erwärmung des Klimas schließlich Runaway-Bedingungen entwickeln.“

Man könnte so antworten: Es gibt kein einfaches physikalisches Argument, außer dass der Vorläufer von Wasserdampf, flüssiges Wasser, seit 4 Milliarden Jahren einen Großteil der Erdoberfläche bedeckt, und zwar unter sehr unterschiedlichen Bedingungen, einschließlich erhöhtem CO₂-Gehalt, und wir haben nicht im Entferntesten so etwas wie einen unkontrollierten Treibhauseffekt beobachtet. Vielmehr haben wir häufiger Ausschläge in außergewöhnliche Kälte beobachtet.

Klimamodellierer scheinen mehr von der Übereinstimmung ihrer Modelle beeindruckt zu sein als von den Beobachtungen. Ich bin kein Klimamodellierer, aber ich bin nicht beeindruckt von dem Nachweis der Korrektheit durch Übereinstimmung zwischen den Modellen. Ich habe einige Erfahrung mit der Modellierung des Wärmetransports. Ich habe komplexe Codes für alle möglichen Zwecke von einer Programmiersprache in eine andere übersetzt und die Ergebnisse überprüft. Es kam häufig genug vor, dass ich die gleichen Fehler in verschiedenen Plattformen fand, was auf eine gemeinsame Abstammung der Codes schließen lässt; manchmal besteht die Übereinstimmung einfach in mangelnder Unabhängigkeit.

Die Kontroverse um den Wasserdampf beenden

Viertens, wie H&S sagen, erfordert das Beenden der Wasserdampf-Kontroverse einen Vergleich mit Daten.
„Angesichts der Beschleunigung der von vielen Modellen vorhergesagten Trends glauben wir, dass weitere 10 Jahre angemessen sein könnten und 20 Jahre sehr wahrscheinlich ausreichen werden, damit das kombinierte Satelliten- und Radiosondennetzwerk die Vorhersagen über den zunehmenden Wasserdampf in der freien Troposphäre und seine Auswirkungen auf die globale Erwärmung überzeugend bestätigen oder widerlegen kann.“

Wie gut ist die zugrunde liegende Physik verstanden?

Bob Irvine schrieb vor zwei Jahren über Feedback. Er zeigte Daten, die denen in Abbildung 3 ähneln, aber unabhängig davon sind. Abbildung 3 zeigt die Era5-Reanalyse aus den Tropen, in der 2m-Temperatur- und Taupunktdaten gegeneinander aufgetragen sind. Es gibt einen Anstieg der Taupunkt-Temperaturen, der spezifischen Luftfeuchtigkeit oder des Mischungsverhältnisses, je nachdem, was man bevorzugt, alle zeigen einen bescheidenen Anstieg der absoluten Luftfeuchtigkeit von etwa 3 % in den letzten zwei Jahrzehnten. Der beobachtete Anstieg spricht nicht für eine CC-Skalierung und schon gar nicht für eine konstante relative Luftfeuchtigkeit.

Abbildung 3

Irvines Aufsatz enthält eine Tabelle, in der die Rückkopplungswerte von AR4 und AR6 verglichen werden. Von besonderem Interesse sind die großen Veränderungen bei den kombinierten Rückkopplungswerten für Wasserdampf + Gradient. Im AR4 (2007) beträgt dieser Wert 0,96 ± 0,08 W/Km². Im AR6 (2019) wird er mit 1,30 (1,15 bis 1,47) angegeben. Vielleicht hat die Feststellung, dass der Wasserdampf in den zwei Jahrzehnten von 2000 bis 2019 nicht mit der Skalierung des Klimawandels Schritt gehalten hat, zu dieser Änderung geführt. Von größerem Interesse ist die angegebene Unsicherheit.

Die AR4-Unsicherheit von 0,08 bezieht sich auf einen Erweiterungsfaktor von 1,0, und das Intervall für AR6 ist das 90 %-Konfidenzintervall. Damit liegen die zentralen Werte vier Standardabweichungen auseinander, was bedeutet, dass jede Schätzung in Anbetracht der anderen höchst unwahrscheinlich ist. Darüber hinaus zeigt eine Grafik in Referenz [3] die Wasserdampf- und Gradient-Rückkopplungswerte separat. Wie bereits in Teil I in Bezug auf das Energie-Ungleichgewicht erwähnt, wird die Unsicherheit der kombinierten Größen kleiner als die Unsicherheit ihrer Komponenten. Wie kommt dies zustande? Möglicherweise sind Modellverzerrungen bei den Schätzungen der Wasserdampf-Rückkopplung antikorreliert mit Verzerrungen bei der Gradient-Rückkopplung.

Wolken-Rückkopplung

Jeder weiß, dass Wolken eine Schwachstelle der globalen Klimamodelle sind. Nicht jeder erkennt jedoch die enorme Variabilität der Wolken von Tag zu Tag. Die nachstehende Abbildung 4 zeigt, wie die gesamte abwärts gerichtete Sonnenstrahlung an zwei eng beieinander liegenden Tagen entlang der Front Range von Colorado aussieht. Die Rohdaten sind nach UTC-Tagen aufgeschlüsselt, so dass diese Diagramme zusammengefügt sind. Dennoch ist das, was sie zeigen, offensichtlich. Der teilweise bewölkte Tag weist eine erhöhte Abwärtsstrahlung auf, wenn Cumulus- oder Cumulonimbuswolken nördlich und nordwestlich des Observatoriums das Streulicht auf das Observatorium lenken, aber häufiger eine verringerte Strahlung für subarktische Winterbedingungen, wenn sie das Observatorium beschatten. Die Veränderung der täglich empfangenen Sonneneinstrahlung (abwärts gerichtete Gesamtsonneneinstrahlung) liegt zwischen 34.000 kJ/m² an einem klaren Tag und 23.000 kJ/m² an einem anderen. Das ist nach jedermanns Schätzung gewaltig. Sogar die Albedo der Oberfläche (Verhältnis von blauer zu roter Kurve) ändert sich von 18,8 % auf 19,3 %, einfach aufgrund der Umlenkung des Sonnenlichts.

Abbildung 4

Abbildung 5 stammt von Daten, die an einem klaren Sommertag nördlich von Laramie in Wyoming auf einer Höhe von 2200 m aufgenommen worden sind. Hier gibt es keinen SURFRAD-Standort, aber ich besitze zahlreiche Radiometer und war dabei, eines zu testen und zu kalibrieren. Wie es der Zufall so will, erwischte ich die schönsten Wolken – subvisuelle Zirren, die so substanzlos waren, dass ich sie mit dem Auge nicht erkennen konnte. Das Radiometer erkannte sie jedoch, und gelegentlich, wenn die Zirruswolken ein mit dem Auge erkennbares Wölkchen bildeten, das vor der Sonne vorbeizog, konnte ich es mit dem Radiometer in Verbindung bringen.

Lynch [12] geht davon aus, dass diese Wolken eine optische Tiefe von etwa τ=0,03 haben, was eine Änderung der Leistungsdichte in der Größenordnung von 1000⁰,⁰³ = 970 oder eine Abnahme von 30 W/m² bedeuten würde. Dies entspricht in etwa dem, was Abbildung 5 zeigt. Selbst in diesem Fall der geringsten vorstellbaren Bewölkung ist die Wirkung also zehnmal größer als die einer Änderung der Temperatur um 1 K.

Wolken haben einen großen Einfluss auf das Klima.

Abbildung 5

Dieser Klimaantrieb ist jedoch nicht das, was „Rückkopplung“ im Kontext der Klimawissenschaft bedeutet. Rückkopplung ist der Effekt, den eine wärmere Oberfläche auf die Strahlungsdifferenz zwischen klarem Himmel und Gesamthimmel hat. Es handelt sich um die Veränderung des Wolkenforcings (klarer Himmel minus Gesamthimmel), und erschwerend kommt hinzu, dass der klare Himmel wiederum eine Berechnung aus der Theorie ist. AR4 gibt den Rückkopplungseffekt der Wolken mit 0,69 ± 0,38 W/K-m² an; AR6 nennt 0,42 (-0,1 bis 0,94).

Erkundung der Rückkopplungen

Modelle führen im Allgemeinen zu einer positiven Rückkopplung. Ich habe keine Grundlage, um das zu bestreiten. Was ich nicht glaube ist, dass eine relativ winzige Differenzgröße, die als Differenz zwischen zwei anderen großen variablen Größen berechnet wird, die ihrerseits Differenzen großer variabler Größen sind, nicht von Unsicherheiten erdrückt wird. Dies gilt insbesondere angesichts der mangelnden Auflösung von Klimamodellen und der Parametrisierung von Dingen wie Wolken, Konvektion und Niederschlag, die nicht direkt aus der Physik berechnet werden.

Ich bin kein Gegner der Klimamodellierung, aber ich würde mir wünschen, dass die Ergebnisse der Modellierung durch einen Vergleich mit Beobachtungen untermauert werden könnten. Mir ist durchaus bewusst, dass die Beobachtungen mit Problemen der Kalibrierung und Datenreduzierung behaftet sein können, so dass die Ergebnisse ebenfalls mit großen Unsicherheiten behaftet sind. Trotzdem möchte ich ab und zu einen Vergleich sehen. Was machen wir also mit der Rückkopplung?

Betrachten wir die Berechnungsverfahren für Rückkopplungen. Sie werden mit Modellen durchgeführt. Die Herausforderung bei der Durchführung der gleichen Dinge mit Beobachtungen besteht darin, genügend lange Zeiträume von Tagen zu haben, um das Klima anzunähern. Kann man irgendwelche Verfahren mit Beobachtungen nachahmen? Soden et al. skizzieren Verfahren auf der Grundlage von Modellen[3] Wie würden sie sich auf Beobachtungen übertragen lassen?

Verfahren 1: Man stelle sich das Energie-Ungleichgewicht am oberen Ende der Atmosphäre (TOA) als eine Funktion einiger weniger Faktoren vor. Nennen wir dies bildlich R( w, T, a, c), wobei w für Wasserdampf, T für die Oberflächentemperatur, a für die Oberflächenalbedo und c für Wolken steht. Führen Sie mehrere Modelle durch, indem Sie jeweils nur ein Element, z. B. c, ändern, und vergleichen Sie mit dem ungestörten Zustand. Dies ist bei Beobachtungen sehr schwierig, ist es doch schwierig, längere Zeiträume zu suchen und zu finden, die in jeder Hinsicht bis auf einen Punkt identisch sind.

Verfahren 2: Aufteilung der Rückkopplung in zwei Faktoren. Der erste, der „Strahlungskern“, hängt nur vom Strahlungsalgorithmus ab, und der andere ist einfach die Veränderung der Klimatologie der interessierenden Rückkopplung zweier Vergleichszustände. Das Produkt aus beiden ist die Rückkopplung. Dieses Verfahren ist für die Beobachtung nicht von Belang. Strahlungskerne sind jedoch aus einem anderen Grund in Teil III interessant.

Verfahren 3: Stören Sie das Klimamodell mit einer schrittweisen Änderung der Meerestemperatur. Dann wird die Klimasensitivität aus den berechneten Änderungen der Strahlungsflüsse abgeleitet.

Schema 3 ist das Verfahren, das sich am besten für Beobachtungen eignet. Die natürlich verfügbaren Störungen der Meeresoberfläche sind ENSO, PDO, AMO und so weiter. Außerdem könnten wir darüber nachdenken, den Aufwand wie die faktoriellen Experimente zu organisieren, die wir in der Technik durchführen; wir ändern absichtlich mehrere Variablen in jedem aufeinanderfolgenden Durchlauf, weil es das ist, was das Wetter tun wird. Erstellen Sie eine Kontrasttabelle mit vier Faktoren (w,T,a,c) und notieren Sie, wie sich jeder Faktor bei jeder aufeinanderfolgenden Änderung von PDO oder ENSO verändert. Schließlich werden wir die gesamte Tabelle mit den Kontrasten ausfüllen und eine ungefähre Vorstellung nicht nur von den Rückkopplungsfaktoren, sondern auch von den Wechselwirkungen zwischen ihnen haben [13].

Schlussfolgerung

Wie in Teil I finde ich auch in Teil II Zahlen zu grundlegenden Konzepten, die zwar klein sind, aber mit Unsicherheitsschätzungen, die ich weder nachvollziehen kann noch völlig glaubwürdig finde. Das gesamte Thema des Klimawandels scheint so zu sein; geleitet von Zahlen und Messungen, die auf 0,1 % genau sein müssen, aber oft 10 oder 100 Mal schlechter sind. Ist die Wolkenrückkopplung positiv? Ich weiß es nicht. Um das herauszufinden, muss man eine Menge Wetterdaten durchgehen. Wenn sie jedoch positiv ist, ist das nicht unbedingt etwas Schlechtes, wie in Teil III erläutert wird.

References and Notes

1-Held, I. M., and B. J. Soden, 2000: Water vapor feedback and global warming. Annu. Rev. Energy Environ., 25, 441–475.

2-Isaac Held, Brian J. Soden, 2006, Robust Responses of the Hydrological Cycle to Global Warming, J. Climate, V. 19, p.5686

3-Brian J. Soden, et al, 2008, Quantifying Climate Feedbacks Using Radiative Kernels, J. Climate, V. 21, p3504

4-Selbst in der feuchten tropischen Atmosphäre ist der klare Himmel für viele Segmente des IR-Spektrums mit einer Wellenzahl von bis zu 2 inversen Zentimetern zu über 80 % durchlässig.

5- Dies ist ein Element von Lindzens Iris-Hypothese.

6- Bei diesem Durchschnittsprofil kann es sich um einen Durchschnitt handeln, der nie wirklich beobachtet wird – wie der 3,5-Durchschnitt von Würfelwürfen. Von weiterem Interesse ist, dass die Wasserdampf-Satellitenbilder der Spektralbereiche 8, 9 und 10 unter Verwendung der US-Standardatmosphäre reduziert wurden. Vielleicht könnte die Verwendung dieses Modells in diesem Zusammenhang in einem zukünftigen Beitrag erforscht werden.

7-Ein Atmosphären-Dynamikmodell von H&S: „ … die Verdunstung E aus dem Ozean kann als proportional zur Differenz zwischen dem Sättigungsdampfdruck bei der Temperatur T* und dem Dampfdruck in der Atmosphäre in einer kleinen, geeigneten Referenzhöhe modelliert werden…“

8-Eine analoge Situation tritt bei elektronischen Rückkopplungsschaltungen auf. Die Stromversorgung wird in solchen Schaltungen fast nie explizit dargestellt, da man davon ausgeht, dass die Stromversorgung in der Lage ist, alles zu liefern, was die Rückkopplungsschaltung benötigt. Clipping tritt auf, wenn der Ausgang in die Nähe der Stromversorgungsschienen kommt. Dies kommt in Modellen nicht vor, obwohl es physikalisch gesehen passiert.

9-In den 1970er Jahren habe ich drei Jahre lang als Hydrologe beim USGS gearbeitet. Die Beschäftigung ist ein fähiger Lehrer.

10-Ray K. Lindsay, Jr., et al, 1975, Hydrology for Engineers, 2nd ed, Mcgraw-Hill

11- Lynch, Subvisual Cirrus, Aerospace Report number TR-93(3308)-1, 1994, available online at https://apps.dtic.mil/sti/tr/pdf/ADA289329.pdf

12- Ich hatte ein wenig Spaß mit generativer KI. Ich fragte, ob ENSO als Analogon zum Klimawandel verwendet werden kann. Sie sagte „nein“. Dann habe ich gefragt, ob El Niño das sein könnte. Die KI sagte „ja“.

13-Auf einer Konferenz im Jahr 2002 schlug ich dies als eine Methode vor, um die Geschichte selbst und die Geschichtswissenschaft mehr wie eine experimentelle Wissenschaft aussehen zu lassen. Meines Wissens hat niemand diese Idee aufgegriffen.

Link: https://wattsupwiththat.com/2025/02/24/earths-energy-imbalance-part-ii/

Übersetzt von Christian Freuer für das EIKE

 




Warum man über die Vorschriften bzgl. CO₂-Emissionen noch einmal nachdenken sollte

Roy W. Spencer

Am 7. März berichtete die Washington Post von Überlegungen des EPA-Administrators, dem Weißen Haus zu empfehlen, die CO₂-Bedrohungsermittlung der EPA aus dem Jahr 2009 aufzuheben. Sehen wir uns einige der Gründe an, warum dies eine gute Sache sein könnte.

Die Wissenschaft

Die Wissenschaft des vom Menschen verursachten Klimawandels ist viel unsicherer, als man denselben weismachen will. Die globale durchschnittliche Temperatur der Erde scheint im letzten Jahrhundert um etwa 1 Grad Celsius gestiegen zu sein.

Das Ausmaß der Erwärmung bleibt ungewiss, mit einer Schwankungsbreite von 30 % in den verschiedenen Thermometerdaten und einer wesentlich schwächeren Erwärmung in den globalen „Reanalyse“-Datensätzen, die alle verfügbaren Datentypen verwenden. Doch wie hoch die Erwärmung auch immer sein mag, sie könnte durchaus größtenteils vom Menschen verursacht sein.

Aber wir wissen es nicht wirklich.

Wie ich immer wieder betone, ist das globale Energie-Ungleichgewicht, das durch die zunehmenden, vom Menschen verursachten CO₂-Emissionen verursacht wird (ja, ich glaube, dass wir die Ursache sind), kleiner als die Genauigkeit, mit der wir die natürlichen Energieflüsse im Klimasystem kennen. Das bedeutet, dass die jüngste Erwärmung größtenteils natürlich sein könnte und wir es nie erfahren würden.

Ich behaupte nicht, dass dies der Fall ist, sondern nur, dass es in der Klimawissenschaft Unsicherheiten gibt, die selten oder nie diskutiert werden. Die Klimamodelle, welche die Grundlage für zukünftige Projektionen des Klimawandels bilden, sind so angepasst (gefälscht?), dass der Anstieg des CO₂ die einzige Ursache der Erwärmung ist. Die Modelle selbst verfügen nicht über alle notwendigen physikalischen Grundlagen (vor allem aufgrund von Unsicherheiten bei den Wolkenprozessen), um zu bestimmen, ob sich unser Klimasystem in einem Gleichgewichtszustand befand, bevor das CO₂ zunahm. (Und nein, ich glaube nicht, dass die Erwärmung dazu geführt hat, dass die Ozeane mehr CO₂ ausgasen – dieser Effekt ist sehr gering im Vergleich zur Größe der menschlichen Quelle).

Wie den meisten Lesern hier bekannt ist, behaupte ich seit vielen Jahren, dass die Wissenschaft des „Klimawandels“ durch große staatliche Wissenschaftsbudgets, ideologische Weltanschauungen und Gruppendenken korrumpiert wurde. Sogar meine Karriere hing davon ab, dass der Kongress davon überzeugt war, dass das Thema große Budgets wert ist.

Es ist fast unmöglich, dass in der von Experten begutachteten Literatur neue wissenschaftliche Erkenntnisse veröffentlicht werden, die in irgendeiner Weise der aktuellen Erzählung widersprechen, dass der Mensch durch seine CO₂-Emissionen, eine natürliche Folge der Verbrennung fossiler Brennstoffe, eine „Klimakrise“ verursacht. Dieses „Peer Review“ liegt nun in den Händen von Klimaforschern, deren Forschungskarrieren von der weiteren staatlichen Finanzierung abhängen. Wenn das „Problem“ der globalen Erwärmung viel geringer wäre als bisher angenommen, könnten die Mittel für diese Forschung versiegen.

Die alarmistischsten wissenschaftlichen Arbeiten sind diejenigen, welchen die gesamt Aufmerksamkeit zuteil wird. Deren Ergebnisse werden dann von den Nachrichtenmedien übertrieben und falsch dargestellt. Infolgedessen hat die Öffentlichkeit eine sehr verzerrte Wahrnehmung dessen, was Wissenschaftler wirklich wissen.

Wie Roger Pielke Jr. seit vielen Jahren betont, behaupten nicht einmal die offiziellen Berichte des IPCC, dass unsere Treibhausgasemissionen zu Veränderungen bei Unwettern geführt haben. Jedes Unwetter in den Nachrichten wird heute pflichtbewusst auf irgendeine Schlussfolgerung mit dem menschlichen Verschulden in Verbindung gebracht, aber da die öffentliche Meinung gegenüber den Mainstream-Nachrichtensendern auf einem historischen Tiefstand ist, nehmen immer weniger Menschen diese Nachrichtenberichte ernst. Unwetter hat es immer gegeben und wird es immer geben. Die Sturmschäden haben nur aufgrund des Ausbaus der Infrastruktur und des Wunsches aller Menschen zugenommen, an der Küste zu leben.

Und die einzige eindeutige langfristige Veränderung, die mir bekannt ist, ist ein Rückgang starker bis heftiger Tornados um 50 % seit den 1950er Jahren.

Aber Sie würden nie von guten Nachrichten zum Klima erfahren, wenn Ihre Hauptinformationsquelle Al Gores Bücher, Ihr bevorzugter Umwelt-Thinktank (bei dem Sie mitwirken, um dessen Jahreskalender zu erhalten) oder die Mainstream-Medien wären.

Kosten vs. Nutzen

Wenn es nichts kosten würde, fossile Brennstoffe durch erneuerbare Energiequellen zu ersetzen, würde ich vielleicht Regelungen, die Gewinner und Verlierer bestimmen, etwas stärker unterstützen, anstatt den Markt entscheiden zu lassen. Aber alles, was Menschen tun, erfordert Energie, und daher hängt menschliches Gedeihen von reichlich vorhandener und erschwinglicher Energie ab. Wir in der entwickelten Welt verfügen möglicherweise über überschüssigen Reichtum, den wir für teure neue Energieformen ausgeben können (obwohl unsere schnell steigende Staatsverschuldung dafür spricht, dass wir keinen überschüssigen Reichtum haben, den wir verschwenden könnten), aber die meisten Armen der Welt haben weiterhin Mühe, für Energie zu bezahlen, die wir im relativen Überfluss haben … wenn sie überhaupt Zugang dazu haben.

Das „Endangerment Finding“ aus dem Jahr 2009

Der Oberste Gerichtshof hat entschieden, dass CO₂ unter das Clean Air Act der EPA fällt und die EPA es daher regulieren müsste, wenn es als Bedrohung für die menschliche Gesundheit und das Wohlergehen angesehen würde. Was sie 2009 auch tat.

Aber diese Sache mit der „Bedrohung für die menschliche Gesundheit und das Wohlergehen“ ist ein zweischneidiges Schwert.

Ich könnte beispielsweise argumentieren, dass die meisten vorzeitigen Todesfälle indirekt durch das verursacht werden, was wir essen (oder nicht essen). Die Fälle von Fettleibigkeit und damit verbundenen Krankheiten nehmen weiter zu. Angesichts der Bedrohung von Mensch und Wohlergehen durch Lebensmittel stellt sich die Frage, warum Lebensmittel nicht einfach verbieten? Auch Lebensmittel sind eine Bedrohung für die menschliche Gesundheit und das Wohlergehen.

Natürlich tun wir das nicht, denn Nahrung ist lebensnotwendig. Aber das gilt auch für CO₂.

CO₂ wird für die Photosynthese benötigt, die wiederum für die Nahrungskette an Land und in den Meeren erforderlich ist. Seit den 1980er Jahren dokumentieren Satellitenmessungen der NASA eine globale Ergrünung durch die steigende CO₂-Konzentration. Schätzungen zufolge ist die globale landwirtschaftliche Produktivität um Billionen von Dollar gestiegen, weil Nutzpflanzen in einer CO₂-angereicherten Atmosphäre besser wachsen und resistenter gegen Trockenheit sind.

Ich habe das technische Supportdokument für das EF von 2009 gelesen. Es ist voller Untergangsstimmung. Alle Vorteile von mehr CO₂ werden heruntergespielt, während die Kosten hinaus posaunt werden. Der Autor scheint stark von Umweltaktivisten beeinflusst worden zu sein, von denen die meisten ihre eigenen Ziele verfolgen. Viele der darin enthaltenen wissenschaftlichen Inhalte klingen mittlerweile eher wie Al Gores ursprüngliches alarmistisches Buch „Earth In The Balance“ (in dem ich zitiert wurde, aber meine wissenschaftlichen Beiträge nicht richtig wiedergegeben werden konnten) als wie eine ausgewogene Einschätzung der Wissenschaft des Klimawandels.

Fünfzehn Jahre nach dem Gefährdungsbefund von 2009 wissen wir nun viel mehr. Keines der ursprünglich vorhergesagten Schreckensszenarien ist tatsächlich eingetreten, oder zumindest wurden sie stark übertrieben. Zehnjährige Fristen, um „etwas gegen die Klimakrise zu unternehmen“, sind seit Beginn dieses Chaos in den 1980er Jahren verstrichen … und das mehrmals. Sogar der IPCC (der nur alarmistisch veranlagten Wissenschaftlern die Teilnahme gestattet) hat zugegeben, dass es unwahrscheinlich ist, dass wir bis zum Jahr 2100 signifikante Veränderungen bei Unwettern erleben werden, die auf den Anstieg des CO₂-Gehalts zurückgeführt werden können.

Es ist sinnvoll, den Gefährdungsbefund jetzt zu überdenken. Lassen wir den freien Markt (einschließlich der Verbraucherpräferenzen) entscheiden, welche Energieformen wir nutzen.

This article is adapted from one that first appeared February 26, 2025, on the author’s blog at DrRoySpencer.com and is reprinted here by permission.

Link: https://cornwallalliance.org/reasons-why-regulating-CO₂-emissions-needs-to-be-reconsidered/

Übersetzt von Christian Freuer für das EIKE

 




Das Energie-Ungleichgewicht der Erde: Teil I

Kevin Kilty

Im Frühsommer letzten Jahres stieß ich bei einer Internetrecherche auf Googles KI Overview, das mir mitteilte, dass das Energieungleichgewicht der Erde (EEI), d. h. die Differenz zwischen der eingehenden Sonneneinstrahlung und der ausgehenden Sonneneinstrahlung plus langwelligem Infrarot, 0,5 ± 0,47 W/m² beträgt. Wie die meisten Fakten, die die KI-Übersicht bietet, schenkte ich ihr damals wenig Beachtung, sondern legte sie in meinem Gedächtnis ab.

Später begann ich, über diese Zahl nachzudenken. Dabei fielen mir mehrere Dinge auf. Erstens schien mir die Unschärfe ein Versuch zu sein, den Wert nicht als 0,5 ± 0,5 zu schreiben und damit möglicherweise Null in das angegebene Konfidenzintervall einzuschließen. Schließlich ist es schwierig, davon zu sprechen, dass die Welt zu kochen beginnt, wenn das Konfidenzintervall für die Wärmequelle Null einschließt – d. h. überhaupt keine Wärmequelle. Zweitens ist die Zahl sehr klein, wenn man bedenkt, dass die einfallende Sonneneinstrahlung in den gemäßigten Zonen zu jeder Zeit über 1100 W/m² betragen kann und obendrein sehr variabel ist. Ich fragte mich: „Wie misst man diese Ungleichgewichtszahl und wie gut können wir ihre Unsicherheit charakterisieren?“ Ich erwartete zu erfahren, dass die EEI im Vergleich zur Variabilität des Klimas eine sehr kleine Zahl ist und dass ihre Größenordnung sehr unsicher ist.

Es ist schwierig, AI Overview dazu zu bringen, Dinge zu einem späteren Zeitpunkt zu wiederholen, und es hatte keinen Sinn, die ursprüngliche Quelle für den Wert von 0,5 ± 0,47 W/m² zu finden. Schließlich fand ich den Ursprung dieses Wertes, erfuhr aber, dass er sich nicht auf den EEI an sich bezog. Vielmehr handelte es sich um ein Maß für die Veränderung des EEI von Jahrzehnt zu Jahrzehnt. Bei meiner Suche fand ich jedoch eine Reihe von EEI-Werten an verschiedenen Orten, die auf unterschiedliche Weise angegeben wurden:[1] Die Schätzungen reichten von 0,47 W/m² bis 1,0 W/m².

Ein Teil dieser Streuung, die sich in all diesen Werten zeigt, lässt sich dadurch erklären, dass die Zahlen unterschiedliche Zeiträume abdecken. Beispielsweise beziehen sich die von Von Stuckmann et al. [2] angegebenen Werte von 0,47 W/m² und 0,76 W/m² auf die Zeiträume 1971-2018 bzw. 2010-2018. Nichtsdestotrotz ist dies eine ziemlich große Streuung der Schätzungen für das Energieungleichgewicht, wenn man bedenkt, dass eine Person es als „die grundlegendste Messgröße, die die wissenschaftliche Gemeinschaft und die Öffentlichkeit als Maßstab dafür kennen muss, wie gut die Welt bei der Aufgabe, den Klimawandel unter Kontrolle zu bringen, vorankommt…“ beschreibt.

Darüber hinaus sind die Unsicherheitswerte für diese sehr wichtige Zahl unklar. Handelt es sich um Werte mit einer Standardabweichung, 95 % Konfidenzintervalle, 90 % Werte oder etwas anderes? Es stellt sich heraus, dass sie eine Mischung sind. Da einige Leute behaupten, dass der EEI mit der Zeit steigt, handelt es sich dabei um Mittelwerte über einen bestimmten Zeitraum plus Unsicherheit, die verzögert werden, oder sind sie zu einem bestimmten Zeitpunkt aktuell? Es gibt viele Fragen zu beantworten.

Schauen wir mal, was wir in einigen ausgewählten Literaturrecherchen herausfinden können.

Bilanzierung der Energie

Die Energiebuchhaltung der Erde unterscheidet sich nicht sonderlich von der doppelten Buchhaltung. Es gibt ein Einnahmenkonto (eingehende Sonneneinstrahlung) und die Ausgaben für die ausgehende langwellige und reflektierte Sonneneinstrahlung. In unserem Energiebuch gibt es ein Aktiva-Konto, auf dem ich alle Energiezuführungen für nützliche Dinge wie die Erwärmung des Planeten oder seine Begrünung verbuchen würde, das die Alarmisten aber vielleicht als Passiva-Konto bezeichnen würden, und ein Energie-Eigenkapital-Konto der Erde.

Wie auch immer wir diese Konten nennen, unser System der doppelten Buchführung muss ausgeglichen sein, und dies sollte zwei unabhängige Möglichkeiten bieten, die Energiebilanz oder deren Fehlen zu bestimmen. Bei der einen Methode betrachten wir die Energieströme, die eine Grenze auf Satellitenebene überschreiten. Bei der anderen Methode betrachten wir alle Orte, an denen sich Energie angesammelt zu haben scheint. Im Prinzip sollten die beiden Verfahren innerhalb der jeweiligen Unsicherheit die gleichen Zahlen liefern.

Größenordnung und Unsicherheit

Da das Energieungleichgewicht eine von vielen Messgrößen ist, die als Argument für Veränderungen in der Lebensweise, bei Produkten und in der Wirtschaft insgesamt herangezogen werden, sollte es besser nachgewiesen werden, dass es sich um eine sehr sichere Angelegenheit handelt. Das bedeutet zumindest, dass sie genau gemessen werden muss.

Die Unsicherheit einer Messung ist nicht nur eine Frage der Zufälligkeit eines gemessenen Prozesses oder der Zufälligkeit einer Stichprobe in einer Population. Sie muss alle Aspekte einer Messung einbeziehen, von der inhärenten Zufälligkeit des zu messenden Prozesses über Unsicherheiten bei der Konstruktion der Instrumente, der Kalibrierung, der Drift, der Installation (man denke hier an das Projekt der Oberflächenstationen), der Algorithmen und der Datenreduktion. Wenn ein stationärer Prozess wirklich zufällig abgetastet wird, kann die Streuung der Messungen alle Unsicherheitskomponenten umfassen [3]. Ausnahmen sind systematische Fehler und Verzerrungen. Fehler und Verzerrungen sind besonders problematisch, wenn es sich um spezielle oder einzigartige Instrumente und Plattformen handelt, da diese Geräte, die vielleicht nur aus einigen wenigen Einheiten bestehen, kein statistisches Ensemble ergeben und die Verzerrungen in den Messstatistiken allein wahrscheinlich nicht erkannt werden.

Henrion und Fischoff stellten insbesondere fest, dass Messungen physikalischer Konstanten dazu neigten, sich nahe beieinander zu gruppieren, selbst wenn spätere und bessere Messungen zeigten, dass diese Gruppierung extrem unwahrscheinlich war [4]. Sie vermuteten, dass dies ein Artefakt der Soziologie der physikalischen Wissenschaft ist. In gewissem Sinne bestand ein Konflikt zwischen dem Wunsch, die endgültige Arbeit zu erstellen (geringe Unsicherheit) und der Gewissheit, richtig zu liegen (größere Vertrauensbereiche), wobei erstere oft den Sieg davontrug. Eine weitere Erkenntnis war, dass die Wissenschaftler die Voreingenommenheit schlecht einschätzen und dass vermeintlich unabhängige Forschungsgruppen zu einem Wert gedrängt werden können, der von der einflussreichsten Gruppe unter ihnen gefunden wurde (Bandwagon-Effekt). In der Klimawissenschaft wird ein ähnlicher Anstoß durch den Wunsch erzeugt, schockierende Ergebnisse zu produzieren – ein Effekt, den man als „Es ist schlimmer als wir dachten“ bezeichnen könnte.

Direkte Messungen des Energieflusses

Eine direkte Messung des Energieungleichgewichts ist durch Satellitenmessungen möglich. Das Experiment „Clouds and the Earth’s Radiant Energy System“ (CERES) der Nasa umfasste sieben verschiedene Radiometer, die ab 1997 auf fünf verschiedenen Satelliten flogen. Diese Radiometer ermöglichten die direkte Messung der eingehenden Sonnenstrahlung, der ausgehenden Sonnenstrahlung und des ausgehenden LWIR. Zwei dieser Satelliten hatten ihr Betriebsende im Jahr 2023, wurden aber danach weiter betrieben. Sowohl Terra als auch Aqua leiden jetzt unter Treibstoff- und Energiemangel. Ein neues Mitglied dieses Experiments, Libera, soll Anfang 2028 in Betrieb genommen werden. Dieses Programm hat im Laufe der Jahre einige interessante Dinge entdeckt.

Auf einer Konferenz im September 2022 fasste Norman G. Loeb die CERES-Mission, ihre Ergebnisse und einige Konsequenzen aus diesen Erkenntnissen zusammen [5]: Demnach hat sich das Energieungleichgewicht der Erde von 0,5 ± 0,2 W/m² in den ersten zehn Jahren dieses Jahrhunderts auf 1,0 ± 0,2 W/m² in jüngster Zeit verdoppelt. Dieser Anstieg ist das Ergebnis eines Anstiegs der absorbierten Sonnenstrahlung um 0,9 ± 0,3 W/m², der teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4 ± 0,25 W/m² ausgeglichen wird.

Was bedeuten diese Unsicherheitsschätzungen und wie glaubwürdig sind sie? Zur Beantwortung des „Was“-Teils dieser Frage ist das Verfahren Nr. 20 in der Powerpoint in Abbildung 1 wiedergegeben.

Abbildung 1. Aus Loeb, N. 2022 [5].

Dies zeigt einen Vergleich direkter Messungen der Ein- und Ausstrahlung mit der planetarischen Wärmeaufnahme, auf die ich im Folgenden eingehen werde, die aber auf eine unabhängige, indirekte Messung des Strahlungsungleichgewichts hinausläuft. Die beiden Messgrößen liegen mit 0,5 ± 0,47 W/m² pro Jahrzehnt eng beieinander. Diese Folie offenbart die Quelle der Zusammenfassung von AI Overview! Die Unsicherheit wird als Konfidenzintervall (5 %, 95 %) angegeben; ±0,47 entspricht also einer Standardabweichung von ±0,29. Was in diesem Schaubild gut aussieht, ist die Übereinstimmung in dem, was wir als zwei unabhängige Schätzungen des Energieungleichgewichts vermuten.

Weitere Untersuchungen zeigen, dass diese Übereinstimmung nicht so ist, wie sie scheint. Unabhängig davon, auf welchen Abdeckungsfaktor sich diese ±-Zahlen beziehen (𝞼, 2𝞼, 90 % CI, 95 % CI usw.), würde ein Verfahren, das sich aus der Veränderung der Sonnenenergie abzüglich der ausgehenden Langwelle zusammensetzt, 0,5 ± 0,39 W/m² ergeben; dies kombiniert mit den 0,5 ± 0,2 W/m² eines vorangegangenen Jahrzehnts würde 1,0 ± 0,44 W/m² ergeben, nicht 1,0 ± 0,2 W/m². Es sei denn, es besteht eine negative Korrelation zwischen ihnen, die nie erklärt wird. Ich hatte echte Schwierigkeiten, die Zahlen, die ich gelesen habe, miteinander in Einklang zu bringen. Und es gibt noch mehr.

Ich begann meine Nachforschungen über die Unsicherheit des Energieungleichgewichts, indem ich mich auf einen Sonderband des JGR vom Mai 1986 bezog, der sich mit der Instrumentierung des Vorgängers von CERES, dem Earth Radiation Budget Experiment (ERBE), befasste [6]. Dort heißt es:
„Diese Instrumente sind so ausgelegt, dass sie Strahlungsfluss- und Strahlungsexitanzmessungen mit einer Messunsicherheit von besser als 1 % über eine zweijährige Umlaufzeit liefern.“ [7]

Es gibt zwei Tabellen in dieser Studie, die für unsere Frage der Unsicherheit relevant sind. Tabelle 1 in dieser Studie zeigt die sehr großen Schwankungen des Ungleichgewichts von mehreren zehn W/m², die auf die interne Klimavariabilität zurückzuführen sind – Schwankungen, die weitaus größer sind als die glaubwürdige EEI aufgrund von Antrieben. Tabelle 2 in dieser Studie enthält eine Liste bekannter und unbekannter Abweichungen. Die bekannten Abweichungen reichen von -2 bis +7 W/m², und der aus Satellitenmessungen gewonnene EEI ist um einen Faktor von vielleicht fünf zu groß, um glaubwürdig zu sein.

Während sich die intrinsische Unsicherheit der Instrumente von ERBE zu CERES offenbar nicht wesentlich verbessert hat, wurden die Messungen des Energiebudgets durch Korrelationen zwischen CERES-Instrumenten und anderen Weltraumplattformen sowie durch Bodenmessungen verbessert. Unabhängig von der Cleverness dieser Systeme bringen sie Unsicherheiten von anderen Instrumenten, Plattformen und Algorithmen mit sich, die in die Ergebnisse einfließen sollten. Ich hätte mir gewünscht, irgendwo eine vollständige Analyse der Unsicherheiten zu sehen, aber ich habe sie nicht gefunden.

Besorgniserregender ist jedoch die Diskussion über Algorithmen zur Verbesserung dieses Umstandes für die Zwecke der Klimamodellierung, indem in einem Fall Anpassungen der LWIR-Strahlungsdichtemessung und auch verschiedene Anpassungen der SW-Strahlungsdichtemessungen vorgenommen wurden, um einen EEI zu erhalten, der mit den Schätzungen der planetarischen Wärmeaufnahme kompatibel ist. Die damals vorgenommenen Anpassungen waren nicht geringfügig, sondern um einen Faktor zwei größer als der EEI selbst,[9] mit anderen Worten: Die Schätzungen der Wärmeaufnahme in den Ozeanen und der Atmosphäre haben die Satellitenmessungen in eine bevorzugte Richtung gedrängt. Die beiden Verfahren zur Schätzung des EEI sind nicht unabhängig voneinander. Wir haben nicht wirklich ein System der doppelten Buchführung.

Planetarische Wärme-Aufnahme

Die Orte auf der Erde, an denen überschüssige Energie gespeichert werden könnte, sind die folgenden: 1) Temperaturänderung der Atmosphäre unterhalb der Tropopause, 2) Temperaturänderung der Ozeane oberhalb von 2000 m Tiefe, 3) Temperatur der Bodenoberfläche/Unterfläche und 4) Änderung der Temperatur der Kryosphäre und Phasenwechsel. Ein aktueller Überblick über all diese Daten und Ergebnisse findet sich in von Schuckmann et al. (2023) [2] Einige Schätzungen sind wirklich bemerkenswert mit einer behaupteten relativen Unsicherheit von unter 10 % (Unsicherheit geteilt durch Erwartungswert), wenn man bedenkt, dass 2) bis 4) Orte sind, die einer direkten Messung entzogen sind.

Die Autoren scheinen jedoch zu erkennen, dass ihre Unsicherheitsschätzungen nicht so rosig sind. Sie sagen:

Die Ensemble-Streuung gibt einen Hinweis auf die Übereinstimmung zwischen den Produkten und kann als Indikator für die Unsicherheit verwendet werden. Die Grundannahme für die Fehlerverteilung ist Gauß mit einem Mittelwert von Null, der durch ein Ensemble verschiedener Produkte angenähert werden kann. Sie berücksichtigt jedoch keine systematischen Fehler, die zu Verzerrungen innerhalb des Ensembles führen können, und stellt nicht die gesamte Unsicherheit dar.“

Dennoch wird uns im vielleicht optimistischsten Fall gesagt, dass die gegenwärtige Rate der Wärmeaufnahme 0,76 ± 0,1 W/m² [2] oder vielleicht sogar 0,77 ± 0,06 W/m² [10] beträgt. Diese Zahlen ergeben sich aus der Summe der Beiträge 1) bis 4) in unserer Liste; allerdings stammen 89 % allein aus dem Ozean. Die angegebene Unsicherheit sollte sich zumindest aus der Addition der jeweiligen Unsicherheiten der Beiträge in Quadratur ergeben, als ob es sich bei diesen Daten um unkorrelierte, unabhängige und unvoreingenommene Schätzungen der gleichen Sache handelt.

Abbildung 2. Speicherung des Energieungleichgewichts im Ozean. Aus K. von Schuckmann et al. (2023) Heat stored in the Earth system 1960-2020, © Author(s) 2023. Dieses Werk wird unter der Creative Commons Attribution 4.0 License verbreitet.

Die gigantische Arbeit von Struckmann et al. [2], an der 68 Co-Autoren aus 61 Institutionen beteiligt sind, ist eine Lawine von Daten, die in verschiedenen Einheiten, über unterschiedliche Zeiträume und aus zahlreichen Quellen und Untergruppen von Quellen stammen. Es ist äußerst schwierig, sie zu sortieren. Abbildung 2 zeigt nur ein Beispiel für die Unstimmigkeiten, die ich in der Zusammenstellung sehe. Vergleichen Sie z. B. die im Ozean gespeicherte Wärme von 1960 bis 2020 mit der von 1993 bis 2020. Der Tiefenbereich 0-2000 m setzt sich sicherlich aus der Summe von 0-700 m und 700-2000 m zusammen, wie die Summen in beiden Fällen deutlich zeigen. Die Unsicherheitsangaben sind jedoch nicht miteinander zu vereinbaren. In einem Fall ergeben die Unsicherheiten von 0,1 und 0,04 zusammen 0,1, im anderen Fall 0,2. Vielleicht gibt es eine Kovarianz zwischen den beiden Tiefenbereichen; allerdings zeigt Abbildung 2 in Von Schuckmann et al [2] eine offensichtliche positive Korrelation in allen Tiefenbereichen – etwas, das die Unsicherheit verstärken und nicht verringern sollte.

Verstärkung der EEI

Ein hervorstechendes Thema all dieser Arbeiten zum Energieungleichgewicht ist, dass sich die Wärmeaufnahme beschleunigt. Loeb et al [10] weisen auf Satellitenbeobachtungen hin, die zeigen, dass sich das Energieungleichgewicht von 0,5±0,2 W/m² im Zeitraum 2000 bis 2010 auf 1,0±0,2 W/m² im Zeitraum 2010 bis 2020 verdoppelt hat – was ich als dekadische Schätzung bezeichnen würde. Der Anstieg ist das Ergebnis von 0,9±0,3 W/m² mehr absorbierter Sonnenstrahlung, die teilweise durch einen Anstieg der ausgehenden langwelligen Strahlung um 0,4±0,25 W/m² ausgeglichen wird.

Wieder einmal habe ich Schwierigkeiten, all dies in Einklang zu bringen. Nach den Regeln der Addition unkorrelierter Schätzungen würde man aus der Zunahme der Sonneneinstrahlung und der Zunahme der ausgehenden LWIR-Strahlung einen Wert von 0,5±0,4 W/m² ableiten, den Loeb [5] jedoch mit einem Konfidenzintervall von 5-95 % als 0,5±0,47 W/m² angibt. Das ist rätselhaft.

Von Struckmann et al. [2] schlagen als äquivalente dekadische Verfahren 0,48±0,1 W/m² und 0,76±0,2 W/m² vor (die Unsicherheiten bezeichnen sie als 90% Konfidenzintervall, 5%-95%), was, wenn man den angegebenen Unsicherheiten Glauben schenken darf, weitaus geringer ist als das, was Loeb et al. [10] berechnet. Lässt man jedoch alle Unterschiede außer Acht, so ist es offensichtlich, dass alle Gruppen Beweise für ein beschleunigtes Ungleichgewicht vorlegen. Aber ist dies wirklich erwiesen?

Ich beschloss, ein kleines Experiment mit dem uahncdn_lt_6.0-Datensatz (University of Alabama, Huntsville) durchzuführen. Ich verwendete eine lineare Regression nach der Methode der kleinsten Quadrate. Der lineare Anstiegskoeffizient von Monat zu Monat beträgt 0,0013 C, und das 95 %-Konfidenzintervall liegt zwischen 0,0012 und 0,0014 C/Monat. Abbildung 4 zeigt dies. Wie Dr. Spencer in seinem Blog geschrieben hat, ist diese Änderung von 0,02 °C pro Jahr das Ergebnis eines erhöhten CO₂-Antriebs, und alles, was davon abweicht, ist ein Einfluss der Klimavariabilität.

Eine genaue Betrachtung von Abbildung 3 zeigt, dass die Daten nicht zufällig um die Best-Fit-Linie gestreut sind. Ihr Trend scheint in der Nähe des Ursprungs eher flach zu sein, und an mehreren Stellen befinden sich etwas mehr Daten unterhalb als oberhalb der Linie. Einige Extremwerte treten am Ende der Zeitreihe auf. Diese Form lässt auf eine Krümmung wie einen quadratischen Term schließen.

Abbildung 3

Also habe ich eine quadratische Funktion nur an die Daten angepasst (kleines Diagramm oben links in Abbildung 3) und erhielt eine anscheinend bemerkenswert gute Anpassungskurve, die am Ursprung eine Nullneigung aufweist und zum Ende hin monoton ansteigt. Ah! Ein Beweis für einen sich beschleunigenden Trend?

Nicht ganz.

Der Anteil der Variation, der durch eine Linie erklärt wird, liegt bei 51 %, durch eine quadratische bei 53% – ein unbedeutender Unterschied. Der Standardfehler der Residuen ist nicht anders (0,198 gegenüber 0,195), und man vermutet, dass die Daten nicht ganz die Anforderung erfüllen, unabhängig und identisch über ihren Bereich verteilt zu sein. Tatsächlich lässt sich leicht zeigen, dass diese Daten über mehrere Zeitskalen hinweg korreliert sind, und die Korrelation allein könnte einem einen Trend vorgaukeln, der nicht vorhanden ist. Diese Tendenz zu einer Abflachung, gefolgt von einem kurzen, aber starken Anstieg, zeigt sich auch in anderen Daten, die das gesamte vergangene Jahrhundert abdecken, beispielsweise 1920-1945. Diese Temperaturdaten sind viel zu variabel, um einen Vorzug des quadratischen Trends gegenüber dem linearen Trend feststellen zu können.

Schlussfolgerungen

Als ich mit diesen Bemühungen begann, erwartete ich, dass ich bei meiner Suche nach einem Energieungleichgewicht eine sehr kleine Zahl mit einer sehr großen Unsicherheit finden würde. Genau das habe ich gefunden. Außerdem war ich überrascht zu sehen, dass die Schätzungen der Wärmeaufnahme einen großen Einfluss auf die Satellitendaten haben, so dass die Schätzungen nicht unabhängig sind. Ich hätte auch damit rechnen müssen, dass der daraus resultierende Wert des EEI dazu dienen würde, die Besorgnis über den Klimawandel zu fördern.

Alle Forscher in dieser EEI-Gemeinschaft bringen das Energieungleichgewicht mit einer ganzen Reihe von Problemen in der heutigen Welt in Verbindung. Für sie bedeutet eine Erwärmung des Planeten nichts als Ärger; es scheint überhaupt keine Vorteile zu geben. Von Schuckmann et al. [2] gehen sogar so weit, auf der Grundlage ihrer Schätzungen des Ungleichgewichts und unter Berücksichtigung der anerkanntermaßen unbekannten Unsicherheiten und Annahmen zu berechnen, wie viel CO₂ aus der Atmosphäre entfernt werden müsste, um uns in das Jahr 1988 zurückzubringen oder um die Erde unter einer Temperaturveränderung von 2°C gegenüber dem Ende des 19. Jahrhunderts zu halten. Warum diese beiden Ziele wichtig sind, ist nicht klar, aber man sagt uns, dass sie irgendwie Klimaprobleme verhindern werden.

Aber Panik auslösende Probleme haben nichts mit geringfügigen Temperaturänderungen zu tun. Hitzewellen entstehen nicht durch einen Hintergrundtemperaturanstieg von 1 oder gar 1,5 °C. Sie sind die Folge von UHI, der sich 10 °C nähert und aus der Art und Weise resultiert, wie wir unsere Megastädte gebaut haben, die voller energieverschwendender Geräte und von der Landluft abgeschnitten sind. Der mickrige Anstieg des Meeresspiegels verursacht keine Überschwemmungen – es sind Fehler im Bauwesen und Menschen, die dort bauen, wo sie es nicht sollten. Die Kenntnis der EEI, die an sich schon interessant sein könnte, wird nichts von alledem verhindern helfen.

References:

1- See for example: Trenberth, et al, Earth’s Energy Imbalance, Journal of Climate, 27, 9, p.3129-3144,  2014 DOI: https://doi.org/10.1175/JCLI-D-13-00294.1; V. Schuckmann, et al, Heat stored in the Earth system: where does the energy go?, Earth Syst. Sci. Data, 12, 2013–2041, https://doi.org/10.5194/essd-12-2013-2020, 2020; Loeb, N.G., et al. Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surv Geophys (2024). https://doi.org/10.1007/s10712-024-09838-8;

2-v Schuckmann, et al, 2023, Heat stored in the Earth system 1960–2020: where does the energy go? System Science Data, 15(4), 1675-1709. https://doi.org/10.5194/essd-15-1675-2023

3 -Guide to Uncertainty in Measurement. Available online at https://www.bipm.org/documents/20126/2071204/JCGM_100_2008_E.pdf

4-Max Henrion and Baruch Fischoff, Am J. Physics. 54,791, 1989. See also Science. 289, 2260-2262, 29 September 2000.

5-Loeb, Norman, Trends in Earth’s Energy Imbalance, ISSI GEWEX Workshop, September 26-30, 2022, Bern, Switzerland. Powerpoint online at: https://ntrs.nasa.gov/api/citations/20220010511/downloads/Loeb_2022_compressed.pptx.pdf

6-B. Barkstrom, and G. Smith, The Earth Radiation Budget Experiment’  Science and Implementation,  Reviews of Geophysics, v. 24, n 2, p. 379-390, May 1986

7-Kopia, L. Earth Radiation Budget Experiment Scanner Instrument, Reviews of Geophysics, v. 24, n 2, p. 400-406, May 1986

8-Loeb et al, 2018, Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product, Journal of Climate, DOI: 10.1175/JCLI-D-17-0208.1 “With the most recent CERES edition-4 instrument calibration improvements, the net imbalance from the standard CERES data products is approximately 4.3 , much larger than the expected EEI.“

9-Loeb, et al, 2009, Toward Optimal Closure of the Earth’s Top-of-Atmosphere Radiation Budget. J. Climate, 22, 748–766, https://doi.org/10.1175/2008JCLI2637.1.

10-Loeb, et al, 2024, Observational Assessment of Changes in Earth’s Energy Imbalance Since 2000. Surveys in Geophysics; https://doi.org/10.1007/s10712-024-09838-8

Link: https://wattsupwiththat.com/2024/09/16/the-earths-energy-imbalance-part-i/

Übersetzt von Christian Freuer für das EIKE

Teil 2 folgt in Kürze




Falscher Schein der Energiewende: Viele Argumente, wenig Realität

Gordon Tomb

Während sie viele Hindernisse aufzählen, die der Abkehr von fossilen Brennstoffen zugunsten „grüner“ Energie im Wege stehen, übergehen drei Autoren in der Zeitschrift Foreign Affairs eine wichtige Wahrheit: Die einst angepriesene, jetzt aber zum Scheitern verurteilte „Energiewende“ war und ist unnötig und unerwünscht.

Stattdessen ist der Titel des Artikels, „The Troubled Energy Transition: How to Find a Pragmatic Path Forward“ (Wie man einen pragmatischen Weg nach vorne findet) suggeriert (1), dass die so genannte Energiewende legitim ist und (2) dass sie trotzdem irgendwie stattfinden sollte. Beides ist falsch.

Die Autoren sind angesehene Männer: Daniel Yergin, ein mit dem Pulitzer-Preis ausgezeichneter Energiehistoriker; Peter Orszag, Vorsitzender und CEO von Lazard; und Atul Arya, Chef-Energiestratege bei S&P Global. In ihrem 5000 Wörter umfassenden Artikel werden die Themen ausführlich erörtert, aber die Sprache ist nicht sehr direkt und geht am Kern vieler Fragen vorbei.

So vergleichen die Autoren den Wechsel von fossilen Brennstoffen zu „grüner“ Energie mit der Ersetzung von Holz durch Kohle, die im 18. Jahrhundert begann und in den 1900er Jahren ihren Höhepunkt erreichte, und mit der Ablösung der Kohle durch Öl in den 1960er Jahren als dominierendem Brennstoff. Sie stellen fest, dass die verdrängten Energieträger bis weit in die Übergangsphase hinein genutzt wurden, so wie fossile Brennstoffe auch während der Einführung der heutigen Alternativen weiter genutzt werden – und sogar noch an Menge zunehmen.

In dem Artikel kommt jedoch die Energiedichte zu kurz, d. h. die Frage, wie viel Arbeit aus einer Einheit einer Energiequelle gewonnen werden kann. Bei früheren Umstellungen waren die nachfolgenden Energieträger in weitaus geringeren Mengen erforderlich als die zu ersetzenden Formen, um dieselbe Menge an Arbeit zu verrichten – Kohle besser als Holz, Öl besser als Kohle und Uran, das alles in den Schatten stellt.

Was den vermeintlichen Übergang von heute angeht, so heißt es in dem Artikel lediglich, dass „verbesserte Funktionalität und niedrigere Kosten … noch nicht in einem Großteil des gesamten Energiesystems vorhanden sind.“

Das bedeutet, dass Wind, Sonne, grüner Wasserstoff usw. für die Versorgung großer Bevölkerungsgruppen mit zuverlässiger, erschwinglicher Energie völlig unbrauchbar sind und dass Physik und Chemie keine glaubwürdigen Beweise dafür liefern, dass sie diese Rolle jemals ausfüllen können. Wind- und Solarkraftwerke beispielsweise benötigen ein Vielfaches an Land und Material, um die gleiche Menge an Strom zu erzeugen wie Kohle- und Kernkraftwerke. Aus diesem Grund scheitert die grüne Energie auch mit massiven Subventionen.

Über die Schwierigkeit, grüne Träume zu finanzieren, schreiben die Autoren: „Ein Teil des Problems sind die schieren Kosten: viele Billionen Dollar, mit großer Ungewissheit darüber, wer sie bezahlen soll.“ Es fehlen Anreize für private Investitionen, staatlich auferlegte Kohlenstoffsteuern sind problematisch, und die Bevölkerung weder der reichen noch der armen Länder kann es sich leisten, für all das zu bezahlen.

Nicht erwähnt wird, dass frühere Umstellungen von Erfindern, Investoren, Ingenieuren, Mechanikern und Handwerkern vorangetrieben wurden, die neue Brennstoffe einsetzten, um mit neuen Maschinen und Verfahren effizienter zu arbeiten. Neue Energiequellen haben sich organisch entwickelt, sie folgten den Gesetzen der Natur und der Wirtschaft und nicht den Diktaten der verblendeten Machtbesessenen, die von der Regierung gefördert werden.

Die schwachsinnige „Klima“-Politik der nationalen Regierungen hat die Dinge durcheinander gebracht. Energie ist in Ländern wie Deutschland und Kalifornien teurer und weniger verfügbar geworden, was zu einer vorhersehbaren wirtschaftlichen Zerstörung geführt hat. Das ist eine Wahrheit, die laut gesagt werden muss, immer und immer wieder von mehr klugen Leuten.

[Hervorhebung vom Übersetzer]

Der grundlegendste Fehler der Autoren ist die Behauptung, dass die Abkehr von fossilen Brennstoffen, um „Netto-Null-Emissionen“ zu erreichen, eine lohnende Aufgabe ist, die nur einen „pragmatischen Weg nach vorn“ benötigt. Genau das Gegenteil ist der Fall.

Berge von geologischen und historischen Beweisen und moderne Forschungen der Atmosphärenphysik zeigen das:

– Der Anstieg des atmosphärischen Kohlendioxids seit der industriellen Revolution hat das Gas auf ein für das Pflanzenwachstum optimales Niveau gebracht. Die Pflanzenproduktion hat sich verbessert, und die globalen Ökosysteme sind grüner geworden. Wir sollten mehr CO₂ in die Luft blasen, nicht weniger.

– Die heutige Erwärmung ist weder ungewöhnlich noch beispiellos. Vor 1.000 Jahren bauten die Wikinger auf Grönland Getreide an, und vor 2.000 Jahren züchteten die Römer in Nordengland Zitrusfrüchte. Heute ist es an beiden Orten zu kalt, um beides zu tun.

– Die Angstmacherei über den „Treibhauseffekt“ basiert auf Übertreibungen des Erwärmungspotenzials von CO₂ und anderen Gasen sowie auf fehlerhaften Computermodellen, die durch reale Daten wiederholt widerlegt wurden. Aufgrund des Phänomens der abnehmenden Erträge würde selbst eine Verdoppelung der CO₂-Konzentration gegenüber dem heutigen Stand nur zu einer bescheidenen, positiven Erwärmung führen.

Wir werden nicht erraten, warum so renommierte Autoren diese wohlbekannten Fakten übersehen, während sie die falsche Prämisse eines jahrzehntelangen Desasters in der öffentlichen Politik aufrechterhalten. Aber es gibt keinen „pragmatischen Weg nach vorn“ für eine Schein-Energiewende, und die Autoren sollten es besser wissen.

This commentary was first published at American Thinker on March 3, 2025.

Link: https://cornwallalliance.org/false-pretense-of-energy-transition-long-on-facts-short-on-truth/

Übersetzt von Christian Freuer für das EIKE