Außerhalb der ‚Blackbox‘

Ad Huijser

Nach der Lektüre von „Into The Black Box“ (Ref. 1), wieder einmal ein großartiger und sehr informativer Beitrag von Willis Eschenbach, war ich nicht so sehr von der Schlussfolgerung überrascht, dass ein „Einzeiler-Klimamodell“ ein ähnliches Ergebnis wie die kompliziertesten GCMs erzielen könnte. Allerdings war ich verwundert darüber, dass er seine Analyse an dieser Stelle abbrach. Die von ihm angewandte wiederkehrende Beziehung zwischen Temperaturänderung und Antrieb ist eine einfache Folge davon, wie die Oberflächentemperatur T(t) dynamisch das Ungleichgewicht zwischen ein- und ausgehender Strahlung am TOA wiederherstellt, das durch einen zeitabhängigen Antrieb F(t) verursacht wird. Und da dies auf dem grundlegenden Prinzip der Energieerhaltung beruht, ist dies nicht nur ein weiteres 1-D-Klimamodell, sondern eine Voraussetzung für alle Klimamodelle. Er hätte sie also nicht nur zur Kurvenanpassung der Ergebnisse von GCMs verwenden sollen, sondern auch zur Überprüfung der Qualität von GCMs.

Schauen wir uns also diese wiederkehrende Beziehung, die ich (provokativ) als CMC bezeichne, etwas genauer an: den Climate Model Checker. Wenn n-1, n, n+1 aufeinanderfolgende Zeitpunkte in Einheitszeitintervallen sind, können wir diese Beziehung für kleine Störungen der Energiezu- und -abflüsse des Klimasystems der Erde leicht aus der Energiebilanz nach C ∂T/∂t = „Radiation IN“ – „Radiation OUT“ ableiten, als:

wobei τ eine spezifische Reaktionszeit ist, die in erster Linie durch die Wärmekapazität C des Klimasystems der Erde bestimmt wird, und λ ein Faktor, der die Klimasensitivität darstellt, d.h. die Art und Weise, wie die Oberflächentemperatur T auf ein Ungleichgewicht F an der TOA reagiert. Es ist offensichtlich, dass λ = ∆T/F ist, wobei ∆T der Anstieg der Oberflächentemperatur für t®µ aufgrund eines schrittweisen Antriebs F bei t = 0 ist. Diese Empfindlichkeit kann mit dem Temperaturanstieg aufgrund des Antriebs einer Verdopplung der CO2-Konzentration in Beziehung gesetzt werden, der bekannten Gleichgewichts-Klimaempfindlichkeit, ausgedrückt als ECS = λ F2xCO2.

Man könnte einwenden, dass ich das Problem auf die Schätzung der Parameter λ und τ und damit auf die laufende Diskussion „Welchen Wert hat ECS?“ verlagert habe. Das stimmt, aber erstens müssen wir jetzt nur noch zwei Parameter anpassen und nicht mehr den großen Satz von Parametern/Schätzungen in jedem komplizierten GCM. Und zweitens können wir zunächst nur das verwenden, was uns vernünftig erscheint, und dann sehen, was wir daraus machen.

Zunächst müssen wir einen realistischen Wert für τ schätzen. Für einen Wasserplaneten und je nach Wahl der Tiefe der gemischten Ozeanschicht kommen Lehrbücher (z. B. Ref. 2) auf etwa 4-5 Jahre. Bei 1/3 Land wird dieser Wert wahrscheinlich nicht viel niedriger als 3 Jahre sein. Ein Mittelwert von 4 Jahren ist eine gute Schätzung und wird durch Willis‘ Analyse von τ = 4,2 bei der Anpassung dieser CMC an das CMIP5-Ensemble (Ref. 1) unterstützt. In der Praxis zeigt sich, dass diese CMC nicht sehr empfindlich auf Reaktionszeiten im Intervall von 3 bis 5 Jahren reagiert.

Als Nächstes brauchen wir eine Schätzung für die Klimasensitivität λ. Für den Anfang wähle ich blind den Kehrwert des Planck-Rückkopplungsparameters von 3,3 W/m²/K (kümmern Sie sich hier nicht um Vorzeichen), da er aus demselben Ursprung wie unsere CMC abgeleitet ist und 4(1-a)Φ0/TS0 entspricht, wobei die Albedo des gesamten Himmels a = 0 ist. 3, der durchschnittlichen solaren Einstrahlung Φ0 = 340 W/m² und der Gleichgewichtsoberflächentemperatur TS0 = 288 K. λ = 0,3 K/ W/m² wäre also eine ausgezeichnete Wahl, und in der Tat zeigt Willis‘ Analyse (Ref. 1) der besten Anpassungen an die CMIP5-Ergebnisse Werte, die diesem Wert nahe kommen.

Aber diese Werte passten nicht gut zu den Berkeley-Temperaturreihen, für die er λ = 0,4 K/ W/m² und τ = 5 Jahre benötigte. Nun wissen wir alle, dass der Output von Modellen eine „Übersetzung“ des Inputs ist, oder kurz gesagt: „was man hineinsteckt, kommt heraus“ (aber nicht vergessen: „was man nicht hineinsteckt, kann man nicht herausbekommen“). Es stellt sich also die Frage, ob der Unterschied zwischen dem Berkeley- und dem von der CMC berechneten Temperaturbereich auf die falsche Wahl von λ und τ zurückzuführen ist oder eine Auswirkung des gewählten „Inputs“, d. h. der zeitabhängigen Antriebe ist.

Um das herauszufinden, habe ich Eschenbachs Excel-Tabelle heruntergeladen und meine eigene Tabelle entsprechend erstellt. Um meine Tabelle zu testen, habe ich dieselben CMIP5-Daten von der NASA/GISS-Website (Ref. 3) verwendet. Anstelle der Berkeley-Temperaturreihen verwendete ich zum Vergleich die neuesten HadCrut v5-Reihen (Ref. 4), die „aktueller“ sind. Schnell wurde klar, dass diese CMC mit λ = 0,3 K/W/m² und τ = 4 Jahren recht gut zu den HadCrut v5-Temperaturreihen passt. Und mit einer leichten Erhöhung auf λ = 0,345 K/W/m² passt sie sogar hervorragend. Dieser etwas höhere Wert für λ basiert nicht auf einer Kurvenanpassung, sondern stammt aus den Simulationen mit dem Online-Modul MODTRAN der Universität Chicago (Ref. 5) für die US-Standardatmosphäre + Wolken (Stratus/Strato CU) + Relative Luftfeuchtigkeit mit dem Wert 1 und „konstant“. Da dies nichts an den Schlussfolgerungen ändert und ich im weiteren Verlauf dieses Aufsatzes auch einige Ergebnisse von MODTRAN unter diesen besonderen Bedingungen verwenden werde, werde ich aus praktischen Gründen bzw. aus Gründen der Konsistenz von nun an diesen höheren λ-Wert verwenden.

Diese Anpassung ist in Abb. 1a dargestellt, und in Abb. 1b ist die gleiche Anpassung mit der UAH-LT-Temperaturreihe (Ref. 11) gezeigt, die leider nur für die letzten 40 Jahre verfügbar ist. Um den Erwärmungstrend besser darzustellen, habe ich die Option genutzt, den Beitrag der Vulkane zum Gesamtantrieb zu unterdrücken (gestrichelte Linien).

Das ist natürlich nicht schlecht, aber keine Neuigkeit angesichts der früheren Analyse von Willis Eschenbach (siehe 1), und ich überlasse es anderen, die enormen Diskrepanzen zwischen dieser CMC und den gemessenen Temperaturen um 1940 (heiße Zeiten des Zweiten Weltkriegs?) zu erklären, die offenbar nicht auf bekannte anthropogene Einflüsse zurückzuführen sind.

Beim Herunterladen der CMIP5-Forcings von der GISS-Website (Ref. 3) fiel mir jedoch auch die Verfügbarkeit der CMIP6-Datenbank auf. In der Erwartung, dass sie aktueller sein würde, habe ich auch diese Forcings ausprobiert (ich weiß nicht, warum Willis diesen Satz nicht verwendet hat). Jedenfalls war das Ergebnis der Anwendung dieser CMIP6-Inputs auf dieselbe CMC-Berechnung mit den identischen λ- und τ-Parametern eine völlige Überraschung, wie Abb. 2 zeigt. Und hier macht die Bemerkung, dass „der Output der Modelle immer ein Spiegelbild des Inputs ist“, deutlich, dass sich der Input der CMIP6-Modelle völlig von den CMIP5-Inputdaten unterscheidet, wie in Abb. 3 gezeigt. Und das nicht nur um einen kleinen Bruchteil; ein Forcing-Unterschied von 1 W/m² im Jahr 2010 bei einem Durchschnitt von 2,5 W/m² ist schlichtweg ungeheuerlich!

Man könnte einige neue Erkenntnisse in der Kategorie „natürliche Antriebe“ erwarten, aber nicht bei den Antrieben aus der Kategorie der gut gemischten Treibhausgase (WMGHG).  Da beide Eingangsdaten von derselben Gruppe von Personen stammen, die auch die entsprechende Literatur (Ref. 6) zur Verfügung stellen, habe ich dort nach neuen Erkenntnissen oder guten Argumenten für diese Diskrepanzen gesucht. Sie wiesen auf einige Unterschiede hin, aber ohne klare Erklärungen. Vielleicht ist es mein Fehler, aber ich konnte keine ernsthafte Diskussion für ihre Entscheidungen finden. Wenn ich jedoch die folgende Erklärung auf ihrer Website lese (Ref. 3), habe ich den Eindruck, dass sie sich die Möglichkeit einräumen, alles anzupassen, was sie für notwendig halten, um den Input auf den Output abzustimmen:

„Die Quantifizierung des tatsächlichen Antriebs innerhalb eines globalen Klimamodells ist ziemlich kompliziert und kann vom Ausgangszustand des Klimas abhängen. Dies ist daher eine zusätzliche Quelle der Unsicherheit. In einem modernen, komplexen Klimamodell werden andere Antriebsfaktoren als die Sonnenenergie nicht als Energieflussstörung aufgezwungen. Vielmehr werden die Flussstörungen diagnostiziert, nachdem die spezifische physikalische Änderung vorgenommen wurde. Die aus einfacheren Modellen abgeleiteten Schätzungen für solare, vulkanische und gut gemischte Treibhausgase können sich von der Wirkung in einem GCM unterscheiden. Anstöße durch heterogenere Anstöße (Aerosole, Ozon, Landnutzung usw.) werden meist direkt aus den GCMs ermittelt“.

Das AGW-Narrativ des IPCC beruht zum Teil auf der Behauptung, dass all diese GCMs die Erwärmung seit der vorindustriellen Zeit angemessen wiedergeben können. Es ist nun klar, dass es bei solchen Behauptungen nicht um Klimamodelle geht, sondern um Modelle + Input. Während die CMIP5-Modelle+Input mit λ = 0,345 K/W/m² gut abgedeckt werden konnten, benötigen die CMIP6-Modelle+Input einen Wert von 0,555 K/W/m² (Abb. 4). Und offensichtlich sind diese „zusätzlichen“ 0,21 K/W/m² Klimasensitivität nicht modell-, sondern inputbezogen. Daher sind Diskussionen über die Veränderung der Klimasensitivität zwischen CMIP5- und CMIP6-Ensembles eigentlich nutzlos, solange Modelle und Input nicht eindeutig entkoppelt sind und die Modelle nicht mit demselben Satz von Treibhausgasen als Input verglichen werden. Es ist zu einfach, darüber zu spekulieren, dass dies ein Beweis für einen „abgestimmten“ Input ist, aber dieses Thema erfordert auf jeden Fall einen besseren Einblick in die in diesen Ensembles verwendeten Antriebe. Daher habe ich versucht, die CMIP6-Zusammensetzung genauer zu verstehen, da sie den geringsten WMGHG-Anteil aufweist, wie in Abb. 3 und 5 dargestellt.

In der herunterladbaren CMIP6-Datenbank sind alle Treibhausgase zu einem WMGHG-Forcing zusammengefasst, und um dieses zu zerlegen, habe ich AGGI verwendet, die NOAA Annual Greenhouse Gas Index-Daten (Ref. 7), die bis 1979 zurückreichen (dünne/rote Kurven in Abb. 5). Deren WMGHG-Gesamtmenge (rote gepunktete Linie) passt gut zu den CMIP6-Daten, aber überhaupt nicht zu den CMIP5-Daten (schwarze Linie). Es gibt vier Hauptverursacher: CO2 (durchgezogenes dünnes Rot), CH4 (zusätzlich zu CO2, gestricheltes dünnes Rot) und der „Rest“ aus NO2 und FCKW/HFCKW. Der steile Anstieg des Treibhauseffekts nach 1970 ist offensichtlich auf die beiden letztgenannten Komponenten zurückzuführen, aber es ist schwer vorstellbar, dass sie plötzlich mit etwa 1 W/m² zum gesamten Treibhauseffekt beitragen. Nichtsdestotrotz stimmen die CMIP6-Forcings mit diesen AGGI-Daten über den verfügbaren Zeitraum überein, so dass es sich wahrscheinlich um „objektive“ Bewertungen von Änderungen der THG-Konzentration in der Atmosphäre handelt.

Was wir in diesem Zusammenhang leicht überprüfen können, ist der Beitrag von Kohlendioxid und Methan. Hier ist das MODTRAN-Modul ein praktisches Werkzeug, da es die Rekonstruktion der Treibhausgase für CO2, das den größten Beitrag leistet, und Methan (CH4) als „Zweitplatzierten“ ermöglicht. Dazu benötigen wir lediglich die Konzentration dieser Treibhausgase seit der vorindustriellen Zeit. Für CO2 ist das kein Problem, denn wir haben die Mauna Loa-Daten und das Carbon Project mit langjährigen „besten Schätzungen“ für die historischen Emissionen fossiler Brennstoffe, und die rekonstruierten 280 ppm im Jahr 1850 scheinen unumstritten zu sein. Für Methan ist die Geschichte weniger klar. Wir haben seit 1984 zuverlässige Messungen, aber die Methanquellen sind ziemlich spekulativ, vor allem in Verbindung mit dem Wachstum der Weltbevölkerung und dem damit verbundenen Wachstum der Landwirtschaft und der Viehbestände. Die vorindustrielle Konzentration (etwa 800 ppb im Jahr 1850) stammt aus der Analyse der in Eisbohrkernen eingeschlossenen Luft. Wie zuverlässig diese Daten sind, ist fraglich. Obwohl ich die bekannten Konzentrationen auf etwa 1100 ppb im Jahr 1850 zurückgerechnet habe, indem ich die aktuellen Emissionsraten und eine Lebensdauer von 9 Jahren zugrunde gelegt habe, sehe ich keinen Grund, diesen „offiziellen“ Wert von 800 ppb zu verwerfen und ihn zur Berechnung des CH4-Antriebs zu verwenden. Wenn wir MODTRAN verwenden, um die Auswirkungen des Übergangs von den CO2– und CH4-Konzentrationen von 1850 auf die heutigen Werte (414 ppm bzw. 1880 ppb) zu simulieren, erhalten wir einen Gesamtenergieanstieg von 1,85 W/m² für die US-Standardatmosphäre mit Stratus/Stratocumulus-Wolken und einer Wasserdampfeinstellung von 1 bei konstanter Luftfeuchtigkeit. Letzteres simuliert die „Wasserdampf-Rückkopplung“ (WVFB), also die Auswirkung einer veränderten H2O-Konzentration aufgrund von Temperaturänderungen, so dass sich eine Diskussion über dieses kontroverse Thema erübrigt.

Dieser Gesamt-„MODTRAN“-CO2+CH4-Antrieb, der in Abb. 5 durch den blauen Pfeil gekennzeichnet ist, stellt sofort die Glaubwürdigkeit der NASA/GISS-Antriebe in Frage, die in den Datenbanken CMIP5 und CMIP6 verwendet werden. Die in der AGGI-Datenbank verwendeten Forcings scheinen auf der Arbeit von Myhre et al. (Ref. 8) zu beruhen, aus der wir sofort die Verwendung des bekannten 2xCO2-Forcings von 3,7 W/m² und CH4-Forcings aus derselben Studie erkennen (grüne durchgezogene und gestrichelte Kurven). Aus der neueren Arbeit von Van Wijngaarden und Happer (Ref. 9) wissen wir jedoch, dass der spezifische CO2-Antrieb sicherlich zu hoch ist und maximal 3,0 W/m² beträgt, da sie ihn nur für klare Himmelsbedingungen ermittelt haben. Das MODTRAN-Modul ergibt für diese Situation F2xCO2 = 2,95 W/m², was eine gute Übereinstimmung mit ihrer Arbeit darstellt. Für den gesamten Himmel (bewölkt), wie er in dieser Arbeit verwendet wird (einschließlich WVFB), sinkt dieser Wert sogar auf 2,26-2,36 W/m² (abhängig von der relativen Luftfeuchtigkeit zwischen 100-60%), da Wolken die Wirkung von Treibhausgasen teilweise abschirmen. Um in Abb. 5 den Unterschied zu verdeutlichen, habe ich die Kurve „nur CO2“ mit 2,4 W/m² (orangefarbene Kurve) eingefügt.

Der NO2-Beitrag im AGGI beträgt nicht mehr als 0,2 W/m², so dass der steile Anstieg der Treibhausgase auf die Chlorfluorkohlenstoffe zurückzuführen sein muss. In MODTRAN werden diese durch die Freon-Skala dargestellt, und wenn man diese zwischen 0 und 1 umschaltet, erhält man nur 0,09 W/m² an zusätzlichem Antrieb für diese Gase. Dieser niedrige Wert lässt sich nur schwer mit den etwa 0,5 W/m² Antrieben in Einklang bringen, die von den CMIP6- und AGGI-Daten angegeben werden.

Wie auch immer, die Gesamtdifferenz des WMGHG’s CO2 + CH4 + NO2 + FCKW’s zwischen 2020 und 1850 wird sicherlich nicht mehr als 2,3 W/m² nach den obigen Zahlen betragen; wesentlich niedriger als die 3,2 W/m², die in der CMIP6-Datenbank von NASA/GISS verwendet werden. Und ich sehe absolut keinen Grund, an meiner Rechnung zu zweifeln, und sehe auch keine Möglichkeit, diese Lücke von fast 1 W/m² zu schließen.

Abb. 6 Der Temperatureffekt bei Anwendung von CMC mit den REFO-Gesamtforcings, wie sie u.a. aus dem „natürlichen“ Teil von CMIP6 und den MODTRAN-Werten (siehe Text) rekonstruiert wurden, im Vergleich zu HadCrut v5 und den Temperaturanomalien aufgrund der CMIP6-Gesamtforcings.

Natürlich könnten wir versuchen, diese Diskrepanz durch eine Anpassung der Klimasensitivität λ und/oder der Reaktionszeit τ zu beheben, aber das macht nicht viel Sinn, da wir mindestens 1 K/W/m² erreichen müssen. Dies würde eine lächerlich hohe Klimasensitivität bedeuten (nach ECS = λ F2xCO2 ≈ 3 K), obwohl sie immer noch innerhalb des IPCC-Bereichs liegt, oder, in der Terminologie der GCMs, ein Hinweis auf absurd hohe Rückkopplungen. Letzteres ist genau die Ausrede der CMIP6-Modelle und der Hintergrund für die jüngsten CMIP6-basierten alarmistischen Schlussfolgerungen einer noch höheren zukünftigen Erwärmung als bisher prognostiziert. Und was ich hier mit dieser CMC-Berechnung sowohl für den CMIP6- als auch für den REFO-Satz zeige ist, dass, wo die CMIP5-Modelle + Input anscheinend die gemessenen Temperaturreihen zwischen 1850-2020 einigermaßen gut anpassen können, die CMIP5- und 6-Modelle + objektiver Input (wie dieser REFO) überhaupt nicht passen.

Diese Lücke zwischen den aus den Antriebsfaktoren berechneten Anomalien und den Beobachtungen wird also nur schwer durch anthropogene Effekte zu schließen sein. Meine eigene Einschätzung (Ref. 10) ist, dass die Veränderung der Wolkenbedeckung seit 1980 diese Aufgabe übernehmen kann, wenn man eine Klimasensitivität gegenüber Wolkenveränderungen von etwa -0,11 K/%cc annimmt und nicht die unangenehm hohen positiven Wolkenrückkopplungen durch den Temperaturanstieg in den GCMs. Es ist erstaunlich, dass MODTRAN, im Gegensatz zu den GCMs, eine ähnliche Antwort auf diese Frage gibt, aber das ist eine „andere Geschichte“, die in diesem Zusammenhang nicht behandelt werden soll. Aber bedenken Sie, dass die beobachtete Wolkenveränderung möglicherweise nicht der einzige Effekt ist, der den globalen Klimawandel beeinflusst, so dass wir auch für andere Möglichkeiten offen bleiben müssen.

Abschließend möchte ich feststellen: Ich habe versucht, auf transparente Weise die Qualität der GCM-Klimamodelle zu analysieren und zu prüfen, ob die AGW-Hypothese durch diese Modelle für den Zeitraum 1850-2020 gut belegt ist, wie es das IPCC behauptet.

Nach dieser Untersuchung kann ich nur sagen: „Nein, absolut nicht!“. Modelle, die Modell-spezifische Eingaben benötigen, um die bekannte Vergangenheit zu replizieren, verletzen die grundlegendsten Kriterien der Wissenschaft, um das Etikett „wissenschaftlich bewiesen“ zu verdienen, unabhängig von der „bewiesenen Physik“, auf der sie beruhen. Diese Modelle sind in der Tat „Black Boxes“, aber ohne jede Vorhersagbarkeit. Die eklatanten Ungereimtheiten bei den Eingabewerten zwischen den verschiedenen Generationen sollten bereits Grund genug sein, jedes Ergebnis abzulehnen. Folglich sind diese Modelle in jeder Hinsicht völlig ungeeignet, die Zukunft vorherzusagen.

Die Frage: „Sind diese CMIP5- und CMIP6-Forcings auf die Temperaturen der letzten 1½ Jahrhunderte fixiert, um den jeweiligen GMC-Modellen ein vorbestimmtes/wünschenswertes Ergebnis zu geben?“, bleibt unbeantwortet, da ich keinen Einblick in die tatsächliche Abstimmung der GMCs habe. Aber diese Analyse in Verbindung mit dem früheren Zitat von der NASA/GISS-Website lässt diese Möglichkeit eindeutig offen.

Diese Schlussfolgerung macht mich nicht zu einem Klimaleugner oder einem Befürworter der weiteren Umweltverschmutzung, aber die Idee, dass die globale Erwärmung durch massive CO2-Reduktionen beeinflusst, wenn nicht gar gestoppt werden könnte, wird meiner Meinung nach nicht durch angemessene wissenschaftliche Beweise gestützt.

Mit Dank an Willis Eschenbach, der mich zu dieser Analyse veranlasst hat.

References

  1. Eschenbach, https://wattsupwiththat.com/2022/02/03/into-the-black-box/
  2. See for instance: http://www.atmos.albany.edu/facstaff/brose/classes/ATM623_Spring2015/Notes/Lectures/Lecture02%20–%20Solving%20the%20zero-dimensional%20EBM.html
  3. https://data.giss.nasa.gov/modelforce/
  4. https://www.metoffice.gov.uk/hadobs/hadcrut5/
  5. http://climatemodels.uchicago.edu/modtran/
  6. Miller et al, 2014, CMIP5 historical simulations (1850-2012) with GISS ModelE2, Journal of Advances in Modeling Earth Systems, vol. 2, 441-468 https://doi.org/10.1002/2013MS000266 and
    Miller et al, 2021, CMIP6 historical simulations (1850-2014) with GISS-E2.1, Journal of Advances in Modeling Earth Systems, vol. 13
    https://doi.org/10.1029/2019MS002034
  7. https://gml.noaa.gov/aggi/aggi.html
  8. Myhre et al, 1998, New Estimates of Radiative Forcing due to Well Mixed Greenhouse Gasses, Geophysical Research Letters, vol 24, 2715-2718
  9. W.A. van Wijngaarden and W. Happer, Relative Potency of Greenhouse Molecules, arXiv:2103.16465v1, 30 Mar 2021
  10. Huijser, The under estimated role of Clouds, https://www.clepair.net/clouds-AdHuijser.pdf
  11. https://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt

Link: https://wattsupwiththat.com/2022/02/21/outside-the-black-box/

Übersetzt von Christian Freuer für das EIKE

 




Über die Vorteile einer globalen Erwärmung

H. Sterling Burnett

Spiked Online hat diese Woche einen ausführlichen Artikel veröffentlicht, an dem der bekannte britische Wissenschaftsjournalist Matt Ridely, 5. Viscount Ridley, und Alina Chan mitgewirkt haben und in dem die unzähligen Vorteile beschrieben werden, die sich aus der jüngsten Periode des Klimawandels ergeben haben. Wir danken Ridley, Chan und Spiked, dass sie versucht haben, die guten Nachrichten über die Vorteile der globalen Erwärmung ans Licht zu bringen.

Der Artikel mit dem Titel [übersetzt] „Warum die globale Erwärmung gut für uns ist“ beginnt mit der Feststellung, dass „der Klimawandel einen grüneren und sichereren Planeten schafft“, und fährt dann fort, diese Behauptung mit Beweisen zu untermauern.

Der größte Vorteil der Emissionen ist die globale Begrünung, d. h. die Zunahme der grünen Vegetation auf der Landoberfläche des Planeten Jahr für Jahr. Die Wälder werden dichter, das Grasland üppiger und das Gestrüpp wächst schneller. Dies wurde mit Hilfe von Satelliten und der Aufzeichnung von Pflanzenwachstumsraten vor Ort nachgewiesen. Dies geschieht in allen Lebensräumen, von der Tundra bis zum Regenwald. Wie Bjorn Lomborg hervorhebt, zeigen die Daten der NASA, dass in den vier Jahrzehnten seit 1982 jedes Jahr 618.000 Quadratkilometer zusätzlicher grüner Blätter hinzugekommen sind, was der Fläche von drei mal Großbritannien entspricht.

Die bei Climate Realism veröffentlichten Forschungsergebnisse bestätigen die Behauptungen von Ridley und Chan, die zuvor in zahlreichen Artikeln (z. B. hier, hier, hier und hier) die Vorteile für die Vegetation im Allgemeinen beschrieben hatten. Wie Ridley und Chan weiter unten in ihrem Artikel anmerken, hat die Erwärmung natürlich auch die weltweite Pflanzenproduktion enorm gesteigert. Dieser letzte Punkt wurde in Dutzenden von Klimarealismus-Artikeln behandelt, zum Beispiel hier, hier, hier und hier.

Ein weiterer Vorteil der moderaten Erwärmung, der in dem Spiked-Artikel ausführlich beschrieben wird, ist der Rückgang der temperatur- und wetterbedingten Todesfälle während der Zeit der moderaten globalen Erwärmung.

Eine weitere gute Nachricht betrifft die Todesfälle. Wir sind doch gegen sie, oder? Eine aktuelle Studie zeigt, dass steigende Temperaturen in Großbritannien in den letzten zwei Jahrzehnten zu einer halben Million weniger Todesfällen geführt haben. Das liegt daran, dass kaltes Wetter etwa „20 Mal so viele Menschen tötet wie warmes Wetter“, so die Studie, die „über 74 Millionen Todesfälle an 384 Orten in 13 Ländern“ analysiert.

Auch hier war der Klimarealismus der Zeit voraus, als er über den Rückgang der Temperaturen und der wetterbedingten Todesfälle berichtete, zum Beispiel hier, hier und hier.

Wie Ridley und Chan berichten, hat der Klimawandel auch nicht zu einer größeren Anzahl extremer Wetterereignisse oder zu einer Verschlechterung der Intensität solcher Ereignisse geführt:

Es gibt keine Beweise dafür, dass die Volatilität des Wetters zunimmt, und es gibt keine gute Theorie, die darauf hindeutet, dass dies der Fall sein wird. Der abnehmende Temperaturunterschied zwischen den Tropen und der Arktis könnte die Volatilität des Wetters sogar ein wenig verringern.

Wie das IPCC wiederholt bestätigt, gibt es kein klares Muster, wonach Stürme häufiger oder heftiger werden, Dürren leicht abnehmen und Überschwemmungen nur dort zunehmen, wo Landnutzungsänderungen (wie Abholzung oder Bau von Häusern in Überschwemmungsgebieten) ein Problem darstellen.

Die in zahlreichen Berichten von Climate at a Glance (CAAG) gesammelten Daten aus der realen Welt bestätigen, was Ridley und Chan und das IPCC berichtet haben. Es gibt keine Beweise dafür, dass extreme Wetterereignisse in ihrer Anzahl oder Intensität zunehmen. CAAG hat darüber zum Beispiel hier, hier und hier berichtet.

Ridely und Chan beginnen ihre Diskussion dort, wo Climate Realism sie beenden wird, indem sie schreiben:

Die globale Erwärmung ist real. Sie ist auch – bis jetzt – meist von Vorteil. Diese verblüffende Tatsache wird der Öffentlichkeit durch die entschlossenen Bemühungen der Alarmisten und ihrer Verbündeten in den Medien vorenthalten, die entschlossen sind, die Sprache der Krise und des Notstands zu verwenden.

Das Ziel? Mehr Kontrolle über das Leben der Menschen auszuüben, unter anderem durch einen „Great Reset“ der Wirtschaft. Beim Klimawandel ging und geht es nicht um die Wissenschaft, sondern um Macht, und um Eliten, die mehr davon haben wollen.

[Hervorhebung vom Übersetzer]

H. Sterling Burnett, Ph.D. is managing editor of Environment & Climate News and a research fellow for environment and energy policy at The Heartland Institute. Burnett worked at the National Center for Policy Analysis for 18 years, most recently as a senior fellow in charge of NCPA’s environmental policy program. He has held various positions in professional and public policy organizations, including serving as a member of the Environment and Natural Resources Task Force in the Texas Comptroller’s e-Texas commission.

Link: https://climaterealism.com/2022/02/thanks-spiked-and-viscount-ridley-for-telling-the-truth-about-global-warmings-benefits/

Übersetzt von Christian Freuer für das EIKE

 




Wie man Europas Energie-Krise lösen kann

Sam Buchan

Vor dem Hintergrund einer hektischen Weltreise zur Sicherung von Vorkehrungen für den Fall einer katastrophalen Energiekrise nahmen EU-Vertreter am 9. Energieforum der USA und der EU teil. Doch trotz aller Erklärungen und optimistischer Tweets, die auf vage Ziele wie eine stärkere „Zusammenarbeit“ hinwiesen, schien die Lösung nicht greifbar.

Die politischen Führer auf beiden Seiten des Atlantiks müssen anerkennen, dass der Status quo Europa in die heutige Krise geführt hat. Sie täten gut daran, ihren Kurs sowohl durch ihr Handeln als auch durch ihre Worte sofort zu ändern.

Das Merkwürdige ist, dass sowohl die US- als auch die EU-Führer weiterhin die nicht ganz so subtilen Schreie der Energiemärkte übersehen, die aus der aggressiven Klimapolitik resultieren, die potenzielle Projektfinanzierer dazu zwingt, Schutz und marginale Renditen in erneuerbaren Energien zu suchen. Die Investitionen stagnierten, wichtige Projekte wurden aufgegeben, und Russland drängte auf einen größeren Marktanteil.

Es gab eine Zeit in nicht allzu ferner Vergangenheit, als die Klimaaktivisten die politische Agenda noch nicht vollständig beherrschten und die führenden Politiker sich dafür einsetzten, katastrophale Systemschwächen zu vermeiden. Die USA und die EU waren einst auf dem besten Weg, die Entwicklung neuer Infrastrukturen zu erleichtern und den Markt für Erdgas weiter voranzubringen, auch in Ländern, die von Kohle dominiert werden, vom Zugang zu sauberer Energie abgeschnitten sind oder in gefährlicher Weise von russischen Lieferungen abhängig sind.

Im Juli 2018 veranstalteten der ehemalige US-Außenminister Rick Perry und der EU-Kommissar für Energie und Klima Miguel Arias Cañete das erste hochrangige Business-to-Business-Forum zwischen den USA und der EU zum Thema LNG [Flüssiggas], das nach Angaben der EU „weitere Maßnahmen zur Nutzung der kommerziellen Möglichkeiten“ im LNG-Handel förderte. Die Botschaft war eindeutig und umfasste „neue Infrastrukturen für die vorgelagerte Entwicklung, Verflüssigung und Wiedervergasung“ sowie „neue Geschäftsmodelle und Finanzinstrumente in einem sich wandelnden Markt“.

Diese Art der Unterstützung ist zum Teil der Grund, warum die LNG-Exporte aus den USA nach Europa um 2418 Prozent gestiegen sind, seit Präsident Trump die LNG-Exporteure in den USA ermächtigt und genau die „Zusammenarbeit“ gefördert hat, die die führenden Politiker jetzt fordern.

In den letzten zwei Jahren wurden diese Fortschritte untergraben, aber es gibt immer noch Möglichkeiten, unsere Kontinente auf den einst so geschätzten Kurs in Richtung Energiesicherheit und nachhaltige Energiewende zurückzuführen.

Erstens müssen die Biden-Regierung und die EU-Kommission ein klares Signal an den Markt und die Investorengemeinschaft senden, indem sie öffentlich ihr Engagement für Erdgas, vor allem für LNG, als einen langfristig tragfähigen, sauberen Energieträger demonstrieren. Andernfalls werden Investoren weiterhin kritische Infrastrukturen meiden, darunter auch die milliardenschweren Export-Import-Geschäfte, auf die die EU für die Versorgungssicherheit und eine künftige Wasserstoffwirtschaft angewiesen ist.

Die europäischen Gasabnehmer zögern, langfristige Verträge zu unterzeichnen, da sie sonst Preisschwankungen ausgesetzt sind, wenn sie Klimaaktivisten und politischen Führern erlauben, Erdgas zu verteufeln. Am besten wäre es, wenn die EU ein Forum wie das von 2018 veranstalten würde, um die Zusammenarbeit im Bereich LNG wiederherzustellen und die Liefer- und Preisstabilität zu erhöhen, die Nationen mit langfristigen Verträgen mit US-LNG-Lieferanten erfahren.

Zweitens sollte Präsident Biden, wenn er Europa wirklich helfen will, seine Zurückhaltung bei den „bis zu 1 Milliarde Dollar“ Investitionen in die europäische Energieinfrastruktur aufheben, die Präsident Trump im Rahmen der Drei-Meere-Initiative zugesagt hat. Minister Blinken könnte morgen Gelder im US-Finanzministerium hinterlegen, um Kredite für die U.S. Development and Finance Corporation [DFC] zu sichern. Präsident Biden müsste nicht einmal seine schreckliche Entscheidung, sich gegen fossile Brennstoffprojekte in Übersee zu stellen, rückgängig machen, obwohl er das sollte. Der Kongress hat im Rahmen des European Energy Security and Diversification Act von 2019 die gesetzliche Grundlage für die DFC geschaffen. Investitionen, die die Zwänge im Midstream-Bereich abmildern, sollten für den neu bestätigten DFC-CEO oberste Priorität haben.

Drittens sollte die EU aktiv gegen russische Desinformationskampagnen vorgehen, die amerikanisches Erdgas als „schmutzig“ darstellen. Nach Angaben der IEA hat russisches Gas den höchste Methangehalt weltweit. Die EU sollte auch ein Programm in Zusammenarbeit mit globalen LNG-Lieferanten auflegen, um die Wähler über die Klimaeigenschaften dieses „Brückenkraftstoffs“ in der Übergangsphase aufzuklären. Dies würde die laufenden Bemühungen der USA und der EU um Methan-Reduktion und Transparenz ergänzen.

Schließlich sollte Deutschland die Diskussion über die Entwicklung eines eigenen LNG-Terminals wieder aufnehmen. Ein solcher Schritt würde für Deutschland eine Diversifizierung bedeuten und ein dringend benötigtes wirtschaftliches Druckmittel gegenüber Russland darstellen. Bundeskanzler Scholz muss seine Glaubwürdigkeit wiederherstellen, nachdem Deutschland seine Atomflotte abgeschaltet und sich den Russen angenähert hat. Letzteres wurde deutlich, als der ehemalige Bundeskanzler Gerhard Schröder in den Vorstand des russischen Konzerns Gazprom berufen wurde. Es ist an der Zeit, den Kreislauf der prorussischen deutschen Bundeskanzler zu durchbrechen.

[Hervorhebung vom Übersetzer. Dieser Punkt aus amerikanischer Perspektive gehört hervorgehoben!]

Diese Maßnahmen untergraben in keiner Weise die gemeinsamen Werte der USA und der EU, die eine saubere und sichere Energiezukunft anstreben; im Gegenteil, sie fördern diese Vision, indem sie eine stärkere Zusammenarbeit und Transparenz zwischen Beamten der USA und der EU sowie mit führenden Vertretern der LNG-Industrie fördern.

Sam Buchan served as Director on the White House National Economic Council and Senior Advisor to Secretary of Energy Rick Perry. He is an energy and foreign policy strategy consultant.

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2022/02/18/how-to-solve-europes-energy-crisis/

Übersetzt von Christian Freuer für das EIKE

 




Enthüllt: die wahren Kosten des „Net Zero“-Wahns – 18.000 Pfund für jeden Haushalt

Andrew Montford
[Leider findet man so etwas wie das Folgende nie in deutschen Medien! A. d. Übers.]

Angesichts der Krise bei den Lebenshaltungskosten und der Pläne für eine Energierationierung, die Schlagzeilen machen, fällt es schwer, Net Zero als etwas anderes als einen großen Fehler zu betrachten.

Damals, im Jahr 2019, wurde uns gesagt, die Rechnungen seien überschaubar: Es wurde behauptet, dass es die Nation über einen Zeitraum von 30 Jahren weniger als 1.800 Pfund pro Haushalt und Jahr kosten würde – nur ein oder zwei Prozent des Bruttoinlandsprodukts.

Diese Kostenschätzung stammte aus einem Bericht über Net Zero, den der Ausschuss für Klimawandel (CCC) für die Regierung erstellt hatte. Im Nachhinein hat sich herausgestellt, dass es sich dabei um ein fragwürdiges Dossier handelt, insbesondere als sich herausstellte, dass einige dieser Kosteneinsparungen durch absurde Annahmen über die Kosten von Kapitalanlagen, insbesondere von Elektroautos, zustande gekommen waren.

Auch die Tatsache, dass das von der CCC geplante Stromsystem nicht über genügend Kapazität verfügt, um eine lange Windflaute wie im letzten Jahr zu überstehen, ist nicht gerade vertrauenserweckend.

Wie viel könnte Net Zero also in der Realität kosten? Die Global Warming Policy Foundation kam zu dem Schluss, dass die Dekarbonisierung von nur drei Schlüsselbereichen der Wirtschaft – dem Elektrizitätssystem, den privaten Haushalten und dem privaten Verkehr – im Jahr 2020 doppelt so viel kosten würde, wie der CCC für die Gesamtwirtschaft als notwendig erachtete.

Eine Zahl von 10.000 Pfund pro Haushalt und Jahr war daher durchaus plausibel.

Die Regierung scheint jedoch an der CCC und ihrem Vorsitzenden, Lord Deben, festzuhalten, obwohl die Minister heutzutage nicht mehr so häufig auf die Kostenangaben eingehen.

Glücklicherweise hat sich nun eine weitere unabhängige Quelle in die Debatte eingeschaltet; letzte Woche veröffentlichte die Unternehmensberatung McKinsey einen neuen Bericht über Net Zero, der die Angelegenheit eindeutig zu klären scheint, und zwar nicht zu Gunsten des CCC.

Dem Text zufolge würden die zusätzlichen Ausgaben für Investitionsgüter, die für eine vollständige Dekarbonisierung erforderlich sind, „etwa 7,5 Prozent des BIP von 2021 bis 2050“ entsprechen.

Das ist das Fünffache der Zahl des CCC, allein für die anfänglichen Kapitalausgaben. Wenn man die Betriebskosten und die aufgeblähte Rechnung für den Ersatz all dieser Anlagen bei deren Verschleiß hinzurechnet, könnte man leicht über 12 oder sogar 15 Prozent des BIP sprechen – das Zehnfache der Zahl, die das Parlament akzeptierte, als es beschloss, das Netto-Null-Ziel gesetzlich zu verankern.

Das bedeutet eine jährliche Rechnung von vielleicht 18.000 Pfund für jeden Haushalt und nationale Gesamtausgaben von 500 Milliarden Pfund pro Jahr, was drei nationalen Gesundheitsdiensten entspricht. Solche Zahlen sind verblüffend und zeigen, dass das Netto-Null-Ziel noch nicht einmal eine „Illusion“ ist. Es ist nicht einmal besonders plausibel.

Aber es gibt noch eine weitere Überlegung, die bestätigt, dass Net Zero ein katastrophaler Fehler ist. Im Jahr 2010 kam die Weltbank zu dem Schluss, dass allein die Anpassung an den Klimawandel die Volkswirtschaften nur 0,17 Prozent des BIP kosten würde, was in aktuellen Preisen etwa 120 Milliarden Pfund pro Jahr entspricht. Mit anderen Worten: Die Kosten für die Dekarbonisierung der britischen Wirtschaft sind etwa fünfmal so hoch wie die Kosten, die entstehen würden, wenn die ganze Welt das Problem einfach wegadaptieren würde.

Der Premierminister wird von allen Seiten angegriffen und braucht dringend etwas, das er den Familien anbieten kann, die mit einer Reihe von wirtschaftlichen Hammerschlägen konfrontiert sind – Energiekrise, Steuererhöhungen, Inflation usw. – von denen viele direkt durch die Netto-Null-Politik verursacht wurden.

Ein erneutes Nachdenken über die Sinnhaftigkeit eines Crash-Dekarbonisierungsprogramms wäre nicht nur sehr klug, sondern würde wahrscheinlich auch sehr populär sein.

Link: https://www.conservativewoman.co.uk/revealed-the-true-cost-of-net-zero-insanity-18000-a-year-for-every-household/?mc_cid=3f7c80f0e4&mc_eid=08ba9a1dfb via Net Zero Watch Newsletter

Übersetzt von Christian Freuer für das EIKE

 




Mäandrierend durch ein Klima-Wirrwarr

Willis Eschenbach

Ein Grund, warum ich immer zögere, über die Motive anderer Leute zu spekulieren, ist, dass ich die Hälfte der Zeit keine Ahnung von meinen eigenen Motiven habe.

Also … aus den üblichen unbekannten Gründen und mit den üblichen unbekannten Motiven begann ich über das GISS-Klimamodell nachzudenken, das als „GISS GCM ModelE“ bekannt ist, oder wie ich es nenne, das „MuddleE“.

Wie viele solcher Klimamodelle wurde es nicht vor der Konstruktion entworfen. Stattdessen ist es über Jahrzehnte hinweg durch Hinzufügen neuer Teile, Weisheiten zur Behebung von Problemen, Ad-hoc-Änderungen zur Lösung neuer Probleme und dergleichen gewachsen. Oder um einen der Hauptprogrammierer von GISS, Gavin Schmidt, in einer Studie zu zitieren, in dem das ModelE beschrieben wird:

Die Entwicklung eines GCM ist ein ständiger Prozess kleinerer Ergänzungen und Korrekturen in Verbindung mit dem gelegentlichen Austausch bestimmter Teile.

Ein zusätzlicher Schwierigkeitsfaktor ist, wie bei vielen Programmen dieser Art, dass es in der Computersprache FORTRAN geschrieben ist … die 1983, als MuddleE geboren wurde, eine ausgezeichnete Wahl war, aber für 2022 eine schreckliche Sprache ist.

Wie sehr ist es gewachsen? Nun, ohne die Header-Dateien und Include-Dateien und so weiter, nur der FORTRAN-Code selbst, hat 441.668 Zeilen Code … und er kann nur auf einem Supercomputer wie diesem laufen:

Abbildung: Der Cray ecoplex NOAA GAEA Supercomputer, der für die Modellierung verwendet wird. Gaea wurde durch eine Investition in Höhe von 73 Millionen Dollar im Rahmen des American Reinvestment and Recovery Act von 2009 durch eine gemeinsame Partnerschaft zwischen der NOAA und dem Energieministerium finanziert.

Also nahm ich mir das GISS-Modell vor, um zu sehen, was ich finden kann. Von einer Reise, die ich vor zwei Jahrzehnten durch den MuddleE-Code unternommen hatte, wusste ich, dass es Probleme mit „Schmelzbecken“ gab. Das sind die Schmelzwasserbecken, die sich auf dem saisonalen Meereis bilden. Sie sind wichtig für die Berechnung der Albedo des Meereises. Auf meiner letzten Reise hatte ich festgestellt, dass die Tage, an denen sich Schmelztümpel bilden konnten, zeitlich stark begrenzt waren.

Dies führt mich zu einem sehr wichtigen Thema – der erstaunlichen Stabilität des Klimasystems. Es stellt sich heraus, dass moderne Klimamodelle nur schwer auf Kurs bleiben können. Es handelt sich um „iterative“ Modelle, was bedeutet, dass die Ergebnisse eines Zeitschrittes als Input für den nächsten Zeitschritt verwendet werden. Und das bedeutet, dass jeder Fehler in der Ausgabe von Zeitschritt „J“ als Fehler in der Eingabe in Zeitschritt „K“ übernommen wird, und so weiter und so fort … was es für das Durcheinander sehr einfach macht, sich zu einer Schneeballebene zu entwickeln oder in Flammen aufzugehen. Hier sind zum Beispiel ein paar tausend Durchläufe eines Klimamodells …

Abbildung 1: 2017 Läufe des Klimamodells von www.climateprediction.net.

Man beachte im oberen Feld, wie viele Läufe während der Kontrollphase der Modellläufe nach unten fallen … und das ist bei der realen Erde noch nie passiert.

Also habe ich ein Computerprogramm geschrieben, das die 511 Einzeldateien mit den 441.688 Zeilen Computercode nach Schlüsselwörtern, Wortkombinationen und Ähnlichem durchsucht, und wenn es eine Übereinstimmung findet, listet es die Dateinummer und die Zeilennummer auf, in der das Schlüsselwort vorkommt, und gibt die betreffende Zeile und die umliegenden Zeilen aus, damit ich untersuchen kann, was es gefunden hat.

Um das zu vermeiden, hat man als Programmierer zwei Möglichkeiten. Man kann entweder beheben, was mit dem Modell nicht stimmt, das es aus den Fugen geraten lässt … oder man kann tun, was die MuddleE-Programmierer mit den Schmelztümpeln gemacht haben. Man kann einfach eine harte Grenze setzen, im Grunde eine einstellbare Leitplanke, die verhindert, dass der Muddle den Hai überspringt.

Es scheint, dass sie den Code für die Schmelztümpel verbessert haben, denn ich kann die harte Grenze für die Tage, an denen sich die Schmelztümpel bilden können, nicht mehr finden. Stattdessen haben sie den folgenden Code eingefügt:

Dieser Code legt harte Grenzwerte für die Albedo von Meereis und Schmelztümpeln fest und gibt konstante Werte für nassen und trockenen Schnee auf dem Meereis an. Er legt die Grenzwerte und Werte für das sichtbare Licht (VIS) sowie für fünf Banden des nahen Infrarots (NIR1-5) fest.

Das bedeutet, dass es einen Code zur Berechnung der Albedo des Meereises gibt … aber manchmal liefert dieser Code unrealistische Werte. Doch anstatt herauszufinden, warum der Code falsche Werte liefert, und diese zu korrigieren, wird der falsche Wert im Klima-Wirrwarr einfach durch die entsprechenden Höchst- oder Mindestwerte ersetzt. Wissenschaft vom Feinsten.

Hier ist ein Kommentar, der einen weiteren Schmelztümpel-Spaß beschreibt:

Ohne diesen Teil des Codes würden einige der Schmelztümpel vielleicht nie wieder gefrieren, egal wie kalt es wurde … man muss diese Art von Physik lieben: Wasser, das nicht gefriert.

Das ist es, was die Klimamodellierer meinen, wenn sie sagen, dass ihr Modell „physikalisch basiert“ ist. Sie meinen es in demselben Sinne, in dem die Produzenten eines Hollywood-Films sagen, dass er „auf einer wahren Geschichte beruht“ …

Hier ist zum Beispiel ein toller Kommentar aus dem MuddleE-Code (das „c“ oder das „!“ in einer Zeile zeigt einen Kommentar an):

Mit anderen Worten: Wenn die Temperatur aus den Fugen gerät … untersuchen Sie nicht, warum das so ist, und bringen Sie es in Ordnung. Stellen Sie einfach eine angemessene Temperatur ein und machen Sie weiter.

Und was ist eine angemessene Temperatur? Es stellt sich heraus, dass sie einfach die Temperatur des vorherigen Zeitschritts einstellen und weiter machen … Physik, Sie wissen schon.

Hier ist noch eine:

… wenn das Klima-Kuddelmuddel aus den Fugen gerät und der Wind mit fünfhundert Meilen pro Stunde bläst, suchen Sie nicht nach dem Grund dafür. Stützen Sie es einfach ab, stellen Sie es wieder auf die Schienen und machen Sie weiter …

Dann haben wir eine andere Klasse von Nicht-Physik. Das sind abstimmbare Parameter. Hier ist eine Beschreibung aus dem oben verlinkten Artikel von Gavin Schmidt:

Das Modell ist so eingestellt (unter Verwendung des Schwellenwerts für die relative Luftfeuchtigkeit U00 für die Entstehung von Eis- und Wasserwolken), dass es sich im globalen Strahlungsgleichgewicht befindet (d. h. die Nettostrahlung am TOA liegt innerhalb von ±0,5 W/m² von Null) und eine angemessene planetarische Albedo (zwischen 29 % und 31 %) für die Kontrolllaufsimulationen aufweist.

Mit anderen Worten, die im Klimamodell simulierte Physik wird die Modellwelt nicht im Gleichgewicht halten. Also dreht man einfach am Einstellknopf und presto! Es funktioniert alles bestens! Der U00-Regler funktionierte sogar so gut, dass man zwei weitere Regler einbaute … und eine weitere harte Grenze. Aus dem Code:

Schließlich werden alle Modelle einem Prozess unterzogen, den ich „evolutionäre Abstimmung“ nenne. Das ist der Prozess, bei dem eine Änderung vorgenommen wird, und dann wird das Modell an der einzigen Sache getestet, an der wir es testen können – den historischen Aufzeichnungen. Wenn das Modell die historischen Aufzeichnungen besser wiedergeben kann, wird die Änderung beibehalten. Wenn die Änderung jedoch dazu führt, dass das Modell die Vergangenheit schlechter abbildet, wird es verworfen.

Wie es in der Werbung der Börsenmakler in den USA leider gesetzlich vorgeschrieben ist, ist die Leistung der Vergangenheit keine Garantie für den zukünftigen Erfolg. Die Tatsache, dass ein Klimamodell die Vergangenheit nachzeichnen kann, sagt absolut nichts darüber aus, ob es die Zukunft erfolgreich vorhersagen kann. Dies gilt insbesondere dann, wenn das Modell durch harte Grenzwerte und einstellbare Parameter gestützt und vor dem Umkippen bewahrt wird und dann evolutionär so eingestellt wird, dass es die Vergangenheit nachzeichnet …

Was geht sonst noch vor sich? Nun, wie bei vielen derartigen Ad-hoc-Projekten ist es dazu gekommen, dass ein einziger Variablenname für zwei verschiedene Dinge in verschiedenen Teilen des Programms steht … was ein Problem sein kann oder auch nicht, aber eine gefährliche Programmierpraxis ist, die zu unsichtbaren Fehlern führen kann. (FORTRAN unterscheidet z. B. nicht zwischen Groß- und Kleinschreibung, also ist „ss“ die gleiche Variable wie „SS“). Hier sind einige der doppelten Variablennamen:

Schließlich ist da noch die Frage der Erhaltung von Energie und Masse. Hier ist eine Möglichkeit, wie sie gehandhabt wird …:

Seltsamerweise ist das Unterprogramm „addEnergyAsDiffuseHeat“ zweimal in verschiedenen Teilen des Programms definiert … aber ich schweife ab. Wenn die Energie nicht erhalten bleibt, wird die Differenz einfach über den gesamten Globus hinweg addiert oder subtrahiert.

Eine Art Unterprogramm wie dieses ist notwendig, weil Computer nur bis zu einer bestimmten Anzahl von Dezimalstellen genau sind. Rundungsfehler“ sind also unvermeidlich. Und ihre Methode ist nicht unvernünftig, um mit diesem unvermeidlichen Fehler umzugehen.

Vor zwanzig Jahren fragte ich Gavin Schmidt jedoch, ob er eine Art „Murphy Gauge“ für dieses Unterprogramm hätte, um das Programm anzuhalten, wenn das Energieungleichgewicht einen bestimmten Schwellenwert überschreitet. In der realen Welt ist ein „Murphy Switchgauge“ ein Messgerät, das einen Alarm auslöst, wenn ein vom Benutzer eingestellter Wert überschritten wird. So sieht ein solches Gerät aus:

Ohne ein solches Messgerät könnte das Modell entweder eine große Menge an Energie gewinnen oder verlieren, ohne dass es jemand merkt.

Gavin sagte, er habe nichts, um das Programm bei einem zu großen Energieungleichgewicht zu stoppen. Also fragte ich ihn, wie groß das Ungleichgewicht normalerweise sei. Er sagte, er wisse es nicht.

Bei dieser Reise durch den Code 20 Jahre später suchte ich also erneut nach einem solchen „Murphy Gauge“ … aber ich konnte keines finden. Ich habe das Unterprogramm „addEnergyAsDiffuseHeat“ und die Umgebung durchsucht und nach allen möglichen Schlüsselwörtern wie „Energie“, „kinetisch“, „potentiell“, „thermisch“ sowie nach der FORTRAN-Anweisung „STOP“ gesucht, die den Lauf anhält, und nach „STOP_MODEL“, einem Unterprogramm, das den Modelllauf unter bestimmten Bedingungen anhält und eine diagnostische Fehlermeldung ausgibt.

In ModelE gibt es 846 Aufrufe von „STOP_MODEL“ für alle möglichen Dinge – Seen ohne Wasser, Probleme mit Dateien, „Massendiagnosefehler“, „Druckdiagnosefehler“, Sonnenzenitwinkel nicht im Bereich [0,0 bis 1,0], Endlosschleifen, Ozeanvariablen außerhalb der Grenzen, ein STOP_MODEL, das tatsächlich ausgibt: „Bitte überprüfen Sie das eine oder andere“, und meine persönlichen Favoriten, „negative Wolkendecke“ und „negative Schneehöhe“. Ich hasse es, wenn das passiert …

Und das ist alles eine sehr gute Sache. Das sind Murphy Gauges, die das Modell stoppen sollen, wenn es aus den Fugen gerät. Sie sind ein wichtiger und notwendiger Bestandteil eines jeden solchen Modells.

Aber ich konnte keinen Murphy Gauge für die Subroutine finden, die überschüssige oder unzureichende Energie nimmt und sie gleichmäßig über den Planeten verteilt. Nun, um fair zu sein, es sind 441.668 Zeilen Code, und er ist sehr schlecht kommentiert … also könnte er da sein, aber ich konnte ihn sicher nicht aufspüren.

Also … was ist die Schlussfolgerung aus all dem?

Lassen Sie mich mit meiner Erfahrung beginnen. Ich habe mein erstes Computerprogramm vor mehr als einem halben Jahrhundert geschrieben und seitdem unzählige weitere. Auf meinem Computer befinden sich zur Zeit über 2.000 Programme, die ich in der Computersprache R geschrieben habe, mit insgesamt über 230.000 Codezeilen. Ich habe mehr Computersprachen vergessen, als ich spreche, aber ich beherrsche (oder beherrschte) C/C++, Hypertalk, Mathematica (3 Sprachen), VectorScript, Basic, Algol, VBA, Pascal, FORTRAN, COBOL, Lisp, LOGO, Datacom und R. Ich habe die gesamte Computeranalyse für die ~1.000 Beiträge, die ich für WUWT geschrieben habe, durchgeführt. Ich habe Programme für alles Mögliche geschrieben, vom Testen von Blackjack-Systemen über die Bereitstellung der CAD/CAM-Dateien für den Zuschnitt der Teile für drei 80′-Fischereistahlboote bis hin zu einem Ausschreibungssystem für den Bau kompletter Häuser, zur Erstellung der Schnittmuster für den Zuschnitt und die Montage eines 15-Meter-Fahrleitungszeltes bis hin zu … nun ja, dem Programm, das ich heute geschrieben habe, um nach Schlüsselwörtern im Code für das GISS ModelE-Klimamodell zu suchen.

Was die Programmierung betrifft, weiß ich also, wovon ich spreche.

Nun zu den Modellen. Auf meinem Planeten unterscheide ich zwischen zwei Arten von Modellen. Das sind Single-Pass-Modelle und iterative Modelle. Single-Pass-Modelle nehmen eine Reihe von Eingaben entgegen, führen einige Operationen aus und erzeugen einige Ausgaben.

Iterative Modelle hingegen nehmen eine Vielzahl von Eingaben, führen einige Operationen mit ihnen durch und erzeugen einige Ausgaben … aber im Gegensatz zu Single-Pass-Modellen werden diese Ausgaben dann als Eingaben verwendet, mit denen das Modell Operationen durchführt, und der Prozess wird immer wieder wiederholt, um eine endgültige Antwort zu erhalten.

Bei iterativen Modellen gibt es einige sehr große Herausforderungen. Erstens sind sie, wie bereits erwähnt, im Allgemeinen sehr empfindlich und sensibel. Das liegt daran, dass jeder Fehler in der Ausgabe zu einem Fehler in der Eingabe wird. Das macht sie instabil. Und wie bereits erwähnt, gibt es zwei Möglichkeiten, das zu beheben – den Code zu korrigieren oder Leitplanken einzubauen, die verhindern, dass er aus den Fugen gerät. Der richtige Weg ist, den Code zu korrigieren … was uns zur zweiten Herausforderung führt.

Die zweite Herausforderung besteht darin, dass iterative Modelle sehr undurchsichtig sind. Wettermodelle und Klimamodelle sind iterative Modelle. Klimamodelle laufen in der Regel mit einem halbstündigen Zeitschritt. Das bedeutet, wenn ein Klimamodell beispielsweise 50 Jahre in die Zukunft voraussagt, durchläuft der Computer 48 Schritte pro Tag mal 365 Tage pro Jahr mal 50 Jahre, also 876.000 Iterationen. Und wenn er eine Antwort gibt, die keinen Sinn ergibt … wie können wir dann herausfinden, wo er aus den Fugen geraten ist?

Ich möchte betonen, dass ich nicht auf dem GISS-Modell herumhacke. Die gleichen Probleme gibt es, mehr oder weniger, bei allen großen, komplexen, iterativen Modellen. Ich weise lediglich darauf hin, dass diese Modelle NICHT „Physik-basiert“ sind – sie werden gestützt und eingezäunt, damit sie nicht abstürzen.

Abschließend möchte ich sagen, dass mich ein halbes Jahrhundert Programmieren und jahrzehntelanges Studium des Klimas einige Dinge gelehrt haben:

● Alles, was ein Computermodell tun kann, ist, die Unter- und vor allem die Missverständnisse der Programmierer sichtbar zu machen und zu verherrlichen. Punkt. Wenn Sie ein Modell in dem Glauben schreiben, dass CO2 die Temperatur steuert … raten Sie mal, was dabei herauskommt?

● Wie Alfred Korzybski bekanntlich sagte: „Die Karte ist nicht das Gebiet“. Er drückte damit auf poetische Weise aus, dass Menschen oft Modelle der Realität mit der Realität selbst verwechseln. Klimamodellierer haben dieses Problem in Hülle und Fülle, denn sie diskutieren ihre Modellergebnisse viel zu oft so, als wären sie reale Fakten.

● Das Klima ist bei weitem das komplexeste System, das wir je zu modellieren versucht haben. Es umfasst mindestens sechs Teilsysteme – Atmosphäre, Biosphäre, Hydrosphäre, Lithosphäre, Kryosphäre und Elektrosphäre. Alle diese Systeme haben interne Reaktionen, Kräfte, Resonanzen und Zyklen und stehen in Wechselwirkung mit allen anderen Systemen. Das System unterliegt variablen Kräften, die sowohl von innerhalb als auch von außerhalb des Systems kommen. Willis‘ erste Klimaregel besagt: „Im Klima ist alles mit allem anderen verbunden … was wiederum mit allem anderen verbunden ist … außer wenn es das nicht ist.“

● Wir haben gerade erst damit begonnen, das Klima zu modellieren.

● Iterativen Modellen kann man nicht trauen. Niemals. Ja, moderne Flugzeuge werden mit iterativen Modellen entworfen … aber die Konstrukteure benutzen immer noch Windkanäle, um die Ergebnisse der Modelle zu testen. Leider haben wir nichts, was einem „Windkanal“ für das Klima entspricht.

● Die erste Regel für fehlerhaften Computercode lautet: Wenn Sie einen Fehler beseitigen, schaffen Sie wahrscheinlich zwei weitere.

● Komplexität ≠ Zuverlässigkeit. Oft liefert ein einfacheres Modell bessere Antworten als ein komplexes Modell.

Unter dem Strich: Die aktuellen Computerklimamodelle sind weit davon entfernt, als Entscheidungsgrundlage für die öffentliche Politik zu dienen. Um sich davon zu überzeugen, muss man sich nur die endlose Reihe schlechter, gescheiterter, abgestürzter und einfach falscher Vorhersagen ansehen, die die Modelle gemacht haben. Schenken Sie ihnen keine Beachtung. Sie sind nicht „physikbasiert“, außer im Sinne von Hollywood, und sie sind noch lange nicht reif für die Primetime. Ihr Hauptzweck besteht darin, den unrealistischen Ängsten der Programmierer eine falsche Legitimität zu verleihen.

Und da haben Sie es, eine komplette Tour durch das Klima-Wirrwarr.

Link: https://wattsupwiththat.com/2022/02/18/meandering-through-a-climate-muddle/

Übersetzt von Christian Freuer für das EIKE