In meinem letzten Beitrag habe ich erläutert, wie der IPCC versucht, mit Hilfe von Klimamodellen nachzuweisen, dass der Mensch die jüngste globale Erwärmung verursacht hat. Modelle sind nützlich, um wissenschaftliche Ideen zu testen, aber sie sind kein Beweis dafür, dass eine Theorie richtig ist, wenn sie nicht erfolgreich und genau zukünftige Ereignisse vorhersagt. Siehe die Geschichte von Arthur Eddingtons Test von Einsteins Relativitätstheorie hier. In der Welt der Computermodellierung, in der ich 42 Jahre lang gearbeitet habe, ist die Wahl eines Modells, das am besten zu den Beobachtungen passt, die übliche Praxis. Ich habe noch keine gute Erklärung dafür gesehen, warum CMIP5 und CMIP6 Ensemble-Modelle erstellen. Es scheint eine politische Lösung für ein wissenschaftliches Problem zu sein. Dies wird im AR6 in Kapitel 1 [1] angesprochen, wo sie die Mittelwertbildung mehrerer Modelle ohne Berücksichtigung ihrer Genauigkeit oder gegenseitigen Unabhängigkeit als „Modelldemokratie“ bezeichnen. Es ist unklar, ob dies sarkastisch gemeint ist.
Abbildung 1 zeigt die CMIP6- (IPCC, 2021) oder die IPCC AR6-Modelle, ihre Mittelwerte in gelben und roten Kästen und die Beobachtungen in grün. In diesem Bereich der tropischen Troposphäre, der oft als „Hot Spot“ der Klimamodelle bezeichnet wird, haben die Klimamodelle die Erwärmung stets überschätzt.
Im AR6 wird erörtert, die Modelle nach ihrer Leistung und ihrer Abhängigkeit von anderen Modellen zu gewichten, da viele Modelle denselben Code und dieselbe Logik verwenden, doch konnte keine robuste Methode zur Bestimmung der Gewichtung gefunden werden. Schließlich wurden die Modelle erstens auf der Grundlage von Beobachtungen vor 2014 und zweitens auf der Grundlage ihrer modellierten ECS (Gleichgewichtas-Klimasensitivität bei einer CO2-Verdoppelung) und TCR (Transient Climate Response bei einer CO2-Verdoppelung) [2] klassifiziert, wie in AR6, Kapitel 1 und 4, erörtert wird. [3] Die beiden letztgenannten Werte, die vom Ensemble-Mittelwert und den Ensemble-Mitgliedern berechnet worden waren, wurden mit ECS- und TCR-Werten verglichen, die unabhängig von den Modellen ermittelt wurden. Der AR6-Modellierungsprozess führte zu einer höheren prognostizierten künftigen Erwärmung als der bereits viel zu warme AR5. In Kapitel 4 des AR6 wird eingeräumt, dass ein Großteil des Anstiegs auf die höheren ECS- und TCR-Werte zurückzuführen ist, die bei der AR6-Bewertung verwendet wurden.
Der IPCC vermengt im AR4, AR5 und AR6 häufig Modelle und die reale Welt, so dass die Beschränkung der Modellergebnisse auf einen unabhängig vorher festgelegten Bereich der Klimaempfindlichkeit besonders besorgniserregend ist. Modelle sind die Hauptquelle für ECS und TCR, d. h. modellbasierte Schätzungen der Klimaempfindlichkeit gegenüber CO2. Es handelt sich dabei um künstliche Modellkonstrukte, die in der realen Welt nicht gemessen, sondern nur angenähert werden können. Das macht ihre Technik teilweise zirkulär. Außerdem werden die Modelle zur Vorhersage künftiger Temperaturen verwendet. Da die Modelle im Vergleich zur beobachteten Erwärmung zu warm laufen, und das schon seit über 30 Jahren, kann man davon ausgehen, dass die Modellprognosen zu hoch sind.
Ein Grund, den sie sowohl im AR5 als auch im AR6 für die Verwendung eines Ensemble-Mittelwerts anführen, ist ihre Annahme, dass große Ensembles es ihnen ermöglichen, die „natürliche Variabilität“, die sie mit „Rauschen“ verwechseln, von der Modellunsicherheit zu trennen. [4] Sie verwenden also Modelle, um die natürliche Variabilität mit allen darin enthaltenen Verzerrungen zu berechnen. Ein weiterer Grund ist, dass, wenn zwei Modelle unter Verwendung desselben Szenarios zu ähnlichen Ergebnissen kommen, das Ergebnis „robuster“ sein sollte. Gavin Schmidt erläutert seine Sichtweise auf realclimate.org:
Bei den international koordinierten Bemühungen zur Bewertung der Fähigkeiten von Klimamodellen (wie dem Coupled Model Intercomparison Project) übermitteln mehrere Gruppen aus aller Welt ihre Modellergebnisse aus bestimmten Experimenten an ein gemeinsames Archiv. Der Grundgedanke dabei ist, dass, wenn sich verschiedene Modelle unterschiedlicher Gruppen auf ein Ergebnis einigen, dieses Ergebnis auf der Grundlage des (gemeinsamen) grundlegenden Verständnisses des Klimasystems trotz der strukturellen Unsicherheit bei der Modellierung des Klimas wahrscheinlich robust ist. Es gibt jedoch zwei sehr offensichtliche Möglichkeiten, wie dieses Ideal in der Praxis nicht erreicht wird.
1. Wenn die Modelle tatsächlich identisch sind [dies war bei CMIP5 der Fall], dann ist es nicht überraschend, dass sie ein gemeinsames Ergebnis haben. Eines der beiden Modelle wäre überflüssig und würde nichts zu unserem Wissen über strukturelle Unsicherheiten beitragen.
2. Die Modelle könnten in ihrer Formulierung, Geschichte und Verwendung völlig unabhängig sein, aber die beiden Modelle haben eine gemeinsame, aber falsche Annahme über die reale Welt. Dann könnte ein gemeinsames Ergebnis diesen gemeinsamen Fehler widerspiegeln und überhaupt nichts über die reale Welt aussagen.“
Gavin Schmidt, 2018
Im AR6 wird eingeräumt, dass es schwierig ist, die natürliche Variabilität von der Modellunsicherheit zu trennen. Es wurde versucht, sie nach ihrer Dauer zu trennen, d. h. es wurde angenommen, dass kurzfristige Veränderungen natürliche Schwankungen und längerfristige Veränderungen Modellunsicherheiten sind. Es wurde jedoch festgestellt, dass einige natürliche Schwankungen mehrere Dekaden andauern[5]. Interne natürliche Schwankungen durch Ozeanoszillationen wie die AMO [6] oder die PDO [7] wirken sich langfristig (über 60 Jahre) auf das globale und regionale Klima aus [8]. Diese sehr langen natürlichen Oszillationen erschweren es, die Auswirkungen der menschlichen Treibhausgasemissionen zu berücksichtigen.
Es ist ein Fehler, die natürliche Variabilität mit kurzfristigem Rauschen zu verwechseln, ebenso wie die Annahme, dass die natürliche Variabilität kurzfristig ist. Es ist nicht klar, dass die CMIP6-Modellunsicherheit richtig verstanden wird. Außerdem setzt die Verwendung nicht validierter Modelle zur „Messung“ der natürlichen Variabilität voraus, selbst wenn versucht wird, die Modellunsicherheit auszuschließen, dass die Modelle die natürliche Variabilität erfassen, was unwahrscheinlich ist. Langfristige Schwankungen sowohl der Sonne als auch in den Ozeanen werden von den Modellen ausdrücklich ignoriert [9].
Die CMIP-Modelle haben es schwer, die AMO und die PDO zu simulieren. Sie erzeugen Merkmale, die diesen natürlichen Oszillationen in Zeit und Ausmaß nahe kommen, aber sie sind nicht in Phase mit den beobachteten Temperaturaufzeichnungen und untereinander. Ein sorgfältiger Blick auf die projizierten Abschnitte der Abbildungen 1 (nach 2014) und 2 (nach 2005) bestätigt dieses Zeitproblem. Wenn also die Modelldaten zu einem Mittelwert aus mehreren Modellen gemittelt werden, werden die natürlichen Ozeanschwankungen wahrscheinlich „heraus gemittelt“.
Die in den Abbildungen 1 und 2 dargestellten Modellergebnisse ähneln einem Teller Spaghetti. Die natürliche Klimavariabilität ist zyklisch [10], so dass diese seltsame Praxis der Mittelwertbildung aus mehreren Modellen fälschlicherweise den Anschein erweckt, die Natur spiele eine geringe Rolle im Klima. Wenn man die Natur herausrechnet, stellt man eine hohe Empfindlichkeit des Klimas gegenüber CO2 oder jedem anderen beliebigen Faktor her und schreibt fälschlicherweise fast die gesamte beobachtete Erwärmung den menschlichen Aktivitäten zu.
Der IPCC hat viele Modelle in sein AR5-Ensemble aufgenommen, von denen er zugibt, dass sie minderwertig sind. Einige der Modelle fielen bei einem Residualtest durch, was auf eine schlechte Übereinstimmung mit den Beobachtungen hindeutet [11]. Die Einbeziehung von Modellen mit einer schlechten Übereinstimmung mit den Beobachtungen verfälscht den Ensemble-Mittelwert. Wie Gavin Schmidt in seinem Blogpost einräumt, handelt es sich bei zwei der Modelle in den CMIP5-Modellen um dasselbe Modell mit unterschiedlichen Namen, wodurch das Gewicht dieses Modells versehentlich verdoppelt wurde, was gegen die „Modelldemokratie“ verstößt. Er räumt auch ein, dass das Ergebnis nicht unbedingt „robuster“ ist, nur weil verschiedene Modelle sich auf ein Ergebnis einigen. Ich denke, wir sind uns alle einig, dass er damit Recht hat.
Es scheint, dass sie versuchen, eine „Konsens-Wissenschaft“ zu betreiben und aus politischen Gründen Ergebnisse aus möglichst vielen Modellen einbeziehen. Das ist ein Eingeständnis, dass sie keine Ahnung haben, wie das Klima funktioniert, denn wenn sie es wüssten, hätten sie nur ein Modell. Wie Michael Crichton bekanntlich sagte:
„Ich halte die Konsens-Wissenschaft für eine äußerst schädliche Entwicklung, die auf der Stelle gestoppt werden sollte. Historisch gesehen ist die Behauptung eines Konsenses die erste Zuflucht von Schurken; es ist ein Weg, eine Debatte zu vermeiden, indem man behauptet, dass die Angelegenheit bereits geklärt ist.“
Michael Crichton, 17. Januar 2003, am California Institute of Technology
Prof. William Happer drückte es so aus:
„Ein einziges, einschneidendes Experiment reicht aus, um eine Theorie zu falsifizieren, selbst wenn die Theorie viele andere Experimente genau erklärt. Klimamodelle wurden falsifiziert, weil sie eine viel stärkere Erwärmung vorausgesagt haben, als sie beobachtet wurde. … Zu den weiteren Fehlern gehört das Fehlen des vorhergesagten Hot Spots in der oberen Troposphäre der tropischen Breiten.“
(Happer, 2021d, S. 6)
Der „Hot Spot“, auf den sich Happer bezieht, ist die Quelle der in den Abbildungen 1 und 2 dargestellten Temperaturen. McKitrick und Christy liefern die Details der statistischen Klimamodellfälschung, auf die sich Happer bezieht, in ihrem Papier von 2018. Zusammenfassend lässt sich sagen, dass das IPCC, wenn es nicht in der Lage ist, ein bestes Modell für die Vorhersage des künftigen Klimas auszuwählen, damit zugibt, dass es nicht weiß, was das Klima antreibt. Die Verwendung mehrerer minderwertiger Modelle ermöglicht es ihnen nicht, die natürliche Variabilität oder den menschlichen Einfluss auf das Klima genauer einzuschätzen, sondern führt lediglich zu einer besser aussehenden Prognose. Es handelt sich um eine „Kosmetik“, wie wir in der Welt der Computermodellierung sagen. Die natürliche Variabilität lässt sich nur anhand von Beobachtungen richtig einschätzen, zumindest meiner Meinung nach. Im ersten Bewertungsbericht des IPCC (FAR) wussten sie das, aber in späteren Berichten vergaßen sie es, im FAR kamen sie zu dem Schluss:
„Das Ausmaß dieser [globalen] Erwärmung stimmt im Großen und Ganzen mit den Vorhersagen der Klimamodelle überein, aber es ist auch von derselben Größenordnung wie die natürliche Klimavariabilität. … Die eindeutige Entdeckung des verstärkten Treibhauseffekts anhand von Beobachtungen ist für ein Jahrzehnt oder länger nicht wahrscheinlich.“
(IPCC, 1992, S. 6)
Die meisten Leser werden sich daran erinnern, dass die berühmte „Pause“ bei der Erwärmung weniger als zehn Jahre später begann.
The bulk of this post is an excerpt from my latest book, The Great Climate Debate, Karoly v Happer.
The bibliography can be downloaded here.
- AR6, page 1-96
- Transient Climate Response
- AR6 pages 1-96, 1-97, 4-22 to 4-23, and 4-4.
- (Mitchell, Lo, Seviour, Haimberger, & Polvani, 2020) explain a methodology for separating natural variability from model differences. See also Box 4.1 in AR6, pages 4-21 to 4-24 for a complete discussion of the problem.
- (AR6 4-19 to 4-24)
- Atlantic Multi-decadal Oscillation
- Pacific Decadal Oscillation
- (Wyatt & Curry, 2014)
- (Connolly et al., 2021)
- (Wyatt & Curry, 2014), (Scafetta, 2021), and (Scafetta, 2013)
- (IPCC, 2013, p. 882)
Link: https://andymaypetrophysicist.com/2022/03/11/climate-model-democracy/
Übersetzt von Christian Freuer für das EIKE
„Zusammenfassend lässt sich sagen, dass das IPCC, wenn es nicht in der Lage ist, ein bestes Modell für die Vorhersage des künftigen Klimas auszuwählen, damit zugibt, dass es nicht weiß, was das Klima antreibt.“
Eine logische und gut begründete Schlussfolgerung, der nichts hinzuzufügen ist. Für die Verdummung von Merkel, Merz, Scholz und Lindner reicht es. Die dann auf der Grundlage dieser „Wissenschaft“ das Land und die Menschheit ruinieren. Eine „Wissenschaft“, die die Unverschämtheit besitzt, sich selbst als „settled“ zu bezeichnen.
Das Beste, was man tun kann, ist, sich die globalen Satellitenmessungen von UAH/Roy Spencer anzuschauen. Was unsere grün und Klima-verdummten Polit-Ideologen garantiert vermeiden – Alarm und Klima-Verdummung ist angesagt. Um nicht einzugestehen, dass Billionen der Steuerzahler in grandioser Dummheit und Einfalt verplempert werden.
Alle Modellergebnisse haben eine eindeutige Tendenz nach immer wärmer, offenbar ohne jegliches obere Ende. Das Modell nimmt also an, bei identisch bleibender Energiezufuhr ab Sonne wird es auf der Erde durch zunehmende „Gegenstrahlung aus sich selbst“ ununterbrochen wärmer, was einer permanenten und wundersamen Zunahme an Energie entspricht, was wiederum allen energetischen Gleichgewichtsprinzipien zuwiderläuft.
Vergleicht man die Modellkurven z. B. mit der UAH Kurve, sieht man, die tatsächliche Entwicklung ist seit ca. 20 Jahren eine Wellenlinie um eine gemeinsame Achse, ohne permanenten Aufwärtstrend.
Diese oft behauptete „Gegenstrahlung“ aus der Atmosphäre und auch andere „Narrative“ der deutschen Sprache scheinen bei IPCC allerdings keine maßgebliche Rolle zu spielen. Habe aus Interesse das aktuelle Kapitel AR6 WG1 Chapter 7: „The Earth’s energy budget, climate feedbacks, and climate sensitivity“ nach Begriffen wie „downward radiation“ bzw. „downward terrestrial radiation“ oder wie bei Trenberth/Kiehl nach „back radiation“ und auch nach „entropy“, „-18°C“ oder „33°C“ durchsucht, keine Treffer! Die in deutschen Arbeiten dominierenden Begriffe kommen bei IPCC also überhaupt nicht vor!
Was bedeutet das? Reden die über unterschiedliche Effekte?