Klimamodelle: Schlimmer als gar nichts?
Klimamodelle: Als ob man mit einem Taschenrechner das Wetter in 100 Jahren simulieren kann. Bild: Thorben Wengert / pixelio.de
Robert L. Bradley Jr., übernommen von AIER
Wenn in ferner Zukunft die Geschichte der Klimamodellierung geschrieben wird, könnte die wichtigste Geschichte sein, wie sich die einfache, berechenbare Antwort als die falsche herausstellte, was zu einer überschätzten Erwärmung und falschen Ängsten vor dem verstärkten (vom Menschen verursachten) Treibhauseffekt führte.
In der Zwischenzeit häufen sich die empirischen und theoretischen Beweise, die auf dieses spielverändernde Urteil hinweisen, trotz der besten Bemühungen des Establishments, wegzuschauen.
Betrachten Sie eine Pressemitteilung in diesem Monat von der University of Colorado Boulder, „Warmer Clouds, Cooler Planet“, mit dem Untertitel „precipitation-related ‚feedback‘ cycle means models may overestimate warming“ [etwa: Niederschlags-bezogener „Rückkopplungs“-Zyklus bedeutet, dass Modelle die Erwärmung überbewerten können].
„Die heutigen Klimamodelle zeigen mehr Wärme als ihre Vorgänger“, beginnt die Ankündigung:
Aber eine in dieser Woche veröffentlichte Arbeit zeigt, wie die Modelle sich auf der Seite der zu starken Erwärmung irren können: Die sich erwärmenden Wolken der Erde kühlen die Oberfläche stärker ab als erwartet, berichtet das Team unter deutscher Leitung in „Nature Climate Change“.
„Unsere Arbeit zeigt, dass der Anstieg der Klimasensitivität aus der letzten Generation von Klimamodellen mit einem großen Körnchen Salz genommen werden sollte“, sagte CIRES-Mitglied Jennifer Kay, eine außerordentliche Professorin für atmosphärische und ozeanische Wissenschaften an der CU Boulder und Co-Autorin des Papiers.
In der Pressemitteilung heißt es weiter, dass die Einbeziehung dieser negativen Rückkopplung die Klimamodelle der nächsten Generation verbessern wird, was angesichts der bevorstehenden Sechsten Bewertung des Intergovernmental Panel on Climate Change (IPCC) von größter Bedeutung ist. Aber werden konfliktbehaftete Modellierer und das politisierte IPCC mit dem Elefanten im Raum offen umgehen?
Hintergrund
Starke positive Rückkopplungen durch die Freisetzung von Kohlendioxid (CO2) und anderen vom Menschen verursachten Treibhausgasen (THG) sind es, die eine bescheidene und sogar positive Erwärmung in das Gegenteil verwandeln. Man geht davon aus, dass eine erhöhte Verdunstung in einer wärmeren Welt (vor allem aus den Ozeanen) eine stark positive Rückkopplung verursacht, die die primäre Erwärmung verdoppelt oder sogar verdreifacht.
Technisch ausgedrückt: Wassermoleküle fangen Wärme ein, und Wolken oder Dampf in der oberen tropischen Troposphäre – wo die Luft extrem trocken ist – fangen wesentlich mehr Wärme ein und verdicken das Treibhaus. Wie das Wasser in dieser oberen Schicht (≈30.000-50.000 Fuß) die Wärme entweder blockiert (vergrößert) oder freisetzt (vermindert), ist umstritten, so dass das Vorzeichen der Externalität für die Klimaökonomie unbekannt ist. Und es ist die obere Troposphäre, in der die Klimamodelle mit den Daten nicht zurechtkommen.
Die Annahme einer festen relativen Luftfeuchtigkeit erlaubt es den Modellierern, sich ceteris paribus auf veränderte physikalische Prozesse zu berufen, die die sekundäre Erwärmung durchaus negieren könnten. Diese umstrittene Annahme öffnet die Tür für Hyper-Modellierung, die im Widerspruch zur Realität steht. (Für Ökonomen wäre die Analogie die Annahme von „perfektem Wettbewerb“, um Hypermodellierung zu entfesseln.)
Seit Jahrzehnten haben Modellkritiker die vereinfachte Behandlung von Komplexität in Frage gestellt. In der Zwischenzeit haben die Klimamodelle viel mehr Erwärmung vorhergesagt, als eingetreten ist.
Theoretiker sind seit langem mit Modelltechnikern zerstritten. Richard Lindzen vom MIT, Autor von Dynamics in Atmospheric Physics, hat verschiedene Hypothesen darüber aufgestellt, warum die Wasserdampf-Rückkopplung viel geringer ist als modelliert. Judith Curry, deren Blog Climate Etc. eine führende Quelle ist, um physikalisch-wissenschaftliche und verwandte Entwicklungen zu verfolgen, ist eine weitere Kritikerin der hoch sensitiven Modelle.
„Es gibt eine Reihe von glaubwürdigen Perspektiven, die ich versuche zu berücksichtigen“, sagt sie. „Es ist ein sehr komplexes Problem, und wir haben die Antworten noch nicht.“ Und weiter:
„Und jetzt haben wir viel zu viel Vertrauen in einige sehr zweifelhafte Klimamodelle und unzureichende Datensätze. Und wir fassen das Problem nicht weit genug, um … glaubwürdige Vorhersagen über die Bandbreite der Dinge zu machen, die wir möglicherweise im 21. Jahrhundert noch erleben werden“.
Wie geht der ‚Mainstream‘ damit um?
Klimawissenschaftler wissen, dass Klimamodelle extrem kompliziert und anfällig sind. In What We Know About Climate Change (2018, S. 30), erklärt Kerry Emanuel vom MIT:
Die Computermodellierung des globalen Klimas ist vielleicht das komplexeste Unterfangen, das je von der Menschheit unternommen wurde. Ein typisches Klimamodell besteht aus Millionen von Zeilen mit Computeranweisungen, die eine enorme Bandbreite an physikalischen Phänomenen simulieren sollen….
Obwohl die Gleichungen, die die physikalischen und chemischen Prozesse im Klimasystem darstellen, gut bekannt sind, können sie nicht exakt gelöst werden. …. Das Problem dabei ist, dass viele wichtige Prozesse auf viel kleineren Skalen ablaufen.
Das Problem der Parametrisierung ähnelt den Irrtümern der Makroökonomie, wo die entscheidende Kausalität des individuellen Handelns ignoriert wird. Die Mikrophysik ist die treibende Kraft des Klimawandels, doch die Gleichungen sind ungeklärt und unter dem Gitterniveau. Wie die Makroökonomie hätte auch die Makroklimatologie schon längst hochqualifiziert und degradiert werden müssen.
Mein Mentor Gerald North, ehemaliger Leiter der Abteilung für Klimatologie an der Texas A&M, hatte bereits 1998-99 eine Reihe von Anmerkungen über die krude, überbewertete Natur von Klimamodellen, die auch heute noch relevant sind:
Wir wissen nicht viel über die Modellierung von Klima. Es ist so, als ob wir einen Menschen modellieren würden. Die Modelle sind endlich in der Lage, uns zu sagen, dass die Kreatur zwei Arme und zwei Beine hat, aber wir werden gebeten, Krebs zu heilen.
Es gibt einen guten Grund für den fehlenden Konsens in der Wissenschaft. Es ist einfach noch zu früh. Das Problem ist schwierig, und es gibt erbärmlich wenige Möglichkeiten, Klimamodelle zu testen.
Man muss herausfinden, was zwischen 5 km und der Oberfläche vor sich geht. Der Standardweg ist über atmosphärische Modelle. Eine bessere Ausrede kann ich nicht finden.
Die verschiedenen Modelle koppeln unterschiedlich an die Ozeane. Hier gibt es eine ganze Menge Spielraum (unbestimmte Fudge-Faktoren). Wenn ein Modell zu empfindlich ist, kann man einfach ein wenig mehr Ozean einkoppeln, damit es mit den Aufzeichnungen übereinstimmt. Das ist der Grund, warum Modelle mit unterschiedlichen Empfindlichkeiten die Aufzeichnungen alle etwa gleich gut nachahmen. (Modellierer wären von meiner Erklärung beleidigt, aber ich denke, sie ist richtig.)
Modellergebnisse könnten auch soziologisch sein: die sozial akzeptable Antwort zu bekommen.
Der 5. Sachstandsbericht des IPCC (2013), der „offizielle“ oder Mainstream-Bericht, erkennt die grundlegende Unsicherheit an, während er die Modellmethodik und -ergebnisse für bare Münze nimmt. „Die Komplexität der Modelle“, so heißt es (S. 824), „hat seit dem Ersten Sachstandsbericht des IPCC von 1990 erheblich zugenommen….“. Und weiter:
Jedoch führt jedes bisschen zusätzliche Komplexität, während es dazu gedacht ist, irgendeinen Aspekt des simulierten Klimas zu verbessern, auch neue Quellen möglicher Fehler (z.B. durch unsichere Parameter) und neue Wechselwirkungen zwischen Modellkomponenten ein, welche, wenn auch nur vorübergehend, die Simulation eines Modells von anderen Aspekten des Klimasystems verschlechtern können. Darüber hinaus besteht trotz der erzielten Fortschritte nach wie vor eine wissenschaftliche Unsicherheit bezüglich der Details vieler Prozesse.
Die demütigende Natur der Klimamodellierung wurde von The Economist im Jahr 2019 veröffentlicht. „Predicting the Climate Future is Riddled with Uncertainty“ erklärt:
Klimamodellierung ist ein komplizierter Prozess. Der Code eines Modells muss alles darstellen, von den Gesetzen der Thermodynamik bis hin zu den Feinheiten, wie Luftmoleküle miteinander interagieren. Die Ausführung bedeutet, dass Quadrillionen von mathematischen Operationen pro Sekunde ausgeführt werden – daher der Bedarf an Supercomputern.
Solche Modelle sind sehr grob. Millionen von Gitterzellen mögen viel klingen, aber das bedeutet, dass die Fläche einer einzelnen Zelle, von oben gesehen, etwa 10.000 Quadratkilometer beträgt, während eine Luft- oder Meereszelle ein Volumen von bis zu 100.000 km3 haben kann. Wenn man diese enormen Flächen und Volumina als Punkte behandelt, entgehen einem viele Details.
Wolken zum Beispiel stellen eine besondere Herausforderung für Modellierer dar. Je nachdem, wie und wo sie sich bilden, können sie das Klima entweder erwärmen oder abkühlen. Aber eine Wolke ist viel kleiner als die kleinsten Gitterzellen, so dass ihre individuelle Wirkung nicht erfasst werden kann. Das Gleiche gilt für regionale Effekte, die durch Dinge wie topografische Merkmale oder Inseln verursacht werden.
Die Erstellung von Modellen wird auch durch mangelndes Wissen über die Art und Weise erschwert, wie sich Kohlenstoff durch die Umwelt bewegt.
„Aber die Forscher tun das Beste, was sie können“, folgerte The Economist.
Tatsächlich überschätzen die Klimamodelle die Erwärmung deutlich, sogar um die Hälfte. Und die Lücke vergrößert sich, da ein kühles 2021 in vollem Gange ist. Und was die Zukunft betrifft, so wird die anthropogene Erwärmung durch den logarithmischen und nicht linearen Effekt des Treibhauseffekts begrenzt. Der Sättigungseffekt bedeutet, dass der Anstieg der Erwärmung immer geringer wird, je mehr CO2 in der Atmosphäre enthalten ist. Die Erwärmung aus einer Verdopplung des CO2 tritt also nicht bei einer Verdreifachung, sondern bei einer Vervierfachung wieder ein.
Das Mitigationsfenster schließt sich also rapide, was die schrille Sprache prominenter Politiker erklärt. Aber es sind die zugrunde liegenden Klimamodelle, nicht das Klima selbst, dem die Zeit davonläuft.
„Unsettled“ gelangt in den Mainstream
Die krude Methodik und die falschen Schlussfolgerungen der Klimamodellierung treten aus dem Schatten. Der Physiker und Computerexperte Steven Koonin erklärt in seinem einflussreichen Werk Unsettled: What Climate Science Tells Us, What it Doesn’t, and Why It Matters (Kapitel 4):
Klimamodellierung ist zentral für die Klimawissenschaft….. Doch viele wichtige Phänomene treten auf Skalen auf, die kleiner sind als die 100 km (60 Meilen) Gittergröße (z.B. Berge, Wolken und Gewitter), und so müssen Forscher „Untergitter“-Annahmen machen, um ein vollständiges Modell zu bauen….
Da die Ergebnisse im Allgemeinen nicht viel mit dem von uns beobachteten Klimasystem übereinstimmen, passen die Modellierer diese Parameter an („frisieren“), um eine bessere Übereinstimmung mit einigen Merkmalen des realen Klimasystems zu erzielen.
Untertuning macht das Modell unrealistisch, aber Übertuning „riskiert, die Antwort vorher zu bestimmen“, fügt Koonin hinzu. Er zitiert dann aus einem Papier, das von 15 Weltklasse-Modellierern mitverfasst wurde:
… Tuning wird oft als ein unvermeidlicher, aber schmutziger Teil der Klimamodellierung gesehen, mehr Technik als Wissenschaft, ein Akt der Bastelei, der es nicht verdient, in der wissenschaftlichen Literatur festgehalten zu werden…. Tuning kann in der Tat als ein unsäglicher Weg gesehen werden, um Modellfehler zu kompensieren.
Conclusion
Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden. Alarmismus und störender politischer Aktivismus (erzwungene Substitution von minderwertigen Energien; Infragestellung von Lebensstil-Normen) haben sich verselbständigt. Achtung, fertig, los hat die Besonnenheit ersetzt, von der Wissenschaft bis zur öffentlichen Politik.
Die Daten widersprechen weiterhin naiven Klimamodellen. Eine sehr schwierige Theorie erklärt langsam aber sicher, warum. Die Klimadebatte ist zurück in der physikalischen Wissenschaft, aus der sie sich nie hätte entfernen dürfen.
Link: https://wattsupwiththat.com/2021/06/24/climate-models-worse-than-nothing/
Übersetzt von Christian Freuer für das EIKE