Klimamodelle: Als ob man mit einem Taschenrechner das Wetter in 100 Jahren simulieren kann. Bild: Thorben Wengert / pixelio.de
Robert L. Bradley Jr., übernommen von AIER
Wenn in ferner Zukunft die Geschichte der Klimamodellierung geschrieben wird, könnte die wichtigste Geschichte sein, wie sich die einfache, berechenbare Antwort als die falsche herausstellte, was zu einer überschätzten Erwärmung und falschen Ängsten vor dem verstärkten (vom Menschen verursachten) Treibhauseffekt führte.
In der Zwischenzeit häufen sich die empirischen und theoretischen Beweise, die auf dieses spielverändernde Urteil hinweisen, trotz der besten Bemühungen des Establishments, wegzuschauen.
Betrachten Sie eine Pressemitteilung in diesem Monat von der University of Colorado Boulder, „Warmer Clouds, Cooler Planet“, mit dem Untertitel „precipitation-related ‚feedback‘ cycle means models may overestimate warming“ [etwa: Niederschlags-bezogener „Rückkopplungs“-Zyklus bedeutet, dass Modelle die Erwärmung überbewerten können].
„Die heutigen Klimamodelle zeigen mehr Wärme als ihre Vorgänger“, beginnt die Ankündigung:
Aber eine in dieser Woche veröffentlichte Arbeit zeigt, wie die Modelle sich auf der Seite der zu starken Erwärmung irren können: Die sich erwärmenden Wolken der Erde kühlen die Oberfläche stärker ab als erwartet, berichtet das Team unter deutscher Leitung in „Nature Climate Change“.
„Unsere Arbeit zeigt, dass der Anstieg der Klimasensitivität aus der letzten Generation von Klimamodellen mit einem großen Körnchen Salz genommen werden sollte“, sagte CIRES-Mitglied Jennifer Kay, eine außerordentliche Professorin für atmosphärische und ozeanische Wissenschaften an der CU Boulder und Co-Autorin des Papiers.
In der Pressemitteilung heißt es weiter, dass die Einbeziehung dieser negativen Rückkopplung die Klimamodelle der nächsten Generation verbessern wird, was angesichts der bevorstehenden Sechsten Bewertung des Intergovernmental Panel on Climate Change (IPCC) von größter Bedeutung ist. Aber werden konfliktbehaftete Modellierer und das politisierte IPCC mit dem Elefanten im Raum offen umgehen?
Hintergrund
Starke positive Rückkopplungen durch die Freisetzung von Kohlendioxid (CO2) und anderen vom Menschen verursachten Treibhausgasen (THG) sind es, die eine bescheidene und sogar positive Erwärmung in das Gegenteil verwandeln. Man geht davon aus, dass eine erhöhte Verdunstung in einer wärmeren Welt (vor allem aus den Ozeanen) eine stark positive Rückkopplung verursacht, die die primäre Erwärmung verdoppelt oder sogar verdreifacht.
Technisch ausgedrückt: Wassermoleküle fangen Wärme ein, und Wolken oder Dampf in der oberen tropischen Troposphäre – wo die Luft extrem trocken ist – fangen wesentlich mehr Wärme ein und verdicken das Treibhaus. Wie das Wasser in dieser oberen Schicht (≈30.000-50.000 Fuß) die Wärme entweder blockiert (vergrößert) oder freisetzt (vermindert), ist umstritten, so dass das Vorzeichen der Externalität für die Klimaökonomie unbekannt ist. Und es ist die obere Troposphäre, in der die Klimamodelle mit den Daten nicht zurechtkommen.
Die Annahme einer festen relativen Luftfeuchtigkeit erlaubt es den Modellierern, sich ceteris paribus auf veränderte physikalische Prozesse zu berufen, die die sekundäre Erwärmung durchaus negieren könnten. Diese umstrittene Annahme öffnet die Tür für Hyper-Modellierung, die im Widerspruch zur Realität steht. (Für Ökonomen wäre die Analogie die Annahme von „perfektem Wettbewerb“, um Hypermodellierung zu entfesseln.)
Seit Jahrzehnten haben Modellkritiker die vereinfachte Behandlung von Komplexität in Frage gestellt. In der Zwischenzeit haben die Klimamodelle viel mehr Erwärmung vorhergesagt, als eingetreten ist.
Theoretiker sind seit langem mit Modelltechnikern zerstritten. Richard Lindzen vom MIT, Autor von Dynamics in Atmospheric Physics, hat verschiedene Hypothesen darüber aufgestellt, warum die Wasserdampf-Rückkopplung viel geringer ist als modelliert. Judith Curry, deren Blog Climate Etc. eine führende Quelle ist, um physikalisch-wissenschaftliche und verwandte Entwicklungen zu verfolgen, ist eine weitere Kritikerin der hoch sensitiven Modelle.
„Es gibt eine Reihe von glaubwürdigen Perspektiven, die ich versuche zu berücksichtigen“, sagt sie. „Es ist ein sehr komplexes Problem, und wir haben die Antworten noch nicht.“ Und weiter:
„Und jetzt haben wir viel zu viel Vertrauen in einige sehr zweifelhafte Klimamodelle und unzureichende Datensätze. Und wir fassen das Problem nicht weit genug, um … glaubwürdige Vorhersagen über die Bandbreite der Dinge zu machen, die wir möglicherweise im 21. Jahrhundert noch erleben werden“.
Wie geht der ‚Mainstream‘ damit um?
Klimawissenschaftler wissen, dass Klimamodelle extrem kompliziert und anfällig sind. In What We Know About Climate Change (2018, S. 30), erklärt Kerry Emanuel vom MIT:
Die Computermodellierung des globalen Klimas ist vielleicht das komplexeste Unterfangen, das je von der Menschheit unternommen wurde. Ein typisches Klimamodell besteht aus Millionen von Zeilen mit Computeranweisungen, die eine enorme Bandbreite an physikalischen Phänomenen simulieren sollen….
Obwohl die Gleichungen, die die physikalischen und chemischen Prozesse im Klimasystem darstellen, gut bekannt sind, können sie nicht exakt gelöst werden. …. Das Problem dabei ist, dass viele wichtige Prozesse auf viel kleineren Skalen ablaufen.
Das Problem der Parametrisierung ähnelt den Irrtümern der Makroökonomie, wo die entscheidende Kausalität des individuellen Handelns ignoriert wird. Die Mikrophysik ist die treibende Kraft des Klimawandels, doch die Gleichungen sind ungeklärt und unter dem Gitterniveau. Wie die Makroökonomie hätte auch die Makroklimatologie schon längst hochqualifiziert und degradiert werden müssen.
Mein Mentor Gerald North, ehemaliger Leiter der Abteilung für Klimatologie an der Texas A&M, hatte bereits 1998-99 eine Reihe von Anmerkungen über die krude, überbewertete Natur von Klimamodellen, die auch heute noch relevant sind:
Wir wissen nicht viel über die Modellierung von Klima. Es ist so, als ob wir einen Menschen modellieren würden. Die Modelle sind endlich in der Lage, uns zu sagen, dass die Kreatur zwei Arme und zwei Beine hat, aber wir werden gebeten, Krebs zu heilen.
Es gibt einen guten Grund für den fehlenden Konsens in der Wissenschaft. Es ist einfach noch zu früh. Das Problem ist schwierig, und es gibt erbärmlich wenige Möglichkeiten, Klimamodelle zu testen.
Man muss herausfinden, was zwischen 5 km und der Oberfläche vor sich geht. Der Standardweg ist über atmosphärische Modelle. Eine bessere Ausrede kann ich nicht finden.
Die verschiedenen Modelle koppeln unterschiedlich an die Ozeane. Hier gibt es eine ganze Menge Spielraum (unbestimmte Fudge-Faktoren). Wenn ein Modell zu empfindlich ist, kann man einfach ein wenig mehr Ozean einkoppeln, damit es mit den Aufzeichnungen übereinstimmt. Das ist der Grund, warum Modelle mit unterschiedlichen Empfindlichkeiten die Aufzeichnungen alle etwa gleich gut nachahmen. (Modellierer wären von meiner Erklärung beleidigt, aber ich denke, sie ist richtig.)
Modellergebnisse könnten auch soziologisch sein: die sozial akzeptable Antwort zu bekommen.
Der 5. Sachstandsbericht des IPCC (2013), der „offizielle“ oder Mainstream-Bericht, erkennt die grundlegende Unsicherheit an, während er die Modellmethodik und -ergebnisse für bare Münze nimmt. „Die Komplexität der Modelle“, so heißt es (S. 824), „hat seit dem Ersten Sachstandsbericht des IPCC von 1990 erheblich zugenommen….“. Und weiter:
Jedoch führt jedes bisschen zusätzliche Komplexität, während es dazu gedacht ist, irgendeinen Aspekt des simulierten Klimas zu verbessern, auch neue Quellen möglicher Fehler (z.B. durch unsichere Parameter) und neue Wechselwirkungen zwischen Modellkomponenten ein, welche, wenn auch nur vorübergehend, die Simulation eines Modells von anderen Aspekten des Klimasystems verschlechtern können. Darüber hinaus besteht trotz der erzielten Fortschritte nach wie vor eine wissenschaftliche Unsicherheit bezüglich der Details vieler Prozesse.
Die demütigende Natur der Klimamodellierung wurde von The Economist im Jahr 2019 veröffentlicht. „Predicting the Climate Future is Riddled with Uncertainty“ erklärt:
Klimamodellierung ist ein komplizierter Prozess. Der Code eines Modells muss alles darstellen, von den Gesetzen der Thermodynamik bis hin zu den Feinheiten, wie Luftmoleküle miteinander interagieren. Die Ausführung bedeutet, dass Quadrillionen von mathematischen Operationen pro Sekunde ausgeführt werden – daher der Bedarf an Supercomputern.
Solche Modelle sind sehr grob. Millionen von Gitterzellen mögen viel klingen, aber das bedeutet, dass die Fläche einer einzelnen Zelle, von oben gesehen, etwa 10.000 Quadratkilometer beträgt, während eine Luft- oder Meereszelle ein Volumen von bis zu 100.000 km3 haben kann. Wenn man diese enormen Flächen und Volumina als Punkte behandelt, entgehen einem viele Details.
Wolken zum Beispiel stellen eine besondere Herausforderung für Modellierer dar. Je nachdem, wie und wo sie sich bilden, können sie das Klima entweder erwärmen oder abkühlen. Aber eine Wolke ist viel kleiner als die kleinsten Gitterzellen, so dass ihre individuelle Wirkung nicht erfasst werden kann. Das Gleiche gilt für regionale Effekte, die durch Dinge wie topografische Merkmale oder Inseln verursacht werden.
Die Erstellung von Modellen wird auch durch mangelndes Wissen über die Art und Weise erschwert, wie sich Kohlenstoff durch die Umwelt bewegt.
„Aber die Forscher tun das Beste, was sie können“, folgerte The Economist.
Tatsächlich überschätzen die Klimamodelle die Erwärmung deutlich, sogar um die Hälfte. Und die Lücke vergrößert sich, da ein kühles 2021 in vollem Gange ist. Und was die Zukunft betrifft, so wird die anthropogene Erwärmung durch den logarithmischen und nicht linearen Effekt des Treibhauseffekts begrenzt. Der Sättigungseffekt bedeutet, dass der Anstieg der Erwärmung immer geringer wird, je mehr CO2 in der Atmosphäre enthalten ist. Die Erwärmung aus einer Verdopplung des CO2 tritt also nicht bei einer Verdreifachung, sondern bei einer Vervierfachung wieder ein.
Das Mitigationsfenster schließt sich also rapide, was die schrille Sprache prominenter Politiker erklärt. Aber es sind die zugrunde liegenden Klimamodelle, nicht das Klima selbst, dem die Zeit davonläuft.
„Unsettled“ gelangt in den Mainstream
Die krude Methodik und die falschen Schlussfolgerungen der Klimamodellierung treten aus dem Schatten. Der Physiker und Computerexperte Steven Koonin erklärt in seinem einflussreichen Werk Unsettled: What Climate Science Tells Us, What it Doesn’t, and Why It Matters (Kapitel 4):
Klimamodellierung ist zentral für die Klimawissenschaft….. Doch viele wichtige Phänomene treten auf Skalen auf, die kleiner sind als die 100 km (60 Meilen) Gittergröße (z.B. Berge, Wolken und Gewitter), und so müssen Forscher „Untergitter“-Annahmen machen, um ein vollständiges Modell zu bauen….
Da die Ergebnisse im Allgemeinen nicht viel mit dem von uns beobachteten Klimasystem übereinstimmen, passen die Modellierer diese Parameter an („frisieren“), um eine bessere Übereinstimmung mit einigen Merkmalen des realen Klimasystems zu erzielen.
Untertuning macht das Modell unrealistisch, aber Übertuning „riskiert, die Antwort vorher zu bestimmen“, fügt Koonin hinzu. Er zitiert dann aus einem Papier, das von 15 Weltklasse-Modellierern mitverfasst wurde:
… Tuning wird oft als ein unvermeidlicher, aber schmutziger Teil der Klimamodellierung gesehen, mehr Technik als Wissenschaft, ein Akt der Bastelei, der es nicht verdient, in der wissenschaftlichen Literatur festgehalten zu werden…. Tuning kann in der Tat als ein unsäglicher Weg gesehen werden, um Modellfehler zu kompensieren.
Conclusion
Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden. Alarmismus und störender politischer Aktivismus (erzwungene Substitution von minderwertigen Energien; Infragestellung von Lebensstil-Normen) haben sich verselbständigt. Achtung, fertig, los hat die Besonnenheit ersetzt, von der Wissenschaft bis zur öffentlichen Politik.
Die Daten widersprechen weiterhin naiven Klimamodellen. Eine sehr schwierige Theorie erklärt langsam aber sicher, warum. Die Klimadebatte ist zurück in der physikalischen Wissenschaft, aus der sie sich nie hätte entfernen dürfen.
Link: https://wattsupwiththat.com/2021/06/24/climate-models-worse-than-nothing/
Übersetzt von Christian Freuer für das EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Ich teile die Erdoberfläche gedanklich in 1-Kubikkilometer-Würfel ein; und diese aufgestapelt nach ca. 40 km in die Atmosphäre. Das gäbe über 20 Milliarden dieser vorgestellten Würfel.
Nun ist es aber so, dass sich in allen Würfeln sekündlich andere/unterschiedliche „Wetterbedingungen“ einstellen. Da sind wir wieder beim ‚Turmbau zu Babel‘, eine Klimamodellrechnung scheitert an in diesem Chaos ebenso.
Klimaveränderungen zu berechnen ist in etwa so:
Man kann recht einfach berechnen, wann und wo eine Kugel aufschlägt, die man von Eiffelturm wirft.
Dazu braucht man Höhe, Gewicht, Kraft des Wurfes und evtl. ein paar zusätzliche Dinge wie Luftdruck, Windgeschwindigkeit usw..
Wenn man versucht, das Klima für Jahre/Jahrzehnte voraus zu berechnen, ist das, als wenn man ausrechnen will, wo und wann ein Papierflugzeug den Boden berührt, dass man vom Eiffelturm wirft.
Das schafft kein Mensch der Welt!
Weil man nie genug Parameter messen und/oder berechnen kann und diese sich ja auch noch ständig verändern.
–
„Der fundamentale Punkt war immer folgender: Klimawandel wird durch hunderte von Faktoren oder Variablen bestimmt; und allein der bloße Gedanke, dass wir den Klimawandel vorhersagbar managen können, indem wir den einzigen politisch gewählten Faktor CO2 verstehen und manipulieren, ist so abwegig wie nur irgendwas; das ist wissenschaftlicher Unsinn.“
Philip Stott (Emeritierter Professor für Biogeographie an der School of Oriental and African Studies der University of London und ehemaliger Herausgeber des Journal of Biogeography.)
„Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden.“ Auf jeden Fall die geeignete Basis, um sich als beklopptes Vorreiterland an die Spitze der grünen Klima-Irren zu stellen und seine Industrie zu ruinieren. Und erbärmlich dumme grüne Verfassungsrichter, die dümmsten aller Zeiten, richten sich nach der Klima-Paranoia der „Klimakanzlerin“ samt Luisa und Greta. Und alle sind so unendlich behämmert, nur auf eine beispiellose Alarmfoschung zu hören, deren ausschließliche Aufgabe Alarm und Panik ist. Halt wie in einer Irrenanstalt. Dabei ist schon heute eines gewiss: Die Dekarbonisierung, die uns Billionen und voraussichtlich Industrie und Wohlstand kosten wird, wird ein garantierter Flopp. Dies ist als einziges Ergebnis schon heute so gut wie sicher!
Klimamodelle sind aber gar nicht kompliziert. Tatsächlich sind sie sehr einfach, ich würde sogar sagen primitiv. Und sie bauen im Kern alle auf den selben dummen Fehlannahmen auf. Das ist einerseits Voraussetzung, damit überhaupt ein (politisch-) relevantes ECS raus kommt, und nicht bloß ein Bonsai, andererseits aber notwendig um im gleichschalterischen „peer review“ nicht gleich der Ketzerei bezichtigt zu werden. Es ist ganz, ganz einfach..
Man nimmt eine (nahezu) perfekt emittierende Oberfläche an und verzichtet(!) in den Grundannahmen auf Wolken. Das führt zu einer sehr großen Abweichung, sowohl was die Einschätzung des Treibhausgaseffekts, als auch des ECS angeht. Sagen wir die Oberfläche emittiert 100% und TOA messen wir 70%, dann würden wir diese Differenz von 30% dem THE zuschreiben. Das stimmt übrigens mit der Realität überein, weil TOA bei klarem Himmel 270W/m2 gemessen werden, gegenüber angenommenen 390W/m2 an der Oberfläche.
Was aber, wenn die Oberfläche gar kein perfekter Emitter ist und nur einen Emissionsgrad von 0.91 aufweist? Dann schrumpfen die Emissionen der Oberfläche von 390 auf 355W/m2, minus 9%. Hier würden Klimatologen sagen „macht doch keinen Unterschied“. Nichts könnte falscher sein! Denn der THE sinkt dann ebenfalls um diese 9 Prozentpunkte, allerdings mit der Basis 30%. Also von 30% auf 21%, minus 30%!!! Das ist nicht „kein Unterschied“, sondern ein gewaltiger Unterschied.
Etwas Ähnliches passiert, wenn man Wolken berücksichtigt. Wolken sind mit THGen mit ca. 50W/m2 überlagert, oder ca. 13%. Das heißt der reine Treibhausgaseffekt schrumpft nochmal von 21% auf 8%. Fast nur ein Viertel der ursprünglichen 30%. Für ein Modellierung des ECS sind nun genau diese 8% nicht überlagerter, reiner Treibhausgaseffekt ausschlaggebend, nicht die hypothetischen 30%. Gibt man also die grundlegenden Fehlannahmen (geläufig als „Vereinfachungen“ bezeichnet) auf, dann schrumpft die Einschätzung des ECS um fast 3/4.
Schließlich kommt dann noch ein negatives feedback notwengiger Weise hinzu, weil ein mehr an Wasserdampf zwangsläufig zu einem niedrigeren Wärmgradienten führt (Stichwort „hot spot“). Realite ECS Einschätzungen werden daher jedenfalls <0.5K zu liegen kommen. Aber das würde den „Klimawandel“ vernichten, und darf somit nie bekannt werden.. 😉
@Schaffer – liest sich gut an – bin mal gespannt, ob sich ein „Thomas Heinemann“ oder gar „mein“ spezieller Freund „40/100-Rahmstorf“ (nat. unter „anderem“ Namen) oder aber noch ganz andere „FachLeute“ dazu äussern ?!? – weiter so, vielleicht hilft es ja !!! 😉
+ + + …“in der oberen tropischen Atmosphäre – wo die Luft extrem trocken ist – …“ ??? – also ICH sehe auf „earth.nullschool.net“ auf „70“ hPa (ca. 17,5 KM Höhe /über SECHS BreitenGrade) ) aber REICHLICH Luft-Feuchtigkeit (RH) bis zu „80“ Prozent (lokal) – aktuell in der Tat sehr wenig im Vergleich zum VOR-Jahr – schwankt irgendwie von Jahr zu Jahr – bis 2014 kann man „vergleichen“ – und bitte nicht „meine“ H2O-EIS-Aerosole der Fliegerei (mind. „300“ Mio. To./p.a.) „über den Wolken und vor Sonne und Mond“ vergessen – und mal auf „remss.com“ die SAT-Daten von 1980 bis dato (TROPO wärmer/STRATO kühler, gleich-gegenläufig) „studieren“ !?! 😉
P.S.: – die „JGUni“ Mainz hat doch zu „meinem“ EIS-Pulver einen teuren ForschungsAuftrag !!!
Das ganze Prinzip lässt sich übrigens schön in modtran reproduzieren.
http://climatemodels.uchicago.edu/modtran/modtran.html
1. unter „Location“ „1976 U.S. standard atmosphere“ auswählen
2. für die Bewölkung „Stratus… Top 2.0km“ wählen. So kommen wir mit 242.91W/m2 näherungsweise an reale Verhältnisse ran.
3. Wir verdoppeln das CO2 von 400 auf 800ppm, worauf die Emissionen auf 240.614W/m2 sinken.
4. Erhöhen wir die Temperatur um 0.61K, womit wieder 242.91W/m2 emittiert werden. Das gilt ohne feedback, wenn wir Wasserdampf absolut konstant halten.
5. Stellen wir auf relative humidity als konstant um, also inklusive feedback, dann braucht es 0.78K.
Das heißt modtran schlägt ein ECS von lediglich 0.78K vor, was fast 3/4 weniger ist als die „Konsensschätzung“ von 3K. Warum das so ist, bzw. sein muss ist oben erklärt. Das ist kein Fehler von modtran, sondern der Fundamentalfehler der Klimamodelle.
Falsch liegt modtran prinzipiell nur darin, dass es einerseits einen annährend perfekten Emissionsgrad annimmt, und andererseits den Wärmegradienten konstant hält. Beides führt immer noch zu einer erheblichen Überschätzung des ECS.
Dort kommen also die 8K her.
Danke
E. Schaffer schrieb am am 29. Juni 2021 um 15:34
Sind Sie sicher, dass Sie wirklich über tatsächliche Klimamodelle reden? Irgendwie steht das in starkem Kontrast zu dem, was Klimamodellierer beschreiben, z.B. Gavin Schmidt, „The emergent patterns of climate change“ …
@M. Müller – „Gavin Schmidt“ sollte sich evtl. meine „o.g.“ Ausführungen ansehen !?! – Jeder andere nat. auch – ER redet von „KondensStreifen, die Wolken bilden, wo vorher keine waren“ !!! – Ich wiederhole: – bei KEROSIN-Turbinen kommen auf ACHT Teile „CO2“ etwa DREI Teile „H2O“ hinten raus – bei Minus 40 bis 60 Grad (10-12 KM Höhe) doch wohl „folgerichtig“ als EIS-AEROSOLE (PolarSchnee / oder „mein“ EIS-Pulver) – rel. „UN-sichtbar“ – immer – auch OHNE „CONTRAILS“ – diese sind NUR „AusNahmeErscheinungen“ !!! MfG 😉
Tja, wenn man die Natur einer Sache erst mal verstanden hat, dann ist es in der Tat ganz einfach.
Gavin Schmidt hat ein so hoch komplexes Verständnis vom Klima, beachtet die Details und Feinheiten der Physik so genau, dass er am Ende folgert der alles entscheidende Emissionsgrad der Erdoberfläche beträgt einfach 1. Aehm..
Das ist in etwa so als würde jemand 5 Jahre auf eine Benimmschule gehen, dort die feinsten Knigge die selbst royalen Ansprüchen genügen erlernen, und kaum, dass er absolviert, lässt er die Hose runter und kackt auf die Straße. Wenn man das sieht und darüber nachdenkt, dann fragt man sich schon inwiefern hier Anspruch und Realität übereinstimmen.
Es gibt da übrigens eh was zum Thema und auch zur Person..
https://greenhousedefect.com/basic-greenhouse-defects/deception-with-emission-spectra-part-1
Auf Basis dieser „Klima-Modelle“ wird dann sehr bald ein social credit Programm ala China aufgelegt:
https://www.tichyseinblick.de/daili-es-sentials/bildungsministerium-chinesisches-sozialpunktesystem-fuer-deutschland/
Was man im Lande D (Freitagshüpfender Dummdödel) halt so unter „Digitalisierung“ versteht… 😉