Feeling The Bern – noch ein CO2-Modell

Willis Eschenbach

Vor einem Jahrzehnt schrieb ich einen Beitrag mit dem Titel „The Bern Model Puzzle. Er bezog sich auf die folgende Frage:

Angenommen, wir haben einen relativ stabilen Zustand, in dem der CO2-Gehalt in der Atmosphäre weder steigt noch fällt – so wie die Situation um das Jahr 1400 in den untenstehenden Daten:

Abbildung 1. Historische CO2-Werte in der Luft von 1000 n. Chr. bis heute, aus 10 Eisbohrkernen und seit 1959 aus Messungen des Mauna Loa Observatory (orange). Die Einheiten sind Teile pro Million Volumenprozent (ppmv) der Atmosphäre.

Nehmen wir nun an, dass während dieser Zeit ein Vulkan ausbricht und das in die Atmosphäre entlässt, was wir früher als eine „metrische Ladung CO2“ bezeichnet haben. Im Laufe der Zeit wird dieser CO2-Impuls von einer Reihe von Senken an Land und in den Ozeanen absorbiert, und der Status quo ante des atmosphärischen CO2 wird wieder auf den Stand vor dem Ausbruch gebracht.

Das „Berner Modell“ ist ein Modell, das vom IPCC und verschiedenen Klimamodellen verwendet wird. Es gibt vor zu berechnen, wie lange es dauert, bis dieser CO2-Impuls von den natürlichen Senken wieder aufgenommen wird. Und genau hier wird es merkwürdig.

Zunächst einmal besagt das Berner Modell, dass 15,2 % dieses CO2-Impulses für immer in der Luft bleiben werden. Nicht 15% des Impulses, wohlgemerkt … 15,2%.

Ich habe noch nie jemanden gefunden, der mir das erklären kann. Wenn das wahr wäre, würde jeder Vulkanausbruch zu einem neuen und höheren dauerhaften CO2-Gehalt in der Luft führen … aber aus Abbildung 1 geht hervor, dass das einfach nicht passiert.

Ein weiterer Beweis dafür, dass die erste Behauptung des Berner Modells falsch ist, ist die jährliche Schwankung der CO2-Werte. Von einem Tiefpunkt um den Oktober bis zu einem Höhepunkt um den Mai eines jeden Jahres gibt es einen kurzen, scharfen natürlichen CO2-Impuls, der zu einem Anstieg des CO2-Gehalts um etwa 6 Teile pro Million Volumenprozent (ppmv) führt. Diesem Anstieg steht eine gleich hohe CO2-Speicherung in natürlichen Senken gegenüber, so dass im darauffolgenden Oktober das vorherige CO2-Niveau wieder erreicht ist. Wäre dies nicht der Fall, würde der CO2-Gehalt seit jeher jedes Jahr steigen.

Und während des gleichen siebenmonatigen Zeitraums stoßen wir derzeit einen Impuls aus, der genug CO2 enthält, um zu einem Anstieg des CO2-Gehalts von etwa 1,3 ppmv zu führen.

Das Berner Modell besagt, dass 15,2 % des anthropogenen CO2-Impulses von 1,3 ppmv für immer in der Luft bleiben … aber der ~ 6 ppmv-Impuls ist sehr schnell verschwunden. Wie kann die Natur also den Unterschied erkennen?

Aber das ist nur der Anfang der Merkwürdigkeit. Es wird noch merkwürdiger. Das Berner Modell besagt, dass:

● 25,3 % des CO2-Impulses fallen mit einer Rate von 0,58 % pro Jahr wieder auf den vorherigen stationären Zustand zurück

● weitere 27,9 % des Impulses zerfallen mit 5,4 % pro Jahr, und

● die letzten 31,6 % des Impulses fallen mit 32,2 % pro Jahr auf den stationären Zustand zurück.

Dies führt mich zu dem gleichen Problem. Wie kann die Natur den Unterschied erkennen? Wie wird das CO2 in der Natur aufgeteilt? Was verhindert, dass das CO2, das sich noch in der Luft befindet, von den schnell wirkenden CO2-Senken gebunden wird?

Es gibt jedoch ein grundlegenderes Problem: Das Berner Modell bildet die Realität einfach nicht gut ab. Wir haben relativ gute Informationen über die CO2-Emissionen seit 1850, die von Our World In Data zur Verfügung gestellt werden. Und wir haben relativ gute Informationen über die CO2-Konzentrationen in der Luft seit 1850 aus Eisbohrkernen und vom Mauna Loa, wie in Abbildung 2 dargestellt:

Abbildung 2. Historische CO2-Werte in der Luft von 1850 n. Chr. bis heute, aus 10 Eisbohrkernen und seit 1959 aus Messungen des Mauna Loa Observatoriums (orange). Die Einheiten sind Teile pro Million Volumenprozent (ppmv) der Atmosphäre.

Daher wollte ich einen Blick auf das Berner Modell werfen, um zu sehen, wie gut es den CO2-Gehalt der Luft seit 1850 anhand der Emissionen seit 1850 vorhersagen kann. Die Gleichung für die Berechnung findet sich in der UNFCCC-Studie „Parameters for tuning a simple carbon cycle model“ und ist auch in den Fußnoten zu finden … schlechte Nachrichten.

Abbildung 3. Tatsächliche atmosphärische CO2-Werte und Werte nach dem Berner Modell

No bueno … die Tatsache, dass die Ergebnisse des Berner Modells so viel geringer ausfallen, deutet darauf hin, dass es einen Großteil des Effekts fälschlicherweise weit in die Zukunft verlagert.

Gibt es also einen besseren Weg? Nun, ja. Der bessere Weg ist die Verwendung der Standard-Verzögerungsformel:

Darin:

  • t = Zeit
  • E(t) = Emissionen zur Zeit t
  • CO2(t) = CO2-Konzentration zur Zeit t
  • λ = 0,47 (Umwandlung von Emissionen in ppmv)
  • ∆ = Differenz zum vorherigen Wert; Beispiel: ∆CO2(t) = CO2(t) – CO2(t-1)
  • τ = tau, die Zeitkonstante für die Abnahme

Mit dieser Gleichung finde ich einen konstanten tau-Wert von ~49 Jahren. Das Ergebnis dieser Berechnung sieht so aus:

Damit liegt die Halbwertszeit eines CO2-Impulses in die Atmosphäre bei etwa 34 Jahren …

Das sind meine Fragen und Beobachtungen zum Berner Modell. Ich habe die Berechnungen und Daten hier in einer Tabelle zusammengestellt.

Die Gleichung: Wie versprochen …

Link: https://wattsupwiththat.com/2022/02/15/feeling-the-bern/

Übersetzt von Christian Freuer für das EIKE

 




Glaubwürdigkeit der „SPM“ völlig zerschlagen…

…weil man darin die Mittelalterliche Warmzeit verschwinden lässt

Larry Hamlin

[Anmerkung des Übersetzers: Die Ausschnitte aus dem Original-CLINTEL-Report sind hier nur als Graphiken gezeigt. Die Ausschnitte qwerden teilweise kursiv gesetzt darunter übersetzt. – Ende Anmerkung]

Die Climate Intelligence Foundation (CLINTEL) hat bedeutende Fehler in der Zusammenfassung für politische Entscheidungsträger (SPM) des UN IPCC AR6 katalogisiert und diese Fehlerauflistung und Analyse an den IPCC-Vorsitzenden und andere führende Politiker der Welt verteilt, um sie über diese Fehler zu informieren.

Die festgestellten Fehler führen dazu, dass der SPM die Standards objektiver wissenschaftlicher Integrität nicht erfüllt und daher die führenden Politiker der Welt hinsichtlich einer angemessenen Klimapolitik in die Irre führt, indem er fälschlicherweise auf eine „Klimakrise“ hinweist, die in Wirklichkeit gar nicht existiert. Der mit schweren Mängeln behaftete SPM wird „in unangemessener Weise zur Rechtfertigung drastischer sozialer, wirtschaftlicher und menschlicher Veränderungen durch strenge Abmilderung verwendet, während eine umsichtige Anpassung viel angemessener wäre“.

Die wesentlichen Fehler werden im CLINTEL-Bericht wie folgt in sechs Schlüsselbereiche eingeteilt:

1. Es ist nicht „eindeutig“, dass allein der menschliche Einfluss den Planeten erwärmt hat; die beobachtete bescheidene Erwärmung von ~1°C seit 1850-1900 ist durch eine noch Kombination von anthropogenen und natürlichen Einflüssen.

2. Die neue „Hockeyschläger“-Grafik (Abb. SPM.1) ist, wenn man sie im Detail analysiert, ein Sammelsurium von disparaten Indikatoren aus verschiedenen Zeiträumen der letzten 2.000 Jahre, die die zusammen die dazwischen liegende, gut etablierte Temperaturvariabilität nicht erkennen, zum Beispiel die römische und mittelalterliche Warmzeit und die kleine Eiszeit.

3. Die Häufigkeit sogenannter „extremer Wetterereignisse“ wird im SPM fälschlicherweise falsch dargestellt im Vergleich zu den genaueren Darstellungen im Entwurf des Hauptberichts. Letzterer zeigt in vielen Kategorien keine statistisch signifikanten Trends im Zeitverlauf.

4. Die Entwicklungen in der Kryosphäre werden in der SPM ebenfalls falsch dargestellt, insbesondere dass es praktisch keinen Trend beim arktischen Meereis in den letzten 15 Jahren gibt.

5. Ebenso werden die Entwicklungen im Ozean im SPM fälschlicherweise falsch dargestellt; insbesondere der wahrscheinliche bescheidene Anstieg des GMSL bis 2100 deutet nicht auf eine „Klimakrise“ hin.

6. Die CMIP6-Klimamodelle sind noch empfindlicher als die ohnehin schon überempfindlichen CMIP5-Modelle des AR5 und ignorieren die von Fachleuten überprüften wissenschaftlichen Beweise für eine geringe Empfindlichkeit. Die Modelle führen zu ungültigen Schlussfolgerungen über ECS und „Kohlenstoffbudgets“; der wahrscheinliche globale Temperaturanstieg bis 2100 deutet nicht auf eine „Klimakrise“ hin.

Die Behauptung der SPM, dass allein der menschliche Einfluss den Planeten „eindeutig“ erwärmt hat, ist falsch, da diese Behauptung die natürlichen Klimaeinflüsse ignoriert, einschließlich der Auswirkungen der Sonnenvariabilität, natürlicher Ereignisse wie ENSO, El Niño, La Niña, AMO, PDO usw. sowie der Auswirkungen von geomagnetischen Stürmen, Erdbeben, Tsunamis und Vulkanausbrüchen, zusätzlich zu anderen Bereichen, die im CLINTEL-Bericht angesprochen werden und vom IPCC systematisch ignoriert wurden, wie die nachstehende Zusammenfassung zeigt.
Der IPCC hat sich zur Untermauerung der „eindeutigen“ Behauptung auf statistische Verfahren gestützt, die von den weltbekannten Statistikexperten Dr. Ross McKitrick und Steven McIntyre in Frage gestellt wurden. Diese Anfechtungen müssen von den Befürwortern der IPCC-SPM-Klimaalarmisten weiter geprüft werden.

Diese höchst fragwürdige „eindeutige“ Behauptung kontaminiert alle SPM-Behauptungen in den sechs Schlüsselbereichen der Überprüfung, was sich in der wiederholten Verwendung der fehlerhaften Begriffe „vom Menschen verursacht“, „vom Menschen induziert“ und „vom Menschen beeinflusst“ zeigt.

Ein Teil der CLINTEL-Zusammenfassung, in der die „eindeutige“ SPM-Behauptung zurückgewiesen wird, ist nachstehend wiedergegeben:

Die Tatsache, dass das Mandat der UNFCCC darin besteht, „gefährliche anthropogene Störungen des Klimasystems“ zu bekämpfen, hat die Klimaforschung bedauerlicherweise von [der Erforschung] natürlicher Ursachen abgehalten und jede objektive, umsichtige Analyse verhindert. Es ist bedauerlich, dass es keine detaillierte Analyse der Auswirkungen der Sonnenvariabilität und natürlicher Ereignisse wie ENSO, El Niño, La Niña, AMO, PDO usw., und sogar, wie diese mitkosmischer Strahlung, geomagnetischen geomagnetische Stürme, Erdbeben, Tsunamis, Vulkanausbrüche.

Vor kurzem wurde eine bahnbrechende Arbeit mit dem Titel „How much has the Sun influenced Northern Hemisphere temperature trends? An ongoing debate“ von Ronan Connolly, Willie Soon et al/ (https://doi.org/10.1088/1674-4527/21/6/131). Er kommt zu dem Schluss, dass es nicht eindeutig ist, dass der menschliche Einfluss allein die jüngste Erwärmung verursacht hat; es ist eindeutig, dass sie verursacht wird durch eine noch ungeklärte Kombination aus menschlichem Einfluss und natürlicher Variabilität.

Zusammenfassung: Um zu beurteilen, inwieweit die Gesamtsonneneinstrahlung (Total Solar Irradiance – TSI) die Lufttemperatur der nördlichen Hemisphäre beeinflusst hat, sind zuverlässige Schätzungen für beide Größen erforderlich. Sechzehn verschiedene Schätzungen der Veränderungen der TSI seit mindestens dem 19.Jahrhundert wurden in der Literatur zusammengestellt. Bei der Hälfte dieser Schätzungen handelt es sich um „geringe Variabilität“ und bei der anderen Hälfte um „hohe Variabilität“.

Im CLINTEL-Bericht werden die oben erwähnten Probleme im Zusammenhang mit dem „menschlichen Einfluss“ weiter untersucht und anschließend die statistischen Fehler, die bei der Behauptung der „eindeutigen“ Zuordnung verwendet wurden, wie folgt behandelt:

Statistischer Fehler bei der Zurechnung:

Die Höherstufung der IPCC-Attribution auf „eindeutig“, die in der zugehörigen Pressemitteilung mit dem Hinweis auf „wichtige Fortschritte in der Wissenschaft der Attribution“ einher geht, wird von Ross McKitrick heftig diskutiert.

Zum Hintergrund: Allen und Tett (1999, hier AT99) führten eine Generalized Least Squares (GLS)-Regressionsmethode zur Zerlegung von Mustern des Klimawandels für Zuordnungszwecke durch und schlugen den „Residual Consistency Test“ (RCT) zur Überprüfung der GLS Spezifikation vor. Ihre Methodik ist seither weit verbreitet und sehr einflussreich, unter anderem zum Teil, weil sich nachfolgende Autoren auf ihre Behauptung verlassen haben, dass ihr GLS-Modell die Bedingungen des Gauß-Markov-Theorems (GM-Theorem) erfüllt und damit eine unverzerrte und effiziente Schätz-Grundlage liefert.

Doch wie McKitrick betont, hat AT99 das GM-Theorem falsch formuliert und eine kritische Bedingung ganz weggelassen, welche ihre GLS-Methode nicht erfüllen kann, und ihre Schätz-Grundlage der Varianz ist inkonsistent. Außerdem haben sie weder die Nullhypothese der RCT formell dargelegt noch angegeben, welche der GM-Bedingungen sie testet, noch ihre Verteilung und kritische Werte, was ihn als Spezifikationstest uninformativ macht.

McKitrick besteht darauf, dass die Klimatologen in den letzten 20 Jahren die Fehler in AT99 und das völlige Fehlen von Spezifikationstests in der der nachfolgenden Fingerprinting-Literatur nicht bemerkt haben. Diese Probleme bedeuten, dass es keine Grundlage für die Behandlung vergangener Zuordnungsergebnisse, die auf der AT99-Methode basieren, als robust oder gültig zu betrachten. Die Schlussfolgerungen könnten zufällig zufällig richtig oder völlig ungenau gewesen sein; aber ohne Korrektur der Methodik und der Methodik und der Anwendung von Standardtests für das Scheitern der GVO-Bedingungen ist es reine Spekulation, mehr zu sagen als das.

Der CLINTEL-Bericht kommt zu dem Schluss:

„Daher ist die einleitende Aussage im SPM „Es ist eindeutig, dass der menschliche Einfluss die Atmosphäre, die Ozeane und das Land erwärmt hat“ wissenschaftlich nicht haltbar. Darüber hinaus zeugt das Fehlen jeglicher ernsthafter Versuche, andere Erklärungen für den Klimawandel zu untersuchen, von einem Mangel an offenem Denken und Objektivität des IPCC.“

Der AR6 SPM verwendet fehlerhafte Statistiken, um den gefälschten „Hockeyschläger“ noch einmal neu zu erfinden, um die natürlichen Temperaturschwankungen der letzten 2.000 Jahre zu verbergen, wie im CLINTEL-Bericht festgestellt wurde, der den vollständigen Ausschluss der umfangreichen und gut etablierten, von Fachleuten geprüften, nachgewiesenen Daten und Studien der mittelalterlichen Warmzeit feststellt und auch die Daten und Studien der minoischen und römischen Warmzeit ignoriert.

Nachfolgend ein Beispiel für eine der zahlreichen, von Fachleuten geprüften Temperatur-Rekonstruktionen, die diese nachgewiesenen Wärmeperioden dokumentieren:

Wenn man sich ansieht, was der IPCC mit dem AR6 SPM „Hockeyschläger“ gemacht hat, werden Erinnerungen an das „Hide the decline“-Trickdebakel des IPCC in der Watergate-Ära der Klimawissenschaft wach, das die Datenmanipulationen der Klimaalarmisten aufgedeckt hat (wobei die Art der „Tricks“, die in dem „Hide the decline“-Debakel verwendet worden waren, anders ist als die statistischen „Tricks“, die im AR6 SPM-Bericht verwendet wurden), wie unten gezeigt:

Der CLINTEL-Bericht befasst sich mit der Falschdarstellung der SPM-Daten zur Rekonstruktion der Klimaerwärmung über den Zeitraum der letzten 2.000 Jahre, wie in der nachstehenden Zusammenfassung gezeigt wird:

Der CLINTEL-Bericht kommt zu dem Schluss:

„Der im SPM vorgestellte „Hockeyschläger“ hat keine strenge wissenschaftliche Grundlage und stellt die Klimavariabilität der letzten zwei Jahrtausende falsch dar. Infolgedessen kann nicht behauptet werden, dass die jüngsten Klimaschwankungen „beispiellos“ sind.

Der UN IPCC AR6 SPM, der die mittelalterliche Warmzeit „verschwinden“ lässt, ist ein so ungeheuerlich fehlerhaftes Klimaalarm-Propagandaschema, dass es ein viel höheres Maß an wissenschaftlicher Prüfung und öffentlicher Aufmerksamkeit verdient.

Die mittelalterliche Warmzeit ist wissenschaftlich zweifelsfrei bewiesen, wie zahlreiche paläoklimatische Rekonstruktionen der Oberflächentemperaturen zeigen, darunter auch die von Dr. Judith Curry (Graphik oben), wie der nachstehende Vergleich zeigt, der die enorme manipulierte Verzerrung der Daten der Temperatur-Rekonstruktion im IPCC SPM über die letzten 2.000 Jahre deutlich macht (Graphik unten):

Darüber hinaus wird in einem Artikel auf der Website von JoNova eine Zusammenfassung einiger weniger der vielen weltweiten paläoklimatischen Oberflächentemperatur-Rekonstruktionen gegeben, die eindeutig die Idiotie des Versuchs belegen, die Existenz der mittelalterlichen Warmzeit zu leugnen, wie es im IPCC AR6 SPM geschieht.

Dass die Leugnung der mittelalterlichen Warmzeit durch den IPCC auf absurd konstruierten und fehlerhaften statistischen „Tricks“ von politisch getriebenen Klimaalarmisten beruht, die arrogant glauben, ihre „Tricks“ seien besser als jahrzehntelang gesammelte und analysierte globale Daten, die in Dutzenden von begutachteten und veröffentlichten Studien gesammelt wurden, und diese übertrumpfen, ist einfach verblüffend, wie die Daten und Studien zur mittelalterlichen Warmzeit aus dem unten aufgeführten JoNova-Artikel deutlich zeigen. Dieser Artikel wurde erstmals 2019 geschrieben, ist aber angesichts der AR6 SPM-Wärmeperioden-Täuschungen jetzt absolut relevant:

Der JoNova-Artikel bietet dann eine Zusammenfassung einiger weniger der zahlreichen begutachteten wissenschaftlichen Daten und Studien, die eindeutig die außergewöhnlichen Klimaschwankungen der letzten zwei Jahrtausende belegen, einschließlich der mittelalterlichen Warmzeit, die das UN IPCC mit Hilfe fehlerhafter statistischer „Tricks“, die von Dr. McKitrick und Steve McIntyre im CLINTEL-Bericht angesprochen wurden, „verschwinden“ lässt:

Die Tatsache, dass der UN IPCC ein solch kolossal hinterhältiges und fehlerhaftes Vorhaben wie die Leugnung der eindeutigen, wissenschaftlich nachgewiesenen Glaubwürdigkeit der mittelalterlichen Warmzeit, die die Klimaschwankungen in den letzten zwei Jahrtausenden bestimmt hat, in Angriff nehmen würde, offenbart ihren verzweifelten Versuch, erfundene und lächerliche Propaganda-Behauptungen über eine „Klimakrise“ zu rechtfertigen, wobei diese Aktion eindeutig belegt, dass das SPM die Standards der „objektiven wissenschaftlichen Integrität“ nicht erfüllt.

Darüber hinaus ist die enorme weltweite Überzahl an von Experten geprüften wissenschaftlichen Temperatur-Rekonstruktionsstudien, die eindeutig die Existenz der mittelalterlichen Warmzeit (sowie der minoischen und römischen Warmzeit) belegen, ein klarer Beweis dafür, dass die statistischen Schemata und „Tricks“, die vom IPCC angewandt werden, um diese Warmzeit „verschwinden“ zu lassen, als fehlerhaft und falsch beurteilt werden müssen.

Dieser eklatante Akt des „Verschwindenlassens“ der mittelalterlichen Warmzeit offenbart den politisch motivierten Mangel an klimawissenschaftlicher Kompetenz und Integrität des gesamten UN IPCC AR6-Berichts und -Prozesses und zeigt deutlich, dass das IPCC die Politisierung der Klima-Alarmisten-Propaganda als sein Ziel fördert, selbst wenn dies bedeutet, dass etablierte und bewährte, von Experten geprüfte wissenschaftliche Daten fälschlicherweise abgelehnt, verzerrt und manipuliert werden.

Der AR6 SPM wurde absichtlich manipuliert, um alarmistische politische Ziele zu erreichen, die die COP26-Bemühungen unterstützen würden, den Nationen der Welt fälschlicherweise vorzuschreiben, fossile Brennstoffe aufzugeben und die exzessive und kostspielige Nutzung unzuverlässiger, nicht anpassungsfähiger und auf Reservestrom angewiesener erneuerbarer Energien anzunehmen.

Glücklicherweise ist dieser Plan völlig gescheitert, und die Entwicklungsländer (angeführt von China und Indien) kontrollierten das Ergebnis der COP26, indem sie sich weigerten, diese wirtschaftlich zerstörerischen, wissenschaftlich fehlerhaften und rein auf Klima-Alarmismus ausgerichteten Forderungen zu erfüllen.

Der CLINTEL-Bericht befasst sich als Nächstes mit den falschen Darstellungen des SPM (man beachte erneut die Verwendung der Begriffe „vom Menschen verursacht“ und „menschlicher Einfluss“) in Bezug auf extreme Wetterereignisse, die im Folgenden zusammengefasst werden, wobei die in der Zusammenfassung enthaltene CLINTEL-Kritik in ihrem Bericht noch ausführlicher dargelegt wird.

Der CLINTEL-Bericht stellt fest, dass der Entwurf des AR6 WG1 nicht mit den SPM-Behauptungen in Bezug auf Überschwemmungen übereinstimmt, indem er feststellt, dass „es ein geringes Vertrauen in den menschlichen Einfluss auf die Veränderungen bei hohen Flussabflüssen auf globaler Ebene gibt“, dass „stärkere Regenfälle nicht immer zu mehr Überschwemmungen führen“ und „die Anzahl der signifikanten Trends bei größeren Überschwemmungen in Nordamerika und Europa ungefähr der Anzahl entsprach, die allein aufgrund des Zufalls zu erwarten war“ sowie „Veränderungen im Laufe der Zeit beim Auftreten größerer Überschwemmungen wurden eher durch multidekadische Schwankungen als durch langfristige Trends dominiert.“

In dem Bericht heißt es: „Den vielleicht besten Überblick über die Wetterereignisse seit der letzten Eiszeit bietet der Klassiker ‚Climate, History and the Modern World‚ von HH Lamb, der erstmals 1982 veröffentlicht und seitdem mehrfach nachgedruckt wurde. Darin werden auch extreme Wetterereignisse in der globalen Abkühlungsperiode der 1960er und 1970er Jahre dokumentiert. Allein dieses Buch lässt wenig Zweifel daran, dass die heutigen so genannten „extremen Wetterereignisse“ keineswegs beispiellos sind.

„Folglich stellt die SPM die detaillierten Erkenntnisse über Extremereignisse falsch dar.“

Der CLINTEL-Bericht befasst sich als Nächstes mit den falschen Darstellungen der SPM (man beachte erneut die Verwendung des Begriffs „menschlicher Einfluss“) zu den Entwicklungen in der Kryosphäre, die im Folgenden zusammengefasst werden:

Dr. Curry stellte in ihrem Vortrag Daten zum langfristigen Verhalten der höheren Temperaturen in der Arktis in den letzten 2.000 Jahren vor, wie unten dargestellt, wobei die Temperaturen in der Arktis während des thermischen Optimums im Holozän vor 4.000 bis 8.000 Jahren noch höher waren:


Die Entwicklungen in der Antarktis und in Grönland sowie der Gletscher sind in den folgenden Abschnitten des CLINTEL-Berichts zusammengefasst:

Zustand der Kryosphäre – Die Antarktis

Eine 2000-jährige Rekonstruktion der antarktischen Temperaturen zeigt eine Warmzeit von 300-1000 AD und eine kühle Periode von 1200-1900 AD. Neuere Forschungen von Lüning, Galka und Vahrenholt bestätigen ebenfalls einen Abkühlungstrend in der Antarktis seit 600 n. Chr., wobei die jüngste leichte Erwärmung im Jahrtausendkontext unbedeutend ist (hier). Insgesamt gibt es keinen signifikanten Trend in der antarktischen Eismasse während der letzten 2.000 Jahre. Nach den Daten des British Antarctic Survey waren die Temperaturen im Winter 2021 die niedrigsten seit mehr als 60 Jahren.

Zustand der Kryosphäre – Grönland

Die beobachteten Schwankungen der Temperaturen in Grönland seit 1851, die auf einer Neuanalyse des KNMI beruhen zeigen, dass die aktuellen Temperaturen denen der 1880er Jahre ähneln. Es überrascht nicht, dass Grönland einen ähnlichen historischen Temperaturtrend aufweist wie die Arktis, mit einer früheren Wärmeperiode in den warmen 1930-1940er Jahren, als sich die AMO in der warmen Phase wie derzeit befand, siehe hier.

Jüngste Analysen von Axford et al. zeigen, dass der grönländische Eisschild während des größten Teil der letzten 10.000 Jahre kleiner war als heute und seinen Höhepunkt um 1850 erreichte, siehe hier. Eine weitere Analyse von Schweinsberg et al. ergab, dass die stärkste Ausdehnung der Gletscher in Westgrönland in den letzten 2.000 Jahren stattgefunden hat, siehe hier, und auch eine Rekonstruktion der Temperatur auf dem Eisschild zeigt, dass die gegenwärtigen Temperaturen im Vergleich der letzten 10.000 Jahre nicht ungewöhnlich sind und im frühen Holozän vor etwa 8.000 Jahren wahrscheinlich 2,9°C höher waren.

Zustand der Kryosphäre – Gletscher

Gletscher müssen in ihrem historischen Kontext gesehen werden. Ein sich zurückziehender Gletscher am Lendbreen-Pass in Mittelnorwegen hat kürzlich Artefakte aus der römischen und mittelalterlichen Warmzeit freigelegt. Ein sich ebenfalls zurückziehender Gletscher im Breioamerkursandur im Südosten Islands hat Stümpfe von 3.000 Jahre alten Bäumen freigelegt. Ähnliche Funde wurden auch in Alaska, Patagonien und der Schweiz gemacht. Es scheint also, dass die Gletscher schon einige Zeit vor dem Beginn der Kleinen Eiszeit zu wachsen begannen und um 1850 ein Maximum erreichten. Trotz 170 Jahren Rückzug sind viele Gletscher immer noch vorhanden als historische Anomalie. Wie bereits erwähnt, wachsen die Gletscher in Grönland weiter.

Die Fakten zeigen, dass das Schmelzen der Gletscher nichts Ungewöhnliches ist, sondern von natürlichen Ursachen bestimmt wird.

„Zusammenfassend lässt sich sagen, dass die behaupteten Veränderungen in der Cryosphäre durch Beobachtungen nicht bestätigt werden.“

Der CLINTEL-Bericht befasst sich als Nächstes mit den falschen Darstellungen von SPM (auch hier ist die Verwendung der Begriffe „menschlicher Einfluss“ und „menschliche Einflüsse“ zu beachten) zu den Entwicklungen in den Ozeanen:

Dr. Curry geht in ihrem Vortrag speziell auf die falsche Behauptung ein, dass der „menschliche Einfluss“ die Hauptursache für die Beschleunigung des Meeresspiegelanstiegs seit 1971 ist, wie in der unten stehenden Grafik dargestellt:

Kürzlich hat eine von der NASA geleitete Studie zu einem modernen Rahmenwerk geführt, das die Fortschritte bei Meeresspiegelmodellen und Satellitenbeobachtungen zusammenführt, um das Verständnis des Meeresspiegelanstiegs Anstiegs in den letzten 120 Jahren zu verbessern (Frederikse et al. 2020). Der in dieser Studie ermittelte GMSL-Anstieg im Zeitraum 1900-2018 ist in Abbildung 3 dargestellt.

Auch diese Abbildung zeigt eine mehrdekadische Variabilität. Eine Analyse der Daten zeigt, dass im Vergleich zu den oben genannten Werten die durchschnittliche Anstiegsrate des GMSL im 20. Jahrhundert auf 1,4 mm/Jahr nach unten korrigiert werden muss. Die Rate des GMSL-Anstiegs, die aus den rekonstruierten Pegeldaten für den Zeitraum 1993-2018 hervorgeht., stimmt gut mit den Satelliten-Altimetriedaten überein, die für denselben Zeitraum verfügbar sind; beide Anstiegsraten liegen bei etwa 3,3 mm/Jahr.

Die Daten von Frederikse et al. zeigen auch, dass die Geschwindigkeit des GMSL-Anstiegs im 20-Jahres-Zeitraum 1934-1953 3,3 mm/Jahr betrug, was in etwa der Rate im Zeitraum 1993-2018 entspricht. Laut Frederikse et al. ist die überdurchschnittliche Anstiegsrate des GMSL in diesem Zeitraum auf überdurchschnittliche Beiträge der Gletscher und des grönländischen Eisschilds zurückzuführen, wobei der grönländische Beitrag um 1935 etwas größer war als im Jahr 2018.

Beobachtungen an Land (seit 100 Jahren) bestätigen, dass der GMSL weiterhin um 1-2 mm/Jahr ohne jegliche Beschleunigung erfolgt. Satellitendaten, die nur bis 1993 zurückreichen, deuten auf einen einigermaßen linearen ~3mm/Jahr Trend hin. Es ist Rosinenpickerei des IPCC, den Wert von 3,7 mm/Jahr zu verwenden.

Selbst wenn der GMSL jetzt im oberen Durchschnitt um ~3,3 mm/Jahr ansteigt, bedeutet dies einen Anstieg des Meeresspiegels in der Größenordnung von 0,25 m bis 2100, was eine langfristige Anpassungsstrategie erfordert, aber nicht auf eine „Klimakrise“ in diesem Jahrhundert hindeutet.

Es gibt keine Grundlage für die Behauptung der SPM, dass der mittlere globale Meeresspiegel jetzt schneller ansteigt als in den letzten 3.000 Jahren. Es könnte vermutet werden, dass der Meeresspiegel während der römischen und der mittelalterlichen Warmzeit mit ähnlichen Raten wie heute anstieg, während der kleinen Eiszeit aber wahrscheinlich zurückging (wie in Abbildung Eiszeit zurückging (wie in Abbildung 2 dargestellt). Wie aus Abbildung 1 hervorgeht, betruen die Veränderungen des mittleren globalen Meeresspiegels in den letzten 3.000 Jahren sehr wahrscheinlich weniger als 1 m.

Die Gezeitenmessdaten der NOAA stützen weiterhin das Ergebnis, dass der „absolute globale Meeresspiegel-Anstieg vermutlich zwischen 1,7 und 1,8 mm/Jahr liegt“, wie in dem unten stehenden Dokument vermerkt. Dieses Niveau des globalen Meeresspiegelanstiegs stimmt mit dem CLINTEL GMSL-Anstieg überein, wie er oben in ihrem Bericht diskutiert wird, der Behauptungen über einen schnelleren Anstieg des Meeresspiegels als in den letzten 3.000 Jahren zurückweist.

Die in den Medien verbreiteten Behauptungen über einen katastrophalen Anstieg des Meeresspiegels auf den Malediven und den Inseln im Pazifischen Ozean entbehren jeglicher Grundlage, wie aus dem folgenden Bericht hervorgeht:

In Bezug auf die Erwärmung und Versauerung der Ozeane stellt der CLINTEL-Bericht fest:

Erwärmung und Versauerung der Ozeane

Die SPM behauptet, dass die jüngste Erwärmung der Ozeane beispiellos ist und dass die derzeitige Erwärmung des Erdsystems Anlass zur Sorge gibt. Es mangelt jedoch an historischen Daten aus dem Paläoklima und den jüngeren römischen und mittelalterlichen Wärmeperioden.

Humlum veröffentlicht regelmäßig Daten zu den Meerestemperaturen unter www.climate4you.com, die neuesten sind hier zu finden, und zwar auf den Seiten 18 und 23, wo er zu dem Schluss kommt, dass die Temperatur der Weltmeere bis in 1900 m Tiefe seit 2011 um nur etwa 0,05°C gestiegen ist. Es wird auch deutlich, dass dieser Anstieg seit 2013 vor allem auf ozeanische Veränderungen in Äquatornähe zurückzuführen ist, zwischen 30°N und 30°S. In den zirkumarktischen Ozeanen nördlich von 55°N sind die tiefenintegrierten Ozeantemperaturen dagegen seit 2011 rückläufig. In der Nähe der Antarktis, südlich von 55°S, sind die Temperaturen im Wesentlichen stabil geblieben. Dies wird weiter ausgeführt in Humlum’s „State of the Climate 2019“ hier.

Die Beobachtungen stellen die SPM-Schlussfolgerung zur Erwärmung der Ozeane ernsthaft in Frage und deuten nicht darauf hin, dass die Erwärmung des Ozeans etwas noch nie Dagewesenes ist.

Der „Säuregehalt“ oder pH-Wert des Ozeans schwankt weiterhin auf natürliche Weise zwischen 7,5 und 8,5. Die geologische Aufzeichnung der Ozeanversauerung, Science 535, S. 1058, 2012, zeigt, dass Meereslebewesen mit Schalen in den letzten 300 Millionen Jahren bei einem pH-Wert zwischen 7,5 und 8,1 gediehen sind. Somit scheint die „Versauerung“ der Ozeane kein Problem zu sein.

Die Korallenbleiche wird häufig auf den Klimawandel und die damit verbundenen Veränderungen der Meerestemperatur und des pH-Werts zurückgeführt. Eine kürzlich durchgeführte Studie mit dem Titel „Reconstruction of 4 Centuries of Temperature-induced Coral Bleaching in the Great Barrier Reef“ von Kamenos und Hennige, Frontiers in Marine Science, Aug 2018, Vol 5 Art 283, doi:10.3389/fmars.2018.00283 ergab, dass die Bleiche in den 1750er und 1890er Jahren signifikant höher war, was bestätigt, dass die Korallenbleiche ein natürliches Phänomen ist, das möglicherweise wenig mit der globalen Erwärmung zu tun hat.

„Zusammenfassend lässt sich sagen, dass die Behauptungen über den Anstieg des Meeresspiegels, die Erwärmung und den Säuregehalt falsch dargestellt werden.“

Der CLINTEL-Bericht befasst sich als nächstes mit den falschen Darstellungen der SPM über die Überempfindlichkeit von Klimamodellen:

Überempfindlichkeit der Klimamodelle

Zuvor bekannte Überempfindlichkeit der Klimamodelle

Schon vor der Veröffentlichung des AR6 war bekannt, dass die im AR5 verwendeten CMIP5-Modelle überempfindlich waren. Zuverlässige globale Satelliten- und Ballondaten bewiesen jedoch, dass der Temperaturanstieg der letzten Jahrzehnte um den Faktor 2 bis 3 überschätzt wurde. Diese Überempfindlichkeit hatte sich bereits in der AR5-Abbildung 11.25(a) von 2013 gezeigt, und auch in dem fehlenden „vorhergesagten tropischen Hot Spot“, der im ergänzenden Material des Kapitels 10, Abbildung 10.SM.1. dargestellt ist.

Diese CMIP5-Modelldefekte wurden von Christy in seiner Studie näher erläutert. Ähnliche Ansichten vertrat Spencer hier und McKitrick hier.

Die CMIP5-Modelle wurden auch von Hourdin et al. in ihrer Studie „The art and science of climate model tuning“, Bull Am Met Soc, 98, 589-602, heftig kritisiert, wobei sie auf die mangelnde Transparenz bei der Modellabstimmung hinweist und zeigt, dass die Modelle frei abgestimmt wurden, um Ergebnisse zu erzielen, die in einem „erwarteten akzeptablen Bereich“ liegen. Die CMIP6-Modelle sind in dieser Hinsicht nicht besser. In diesem Kontext ist es unerklärlich, dass die CMIP6-Modelle eine noch höhere Empfindlichkeit aufweisen.

Zu den satellitengestützten Temperaturtrends in der Troposphäre stellt der CLINTEL-Bericht fest:

(b) Von Satelliten beobachtete Trends der troposphärischen Temperatur

Anhand von Satelliten-Mikrowellenbeobachtungen fanden Christy und McNider (2017) heraus, dass die globalen Temperaturtrends, wenn die Abkühlungseffekte der Vulkanausbrüche von El Chichon und Mt. Pinatubo entfernt werden, in der unteren Troposphäre im Zeitraum 1979-2017 knapp unter 0,1 °C pro Jahrzehnt liegen. Da die troposphärischen Temperaturen aus physikalischen Gründen schneller steigen sollten als die Oberflächentemperaturen, setzt die obige Abbildung eine Obergrenze für den globalen Oberflächentemperaturtrend im gleichen Zeitraum. Ein Temperaturtrend von 0,1°C pro Dekade in der unteren Troposphäre ist durchaus mit einem niedrigen ECS vereinbar, wie die Ergebnisse von LC11 zeigen.

Christy und McNider (2017) fanden heraus, dass der entsprechende mittlere troposphärische Temperaturtrend in den CMIP5-GCMs mehr als doppelt so hoch ist wie der obige Wert. Diese Diskrepanz zwischen GCM und Beobachtungen wird hier als Troposphärischer Temperaturtrend (TTT) bezeichnet. Genau wie im Fall des LC11-Papiers hatte das Papier von Christy und McNider (2017) im AR6-Bericht keine Erwähnung gefunden.

Die Abstimmung der CMIP6-Modelle zur Beseitigung der TLR- und TTT-Diskrepanzen, die beide zuverlässig nachgewiesen und stark ECS-bezogen sind, wurden im AR6 nicht diskutiert. Dies ist ein äußerst schwerwiegendes Versäumnis. Wenn es nicht möglich ist, die GCMs so abzustimmen, dass diese Diskrepanzen beseitigt werden, hätte dies offen zugegeben werden müssen. Das Fehlen einer Diskussion dieses Themas ist an sich schon ausreichend, um die CMIP6-Modellergebnisse inakzeptabel zu machen.

(c) Zusammenfassung

Zusammenfassend lässt sich sagen, dass die Behauptung im AR6 (Kapitel 7, S. 7-8), wonach „alle Belege gegen ECS-Werte unter 1,5°C ausschließen“ ist falsch. Tatsache ist, dass die relevanten Beweise ignoriert wurden.

Der CLINTEL-Bericht enthält auch einen kurzen Kommentar zur Bedeutung der Anpassung gegenüber der Abschwächung:

Anpassung versus Abschwächung

Der SPM räumt in Abschnitt D2 effektiv ein, dass selbst starke Abmilderungsmaßnahmen in den kommenden Jahrzehnten nicht zu einer Reduktion der globalen Temperaturen führen, die sich von der natürlichen Variabilität unterscheidet. Dieses sehr wichtige Eingeständnis zeigt, dass die Klimastrategie in erster Linie auf Anpassung und nicht auf Milderung beruhen sollte.

Link: https://wattsupwiththat.com/2022/02/15/ipcc-ar6-spm-credibility-destroyed-by-disappearing-medieval-warming-period/

Übersetzt von Christian Freuer für das EIKE

 




Weiterhin Probleme mit Klimamodellen – Änderungen machen sie noch ungenauer

Heartland Newsletter

In der vergangenen Woche wurden der wachsenden Zahl von Veröffentlichungen zwei weitere Artikel hinzugefügt, in denen die Tatsache erörtert wird, dass die Klimamodelle seit ihrer Einführung die Temperaturen und Temperaturtrends auf der Erde nicht genau vorhersagen konnten.

Als ob das nicht schon schlimm genug wäre, berichten Wall Street Journal und Powerline, dass die Prognosen der Klimamodelle für künftige Temperaturen mit der Zeit immer schlechter geworden sind. Während neue Generationen von angeblich verbesserten Klimamodellen entwickelt und verfeinert werden, nimmt die Genauigkeit ihrer Temperatursimulationen ab. Jede neue Generation von allgemeinen Zirkulationsmodellen stimmt nicht mit den gemessenen Temperaturveränderungen und -trends überein oder entspricht ihnen in höherem Maße als die vorherige Generation.

Dies macht die Behauptungen des IPCC zur Farce, wonach sich die Klimamodelle verbessert haben, was im normalen Sprachgebrauch bedeuten würde, dass sie genauer geworden sind.

Jedes Mal, wenn der IPCC einen neuen Bericht herausgibt, vom ersten (AR1) aus dem Jahr 1990 bis zum sechsten und letzten Sachstandsbericht (AR6), der im August 2021 veröffentlicht wurde, behauptet es, dass die neueste Generation der von ihm verwendeten Modelle genauer ist als die vorherige Generation. In der „Summary for Policymakers“ des AR3 heißt es: „Das Vertrauen in die Fähigkeit der Modelle, das künftige Klima zu prognostizieren, ist gestiegen“. Doch anstatt den Bereich der möglichen zukünftigen Temperaturen im Vergleich zum vorherigen Bericht zu verkleinern, hat sich dieser Bereich fast verdoppelt. Das ist so, als würde man die Größe der Zielscheibe verdoppeln, nur knapp den äußeren Rand der größeren Zielscheibe treffen und dann behaupten, das sei ein Zeichen dafür, dass die Treffsicherheit des Schützen gestiegen ist.

Im CAR6-Bericht des IPCC heißt es:

„Diese Modelle enthalten neue und bessere Darstellungen von physikalischen, chemischen und biologischen Prozessen sowie eine höhere Auflösung im Vergleich zu den Klimamodellen, die in früheren IPCC-Zustandsberichten berücksichtigt wurden. Dies hat die Simulation des aktuellen mittleren Zustands der meisten großräumigen Indikatoren des Klimawandels und vieler anderer Aspekte des Klimasystems verbessert.“

Wie können ihre Simulationen „verbessert“ werden, wenn, wie ich in Climate Change Weekly 407 erörtert habe, die Modellierer selbst gezwungen waren, nur wenige Wochen vor der Veröffentlichung von CAR6 zuzugeben, dass die Modelle noch höhere Temperaturen und steilere Temperaturtrends als die vorherige Iteration vorhersagen, deren simulierte Temperaturen bereits zu hoch waren und die gemessenen Temperaturen nicht genau wiedergaben?

Nur eine Regierungsbürokratie oder ein Hochstapler könnte ernsthaft behaupten, dass sich eine Technologie verbessert hat, wenn sie ihre Aufgabe nicht so gut erfüllt wie die leistungsschwachen Vorgängerversionen. Das ist so, als würde man selbstbewusst behaupten, dass sich eine Klasse von Elektrofahrzeugen auf der Grundlage von Labormodellen verbessert, obwohl die Kilometerzahl, die sie zwischen zwei Aufladungen zurücklegen können, abnimmt und die Zeit, die zum Aufladen benötigt wird, immer länger wird. Schlechtere Leistung ist nicht besser, es sei denn, das Ziel besteht darin zu scheitern.

Die Tatsache, dass Computermodelle fehlerhaft sind und unzuverlässige Klimaprognosen liefern, ist seit langem bekannt. In Berichten des National Center for Policy Analysis (die ich während meiner Tätigkeit dort redigiert habe) aus dem Jahr 2001 von Umweltwissenschaftler Kenneth Green, Ph.D., und aus dem Jahr 2002 von David Legates, Ph.D. (damals Direktor des Center for Climatic Research an der University of Delaware-Newark) wurden die zahlreichen fehlerhaften Vorhersagen von Computermodellen detailliert beschrieben, und es wurde erklärt, warum diese Fehler auftraten und wahrscheinlich weiterhin die Norm sein werden.

Legates schrieb:

Modelle sind in wichtigen Punkten begrenzt, unter anderem durch:

● ein unvollständiges Verständnis des Klimasystems,

● die unvollkommene Fähigkeit, unser Wissen in genaue mathematische Gleichungen umzuwandeln,

● die begrenzte Leistung von Computern,

● die Unfähigkeit der Modelle, wichtige atmosphärische Phänomene zu reproduzieren, und

● ungenaue Darstellungen der komplexen natürlichen Zusammenhänge.

Aufgrund dieser Schwächen sind GCM-basierte Vorhersagen zu unsicher, um als Grundlage für politische Maßnahmen im Zusammenhang mit künftigen Klimaveränderungen dienen zu können.

Während sich die Rechenleistung im Laufe der Zeit deutlich verbessert hat, hat sich das Wissen der Modellierer über die zahllosen Faktoren und Zusammenhänge, die den Klimawandel antreiben, nicht verbessert. Dies liegt zum Teil daran, dass das IPCC sich immer auf das Verständnis der menschlichen Faktoren konzentriert hat, die das Klima beeinflussen, und andere Faktoren ausschließt, obwohl zugegeben wird, dass andere Faktoren einen gewissen Einfluss haben.

In den ARs 1 bis 5 wurde anerkannt, dass natürliche Faktoren – Sonne, Wolken, Meeresströmungen usw. – zumindest eine gewisse Rolle beim Klimawandel spielen, auch wenn sie zu diesem Zeitpunkt noch nicht ausreichend verstanden wurden. Das IPCC hat Listen von natürlichen und menschlichen Faktoren erstellt, die die Temperaturen beeinflussen. Die Liste hat sich im Laufe der Zeit geändert, ebenso wie die Schätzungen, in welche Richtung die verschiedenen Faktoren die Temperatur beeinflussen und in welchem Umfang. Was sich jedoch nie ändert, ist das Maß an Vertrauen oder der Grad des Verständnisses, das der IPCC in Bezug auf die Temperatureinflüsse nicht anthropogener Faktoren hat, da die Untersuchung dieser Faktoren weitgehend ignoriert wird. In früheren Zustandsberichten wurde immer wieder eingeräumt, dass der IPCC nur geringe oder sehr geringe Kenntnisse über alle natürlichen Faktoren hat, die Temperaturveränderungen bewirken. Nichtsdestotrotz hat das IPCC diese Faktoren als signifikante Quellen des derzeitigen Klimawandels verworfen.

Das ist so, als würde man versuchen zu verstehen, wie ein Auto funktioniert, und zugeben, dass man nichts über Kühler, Lichtmaschinen, Zahnriemen, Ölpumpen und unzählige andere Systeme weiß, aber davon überzeugt ist, dass ein voller Benzintank und ein Schlüssel im Zündschloss die einzigen wirklichen Faktoren sind, die ein Auto zum Laufen bringen. Wenn das Auto dann nicht anspringt, behaupten Sie selbstbewusst, der einzige Grund, warum es nicht anspringt, sei, dass der Schlüssel abgebrochen ist oder das Auto kein Benzin mehr hat.

Der IPCC ist mit diesem Unsinn durchgekommen, indem er behauptet hat, dass seine Modelle ohne Kohlendioxid nicht die erwartete Erwärmung bewirken, unabhängig von den Änderungen der Annahmen über die anderen Faktoren, aber wenn er Kohlendioxid hinzufügt, bewirken die Modelle eine erhebliche Erwärmung. Das ist im besten Fall ein Zirkelschluss und im schlimmsten Fall idiotisch. Es sollte uns nicht überraschen, dass die Annahmen, die die Modellierer über Kohlendioxid und andere Treibhausgasemissionen machen, die einzigen sind, die zu den Ergebnissen führen, die sie erwarten und bekommen.

Im AR6 gibt der IPCC sogar den Anschein wissenschaftlicher Neugier über die Auswirkungen nicht menschlicher Faktoren auf das Klima auf. Wenn Sie nur die Zusammenfassung des AR6 für politische Entscheidungsträger lesen würden, wüssten Sie nicht, dass es Wolken gibt, es sei denn, der Mensch hat sie durch die Erzeugung von Aerosolen verursacht. Doch Wasserdampf ist das bei weitem dominierende Treibhausgas, das mehr als 97 Prozent aller Treibhausgase in der Atmosphäre ausmacht, und Wolken haben enorme lang- und kurzfristige Auswirkungen auf die Temperaturen. Der IPCC hat dies bereits in früheren Berichten über den Weltklimarat eingeräumt und zugegeben, dass die Klimamodelle die Rolle, die Veränderungen der Wolkenbedeckung beim Klimawandel spielen, nur unzureichend berücksichtigen.

Der AR6 ignoriert praktisch jeden Einfluss der Sonne auf den Klimawandel. In dem Bericht wird in einer Grafik auf Seite SPM-8 (Summary for Policy Makers) kaum erwähnt, dass die Sonneneinstrahlung überhaupt eine Rolle beim Klimawandel spielt. Die Sonnenzyklen, von denen wir aus der Geschichte wissen, dass sie mit Klimaveränderungen korrelieren, werden nicht erwähnt. Auch wird in dem Bericht nicht einmal erwähnt, dass die Zu- und Abnahme der kosmischen Strahlung infolge von Sonnenschwankungen die Bewölkung und damit die Temperaturen beeinflussen. Mit Ausnahme der Vulkane werden alle anderen Faktoren – wie etwa die großräumigen dekadischen Ozean-Zirkulationsmuster – in eine Kategorie namens „Interne Variabilität“ gepackt, welcher im AR6 fast keine Auswirkungen auf den Klimawandel zugeschrieben wird.

Die Antwort der Klimamodellierer auf die Tatsache, dass ihre Modelle schlecht abschneiden und sich ihre Leistung im Laufe der Zeit verschlechtert hat, besteht nicht darin, zuzugeben, dass es sich um eine Angelegenheit von „Garbage in, Garbage out“ handelt, die sie dazu veranlassen sollte, ihre grundlegenden Annahmen darüber in Frage zu stellen, ob die menschlichen Treibhausgasemissionen der einzige oder sogar der dominierende Faktor für Änderungen der Temperatur sind. Stattdessen, so berichtet das Wall Street Journal:

…überarbeiteten sie 2,1 Millionen Zeilen des Supercomputer-Codes, der verwendet wird, um die Zukunft des Klimawandels zu erforschen, und fügten kompliziertere Gleichungen für Wolken und Hunderte von anderen Verbesserungen hinzu. Sie testeten die Gleichungen, überprüften sie und testeten sie erneut.

Die Wissenschaftler fanden heraus, dass selbst die besten Werkzeuge nicht in der Lage sind, das Klima mit der Sicherheit zu modellieren, die die Welt angesichts der steigenden Temperaturen in fast allen Regionen braucht.

Die Antwort der Klimamodellierer auf das ständige Versagen ihrer Modelle bei der Wiedergabe der realen Klimabedingungen besteht darin, dass sie mehr Geld und Zeit aufwenden, um ihre Modelle noch komplexer zu machen. Komplexität ist an und für sich keine Tugend.

Das Klimasystem ist zweifellos komplex. Dennoch gibt es keinen Grund zu der Annahme, dass Modelle, die komplexer sind, auch genauer werden. Wir verstehen nicht alle Faktoren, die das Klima verändern, oder wie die Erde auf verschiedene Störungen des Gesamtklimas reagiert. Was man nicht versteht, kann man nicht gut modellieren. Ohne dieses grundlegende Verständnis werden die Modelle nur noch fehleranfälliger, wenn man immer mehr Codezeilen hinzufügt und immer komplexere Annahmen über die Rückkopplungsmechanismen des Klimas trifft, die noch weniger bekannt sind als die physikalischen Grundlagen. Jede Codezeile und jede komplexe Berechnung ist ein weiterer Bereich, eine weitere Formel oder ein weiterer Operator, bei dem sich eine fehlerhafte Annahme oder ein einfacher Fehler in der Mathematik oder der Zeichensetzung auf das gesamte Modell auswirken kann. Durch die Komplexität ergeben sich mehr Möglichkeiten für Fehler oder „Bugs“ im Code, die die Projektionen verfälschen können.

Die Tatsache, dass die Modellierer ihre Modelle immer komplexer gestalten und ihre simulierten Klimaergebnisse immer mehr von den realen Klimadaten abweichen, sollte als Indikator dafür dienen, dass Komplexität eine Schwäche der Modelle ist. Die Modellierer wissen einfach nicht, was sie nicht wissen. Diese Tatsache sollten sie zugeben, anstatt ihre Unwissenheit in ihre Modelle einzubauen, indem sie vorgeben, dass elegante mathematische Formeln die Realität widerspiegeln, nur weil sie elegant und komplex sind. Der erste Schritt, um aus einem Loch herauszukommen, das man gegraben hat, ist, mit dem Graben aufzuhören.

Ein zweites Indiz dafür, dass komplexe Klimamodelle von Natur aus fehlerhaft sind, ist die Tatsache, dass einfachere Klimamodelle die realen Temperaturdaten besser abbilden. Einfache Modelle lehnen Annahmen darüber ab, wie verschiedene Aspekte des Klimasystems die relative Erwärmung bei steigenden Treibhausgasemissionen verstärken oder verringern. Ohne den zusätzlichen Antrieb durch modellierte Rückkopplungsmechanismen oder -schleifen prognostizieren die einfachen Modelle eine bescheidene Erwärmung als Reaktion auf steigende Emissionen. In dieser Hinsicht spiegeln die einfachen Modelle gut wider, was auf der Erde tatsächlich vor sich gegangen ist.

Es hat keine unkontrollierbare Erwärmung gegeben, und es gibt wenig oder gar keinen Grund, eine solche durch einen vernünftigerweise zu erwartenden Anstieg der Treibhausgaskonzentrationen in der Atmosphäre zu erwarten. Wenn die Modelle mit ihren grundlegenden Vorhersagen – den Temperaturen – nicht richtig liegen, gibt es keinen Grund, ihren zusätzlichen oder prognostizierten Sekundäreffekten zu trauen, die angeblich durch steigende Temperaturen verursacht werden.

Quellen: Intergovernmental Panel on Climate Change; The Wall Street Journal; Powerlineblog

Link: https://heartlanddailynews.com/2022/02/climate-change-weekly-425-climate-model-problems-persist-changes-reduce-accuracy-further/

Übersetzt von Christian Freuer für das EIKE

 




Wiederherstellung des Gleichgewichts

Willis Eschenbach

In diesem Beitrag werde ich sowohl zusätzliche Daten zur Verfügung stellen als auch einen Fehler und eine Behauptung in meinem Beitrag mit dem Titel Where Is The Top Of The Atmosphere [in deutscher Übersetzung beim EIKE hier] korrigieren. Lassen Sie mich zunächst den Hauptpunkt zusammenfassen, nämlich die Theorie, warum steigendes CO2 zwangsläufig zu einer Erwärmung der Oberfläche führen muss.

● Die Menge des atmosphärischen CO2 und anderer Treibhausgase (Methan, FCKW usw.) nimmt zu.

● Dadurch wird mehr aufsteigende langwellige Strahlung absorbiert, was zu einer unausgewogenen Strahlung an der Oberseite der Atmosphäre (TOA) führt. Dies ist das TOA-Gleichgewicht zwischen dem einfallenden Sonnenlicht (nachdem ein Teil des Sonnenlichts in den Weltraum zurückreflektiert wird) und der von der Oberfläche und der Atmosphäre ausgehenden langwelligen Strahlung (OLR).

● Um das Gleichgewicht wiederherzustellen, so dass die eingehende Sonnenstrahlung gleich der ausgehenden langwelligen Strahlung (OLR) ist, muss sich die Oberfläche zwangsläufig erwärmen, bis genügend zusätzliche aufsteigende langwellige Strahlung vorhanden ist, um das Gleichgewicht wiederherzustellen.

In meinem letzten Beitrag habe ich gezeigt, wie ich die Beziehung zwischen der CERES-Oberflächentemperatur und der OLR einschätze. Hier ist die Grafik:

Abbildung 1. Streudiagramm, monatliche ausgehende langwellige Strahlung (TOA LW) über der Atmosphäre im Vergleich zur Oberflächentemperatur. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Ich habe oben erwähnt, dass ich einen Fehler und eine Behauptung in meinem vorherigen Beitrag korrigieren wollte. Die Behauptung lautete, dass die Änderung der OLR in der Troposphäre bei einer CO2-Verdoppelung laut MODTRAN zwar etwa 3,7 W/m² beträgt, die Änderung am oberen Rand der Atmosphäre (TOA) jedoch viel geringer ist.

Seitdem habe ich jedoch eine Studie mit dem Titel „Radiative Forcing of Quadrupling CO2“ gefunden, in dem es heißt:

Man beachte, dass der Antrieb und die Anpassung in diesem Papier anhand der Strahlungsflüsse an der TOA und nicht an der Tropopause analysiert werden. Es kann jedoch gezeigt werden, dass nach dem Gleichgewicht der Stratosphäre der Stratosphären-bereinigte Antrieb auf beiden Ebenen identisch ist.

Leider schweigen sie sich darüber aus, wie oder wo genau „es gezeigt werden kann“. Und ich sehe keinen Grund für die Annahme, dass dies wahr ist – warum sollte die aufsteigende langwellige Strahlung sowohl irgendwo in der oberen Mitte der Atmosphäre als auch am oberen Rand der Atmosphäre gleich sein? Das würde voraussetzen, dass die Stratosphäre in keiner der beiden Richtungen einen Beitrag zur OLR leistet …? Das scheint zweifelhaft.

Aber um einen sehr konservativen Standpunkt einzunehmen, d. h. einen, der die berechnete Klimasensitivität erhöht, nehme ich für diese Diskussion an, dass sie Recht haben und dass die OLR am oberen Ende der Atmosphäre (TOA) durch eine Verdopplung des CO2 um 3,7 W/m² reduziert wird, was dem Wert an der Tropopause entspricht.

Das war also die Behauptung … was ist mit dem Fehler?

Nun, mein Fehler war, dass ich die tatsächlichen TOA-OLR-Werte verwendet habe, um die Beziehung zwischen Oberflächentemperatur und OLR zu berechnen. Wenn man aber davon ausgeht, dass die vorherrschende Theorie richtig ist, sind diese OLR-Werte bereits durch die Wirkung der Treibhausgase verringert worden. Um die wahre Beziehung zwischen Temperatur und OLR zu erhalten, müssen wir also den Betrag der durch die Treibhausgase verursachten Verringerung der OLR wieder hinzufügen.

Um eine genauere Antwort auf der Grundlage eines längeren Aufzeichnungszeitraums zu erhalten, habe ich dieses Mal die Berkeley-Temperaturdaten und die NOAA-OLR-Daten verwendet. Damit erhalten wir etwa doppelt so viele Daten wie mit den CERES-Satellitenbeobachtungen. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. Streudiagramm, NOAA OLR bereinigt um gut gemischte Treibhausgase (WMGHG) gegen Berkeley Erdoberflächen-Temperatur. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Wie erwartet hat die Anpassung der OLR-Daten um die Wirkung der WMGHGs den Trend der OLR gegenüber der Oberflächentemperatur verstärkt.

Um die Berkeley/NOAA-Daten zu überprüfen, habe ich nur den Teil der Daten genommen, der sich mit den CERES-Daten überschneidet, und beide Daten miteinander verglichen. Wie man sieht, ist die Übereinstimmung zwischen den beiden besser als das, was man im Allgemeinen zwischen verschiedenen Klimadatensätzen findet.

Abbildung 3. Vergleich der Berkeley/NOAA-Werte und der CERES-Werte. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Also … nach Abbildung 2 muss die Temperatur um 3,7 ± 0,1 W/m² geteilt durch 4,2 ± 0,13 W/m² pro °C ansteigen, um eine Verdoppelung des CO2 auszugleichen, die vermutlich die TOA-OLR um 3,7 W/m² senkt, was 0,9 ± 0,04 °C pro CO2-Verdoppelung ergibt.

Ist dies die langfristige „Gleichgewichts-Klimasensitivität“ und nicht die kurzfristige „vorübergehende Klima-Reaktion“? Ich sage ja, denn sie ist unabhängig davon, wie lange es dauert, bis die Temperatur ansteigt. Unabhängig davon, ob die Temperatur in einem Monat, einem Jahr oder einem Jahrzehnt um 0,9 °C ansteigt, zeigen die obigen Daten, dass dies zu einem Anstieg der OLR um 3,7 W/m² führt.

DATEN:

Berkeley Earth

CERES

NOAA OLR

WMGHG

Link: https://wattsupwiththat.com/2022/02/12/restoring-the-equilibrium/

Übersetzt von Christian Freuer für das EIKE

 




Seid der Globalen Erwärmung dankbar!

Gregory Wrightstone

Die Menschheits- und Klimageschichte zeigt, dass wir die Wärme begrüßen und die Kälte fürchten sollten, ganz im Gegenteil zu dem Idiotismus, mit dem der Klima-Industrie-Komplex hausieren geht.

Die gegenwärtige Erwärmung wird als Krise bezeichnet und die moderne wirtschaftliche Entwicklung als Krebsgeschwür. Aber was wäre, wenn ich Ihnen sagen würde, dass ein Großteil der jüngsten Fortschritte im menschlichen Wohlstand ohne den Temperaturanstieg der letzten paar hundert Jahre unmöglich gewesen wäre?

Ein Schlüssel zum Überleben jeder Gesellschaft ist die Ernährungssicherheit. Die heutige Welt sollte für die relative Wärme und den höheren Kohlendioxidgehalt in der Atmosphäre dankbar sein, denn beides hat das Pflanzenwachstum weltweit vorangetrieben.

Ein Rückblick auf die Geschichte der Menschheit und des Klimas zeigt eine enge Verbindung zwischen Erwärmung und Abkühlung einerseits sowie dem Aufstieg und Fall der Zivilisation andererseits – genau das Gegenteil von dem, was die Klimaskeptiker behaupten.

Frühere Wärmeperioden waren viel wärmer als unsere heutigen Temperaturen und gingen mit Zeiten großen Wohlstands einher. Die dazwischen liegenden kalten Perioden hatten Namen wie Griechisches Zeitalter, Dunkles Zeitalter und Kleine Eiszeit und waren mit Missernten, Pestilenz und Massenentvölkerung verbunden.

Dem Historiker Wolfgang Behringer zufolge hat die „Abkühlung immer zu großen sozialen Umwälzungen geführt, während die Erwärmung manchmal zu einem Aufblühen der Kultur führte. Wenn wir etwas aus der Kulturgeschichte lernen können, dann, dass die Menschen zwar ‚Kinder der Eiszeit‘, die Zivilisation aber ein Produkt der klimatischen Erwärmung war.“

Gehören Sie zu denjenigen, die sich eine niedrigere globale Temperatur wünschen? Laut dem Klimaforscher Dr. Michael Mann wäre die ideale Temperatur für den Planeten „der Temperaturbereich, der seit Beginn der Zivilisation vorherrschte, bis wir begannen, fossile Brennstoffe zu verbrennen“. Dies jedoch würde die Menschheit genau in die tödliche Kälteperiode versetzen, die während der treffend benannten Kleinen Eiszeit zwischen 1250 und 1850 herrschte. Dies war eine Kälteperiode von globalem Ausmaß.

Die Kleine Eiszeit ließ Flüsse wie die Themse zufrieren, die in der Neuzeit nur noch selten zugefroren sind. Hier in den Vereinigten Staaten wissen wir, dass Martha Washington während der Sommer in Mount Vernon Eis genoss, das aus dem Potomac River geerntet und in einem Eishaus auf dem Gelände gelagert wurde. Diese dicken Eisschichten waren im 18. Jahrhundert ein jährliches Ereignis, während sie heute nur noch gelegentlich in ungewöhnlich kalten Wintern auftreten.

Nach Ansicht des Historikers Philipp Blom führte die Kleine Eiszeit in Europa zu einer langfristigen, kontinentweiten Agrarkrise“. Sein Buch „Nature’s Mutiny: How the Little Ice Age of the Long Seventeenth Century Transformed the West and Shaped the Present“ (Die Meuterei der Natur: Wie die Kleine Eiszeit des langen siebzehnten Jahrhunderts den Westen veränderte und die Gegenwart prägte) beschreibt ausführlich den Zusammenbruch der westlichen Gesellschaft aufgrund von Ernteausfällen im 17. Jahrhundert.

In wissenschaftlichen Fachzeitschriften wurde der Zusammenbruch der Landwirtschaft in Europa dokumentiert. In Finnland beispielsweise kam es aufgrund der Abkühlung zu massiven Ernteausfällen und der Aufgabe von Ackerland.

Die Hungersnot forderte Millionen von Menschen durch Hunger und Krankheiten. Ein Priester in Frankreich schrieb:

„Die Ernten, die genäht worden waren, wurden alle vollständig zerstört. … Die meisten Hühner waren an der Kälte gestorben, ebenso die Tiere in den Ställen. Wenn das Geflügel die Kälte überlebte, sah man, wie seine Kämme erfroren und abfielen. Viele Vögel, Enten, Rebhühner, Waldschnepfen und Amseln starben und wurden auf den Straßen, auf dem dicken Eis und im häufigen Schnee gefunden. Eichen, Eschen und andere Bäume im Tal brachen vor Kälte. Zwei Drittel der Weinstöcke starben … In Anjou wurden überhaupt keine Trauben geerntet. … Ich selbst habe nicht genug Wein aus meinem Weinberg geholt, um eine Nussschale zu füllen.“

Glücklicherweise nahm der natürliche Klimazyklus seinen eigenen Lauf, und die Kälteperiode wich einer Erwärmung, die vor mehr als 300 Jahren begann und in Schüben bis heute anhält.

Es stimmt zwar, dass der bemerkenswerte Anstieg des Pflanzenwachstums im 20. Jahrhundert in hohem Maße durch die Fortschritte in der Agrartechnologie begünstigt wurde, doch wäre dies ohne eine Erwärmung der Erde auf ein für das Pflanzenleben günstigeres Niveau nicht möglich gewesen. Als ob dieser Temperaturanstieg nicht schon ausreichen würde, wurde das Wachstum der Pflanzen durch den Anstieg des Kohlendioxids, der wahrscheinlich auf die industrielle Nutzung fossiler Brennstoffe zurückzuführen ist, noch weiter beschleunigt.

Heute glänzen Länder auf der ganzen Welt in der Landwirtschaft und brechen Jahr für Jahr Rekorde. Einige ehemals von Hungersnöten geplagte Länder wie Indien, Pakistan, Mexiko, China und die Philippinen produzieren große Mengen an Feldfrüchten, was die weltweite Ernährungssicherheit erhöht. Die gegenwärtigen Temperaturen als „Krise“ zu bezeichnen, ist pure Ignoranz.

Die Geschichte der Menschheit und des Klimas zeigt, dass wir die Wärme begrüßen und die Kälte fürchten sollten – ganz im Gegenteil zu der Geschichte, mit der der Klimaindustriekomplex hausieren geht.

First published at: American Greatness.

Link: https://www.heartland.org/news-opinion/news/be-grateful-for-global-warming

Übersetzt von Christian Freuer für das EIKE