Die CO2-Verschiebung: Eiszeit zu Gaszeit

Der CO2-Hockeyschläger

Der CO2-Hockeyschläger ist eine bekannte Grafik. Abbildung 1 zeigt CO2-Daten aus Eiskernblasen, CO2-Daten aus dem Firn sowie atmosphärische, instrumentelle CO2-Messungen von Cape Grim. Atmosphärische Daten sind nur für etwa die letzten 150 Jahre verfügbar. Daher werden Firn- und Eiskerndaten verwendet, um den CO2-Datensatz weiter in die Vergangenheit zu verlängern. Hochakkumulierte Eisdaten wie DE08 reichen häufig nicht so weit in die Vergangenheit zurück und decken nicht einmal die Kleine Eiszeit (LIA) ab. Es ist erstaunlich, wie sich all die sehr unterschiedlichen CO2-Datensätze bis auf wenige Ausnahmen recht gut überschneiden.

Abbildung 1: Auf das Gasalter korrigierte CO2-Konzentrationen. Inset ist ein Blow-up zwischen 1900-2020 n. Chr., das den CO2-Flachpunkt zeigt. Kästen markieren verschiedene Datenmedien und die ungefähre Lage der Eisblasenzone. Die CO2-Daten für Law Dome (DE08, DSS) stammen aus Rubino 2019; WAIS stammt aus Bauska 2015; Siple stammt aus Neftel 1994; und EDML stammt aus Siegenthaler, 2005.

Abgesehen von dem auffälligen Hockeyschläger gibt es noch einige andere bemerkenswerte Beobachtungen. Es gibt eine größere Streuung in den CO2-Messungen von 1900 und älter zwischen den verschiedenen Eiskernaufzeichnungen. Ein Grund für die größere Streuung ist, dass die WAIS-CO2-Daten systematisch 3-4 ppm höher sind als die Law-Dome-Eiskern-CO2-Daten (Ahn, 2012). Wissenschaftler können diese Abweichung nicht erklären und subtrahieren häufig einfach 4 ppm von diesem Datensatz (Bereiter, 2014).

Ein CO2-Flachpunkt und eine Stabilisierung von 310-312 ppm von 1940-1960 ist in den Law-Dome-Daten erkennbar (MacFarling, 2006). Die Glättung aufgrund der Gasdiffusion im Firn und des Einschlusses in Blasen reduziert die CO2-Variationen, so dass die tatsächliche atmosphärische Variation wahrscheinlich größer ist als die Aufzeichnung des Law Dome-Eiskerns. Leider endete die CO2-Glättung kurz bevor die atmosphärischen Aufzeichnungen am Mauna Loa begannen.

Eine CO2-Ausbuchtung tritt in allen Eiskernaufzeichnungen von etwa 1000 n. Chr. bis 1600 n. Chr. auf und ist über 600 Jahre lang. Auch dieser CO2-Anstieg hatte wahrscheinlich eine größere atmosphärische Signatur, als in den Eisbohrkernen erhalten ist. Der CO2-Buckel endet mit dem Beginn der LIA um 1600 n. Chr., wo CO2 in allen Eiskernaufzeichnungen abnimmt. Ein einzigartiger CO2-Einbruch in den Law Dome DSS-Daten tritt um 1610 n. Chr. nahe dem Beginn der LIA auf und könnte auf die höhere Auflösung zurückzuführen sein (Rubino, 2019). Diese Senke ist in keinem anderen Eisdatensatz zu finden und trägt zur Streuung der CO2-Daten bei. DSS hat auch andere CO2-Tiefpunkte um 1780 n. Chr. nahe dem Ende der LIA und um 1278 und 1350 n. Chr. in der Mitte der CO2-Ausbuchtung. Rubino weist darauf hin, dass das Verständnis dieser vom Eis aufgezeichneten Amplitudenschwankungen und der tatsächlichen Größe der ursprünglichen atmosphärischen Signaturen vor der Firnglättung ein entscheidendes Teil des CO2-Puzzles ist.

Die CO2-Verschiebung

Wie in meinem früheren WUWT-Beitrag hier besprochen, werden atmosphärische Gase während des Firnübergangs zu Eis und Blaseneinschluss modifiziert. Es gibt zwei wesentliche Modifikationen, die von der Schneeakkumulationsrate und der Temperatur abhängig sind. Erstens wird die CO2-Variabilität aufgrund der atmosphärischen Durchmischung und Diffusion mit den CO2-Konzentrationen im Firn geglättet. Zweitens wird angenommen, dass das Gas jünger als das Alter des Eises ist, wenn es schließlich in den Blasen eingeschlossen wird. (Battle, 2011; Trudinger, 2002, Blunier, 2000). Sobald das Gas in den Blasen eingeschlossen ist, wird angenommen, dass es mit dem Eis altert. Dieser Altersunterschied wird als Eis-Gas-Altersdelta bezeichnet. Das Delta reicht von etwa 30 Jahren im Law Dome bis zu 835 Jahren im EDML-Eiskern mit geringer Akkumulation. Sehr niedrig akkumulierende Standorte wie Dome C und Vostok haben ein großes Delta von Tausenden von Jahren.

Abbildung 2 zeigt die CO2-Messungen aus dem tatsächlichen Alter des Eises, in dem es eingeschlossen ist, für fünf Eiskerne in der Antarktis und vor den Anpassungen durch die Anwendung von Eis-Gas-Alter-Deltas, wie in Abbildung 1 gezeigt. Atmosphärische Daten von Cape Grim und Firndaten sind zum Vergleich in der Grafik dargestellt. Die Deltadifferenz in Jahren zwischen dem jüngeren Gasalter und dem älteren Eisalter sind vermerkt. Die Spitze des Eises, die ungefähr der Basis der Blasenzone entspricht, ist ebenfalls dargestellt. Dieser Plot ist ein Profil, das in der veröffentlichten Literatur selten zu finden ist oder diskutiert wird.

Abbildung 2: CO2-Konzentrationen in der Eiszeit. Die Zahlen zeigen die Eiszeitdifferenz in Jahren. Die gestrichelte Linie ist die Spitze des Eises und die ungefähre Position der Basis der Blasenzone. Die Referenzen der CO2-Daten sind in Abbildung 1 vermerkt.

Abbildung 2 führt zu der Frage, wie das Delta zwischen Eis- und Gasalter berechnet wird. Wenn die Gasmessungen in Eis oder Firn mit den Instrumentaldaten übereinstimmen, wird es einfach auf das Alter der Instrumentaldaten verschoben. Zum Beispiel werden die Eisgasdaten von Law Dome DE08 einheitlich um 31 Jahre verschoben, um mit den instrumentellen atmosphärischen Daten übereinzustimmen. Verschiedene andere Methoden werden verwendet, um das Delta und die daraus resultierende einheitliche Verschiebung zu schätzen. Firnmodelle können das Eisgas-Altersdelta für Eiskerne unter Verwendung von Dichte- und Temperaturdaten berechnen und werden durch die Verwendung von Stickstoff-15-Daten, einem Proxy für die Firndicke, eingeschränkt (Raynaud, 2005). Ein anderer Ansatz verwendet Eistiefen im Kern, die zeitgleich mit Eiskernen sind, bei denen die Gasalter gut eingegrenzt sind (Bender, 2005). DSS und Siple werden um 58 bzw. 83 Jahre verschoben, um mit den DE08-Daten übereinzustimmen. Nachdem alle Verschiebungen vorgenommen wurden, erscheint ein großer Hockeyschläger steigender CO2-Konzentrationen um 1900 n. Chr., wie in Abbildung 1 dargestellt.

Die CO2-„Verschiebungsmethode“ unter Verwendung der Siple-Daten wurde insbesondere von Jaworowski, 2004, hervorgehoben. Er wies darauf hin, dass im Jahr 1890 n. Chr. im Siple-Eiskern hohe CO2-Konzentrationen von 328 ppm auftraten, die nicht mit der interpretierten CO2-Basislinie übereinstimmten. Die gesamten Siple-CO2-Daten wurden einfach um 83 Jahre verschoben, um mit den modernen instrumentellen CO2-Messungen am Mauna Loa von 1973 übereinzustimmen. Diese einfache Verschiebungsmethode ist nach wie vor eine akzeptierte Technik zur „Korrektur“ des jüngeren Gasalters in Eiskernen.

Das Ausmaß der Altersverschiebung ist interpretierbar, und Wissenschaftler verwenden verschiedene Methoden, die zu unterschiedlichen Verschiebungen für denselben Datensatz führen. Eisgasalter-Deltas haben Unsicherheiten von 10-15% (Seigenthaler, 2005). Warum ist dies also wichtig? Die Temperaturen aus der Wasser-Isotopenzusammensetzung des Eises sind eiszeitlich. Daher werden die Temperaturen immer im gleichen Alter wie das Eis dargestellt. Die Gasdaten hingegen werden vom Alter des Eises auf ein interpretiertes Gasalter korrigiert. Jede Auswertung von Lead-Lag-Beziehungen sollte die 10-15%ige Unsicherheit berücksichtigen, die mit der Berechnung der CO2-Eis-Gas-Alter-Deltas verbunden ist.

Die Erhaltung des CO2-Hocleyschlägers in Eis

Wenn die CO2-Verschiebung oder das Altersdelta entfernt wird, wie in Abbildung 2 gezeigt, dann wird die CO2-Variabilitätsunterdrückung mit niedrigeren Akkumulationsstellen leicht erkennbar. Mit Ausnahme von DE08 zeigen die Eiskernaufzeichnungen unterhalb der Blasenzone, dass die höchste Aufzeichnung von CO2 nur 312-316 ppm beträgt, was fast 100 ppm unter dem aktuellen atmosphärischen Wert von 410 ppm liegt (Abbildung 3a). Es ist interessant festzustellen, dass diese Messwerte von 312-316 ppm mit dem DE08-Flachpunkt vergleichbar sind.

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung beim Übergang von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Um Kerne von Standorten mit unterschiedlicher Akkumulationsrate zu kompensieren, wird eine Gasaltersverteilungsbreite oder Glättung modelliert. Zum Beispiel haben Kerne mit hoher Akkumulation wie Law Dome ein durchschnittliches Gasalter von 10-15 Jahren, WAIS ein durchschnittliches Gasalter von etwa 30 Jahren und DML von 65 Jahren. Standorte mit geringer Akkumulation wie Dome C und Vostok zeigen, dass das Gas über Hunderte von Jahren gemittelt oder geglättet ist. Das bedeutet, dass ein Glättungsfaktor auf atmosphärische Gasmessungen angewendet werden muss, wenn man sie mit verschiedenen Eiskernen vergleicht. Die meisten historischen CO2-Diagramme spleißen jedoch einfach atmosphärisches und Firn-CO2 auf Eis-CO2-Daten auf, ohne eine Glättung anzuwenden, wie in Abbildung 1 gezeigt.

Abbildung 3: a) Anfängliche CO2-Konzentration in jedem Eiskern unterhalb der Blasenzone. b) Diagramm, das die Beziehung zwischen Eis-Gas-Alter-Delta und Gasglättung in Jahren zeigt. Daten aus Ahn, 2012; Trudinger, 2002, und Seigenthaler, 2005.

Eiskerne mit geringer Akkumulation, die größere Verschiebungen und größere Eis-Gas-Alter-Deltas erfahren, bewahren auch eine geringere CO2-Variabilität und eine höhere Glättung. Die Beziehung zwischen der Verschiebung des Eisgasalters und der Glättung der Gasamplitude ist in Abbildung 3b dargestellt.

Beobachtungen

Beim Vergleich des schnellen Anstiegs des atmosphärischen CO2 in diesem Jahrhundert mit Daten aus vergangenen Eiskernen werden viele Variablen und Datenannahmen verwendet. CO2-Messungen aus sehr unterschiedlichen Datensätzen werden häufig miteinander verknüpft; atmosphärische, Firn- und Eiskerne. Atmosphärisches CO2-Gas wird im Firn durch Diffusion und allmählichen Blaseneinschluss verändert und kann nicht direkt mit CO2-Daten in Eiskernen unterhalb der Blasenzone verglichen werden. Die übliche Methode, CO2-Eiskernaltersmessungen einfach zu verschieben, kombiniert mit der Nichtanwendung der entsprechenden atmosphärischen Abschwächung, ergibt den verstärkten CO2-Hockeyschläger.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.
Download the bibliography here.

Link: https://wattsupwiththat.com/2021/05/02/the-co2-shift-ice-age-to-gas-age/

Übersetzt von Chris Frey EIKE




Erwärmung der Ozeane? Nun ja…

Und was habe ich gefunden? Nun, ich bin ein visueller Typ, das heißt, ich brauche es anschaulich. Hier sind also meine Grafiken. Ich interessiere mich für die Veränderungen im ozeanischen Wärmeinhalt, also sind das zwei Ansichten dieser Trends.

Abbildungen 1 & 2. Dekadische Trends im ozeanischen Wärmeinhalt, in Exajoule (1018 Joule) pro Dekade.

Meine erste Überraschung? Es gibt eine Reihe riesiger ozeanischer, langsam rotierender Wirbel, die ich schon einmal gesehen habe. Sie beginnen an der Südspitze Afrikas und reichen bis unter Australien. Ich wusste von ihnen, weil sie in Grafiken von Satellitendaten über die Meeresoberfläche sichtbar sind. Aber was mir nicht klar war: diese Wirbel mischen warmes Oberflächenwasser in die Tiefe. Dies wird durch die orange/gelbe Linie der erhöhten Unterwasserwärme angezeigt, die sich von Afrika unter Australien erstreckt.

Und wenn man etwas warmes Oberflächenwasser nach unten mischt, muss anderes kühles Tiefenwasser nach oben kommen … wie die entsprechende Linie von Gebieten direkt südlich der Wirbel anzeigt, die von schwarz/weißen Linien umgeben sind und Gebiete zeigen, die seit 1955 tatsächlich Wärme verloren haben.

Was hat mich noch überrascht? Die Turbulenzen des Golfstroms, die mit der Topographie des Ozeanbodens entlang der Ostküste der USA interagieren, mischen auch warmes Oberflächenwasser nach unten … und der entsprechende Auftrieb von kaltem Wasser unter der Oberfläche findet gerade südlich von Grönland statt.

Ich habe mich schon lange gefragt, wie sich weniger dichtes, wärmeres Wasser nach unten in dichteres, kühleres, tieferes Wasser mischen kann … nun, es gibt ein paar Orte, an denen dies geschieht.

Zum Schluss habe ich mir noch die tatsächliche Temperaturänderung angesehen, die durch diese Exajoule an Energieänderungen dargestellt wird. Ich bin sicher, ich weiß es nicht.

Aber man kann es ausrechnen. Also habe ich die langsame Zunahme des Wärmeinhalts in Exajoule in Grad Celsius langsamer Erwärmung umgerechnet. Hier ist das Ergebnis:

Abbildung 3. Veränderung der globalen Ozeantemperatur, Oberfläche bis 700 Meter Tiefe von 1955 bis 2020

Ein Viertelgrad in einem halben Jahrhundert?

Nun lese ich immer wieder davon, dass Fische als Reaktion auf die Erwärmung der Ozeane ihre Standorte ändern. Aber das erscheint mir äußerst zweifelhaft, weil die Veränderungen so gering sind. In den letzten fünfzig Jahren hat sich der Ozean um etwa 0,005°C pro Jahr erwärmt … und nennen Sie mich verrückt, aber ich glaube einfach nicht, dass die Fische und andere Unterwasserbewohner so temperaturempfindlich sind, dass eine Veränderung von einem Viertelgrad in einem halben Jahrhundert sie dazu bringt, ihr glückliches Zuhause zu verlassen.

Zum einen liegt die vertikale Temperaturveränderung im offenen Ozean oft in der Größenordnung von 1°C pro 40 Meter Höhe oder so. Hier sind einige ARGO-Schwimmerprofile der oberen 200 Meter:

Abbildung 4. Vertikale Temperaturprofile des Nordpazifiks, Argo-Float-Daten.

Und das bedeutet, dass ein Fisch oder ein anderer Unterwasserbewohner, wenn er sich um zehn Meter nach oben oder unten bewegt, bereits die gefürchtete Temperaturänderung von einem Viertelgrad durchgemacht hat …

Hinzu kommt, dass viele Millionen von Meeresfischen, Garnelen und Copepoden jede Nacht von 800-1000 Metern Tiefe auf etwa 100 Meter Tiefe wandern und dann bei Sonnenaufgang wieder abtauchen … was bedeutet, dass sie jede Nacht fröhlich 5° – 10° Temperaturwechsel ertragen. Ich bezweifle daher sehr, dass sie sich von einer Temperaturänderung von einem Viertelgrad in einem halben Jahrhundert stören lassen.

Und gemessen an der Tonnage ist diese tägliche vertikale Wanderung die größte Bewegung von Lebewesen auf dem Planeten … wir reden also nicht über ein paar Fische hier und da.
Das ist die Quintessenz. Wenn die Lebewesen auf der Welt, sowohl an Land als auch im Meer, so temperaturempfindlich wären, wie die Alarmisten uns glauben machen wollen, wären diese Lebewesen (und auch wir Humanoiden) alle schon längst ausgestorben. Und soweit ich das beurteilen kann, ist das nicht geschehen … zumindest noch nicht.

Link: https://wattsupwiththat.com/2021/05/01/oceanic-warming-well-sorta/

Übersetzt von Chris Frey EIKE

 




Das neue Buch von Steven Koonin: Unsettled…

Der Buchautor Steven E. Koonin

Professor Koonin schickte mir im November einen fast endgültigen Entwurf zum Lesen und Kommentieren und ich habe sein Buch ein wenig überarbeitet, aber der Entwurf war schon damals in guter Form. Jetzt ist er noch besser. Ich habe vor ein paar Wochen ein signiertes Vorabexemplar erhalten, aber ich habe trotzdem eine Kindle-Version vorbestellt, um leichter darauf zugreifen zu können, und ich empfehle Ihnen, das auch zu tun. Dies ist ein wichtiges Buch, nicht nur weil Koonin ein brillanter und berühmter Physiker ist, sondern auch wegen des Inhalts. Es ist ein guter Überblick über die Wissenschaft, aber auch philosophisch wichtig.

Koonin hat mehr als 200 wissenschaftliche Arbeiten und Artikel geschrieben. Sie wurden laut Google Scholar über 14.000 Mal zitiert. Diese beziehen sich meist auf seine Hauptgebiete der Kern- und Atomphysik. Er hat auch über Biokraftstoffe, Energie, Klimawissenschaft, Beobachtungen der Albedo der Erde und die Analyse des menschlichen Genoms geschrieben. Er war einst Vorsitzender der kleinen JASON-Gruppe von Wissenschaftlern, die das Pentagon und andere Bundesbehörden beraten. Wie das Wall Street Journal in seiner kürzlichen Rezension des Buches berichtet, sind „Mr. Koonins wissenschaftliche Referenzen tadellos.“ (Mills, 2021).

Wir können erwarten, dass er von der Presse geschmäht wird, weil er nicht auf der Parteilinie liegt, aber er ist in dem Buch eindeutig korrekt und besonnen. Das Buch ist noch nicht für die Öffentlichkeit zugänglich, aber es ist bereits ein #1 Bestseller im Amazon Kindle Store, unter „Wetter“. Ein paar interessante Zitate aus der frühen Kopie, die er mir geschickt hat:

Die Erde hat sich im letzten Jahrhundert erwärmt, teilweise aufgrund natürlicher Phänomene und teilweise als Reaktion auf wachsende menschliche Einflüsse. Diese menschlichen Einflüsse (vor allem die Anhäufung von CO2 aus der Verbrennung fossiler Brennstoffe) üben einen physikalisch kleinen Effekt auf das komplexe Klimasystem aus. Leider reichen unsere begrenzten Beobachtungen und unser Verständnis nicht aus, um sinnvoll zu quantifizieren, wie das Klima auf menschliche Einflüsse reagiert oder wie es sich auf natürliche Weise verändert. Doch selbst wenn sich die menschlichen Einflüsse seit 1950 verfünffacht haben und sich der Globus nur geringfügig erwärmt hat, bleiben die meisten schweren Wetterphänomene innerhalb der Variabilität der Vergangenheit. Projektionen zukünftiger Klima- und Wetterereignisse beruhen auf Modellen, die für diesen Zweck nachweislich ungeeignet sind.“ (Koonin, 2021, S. 24)

Dieses Zitat ist besonders wichtig, weil viele in der Öffentlichkeit nicht erkennen, dass der menschliche Einfluss auf das Klima nie in der Natur beobachtet oder gemessen wurde. Sie halten es für eine Tatsache, aber das IPCC hat uns nur eine sehr grobe Schätzung auf der Basis von Modellen geliefert. Was hat Professor Koonin zu den Klimamodellen zu sagen?

Es ist leicht, sich von der Vorstellung verführen zu lassen, dass wir einfach den gegenwärtigen Zustand der Atmosphäre und der Ozeane in einen Computer einspeisen können, einige Annahmen über zukünftige menschliche und natürliche Einflüsse machen und so das Klima Jahrzehnte in die Zukunft genau vorhersagen können. Leider ist das nur ein Hirngespinst, wie man aus Wettervorhersagen schließen kann, die bis auf zwei Wochen oder so genau sein können. (Koonin, 2021, S. 79)

Zwei Wochen? Koonin ist sehr großzügig; er beruft sich auf diese Quelle [EZMW]. Er fügt ein paar Seiten später hinzu:

Jeder, der sagt, dass Klimamodelle ’nur Physik‘ sind, versteht sie entweder nicht oder er will absichtlich in die Irre führen. (Koonin, 2021, S. 81).

Einige Wissenschaftler des Max-Planck-Instituts haben beschrieben, wie sie ihr Klimamodell getrimmt haben, indem sie eine ECS (die Klima- oder Temperatursensitivität auf eine Verdoppelung der CO2-Konzentration) von etwa 3°C anvisierten, indem sie ihre Wolkenrückkopplungen anpassten. Um zu verstehen, wie ungeheuerlich dies ist, muss man verstehen, dass Wolken nicht modelliert werden; sie sind einstellbare Parameter. ECS ist kein Modell-Input, sondern wird aus dem Modell-Output errechnet. Koonin’s Kommentar: „Die Forscher haben ihr Modell so manipuliert, dass die Sensitivität gegenüber Treibhausgasen ihren Vorstellungen entsprach. Das heißt, sie frisieren die Modelle, bis sie zum Narrativ passen.“ (Koonin, 2021, S. 93).

Die Regierungen der Welt und die U.N. haben Milliarden von Dollar für die Klimaforschung ausgegeben, und Tausende von Wissenschaftlern auf der ganzen Welt haben ihre ganze Karriere mit diesem Thema verbracht, wie steht es also um uns? Koonin sagt es uns:

Ein erhebliches Problem ist, dass die Streuung des [IPCC AR5] CMIP5-Ensembles in den Jahren nach 1960 größer ist als die der Modelle in CMIP3 – mit anderen Worten, die spätere Generation von Modellen ist tatsächlich unsicherer als die frühere. Hier gibt es also eine echte Überraschung: selbst als die Modelle anspruchsvoller wurden – einschließlich feinerer Gitter, ausgefeilterer Untergitter-Parametrisierungen … nahm die Unsicherheit zu (Koonin, 2021, S. 87)

Wir fügen hinzu, dass die Unsicherheit bei der Berechnung des Effekts von CO2 auf die globale Erwärmung (ECS) im AR5 genau der Berechnung entspricht, die im Charney-Report (Charney, et al., 1979, S. 2) angegeben wurde, nämlich 1,5° bis 4,5° (IPCC, 2013, S. 16).

Koonin wurde zuerst in Physik an der Cal Tech ausgebildet, wo er Richard Feynman kannte und mit ihm studierte, den berühmten Physiker, der uns lehrte, „an die Unwissenheit der Experten zu glauben.“ Koonin zitiert diese Passage aus Feynmans Cal-Tech-Eröffnungsrede von 1974:

Gestern Abend habe ich (im Fernsehen) gehört, dass das Wesson-Öl nicht das Essen durchtränkt. Nun, das ist wahr. Es ist nicht unehrlich; aber die Sache, von der ich spreche, ist nicht nur eine Angelegenheit von nicht unehrlich sein, es ist eine Angelegenheit der wissenschaftlichen Integrität, die eine andere Ebene ist. Die Tatsache, die zu dieser Werbeaussage hinzugefügt werden sollte ist, dass Öle keine Lebensmittel durchtränken, wenn sie bei einer bestimmten Temperatur zubereitet werden. Wenn sie bei einer anderen Temperatur betrieben werden, werden sie alle durchweichen – auch Wesson Oil. Es ist also die Implikation, die vermittelt wurde, nicht die Tatsache, die wahr ist, und der Unterschied ist das, womit wir uns beschäftigen müssen. (Koonin, 2021, S. 7)

Wie Koonin erzählt, ist dies der Zustand der Klimawissenschaft heute. Was der IPCC und die US-Regierung uns über die Klimawissenschaft erzählen, ist im Allgemeinen wahr, aber in ihrem Bemühen, „eher zu überzeugen als zu informieren“, lassen sie das weg, was nicht in ihr Narrativ passt. Sie erzählen uns genug, um alarmiert zu sein, aber nicht genug, um uns zu informieren. Es ist der Verlust der wissenschaftlichen Integrität, der alarmierend ist, nicht das Klima.

Ein Großteil des Buches wird damit verbracht, den Mythos zu zerstreuen, dass extreme Wetterereignisse aufgrund des vom Menschen verursachten Klimawandels zunehmen. Er erzählt, dass Hitzewellen heute nicht häufiger vorkommen als im Jahr 1900, Tornados nehmen nicht zu, ebenso wenig wie Dürren. Koonin kritisiert die Medien für die Behauptung, dass extremes Wetter irgendwie mit menschlichen Aktivitäten zusammenhängt, obwohl es dafür keine Beweise gibt.

Holman Jenkins vom Wall Street Journal hat ebenfalls einen Entwurf des Buches gelesen und Folgendes geschrieben, basierend auf einem Interview mit Koonin:

Koonin argumentiert nicht gegen die aktuelle Klimawissenschaft, sondern dass das, was die Medien und Politiker und Aktivisten über die Klimawissenschaft sagen, so weit von der tatsächlichen Wissenschaft entfernt ist, dass es absurd und nachweislich falsch ist. (Jenkins, 2021)

Jenkins und Koonin beklagen sowohl den Verlust der Ehrlichkeit als auch des Glaubens an die Bedeutung von Ehrlichkeit und Wahrheit in den heutigen Nachrichtenmedien und der Politik. Von 2009 bis 2011 war Koonin Präsident Obamas Unterstaatssekretär für Wissenschaft im Energieministerium. Später, im Jahr 2020, erklärte Obama, dass wir uns in einer „epistemologischen Krise“ befinden. Ob wir mit Obama in der Sache übereinstimmen oder nicht, wir sind uns einig, dass sich die USA in einer Krise in Bezug auf Wahrheit und Wissen befinden. In der Wissenschaft geht es darum, die Wahrheit auf objektive und reproduzierbare Weise zu ermitteln. Die eigenen Gefühle spielen keine Rolle, Ausreden spielen keine Rolle, Konsensmeinungen spielen keine Rolle, wie man es nennt („globale Erwärmung“ oder „Klimawandel“) spielt keine Rolle, es zählt nur das, was man präsentiert, das unabhängig reproduziert werden kann. Bei Unsettled geht es darum, die Wissenschaft wieder auf den richtigen Weg zu bringen, Wissenschaftler sollten berichten, was sie wissen, was sie nicht wissen, was sie modelliert haben und was sie beobachtet haben. Nicht mehr und nicht weniger.

Einige von Ihnen erinnern sich vielleicht daran, dass Professor Koonin 2014 einen interessanten, hochkarätig besetzten Workshop der American Physical Society zum Thema Klimawandel leitete. Sie diskutierten und debattierten die wesentlichen Elemente der laufenden Klimawandel-Debatte. Meine Zusammenfassung des Workshops kann hier nachgelesen werden. Das Lesen des Transkripts dieses Workshops war für mich ein großes Aha!-Erlebnis, es ist 573 Seiten lang, aber ein großartiges Beispiel für gut gemachte Wissenschaft. Leider wurden die großen Defizite in der populären, vom Menschen durchgeführtten Klimawissenschaft, die er aufzeigte, ignoriert. Koonin setzte sich aktiv für mehr solcher formalen wissenschaftlichen Debatten über die Wissenschaft ein; wobei ihm zufolge beide Seiten vertreten sein sollten. Leider wurde jeder Vorschlag in diese Richtung abgeschmettert. In Kapitel 11 beschreibt er „Fixing the Broken Science,“ und wie prominente demokratische Senatoren Markey, Schatz, Smith, Blumenthal, Shaheen, Booker, Stabenow, Klobuchar, Hassan, Markey, und Feinstein versuchten, jede Finanzierung einer ehrlichen Debatte über die Klimawissenschaft buchstäblich zu verbieten:

die Verwendung von Geldern an Bundesbehörden zu verbieten, um ein Gremium, eine Arbeitsgruppe, einen beratenden Ausschuss oder andere Bemühungen einzurichten, die den wissenschaftlichen Konsens zum Klimawandel in Frage stellen, und für andere Zwecke. (Koonin, 2021, S. 202)

Versuchen sie wirklich, ein Forschungsergebnis gesetzlich festzulegen? Wissenschaft ist Debatte. Ohne Debatte gibt es keine echte Wissenschaft. Die verschiedenen wissenschaftlichen Akademien sind nicht besser als der Senat. Koonin und seine Kollegen haben sie gedrängt, ihren Prinzipien treu zu bleiben und zu informieren, anstatt zu überreden, aber ihre Bitten wurden ignoriert. An diesem Punkt sind wir heute. Wir applaudieren Professor Koonin’s Standpunkt zur wissenschaftlichen Integrität und ermutigen andere, seinem Beispiel zu folgen.

[Hervorhebung vom Übersetzer]

Works Cited

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. doi:https://doi.org/10.17226/12181

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Jenkins, H. (2021, April 16). How a Physicist Became a Climate Truth Teller. Wall Street Journal. Retrieved from https://www.wsj.com/articles/how-a-physicist-became-a-climate-truth-teller-11618597216?mod=article_inline

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Mills, M. P. (2021, April 25). ‘Unsettled’ Review: The ‘Consensus’ On Climate. Wall Street Journal. Retrieved from https://www.wsj.com/articles/unsettled-review-theconsensus-on-climate-11619383653

Link: https://andymaypetrophysicist.com/2021/04/26/unsettled-steven-koonins-new-book/

Übersetzt von Chris Frey EIKE

 




Der sich abzeichnende Thermostat

Abstract

Das aktuelle Paradigma der Klimawissenschaft besagt, dass die langfristige Änderung der globalen Temperatur durch eine Konstante namens „Klimasensitivität“ multipliziert mit der Änderung der abwärts gerichteten Strahlung, genannt „Strahlungsantrieb“, gegeben ist. Trotz über vierzigjähriger Untersuchungen hat sich die Unsicherheit des Wertes der Klimasensitivität jedoch nur vergrößert.1 Dieser Mangel an jeglichem Fortschritt bei der Bestimmung des zentralsten Wertes im aktuellen Paradigma deutet stark darauf hin, dass das Paradigma selbst falsch ist, dass es keine genaue Beschreibung der Realität darstellt. Hier schlage ich ein anderes Klimaparadigma vor, das besagt, dass eine Vielzahl von auftretenden Klimaphänomenen zusammenwirken, um die Oberflächentemperatur in engen Grenzen zu halten. Dies erklärt die ungewöhnliche thermische Stabilität des Klimasystems.

Übersicht

Mehrere Autoren haben das Klimasystem als eine Wärmekraftmaschine analysiert. Hier ist die Beschreibung von Reis und Bejan:

Die Erde mit ihrem solaren Wärmeeintrag, ihrer Wärmeabstrahlung und den Schwingungen der atmosphärischen und ozeanischen Zirkulation ist eine Wärmekraftmaschine ohne Welle: ihre maximierte (aber nicht ideale) mechanische Leistung kann nicht an ein extraterrestrisches System abgegeben werden. Stattdessen ist der Erdmotor dazu bestimmt, die gesamte von ihm erzeugte mechanische Leistung durch Luft- und Wasserreibung und andere Irreversibilitäten (z. B. Wärmelecks über endliches ∆T) zu zerstreuen. Er tut dies, indem er sich so schnell wie möglich „in seiner Bremse dreht“ (daher die Winde und Meeresströmungen, die auf einfachsten Wegen verlaufen).2

Einer der ungewöhnlichsten und im Allgemeinen nicht beachteten Aspekte bei der Betrachtung der Wärmekraftmaschine ist ihre verblüffende Stabilität. Im Laufe des 20. Jahrhunderts schwankte die globale durchschnittliche Oberflächentemperatur um weniger als ein Kelvin. Das ist eine Schwankung von ± 0,2 %. In Anbetracht der Tatsache, dass das System eine variable Menge an einfallender Energie zurückweist, wobei die Schwankungen größtenteils durch nichts Handfesteres als Wolken gesteuert werden, ist dies ein höchst überraschender Grad an Stabilität.

Dies wiederum spricht stark für einen globalen Thermo-Regulations-Mechanismus. Die Stabilität kann nicht auf einfacher thermischer Trägheit beruhen, da die hemisphärischen Landtemperaturen im Laufe des Jahres um ~ 20 K und die hemisphärischen Meerestemperaturen um ~ 5 K variieren.

Emergenz*
[*Es lässt sich keine befriedigende Übersetzung für diesen Terminus finden. Er wird daher im Folgenden beibehalten. Der Vergleich des Titels im Original und in dieser Übersetzung macht klar, was gemeint ist. – A. d. Übers.]

Es gibt keine allgemein akzeptierte Definition von Emergenz. Im Jahr 1874 schlug Lewes die folgende Definition vor: „Emergenz: Theorie, nach der die Kombination von Entitäten einer bestimmten Ebene eine Entität einer höheren Ebene hervorbringt, deren Eigenschaften völlig neu sind“.3
Für die Zwecke dieses Artikels werde ich emergente Klimaphänomene funktional und anhand eines Beispiels definieren.

Emergente Klimaphänomene entstehen spontan, oft beim Überschreiten einer thermischen oder anderen Schwelle. Man Betrachte die tägliche Entwicklung des tropischen Kumuluswolkenfeldes.

Beim Überschreiten einer Temperaturschwelle können aus einem klaren Himmel in kurzer Zeit Hunderte von einzelnen Kumuluswolken entstehen.

Sie haben eine Entstehungszeit und eine begrenzte Lebensdauer. Staubteufel bilden sich spontan zu einem bestimmten Zeitpunkt, bestehen eine Zeit lang und lösen sich dann auf und verschwinden.
Sie bilden ein separates Ganzes, das sich von der Umgebung unterscheidet. Tropische Gewitter sind von klarer Luft umgeben.

Sie sind oft beweglich und bewegen sich auf unvorhersehbare Weise. Infolgedessen haben tropische Wirbelstürme „Vorhersagekegel“ dafür, wohin sie möglicherweise als nächstes ziehen werden, anstatt genau vorhersehbar zu sein.

Sie sind oft mit Phasenänderungen in den entsprechenden Flüssigkeiten verbunden. Konvektive Wolkenentstehung beinhaltet eine Phasenänderung von Wasser.

Einmal vorhanden, können sie unterhalb der für ihre Entstehung notwendigen Schwelle bestehen bleiben. Die Rayleigh-Benard-Zirkulation erfordert eine bestimmte Temperaturdifferenz, um zu entstehen, aber wenn sie einmal existiert, kann die Zirkulation bei einer kleineren Temperaturdifferenz bestehen bleiben.

Es handelt sich um Strömungssysteme, die weit vom Gleichgewicht entfernt sind. Als solche müssen sie sich gemäß dem Konstruktionsgesetz4 weiterentwickeln und mutieren, um zu überleben.

Sie sind nicht einfach vorhersehbar, da sie ganz andere Eigenschaften haben als das Medium, aus dem sie hervorgehen. Wenn Sie irgendwo leben würden, wo es nie Wolken gibt, würden Sie wahrscheinlich nicht vorhersagen, dass plötzlich ein riesiges weißes Objekt Hunderte von Metern über Ihrem Kopf auftauchen könnte.

Beispiele für natürliche emergente Phänomene, mit denen wir vertraut sind, sind das Verhalten von Vogelschwärmen, Wirbel aller Art, Termitenhügel, Bewusstsein und sogar das Leben selbst. Bekannte emergente Klimaphänomene sind Gewitter, Tornados, die Rayleigh-Bénard-Zirkulation der Atmosphäre und des Ozeans, Wolken, Zyklone, El Ninos und Staubteufelchen.

Ein einfaches Beispiel

Um zu erklären, wie emergente Phänomene die Temperatur der Erdoberfläche thermoregulieren, betrachten wir das kleine „Staubteufelchen“. Wenn die Sonne im Sommer ein Feld aufheizt, ist die Temperaturänderung eine ziemlich lineare Funktion des Antriebs, hier der abwärts gerichteten Sonnenstrahlung. Dies steht im Einklang mit dem aktuellen Paradigma. Aber wenn der heißeste Teil des Feldes eine bestimmte Temperatur in Bezug auf die darüber liegende atmosphärische Temperatur erreicht, taucht aus klarem Himmel ein Staubteufelchen auf. Dieser kühlt die Oberfläche auf mehrere Arten ab. Erstens bewegt er warme Oberflächenluft nach oben in die untere Troposphäre. Zweitens erhöht er die fühlbare Wärmeübertragung, die eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist. Drittens erhöht sie die Verdunstung, was wiederum eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist.

An diesem Punkt bricht das derzeitige Paradigma, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, vollständig zusammen. Wenn die Sonne die Oberfläche weiter bestrahlt, erhalten wir statt einer höheren Temperatur mehr Staubteufel. Dies setzt eine Obergrenze für die Oberflächentemperatur. Man beachte, dass diese Obergrenze nicht eine Funktion des Antriebs ist. Der Schwellenwert ist Temperatur-basiert, nicht Antriebs-basiert. Folglich wird sie nicht von Dingen wie einer veränderten Sonneneinstrahlung oder Variationen der Treibhausgase beeinflusst.

Ein vollständiges Beispiel

Die Schwerstarbeit des thermo-regulatorischen Systems wird jedoch nicht von Staubteufeln geleistet. Sie wird durch Variationen des Zeitpunkts und der Stärke des täglichen Auftretens tropischer Kumulusfelder und der darauf folgenden tropischen Gewitter, insbesondere über dem Ozean, erreicht. Dabei handelt es sich um das Zusammenspiel mehrerer verschiedener emergenter Phänomene.

Hier kommt der Ablauf von Tag und Nacht im tropischen Ozean ins Spiel. Der tropische Ozean ist der Ort, an dem der Großteil der Sonnenenergie in die riesige Wärmemaschine, die wir Klima nennen, eintritt. Infolgedessen befinden sich dort auch die wichtigsten thermostatischen Mechanismen.

Abbildung 1: Tägliche emergente Phänomene der tropischen Ozeane

Wie im Paneel „Early Morning“ zu sehen, weist die Atmosphäre in der Morgendämmerung mehrere Schichten auf, wobei die kühlste Luft der Oberfläche am nächsten ist. Die nächtliche, emergente Rayleigh-Bénard-Umwälzung des Ozeans geht zu Ende. Die Sonne ist frei, um den Ozean zu erwärmen. Die Luft nahe der Oberfläche wirbelt willkürlich.

Während die Sonne den Ozean weiter aufheizt, entsteht gegen zehn oder elf Uhr morgens ein neues Zirkulationsmuster, welches die zufällige atmosphärische Verwirbelung ersetzt. Sobald eine kritische Temperaturschwelle überschritten wird, bilden sich überall lokale Zirkulationszellen vom Rayleigh-Bénard-Typ. Dies ist der erste emergente Übergang von der zufälligen Zirkulation zur Rayleigh-Bénard-Zirkulation. Diese Zellen transportieren sowohl Wärme als auch Wasserdampf nach oben.

Am späten Vormittag ist die Rayleigh-Bénard-Zirkulation typischerweise stark genug, um den Wasserdampf bis zum lokalen Lifting Condensation Level (LCL) anzuheben. In dieser Höhe kondensiert der Wasserdampf zu Wolken, wie im Paneel „Late Morning“ gezeigt.

Diese flächendeckende Verschiebung zu einem organisierten Zirkulationsmuster ist weder eine Änderung der Rückkopplung, noch steht sie in Zusammenhang mit einem Antrieb. Es handelt sich um ein selbstorganisiertes, emergentes Phänomen. Es ist schwellenbasiert, was bedeutet, dass es spontan auftritt, wenn eine bestimmte Schwelle überschritten wird. In den feuchten Tropen gibt es viel Wasserdampf, so dass die Hauptvariable für den Schwellenwert die Temperatur ist. Außerdem ist zu beachten, dass es in Tafel 2 zwei verschiedene Phänomene gibt – die Rayleigh-Bénard-Zirkulation, die vor der Cumulusbildung entsteht, und die durch die völlig getrennte Entstehung der Wolken verstärkt wird. Wir haben es nun auch mit zwei Zustandsänderungen zu tun, mit der Verdunstung an der Oberfläche und der Kondensation und Wiederverdunstung in der Höhe.

Unter diesem neuen Regime der Cumulus-Zirkulation am späten Vormittag findet viel weniger Oberflächenerwärmung statt. Ein Teil des Sonnenlichts wird zurück in den Weltraum reflektiert, so dass zunächst weniger Energie in das System gelangt. Dann erhöht der zunehmende Oberflächenwind aufgrund des Cumulus-basierten Zirkulationsmusters die Verdunstung, wodurch die Oberflächenerwärmung noch weiter reduziert wird, indem die latente Wärme nach oben in die aufsteigende Kondensationsebene transportiert wird.

Entscheidend sind hier der Zeitpunkt und die Stärke des Auftretens. Wenn der Ozean etwas wärmer ist, setzt das neue Zirkulationsregime früher am Morgen ein und verringert die gesamte Tageserwärmung. Ist der Ozean hingegen kühler als üblich, hält der klare Morgenhimmel bis spät in den Tag hinein an und ermöglicht eine verstärkte Erwärmung. Die Systemtemperatur wird also sowohl vor Überhitzung als auch vor übermäßiger Abkühlung durch den Zeitpunkt des Einsetzens des Regimewechsels reguliert.

Man betrachte das Phänomen „Klimasensitivität“ in diesem System, die die Empfindlichkeit der Oberflächentemperatur auf den Antrieb ist. Der solare Antrieb nimmt ständig zu, wenn die Sonne höher am Himmel steht. Morgens vor dem Einsetzen der Kumuluszirkulation kommt die Sonne durch die klare Atmosphäre und erwärmt die Oberfläche schnell. Daher ist die thermische Reaktion groß und die Klimasensitivität hoch.

Nach dem Einsetzen der Cumulus-Zirkulation wird jedoch ein Großteil des Sonnenlichts zurück in den Weltraum reflektiert. Es bleibt weniger Sonnenlicht übrig, um den Ozean zu erwärmen. Zusätzlich zur reduzierten Sonneneinstrahlung kommt es zu einer verstärkten Verdunstungs-Abkühlung. Im Vergleich zum Morgen ist die Klimasensitivität deutlich geringer.

Wir haben hier also zwei Situationen mit sehr unterschiedlichen Klimasensitivitäten. Am frühen Morgen ist die Klimasensitivität hoch, und die Temperatur steigt mit der zunehmenden Sonneneinstrahlung schnell an. Am späten Vormittag kommt es zu einem Regimewechsel hin zu einer Situation mit viel geringerer Klimaempfindlichkeit. Das Hinzufügen von zusätzlicher Sonnenenergie erhöht die Temperatur nicht mehr annähernd so schnell wie zuvor.

Irgendwann am Nachmittag besteht eine gute Chance, dass das Cumulus-Zirkulationsmuster nicht ausreicht, um den weiteren Anstieg der Oberflächentemperatur zu stoppen. Wenn die Temperatur einen bestimmten höheren Schwellenwert überschreitet, wie im Paneel „Late Afternoon“ gezeigt, findet ein weiterer vollständiger Regimewechsel statt. Dieser beinhaltet die spontane Entstehung von unabhängig voneinander beweglichen Wärmekraftmaschinen, die Gewitter genannt werden.

Gewitter sind Wärmekraftmaschinen mit zwei Brennstoffen. Sie werden mit Luft niedriger Dichte betrieben. Diese Luft steigt auf und kondensiert die Feuchtigkeit aus. Die Kondensation setzt Wärme frei, die die Luft wieder erwärmt, die bis weit nach oben in die Troposphäre aufsteigt.

Es gibt zwei Möglichkeiten, wie die Gewitter die Luft mit niedriger Dichte erhalten. Einer ist die Erwärmung der Luft. So entsteht ein Gewitter als ein von der Sonne angetriebenes Phänomen, das aus mächtigen Kumuluswolken entsteht. Die Sonne und die Treibhausgasstrahlung erwärmen zusammen die Oberfläche, die dann die Luft erwärmt. Die Luft mit geringer Dichte steigt nach oben. Wenn diese Zirkulation stark genug wird, bilden sich Gewitter. Sobald das Gewitter begonnen hat, wird der zweite Treibstoff hinzugefügt – Wasserdampf. Je mehr Wasserdampf sich in der Luft befindet, desto leichter wird sie. Das Gewitter erzeugt starke Winde um seine Basis. Die Verdunstung ist proportional zur Windgeschwindigkeit, so dass die lokale Verdunstung stark zunimmt. Dadurch wird die Luft leichter und steigt schneller auf, wodurch das Gewitter stärker wird, was wiederum die Windgeschwindigkeit um die Gewitterbasis erhöht. Ein Gewitter ist ein regeneratives System, ähnlich wie ein Feuer, bei dem ein Teil der Energie verwendet wird, um einen Blasebalg anzutreiben, damit das Feuer noch heißer brennt. Ist es einmal entfacht, ist es viel schwieriger zu stoppen. Dies verleiht Gewittern eine einzigartige Fähigkeit, die in keinem der Klimamodelle dargestellt ist. Ein Gewitter ist in der Lage, die Oberflächentemperatur weit unter die Auslösetemperatur zu drücken, die nötig war, um das Gewitter in Gang zu setzen. Das Gewitter kann bis in den Abend hinein laufen, oft sogar bis weit in die Nacht hinein, dank der Kombination aus thermischen und Verdunstungs-Energiequellen.

Gewitter fungieren als Wärmeleitbahnen, die warme Luft schnell von der Oberfläche zum Kondensationsniveau transportieren, wo sich die Feuchtigkeit in Wolken und Regen verwandelt, und von dort in die obere Atmosphäre, ohne mit den dazwischenliegenden Treibhausgasen zu interagieren. Die Luft und die in ihr enthaltene Energie werden im Inneren des aufsteigenden Gewitterturms versteckt in die obere Troposphäre transportiert, ohne auf dem Weg dorthin von Treibhausgasen absorbiert oder behindert zu werden. Gewitter kühlen die Oberfläche auch auf eine Vielzahl anderer Arten, indem sie eine Kombination aus einem Standard-Kältekreislauf mit Wasser als Arbeitsmedium plus von oben zurückfließendem kaltem Wasser, klarer Umgebungsluft, die eine größere aufsteigende Oberflächenstrahlung ermöglicht, windgetriebener Verdunstung, Sprühnebel, der die Verdunstungsfläche vergrößert, Albedo-Änderungen und kalter, nach unten gerichteter, mitgerissener Luft nutzen.

Wie beim Einsetzen der Cumulus-Zirkulation tritt das Einsetzen von Gewittern früher an Tagen auf, an denen es wärmer ist, und es tritt später (und manchmal gar nicht) an Tagen auf, die kühler sind als üblich. Auch hier gibt es keine Möglichkeit, eine durchschnittliche Klimasensitivität zuzuordnen. Je wärmer es wird, desto weniger erwärmt jedes zusätzliche Watt pro Meter die Oberfläche.

Sobald die Sonne untergeht, zerfallen zuerst die Kumuluswolken und dann die Gewitter und lösen sich auf. In Paneel 4 zeigt sich ein letztes und wiederum anderes Regime. Das Hauptmerkmal dieses Regimes ist, dass der Ozean während dieser Zeit die allgemeine Menge an Energie abstrahlt, die während aller anderen Teile des Tages absorbiert wurde.

Während der Nacht empfängt die Oberfläche immer noch Energie von den Treibhausgasen [?]. Dies hat den Effekt, dass das Einsetzen der ozeanischen Umwälzung verzögert und die Abkühlungsrate verringert wird. Man beachte, dass die ozeanische Umwälzung wieder die entstehende Rayleigh-Bénard-Zirkulation ist. Da es weniger Wolken gibt, kann der Ozean freier in den Weltraum abstrahlen. Darüber hinaus bringt die Umwälzung des Ozeans ständig neues Wasser an die Oberfläche, das abstrahlt und abkühlt. Dies erhöht den Wärmeübergang über die Grenzfläche. Wie bei den vorherigen Schwellenwerten ist der Zeitpunkt dieses endgültigen Übergangs temperaturabhängig. Sobald ein kritischer Schwellenwert überschritten ist, setzt die ozeanische Umwälzung ein. Die Schichtung wird durch Zirkulation ersetzt, die neues Wasser zum Abstrahlen, Abkühlen und Absinken bringt. Auf diese Weise wird Wärme abgeführt, nicht nur von der Oberfläche wie tagsüber, sondern vom gesamten Körper der oberen Schicht des Ozeans.

Prognosen

Eine Theorie ist nur so gut wie ihre Prognosen. Aus den obigen theoretischen Überlegungen können wir Folgendes vorhersagen:

Prognose 1: In warmen Gebieten des Ozeans wirken Wolken kühlend auf die Oberfläche, in kalten Gebieten wirken sie wärmend auf die Oberfläche. Dies wird oberhalb einer Temperaturschwelle bei den wärmsten Temperaturen am stärksten ausgeprägt sein.

Beweise, die die erste Prognose bestätigen:

Abbildung 2. Streudiagramm, Meeresoberflächentemperatur (SST) versus Strahlungseffekt der Oberflächenwolke. Je negativer die Daten sind, desto stärker ist die Abkühlung.

Wie prognostiziert, erwärmen die Wolken die Oberfläche, wenn sie kalt ist, und kühlen sie, wenn sie warm ist, wobei der Effekt oberhalb von etwa 26°C – 27°C sehr ausgeprägt ist.

Prognose 2: Im tropischen Ozean, wiederum oberhalb einer bestimmten Temperaturschwelle, werden Gewitter mit steigender Temperatur sehr schnell zunehmen.

Beweise, die die zweite Prognose bestätigen:

Da es immer viel Wasser über dem tropischen Ozean gibt und viel Sonnenschein, um sie anzutreiben, werden thermisch angetriebene tropische Gewitter eine Funktion von wenig mehr als der Temperatur sein.

Abbildung 3. Höhe der Wolkenobergrenze als Indikator für hoch reichende konvektive Gewitter im Vergleich zur Temperatur der Meeresoberfläche.

Wie bei Wolken im Allgemeinen gibt es eine klare Temperaturschwelle bei etwa 26°C – 27°C, mit einem fast vertikalen Anstieg der Gewitter oberhalb dieser Schwelle. Dies setzt dem Temperaturanstieg eine sehr starke Grenze.

Prognose 3:. Vorübergehende Abnahmen des solaren Antriebs, wie z.B. durch Eruptionen, werden durch eine erhöhte Sonneneinstrahlung infolge einer verspäteten und selteneren Bildung tropischer Gewitter kompensiert. Das bedeutet, dass nach einer anfänglichen Abnahme die eingehende Sonneneinstrahlung über den Ausgangswert vor der Eruption steigt, bis der Status quo ante wiederhergestellt ist.

Belege zur Validierung der dritten Prognose

Was die dritte Prognose betrifft, so löst meine Theorie das folgende Pinatubo-Rätsel von Soden et al.5:

Ab 1994 werden zusätzliche Anomalien in den Satellitenbeobachtungen der von der Atmosphäre absorbierten Sonnenstrahlung deutlich, die nichts mit dem Ausbruch des Mount Pinatubo zu tun haben und daher in den Modellsimulationen nicht reproduziert werden. Es wird angenommen, dass diese Anomalien von dekadischen Veränderungen in der tropischen Zirkulation Mitte bis Ende der 1990er Jahre herrühren [siehe J. Chenet al., Science 295, 838 (2002); und B.A. Wielicki et al., Science 295, 841 (2002)], aber ihr Wahrheitsgehalt bleibt Gegenstand von Debatten. Wenn sie real sind, impliziert ihr Fehlen in den Modellsimulationen, dass Diskrepanzen zwischen den beobachteten und den modellsimulierten Temperaturanomalien, die durch die thermische Trägheit des Klimasystems um 1 bis 2 Jahre verzögert werden, bis Mitte der 1990er Jahre auftreten könnten.“

Abbildung 4: Abbildung 1 aus Soden mit Original-Inschrift

Dies ist jedoch ein vorhersehbares Ergebnis der emergenten Thermostat-Theorie. Hier ist die Änderung der unteren atmosphärischen Temperatur zusammen mit den ERBS-Daten von Soden:

Abbildung 5. ERBE absorbierte Sonnenenergie (oberes Feld in Abbildung 4) und UAH untere troposphärische Temperatur (TLT). Beide Datensätze enthalten eine Lowess-Glättung.

Wie von der Theorie vorhergesagt, steigt die absorbierte Sonnenenergie über die Basislinie, bis die Temperatur der unteren Troposphäre zu ihrem Wert vor dem Ausbruch zurückkehrt. An diesem Punkt hört die erhöhte Aufnahme von Sonnenenergie auf und das System befindet sich wieder in seinem stationären Zustand.

Prognose 4: Die „Klimasensitivität“ ist bei weitem keine Konstante, sondern wird sich als eine Funktion der Temperatur herausstellen.

Beweise, die die vierte Prognose bestätigen.

Die folgende Abbildung 6 zeigt die Beziehung zwischen der Nettoabwärtsstrahlung an der Oberfläche und der Oberflächentemperatur in einem Raster von 1° Breitengrad und 1° Längengrad für jede Zelle:

Abbildung 6. Streudiagramm, CERES-Nettoabstrahlung der Oberfläche (kurzwellig plus langwellig) im Vergleich zur globalen Oberflächentemperatur von Berkeley Earth. Die Steigung der Lowess-Glättung an jedem Punkt ist die „Klimasensitivität“ bei dieser Temperatur, in °C pro W/m².

Die enge Korrelation zwischen der Oberflächentemperatur und der abwärts gerichteten Strahlung bestätigt, dass es sich um eine gültige Langzeitbeziehung handelt. Dies gilt insbesondere, wenn man bedenkt, dass die beiden betrachteten Variablen aus völlig unterschiedlichen und nicht miteinander verbundenen Datensätzen stammen.

Man beachte, dass die „Klimasensitivität“ tatsächlich eine Funktion der Temperatur ist, und dass die Klimasensitivität bei den höchsten Temperaturen negativ wird. Es ist auch erwähnenswert, dass fast nirgendwo auf dem Planeten die langfristige Durchschnittstemperatur über 30°C liegt. Dies ist ein weiterer Beweis für die Existenz starker thermo-regulatorischer Mechanismen, die die durchschnittliche Erwärmung der Oberfläche effektiv begrenzen.

Prognose 5: In einigen Gebieten wird die Temperatur nicht durch die abwärts gerichtete Oberflächenstrahlung gesteuert, sondern die Oberflächenstrahlung wird durch die Temperatur gesteuert.

Beweise zur Bestätigung der fünften Prognose

Abbildung 7 unten zeigt die Korrelation zwischen der abwärts gerichteten Oberflächenstrahlung (kurzwellige plus langwellige Strahlung) und der Oberflächentemperatur. Wie erwartet, ist die Korrelation über den meisten Landmassen positiv – wenn die Einstrahlung zunimmt, steigt auch die Oberflächentemperatur.

Abbildung 7. Korrelation zwischen den monatlichen Oberflächentemperaturen und der monatlichen abwärts gerichteten Oberflächenstrahlung. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Über weite Bereiche des tropischen Ozeans sind die Temperatur und die Einstrahlung jedoch negativ korreliert. Da eine abnehmende Einstrahlung die Oberflächentemperatur nicht erhöhen kann, ist die einzig mögliche Schlussfolgerung, dass in diesen Gebieten die steigende Temperatur die Anzahl und Art der darüber liegenden Wolken so verändert, dass die Einstrahlung abnimmt.

CONCLUSIONS

1) Das derzeitige Klimaparadigma, das besagt, dass Änderungen der globalen Oberflächentemperatur langfristig eine einfache lineare Funktion von Änderungen des Antriebs (Einstrahlung) sind, ist falsch. Dies zeigt sich an der Unfähigkeit der Forscher, die Unsicherheit des zentralen Wertes des Paradigmas, also der „Klimasensitivität“, einzugrenzen, trotz vierzigjähriger Untersuchungen, Millionen von Dollar, Milliarden von Computerzyklen und Millionen von Arbeitsstunden, die bzgl. dieses Problems aufgewendet worden waren. Es wird auch durch die obigen Grafiken demonstriert, die zeigen, dass die „Klimasensitivität“ keineswegs eine Konstante ist, sondern eine Funktion der Temperatur.

2) Ein höchst merkwürdiger Aspekt des Klimasystems ist seine erstaunliche Stabilität. Trotz der Unterstützung einer Temperatur, die um Dutzende Grad über der des Mondes liegt, durch nichts stabiler als evaneszenten Wolken, trotz Vulkanausbrüchen, trotz Änderungen in CO2 und anderer GHG-Antriebe, trotz großer Schwankungen in Aerosolen und schwarzen Kohlenstoff variierte die Temperatur über das 20. Jahrhundert um nur ±0,2%.

3) Diese erstaunliche Stabilität impliziert und erfordert in der Tat die Existenz eines sehr starken Thermo-Regulationssystems.

4) Meine Theorie ist, dass die Thermoregulation durch eine Vielzahl von interagierenden emergenten Phänomenen bereitgestellt wird. Dazu gehören die Rayleigh-Benard-Zirkulation des Ozeans und der Atmosphäre, Staubteufelchen, tropische, thermisch angetriebene Kumuluswolkenfelder, Gewitter, Sturmböen, Wirbelstürme, Tornados, die La-Nina-Pumpe, die tropisches warmes Wasser zu den Polen bewegt und kühles darunter liegendes Wasser freilegt, und die großen Veränderungen in der Ozeanzirkulation, die mit der pazifischen dekadischen Oszillation, der nordatlantischen Oszillation und anderen ozeanischen Zyklen einhergehen.

5) Dies impliziert, dass es unwahrscheinlich ist, dass die Temperaturen aufgrund von CO2-Variationen, Vulkanen oder anderen sich ändernden Einflüssen stark von ihrem derzeitigen Zustand abweichen. Die Schwellenwerte für die verschiedenen Phänomene sind temperaturbasiert, nicht antriebsbasiert. Daher werden Variationen des Forcings sie nicht stark beeinflussen. Es stellt sich jedoch auch eine neue Frage: Was verursacht eine langsame thermische Drift in thermoregulierten Systemen?

REFERENCES

1 Knutti, R., Rugenstein, M. & Hegerl, G. Beyond equilibrium climate sensitivity. Nature Geosci 10, 727–736 (2017). https://doi.org/10.1038/ngeo3017

2 Lewes, G. H. (1874) in Emergence, Dictionnaire de la langue philosophique, Foulquié.

3 Reis, A. H., Bejan, A, Constructal theory of global circulation and climate, International Journal of Heat and Mass Transfer, Volume 49, Issues 11–12, 2006, Pages 1857-1875, https://doi.org/10.1016

4 Bejan, A, Reis, A. Heitor, Thermodynamic optimization of global circulation and climate, International Journal of Energy Research, Vol. 29, Is. 4, https://doi.org/10.1002/er.1058

5 Brian J. Soden et al., Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor,Science 26 Apr 2002, Vol. 296, Issue 5568, pp. 727-730, DOI: 10.1126/science.296.5568.727

Anyhow, that’s what I have to date. There are few references, because AFAIK nobody else is considering the idea that emergent phenomena act as a global thermostat. Anyone who knows of other references that might be relevant, please mention them.

Finally, any suggestions as to which journal might be willing to publish such a heretical view of climate science would be much appreciated.

Link: https://wattsupwiththat.com/2021/04/28/a-request-for-real-peer-review/

Übersetzt von Chris Frey EIKE

 




Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE