Unsicherheiten der Bewölkung

Willis Eschenbach

Ich habe ein interessantes Zitat im jüngsten Klimanifest des IPCC gelesen, dessen sechster Sachstandsbericht den Eingeweihten als „IPCC AR6“ bekannt ist:

Klima-Rückkopplungen und Sensitivität – Abschnitt 7.7 der AGI im AR6

Der Nettoeffekt von Veränderungen der Wolken als Reaktion auf die globale Erwärmung ist die Verstärkung der vom Menschen verursachten Erwärmung, d. h. die Netto-Wolkenrückkopplung ist positiv (hohes Vertrauen).

Im Vergleich zum AR5 haben große Fortschritte im Verständnis der Wolkenprozesse das Vertrauensniveau erhöht und den Unsicherheitsbereich bei der Wolkenrückkopplung um etwa 50 % verringert. Die Bewertung der Wolkenrückkopplung in niedriger Höhe über den subtropischen Ozeanen, die zuvor die Hauptquelle der Unsicherheit bei der Nettowolkenrückkopplung war, wurde durch die kombinierte Verwendung von Klimamodellsimulationen, Satellitenbeobachtungen und expliziten Wolkensimulationen verbessert, was insgesamt zu starken Beweisen führt, dass diese Art von Wolken die globale Erwärmung verstärkt.

Die Netto-Wolkenrückkopplung, die sich aus der Summierung der für die einzelnen Regime ermittelten Wolkenrückkopplungen ergibt, beträgt 0,42 [-0,10 bis 0,94] W/m² °C. Eine negative Nettowolkenrückkopplung ist sehr unwahrscheinlich. (hohes Vertrauen)

Die Vorstellung einer globalen positiven Netto-Wolkenrückkopplung erschien mir immer sehr unwahrscheinlich. Das liegt zum Teil daran, dass ich jahrelang in den Tropen gelebt und viel Zeit im Freien verbracht habe. Wenn es in den Tropen wärmer wird, bilden sich Kumuluswolken, die viel der starken tropischen Sonneneinstrahlung in den Weltraum reflektieren, die einfallende Energie verringern und so die Oberfläche abkühlen. Und wenn die Erwärmung weiter anhält, bilden sich Gewitter, die die Oberfläche auf vielfältige Weise abkühlen. Ich habe also Tag für Tag die Rückkopplung der Wolken beobachtet und gesehen, dass eine stärkere Erwärmung zu einer stärkeren Abkühlung aufgrund der Wolken führt, nicht zu einer verstärkten Wolkenerwärmung. Und die Tropen sind ein großer Teil des Planeten.

Nun haben Wolken zwei entgegengesetzte Strahlungseffekte auf die Oberfläche. Sie reflektieren die kurzwellige Sonnenstrahlung zurück in den Weltraum und kühlen die Oberfläche ab. Außerdem absorbieren und emittieren Wolken langwellige (thermische) Infrarotstrahlung, wodurch die Oberfläche wärmer wird als ohne Wolken.

Dies ist keine Theorie. Sie können den Kurzwelleneffekt an einem klaren Sommertag spüren, wenn eine Wolke vorbeizieht und die Oberfläche kühler hinterlässt als ohne Wolken. Man kann auch den Langwelleneffekt in einer klaren Winternacht spüren, wenn eine Wolke aufzieht und die Oberfläche wärmer als ohne Wolke zurücklässt.

[Für diejenigen, die einwenden, dass die abwärts gerichtete langwellige Strahlung von kalten Wolken die Oberfläche nicht wärmer zurücklassen kann als ohne Wolken, siehe meinen Beitrag „Kann ein kaltes Objekt ein heißes Objekt erwärmen“.]

Die Summe dieser beiden Strahlungseffekte, der kurzwelligen Abkühlung und der langwelligen Erwärmung, wird als „Netto-Wolken-Strahlungs-Effekt“ oder „Netto-CRE“ bezeichnet. Ist er positiv, so wird die Oberfläche durch die Wolken wärmer, ist er negativ, so wird die Oberfläche durch die Wolken kühler als ohne sie.

Also wandte ich mich erneut dem satellitengestützten CERES-Datensatz zu. Dieser enthält Daten über den Netto-Strahlungseffekt der Wolken auf der Oberfläche. Abbildung 1 zeigt die Nettostrahlungseffekte der Wolken („net CRE“) auf der ganzen Welt.

Abbildung 1a: Netto-Oberflächen-CRE, Atlantik

Abbildung 1b: Netto-Oberflächen-CRE, Pazifik

Es gibt mehrere interessante Dinge in Bezug auf die Auswirkungen der oben gezeigten Wolken. Erstens kühlen sie die Oberfläche im Durchschnitt um etwa zwanzig Watt pro Quadratmeter (W/m²) ab. Außerdem erwärmen die Wolken die Pole um etwa den gleichen Betrag, also etwa zwanzig W/m². Und Wolken kühlen den Ozean etwa dreimal so stark ab wie das Land.

Wie hängt die Netto-CRE mit der Temperatur zusammen? Wir können das auf verschiedene Weise betrachten. Abbildung 2 unten zeigt ein Streudiagramm der durchschnittlichen Netto-CRE gegenüber der durchschnittlichen Oberflächentemperatur.

Da 21-Jahres-Durchschnittswerte verwendet werden, hat diese Art der Analyse den großen Vorteil, dass alle Rückkopplungen und langsam wirkenden Prozesse berücksichtigt werden. Dabei handelt es sich um die Gitterzellen-Temperaturen, auf die sich jede Gitterzelle über Jahrzehnte hinweg eingependelt hat, nachdem die Netto-Wasserdampf-Rückkopplung, die Wolken-Rückkopplung und alle anderen Rückkopplungen ihre Wirkung entfaltet haben. Auf diese Weise erhalten wir eine gute Vorstellung von der langfristigen Netto-Wolkenrückkopplung bei verschiedenen Temperaturen.

Abbildung 2. Streudiagramm der Durchschnittstemperaturen in Gitterzellen von 1° Breitengrad und 1° Längengrad und der Netto-Wolkenabstrahlungswirkung.

In Abbildung 2 ist der Trend bei jeder Temperatur durch die Steigung der gelb/schwarzen Linie gegeben. Sie zeigt an, wie stark sich die CRE im Durchschnitt bei einer bestimmten Temperaturänderung verändert. Daraus können wir mehrere Dinge erkennen. Erstens ist die Steigung bei den niedrigsten Temperaturen positiv – antarktische Wolken führen zu einer Erwärmung. Aber oberhalb von Temperaturen von etwa -20°C ist der allgemeine Trend der Netto-Wolkenrückkopplung negativ.

Oberhalb von etwa 26°C, was etwa 30 % des Planeten ausmacht, ist die Nettowolkenrückkopplung extrem negativ. Für jedes zusätzliche Grad Erwärmung nimmt die Nettostrahlungswirkung der Wolken um einige Dutzend Watt ab.

Schließlich gibt es zwei Gebiete, in denen die Nettowolkenrückkopplung positiv ist – dort, wo die Durchschnittstemperatur unter -20°C liegt (hauptsächlich das antarktische Plateau) und dort, wo sie zwischen 15°C und 25°C liegt (gemäßigte Zone).

Es gibt noch eine andere Möglichkeit, die langfristige Nettowolkenrückkopplung zu betrachten. Dabei werden dieselben Mittelwerte der Temperatur und der Nettowolkenrückkopplung betrachtet, allerdings auf andere Art und Weise. Bei dieser Methode wird das Gebiet um jede Gitterzelle herum betrachtet, um zu sehen, wie der Trend in dieser Gitterzelle ist.

Die Logik hinter der Methode besteht darin, dass eine bestimmte Gitterzelle eine durchschnittliche Temperatur und eine durchschnittliche Wolkenstrahlungswirkung aufweist. Wenn wir sehen wollen, was passiert, wenn die Durchschnittstemperatur um 1 °C höher oder niedriger ist, können wir die umliegenden Gitterzellen betrachten, um zu sehen, was bei unterschiedlichen Temperaturen in diesem lokalen Bereich passiert.

Hier sind zum Beispiel einige typische Gebiete im Pazifischen Ozean, die jeweils 9° Breitengrad x 9° Längengrad messen:

Abbildung 3a: Temperatur eines 9°-Gitterquadrats im Pazifik.

Abbildung 3b: Netto-CRE eines 9°-Gitterquadrats im Pazifik

Wie Sie sehen können, ist in diesem Teil des Pazifiks die Übereinstimmung zwischen ~ stationären Durchschnittstemperaturen und ~ stationären durchschnittlichen Netto-CRE stark negativ. Ich berechne den Trend und ordne ihn der zentralen Gitterzelle des Blocks zu. Ich wiederhole den Vorgang für jede der 64.800 Gitterzellen der Welt und untersuche, was in der lokalen Region passiert. So erhalte ich die globale Karte, die in Abbildung 4 unten dargestellt ist:

Abbildung 4a: Veränderung der CRE bei einem Anstieg der Oberflächentemperatur um 1°C, Ansicht des Atlantiks. Die weiß/schwarzen Linien zeigen den globalen Durchschnitt, etwa -2 W/m².

Abbildung 4b: Veränderung der CRE bei einem Anstieg der Oberflächentemperatur um 1°C, Ansicht des Pazifiks. Die weiß/schwarzen Linien zeigen den globalen Durchschnitt, etwa -2 W/m².

Dazu einige Anmerkungen. Die Nettowolkenrückkopplung ist über dem Land positiv und über dem Ozean negativ. In Übereinstimmung mit der Neigung der gelb-schwarzen Linie in Abbildung 2 sind das antarktische Plateau und die Temperaturzonen die positiven Gebiete, während die Tropen negativ sind. Und wie in Abbildung 2 dargestellt, sind einige Teile des wärmsten tropischen Ozeans stark negativ.

Als globaler flächengewichteter Durchschnitt ergibt diese Analyse schließlich eine globale negative CRE von -1,9 W/m² pro Grad Oberflächenerwärmung. Negativ.

Ja, ich verstehe, dass dies das genaue Gegenteil von dem ist, was die „Klimamodell-Simulationen, Satellitenbeobachtungen und explizite Simulationen von Wolken“, auf die sich der IPCC bezieht, aussagen… aber der IPCC ist ein politisches Gremium, kein wissenschaftliches Gremium.

Und was noch wichtiger ist: Diese Analyse basiert auf dem, was die Erde tatsächlich tut, und nicht auf „Klimamodell-Simulationen“, von denen selbst das IPCC zugibt, dass sie in Bezug auf Wolken sehr fehlerhaft und unsicher sind.

Und ja, sie widerspricht dem „wissenschaftlichen Konsens“ … aber so etwas ist sowieso Unsinn.

Schlussbemerkungen

Dies sind nur die Strahlungseffekte der Wolken. Zusätzlich zu den Strahlungseffekten der Wolken kühlen die Wolken die Oberfläche auf verschiedene andere Weise ab:

● Sie verstärken den Wind, der die Verdunstung erhöht, was die Abkühlung der Oberfläche verstärkt.

● Der Wind erhöht auch den fühlbaren Wärmeverlust von der Oberfläche.

● Wind über dem Ozean führt zu einer Erhöhung der Oberflächenalbedo durch die Auswirkungen von weiß brechenden Wellen, Gischt und Schaum.

● Sowohl durch die Gischt als auch durch die Wellen vergrößert der Wind die Oberfläche des Ozeans, was zu einem erhöhten Verlust an Verdunstungswärme und fühlbarer Wärme führt.

● Wolken führen zu Regen und Schnee, die beide eine stark kühlende Wirkung auf die Oberfläche haben.

● Thermisch angetriebene, kondensierende Wolken sind von langsam absinkender, trockener Luft umgeben, wodurch mehr Strahlung in den Weltraum entweichen kann.

● Der Wind verstärkt die Umwälzung der Meeresoberfläche, die kühleres Tiefenwasser an die Oberfläche bringt.

● Die in den obigen Grafiken gezeigte Strahlungskühlung unterschätzt also sowohl den gesamten Kühleffekt als auch die gesamte negative Rückkopplung der Wolken erheblich.

Link: https://wattsupwiththat.com/2021/09/17/uncertain-clouds/

Übersetzt von Christian Freuer für das EIKE




Der Emissionshandel wird auf COP26 zur entscheidenden Herausforderung

David Wojick

Ein großer Knackpunkt der COP26 ist der Emissionshandel. Das Handelssystem sollte auf der COP24 als Teil des Regelwerks des Pariser Abkommens entworfen und verabschiedet werden. Das ist nicht geschehen. Daher war er der Schwerpunkt der COP25. Auch dort kam es nicht dazu, zum Teil weil die radikalen Alarmisten den Handel als Ausweg verachten.

Jetzt haben wir also COP26. Die anderen großen Themen sind ziemlich unscharf, aber der Handel ist kristallklar. Entweder gibt es ein formelles System oder nicht, es wird also ein spannender Kampf werden. In der Zwischenzeit hier ein kurzer Blick darauf, warum der Handel so wichtig ist und warum er ein Witz ist.

Die dringende Notwendigkeit des Kohlenstoffhandels, zumindest in den alarmistischen grünen Träumen, lässt sich in drei kurzen Worten zusammenfassen: Flugzeuge und Schiffe. Dies sind die beiden großen Technologien, die nicht elektrifiziert werden können. Die Batterien in Flugzeugen wiegen zu viel. In Schiffen halten sie nicht lange genug. Stellen Sie sich vor, Sie müssten all das Zeug aus China über den endlosen Pazifik transportieren. Die Batterien würden das Schiff füllen.

Allerdings gibt es einige mögliche Ausnahmen. Kurzstrecken-Akkuflugzeuge gibt es bereits, auch wenn sie recht klein sind. Kreuzfahrtschiffe sind leicht, haben meist leeren Raum, in dem die Menschen sich austoben können, und sie halten häufig an, so dass man sie vielleicht aufladen könnte.

Natürlich könnten Schiffe auch mit Kernkraft betrieben werden, aber die Grünen hassen Kernkraft genauso sehr wie fossile Brennstoffe, wenn nicht noch mehr. Dass sie sich für chemische Energie (Batterien) entschieden haben, ist eine urkomische Heuchelei. Die Grünen und giftige chemische Batterien sind in der Tat ein seltsames Gespann.

Aber im Grunde müssen die riesigen Mengen an fossilen Brennstoffen, die von Schiffen und Flugzeugen verbrannt werden, irgendwie ausgeglichen werden. Willkommen in der verrückten Welt des Kohlenstoffhandels. Das ist das „Netto“ in Netto-Null.

Interessant ist, wer die Kompensationen benötigt. Die Regel ist, dass die Emissionen von Schiffen und Flugzeugen dem Land zugerechnet werden, von dem aus die Reise ungternoimmen wird. Allerdings gilt das nur für einen Flug. Wenn ein Flugzeug landet oder ein Schiff andockt, übernimmt dieses Land die Emissionen für den nächsten Flug. Ich habe keine Ahnung, was passiert, wenn Menschen vollständig auf ein anderes Schiff umsteigen, anstatt anzudocken. Die Nationalität der Fluggesellschaft oder des Schiffes ist dabei unerheblich.

Angesichts dieser Komplexität ist die Buchhaltung natürlich wild. Außerdem muss in einer Netto-Null-Welt jede Tonne dieser Schiffs- und Flugzeugemissionen irgendwie und irgendwo ausgeglichen werden. Ein ganz neues, gut bevölkertes Feld der Buchhaltung ist geboren. Ebenso wie ein ganz neues Feld des Betrugs.

Was den Betrug angeht, übergebe ich an meinen Kollegen Bryan Leyland, der Vorsitzender des Wirtschaftsausschusses der New Zealand Climate Science Coalition ist. Hier sind einige aufschlussreiche Auszüge aus einer kürzlich veröffentlichten Studie von ihm:

Ich hörte zum ersten Mal vor mehr als 10 Jahren auf einer Konferenz vom Emissionshandel. Ich stand auf und sagte: „Wenn ich der Finanzberater der Mafia wäre, würde ich ihnen raten, in den Emissionshandel einzusteigen. Nichts, was seither geschehen ist, hat meine Meinung geändert – eher im Gegenteil. Es ist interessant, dies mit dem Stromhandel zu vergleichen. Auf einem Strommarkt wird die Menge des gekauften und verkauften Stroms alle 30 Minuten mit einer Genauigkeit von +/- 0,2 % gemessen. Darüber hinaus erhalten Sie beim Kauf von Strom eine Energiemenge von hohem Wert, die Sie direkt zu Ihrem Vorteil nutzen können.

Beim Handel mit Emissionszertifikaten ist das ganz anders. Wenn Sie Kohlenstoffgutschriften z. B. aus einem Wald kaufen, liegt die Messgenauigkeit wahrscheinlich zwischen +/- 100 %. Handelt es sich um einen tropischen Wald, könnte sie bei minus 150 % liegen, da es hinreichende Beweise dafür gibt, dass einige tropische Wälder Netto-Emittenten von Treibhausgasen sind.

Aber es kommt noch schlimmer. Zwischen Käufer und Verkäufer sitzt ein „Prüfer“, der theoretisch die Menge der gehandelten Treibhausgase genau einschätzen kann. Wenn der Zählerstand eines Stromzählers gefälscht wird, gewinnt die eine Partei und die andere verliert. Wenn aber ein Prüfer in betrügerischer Absicht angibt, dass ein Wald z. B. 200 Tonnen Kohlendioxid pro Jahr absorbiert, während eine realistischere Zahl 100 Tonnen sein könnte, gewinnen beide Parteien. Der Waldbesitzer gewinnt, weil er mehr Gutschriften verkauft. Der Käufer der Gutschriften gewinnt, weil er ein Stück Papier kauft, das bescheinigt, dass er Kohlenstoffgutschriften erworben hat. Wenn die Menge nach oben korrigiert wird, sinkt wahrscheinlich der Preis pro Tonne, und er muss wahrscheinlich ohnehin mehr Zertifikate kaufen, als verfügbar sind.

„Meines Wissens ist der Handel mit Kohlendioxid der einzige Warenhandel, bei dem es unmöglich ist, mit angemessener Genauigkeit festzustellen, wie viel gekauft und verkauft wird, bei dem die gehandelte Ware unsichtbar ist und für den Käufer keinen nützlichen Zweck erfüllen kann, und bei dem beide Parteien davon profitieren, wenn die gehandelten Mengen übertrieben sind. Es ist daher eine offene Einladung zum Betrug.“

Aber wenn es niemanden interessiert, dass die Zahlen gefälscht sind, spielt es vielleicht keine Rolle, abgesehen von den ungezählten Milliarden Dollar. Wir zahlen dafür, dass die Flugzeuge fliegen und die Schiffe fahren können. Ablässe müssen nichts anderes als Ablass kaufen. Es könnte billiger sein, wenn sie nichts Wirkliches kaufen.

Das alternative grüne Szenario ist das, was die radikalen Alarmisten wollen, nämlich die Einstellung des Flugverkehrs und der Schifffahrt. Den Welthandel beenden. Darauf wird sich China niemals einlassen.

Es liegt also viel auf dem Verhandlungstisch, zumindest was den grünen Traum von Netto-Null betrifft.

Die COP26 steht an. Bleiben Sie auf dem Laufenden.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/09/15/carbon-trading-crunch-time-at-cop26/

Übersetzt von Christian Freuer für das EIKE




UK: Ladegeräte für E-Autos werden abgeschaltet, um Stromausfälle zu verhindern

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Die Times schreibt:

Ladestationen für Elektroautos in Privathaushalten werden so voreingestellt, dass sie an Wochentagen mit hoher Nachfrage neun Stunden lang abgeschaltet werden, weil die Minister Stromausfälle im nationalen Stromnetz befürchten.

Nach den Vorschriften, die im Mai in Kraft treten werden, werden neue Ladegeräte zu Hause und am Arbeitsplatz automatisch so eingestellt, dass sie von 8 bis 11 Uhr und von 16 bis 22 Uhr nicht funktionieren. Öffentliche Ladegeräte und Schnellladegeräte an Autobahnen und Schnellstraßen sind davon ausgenommen.

Die Regierung ist auch befugt, eine „zufällige Verzögerung“ von bis zu 30 Minuten zu anderen Zeiten zu verhängen, um Druck auf das Netz zu vermeiden, wenn es ein Gedränge unter den Autofahrern gibt, ihre Batterien zur gleichen Zeit aufzuladen.

Auf den Straßen Großbritanniens sind nur 300.000 batteriebetriebene Elektrofahrzeuge (EVs) unterwegs.

https://www.thetimes.co.uk/article/e-car-chargers-will-turn-off-to-prevent-blackouts-jnm2m86pz

Lange Zeit wurde uns versichert, dass E-Fahrzeuge keine Probleme für das Stromnetz verursachen würden, da die meisten Ladevorgänge nachts stattfinden würden, wenn es freie Kapazitäten gibt. Wie viele von uns ihnen hätten sagen können, würden die meisten Autofahrer einfach den Stecker ziehen, sobald sie zu Hause sind.

Jetzt ist die Regierung aufgewacht und hat diese Realität erkannt.

Zwischen 22 Uhr und 8 Uhr morgens aufzuladen, mag für einige in Ordnung sein, aber was ist mit Schichtarbeitern?

Diese neue Verordnung ist ein klares Eingeständnis, dass sich die Regierung nun ernsthaft Gedanken über die Netzkapazität und Stromausfälle macht. Ich vermute, dass es noch viele weitere Maßnahmen zur Rationierung von Strom geben wird.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/09/13/uk-e-car-chargers-will-turn-off-to-prevent-blackouts/

Übersetzt von Christian Freuer für das EIKE

 




Eine einfache Erklärung, warum Klimamodelle „heiß laufen“

David Legates

Der sechste IPCC-Zustandsbericht (AR6) ist veröffentlicht worden, sehr zur Freude und unter dem Jubel der Mainstream-Medien. Es wurde erwartet, dass das Dokument von Düsternis und Verzweiflung durchdrungen sein würde – es sei denn, wir verabschieden eine drakonische Strategie zur Reduzierung von Kohlendioxid – und der IPCC hat nicht enttäuscht.

Woher kommen also diese extremen Klimaszenarien? Man könnte annehmen, dass sie „erfunden“ sein könnten; schließlich wird die Klimawissenschaft seit langem vom Maierschen Gesetz geplagt – wenn die Daten nicht mit der Theorie übereinstimmen, müssen sie verworfen werden. Aber die Wissenschaftler müssen für all das Geld, das sie für den Klimawandel ausgeben, auch etwas vorweisen können; mit der Erstellung von Klimamodellen können die Klimamodellierer also ihren Lebensunterhalt verdienen.

Im Gegensatz zu Modellflugzeugen oder -eisenbahnen ist ein Klimamodell keine physikalische Erscheinung, sondern eine mathematische Darstellung des Klimasystems. Man geht davon aus, dass wir alle Gleichungen, die alles beschreiben, was mit dem Klima zu tun hat, in einen Computercode umwandeln, den „RUN“-Knopf am Computer drücken und uns zurücklehnen und feststellen, dass die Erde in kürzester Zeit zu einem Feuerball wird – es sei denn, wir ergreifen extreme Maßnahmen, um den Anstieg der Kohlendioxidkonzentration in der Atmosphäre zu stoppen.

Nun, so funktioniert das nicht ganz. Im Jahr 2007 stellte der Workshop on Theoretical Alternatives to Climate Modelling fest, dass „entgegen einem weit verbreiteten Missverständnis die Computermodellierung des Klimas zu einem großen Teil auf empirischen Faustregeln und unkontrollierten Annäherungen in vielen ihrer wichtigsten physikalischen Aspekte beruht“. Ein Jahrzehnt später gaben die Klimamodellierer in The Art and Science of Climate Model Tuning (etwa: Die Kunst und Wissenschaft hinter dem Frisieren von Klimamodellen) schließlich zu, dass

„… mit der zunehmenden Vielfalt der Anwendungen von Klimamodellen auch die Zahl der möglichen Ziele für die Optimierung steigt. Es gibt eine Vielzahl von Zielen für bestimmte Probleme, und verschiedene Modelle können so optimiert werden, dass sie bei einer bestimmten Metrik besser abschneiden, was mit den spezifischen Zielen, dem Fachwissen oder der kulturellen Identität eines bestimmten Modellierungszentrums zusammenhängt.“

Modelle werden nach bestimmten Zielsetzungen optimiert? Ist das die Wissenschaft, wie wir sie kannten, oder ist es eine postnormale Wissenschaft, bei der das „Fachwissen“ das Ergebnis bestimmt?

Die einzig richtige Art, ein Klimamodell zu bewerten, ist der Vergleich mit beobachteten Daten.  Man könnte annehmen, dass wir Thermometerdaten nehmen und sie mit den modellierten Zeitreihen vergleichen. Aber, wie ein berühmter Klimaalarmist [1] einmal sagte: „Die Daten sind schmutzig!“ Und in der Tat, das sind sie! Unsere Thermometer befinden sich überwiegend über dem Land, in mittleren Breiten, in niedrigeren Höhen, in wohlhabenderen Gesellschaften und entlang von Küstenregionen – kurz gesagt, dort, wo entwickelte Menschen leben. Über den Ozeanen, den hohen Breiten, den Wüsten und den tropischen Regenwäldern gibt es nur wenige Messungen. Darüber hinaus sind viele dieser Aufzeichnungen unvollständig oder aufgrund von Stationsverlegungen und -unterbrechungen, Änderungen in der Instrumentierung und schlechten Standortpraktiken verzerrt. Darüber hinaus messen sie nur die Lufttemperatur in einer Höhe von etwa 1,7 m* – eine bequeme Höhe für einen 1,80 m großen Wetterbeobachter, um die Station zu erreichen.

[*Die amtliche Messhöhe für Temperatur-Messungen im Bereich des DWD beträgt genau 2 Meter. Da fangen also die Ungenauigkeiten schon an! A. d. Übers.]

Aufgrund der Unzulänglichkeiten der Stationsbeobachtungen greifen Klimatologen häufig auf Satellitendaten zurück.  Obwohl Satellitenschätzungen der Lufttemperatur erst seit 1979 vorliegen, bieten sie eine nahezu vollständige räumliche Abdeckung und integrieren die atmosphärische Temperatur in der gesamten unteren Troposphäre, nicht nur in einer Höhe von 5,5 Fuß.  Daher sind Satellitenschätzungen der atmosphärischen Lufttemperatur vorzuziehen und relativ genau, wenn man sie mit disparaten Thermometer-Messnetzen vergleicht.

Wenn Modellsimulationen des aktuellen Klimas (1979 bis 2020) mit den Satellitenaufzeichnungen verglichen werden, neigen die Klimamodelle dazu, „heiß“ zu laufen, d.h. die Modelle überschätzen in der Regel den Anstieg der Lufttemperatur im Laufe der Zeit im Vergleich zu dem von den Satelliten beobachteten. Dr. John Christy hat vor beiden Häusern des US-Kongresses ausgesagt, dass die Klimamodelle den Anstieg der Lufttemperatur im Laufe der Zeit überbewerten. Warum ist das so? Wir können über die Anwendung von Konvektions-Parametern in den Modellen, den räumlichen Mittelungsprozess, der sich auf die Computersimulationen auswirkt, und die Unsicherheiten im Zusammenhang mit der Parametrisierung der Eisschilddynamik diskutieren – aber das sind sehr technische, wissenschaftliche Erklärungen. Auf einer sehr grundlegenden Ebene gibt es jedoch eine sehr einfache Erklärung dafür, warum die Modelle heiß laufen – und sie wird durch diese sehr einfache Gleichung gegeben:

wobei die Veränderung der Lufttemperatur mit der Zeit in den Modellen durch zwei einfache Terme erklärt wird. Ich werde zeigen, dass beide Terme überschätzt werden, was zur Überschätzung der Klimasensitivität (der Term links vom Gleichheitszeichen) beiträgt.

Der erste Term,

beschreibt die Modellreaktion der Lufttemperatur auf eine Änderung der Kohlendioxid-Konzentration. Dieser Begriff kann als transiente Klimareaktion (TCR) oder als Gleichgewichts-Klimasensitivität (ECS) bezeichnet werden, je nachdem, ob ein transienter Wert oder eine stationäre Lösung betrachtet wird. Sowohl Charney im Jahr 1979 als auch der Erste Bewertungsbericht des IPCC gingen davon aus, dass die ECS bei einer Verdoppelung des Kohlendioxids zwischen 1,5°C und 4,5°C fällt. Frühe Schätzungen in den 2000er Jahren deuteten auf Durchschnittswerte [des Anstiegs] zwischen 5,0°C und 6,1°C hin, obwohl die meisten anderen Schätzungen zwischen 2,5°C und 3,9°C für eine Verdoppelung des Kohlendioxids lagen. Seitdem sind die Beobachtungs-Schätzungen des ECS jedoch drastisch auf Werte von weniger als 1°C gesunken, obwohl Modelle und der Sechste Bewertungsbericht des IPCC immer noch von einem ECS von etwa 3°C ausgehen (Abbildung 1).

[Sämtliche Temperaturdifferenzen, im Original in °F angegeben, sind hier gleich in °C umgerechnet dargestellt. A. d. Übers.]

So wird der erste Term in der Gleichung – die Klimasensitivität – sowohl von den Modellen als auch vom IPCC im Vergleich zu aus Beobachtungen gewonnenen unabhängigen Schätzungen überschätzt. Der zweite Term,

beschreibt, wie das Modell den Anstieg des Kohlendioxids mit der Zeit simuliert. In den vergangenen Jahren wurden vier Szenarien unterstellt: RCP2.6, RCP4.5, RCP6.0 und RCP8.5. RCP steht für „Representative Concentration Pathway“ (Repräsentativer Konzentrationspfad), und die nachfolgende Zahl gibt den anthropogenen Treibhauseffekt (in W/m²) an, der bis 2100 eintritt. In jüngerer Zeit wurden fünf Basisszenarien vorgeschlagen: SSP1-1.9, SSP2-4.5, SSP4-6.0, SSP3-7.0, und SSP5-8.5. SSP steht für „Shared Socioeconomic Pathway (Gemeinsamer sozioökonomischer Pfad), die erste Zahl ist die sozioökonomische Herausforderung (1-Nachhaltigkeit, 2-Mittelweg, 3-Regionale Rivalität, 4-Ungleichheit und 5-Fossile Entwicklung), und die zweite Zahl ist wie zuvor der anthropogene Treibhauseffekt bis 2100. In der folgenden Tabelle (Tabelle 1) werden die beiden Methoden miteinander verglichen:

Der IPCC AR6 verwendet diese SSPs zur Modellierung des möglichen Energieverbrauchs und folglich der Emission von Treibhausgasen. Viele Wissenschaftler interpretieren ein „Business-as-usual“-Szenario als SSP5-8.5 (oder RCP8.5), wobei alle anderen Szenarien zu einer gewissen Einschränkung der Treibhausgasemissionen führen. Dies ist keine angemessene Interpretation, da die Szenarien SSP3-7.0 und SSP5-8.5 als „unwahrscheinlich“ gelten (Abbildung 2):

Leider verwenden die meisten Modellbewertungen zukünftiger Klimaszenarien SSP5-8.5 (oder früher RCP8.5), um die Auswirkungen von Veränderungen des atmosphärischen Kohlendioxids zu simulieren. Beachten Sie, dass Hausfather und Peters (Abbildung 2) dieses Szenario als „höchst unwahrscheinlich“ bezeichnen. Dennoch führt dieses Extremszenario zu extremen Veränderungen bei den meisten Klimavariablen, was genau das ist, was die Klimaalarmisten sehen wollen. So ist die Modelldarstellung der Veränderung der Lufttemperatur mit der Zeit …

… ist übertrieben (d. h. sie „laufen heiß“), weil die meisten Modell-Simulationen eine ECS anwenden (1), die zu hoch ist …

… jedenfalls im Vergleich zu Beobachtungen, und einem Szenario für sich ändernde atmosphärische Kohlendioxid-Konzentrationen …

… welche zugegebenermaßen „höchst unwahrscheinlich“ sind. Daraus ergibt sich rechnerisch eine dramatische Erwärmung bis zum Jahr 2100 (Abbildung 3):

[1] Professor Thomas Wigley, Personal Communication

Link: https://cornwallalliance.org/2021/09/a-simple-explanation-of-why-climate-models-run-hot/

Übersetzt von Christian Freuer für das EIKE

 




Das GWPF warnt die Regierung: Keine falschen Lehren aus der Energiekrise Europas ziehen!

Global Warming Policy Forum

Das Global Warming Policy Forum (GWPF) hat die politischen Entscheidungsträger in London und Brüssel davor gewarnt, die falschen Lehren aus der sich abzeichnenden Energiekrise in Europa zu ziehen, da sonst die öffentliche Empörung und der Aufruhr wachsen würden. Regierungen, die die Augen vor den verheerenden wirtschaftlichen Auswirkungen der Net Zero-Politik verschließen, werden den kommenden Sturm wahrscheinlich nicht überleben.

Der Vizepräsident der Europäischen Kommission Frans Timmermans erklärte am Dienstag vor dem Europäischen Parlament in Straßburg, dass die rekordhohen Strompreise zeigen, dass die EU den Übergang zu erneuerbaren Energien beschleunigen sollte.

Trotz eines Rekordanstiegs bei den Subventionen für erneuerbare Energien in Höhe von Hunderten von Milliarden Euro und rekordverdächtig hohen Kohlenstoffpreisen behauptete Timmermans, dass die Kosten der europäischen Umweltpolitik nicht die Hauptursache für den Anstieg der Energiekosten seien.

Tatsächlich sind die politisch bedingten Kosten viel wichtiger als die Marktpreise, wie ein Vergleich der amerikanischen und europäischen Energiepreise zeigt. Tatsächlich sind die Erdgaspreise in Europa mehr als dreimal so hoch (18 $/MMBtu) wie in den USA (5 $/MMBtu), wo Fracking weit verbreitet ist und Schiefergas billig und reichlich vorhanden ist.

„Die reflexartige Reaktion der Europäischen Kommission auf ihre selbstverschuldete Energiekrise ist eine völlig falsche Interpretation der zugrunde liegenden Faktoren, die die Preise in die Höhe treiben und die Gefahr bergen, dass sich der drohende wirtschaftliche und soziale Umbruch noch verschlimmert“, warnte Benny Peiser, der Direktor des GWPF.

Die meisten europäischen Regierungen haben die Förderung der riesigen Schiefergasvorkommen des Kontinents faktisch verboten, während Hunderte von Milliarden Euro an Subventionen für Investoren in erneuerbare Energien die Energierechnungen in ganz Europa weiter in die Höhe treiben.

Obwohl Europa noch jahrzehntelang auf Erdgas angewiesen sein wird, haben das Verbot von Fracking und die Einschränkung der konventionellen Gasförderung zu einer ernsthaften Verknappung der heimischen Erdgasproduktion geführt. Die Folge sind überhöhte Strompreise und steigende Inflation sowie eine wachsende Kostenlast, die Europas ohnehin schon angeschlagene Haushalte nun zu tragen haben.

Hinzu kommt, dass die Versorgungsunternehmen rekordverdächtige Preise für den Erwerb von Emissionszertifikaten für die Stromerzeugung aus Erdgas zahlen müssen, was zu einem unaufhaltsamen Anstieg der Strom- und Wärmepreise führt.

Die Märkte in ganz Europa sind durch die Politik zur Förderung erneuerbarer Energien stark verzerrt. Diese Verzerrungen und andere regulatorische Zwänge haben Preissignale zunichte gemacht, die andernfalls Investitionen in ein vielfältiges Portfolio von Brennstoffen und Erzeugungsarten fördern würden.

In der Tat ist das europäische System von subventionierten erneuerbaren Energien und einer schrumpfenden, verbleibenden, aber unverzichtbaren konventionellen, meist mit fossilen Brennstoffen betriebenen Stromerzeugung abhängig geworden, die sich am Rande des Marktes an ihre Existenz klammert.

Das Ergebnis ist, dass die Systeme anfällig sind und leicht durch Preisschwankungen bei den verbleibenden fossilen Erzeugern gestört werden, die die Versorgungssicherheit in Abwesenheit unzuverlässiger erneuerbarer Energien gewährleisten.

Dr. John Constable, der Energieredakteur des GWPF, sagte:

„Diejenigen, die behaupten, dass die derzeitigen hohen Gaspreise ein Hinweis auf den weiteren Ausbau der erneuerbaren Energie sind, haben keine Ahnung von den Realitäten des Systembetriebs. Die Schwächen der europäischen Energieversorgung resultieren aus den falschen Versuchen, eine kohlenstoffarme Wirtschaft zu ‚planen‘, die auf physikalisch inkompetenten Wind- und Solaranlagen basiert“.

In diesem Winter sehen sich die europäischen Regierungen mit einer wachsenden öffentlichen Gegenreaktion konfrontiert, da die kombinierten Auswirkungen der Net-Zero-Pläne und der katastrophalen grünen Energiepolitik Dutzende von Millionen von Haushalten mit niedrigem Einkommen und normale Haushalte treffen werden.

Regierungen, die die Augen vor den verheerenden wirtschaftlichen Auswirkungen der Net-Zero-Politik verschließen, werden den kommenden Sturm wahrscheinlich nicht überleben.

Link: https://www.thegwpf.com/gwpf-warns-ministers-not-to-draw-the-wrong-lessons-from-europes-energy-crisis/

Übersetzt von Christian Freuer für das EIKE